Modelos Econometricos PDF
Modelos Econometricos PDF
Modelos Econometricos PDF
!7
A modo de presentación
Los estudiosos del campo económico tienden a establecer sus opiniones desde muchas
perspectivas, algunos se basan en los hechos regulares o persistentes que existieron en largos
períodos de tiempo y que tienden a repetirse, por ejemplo la existencia de déficit fiscal puede
generar problemas inflacionarios en las economías, debido a la monetización de dichos déficit y a
una situación de gasto excesivo. Esta realidad tiene evidencias desde los eventos que derivaron
en la revolución francesa, se aplican a las economías latinoamericanas en los años 90 y aún hoy
son aplicables a economías como la Griega o la Venezolana en pleno siglo XXI.
Las evidencias así denominadas históricas terminan siendo aspectos generalizados que
simplemente prueban la hipótesis de su existencia porque en la historia son recurrentes. A todos
les queda claro que la emisión monetaria es perjudicial cuando genera inflaciones por encima de
los equilibrios de largo plazo. Evidencias de ellos tenemos, desde las inflaciones en la España
colonizadora, hasta los procesos inflacionarios en Alemania de entre guerras, Bolivia junto a Perú
en las postrimerías de los años 80 y así se pueden obtener otras evidencias de ello, de modo que
la vista histórica es algo bastante extendido en el análisis económico.
Otras miradas al análisis económico se basan en hechos concretos que derivan del
comportamiento humano, así los economistas en el siglo XVIII evidenciaron que las personas
intercambiaban bienes en función a algún valor dado en ellos, en principio el valor podía ser
mucho y por ende el cambio de la mercancía se hacía sobre mayores bienes o sobre mayor valor
monetario (los albores de la moneda en oro), esta medición sobre los hechos constituía la base
del descubrimiento de teorías (como la de oferta y demanda) que luego se probaban basados en
la recurrencia de los actos humanos.
Los éxitos teóricos iban de la mano de una regularidad empírica observable, por tanto las
hipótesis quedaban probadas, el éxito de muchas teorías de este tipo pueden encontrarse hasta
nuestros días, donde los economistas no discuten las leyes de oferta y demanda, sino sus
excepciones o sus no cumplimientos (también observadas en la realidad), con fines de agregar
un mayor bagaje al entendimiento de los mercados.
No obstante lo importante de las vistas anteriores, los economistas han pretendido tener una
idea mas clara de los eventos o fenómenos de la realidad económica, la idea de cuantificar los
procesos económicos es una de las vertientes más importantes de la ciencia económica, en esta
rama cae la econometría, pretendiendo darle un valor a las relaciones entre diversas variables
económicas, o buscando saber si estas relaciones son persistentes en algún período de tiempo o
son coyunturales, o simplemente son relaciones a largo plazo.
! !8
En los tiempos recientes, la idea de saber el impacto causado por las políticas económicas o
sociales, ha devenido en nuevas herramientas econométricas que se conjugan en incluso
vertientes específicas como la macro y microeconometría, no obstante ambos aspectos tienen la
misma base teórica instrumental, que simplemente las variables de análisis deben tener
relaciones medibles en condiciones de estabilidad o de ausencia de un error intencional, es decir
bases muy vinculadas a la aleatoriedad que debe tener todo diseño de modelos econométricos.
La econometría no ha escapado al debate sobre sus aplicaciones en el campo del análisis de
eventos o de simplemente pronósticos, sin embargo al margen de pretender hacer de
futurólogos, lo que más pretende un buen análisis econométrico es entender porque algunos
eventos económicos son particularmente causados por alguna variable, o son influenciados de
algún modo por algún evento que puede ser administrado o no por los ejecutores de políticas,
con fines de tener ideas claras de lo que funciona o no en las economías del mundo.
Este libro se enmarca en esa idea central, buscar que los economistas pueden tener alguna
herramienta adicional para entender la dinámica de los sucesos económicos y sus distintas
variables relacionadas, está orientado al diseño de modelos econométricos en cada unos de sus
capítulos. Nos hemos permitido tomar ideas interesantes de diversos autores, con fines de que
los lectores puedan esbozar sus propios modelos o sus propios entendimientos de esa realidad
económica específica.
La primera parte del libro se aboca a los cursos básicos de econometría (capítulos I al VIII)
donde se analizan los modelos generales y sus distintas aplicaciones así como desventajas por
decirlo de algún modo, ya que tienen muchas utilidades antes que las denominadas fallas que se
señalan comúnmente. Dichas fallas han originado una serie de modelos econométricos que
permiten complementarlas o por lo menos darles rigurosidad a los resultados obtenidos, la
segunda parte del libro se aboca a dichos modelos derivados de aquellos básicos o con
desventajas, por ejemplo las series de tiempo estacionarias, los modelos Tobit, los paneles de
datos y algunas aplicaciones más cercanas al mundo de la empresa, de modo que los capítulos
IX al XIV, pueden ser muy aplicativos en cursos de econometría de mayor complejidad o
tratamiento.
Finalmente señalamos que el libro puede contener, como todo en la vida, muchos errores y
quizás aciertos, solo esperamos que la comunidad académica puede tener en este documento
una referencia adicional a la hora de diseñar sus modelos econométricos o plantear relaciones de
este tipo. Hay que agradecer también a los alumnos de estos cursos, que han permitido el
esfuerzo de poder corregirlo con sus siempre inteligentes aportes, así como a todos los colegas
involucrados en ello, para lo cual van nuestros agradecimientos infinitos.
C. León / A. Escajadillo
!9
ÍNDICE pág.
Introducción 17
Introducción al tema 21
Introducción al tema 59
Introducción al tema 88
!11
Referencias bibliográficas 169
7 Autocorrelación de errores
12
!
7.1 Fallas generadas en los modelos por autocorrelación de errores 263
10.4 Series de tiempo autoregresivas con media móvil (ARMA) y coeficientes de 400
correlación parcial
14!
Conclusiones del capítulo 477
Caso de aplicación 479
Ejercicios 481
Referencias bibliográficas 490
!15
13.5 Evaluación del impacto por método de diferencias en diferencias 567
!
16
Introducción
Este libro consta de 14 capítulos, se ha pensado en una secuencia de temas que ayuden a
los estudiantes de econometría a pasar de los modelos básicos a aquellos cuyo tratamiento es
más complejo. El capítulo I nos introduce en el hecho de que todo modelo econométrico parte de
alguna teoría básica; en algunos diseños avanzados, los modelos parten de lo que el
investigador podría pensar como evento económico a estudiar y donde la teoría es inexistente
aún o es parcial y puede ser ampliada o evidenciada de modo reciente. Las teorías diversas
deben tener formas de medirse y para ellos se requiere procesos generadores de datos los
mismos que llevan al tratamiento estadístico que arrojan los resultados que podrían probar o no
alguna hipótesis.
Del capitulo V al capítulo VII se tratan los ya clásicos rompimientos de los supuestos básicos
de un modelo econométrico, como son la multicolinealidad que nos lleva a pensar en distintas
formas de solución para variables redundantes o poco explicativas, e inclusive en plantear
modelos usando las complejas variables instrumentales. Luego tenemos los modelos con
varianza cambiante o heterocedásticos, donde tratamos de explicar que corregirlo, mas que un
tema de usar desviaciones o mínimos cuadrados generalizados, pasa por diseñar mejor las
muestras de estudio. Finalmente esta sección concluye con los modelos con errores
autocorrelacionados, cuya solución (primeras diferencias) ha generado toda la gama de modelos
de series de tiempo tan usada en la actualidad.
Luego tenemos los capítulos VIII y IX, ambos relacionados con los modelos de respuesta
limitada, dicotómica o simplemente probabilísticos. El tratamiento empieza por los modelos de
probabilidad lineal, que al tener limitaciones de acotación en sus extremos, generan los modelos
logit (para datos concentrados en algún lado de la distribución) o probit (para datos de
distribución normal). La idea de estos modelos es poder conocer la probabilidad de ocurrencia de
algún evento, en general su diseño puede llevar a plantear variables latentes no observadas,
17
pero que generan probabilidades de suceso en los hechos económicos. Un tratamiento más
complejo sucede cuando los datos pueden ser truncados (una parte de la distribución no se
observa) en ese caso se hacen estimaciones tobit y en este texto planteamos un ejemplo de ese
tipo de modelos.
Los capítulo X y XI presentan el tratamiento de las series de tiempo, plantean lo que ahora es
ya un tratamiento básico como son los análisis de estabilidad y series unitarias, tanto para
modelos autoregresivos como para modelos de media móvil. Una vez planteados esos aspectos
nos introducimos a los modelos de vectores autoregresivos (VAR) y los tratamientos de series
cointegradas, esta parte del libro pretende sentar las bases para tratamientos más complejos en
series de tiempo.
A partir del capítulo XII y hasta el final, el libro busca brindar tratamientos más actuales en
econometría y por tanto con cierto grado de complejidad, así en este capítulo nos introducimos al
fascinante y muy actualizado modelos de panel de datos, pretendemos el diseño de estos
modelos y su tratamiento tanto en efectos fijos como aleatorios, sus formas de estimación
práctica y siempre recalcando que este tema tiene un gran desarrollo actualmente y los alumnos
podrían sentar aquí las bases para estudios más profundos sobre el tema.
El capítulo XIII presenta dos tratamientos econométricos, el primero de ello muy presente en
los datos de alta volatilidad relacionado generalmente a los activos financieros, la modelación de
estas series debe suponer que existen varianzas autocorrelacionadas y para ello surgen los
modelos ARCH o GARCH y sus derivados.
Otro aspecto muy reciente es el análisis de impactos mediante mediciones en estudios
transversales, donde las técnicas se han ido depurando, tanto para los modelos de primera o
doble diferencia, así como los tratamientos de modelos de emparejamiento, en estos casos el
objetivo es saber si la política empleada fue efectiva o no, consideramos que los estudios
subnacionales de impacto de políticas públicas, serán algo común en la siguiente década, de
modo que aquí contribuimos a aquellos estudiantes que quieran desarrollar estos temas en el
futuro.
18
ramas distintas de aplicación y no sólo métodos de estimación puntual, sino que se familiaricen
un tanto con los métodos no paramétricos que ofrece este capítulo final.
Hay que señalar que cada capítulo tiene casos de aplicación, donde el objetivo es diseñar
modelos econométricos de tratamiento específico. Así según el capítulo que se analice, se
plantean extractos teóricos que sirvan de base para el diseño del modelo que se relacione con el
dicho capítulo. Igualmente cada capítulo contiene al menos un ejercicio donde se apliquen datos
diversos para realizar ejercicios de estimación de modelos econométricos.
Como esta labor de investigación o al menos análisis de la teoría existente nunca termina,
invitamos a los lectores y estudiantes diversos, a plantear sus propios ejercicios, a compartir ello
con nosotros y poder así incrementar el análisis que este documento quiere invitar en todos sus
lectores. Igualmente cualquier error detectado puede escribirnos para poder corregirlo de cara a
un mejor desempeño en las clases donde este material pueda buenamente utilizarse.
Para correcciones, solicitudes de las bases de datos (en Microsoft Excel) que este libro usa y
plantea como ejercicios o compartir sus propios casos con nosotros, no dude en escribirnos a:
cleon@usat.edu.pe. Expresamos también nuestras disculpas para los errores cometidos, siempre
ello será responsabilidad exclusiva de los autores.
Finalmente el lector debe saber, que la mayor parte de este libro usa como soporte
informático el programa STATA (en su versión para MAC OS pero equivalente en Windows), no
obstante los análisis aquí planteados pueden ser replicados o aplicados en otros programas para
estos fines; como por ejemplo Eviews, SPSS, Gretl, Matlab u otros que el lector domine.
Consideramos que en econometría es muy importante diseñar el modelo, el tratamiento operativo
en cualquier programa informático nos mostrará buenos resultados si el diseño es bueno, por
general todas las licencias informáticas para econometría son igualmente potentes.
Chiclayo, Perú.
Julio de 2015.
19
CAPÍTULO I
Modelación econométrica: De
la teoría económica al
modelo estimable
20
Modelación econométrica: De la teoría económica al modelo estimable
Introducción al tema
Los modelos econométricos siempre parten de una concepción previa, es decir hay todo un
diseño teórico que permite establecer relaciones diversas entre variables económicas y otras. Por
ejemplo la posibilidad de que la creciente masa monetaria de un país genera alzas de precios, es
una regularidad que se da en las economías. Esta regularidad ha sido planteada a modo teórico
como la relación entre la inflación y la cantidad de dinero, esto conlleva luego a probar si esta
regularidad es válida en términos estadísticos de modo que pueda generalizarse en el contexto
donde se produce.
En general los modelos econométricos tienen un soporte teórico necesario, al menos tienen
diversas regularidades que se presentan en la realidad económica, por ello surge la intención de
establecer estas relaciones teóricas (que pueden ser nuevas, originales o traídas de otras
realidades para probar su vigencia) y medirlas o validarlas con criterios estadísticos.
En este capítulo analizamos esos fundamentos teóricos para los modelos econométricos en
general, por ello los componentes del capítulo son el análisis teórico necesario, la búsqueda de
datos para validar las teorías, el planteamiento de modelos que se puedan estimar, errores de
diseño y el uso de modelos para predicción o evaluación de las políticas, que diseñan los
ejecutores en el ámbito público e inclusive en el privado.
21
Modelación econométrica: De la teoría económica al modelo estimable
Estas regularidades descritas antes, se conocen en la teoría económica como leyes de oferta
y demanda, simplemente la teoría recoge un comportamiento existente en los hechos y prácticas
de los agentes económicos.
Po = a + b (Qo) (1)
Donde Po representa el precio de los bienes ofertados, Qo representa las cantidad ofertada
en el mercado, a representa el precio existente cuando no existe cantidad ofertada (en buena
cuenta el mínimo precio posible por un bien) y b representa la tasa de cambio entre el precio y la
cantidad. Observemos que un mayor precio necesariamente coincide con una mayor cantidad
ofertada, cumpliendo la observación teórica y el fenómeno real.
Pd = c - d (Qd) (2)
a + b (Qo) = c - d (Qd)
Q (b + d) = c - a
Q = (c - a) / (b + d) (3)
Si por ejemplo “a” (mínimo precio de los ofertantes) baja en razón de un mayor número de
productores, entonces la cantidad ofrecida y demandada (Q) en el mercado aumenta y el precio
de equilibrio (P) baja. Esta regularidad ya señalada como leyes de oferta y demanda puede
estimarse a partir de conocer el valor de “a, b, c y d”, con los cuales se resuelven las ecuaciones
(3) y (4).
Saber los valores señalados anteriormente, implica estimar las ecuaciones (1) y (2) desde un
punto de vista estadístico o matemático, la estimación se realiza usando información del mercado
donde estemos realizando el análisis respectivo.
Podemos, por ejemplo, recurrir al mercado de venta de uvas de exportación (un ejemplo en el
Perú es la uva red globe) y conocer la producción anual para cada precio del mercado
internacional. Con ello podemos encontrar el valor de “b” (también la pendiente matemática de la
ecuación 1), podemos a su vez preguntarles a los productores de uvas a qué precio ya no hay
ganancias y tendremos el valor de “a”. Con lo cual ya hemos resuelto gran parte del problema.
Como puede verse el planteamiento teórico acorde a las leyes de oferta y demanda, es la
base para establecer relaciones matemáticas o estadísticas con las cuales se pueden estimar
tanto el precio como la cantidad de equilibrio en un mercado.
23
Modelación econométrica: De la teoría económica al modelo estimable
¿Por qué señalamos antes que pueden establecerse relaciones estadísticas? Pues porque
para conocer los precios máximos o mínimos se recurre a encuestas donde previamente hay que
elegir a los entrevistados, lo cual ya supone un proceso al azar o aleatorio, de modo que las
respuestas sean lo más auténticas posibles. Las respuestas de los entrevistados en torno a los
precios indicados en las ecuaciones (1) y (2) pueden ser tomadas como el promedio, la moda o
la mediana, de modo que tengamos un dato representativo del grupo de entrevistados, esto ya
supone un tratamiento estadístico de los datos, con los cuales también podemos conocer la
cantidad y precio de equilibrio que se evidencia en las ecuaciones (3) y (4).
Una primera conclusión sobre lo tratado previamente, supone que para el diseño de modelos
econométricos debemos conjugar dos cosas, primero una regularidad existente o hecho
económico que normalmente sucede, afecta o genera comportamientos de los agentes y la
segunda una base teórica que explique dichos comportamientos a modo general.
24
Modelación econométrica: De la teoría económica al modelo estimable
para que el capital sea legalizado, o para que los productores puedan ser reconocidos
formalmente.
Esto supone que pueden darse más tratamientos teóricos al tema, por ejemplo se puede
mencionar que el clima de negocios es vital para que estos desarrollen y prosperen en ambientes
formales (Porter, 1991), en la medida que los países desarrollen un buen clima de negocios,
atraerán a éstos y su desempeño será notable. Otras corrientes indican que los países en
desarrollo tienden a esos niveles de economía informal por cuanto carecen de institucionalidad o
de sólidas bases para el desarrollo institucional (Acemoglu y Robinson, 2012) y terminan siendo
economías extractivas, es decir no fomentan un sistema donde son las instituciones antes que
las personas los responsables del éxito, en buena cuenta los procesos políticos se orientan de
modo adecuado porque existen mecanismos de control institucionalizados, eso reduce
enormemente la informalidad en las decisiones del país. Buenas instituciones además supone
que provienen de procesos donde todos los agentes tienen los incentivos adecuados, por
ejemplo ser informal es más costoso que ser formal, además ser informal es inviable porque no
se tienen protección alguna en un estado formal y siempre controlado.
Como puede verse las teorías, corrientes o pensamiento económico ligado al tema de la
informalidad ha ido cambiando, en algunos casos es explicado por teorías puntuales, en otros
casos proviene de diversos conjuntos teóricos que explican no sólo ese problema sino otros
hechos económicos, cada tratamiento teórico le puede dar una perspectiva distinta al fenómeno y
aporta variables de estudio. En el caso de la informalidad en la economía (Y), esta puede
deberse, por ejemplo, a: excesos regulatorios (X1), escasa institucionalidad (X2), costos bajos de
ser informal (X3), nivel de cumplimiento de la ley (X4), nivel de formalización del capital invertido
(X5), grado de movilidad del capital en un mercado legal (X6). El proceso no termina, por ejemplo
aún no termina de explicarse por qué si hay una gran cantidad de informales, una economía
sigue creciendo, como el caso de Perú o la India, no es acaso la informalidad una traba al
crecimiento económico, o es el alto crecimiento un impulso adicional a la informalidad en un país
donde el marco regulatorio es de por sí excesivo.
Finalmente podemos señalar a modo de modelo teórico, que la informalidad (Y) es explicada
total o parcialmente con las variables X1, X2, X3, X4, X5 y X6.
La utilidad de esta forma de ver los modelos económicos desde una perspectiva teórica,
puede ser un aliciente para aquellos dedicados a investigar los fenómenos económicos. Puede
darse por ejemplo lo siguiente:
25
Modelación econométrica: De la teoría económica al modelo estimable
Crecimiento!del!
Volumen!
exportado! !
¿?! Variación!del!
Tipo!de!cambio!
real!
En la figura anterior observamos que el volumen exportado de un país hacia otro, puede
depender del tipo de cambio real (la relación equivalente a tipo de cambio nominal * precio
internacional / precio nacional), hasta aquí hemos encontrado una variable que puede explicar a
la otra en alguna medida (señalada como la parte del gráfico intersectado), sin embargo puede
existir otra variable (u otras) que también influyen en el crecimiento del volumen exportado, aquí
es donde el investigador puede recurrir a otras teorías o plantear su propia teoría o teorías,
cuando observa hechos en la realidad económica que requieren una explicación conceptual,
siempre que nadie las haya realizado antes.
Por ejemplo algunos pueden señalar que el volumen exportado depende de las ventajas
relativas del país sobre todo en los costos comparados de mano de obra (Ricardo, 1817). Porter
(1985) indica que las exportaciones pueden acelerarse mediante las ventajas competitivas de las
empresas, esto es el logro de ventajas a lo largo de la cadena de valor empresarial, por ejemplo
proveedores de mayor sofisticación o calidad, clientes más exigentes, un gobierno que ayuda en
la cadena logística reduciendo barreras, sistemas de apoyo de la empresa en tecnología y otros.
Krugman (1991) en torno al mismo tema anterior indica que las economías de escala pueden
influir en la mayor exportación, así zonas con ventajas para subir su producción a bajos costos
(economías en algún factor productivo o rendimientos crecientes, por ejemplo mano de obra
calificada y concentrada o costos logísticos bajos) pueden exportar más o incrementar la oferta
exportable y con ello ganar ventajas en el comercio exterior. Eso indica que los investigadores
26
Modelación econométrica: De la teoría económica al modelo estimable
pueden ir planteando nuevas explicaciones a un mismo problema o hecho económico, con lo cual
el acervo científico se va incrementando.
Entonces podemos señalar también que mediante los modelos económicos se puede ampliar
un conocimiento teórico ya establecido, se puede avanzar hacia nuevos sustentos teóricos, o se
puede aplicar teorías de otras realidades para ver si se cumplen en algún contexto particular.
Estos modelos económicos trasladados a un modelo econométrico pueden dar con que falta
evidencia o la evidencia actual no sigue un patrón teórico definido, o que se requiere nuevas
teorías o simplemente que las teorías de un contexto no funcionan en otros.
π t = π t-1 - µ
generadora del problema, por ejemplo en Bolivia el proceso de bajo precio del combustible,
obligaba al gobierno a subsidiarlo o cubrir parte del costo del mismo, al ser además los
impuestos al combustible unos de los principales tributos, la solución fue simplemente dejar que
el precio de combustible pase a su nivel real (mucho más alto), esto eliminó el subsidio, mejoró la
recaudación del estado y por ende cortó el proceso generador de altos precios, simplemente
estos se pusieron en su nivel de equilibrio.
Existen otros casos donde hay un cambio en el proceso formador de precios bajo
expectativas adaptativas y se da cuando los bancos centrales juegan a mejorar la actividad
económica y pueden con ello crear procesos de inflación incluso mayores a los niveles previos.
Sachs (1990) indica que los grandes conflictos sociales en América Latina, obligan a sus
ejecutores de política a cambiar sus acciones, por ejemplo pueden de pronto decidir incrementar
las emisiones monetarias, con lo cual la demanda de bienes sube y los salarios en los sectores
de demanda interna también (considere economías de dos sectores transables y no transables),
esto supone que el cambio real se aprecia (sobre todo considerando que los países normalmente
intervienen en los mercados cambiarios). Hay que notar que la economía al interno tiene precios
más altos, lo que conduce a un menor impulso del sector exportador (es más costoso en los
insumos o pagos externos) y ello termina generando procesos que en lugar de reactivar una
economía la deprimen, muy al margen de que las autoridades hayan querido ello, considere
además que la economía se hace importadora (déficit en cuenta corriente) y ello terminará
produciendo una crisis cambiaria que igualmente elevará los precios internos.
La otra variable mostrada en el modelo, indica que la inflación tiene una relación inversa con
el desempleo. En buena cuenta mayores niveles de desempleo, implican menos demanda de
bienes (al tenerse menos ingresos), esta menor demanda implica que los precios
progresivamente irán bajando.
Con fines de probar esta relación o modelo económico nos enfrentamos a los siguientes
problemas:
- La tasa de inflación equivale a la variación porcentual del Índice de Precios, sin embargo
se puede tomar el índice de precios al por mayor (IPM) o al consumidor (IPC), o se puede
considerar sólo el IPC de la ciudad capital (en el caso de Perú el IPC de Lima), esto último
se da cuando no se publican índices de precios promedios nacionales.
28
Modelación econométrica: De la teoría económica al modelo estimable
Como vemos, tomar los datos supone una decisión del investigador o también es aquella
variable que mejor representa lo que queremos medir. En el caso de Perú normalmente
se hubiera tomado el índice de precios al consumidor, debido a la ausencia de mayor
disponibilidad de información agregada nacional. En todo caso podría construirse un
índice de precios al consumidor nacional, pero el problema sería saber cómo ponderar el
peso de cada región en el consumo nacional.
- Otro problema que podría darse es la poca variabilidad que presentaría la tasa de
desempleo, agregando además el hecho de que se publican índices de desempleo
anuales y de la ciudad capital en muchos casos. Esta escasa variabilidad podría terminar
no afectando de ninguna manera la tasa de inflación.
Este fenómeno de datos cuya variación es pequeña (comparado con otros países cuyo
desempleo es más dinámico) se da porque la economía tiene un mercado laboral rígido
en materia del empleo o desempleo formal, pero muy dinámico en la parte del empleo
informal, normalmente conocido como subempleo o simplemente no conocido al darse
pocos estudios sobre el desempleo en la zona informal de la economía.
Es probable que países con mercados laborales rígidos tengan tasas de desempleo de
poco movimiento anual o de lento ajuste, sin contar que es probable que no se tenga
disponibilidad de esta tasa a ritmo mensual, mientras que es normal que existan índices
de precios mensuales.
- Para tener una idea del problema previo veamos algunos datos, de acuerdo con
estadísticas del INEI (Instituto Nacional de Estadística e Informática del Perú) la cantidad
de personas que estuvieron desempleadas cayó en 2% anual desde el año 2004 al 2012,
mientras que la tasa de desempleo (obtenida como población desempleada sobre
población económicamente activa) pasó de 5.3% en el año 2004 a 4.53% en el año 2012,
reflejando una escasa caída de 0.8% en esos 9 años, poca movilidad a la hora de querer
plantear relaciones estadísticas. En ese mismo lapso la tasa de inflación nacional (usando
el índice de precios al por mayor) fue de 4.89% en el 2004 y de -0.59% en el 2012. Como
puede verse en ese lapso la tasa de inflación cayó y el desempleo también, lo cual podría
terminar concluyendo que no se cumple la teoría planteada, pero las conclusiones no
pueden ser abordadas de modo tan simple.
Siguiendo con el problema previo, algunas razones pueden ser suficientes para no usar
los datos previos, por ejemplo el uso de períodos base diferentes. Se pueden tener
estimaciones diferenciadas de índices de precios tomando años base diferentes.
29
Modelación econométrica: De la teoría económica al modelo estimable
Otro problema subsiste como dijimos antes en el uso de índices, por ejemplo el IPC
nacional a diciembre de 2012 arroja una tasa de inflación de 2.65% notoriamente diferente
a la del IPM y además no se encuentran datos disponibles para el año 2003, limitando las
comparaciones.
- Entonces se puede señalar que los modelos econométricos a partir de datos existentes o
secundarios puede enfrentar problemas como: ausencia de datos frecuentes, al menos
frecuencias equivalentes en todas las variables, uso de años base diferentes, series que
no varían por motivos estructurales o ajenos a lo que se quiere medir.
Hay que considerar además el nivel en que se miden o construyen los datos secundarios,
por un lado las variables deben estar en medidas equivalentes, por ejemplo índices o
variaciones, inclusive logaritmos de índices, si están en unidades monetarias es preferible
que sean ambas en la misma unidad (por ejemplo millones o miles de unidades
monetarias o soles en el caso de Perú), básicamente por un tema de interpretación de los
resultados a obtener.
Normalmente en algunos casos, ciertos estudios pueden no tener información previa (algo
que felizmente va siendo historia debido a las tendencias de medir los impactos o por lo menos
las intervenciones del estado), veamos el siguiente ejemplo:
Υ = φΧ
Esta información previa puede ser existente, por ejemplo algunas encuestas contienen
información de este tipo, en el caso peruano la Encuesta Nacional de Hogares (ENAHO) contiene
una muestra nacional para ello (aunque en cada distrito las muestras son pequeñas) e inclusive
la encuesta Niños del Milenio (en Perú administrada por el grupo de Análisis para el Desarrollo -
GRADE) puede contener información en grandes cortes o estratos (también pueden llamarse
cohortes) por ejemplo muestra el nivel de escolaridad para los años 2002, 2006 y 2009, el primer
grupo tiene ya individuos en su mayoría de edad, de modo que la información en los países como
Perú comienza a ser por lo menos abundante o variada para ciertos tipos de estudio.
Volviendo con nuestro ejemplo, podemos evidenciar que para distritos de alguna región en
particular estos datos no existen, en ese caso se debe construir la base de datos respectiva, con
fines de poder utilizarla en los análisis que estamos realizando. Dicha base de datos sigue
algunos procedimientos que normalmente son:
Población de referencia
Equivale al grupo objetivo donde hay que tomar los datos, en este caso pueden ser
hombres o mujeres que tienen 22 años de edad. Hay que notar que el estudio se limita a
esta edad, lo cual inclusive puede contener la limitante de que el ingreso debe ir
subiendo con la edad, sobre todo si hay mayor nivel de escolaridad o años de estudio,
pero para fines del ejemplo podemos señalar que la población tendría esta característica
principal.
Muestra
Dado que el grupo objetivo poblacional es bastante variado, la muestra debe tomar en
cuenta criterios como porcentaje (%) de hombres y mujeres, porcentaje (%) de la
población residente urbana o rural, porcentaje (%) de la población por centros poblados,
urbanizaciones o zonas residenciales dentro del distrito, y en general criterios que
ayuden a representar del mejor modo posible la población de referencia.
El tamaño de la muestra ya depende del nivel de error tomado, en este caso siendo un
grupo variado, niveles de error menores a 5% son bastante frecuentes, algunos pueden
indicar que niveles de error de 2 a 3% pueden ser recomendables.
!
31
Modelación econométrica: De la teoría económica al modelo estimable
Levantamiento de datos
Es importante determinar el lugar o dónde se recogen los datos de los individuos que
queremos analizar. Para nuestro ejemplo, puede hacerse tomando los hogares o
domicilios como puntos de referencia. En este caso se pueden aplicar técnicas de
selección de hogares al azar, para que el estudio sea lo más aleatorio posible, por
ejemplo sortear los hogares o números de residencias o simplemente tomar cada “x”
casas la siguiente. El levantamiento de datos supone los problemas típicos de no tener
al elemento objetivo en el domicilio, no lograr respuesta del domicilio, preguntar al
individuo equivocado y otros, que deben ser previstos.
Preguntas
Una vez que se tiene definido la forma de tomar los datos, viene el proceso de
preguntarle al individuo, las preguntas bien pueden ser:
32
Modelación econométrica: De la teoría económica al modelo estimable
Hay que notar que un criterio que debilita la toma de datos, es si el individuo trabaja a tiempo
completo o a medio tiempo, si es un ingreso permanente o si es ingreso eventual, esto debe ser
considerado en algunas preguntas adicionales con fines de tener una clara idea de la relación
años de estudios e ingresos.
La pregunta dos, puede plantearse de modo directo, cuanto gana el individuo, pero ello
podría tener un error al alza que debemos evitar, primero porque el individuo podría querer
quedar bien al ser preguntado por un tema privado y evidentemente daría un ingreso mayor al
real. Otra es pedirle una boleta de pago, pero ello sería en un ambiente de empleo muy formal y
el problema es que el individuo no quiere ser molestado a la hora de ser entrevistado. Dado que
la información es muy personal, no es posible recurrir a otras fuentes, aun cuando en el estado
existen entidades que tienen esta información al menos la de los ingresos bastante detallados,
por ejemplo mediante las declaraciones tributarias de las empresas.
Note también que la pregunta una supone que los años los colocaremos nosotros en la base
de datos, por ejemplo:
33
Modelación econométrica: De la teoría económica al modelo estimable
De esa manera construimos la base de datos con información primaria o que hemos diseñado
de modo ex profeso para nuestro estudio. Hay siempre que indicar (reiteradamente) que partimos
de un hecho económico real o al menos presumible, la idea de que a mayor nivel de estudios
existe mayores ingresos, bueno el hecho es que existen evidencias de lo mismo.
Yamada (2007) encuentra que los retornos de la educación superior son de 17% mayores a
los de estudios técnicos situados en 10% y mucho más altos que para aquellos que sólo
terminaron secundaria, cuyos retornos llegaron a 6%. Este estudio respalda el ejemplo anterior,
en lo que estamos tratando de incidir, siempre tener una base teórica a los modelos planteados,
en el caso de los rendimientos que genera la educación, autores como Becker (1975) y Chiswick
(1997) ya han incidido que más años de estudios, deben corresponder a un mayor ingreso per
cápita, ya que el trabajo es una fuente de producción y ese trabajo con innovaciones o mejoras
(la educación) puede ser más productivo.
Datos no observados
Existe la posibilidad de que algunas variables que quieren analizarse no tengan hechos o
información observable, para ello veamos el ejemplo siguiente:
Sea un modelo donde queremos maximizar la utilidad o bienestar (V) del individuo, a partir
del consumo (C) y del uso de dinero M, para diversos períodos t. (León, 2003)
Donde:
Donde:
n: Crecimiento poblacional
Planteado en dos períodos (el clásico modelo intertemporal) las restricciones quedan del
siguiente modo:
Estas ecuaciones finales representan la restricción presupuestaria de los agentes, con lo cual
se plantea el modelo de optimización del individuo o agente representativo. Para resolver el
modelo tomamos en cuenta la ecuación de optimización (i) y se tiene que una de las condiciones
de primer orden se resuelve del siguiente modo, para ello use además las ecuaciones (ii) y (iii):
∂V/∂b1 = 0
35
Modelación econométrica: De la teoría económica al modelo estimable
∂V/∂ m1 = 0
Donde:
(∂V / ∂m1): Representa la demanda de dinero del individuo para maximizar su utilidad o bienestar
(∂V / ∂C1): La preferencia del individuo por consumo presente que maximiza su bienestar
R1 / (1+R1): La tasa de interés adelantada o que el individuo percibe como costo del dinero al
tomar una decisión siempre en valor presente.
36
Modelación econométrica: De la teoría económica al modelo estimable
Al respecto del modelo hallado previamente, Mies y Soto (2000) indican que la expresión
puede aproximarse del siguiente modo:
“Es importante mencionar que lo que se ha obtenido es una demanda por dinero
individual. Existen dos puntos que se deben tomar en cuenta al pasar de una demanda
individual a una agregada de la economía.
Primero, existe un problema en agregar funciones de demanda derivadas de individuos
que puedan tener distintos gustos o niveles de riqueza. Es conocido el hecho que las
condiciones que permiten tal agregación son bastante restrictivas en términos de las
relaciones de comportamiento de las variables relevantes. Segundo, pueden existir
agentes económicos distintos a las familias, como las empresas, lo que requiere extender
la modelación para incluir agentes múltiples.”
En buena cuenta el modelo hallado previamente tiene la limitación de que su agregación será
de algún modo sesgada, en la economía no todos los agentes se comportan igual, se tiene
agentes cuya demanda de dinero es escasa primero porque es probable que usen dinero
electrónico o porque simplemente su riqueza es tal que su dinero se mantiene en formas de
activo financiero. Otros agentes pueden demandar en alta medida el dinero, dado que su
consumo es básicamente todos sus saldos reales.
Otro problema que señalan Mies y Soto (2000) supone que la demanda de dinero no es sólo
personal sino también empresarial, en ese caso es válido considerar una restricción adicional,
que indique el comportamiento de las empresas para mantener caja (fondos en la empresa), lo
cual dependerá principalmente del rendimiento de los activos financieros (en el modelo los
37
Modelación econométrica: De la teoría económica al modelo estimable
bonos) y de la tasa de crecimiento del producto, porque ello da una señal de la dinámica el
mercado.
Sin embargo el aporte de Mies y Soto (2000), modelando las relaciones de la demanda de
dinero en la función de utilidad, ya planteada por Sidrauski (1967) resuelven el problema de tener
variables observables, al menos usando el consumo en cada período y la tasa de interés.
Como puede verse, los investigadores pueden toparse con variables no observables pero que
deben ser estimadas, esto es un proceso necesario para probar las teorías vertidas o analizadas
y que corresponden a un fenómeno real. Por ejemplo es un hecho del individuo promedio, que a
medida que los retornos financieros son mayores, se tiende a manejar más activos financieros
(más rentabilidad indica que uno puede comprar diversos instrumentos financieros) obviamente
este análisis corresponde a individuos que manejan saldos monetarios que superan su consumo
y que no se mantienen en efectivo. Sin embargo si consideramos que la tasa de interés refleja el
costo de oportunidad de usar dinero, es natural que más costos el dinero de mantener o
administrar, supone que mejor se demanda menos (donde demandar se entiende como poseer
dinero) y ello es perfectamente atribuible al comportamiento promedio de cualquier agente.
La ecuación (i) está sujeta a la dinámica de la oferta agregada (restricción), donde el producto
depende de la expectativa de precios de los agentes, si la expectativa de precios coincide con la
realidad, entonces el producto crece a su tasa potencial más algún efecto externo medido por u.
Si la inflación supera lo esperado, se produce un efecto de ganancias para los empresarios
(salario real cae bajo lo esperado) con lo cual el producto sube.
y = yn + (π – πe) + u (ii)
Donde:
El modelo planteado anteriormente puede resolverse minimizando el costo del gobierno (L) e
insertando la ecuación (ii) en (i), con lo cual resulta:
∂L/∂ π = 0
Si combinamos las ecuaciones (iii) y (iv) obtenemos la tasa de inflación óptima que debe
seguir el gobierno (para ello inserte la ecuación iii en la ecuación iv y despeje):
39
Modelación econométrica: De la teoría económica al modelo estimable
La ecuación (v) indica que la inflación puede elevarse en la medida que el producto objetivo
supere al potencial, esto indica que la demanda en la economía tiende a ser más alta respecto
del crecimiento a largo plazo. En ese caso el gobierno usa alguna política de ajuste evidenciada
por: u / (1+ Ø).
Ahora si usamos las ecuaciones (ii), (iv) y (v) obtenemos el crecimiento del producto para el
nivel óptimo de inflación y sería:
y = yn + u – u / (1+ Ø) (vi)
Si consideramos que la oferta agregada neto del producto potencial (ii), es igual a la demanda
agregada (modelo IS), obtenemos:
y - y n = A – Ω ( i - π e) + g (vii)
A / Ω = (i - πe) (viii)
Usando la ecuación (ii), la ecuación (v), la ecuación (vii) y la ecuación (viii), obtenemos lo
siguiente:
La ecuación (ix) representa la regla de Taylor (2000) que es muy usada por diversos bancos
centrales en el mundo, con sus diversos matices o ajustes. La regla indica que si la inflación
40
Modelación econométrica: De la teoría económica al modelo estimable
esperada es mayor al objetivo de inflación, entonces eso obliga al banco central a subir la tasa de
interés nominal.
Otra implicancia es que el producto objetivo puede superar el producto potencial, en este
caso hay un exceso de demanda que elevará los precios por encima del nivel objetivo, aquí hay
dos efectos por un lado el efecto negativo del alza del producto (correspondiente a escenarios de
menor interés) y el efecto de precios crecientes, que deben ser corregidos con un alza de la tasa
de interés.
La ecuación (ix) vendría a ser el modelo que necesitamos estimar (modelo estimable) para
establecer la regla de política monetaria de un país. Por ejemplo Taylor (2000) ha estimado que
la regla a seguir es la siguiente:
Lo anterior supone que la tasa de interés real es 2% y que la inflación objetivo es 2%,
además el valor de 1/ Ø Ω, termina siendo positivo e igual a 0.5, en otros estimados el valor de
1/Ω, puede llegar hasta 1.5, como vemos el modelo estimable se ha probado en la práctica,
mediante el uso de un modelo estadístico.
La estimación del modelo estadístico señalado en la ecuación (x) nos permitirá saber el valor
de a1 y a2, que son claves para estimar la regla de Taylor, dichos valores se juntan con la tasa de
interés real y la tasa de inflación esperada, que en teoría deberían asemejarse con a0, aún
cuando esto no tiene por que ser necesariamente cierto, puesto que con los parámetros hallados,
podemos agregar los datos existentes de la tasa real de interés y la inflación esperada. El nivel
de error del modelo configura el comportamiento de los efectos externos de la regla de Taylor,
que bien pueden indicar la ausencia de mayor cantidad de variables, o señalar que el modelo
estadístico tiene un comportamiento aceptado.
En el modelo estadístico previo, se constata la presencia de un error, no hay que olvidar que
los modelos son una representación parcial de la realidad y por ende pueden no considerar otras
variables que pueden influir del algún modo en la respuesta esperada. También hay que indicar
que normalmente se toma una muestra de datos de toda la población, esperando que ello sea
representativo, aun cuando esta muestra pueda ser limitada. Estos aspectos señalados hacen
que los modelos estadísticos no necesariamente expliquen el 100% del comportamiento de la
41
Modelación econométrica: De la teoría económica al modelo estimable
variable respuesta o variable dependiente, existiendo este nivel de error, la idea siempre en todo
modelo estimable es que este error sea pequeño o sea minimizado.
Y = a + b X1 + u (i)
Ahora pensemos que el modelo correcto incluye más variables explicativas, por
ejemplo se plantea del siguiente modo:
Y = a + b X1 + c X2 + e (ii)
En este caso el error que tuvimos al estimar el modelo (i) puede ser representado del
siguiente modo:
u = c X2 + e
Como podemos notar, en los modelos donde falta incluir variables relevantes, el error
es mayor al esperado y ello invalida las estimaciones o resultados estadísticos. A la
inversa pensemos que el modelo (ii) presenta un exceso de variables donde X2 no
aporta mayormente al modelo, en este caso es una variable redundante y debe ser
sacada del modelo. En este caso el error “e” equivale al error “u”, sólo estamos sobre
estimando el modelo en número de datos, pero no cambia el nivel de respuestas, ya
que “c” será igual a cero.
- Otros problemas en el diseño pueden ser el orden en que se expresan los códigos o
números que representan los datos. Por ejemplo pensemos que se tiene una encuesta
donde la variable dependiente es el Tipo de vivienda o casa de la familia, medido
como: tenencia de casa propia pagada totalmente con código 1, casa propia pagada a
plazos con código 2, casa de familia con código 3 y casa alquilada con código 4.
42
Modelación econométrica: De la teoría económica al modelo estimable
En esa misma encuesta hemos tomado además los ingresos de la familia, cuya
variable es continua. Es decir puede ir de 1000 soles por ejemplo a 10000 soles por
mes, así cada familia tiene ingresos diferentes y se tiene una base de datos como la
siguiente, considerando por ejemplo la existencia de unos 5 entrevistados:
Id Tipo_Vivienda Ingreso_mensual
1 2 5,000
2 4 1,000
3 1 7,000
4 3 2,000
Y=a+bX
- Otro error a considerar es el uso de las variables correctas, por ejemplo en el caso del
modelo siguiente explorado anteriormente como Regla de Taylor:
i = a0 + a1 ( πe - π* ) - a2 (y* - yn ) + error
Existen dos variables que no son observadas, esta es la inflación esperada πe y la otra
es el producto potencial yn. La inflación objetivo π* y el producto objetivo y* son
43
Modelación econométrica: De la teoría económica al modelo estimable
variables que normalmente las define el ejecutor de política, en este caso el Banco
Central.
La obtención del promedio puede acarrear el problema de que es un solo dato a usar y
ello evitaría la estimación de los parámetros del modelo planteado, puesto que se
requieren series con una cantidad de datos suficiente que permita plantear relaciones
entre las variables.
Una salvedad es el cálculo de un promedio móvil que pueda servir de tasa esperada o
potencial, pero esto supone que necesitamos los tramos a promediar, por ejemplo cada
3 períodos, cada dos o cada 4, la decisión puede depender de si los datos son anuales,
mensuales, trimestrales u otros, con el detalle de que si hay estacionalidades estas
deben ser eliminadas. Lo anterior supone problemas a la hora de obtener esas series
aún en promedio móvil, cuya construcción puede generar errores amplios en la
estimación.
Y = a + b X1 + e
Ahora pensemos que X1, en realidad es una variable que depende otras, como por
ejemplo:
X1 = c + d Z + u
Y = a + b (c + d Z + u) + e
Y = (a+ bc) + bd Z + bu + e
Y = ßo +ß1 Z + error
44
Modelación econométrica: De la teoría económica al modelo estimable
Como vemos en el modelo final, la constante “a” está sub estimada, puesto que
corresponde en realidad a ßo, que es mayor. El parámetro “b” no representa realmente
el efecto de X1 en el modelo, este efecto en realidad es “bd”.
Qt = a - b (Pt) + error
Entonces tomando el modelo para fines de predicción podemos hacer el siguiente detalle:
5 7.25
10 5
20 0.5
Como puede verse, hemos pronosticado el valor de la cantidad demandada (Q) para diversos
escenarios de precios (P), esto es cuando los modelos se usan para estos fines. Sin embargo
normalmente los modelos estadísticos (econométricos) se usan para analizar las relaciones entre
variables diversas.
45
Modelación econométrica: De la teoría económica al modelo estimable
- Logaritmo del PIB per cápita como Proxy del nivel de desarrollo.
Para estimar el modelo señalado y encontrar cuanto efecto tienen los fondos de pensiones
(que a su vez impactan en la infraestructura), tuvieron que tener un indicador de crecimiento del
stock de infraestructura, para lo cual recurrieron a Canning (1998) quien plantea pronosticar la
infraestructura usando el modelo siguiente:
Infraest = 0.213 (TranspAer) + 0.221 (GenEnerg) + 0.200 (VíasFerr) + 0.215 (Carret) + 0.208
(Telef)
Como puede verse, el índice de infraestructura está construido a partir de datos anuales del
sector de telecomunicaciones (número de líneas telefónicas principales), del sector de energía
(capacidad de generación eléctrica en MW), del sector de transporte terrestre (la longitud de la
red de carreteras en kms.), del sector de transporte aéreo (número de pasajeros transportados) y
del sector de transporte ferroviario (longitud de la red ferroviaria en kms).
Bancos Centrales, por el Ministerio de Economía u otras entidades encargadas de ejecutar las
políticas monetarias o fiscales.
El análisis de las tendencias posteriores a la reforma de los noventa sugiere que la desigualdad
de los ingresos familiares ha disminuido. Este declive puede observarse en los años de la
recesión (de 1997 a 2001) aunque no es estadísticamente significativo y se acentúa más y
adquiere significancia estadística en el periodo de crecimiento (2001–2006).
Los ingresos no laborales (otros retornos por ejemplo actividades independientes - nota del autor)
han tenido el rol más importante en la reducción de la desigualdad del ingreso durante el periodo
de análisis (1997–2006). Para el periodo 1997–2006, la desigualdad de los ingresos laborales a
nivel de los hogares permaneció estable, primero aumentó durante la recesión y luego disminuyó
durante el periodo de crecimiento, de forma que en 2006 estaba en un nivel similar al de 1997.
Al desagregar el análisis por dominio geográfico, identificamos que los niveles de desigualdad
fueron mayores en las zonas urbanas que en las rurales y que la disminución de la desigualad de
1997 a 2006 fue más pronunciada en las zonas urbanas.
Con relación a los factores explicativos asociados a la desigualdad, los resultados econométricos
confirman la importancia de la educación como factor de reducción de la desigualdad. Así mismo,
nuestro análisis identifica que el área de residencia (urbana/rural) es un factor que juega un rol
mucho mayor para explicar el patrón de desigualdad que el que sugieren los estimados entre los
años ochenta y mediados de los noventa. Esta nueva evidencia revela la importancia que parece
haber adquirido la dimensión espacial (el espacio territorial donde se desarrolla el individuo) para
explicar la desigualdad, por lo que debemos prestarle mayor atención. En esta misma dirección,
las diferencias entre regiones (ex departamentos) están jugando un rol importante en la
desigualdad a nivel nacional.
Los resultados mostrados por Jaramillo y Saavedra (2011) indican que la desigualdad es
bastante diferenciada, por ejemplo ser mujer supone un efecto de la desigualdad de 0.231
mientras que los hombres es de 0.214 para el año 1999, mientras que para el año 2006 el efecto
47
Modelación econométrica: De la teoría económica al modelo estimable
se reduce a 0.19 para mujeres y de 0.172 para los hombres, esto indica que la desigualdad se ha
reducido a lo largo del tiempo y es muy pequeña entre hombres y mujeres.
El año 1999 por ejemplo el efecto en la desigualdad es de 0.186 para aquellos sin estudios y
de 0.235 para aquellos que tienen estudios universitarios, el año 2006 esos datos fueron de
0.128 y 0.187 respectivamente. La evidencia es que la desigualdad en el tiempo se ha reducido,
pero las diferencias entre individuos relacionadas con el nivel educativo son bastante altas, como
concluyen los mismos autores.
Las políticas que derivan de estos análisis pueden ser de diversos tipos, por ejemplo, pensar
que estar en el mundo rural genera más desigualdad indica que debe potenciarse los servicios
básicos en este ámbito, igualmente si la educación es clave a la hora de mejorar los ingresos,
entonces la calidad de este servicio público, sobre todo en el mundo rural debe tomarse muy en
cuenta como factor de desarrollo. De este modo los modelos econométricos pueden ayudar a
establecer políticas de mejoras de los grupos sociales con fines de mejorar su calidad de vida en
el futuro.
48
Modelación econométrica: De la teoría económica al modelo estimable
En algunos casos dichos modelos son completamente nuevos y propuestas de nuevos enfoques
sobre el accionar de los agentes. En muchos casos más comunes, dichos modelos son réplicas de
teorías existentes o ampliaciones de teorías ya probadas, de modo que sólo hacemos un nuevo
aporte sobre algo existente o le damos nuevos enfoques o entendimientos alas teorías existentes.
Los datos que recopilamos pueden partir de información ya existente (secundaria) que podemos
mejorar o re-expresar, o cuantificar en otras unidades (por ejemplo variaciones), también pueden
provenir de información que el mismo investigador o estudioso del fenómeno recopila, esta
información se denomina primaria y se hace especialmente para probar la teoría o definir si el
modelo empleado es válido total o parcialmente.
Tener los datos supone que las variables son observadas, algunos problemas en los modelos
econométricos (la expresión a estimar de un modelo estadístico o matemático) son porque las
variables no expresan bien una idea del hecho económico o una decisión de los agentes, también
porque sus datos no existen como tal en la información y deben ser medidos desde otros datos
observados o aproximarse cuando menos. Otros problemas en los modelos son el uso excesivo o
corto de variables, además también está el hecho de usar adecuadamente las variables en
magnitud, orden u otro criterio que permite la interpretación de los resultados del modelo respectivo.
49
Modelación econométrica: De la teoría económica al modelo estimable
Preguntas de opinión:
50
Modelación econométrica: De la teoría económica al modelo estimable
Caso de aplicación
Lectura previa
En un mundo con movilidad perfecta de capital, el Ahorro doméstico buscará estar donde su
tasa de ganancia sea la más alta. Este movimiento se llevará a cabo aún cuando la demanda
interna de capital en el país del que se trate sea alta, ya que el flujo internacional de capital,
probablemente, cubrirá en parte la demanda doméstica. A la fracción de ahorro total de un país
que permanece como inversión se le llama "coeficiente de retención de ahorro".
seguido aumentando, mientras que la correlación entre las tasas de ahorro e inversión sólo ha
disminuido ligeramente.
Preguntas de la lectura
52
Modelación econométrica: De la teoría económica al modelo estimable
Ejercicios
Considera la figura siguiente que ilustra el teorema de separación de Fisher:
8!(1+i)!
R!
Donde C1* y C2* son el consumo presente y consumo futuro respectivamente, mientras que
D2* es el flujo obtenido en el futuro por una inversión (I) realizada en el presente. La inversión (I)
equivale a R – D1, Donde R es la riqueza inicial del individuo o su dotación inicial. Este es un
supuesto fuerte del modelo, que considera que los inversores si bien pueden no tener riqueza
alguna, pueden conseguir estos fondos iniciales de alguna forma en el mercado financiero directo
(emisiones de capital) o mediante redes de inversionistas ángeles o inversores de riesgo,
inclusive puede darse financiamiento bancario, pero esto no influirá en la generación del flujo D2.
D1* vendría a ser el ingreso disponible del individuo en el presente, dado que invirtió parte de
su riqueza, el saldo es ingreso destinado a consumo o ahorro en el mercado financiero.
La curva que se origina en R, genera un flujo de caja (también denominada una función de
producción o generación de ingresos) cuya característica es que tiene rendimientos marginales
decrecientes y además se hace igual a la tasa de interés acumulada, equivalente a (1+i) o
pendiente del comportamiento presente y futuro del mercado financiero.
53
Modelación econométrica: De la teoría económica al modelo estimable
D2* = FC (I)
Entonces el flujo de caja que genera una inversión, es como mínimo equivalente a (1+i), con
ello resultan el flujo futuro D2 y el ingreso disponible D1.
Si el total de los ingresos actuales y futuros (D1* y D2*) son iguales al consumo, entonces esto
también resulta equivalente a la tasa de interés:
Para C1* = 0
Para C2* = 0
Finalmente la ganancia (G) del inversor se puede estimar del siguiente modo:
G = FC (I) – I
54
Modelación econométrica: De la teoría económica al modelo estimable
FC (I) = Y2 / (1+i) + Y1
Ahora G se denomina en ese caso, Valor presente neto o también valor actual neto (VAN),
indicador que mide el éxito de la inversión realizada.
Si ahora consideramos que el FC (I) se halla teniendo una tasa de interés y una dotación R,
entonces es posible encontrar C1* y C2* del siguiente modo:
Tomando en cuenta que la pendiente equivale a (1+i) entonces (en este caso las preferencias
intertemporales son homogéneas y equivalentes, el consumidor es indiferente a decidir en el
presente o futuro):
FC (I) = 2 C1*
FC (I) / 2 = C1
Y1 – C1
Preguntas
• Plantee un modelo econométrico (o más de uno) que permita probar la existencia del
teorema de separación de Fisher.
• Describa las variables que usará en dicho(s) modelo (s).
• Donde obtendría los datos necesarios para estimar el modelo o modelos diseñados.
55
Modelación econométrica: De la teoría económica al modelo estimable
Referencias bibliográficas
Acemoglu, D. And Robinson, J. (2012) Why Nations Fail: The Origins of Power, Prosperity, and
Poverty. Crown Publisher. NY. USA.
Alcalá V. Gómez, M. y Ventosa, D. (2010) Paradoja Feldstein – Horioka: El caso de México (1950-
2007). Estudios Económicos. Vol 26. Núm. 2. Junio Diciembre 2011. México.
Barro, R. y D. Gordon (1983), “Rules, Discretion, and Reputation in a Model of Monetary Policy”,
Journal of Monetary Economics, 12.
Chiswick, Barry (1997). Interpreting the Coefficient of Schooling in the Human Capital Earnings
Function. Policy Research Working Paper 1790. The World Bank.
De Soto, H. (1986) El otro sendero: La revolución informal. Edit. Sudamericana. BA. Argentina.
Jaramillo, M. y Saavedra, J. (2011) Menos desiguales: La distribución del ingreso luego de las
reformas estructurales. Grade. Perú.
Krugman, P. (1991) Increasing returns and economics geography. Journal of Political Economy,
1991. Vol. 99, no. 3. Chicago U. USA.
Mies, V. y Soto, R. (2000) Demanda por dinero: Teoría, evidencia y resultados. Revista de
Economía Vol. 3. Nº. 3. Banco Central de Chile.
56
Modelación econométrica: De la teoría económica al modelo estimable
Obstfeld, M. and Rogoff, K. (2000) The six major puzzles in international macroeconomics: Is there a
common cause?. Cap. VI in NBER Macroeconomics annual 2000. Volume 15. Editor Bernanke, B.
And Rogoff K. MIT Press.
Ricardo, D. (1817) On the Principles of Political Economy and Taxation. Edit. Jhon Murray. London.
Sachs, J. (1990) Conflicto social y políticas populistas en América Latina. Revista F.F. Vol. 5. Nº. 2.
Colegio de México.
Sachs, J. (2005) The end of Poverty: Economic Possibilities for Our Time. Penguin Press, USA.
Sidrauski, M. (1967). “Rational Choice and Patterns of Growth in a Monetary Economy.” American
Economic Association Papers and Proceedings, 57: 534-44.
Taylor, J. (2000) Inflation Targeting and Monetary Policy Rules: Experience and Research. Working
paper to 12th Meeting of the Latin American Network of Central Banks and Finance Ministries Inter-
American Development Bank.
57
CAPÍTULO II
Relaciones estadísticas
entre variables aleatorias
58
Relaciones estadísticas entre variables aleatorias
Introducción al tema
Las variables aleatorias son aquellas que representan un evento o suceso de la realidad
(evento cuyos resultados no son conocidos previamente), pero cuya obtención es totalmente al
azar o independiente de cualquier otro evento. Por ejemplo queremos saber cuántas veces el
clima subió por encima de 25 grados en un mes, entonces el resultado de este experimento no
es conocido de antemano y puede resultar en una variable aleatoria que tome números 1, 2, 3
hasta los días del mes. Ahora, el resultado obtenido no ha sido sujeto de ninguna influencia, por
ejemplo no hemos podido modificar de modo externo el clima o no hemos influido en el
experimento diseñado y menos en la elección o resultados de la variable aleatoria.
Una definición clásica es decir que la variable aleatoria resulta de representar un experimento
aleatorio o al azar cualquiera. Por ejemplo, cuál es la edad de una persona seleccionada al azar
de un conjunto de 100 personas, así la variable aleatoria para el primer seleccionado puede ser
10, para el segundo 11, para el tercero 20 y para el cuarto seleccionado es de 30 años de edad.
La variable aleatoria es un indicador muy importante en la medida que los análisis
estadísticos siempre suponen la existencia de información basada en variables aleatorias, las
cuales pueden distribuirse de distinta forma.
59
Relaciones estadísticas entre variables aleatorias
De esta población no sabremos quienes finalmente serán elegidas como representantes (la
muestra final de 100), por ello estamos en presencia de un experimento aleatorio. Existen
diversos ejemplos de experimentos aleatorios en las ciencias sociales, por ejemplo sean las
siguientes elecciones todas al azar:
- Hogares que demandan energía eléctrica en el último año, de los cuales se elegirán
aquellos con consumo mayores al promedio.
Las variables aleatorias pueden ser discretas cuando toman números enteros o representan
de forma numerable algún hecho económico o permiten que una variable aleatoria sea
numerable. Su número normalmente es finito, siempre conservando el hecho de que son enteros
y representativos.
60
Relaciones estadísticas entre variables aleatorias
Tener variables discretas ayuda mucho en la representación de diversas variables que suelen
llamarse categóricas, donde encajan niveles de empleo, tipos de empleo, educación, salud y
otras variables sociales.
Se tiene también variables continuas, que pueden tomar cualquier valor numérico en un
conjunto infinito de posibilidades, por ejemplo tenemos:
- Sea E: El valor del tipo de cambio en una semana cualquiera, por ejemplo lunes 2.75
soles por dólar, martes 2.77, miércoles 2.79, jueves 2.76, viernes 2.77. Donde la
variables aleatoria es E = (2.75, 2.77, 2.79. 2.76, 2.77)
- Sea i: La tasa de interés trimestral, por ejemplo trimestre I 10%, Trimestre II 12%,
Trimestre III 9% y Trimestre IV 10.5%, así la variable continua i = (10%, 12%, 9%,
10.5%)
En las ciencias económicas las variables continuas son normalmente las que tienen que ver
con valores numéricos diversos: edad, años de estudio, años de trabajo, tasas de interés, tipos
de cambio, valores monetarios diversos como emisión, liquidez, reservas internacionales, valores
porcentuales en cambio diario, mensual o anual como tasa de inflación, depreciación cambiaria,
variación de la pobreza, tasa de pobreza, tasa de empleo, índices diversos como IPC, IPM,
índice de empleo, índice de valor de la producción y otros.
Las variables aleatorias pueden relacionarse de diversos modos, veamos los ejemplos
siguientes:
61
Relaciones estadísticas entre variables aleatorias
Fig. 2.1 Relación entre tasa de encaje (%) y Tasa interbancaria en Soles (%) 2010-2013 en
Meses
Fuente: BCRP
La figura anterior indica una relación positiva entre la tasa de encaje que cobra el Banco
Central de Reserva a los bancos y la tasa de interés interbancaria en soles, evidenciando para el
período de análisis que un mayor encaje progresivamente representa una mayor tasa de interés,
existe la evidencia que para mayores tasas de encaje el efecto del incremento es más débil. En
este caso hemos graficado dos variables continuas en % mensual. La muestra empleada para el
conjunto de enero del 2010 a diciembre del 2013, fue elegida al azar entre todo el horizonte de
tiempo disponible.
En la figura siguiente combinamos una variable continua calculada como índice, nos
referimos al índice selectivo de la Bolsa de Valores de Lima y la tasa de encaje ya mostrada.
Como podemos ver no hay una aparente relación entre ambas variables, en buena cuenta si
esperamos que el mayor costo del interés en el mercado bancario puede actuar como incentivo
al mayor rendimiento en índice bursátil, pues la evidencia no lo respalda. Lo más probable sea
que la menor actividad económica (mayor encaje afecta el interés al alza y reduce el crédito)
pueda influir negativamente en las operaciones bursátiles, pero esa evidencia tampoco se
62
Relaciones estadísticas entre variables aleatorias
respalda, estamos entonces en presencia de dos variables continuas que no generan relación
alguna, al menos en la muestra aleatoria tomada.
Fig. 2.2 Relación entre tasa de encaje (%) e Índice Selectivo de la BVL 2010-2013 en
Meses
Fuente: BCRP
Fuente: INEI
63
Relaciones estadísticas entre variables aleatorias
La figura previa muestra las relaciones entre dos variables aleatorias, una continua que
representa al número de mujeres hospitalizadas por enfermedades infecciosas y la otra es una
variable discreta que son los grupos etáreos o edades agrupadas, donde 1 representa menores
de 15 años, 2 indica el grupo de 15 a 24 años, 3 es para las edades entre de 25 a 49 años y 4
representa a los que tienen 50 a más años. Como indica la figura, es normal encontrar que las
enfermedades infecciosas en mujeres se concentran normalmente a partir de los 25 años, que es
donde más casos existe, aquí la muestra tomada fueron datos anuales del año 2007 al 2012.
Con estos resultados se tiene la siguiente tabla de frecuencias totales, relativas y acumuladas:
La tabla indica que el número uno del dado salió 2 veces, esto representa un 0.07 (7%) de un
total de 30 lanzadas, así el número 3 salió 8 veces, lo cual representa el 0.27 (27%) del total de
lanzadas que fue 30. Así sucesivamente se ponen las veces que salió el número del dado,
conocido como frecuencia, luego se tiene la frecuencia relativa y finalmente la frecuencia
acumulada, equivalente a la suma de las frecuencias relativas para cada número del dado, por
ejemplo para el primer lanzamiento la frecuencia acumulada es 0.07, luego 0.27 (sumando 0.20)
y así sucesivamente hasta llegar a 1
La figura siguiente indica el tipo de distribución que hemos conseguido, como podemos ver
los resultados de lanzamiento de los dados se concentran al medio, para ello vean la figura en
barras, esta concentración al centro indica la clásica llamada distribución normal, es probable que
si lanzáramos el dado unos 100 veces o mil veces, obtendríamos una figura con datos
concentrados al centro y eso representa que la distribución lograda es Normal. Algunas veces los
datos pueden concentrarse hacia los costados, lo que indica otros tipos de distribución, algo
relacionado a datos de tipo social cuando por ejemplo medimos la estructura de ingresos así los
datos tenderán a concentrarse en los más numerosos, que pueden ser los de menores ingresos.
65
Relaciones estadísticas entre variables aleatorias
El lanzamiento de 30 dados tiene un valor esperado que se estima del siguiente modo, para
ello usamos la información de la tabla 2.2 de frecuencias previa:
Valor esperado del número del dado= ∑ Frecuencia relativa * Número del dado
Valor esperado de X = ∑ Px * X
66
Relaciones estadísticas entre variables aleatorias
Donde Px, es la probabilidad de suceso de X. Hay que notar que el valor esperado equivale al
promedio de la variable aleatoria para todo el grupo de datos que resultan de cada lanzamiento,
así la suma de números que sale del dado entre 30 lanzamientos en total, equivale al promedio
de la variable aleatoria:
Var X = ∑ (X – Xm)2 / N
Var X = E (X – EX)2
Var X = E (X2) - E X2
Var X = E ( X2 ) - ( E X )2
67
Relaciones estadísticas entre variables aleatorias
Var X = 2.24
Consideremos que tenemos dos variables aleatorias: X que representa al ingreso del
individuo medido en miles de soles por año, en este caso X puede tomar valores que pueden ser
20 mil, 30 mil o 40 mil soles al año o cualquier unidad monetaria, medida como variable continua.
Por otro lado tenemos a Y, variable aleatoria que representa el gasto del individuo en alimentos
por ejemplo, medido como una variable discreta, donde 1 representa que gastan de 70% a más
de sus ingresos en alimentos, 2 representa que gasta entre 60 a 69%, 3 de 50 a 59%, 4 de 40 a
49%, 5 de 30 a 39% y 6 gastan menos del 30% de sus ingresos en alimentos.
El experimento aleatorio consistió en elegir 100 individuos de una población cualquiera, los
cuales eran entrevistados para obtener sus ingresos y su nivel de gasto en alimentos. La tabla
siguiente indica las frecuencias absolutas obtenidas en las 100 entrevistas:
Ingresos (X)
Gasto (Y) 20 30 40 Total
1 28 3 0 31
2 8 15 3 26
3 4 6 6 16
4 0 6 15 21
5 0 0 3 3
6 0 0 3 3
Total 40 30 30 100
68
Relaciones estadísticas entre variables aleatorias
De acuerdo con la tabla previa, 40 entrevistados tienen ingresos de 20 mil al año, 30 tienen
ingresos de 30 mil y 30 más tienen ingresos de 40 mil al año. Por otro lado 31 entrevistados
tienen un nivel de gasto de 1 (70% a más del ingreso usado como gasto en alimentos), 26
entrevistados tienen un nivel de gasto 2, 16 entrevistados un nivel de gasto 3, 21 tienen un gasto
equivalente a 4, 3 tienen un gasto en nivel 5 y 3 tienen un gasto en nivel 6, es decir sólo 3
entrevistados tienen un gasto que equivale a menos del 30% de sus ingresos.
Dentro de la tabla aparecen las frecuencias absolutas, por ejemplo 28 entrevistados ganan 20
mil soles al año y gastan en el nivel 1. En el mismo sentido 6 entrevistados por ejemplo, tienen
ingresos por 30 mil al año y gastan en el nivel 4, asimismo 15 entrevistados ganan 40 mil y
gastan en el nivel 4.
Una vez conocidas las frecuencias absolutas podemos ahora estimar las frecuencias relativas
o también las probabilidades de suceso, para ello veamos la tabla siguiente:
Ingresos (X)
gasto (Y) 20 30 40 PMg Y
1 0.28 0.03 0 0.31
2 0.08 0.15 0.03 0.26
3 0.04 0.06 0.06 0.16
4 0 0.06 0.15 0.21
5 0 0 0.03 0.03
6 0 0 0.03 0.03
PMg X 0.4 0.3 0.3 1
En la tabla 2.4, se muestran las probabilidades de suceso para X e Y, se estimó también las
probabilidades marginales (PMg) tanto de X como de Y. Las probabilidades de suceso se
estiman como Frecuencia absoluta / total de entrevistados, por ejemplo el 0.28 equivale a la
probabilidad de ganar 20 mil y gastar en el nivel 1 y se calcula como 28/100.
P (Y/X) 20 30 40
1 0.7 0.1 0
2 0.2 0.5 0.1
3 0.1 0.2 0.2
4 0 0.2 0.5
5 0 0 0.1
6 0 0 0.1
Total 1 1 1
Como muestra la tabla 2.5, la probabilidad de que se gaste en el nivel 1 dado un ingreso de
20 mil, es de 0.20 o 20%. La probabilidad de que se gaste en el nivel 2 dado un ingreso de 30
70
Relaciones estadísticas entre variables aleatorias
mil, es de 0.5 o 50%. La probabilidad de que se gaste en el nivel 6 dado un ingreso de 40 mil, es
de 0.1 o 10% y así sucesivamente con otro nivel de gasto dado un ingreso.
Ahora estimaremos el valor esperado condicional de Y/X, para ello consideramos lo siguiente:
E (Y / Xi) = ∑ P (Y / Xi) * Yi
La tabla siguiente muestra los estimados, así para cada nivel de ingreso (Xi) hay un valor
esperado condicional de Y / X:
P ( Y/Xi ) * Y 20 30 40
1 0.7 0.1 0
2 0.4 1 0.2
3 0.3 0.6 0.6
4 0 0.8 2
5 0 0 0.5
6 0 0 0.6
E Y / Xi 1.4 2.5 3.9
Los cálculos salen del siguiente modo, para un nivel de ingresos de 20 mil, las probabilidades
condicionales por Yi, son: 0.7 * 1, 0.2 * 2, 0.1 * 3, 0 * 4, 0 * 5, 0 * 6.
E Y / X1 = 1.4
E Y/ X2 = 2.5
E Y / X3 = 3.9
71
Relaciones estadísticas entre variables aleatorias
Como se ve en la figura previa y tomando en cuenta los datos de la tabla 2.3, para un ingreso
de 20 mil, los valores de gasto van de 1 a 3, siendo el valor esperado de 1.4 (equivalente a la
media condicional). Para el nivel de ingreso de 30 mil, los valores de gasto van de 1 a 4, siendo
el valor esperado de 2.5 (promedio condicional). Finalmente para un nivel de gasto de 40 mil, el
gasto en alimentos va del nivel dos al 6, siendo el valor esperado de 3.9 o promedio condicional
de Y/X.
Para calcular el valor esperado del conjunto de datos analizado (los 100 entrevistados)
procedemos del siguiente modo:
E Y/ X = E Y / Xi * Pmg Xi
72
Relaciones estadísticas entre variables aleatorias
Hay que notar que el valor esperado de Y es de 2.48 y debe coincidir con el promedio de
todos los entrevistados para la variable respectiva.
Para hallar la varianza total condicional de Y/X, recurriremos al concepto previo de varianza
ya analizado y le agregaremos el valor esperado de la varianza condicional. Así la varianza
condicional de una variable aleatoria (V) equivale a la suma de la varianza del valor esperado de
Y/ X y al valor esperado de la varianza condicional. Para el caso de la variable Gasto (Y) la
varianza total condicional V (Y / X) es:
V (Y / X) = Var E Y/ X + E (V Y/X)
Donde:
Var E Y/ X = E Y/ X 2 - (E Y/ X)2
E Y/ X 2 = ∑ [E Y / Xi 2 * PMg Xi]
E (V Y/X) = ∑ [V Y/ Xi – E Y / Xi 2] PMg Xi
V Y/ Xi = ∑ Pi Y/ Xi * Yi 2
73
Relaciones estadísticas entre variables aleatorias
∑ P Y/ Xi * Yi 2 20 30 40
1 0.7 0.1 0
2 0.8 2 0.4
3 0.9 1.8 1.8
4 0 3.2 8
5 0 0 2.5
6 0 0 3.6
Suma 2.4 7.1 16.3
La sumatoria de los valores obtenidos para cada nivel de ingreso resulta en la esperanza de
la varianza, por ejemplo para un nivel de ingreso de 20 mil, la esperanza de la varianza
condicional es de 2.4 y así sucesivamente para los valores que se muestran en la tabla. A estos
valores obtenidos le quitamos la esperanza de la varianza al cuadrado, como sigue:
E (V Y/ X) = ∑ [V Y/ Xi – E Y / Xi 2 ] PMg Xi
Finalmente con la varianza del valor esperado E Y/X y con la esperanza de la Varianza
condicional V Y/ X, tenemos la varianza total condicional:
V (Y / X) = Var E Y/ X + E (V Y/X)
Con la varianza obtenida, se puede estimar también la desviación estándar total de Y/X, que
resulta del siguiente modo:
Del mismo modo puede estimarse la varianza total condicional de X/Y y la desviación
estándar respectiva, los cálculos se basan en las siguientes ecuaciones:
V (X / Y ) = Var E X/ Y + E ( V X/ Y)
Donde:
Var E X/ Y = E X/ Y 2 - (E X/ Y)2
E X/ Y 2 = ∑ [E X / Yi 2 * PMg Yi]
E (V X/ Y) = ∑ [V X/ Yi - E X / Yi 2 ] PMg Yi
V X/ Yi = ∑ P X/ Yi * Xi 2
P(X/Yi) 20 30 40 Total
1 0.90 0.10 0 1
2 0.31 0.58 0.12 1
3 0.25 0.38 0.38 1
4 0 0.29 0.71 1
5 0 0 1.00 1
6 0 0 1.00 1
La tabla anterior muestra el cálculo de la probabilidad condicional de X/Yi, para ello se usaron
los datos de las probabilidades de suceso Pi y se dividieron entre la probabilidad marginal de Y
(PMg Y). Como puede verse la suma de las probabilidades condicionales para cada nivel de
gasto es igual a 1.
75
Relaciones estadísticas entre variables aleatorias
La tabla previa muestra el cálculo del valor esperado de Y/X, los valores de la tabla se
obtienen usando cada probabilidad condicional estimado en la tabla 2.8 multiplicado por el valor
de Xi.
La suma de los valores esperados para cada nivel de gasto del 1 al 6, se muestra en la
columna E X/Yi, donde por ejemplo 20.96 es el valor esperado del ingreso X para el nivel de
gasto 1, 28.07 sería el valor esperado del ingreso para el nivel de gasto 2 y así sucesivamente. El
valor esperado de X resulta de aplicar lo siguiente:
E X/ Y = 20.96 * 0.31 + 28.07 * 0.26 + 31.25 * 0.16 + 37.14 * 0.21 + 40 * 0.03 + 40 * 0.03 =
29
La columna E X/Yi 2, muestra el valor esperado elevado al cuadrado, para cada nivel de gasto
se hace esta estimación, por ejemplo para el nivel 1 de gasto, el valor E X/Y1 2 es de 439 (resulta
de 20.96 2) y así sucesivamente. Mientras que el valor esperado total resulta así:
E X/ Y 2 = 439.6 * 0.31 + 788.3 * 0.26 + 976.5 * 0.16 + 1379.5 * 0.21 + 1600 * 0.03 + 1600 *
0.03 = 883.22
76
Relaciones estadísticas entre variables aleatorias
La tabla siguiente indica la estimación del otro componente de la varianza total condicional
de X/Y, en este caso se refiere al valor esperado de la varianza condicional. La columna P (X/Yi)
X2 indica la sumatoria de las probabilidad condicionales multiplicadas por el cuadrado de X, por
ejemplo para el primer valor de varianza condicional de Y1/X equivale a 0.90 * 20 2, para el
segundo valor es 0.1 * 30 2 y para el valor final es 0 (0 * 40 2), la suma de esos tres valores para
Y1 es de 448.4 (Tenga cuidado con el redondeo de los números en esta tabla).
∑ P X/ Yi * Xi 2 20 30 40 P (X/Yi) X2 V X/ Yi – E X / Yi 2
1 361.3 87.1 0.0 448.4 8.7409
2 123.1 519.2 184.6 826.9 38.6095
3 100.0 337.5 600.0 1037.5 60.9375
4 0.0 257.1 1142.9 1400.0 20.4082
5 0.0 0.0 1600.0 1600.0 0.0000
6 0.0 0.0 1600.0 1600.0 0.0000
E (V X/ Y) = ∑ [V X/ Yi - E X / Yi 2 ] PMg Yi
E (V X/ Y) = 8.7 * 0.31 + 38.6 * 0.26 + 60.9 * 0.16 + 20.4 * 0.21 + 0 * 0.03 + 0 * 0.03 = 26.78
V (X / Y) = Var E X/ Y + E (V X/ Y)
V (X / Y) = 42.22 + 26.78 = 69
77
Relaciones estadísticas entre variables aleatorias
Con la varianza obtenida, se puede estimar también la desviación estándar total de X, que
resulta del siguiente modo:
S (X / Y) = 69 0.5 = 8.3066
Donde:
E XY = Pi * Xi * Yj
E XY 20 30 40
1 5.6 0.9 0
2 3.2 9 2.4
3 2.4 5.4 7.2
4 0 7.2 24
5 0 0 6
6 0 0 7.2
78
Relaciones estadísticas entre variables aleatorias
Cada elemento de la tabla anterior se obtiene del siguiente modo, por ejemplo para el primer
elemento (gasto nivel 1 e ingreso de 20 mil) se multiplica 0.28 (revise las probabilidad de la tabla
2.4) por 20 y por 1, resultado 5.6. Para el segundo elemento 0.9, se obtiene multiplicando 0.03 *
30 * 1, resultando 0.9, así sucesivamente.
La suma del total de elementos de la tabla 2.11 representa el valor esperado de XY:
E XY = 80.5
El coeficiente de correlación indica que entre X, Y existe una asociación positiva, es decir si
una variable sube o aumenta de valor, la otra se comporta de igual modo. El máximo valor que
puede obtener una correlación positiva es 1, esto supone que la covarianza equivale al producto
de las varianzas. Esto último significa que la variable tiene una varianza cuyo comportamiento
equivale a la otra, ambas varían de modo similar por ello su correlación es 1.
El valor mínimo de una correlación es -1, lo que indica un perfecto comportamiento inverso o
negativo, en buena cuenta la varianza de una variable equivale a la inversa de la otra varianza,
de modo que su comportamiento es perfectamente opuesto.
Si la correlación es cero, supone que las varianzas independientes son bastante altas, pero
que la covarianza entre variables es baja, es decir su comportamiento no tienen ninguna relación,
de modo que las variables no tienen ningún comportamiento asociado.
79
Relaciones estadísticas entre variables aleatorias
Fig. 2.6 Relación entre tipo de cambio y riesgo país. 2010-2013 Mensual
Fuente: BCRP
La figura previa muestra la relación entre dos variables aleatorias, el tipo de cambio sol x
dólar y el riesgo país en puntos básicos, el coeficiente de correlación entre ambas variables es de
0.51, positiva y relativamente alta. Esto puede indicar que alzas del riesgo país, implican una
salida de capitales con lo cual sube el tipo de cambio. En la figura siguiente la correlación es de
0.01, claramente no existe ninguna relación entre las dos variables en estudio:
Fig. 2.7 Relación entre tipo de cambio y tasa de inflación (IPC). 2010-2013 Mensual
Fuente: BCRP
80
Relaciones estadísticas entre variables aleatorias
En este capítulo hemos explorado las relaciones entre dos variables aleatorias, estas relaciones
pueden medirse a través de un coeficiente de correlación que es el grado de asociación entre dos
variables.
Por otro lado si una variable tiene una varianza creciente y la otra variable se comporta a la
inversa, este comportamiento conjunto terminará dando una correlación negativa o un
comportamiento opuesto entre ambas variables.
La determinación de la covarianza implica saber el valor esperado conjunto de dos variables, que
es una combinación de la esperanza conjunta menos las esperanzas individuales, en este caso la
determinación de las esperanzas de cada variable aleatoria equivale a saber su promedio o también
equivale a conocer sus frecuencias relativas relacionadas con el valor de la variable, así se
establece una media condicional de una variable dependiente de la otra.
Asimismo hemos establecido que existen frecuencias relativas simples, pero también existen
frecuencias condicionales, es decir la probabilidad de que suceda un evento siempre que suceda
otro o que se tenga otra variable dada.
La idea de hallar las esperanzas condicionales, es que si existe algún grado de influencia entre
dos variables, es posible que su valor esperado se comporte relacionado a los cambios en la otra
variable aleatoria, esto es la base del análisis de correlaciones y posteriormente del análisis de
regresión entre dos o más variables.
Esta sección ha permitido además establecer que las variables aleatorias deben ser
cuidadosamente extraídas en experimentos aleatorios o de modo independiente, aun si son datos
secundarios, de modo que las relaciones planteadas sean estadísticamente válidas.
81
Relaciones estadísticas entre variables aleatorias
Preguntas de opinión
82
Relaciones estadísticas entre variables aleatorias
Caso de aplicación
Lectura previa
Interés!
IS!
LM!
Producto!
Como muestra la figura previa, la política monetaria llevada a cabo por medio de
operaciones de mercado abierto (es decir las colocaciones de soles en el mercado que
pueden darse por compra de moneda extranjera o por incrementos de activos diversos del
Banco Central de Reserva) no influye ni en el tipo de interés ni en el nivel de renta. Esto se
debe a que todo aumento monetario equivale a un comportamiento similar de la demanda de
dinero, toda vez que los agentes no responden a la tasa de interés, de modo que más oferta
monetaria equivale a más demanda monetaria. Ello hace que los saldos monetarios tampoco
alteren el consumo y dado que no se mueve la tasa de interés, tampoco se altera el crédito y
por ende no se mueve el producto.
83
Relaciones estadísticas entre variables aleatorias
En escenarios donde existe trampa de la liquidez y aún cuando se tenga un tipo o tasa de
interés cero o muy cercano a cero, el banco central no puede hacer nada más con la política
monetaria convencional para estimular la economía, ya que la política monetaria no puede
bajar más los tipos de interés. Esto concuerda con un escenario donde se presenta una
caída continua de los precios, proceso conocido como deflación, esto se da porque los
agentes económicos no tienen mayor consumo y por el contrario su demanda de dinero se
mueve al ritmo de la oferta, al no estimularse el consumo aún en condiciones de colocación
continua de fondos, hace que los precios se vayan reduciendo.
Preguntas de la lectura
84
Relaciones estadísticas entre variables aleatorias
Ejercicios
Y 1 2 3
1 100 70 95
2 20 45 125
3 0 65 245
85
Relaciones estadísticas entre variables aleatorias
Referencias bibliográficas
Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.
Jiménez, F. ( ) Elementos de teoría y política macroeconómica para una economía abierta. Fondo
Editorial PUCP.
Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill.
86
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
!
CAPÍTULO III
87
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Introducción al tema
Los modelos econométricos implican medir el grado de efecto que una variable aleatoria tiene
sobre otra, esta medición es posible porque ambas variables se relacionan a nivel de covarianza
y por ende correlacionan.
Sin embargo el grado o magnitud del efecto se estima a partir del valor que adquieren los
parámetros respectivos del modelo, por ejemplo una explicación básica del comportamiento del
consumo, variable inserta en el popular modelo Inversión ahorro (IS), indica que los cambios en
el ingreso afectan o modifican el valor del consumo, dichos cambios se pueden medir a través de
un parámetro conocido como propensión marginal a consumir (PMC).
La estimación insesgada (al ser la de mayor ajuste o corrección) indica que el modelo ha
reducido al mínimo su nivel de error, por ende los parámetros conducen a una estimación
correcta del comportamiento de la variable dependiente, lo cual puede ayudar en el análisis o
evaluación de las distintas políticas económicas.
88
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
E Y/X: F (X)
La expresión previa indica que cuando X cambia, se produce un cambio en el valor esperado
de Y dado X (Y/X), esa relación puede tomar diversas formas por ejemplo:
E Y/X = ß0 + ß1 X (i)
E Y/X = ß0 + ß1 X2 (ii)
E C/Y = Co + c Yd
Yd = Y - T
En sentido amplio el consumo autónomo puede referirse a los hogares en donde hay
miembros cuyo consumo se realiza aún sin tener ingresos, piense en niños o ancianos que no
forman parte de la Población Económicamente Activa (PEA) y por lo tanto no generan ingresos o
no buscan empleo, en algunos casos el ingreso es una pensión pero aun así los gastos de
consumo no se basan en esa pensión sino en el rendimiento o venta de diversos activos
acumulados a lo largo de su vida o en el aporte económico de sus hijos.
Entonces es posible que la ecuación (i) exista normalmente, la ecuación (ii) es lineal en los
parámetros estimados, pero no es lineal en la variable X, sin embargo es un modelo
econométrico que puede estimarse correctamente, dado que nos importa el valor del parámetro.
89
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Un ejemplo de un modelo donde Xa (no lineal) puede darse, es la expresión común del
modelo de producción siguiente:
Y=KaLb
Y/L= KaLb/L
Donde:
Y: Producto
K: Stock de capital
a=1–b
Y / L = (K / L) a
Esta última expresión indica que el producto per cápita se relaciona con el capital por
trabajador o per cápita, si deseamos estimar este modelo sin aplicar logaritmos, tendría esta
versión econométrica:
Si bien el producto per cápita (Ypc) no tiene un relación perfectamente lineal con el capital per
cápita (Kpc), la expresión (iii) es un modelo econométrico que presenta un error de diseño, por
cuanto no conocemos el valor del parámetro “a” haciendo ello imposible su estimación.
Donde vemos que el resultado del modelo econométrico es estimar “a”, por lo tanto la
presencia de variables cuadráticas o con un algún exponente, puede representar un problema de
diseño del modelo, en algunos casos el uso de variables cuadráticas se usa sin perder linealidad
considerando aspectos como:
90
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
- La variable explicativa se comporta de modo no lineal, por ejemplo los costos de una
empresa pueden no ser lineales, en razón de darse costos fijos y variables o semi fijos.
- Los costos de algunas empresas pueden ser en forma decreciente y creciente (la
clásica curva en forma de U) de modo que modelos que incorporen el costo como
independiente pueden ser no lineales en esa variable.
- Las percepciones del público respecto a un producto pueden variar dependiendo del
ingreso del individuo, así a medida que hay más distancia cuadrática entre ingresos
(por ejemplo ingreso del individuo uno menos el del individuo dos, todo al cuadrado)
podría variar en mayor ritmo la demanda de un bien medido en gasto monetario.
E Y/X = ß0 + ß1 2 X (iv)
La ecuación (iv) es no lineal en los parámetros, por lo menos en ß1, esto genera problemas
de estimación al menos desde la perspectiva que aquí trabajamos, que es tener un parámetro
cuyo efecto es directo con la variable respuesta. Consideremos que estimamos el modelo (iv), sin
embargo no conocemos que el parámetro es al cuadrado, es decir el efecto real no es la
estimación realizada sino la raíz cuadrada de la misma, por ende el modelo puede tener
problemas de estimación del parámetro, puede estar sobre estimado.
Ahora revisemos la figura siguiente, que muestra la relación entre la tasa de encaje promedio
en el Perú y la tasa de interés activa en moneda nacional. Se puede evidenciar una pequeña
relación positiva entre ambas variables, en buena cuenta un alza de la tasa de encaje se
relaciona con pequeñas alzas en la tasa de interés, la idea de la econometría es estimar el
tamaño de ese efecto medido por el parámetro respectivo.
91
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Fig. 3.1 Relación entre Tasa de Encaje y Tasa activa en moneda nacional (TAMN)
TAMN = ß0 + ß1 Encaje
Los resultados de la estimación (proceso que veremos más adelante), para los datos entre
junio 2012 a mayo 2014, son:
El modelo anterior, bien puede denominarse una regresión poblacional, es decir hemos
empleado los datos de todo el corte de tiempo señalado, ahora estimemos tres modelos usando
en cada caso solo una muestra aleatoria de 12 datos, que es la mitad de los datos empleados en
la regresión poblacional, los resultados son:
92
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Visto gráficamente los modelos anteriores pueden representarse en la figura siguiente, en ella
se indica que la función de regresión poblacional es diferente a las demás regresiones
muestrales, esto indica que entre la población y la muestra existe un grado de error, por ejemplo
pensemos que el encaje es 20, en ese caso las estimaciones resultantes son:
TAMN!
Muestra!1!
Muestra!3!
Muestra!2!
Población!
Encaje!
El error mostrado en las estimaciones anteriores, se refiere a cuanta distancia hay entre la
TAMN estimada poblacionalmente y cada una de las muestras, como puede verse el error de las
estimaciones muestrales puede ir por encima de la variable TAMN o por debajo de la misma. En
buena cuenta los modelos econométricos dado que son muestrales, siempre tienen un nivel de
93
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Y = ß0 + ß1 X + U
La regresión poblacional inclusive, en tanto usamos datos condicionales (ver el tema dos)
presenta valores esperados estimados para una distribución de probabilidades, de modo que
también presenta un nivel de error (la distancia entre el valor esperado estimado o media y los
datos existentes), por ello veamos e siguiente gráfico estimando la TAMN desde los parámetros
mostrados en la regresión poblacional y la TAMN real.
Como muestra la figura anterior las estimaciones que realizamos de una variable aleatoria
contienen siempre un nivel de error, primero porque siempre estimamos un valor esperado, el
cual es un dato que se encuentra entre la media de los datos respectivos, la desviación existente
en torno a la media estimada, garantiza la presencia de error aleatorio. En el caso de las
regresiones muestrales el error se amplifica, porque además de que estimamos una media
94
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
muestral (o valor esperado muestral), a las desviaciones propias de la muestra se le suma las
desviaciones en torno a la media poblacional (o valor esperado poblacional), lo que implica un
mayor nivel de error.
Las siguientes son las sumas y valores esperados de las estimaciones de error de cada
regresión realizada:
Tabla 3.1 Valor esperado del Error del modelo Encaje -TAMN
La tabla anterior indica que el valor esperado del error poblacional tiende a ser cero (es
posible que haya estimaciones mayores y menores respecto al dato real), mientras que de las
tres muestras realizadas la primera tiene un error esperado de cero y las otras dos tienen estos
errores cercanos a cero.
Visto la tabla, el modelo poblacional tiene un E(U) = 0, mientras que la regresión de mayor
cercanía de la muestra 1, también presenta un E(Ui) = 0, en ambos casos ambos modelos son
los que mejor representan el comportamiento de la variable dependiente o tasa de interés activa
en moneda nacional, es siempre muy probable que la función de regresión poblacional tenga un
error esperado de cero, dado que contiene todos los daos posibles, mientras que la muestra de
menor error (o cero) es aquella que mejor representa el comportamiento poblacional.
Hay que considerar además, que normalmente siempre trabajaremos con regresiones
muestrales, de modo que un criterio básico es hallar aquella regresión que presenta el menor
error posible en la estimación de la variable dependiente. En nuestro ejemplo la regresión y los
parámetros a usar, serían los de la muestra 1.
Ahora analicemos el comportamiento del error cuadrático, esto puede expresarse así:
U = Y - ß0 + ß1 X
Var U = E (U – E U)2
Var U = E (U 2 – 2 U E U + (E U)2 )
Var U = E U 2 – 2 E U E U + N (E U)2
95
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Var U = E U 2
Var U = ∑ U 2 / N – K
Donde:
Var U: Varianza de U
N es el número de datos, y
En conclusión la varianza del error es una constante, como indica la expresión anterior. El
error también debe tener un comportamiento independiente de la variable independiente, veamos
el siguiente tratamiento (donde Covar indica la covarianza):
Covar (U, X) = E (U X – E U X - U E X + E U E X)
Covar (U, X) = E (U X - U E X)
Covar (u, X) = E U X - EU E X
Covar (U, X) = 0
Y = ß0 + ß1 X + U
U = ø0 + ø1 X + e
96
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Y = ß0 + ß1 X + ø0 + ø1 X + e
Como puede verse el parámetro que define el efecto que X tiene en la variable Y sería (ß1 +
ø1), es decir estamos subestimando el valor del parámetro original, el error deja además de ser
aleatorio, puesto que su valor esperado sería este diferente de cero:
E U = ø0 + ø1 E X
Lo anterior indica además que la varianza del error deja de ser constante como demostramos
a continuación:
Var U = E (U – E U)2
Var U = E (U 2 – 2 U E U + (E U)2 )
Var U = E U 2 + E (ø0 2 + 2 ø0 ø1 E X + ø1 2 E X 2 )
Considere que el valor esperado de una constante es la misma constante y un valor esperado
de una variable aleatoria, es también una constante, con ello la varianza del error queda:
Var U = E U 2 + ø0 2 + 2 ø0 ø1 E X + ø1 2 E X 2
- Los parámetros a estimar de modo insesgado producen el mínimo error o error cero
- Los parámetros de un modelo a estimar, deben ser lineales, ya que ello permite
identificar el efecto que se genera entre variable independiente hacia la dependiente.
97
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
La figura siguiente muestra que para distintos valor del parámetro ß1, el error cuadrático total
(sumatoria de U2) varía. Por ejemplo para un valor del parámetro de la regresión poblacional
(0.30) el error cuadrático es cero, mientras que para el parámetro 1.87 de la regresión muestral
realizada antes (modelo de encaje y tasa de interés), el error cuadrático también es cero.
Mientras que para un parámetro de 1.38 (segunda regresión muestral) el error cuadrático total es
0.01, ahora para la regresión muestral tres, el parámetro fue de -10.03 y el error cuadrático total
ha sido de 0.24.
Como se puede ver, el parámetro muestral que minimiza el error al cuadrado total es 1.87.
Esto nos lleva a plantear el siguiente problema de optimización para minimizar el error al
98
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
cuadrado, que permitirá conocer como hallar los parámetros insesgados de cualquier modelo
econométrico básico o de dos variables:
∑ U i 2 = ∑ ( Y - Y e) 2
∑ Ui 2 = ∑ ( Yi – ß0 - ß1 Xi ) 2
∂ ∑ Ui 2 / ∂ ß0 = 0
∂ ∑ Ui 2 / ∂ ß1 = 0
∂ ∑ Ui 2 / ∂ ß0 = 2 ∑ ( Yi – ß0 - ß1 Xi ) (-1) = 0
∑ Yi – N ß0 - ß1 ∑ Xi = 0
∑ Yi / N – ß0 - ß1 ∑ Xi / N = 0
ß0 = Ym - ß1 Xm
Donde:
∂ ∑ Ui 2 / ∂ ß1 = 2 ∑ ( Yi – ß0 - ß1 Xi ) (-Xi) = 0
∑ ( Yi – ß0 - ß1 Xi ) (Xi) = 0
∑ ( Yi Xi – ß0 Xi - ß1 Xi Xi ) = 0
∑ Yi Xi – ß0 ∑ Xi - ß1 ∑ Xi 2 = 0
Considerando que:
∑ Yi / N – ß1 ∑ Xi / N = ß0
∑ Yi Xi - (∑ Yi / N – ß1 ∑ Xi / N) ∑ Xi - ß1 ∑ Xi 2 = 0
99
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
∑ Yi Xi - ∑ Yi ∑ Xi / N + ß1 ∑ Xi ∑ Xi / N - ß1 ∑ Xi 2 = 0
N ∑ Yi Xi - ∑ Yi ∑ Xi + ß1 ∑ Xi ∑ Xi - ß1 N ∑ Xi 2 = 0
N ∑ Yi Xi - ∑ Yi ∑ Xi = ß1 [N ∑ Xi 2 - ∑ Xi ∑ Xi ]
[N ∑ Yi Xi - ∑ Yi ∑ Xi ] / [N ∑ Xi 2 - ∑ Xi ∑ Xi ] = ß1
= ∑ (X Y – Xm Y + Xm Ym – X Ym)
= ∑ X Y – Xm ∑Y + N Xm Ym – ∑ X Ym
= ∑ X Y – Xm ∑Y + ∑ X Ym – ∑ X Ym
= ∑ Xi Yi – ∑ Xi ∑Yi / N (v)
Var X = ∑ (X – Xm)2
= ∑ ( X2 – 2X Xm + Xm 2 )
= (∑ X2 – 2 ∑X Xm + N Xm 2 )
= (∑ X2 – 2 ∑X Xm + ∑X Xm )
= (∑ X2 – ∑ X Xm ) (vi)
= [∑ X Y – ∑ X ∑Y / N] / [∑ X2 – ∑ X Xm ]
= [N ∑ Xi Yi – ∑ Xi ∑Yi ] / [ N ∑ Xi 2 – ∑ Xi ∑ Xi ] (vii)
La ecuación (vii) es idéntica a la obtenida para estimar ß1, de modo que podemos decir que el
parámetro se estima finalmente del siguiente modo:
100
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
ß1 = ∑ yi xi / ∑xi2
Donde:
yi xi = (X – Xm) ( Y – Ym)
xi 2 = (X – Xm)2
TAMN = ß0 + ß1 Encaje + U
Estimaremos el valor insesgado de los parámetros ß0 y ß1, para lo cual tenemos la tabla
siguiente:
ß1 = ∑ yi xi / ∑xi2
101
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
ß1 = 3.05 / 1.63
ß1 = 1.868
ß0 = Ym - ß1 Xm
ß0 = -14.45
Una forma de explicar los resultados de este modelo, indica que si el encaje sube en 1,
entonces la tasa de interés subiría en 1.868 (no hemos corrido el modelo en logaritmos, de modo
que es un parámetro medido en valores absolutos antes que elasticidades), la pendiente de este
modelo equivale al valor 1.868.
En caso que el encaje fuera cero, la Tasa de interés activa en moneda nacional sería -14.45,
lo cual de por sí no es explicable en términos económicos, toda vez que no existen tasas
negativas, he allí una forma de expresar que el modelo pudo ser más efectivo si se empleaban
logaritmos. El valor negativo del parámetro no es un buen referente o respuesta en este modelo,
es más probable que indique que en ausencia de encaje la tasa de mercado podría bajar en
14.45, pero esa es ya una explicación del analista, que termina siendo una opinión que procura
acomodarse al modelo.
La estimación de los parámetros también debe ser independiente del nivel de error, con fines
de ser insesgado, probemos este criterio con los modelos siguientes:
Y = ß0 + ß1 X + U
Ym = ß0 + ß1 Xm
Y - Ym = ß1 (X - Xm ) + U
yi = ß1 xi + U
Sea la covarianza entre Y con el error u, considere que el valor esperado del error es cero
(E U = 0):
102
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
∑ yi U = ß1 ∑ xi U
∑ yi U = ß1 ∑ xi ( yi - ß1 xi)
∑ yi U = ß1 [ ∑ xi yi - ß1 ∑ xi 2 ]
∑ yi U = ß1 ∑ xi yi - ß1 2 ∑ xi 2
∑ yi U = ß1 ( ß1 ∑ xi 2 ) - ß1 2 ∑ xi 2
∑ yi U = ß1 2 ∑ xi 2 - ß1 2 ∑ xi 2
∑ yi U = 0
Para ello debemos analizar primero, el grado de varianza o variabilidad que tienen los
estimadores que hemos calculado, un estimador de baja varianza o baja desviación estándar
garantiza que el rango de la respuesta o intervalo de confianza para las estimaciones es bajo,
eso supone una estimación bien ajustada de la variable dependiente lo cual implica un error
pequeño en el modelo, lo cual es el objetivo a lograr.
ß1 = ∑ yi xi / ∑xi2
ß1 = ∑ xi Yi – ∑ xi Ym / ∑xi2
103
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Donde ∑ xi = 0 (La sumatoria del valor de una variable aleatoria respecto de su media es
cero), entonces:
ß1 = ∑ xi Yi / ∑xi2
ß1 = ∑ Zi Yi
Donde Zi = xi / ∑xi2
∑ Zi 2= ∑ xi 2 / ∑xi4 = 1/ ∑xi2
∑ Zi Xi = ∑ xi Xi / ∑xi2 = ∑ xi 2 / ∑xi2 = 1
Yi = ß0 + ß1 Xi + U
ß 1’ / ∑ Z i = ß 0 + ß 1 X i + U
ß1’ = ∑ Zi [ß0 + ß1 Xi + U]
ß 1’ = ß 0 ∑ Z i + ß 1 ∑ Z i X i + ∑ Z i U
Aplicando los criterios previos, donde ß1’ es el valor estimado de ß1, tenemos:
E ß 1’ = 0 + E ( ß 1 * 1 ) + ∑ Z i E U
E ß 1’ = ß 1
E ß 1’ - ß 1 = ∑ Z i E U i
Ahora para hallar la varianza de ß1 tenemos que restar ß1’ del valor esperado de ß1:
104
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Var ß1 = E (∑ Zi Ui) 2
La ecuación de la varianza (Var) del parámetro y su error estándar (SE) o desviación, queda:
Var ß1 = 2 ( ∑ Zi 2 )
S E ( ß1 ) = / ( ∑xi 2) 0.5
ß 0’ = Y m - ß 1 ‘ X m
E ß0 = Ym - ß1 Xm
ß 0’ - E ß 0 = Y m - ß 1 ‘ X m - Y m + ß 1 X m
ß 0’ - E ß 0 = - ß 1 ‘ X m + ß 1 X m
ß 0’ - E ß 0 = - X m ( ß 1’ - ß 1 )
( ß 0’ - E ß 0 ) 2 = [ - X m ( ß 1‘ - ß 1 ) ] 2
Los cálculos anteriores indican que los intervalos de confianza (en que rango se mueven
como máximo o mínimo los parámetros estimados en el modelo) para los parámetros serían los
siguientes:
- SE ( ß1 ) + ß1 + SE ( ß1 )
- SE ( ß0) + ß0 + SE ( ß0)
Una vez que establecemos la varianza de los parámetros, ahora conoceremos el ajuste del
modelo, en buena cuenta que tan bien la variable dependiente es explicada con la información
que contiene la variable independiente, para ello consideremos siempre el modelo inicial:
Yi = Yi ’ + Ui
Visto en desviaciones (Note que Ui = ui, porque la media del error o su valor esperado es cero)
tenemos:
yi = yi ’ + ui
yi 2 = yi’ 2 + 2 yi ui + ui2
∑ yi 2 = ∑ yi’ 2 + 2 ∑ yi ui + ∑ ui2
Como se demostró antes, ∑ yi u = 0, con lo cual la expresión queda del siguiente modo:
Zi = xi / ∑xi2
Yi ‘ = ß1 / ∑ Zi
Yi ‘ = ß1 ∑xi 2 / xi
106
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
∑ Yi ’ = ß1 ∑xi 2 / ∑ xi
∑ Yi ‘ 2 = ß1 2 ∑xi 2
En desviaciones:
∑ yi ‘ 2 = ß1 2 ∑xi 2
Ahora reemplazando esta última expresión en la ecuación (viii) tenemos el resultado final,
note que hemos considerado igual que antes que la variable aleatoria, puede ser escrita en sus
desviaciones sin alterar lo que hemos estimado:
∑ yi 2 = ß1 2 ∑xi 2 + ∑ ui2
1 = ß1 2 ∑xi 2 / ∑ yi 2 + ∑ ui2 / ∑ yi 2
r 2 = ß1 2 ∑xi 2 / ∑ yi 2
r 2 = ( ∑xi yi ) 2 / [ ∑xi 2 ∑ yi 2 ]
1 = r 2 + ∑ ui2 / ∑ yi 2
r 2 = 1 - ∑ ui2 / ∑ yi 2
r 2 = 1 – SRC / STC
Donde:
107
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Hay que notar que el coeficiente de determinación finalmente implica que las desviaciones de
X explican en alguna medida las desviaciones de Y, por eso que la variable X es determinante en
el comportamiento de la variable Y.
La tabla siguiente muestra los resultados necesarios para las estimaciones de varianza de
parámetros y del coeficiente de determinación (TAMN es Y, el encaje es X, TAMN estimado es
Y’):
108
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
En primer lugar estimaremos la varianza del modelo y su respectiva raíz conocida como error
estándar del modelo o de la regresión:
2= ∑ U 2 / N – K)
2= 33.10 / 10 = 3.31
SE Regresión = 1.819
STC = ∑ yi 2 = 38.79
Donde:
∑yi 2 = ( Yi - Ym ) 2
Donde:
∑yi ’ 2 = ( Yi ‘ - Ym ‘ ) 2
SRC = ∑ ui 2 = 33.10
109
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Esto equivale a:
1 = r 2 + ∑ ui2 / ∑ yi 2
1 = 0.15 + 0.85
r 2 = 0.15
r 2 = ß1 2 ∑xi 2 / ∑ yi 2
El valor de 0.15 estimado indica que sólo un 15% de los cambios en la variable Y es producto
de cambios en la variable X, el coeficiente de correlación o asociación entre variables es de
38.2% (0.382), lo cual es un indicador bajo, es muy probable que modelos con buen ajuste
tengan coeficientes de correlación que superen a 0.5 o 50% y por un tanto el r2 se situaría por
encima de 25%. Aunque normalmente se sugiere que el coeficiente de determinación sea mayor
a 0.6 o 60%.
110
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Donde Ho, normalmente se conoce como hipótesis nula y Ha como la hipótesis alternativa. Si
consideramos lo anterior podemos plantear una forma de verificar la significancia, para ello
usemos el intervalo de confianza positivo (funciona similar si fuera el intervalo negativo) del
parámetro ß1 ‘ (parámetro estimado) por ejemplo:
ß1 ‘ = ß1 + S E ( ß1 )
ß1 ‘ - ß1 = S E ( ß1 )
( ß1 ‘ - ß1 ) / S E ( ß1 ) = 1
ß1 ‘ = ß1
En ese caso:
( ß1 ‘ - ß1 ) / S E ( ß1 ) = 0
El valor 1 y 0 que hemos obtenido, equivale a los valores que puede adquirir la distribución
estandarizada normal del error estándar del parámetro que llamaremos Z, de modo que la
ecuación previa puede plantearse como:
( ß1 ‘ - ß1 ) / S E ( ß1 ) = Z
Z = ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 ) /
2‘= 2/ (N – K)
2‘ (N – K) / 2 =1
2‘ (N – K) / 2 =0
111
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
2‘ (N – K) / 2 =Z’
Existe una distribución estandarizada que relaciona tanto la varianza del modelo ( 2) como
la distribución estandariza de los parámetros y se conoce como distribución “t” de Student, cuya
representación es la siguiente:
t = Z (N - K) 0.5 / Z ’ 0.5
t = [ ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 / ]/ [ ‘/ ]
t = [ ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 ] / ‘
Donde:
ß1 = 0. Si consideramos que la hipótesis nula es que sea igual a cero, entonces hay que
probar eso. Con la cual la distribución t de Student del parámetro ß1 y ß0 queda así, considere
como vimos en las ecuaciones previas que hay (N – K) grados de libertad o datos ajustados, en
el modelo básico sería (N – 2) grados de libertad en la distribución t:
t = ß1 ‘ / SE (ß1)
t = ß0 ‘ / SE (ß0)
Con esto queda además ajustado el nivel de variación de los parámetros o intervalo de
confianza y quedan como sigue:
ß1 ‘ = ß1 +/- t * S E ( ß1 )
ß0‘ = ß0 +/- t * S E ( ß0 )
112
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Donde la distribución t de Student puede ser a una cola o dos colas, veamos los datos que
muestra la distribución a una y dos colas, para diversos niveles de confianza o error:
Como se muestra en la tabla previa, si se cuenta con 30 grados de libertad (existen 32 datos
con dos variables en el modelo, una explicativa y la otra dependiente), entonces para que t sea
mayor de 0.68, la probabilidad es de 50% en una cola y de 25% en dos colas.
Con el mismo razonamiento, para 120 datos, la probabilidad para que t sea mayor a 2, es de
5% a una cola y 2.5% a dos colas.
La figura siguiente muestra este criterio, en ella se indica que para 14 grados de libertad (16
datos en un modelo simple), el valor de la tabla es de 2.145, este valor es idéntico a ambos lados
de la distribución (siempre que sea a dos colas) y equivale a una probabilidad de 2.5% en cada
cola, para el caso de que el valor t del parámetro estimado supere a 2.145:
113
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Un criterio similar supone pensar de que sólo existe 2.5% de probabilidades de que el
parámetro sea igual a cero, cuando supera el valor de la tabla y existen 95% de probabilidades
de que sea diferente de cero.
t ß1 = ß1 ‘ / SE (ß1)
t ß0 = ß0 ‘ / SE (ß0)
Los valores críticos de la distribución t de Student para 10 grados de libertad a 2.5% de error
en dos colas es: 2.23
114
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Lo anterior indica que los dos parámetros no superan el valor crítico o de la tabla, por ende no
se puede rechazar la hipótesis nula de que los parámetros son iguales a cero, esta hipótesis se
acepta y se considera que los parámetros estimados no son significativos, por tanto el modelo
desde esa perspectiva no permite conocer el efecto de la variable X (encaje) sobre la variable Y
(tasa de interés activa en moneda nacional TAMN).
Ahora midamos un indicador global de significancia del modelo, el mismo que implica
combinar nuevamente las distribuciones de los parámetros y la varianza del modelo:
2‘ (N – K) / 2 =Z’
Z = ( ß1 ‘ - ß1 ) ( ∑xi 2 ) 0.5 /
Z 2 = ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) / 2
Ahora hallemos la distribución denominada F de Fisher, que mide la significancia global del
modelo, esto es que tan bueno es el modelo a partir de los errores estimados y la significancia de
los parámetros:
F = [ Z 2 / 1 ] / [ Z ‘ / (N - K) ]
F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) / 2] /[ 2‘ (N – K) / 2 (N – K) ]
F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) / 2] /[ 2‘ / 2]
F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) ] / 2‘
F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) ] / 2‘
F = [ ( ß1 ‘ - ß1 )2 ( ∑xi 2 ) ] / [ ∑ Ui 2 / ( N – K ) ]
Si consideramos que la hipótesis nula es probar que ß1 es igual a cero, entonces queda:
115
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
F = [ ß1 ‘ 2 ( ∑xi 2 ) ] / [ ∑ Ui 2 / ( N – K ) ]
La tabla puede entenderse del siguiente modo, para 10 grados de libertad en el denominador
(en este caso 12 datos menos, K que equivale a 2), se tiene que existe un 5% de probabilidad de
que el valor obtenido supere a 4.96.
Para 120 grados de libertad en el denominador (122 datos en el caso de tener K = 2), se
tiene que existe un 1% de probabilidad de que le valor F supere a 6.85.
Tal como en el caso anterior, cuando el valor F obtenido en la regresión supera al de la tabla
se asume que se cae en la región de rechazo de la hipótesis nula, que en este caso es
equivalente a que todos los parámetros del modelo son cero.
F = [ ß1 ‘ 2 ( ∑xi 2 ) ] / [ ∑ Ui 2 / ( N – K ) ]
F = SEC / [ SRC / (N – K) ]
116
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
SEC = 5.69
SRC = 33.10
Comparando este F estimado con 4.96 el valor crítico de la tabla F, al 5% de confianza se tiene:
Dado que F estimado es menor al valor de la tabla ya mostrado antes, se indica que se
acepta la hipótesis nula de que los parámetros son cero, de modo que el modelo tiene bajo poder
explicativo y por tanto debe ser rechazado globalmente.
Resultando:
117
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Como muestra la tabla previa, el valor F es 1.72 ya estimado, el error estándar del modelo se
denomina Root MSE y es 1.8193, el coeficiente de determinación (r 2 ) es 0.1467 y también hay
un ajustado, que se estima del siguiente modo:
r 2 ajustado = 1 – ( 1- r 2 ) * [ N-1 / ( N - K) ]
r 2 ajustado = 6.13 %
Note que el r2 ajustado para muestras grandes o abundantes en datos, tiende a ser
equivalente al r2 estimado en la regresión, mientras que para muestras pequeñas tiende a
castigar el r2 estimado reduciendo su escala de medición, ello se debe a que la presencia de
pocos datos y muchas variables a involucradas reducen la potencia del modelo.
El resultado del Stata © también indica la suma de cuadrados explicada (SEC) que aparece
como Model y la suma de residuos al cuadrado (SRC) que aparece como Residual, la suma de
ambas da la suma total de cuadrados, al dividirla entre los grados de libertad se obtiene primero
las desviaciones cuadráticas de la variable dependiente estimada y luego la varianza del modelo.
Más abajo aparecen el coeficiente de los parámetros, el error estándar (Std err) y la prueba t
de Student, luego viene la probabilidad de que esté en la región de rechazo o aceptación de la
hipótesis nula (si supera el 0.05 se acepta la hipótesis nula de que el parámetro es cero) y luego
viene el intervalo de confianza del parámetro.
Obviamente para que funcione el comando en Stata © debe estar cargada a base de datos
que puede importarse de Excel © usando el menú siguiente:
118
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Una vez que se importan los datos, estos deben cargarse del siguiente modo:
119
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Luego los datos aparecen en la sección derecha arriba (caja vacía) donde dice: Variables,
Name, Label, una vez allí se tiene todo listo para ejecutar los comandos.
120
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
En este capítulo del libro, hemos analizado la estimación de los parámetros de un modelo de
regresión de dos variables o modelo básico. La premisa para estimar los parámetros es que estos
minimicen el error del modelo, el error se entiende como la distancia entre la variable dependiente
observada o datos reales y su respectiva estimación, una gran distancia supone un elevado nivel de
error, lo inverso indica un buen ajuste del modelo.
La estimación de los parámetros conducen a tener una medición del efecto que una variable
independiente genera en la variable dependiente, este efecto es la pendiente del modelo de
regresión (también puede ser un indicador del impacto del cambio si se trata de elasticidades o
variables medidas en logaritmos), también se tiene una constante del modelo que representa el
efecto que no proviene de la variable independiente.
Con el nivel de error del modelo podemos determinar la varianza del mismo, a partir de los
errores cuadráticos, dicha varianza es clave en la buena estimación de los parámetros llamados
también insesgados, si se tuviera mucha varianza del modelo, entonces esta variabilidad se
incorpora a los parámetros generando que el intervalo de confianza de los mismos se eleve, esto es
que los parámetros dejen de ser correctos al tener mucho cambio posible.
Todo modelo econométrico tiene fuentes de variabilidad, ya hemos mencionado los errores que
podrían ser la denominada Suma de residuos al cuadrado, a ello le añadimos la variabilidad de la
estimación realizada conocida como suma cuadrada explicada, ambos componentes dan la suma
total de cuadrados. La suma cuadrada explicada sobre la suma total de cuadrados, nos indican el
coeficiente de determinación, el mismo que mide el efecto general de la variable independiente en la
dependiente (indicador conocido como r2 o cuadrado de la correlación), lo cual indica un buen ajuste
general del modelo, donde un indicador arriba de 50% podría ser muy recomendable.
Con los indicadores mencionados, se hace la denominada prueba de hipótesis, para ello se
tienen dos distribuciones de comparación, la primera es la t de Student que permite saber si un
parámetro es igual a cero (hipótesis nula) o diferente de cero (hipótesis alternativa), si el valor t del
modelo supera el valor de la distribución (o valor crítico) entonces se rechaza la hipótesis nula.
Un indicador global de que los parámetros son diferentes de cero, es usando la distribución F de
Fisher, en ese caso se compara el F obtenido en el modelo, con el valor de la distribución (valor
crítico) y si es mayor, la conclusión es que los parámetros son significativos, diferentes de cero y
aplicables en el análisis.
121
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Preguntas de opinión
122
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Caso de aplicación
Lectura previa
En mi caso, las preocupaciones por estos temas fueron compartidas desde fines de los
años 80 ininterrumpidamente. Durante los años en el Senado Chileno quisimos inyectar de
optimismo la reflexión sobre el futuro, aprendiendo de lo que en ese momento llamamos los
casos de “países afines exitosos”. Organizamos, en conjunto con el entonces senador
Fernando Flores, visitas de estudio a Finlandia, Estonia, Irlanda, Australia y Nueva Zelandia.
Gastamos muchos días y horas en terreno, aprendiendo de la experiencia de desarrollo de
esos países. Visitamos agencias gubernamentales, universidades y centros de investigación,
parlamentos, a dirigentes sociales y empresarios, y hablamos exhaustivamente con quienes
desde las regiones o empresas impulsaban iniciativas de innovación. Cuando las
circunstancias nos llevaron a la Cancillería, retomamos el tema empujando iniciativas que
generaban redes de cooperación con los centros de excelencia de esos países y convenios
de intercambio masivos de profesionales y egresados de la educación superior en Chile. Al
mismo tiempo, patrocinamos un proyecto de investigación en profundidad acerca de los
“países afines exitosos”.
123
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Ambos estudios sirvieron de motivación para continuar la reflexión sobre los países “a
medio camino”. Pero ahora el énfasis está puesto en “cómo recorrer la mitad del camino que
falta” para alcanzar el pleno desarrollo; lo que hay que evitar desde luego es “la trampa de los
países de ingreso medio”.
Las naciones que muestran más dificultad para pasar el umbral hacia economías
avanzadas son los países de ingreso medio y, entre ellos, los de América Latina. El
pronóstico, considerando la experiencia pasada, es que un buen número de estos podría caer
en lo que la literatura económica ha llamado “trampa de ingreso medio”, precisamente debido
a la incapacidad de sostener un alto crecimiento por varias décadas. A menudo se alude a
Argentina como el caso más ilustrativo de esta trampa: a comienzos del siglo XX este país
clasificaba entre los más desarrollados del mundo, pero a la fecha aún no logra salir de la
categoría de ingreso medio. Dado que la historia económica de esta región se ha
caracterizado por permanentes ciclos de años buenos, seguidos por fases de turbulencias
económicas que contagian a la sociedad y al sistema político, son más las probabilidades de
quedarse en un punto intermedio que completar la transición al desarrollo.
La idea de que cada cierto tiempo hay que comenzar de nuevo, ha marcado a la política
latinoamericana, incubando puntos de ruptura institucional que abren paso a “gobiernos
fundacionales”, a menudo de carácter autoritario o seudo-revolucionario, que tampoco logran
dar con la salida de este laberinto. Así, una de las fallas históricas de América Latina es la
incapacidad de persistir en una trayectoria de alto crecimiento. Pero esto no ocurre solo por
malas políticas o por excesiva dependencia de fuerzas externas desestabilizadoras. Lo que
empuja a un país de ingreso medio a caer en una trampa que frena su desarrollo es un
conjunto de factores, identificables a través de dos tipos de estudio de experiencias
comparadas. El primero consiste en examinar los casos de “países afines”, que fueron
exitosos en salir de la trampa de ingreso medio en los últimos 20 años. Otro enfoque
complementario es aprender de países que todavía pertenecen a la categoría de ingreso
medio en regiones como el Este de Asia y el Este de Europa. Conocer sus aciertos y errores
puede ayudar a los países latinoamericanos a caminar con pie más firme hacia el umbral del
desarrollo (Banco Interamericano de Desarrollo [BID] y Ministerio de Relaciones Exteriores de
Chile, 2009; Foxley, 2009, 2010a, 2010b).
Los factores que llevan a la trampa de ingreso medio son clasificables en cuatro
categorías: desaceleración del crecimiento por incapacidad de lograr mejoras continuas en
competitividad y productividad; baja calidad de la educación y lenta transferencia de
conocimiento e ideas innovadoras; excesiva desigualdad y desprotección de los grupos
vulnerables; e incapacidad de las instituciones para proveer estabilidad, buena calidad de
124
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
gestión y transparencia, así́ como una adecuada calidad en las decisiones del sistema
político.”
Tomado textualmente de Foxley (2012)
Preguntas de la lectura
Aplicación econométrica
Continuando con el tema del ingreso medio solo desde una visión económica, a
continuación se muestra una tabla de variables para países de América Latina y El Caribe,
selecciona el año que creas conveniente, realice regresiones individuales para cada
variable que usted considere independiente.
En el caso de la variable dependiente, sería el ingreso per cápita, usted puede establecer
como ingreso medio la media del ingreso per cápita de todos los países y hallar como
variable dependiente la desviación de cada país sobre el ingreso medio.
Estime los indicadores de bondad de ajuste del modelo y de los parámetros en cada una de
las regresiones, compare sus resultados e indique que variable produce el mayor efecto en
el ingreso per cápita respecto del ingreso medio. Se aconseja tener regresiones con
variables en logaritmos.
Puede también eliminar los países que considere cuentan con datos irrelevantes o podrían
sesgar su análisis.
125
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
126
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
127
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
128
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
129
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Ejercicios
El modelo Harrod-Balassa-Samuelson, sirve para explicar la dinámica del tipo de cambio real
a partir de distintas variables, Primero tenemos que los precios de los bienes transables (Pt) y de
los no transables (Pn) equivalen a:
Pt = W / at
Pn = W / an
Donde (1/an), (1/at), equivalen al uso del factor trabajo (único) en la producción de una unidad
de bienes transables y no transables, de modo que el costo esta asociado al salario y ello debe
ser igual al precio de los bienes. Considere que el modelo se expresa en índices.
Además considerando que el precio transable, equivale al tipo de cambio (e) por el precio
internacional Pt*, es decir:
P t = e P t*
Si pensamos que el precio relativo del otro país es p* = Pt* / Pn*, y que el índice de precios
de bienes transables en cada país representan una proporción (1-α), entonces el tipo de cambio
real entre ambos países es q = (p / p*) α
Además considerando que por la ley de un solo precio se tiene que: 1 = e . Pt* / Pt
Finalmente este modelo considera que la producción de transables (Yt) y no transables (Yn)
equivale a:
Yt = at . Lt
Yn = an . Ln
Donde Ln, Lt, es la cantidad de factor de trabajo para cada bien (empleo).
Una vez analizado dicho modelo teórico se debe plantear y estimar dos modelos
econométricos para explicar lo siguiente:
130
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
• Los efectos en el tipo de cambio real de un cambio en los precios relativos de dos
países, en este caso Perú y EEUU.
• Los efectos en el tipo de cambio real del diferencial de productividades transables y no
transables entre dos países en este caso Perú y EEUU.
Datos requeridos:
Índice de
tipo de TC Nominal
Otros
cambio (S x U$) - IPC IPC no Manufactura Índ. empleo
IPC Lima servicios
real Interbancario transables transables Produc urb. 10 y
Mes/Año (2009 = produc
bilateral compra - Lima (2009 Lima (2009 (índice más trab. -
100) (índice
(Perú USA) promedio = 100) = 100) 1994=100) manufactura
1994=100)
Base Dic mensual
2001
ene-08 89.1269 2.9481 93.8411 96.5427 92.0132 182.6922 171.5286 115.8363
feb-08 87.2366 2.9044 94.6923 96.9553 93.1536 177.7689 176.6965 116.6373
mar-08 84.2510 2.8099 95.6788 97.3308 94.5555 182.2799 177.6170 116.7545
abr-08 82.7329 2.7445 95.8264 97.7113 94.5399 191.8559 188.9940 115.9567
may-08 84.8384 2.8015 96.1804 98.6376 94.5145 195.5508 197.0539 116.6880
jun-08 87.6775 2.8888 96.9207 99.2631 95.3290 195.0641 188.4492 116.5034
jul-08 86.3424 2.8464 97.4590 99.5750 96.0233 188.9931 192.9462 115.5777
ago-08 86.8099 2.8899 98.0345 99.9558 96.7342 188.0309 186.5984 115.7050
sept-08 88.3923 2.9643 98.5906 100.1275 97.5473 192.0167 185.3715 116.2248
oct-08 90.1717 3.0681 99.1950 100.6497 98.2010 194.4709 194.8984 116.7423
nov-08 88.6519 3.0897 99.5016 100.6858 98.6893 192.5355 187.2792 118.2423
dic-08 88.0389 3.1125 99.8600 100.4455 99.4522 189.7516 215.5457 118.9421
ene-09 89.3879 3.1504 99.9656 99.7346 100.1174 181.7210 179.2647 113.0302
feb-09 92.3241 3.2352 99.8909 99.0240 100.4727 165.8639 179.6115 110.6744
mar-09 90.4688 3.1732 100.2507 98.8686 101.1743 172.3439 186.1667 109.5121
abr-09 88.1141 3.0828 100.2698 99.0908 101.0673 165.7936 191.2806 107.8296
may-09 85.7993 2.9923 100.2266 99.2990 100.8376 179.8310 201.1596 107.9942
jun-09 86.7275 2.9888 99.8863 99.3716 100.2196 169.4840 192.0235 108.4013
jul-09 87.0652 3.0111 100.0728 99.4359 100.4888 165.8520 195.4886 108.9750
ago-09 85.6435 2.9495 99.8652 99.4955 100.1018 168.4060 189.5675 107.5763
sept-09 84.5833 2.9083 99.7781 99.7339 99.7953 176.0142 189.8739 108.8001
131
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
US Employment
Cost Index:
US Employment Wages and US Consumer
Cost Index: Salaries: US Consumer Price Index for All US Consumer
Wages and Private Industry Price Index for Urban Price Index for
Índ. empleo Salaries: Private Workers: All Urban Consumers: All Urban
urb. 10 y más Industry Workers: Service Consumers: Manufacturing Consumers: All
Mes/Año trab. - servicios Manufacturing Occupations Services Durable goods Items
132
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
133
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
134
Modelo de regresión lineal básico: Estimación y prueba de hipótesis
Referencias bibliográficas
Greene, W. (2003) Econometric Analysis. Fifth Edition. Pearson Ed.
Foxley, A. (2009) Recovery: The Global Financial Crisis and Middle-Income Countries. Washington,
D. C. Carnegie Endowment for International Peace.
Foxley, A. (2010a). “Sustaining Social Safety Nets, Critical For Economic Recovery”. Carnegie
Endowment for International Peace, Washington D. C.
Foxley, A. (2010b). “Regional Trade Blocs: The Way To Future?” Carnegie Report, September,
Washington D.C, Carnegie Endowment For International Peace.
Foxley, A. (2010c). “More Market or More State for Latin America?” En Mainwaring, S. y Scully, T.
(eds.), Democratic governance in Latin America. A reflection for the post-crisis. Stanford, California:
Stanford University Press.
Foxley, A. (2012) La trampa del ingreso medio. El desafío de esta década para América Latina.
CIEPLAN Chile.
Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.
Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill
The Economist (2014) Democracy Index 2012, 2013. Intelligence Unit. UK.
The Heritage Foundation (2014) Índice 2014 de Libertad Económica. Miller T, Kim, A and Holmes K.
Edit. The Wall Street Journal. EEUU.
CAPÍTULO IV
136
Modelo de regresión general y método de máxima verosimilitud
Introducción al tema
La mayor parte de modelos macroeconómicos incluyen diversas variables, no sólo una. Por
ejemplo los modelos de demanda de dinero suponen que esta depende de la tasa de interés
(negativamente) y del ingreso (positivamente), lo cual ya indica que la variable dependiente
claramente se relaciona con más de una independiente.
Ahora aprenderemos a resolver estos modelos generales y verificar que cumplan los mismos
criterios que hemos aprendido previamente, para ello es importante conocer el lenguaje de
matrices, aunque su uso en esta sección es básico y pretende ser una herramienta que ayude a
facilitar la estimación.
137
Modelo de regresión general y método de máxima verosimilitud
Sea que se tiene la siguiente estructura de datos, con las variables aleatorias Y, X, Z, W:
Yi Xi Zi Wi
Y1 X1 Z1 W1
Y2 X2 Z2 W2
Y3 X3 Z3 W3
Y4 X4 Z4 W4
… … … …
Yn Xn Zn Wn
Considere ahora que Yi es la variable dependiente, además que Xi, Zi y Wi son las variables
independientes o explicativas, de modo que el modelo puede escribirse del siguiente modo:
Yi = ß0 + ß1 Xi + ß2 Zi + ß3 Wi + Ui
Y1 1 X1 Z1 W1 β0
Y2 1 X2 Z2 W2 β1
Y3 = 1 X3 Z3 W3 * β2
Y4 1 X4 Z4 W4 β3
… … … … …
Yn 1 Xn Zn Wn
Y=Aß+U
138
Modelo de regresión general y método de máxima verosimilitud
U1
U2
U3 * U1 U2 U3 U4 … Un
U4
…
Un
El resultado anterior se divide sobre (N-K). Lo anterior puede expresarse así en matrices:
U’ U, donde U’ se denomina matriz transpuesta de U (invierte el orden de filas por columnas).
U=Y-Aß
U’ U = [Y - A ß] [Y - A ß]
Lo cual en matrices se resuelve del siguiente modo (note que los productos indican que las
variables deben ser expresadas en transpuestas):
U’ U = Y’ Y - 2 ß‘ A’ Y + ß‘ A’ A ß
∑ Ui 2 = ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 W i ) 2
2 ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 Wi ) (-1) = 0
2 ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 Wi ) (-Xi) = 0
2 ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 Wi ) (-Zi) = 0
2 ∑ ( Yi - ß0 - ß1 Xi - ß2 Zi - ß3 Wi ) (-Wi) = 0
- ∑ Yi + N ß0 + ß1 ∑Xi + ß2 ∑ Zi + ß3 ∑ Wi = 0
- ∑ Yi Xi + ß0 ∑ Xi + ß1 ∑Xi 2 + ß2 ∑ Zi Xi + ß3 ∑ Wi Xi = 0
- ∑ Yi Zi + ß0 ∑ Zi + ß1 ∑Xi Zi + ß2 ∑ Zi 2 + ß3 ∑ Wi Zi = 0
139
Modelo de regresión general y método de máxima verosimilitud
- ∑ Yi Wi + ß0 ∑ Wi + ß1 ∑Xi Wi + ß2 ∑ Zi Wi + ß3 ∑ Wi 2 = 0
N ß0 + ß1 ∑Xi + ß2 ∑ Zi + ß3 ∑ Wi = ∑ Yi
ß0 ∑ Xi + ß1 ∑Xi 2 + ß2 ∑ Zi Xi + ß3 ∑ Wi Xi = ∑ Yi Xi
ß0 ∑ Zi + ß1 ∑Xi Zi + ß2 ∑ Zi 2 + ß3 ∑ Wi Zi = ∑ Yi Zi
ß0 ∑ Wi + ß1 ∑Xi Wi + ß2 ∑ Zi Wi + ß3 ∑ Wi 2 = ∑ Yi Wi
N Σ Xi Σ Zi Σ Wi β0 1 1 1 1 Y1
Σ Xi Σ Xi 2 Σ Zi Xi Σ W i Xi β1 X1 X2 X3 X4 * Y2
Σ Zi Σ Xi Zi Σ Zi 2 Σ Wi Zi * β2 = Z1 Z2 Z3 Z4 Y3
Σ Wi Σ Xi W i Σ Zi W i Σ Wi 2 β3 W1 W2 W3 W4 Y4
(A ‘A) ß = A’ Y
ß = (A‘ A ) -1 A’ Y (1)
El modelo postula que la tasa de inflación mensual, es influenciada por el tipo de cambio
venta (soles por dólar), en el sentido que las alzas cambiarias pueden subir los precios por un
efecto transmisión que va desde el mayor costo de los insumos importados, hasta el precio del
combustible importado. Otra variable indicada es la tasa interbancaria de interés que puede
influenciar en la inflación, esto es por que una menor tasa incentiva el crédito, por lo tanto hay
mayor demanda y mayores precios.
140
Modelo de regresión general y método de máxima verosimilitud
Finalmente el multiplicador bancario indica que a medida que esta variable va subiendo, hay
más liquidez en la economía lo que supone un mayor uso de dinero para gastar por parte del
público y ello eleva los precios por una presión de demanda.
El modelo anterior es ilustrativo, una mejor aproximación puede ser en logaritmos de las
variables explicativas (modelo semilog) y además debe tener en cuenta que hay teorías
económicas que señalan que las tasas de interés y el tipo de cambio pueden ser relacionados,
de modo que el modelo puede tener ciertas restricciones para su uso, por lo cual aquí solo sirve
de ejemplo metodológico.
Fuente: BCRP
Ahora presentaremos los datos en forma de matrices, para lo cual haremos uso del programa
Stata ©, mostraremos los comandos para crear primero la matriz de variables explicativas,
hemos denominado matriz A:
matrix list A
La ventana del programa muestra los resultados, es una matriz de 18 filas por 3 columnas
A[18, 3], del mismo debe procederse con la matriz de la variable independiente Y:
Ahora aplicaremos la ecuación, hallando primero A‘, para ello usaremos el comando de Stata
© para transpuestas de matrices, donde AT es la transpuesta de A igual a A’:
matrix AT = A'
142
Modelo de regresión general y método de máxima verosimilitud
matrix list AT
Ahora hallaremos A’A, para lo cual definiremos en Stata © una matriz C que es el producto de
A transpuesta por A, para ello escribimos en el Do-editor la sentencia respectiva y nos arroja los
resultados siguientes:
. mat C=AT*A
. matrix list C
symmetric C[4,4]
Id Multiplic Interb TC
Id 18
Multiplic 46.912583 122.60948
Interb 75.2606 195.92196 314.97982
TC 49.241857 128.45778 205.85621 134.85673
Los espacios vacíos son equivalentes al otro elemento de la matriz, no olvidemos que es
simétrica, así por ejemplo el elemento128.45778 (cruce entre TC y Multiplicador) se repite en el
espacio en blanco que corresponde a multiplicador con TC (esquina superior derecha de la
matriz).
Una vez que tenemos la matriz C, necesitamos invertirla, para ello aplicamos en Stata © lo
siguiente:
. matrix INVC=inv(C)
symmetric INVC[4,4]
Id Multiplic Interb TC
Id 244.10742
Multiplic -32.846801 9.1859449
Interb -38.124863 6.1955516 7.5361964
TC .35122075 -6.2137161 -3.4844434 11.116981
143
Modelo de regresión general y método de máxima verosimilitud
Una vez que tenemos la inversa, ahora estimaremos la matriz A’Y, para ello usemos el Do-
editor de Stata y obtenemos:
. matrix AY=AT*Y
. matrix list AY
AY[4,1]
inflacion
Id 5.0416697
Multiplic 13.235525
Interb 21.186479
TC 13.820259
.
Ahora ya tenemos todo lo necesario para hallar los parámetros, de modo que apliquemos la
ecuación:
ß = (A‘ A ) -1 A’ Y
Usando Stata © tenemos (en todos los casos el comando list muestra los resultados de las
estimaciones o cálculos realizados) la matriz de parámetros B:
. matrix B=INVC*AY
. matrix list B
B[4,1]
inflacion
Id -6.9133294
Multiplic 1.3648439
Interb 1.2979727
TC -.65458463
.
De este modo el modelo queda finalmente expresado así:
Se puede decir que la inflación mensual sube con la tasa interbancaria (lo cual resulta inverso
a la teoría, al menos la mayor tasa de interés reduce la demanda y los precios), la inflación crece
con el multiplicador bancario lo cual es correcto y la inflación se reduce con el tipo de cambio,
resultado que esperábamos de comportamiento inverso.
A continuación mostrados los resultados del modelo empleado la función regresión de Stata
©, lo cual confirma que la forma de hallar los parámetros ha sido correcta:
Puede verse que los parámetros calculados mediante matrices son exactamente los mismos
que calculados mediante el programa estadístico, de modo que los cálculos son correctos,
aunque el modelo brinde explicaciones que no se ajustan al análisis teórico.
Algunas ideas pueden señalar que la bajada de tipo de cambio en el último año, por factores
ajenos a la economía peruana ha terminado de generar esa relación negativa, así la mayor
145
Modelo de regresión general y método de máxima verosimilitud
inflación en el país se ve reducida de algún modo por el alza cambiaria. Un razonamiento puede
ser que a medida que el contexto externo reduce las expansiones monetarias, los flujos de
moneda salen de los países elevando el cambio. Pero la tasa de inflación al interno de cada país
es por el aumento monetario por otras fuentes, ante un escenario internacional adverso.
Observando la fig. 4.2 vemos que los resultados del modelo de regresión incorporan diversa
información sobre la bondad de ajuste del modelo (R2) y sobre la significancia de los parámetros,
es posible estimar estos indicadores usando matrices, bajo los mismos criterios previos.
Para estimar la matriz requerimos algunos cálculos previos, para ellos tomaremos la ecuación
(1), considerando ahora que estamos hallando el Beta estimado (ß’):
146
Modelo de regresión general y método de máxima verosimilitud
ß’ = ( A‘ A ) -1 A’ Y
ß‘ = ( A‘ A ) -1 A’ [ A ß + U ]
ß’ = ( A‘ A ) -1 A’ A ß + ( A‘ A ) -1 A’ U
ß‘ = ß + ( A‘ A ) -1 A’ U
ß‘ - ß = ( A‘ A ) -1 A’ U
COV= E [ ( A‘ A ) -1 A’ U ] [ ( A‘ A ) -1 A’ U ]
COV= E [ ( A‘ A ) -1 A’ ] [ U’ U ] [ ( A‘ A ) -1 A’ ]
COV= E [ ( A‘ A ) -1 A’ ] E [ U’ U ] [ A ( A‘ A ) -1 ]
COV= [ ( A‘ A ) -1 A’ ] 2I [ A ( A‘ A ) -1 ]
COV= 2 [ (A‘ A ) -1 ]
Ahora aplicaremos estas matrices para hallar las varianzas de los parámetros en el modelo
que usamos de ejemplo, ya sabemos que la matriz: INVC es la inversa de la matriz AT*A (ver la
sección anterior), nos faltaría hallar la matriz de errores cuadráticos 2 y dividirla sobre N-K (en
realidad un valor numérico o escalar).
Para el cálculo del error cuadrático, primero hallar el error del modo siguiente:
147
Modelo de regresión general y método de máxima verosimilitud
La inflación estimada puede ser calculada usando el siguiente comando de Stata ©, donde
inf_est es la variable que necesitamos:
Una vez hecho esto, ahora procedemos a hallar el valor de 2 usando los comandos de
Stata © aplicados antes, donde sigma_cuad representa el valor de 2 (antes de dividir sobre
N-K), note que este valor es idéntico al mostrado en la fig. 4.2 donde se indica la suma cuadrada
del residuo (SCR y aparece como residual en la columna SS que significa suma cuadrática):
. mkmat U, matrix(error)
. matrix errorT=error'
. matrix sigma_cuad=errorT*error
symmetric sigma_cuad[1,1]
U
U .99361032
El valor obtenido se dividirá entre los grados de libertad del modelo, en este caso se tienen 18
datos y 4 variables usadas, con lo cual N - K es igual a 14:
2= 0.99361032 / 14
2= 0.07097217
148
Modelo de regresión general y método de máxima verosimilitud
Una vez obtenido este dato procedemos a hallar la matriz de varianzas y covarianzas COV,
para lo cual multiplicaremos el valor de 2 hallado previamente por la matriz INVC.
En nuestros cálculos sigma_cuad equivale a la suma de errores al cuadrado, por lo que para
estimar 2 usaremos la matriz “SER” en Stata © (el nombre SER servirá para relacionarlo con
la suma de errores y no es una matriz sino un valor numérico o escalar, en el lenguaje de Stata
aparece siempre el comando Matrix) que equivale a la suma de errores entre N - K, así la matriz
COV se muestra a continuación:
. matrix SER=sigma_cuad/14
symmetric SER[1,1]
U
U .07097217
. matrix COV=SER*INVC
symmetric COV[4,4]
Id Multiplic Interb TC
Id 17.324832
Multiplic -2.3312086 .65194641
Interb -2.7058041 .43971171 .53486018
TC .0249269 -.44100089 -.2472985 .78899624
149
Modelo de regresión general y método de máxima verosimilitud
Los valores críticos de t de Student coinciden con los mostrados en la fig. 4.2 donde se
indican los resultados de la regresión y en base a ellos, se puede decir que ninguna variable es
significativa, no olvidemos que las variables estadísticamente diferentes de cero, deben tener un
valor mayor a 2, lo que significa que caemos en la zona de rechazo de la hipótesis nula y
aceptación de la alternativa.
Ahora evaluaremos la bondad de ajuste del modelo, para ello necesitamos conocer el valor
de R2 o de la prueba F de Fisher, lo cual supone los cálculos siguientes:
Ya vimos antes que la suma cuadrática total es SCT, SCE es la suma de cuadrados
explicada y SRC es la suma de residuos al cuadrado, ahora esto queda:
SCT = ∑ yi 2
SCT = ∑ ( Yi – Ym ) 2
SCT = ∑ ( Yi 2 - 2 Yi Ym + Ym 2 )
SCT = ∑ Yi 2 - 2 ∑ Yi Ym + N Ym 2
SCT = ∑ Yi 2 - 2 ∑ Yi Ym + ∑ Yi Ym
SCT = ∑ Yi 2 - ∑ Yi Ym
SCT = ∑ Yi 2 - N Ym 2
150
Modelo de regresión general y método de máxima verosimilitud
En matrices queda:
SCT = Y’ Y – N Ym 2
SCE = ß’1 2 ∑ xi 2
SCE = ß’1 ∑ xi yi ∑ xi 2 / ∑ xi 2
SCE = ß’1 ∑ xi yi
SCE = ß’1 [ ∑ xi yi - ∑ xi Ym ]
Y’ = X ß’
Ym = Xm ß’
N Ym = ß ∑ Xi
N Ym / ∑ Xi = ß’
Reemplazando en SCE:
SCE = ß’1 ∑ Xi Yi - [ N Ym / ∑ Xi ] ∑ Xi Ym
SCE = ß’1 ∑ Xi Yi - N Ym 2
SCE = ß’ A’ Y – N Ym 2
Donde Ym es un valor numérico y N es el total de datos, con eso ya podemos estimar la suma
de cuadrados totales:
SCT = Y’ Y – N Ym 2
151
Modelo de regresión general y método de máxima verosimilitud
Primero obtendremos el componente Y’Y (Y’ es la transpuesta de Y), usando los comandos
de Stata ©, Yp es el valor del producto de Y o también Y’ Y:
. matrix YT=Y'
. matrix Yp=YT*Y
. matrix list Yp
symmetric Yp[1,1]
inflación
inflación 2.6562566
Entonces Y’ Y = 2.6562566
SCT = 1.2441
Ahora estimaremos la suma explicada cuadrática, con los comandos de Stata © respectivos
(note que A es la matriz de variables independientes):
SCE = ß’ X’ Y – N Ym 2
SCE = ß’ A’ Y – N Ym 2
152
Modelo de regresión general y método de máxima verosimilitud
. matrix BT=B'
. matrix BXY=BT*AT*Y
symmetric BXY[1,1]
inflación
inflación 1.6626463
Entonces ß’ A’ Y = 1.6626463
SCE = 0.250511
Finalmente hallamos:
SCT = 1.2441
Lo cual coincide con nuestro cálculo previo, esta información será relevante para hallar el R2
del modelo, que resulta:
R2 = SCE / SCT
R2 = 20.14%
La bondad de ajuste del modelo es de 20%, esto indica que las variables: multiplicador
bancario, tasa interbancaria y tipo de cambio, sólo explican el 20% de la tasa de inflación
153
Modelo de regresión general y método de máxima verosimilitud
mensual, el ajuste es bajo e indica que el modelo tiene poca fuerza explicativa. El coeficiente de
correlación llega a 45% de asociación global.
Y=Xß+U
U=(Y-Xß)
U’ U = ( Y - X ß ) ( Y - X ß )
U’ U = Y’ Y - 2 ß’ X‘ Y + ß’ X‘ X ß
U’ U = Y’ Y - 2 ß’ X‘ Y + ß’ X‘ Y
U’ U = Y’ Y - ß’ X‘ Y
U’ U = 2.6562566 - 1.6626463
U’ U = 0.9936103 = SCR
F = 1.18
El valor de la prueba F es bastante bajo, lo que supone que el modelo en realidad tiene un
bajo ajuste y no sería explicativo para la tasa de inflación.
154
Modelo de regresión general y método de máxima verosimilitud
F ( Y i / ß 0 + ß 1 X i, 2)
F ( Y i / ß 0 + ß 1 X i, 2) = F ( Y 1 / ß 0 + ß 1 X i, 2) * F ( Y 2 / ß 0 + ß 1 X i, 2) *… * F ( Yn / ß0 + ß1 Xi,
2)
F ( Yi ) = [ 1 / 2 π ) 0.5 ] e [ -1 / 2 2 ] (Yi - ß0 - ß1 Xi ) ^ 2
Esto último se conoce como función de verosimilitud, en buena cuenta es la expresión que
refleja a la distribución de probabilidades condicionales de Yi, la función de verosimilitud puede
ser expresada en logaritmos del siguiente modo:
Ln FV = -1 ( N ln + 0.5 N ln (2 π) – 1 / 2 ∑ (Yi - ß0 - ß1 Xi ) 2 / 2
Ln FV = - N ln - 0.5 N ln (2 π) – 1 / 2 ∑ (Yi - ß0 - ß1 Xi ) 2 / 2
Para hallar los parámetros del modelo y además la varianza del mismo, derivamos todo e
igualamos a cero:
155
Modelo de regresión general y método de máxima verosimilitud
∂ Ln FV / ∂ ß0 = -1 * ∑ (Yi - ß0 - ß1 Xi ) / 2= 0
∂ Ln FV / ∂ ß1 = - Xi * ∑ (Yi - ß0 - ß1 Xi ) / 2= 0
∑ (Yi - ß0 - ß1 Xi ) = 0
∑Yi - N ß0 - ß1 ∑ Xi = 0
∑Yi - ß1 ∑ Xi = N ß0
Ym - ß1 Xm = ß0
- Xi * ∑ (Yi - ß0 - ß1 Xi ) / 2= 0
- ∑ (Xi Yi + ß0 Xi + ß1 Xi Xi ) = 0
- ∑ Xi Yi + ß0 ∑ Xi + ß1 ∑ Xi 2 = 0
ß0 ∑ Xi + ß1 ∑ Xi 2 = ∑ Xi Yi
( Ym - ß1 Xm ) ∑ Xi + ß1 ∑ Xi 2 = ∑ Xi Yi
Ym ∑ Xi - ß1 Xm ∑ Xi + ß1 ∑ Xi 2 = ∑ Xi Yi
ß1 ( - Xm ∑ Xi + ∑ Xi 2 ) = ∑ Xi Yi - Ym ∑ Xi
ß1 = ∑ Xi Yi - Ym ∑ Xi / ∑ Xi 2 - Xm ∑ Xi
ß1 = [ N ∑ Yi Xi - ∑ Yi ∑ Xi ] / [N ∑ Xi 2 - ∑ Xi ∑ Xi ]
156
Modelo de regresión general y método de máxima verosimilitud
Como fue demostrado en el tema anterior, la expresión previa equivale a hallar ß1 por
mínimos cuadrados ordinarios:
ß1 = ∑ yi xi / ∑xi2
En el caso de la varianza del modelo, los ajustes a la ecuación que deriva la función FV
respecto a 2, resulta:
2= ∑ (Yi - ß0 - ß1 Xi ) 2 / N
2= ∑ (Ui ) 2 / N (i)
Yi = ß0 + ß1 Xi + Ui
Ym = ß0 + ß1 Xm + Um
Donde m, significa la media de la variable, además yi, xi son las variables en desviaciones
respecto de la media:
Yi – Ym = ß1 xi + ( Ui – Um ) (ii)
Considere que la estimación correcta del parámetro ß0 nos lleva al valor de Ym poblacional,
entonces:
Y m - ß 1’ X m = ß 0’
Y m = ß 0’ + ß 1’ X m
Y i – Y m = ( ß 0’ + ß 1‘ X i + U i ) - ( ß 0’ + ß 1’ X m )
Yi – Ym = ß1’ xi + Ui ’
yi - ß1’ xi = Ui ’ (iii)
157
Modelo de regresión general y método de máxima verosimilitud
ß1 xi + ( Ui – Um ) - ß1’ xi = Ui ’
- ( ß1’ - ß1 ) xi + ( Ui – Um ) = Ui ’
( ß1’ - ß1 ) 2 xi 2 + ( Ui – Um ) 2 – 2 ( ß1’ - ß1 ) xi ( Ui – Um ) = Ui ’ 2
Aplicando sumatorias:
( ß1’ - ß1 ) 2 ∑ xi 2 + ∑ ( Ui – Um ) 2 – 2 ( ß1’ - ß1 ) ∑ xi ( Ui – Um ) = ∑ Ui ’ 2
ß1’ - ß1 = ∑ Zi ui
E ( ∑ Zi ui ) 2 ∑ xi 2 + E ∑ ( Ui – Um ) 2 – 2 (∑ Zi ui ) ∑ xi ( Ui – Um ) = E ∑ Ui ’ 2
( 2 / ∑ xi ) 2 ∑ xi 2 + ( N - 1) 2 – 2 E (∑ Zi ui ) ∑ xi ( Ui – Um ) = E ∑ Ui ’ 2 (iv)
Donde:
E ∑ ( Ui – Um ) 2 = E ∑ (Ui 2 – 2Ui Um + Um 2)
E ∑ ( U i – U m ) 2 = E ( ∑ U i 2 – 2 ∑ U i U m + N U m 2)
E ∑ ( Ui – Um ) 2 = E ( ∑ Ui 2 – 2 ∑ Ui Um + ∑ Ui Um )
E ∑ ( Ui – Um ) 2 = E ( ∑ Ui 2 – ∑ Ui Um )
E ∑ ( Ui – Um ) 2 = E ( ∑ Ui2 – ∑ Ui 2 / N )
E ∑ ( Ui – Um ) 2 = N 2 – 2
E ∑ ( Ui – Um ) 2 = ( N - 1 ) 2
2 + ( N - 1) 2 – 2 E (∑ Zi ui ) ∑ xi ( Ui – Um ) = E ∑ Ui ’ 2
158
Modelo de regresión general y método de máxima verosimilitud
Donde Um = 0, entonces (Recuerde que ui = Ui, dado que son variables sin desviaciones ya
que el valor esperado de Ui o su media es cero), además ∑ Zi xi es igual a 1:
2 + ( N - 1) 2 – 2 E (∑ Zi ui ) ∑ xi ( ui ) = E ∑ Ui ’ 2
2 + ( N - 1) 2 – 2 E ∑ Zi xi ui 2 = E ∑ Ui ’ 2
2 +(N–1) 2 – 2 E ∑ ui 2 = E ∑ Ui ’ 2
2 +(N–1) 2 –2 2 = E ∑ Ui ’ 2
(N–2) 2 = E ∑ Ui ’ 2
2 = ∑ Ui ’ 2 / ( N – 2 ) (v)
Hay que notar que la ecuación (v) de la varianza del modelo a partir de los mínimos
cuadrados ordinarios, difiere de la ecuación (i) que es la varianza estimada con verosimilitud, lo
que indica que el mejor estimador de la varianza del modelo de regresión no es el de
verosimilitud (que normalmente tiende a ser poblacional), sino es el estimador de mínimos
cuadrados mostrados en la ecuación (v) y que para fines de generalizar equivale a:
2 = ∑ Ui ’ 2 / ( N – K )
159
Modelo de regresión general y método de máxima verosimilitud
En este capítulo, se ha aplicado el lenguaje matricial para resolver modelos econométricos con
más de una variable dependiente, se ha demostrado además que los estimadores de parámetros por
mínimos cuadrados (usando el término de minimizar el error al cuadrado) son insesgados y
equivalen a los parámetros obtenidos por una función de máxima verosimilitud, donde maximizamos
el valor de la distribución normal conjunta o distribución normal de probabilidades de la variable
aleatoria.
Sin embargo también se ha notado que la varianza del modelo por el método de mínimos
cuadrados (MCO) es menor que la varianza obtenida en el método de máxima verosimilitud (MV), lo
que hace pensar que por MCO se obtiene una varianza insesgada y por MV se obtiene un
estimador sesgado, en buena cuenta hay que seguir el criterio de MCO en caso la distribución de
variables sea normal.
Los criterios de estimación mediante matrices, permiten abordar modelos econométricos donde
las variables explicativas son dos o más, esto se hace por que no se puede emplear el algebra
simple y para facilitar el cálculo recurrimos a las matrices o algebra matricial.
En este capítulo, hemos diseñado una matriz de variables explicativas, un vector de variable
dependiente (al ser una sola columna) y la respuesta es un vector de parámetros.
En todos estos casos requiere aplicar algebra de matrices para hallar los parámetros, sin
embargo diversos programas informáticos como Stata © y otros, contienen este tratamiento de modo
simple.
Hay que notar que en modelos con muchas variables explicativas, el concepto de bondad de
ajuste se hace importante, puesto que se trata de explicar a modo global la variable dependiente. En
este caso mediante las matrices también llegamos a los coeficientes de determinación (R2) y a la
prueba F de Fisher, ambos indicadores nos dirán si el modelo es de buen ajuste (por ejemplo un R2
de más de 50%) o de buena explicación global considerando el mayor valor posible de F sobre su
valor crítico.
160
Modelo de regresión general y método de máxima verosimilitud
Preguntas de opinión
1. ¿Puede un modelo con muchas variables explicativas no ser relevante?
2. Si al insertar más variables explicativas el R2 no aumenta, entonces eso ¿qué
significa?
3. ¿Por qué se añade un vector de 1 (unos) en la matriz de variables explicativas?
4. ¿Por qué las varianzas de los parámetros son solo la diagonal de la matriz de
varianza covarianza de Betas?
5. Si uso el valor de la varianza del modelo desde la función MV, ¿Qué pasa con
los estimadores de Betas?
161
Modelo de regresión general y método de máxima verosimilitud
Caso de aplicación
Lectura previa
De acuerdo con Romer (2002), la curva LM debe ser ajustada a una curva conocida como MP
(Monetary Policy Curve) que esta basada en las variables tasas de interés real (r) y producto (y)
similar a la LM, sin embargo la diferencia estriba en que la MP es horizontal.
La tasa de interés real es estable a todo nivel de oferta monetaria y se ajusta más bien con
los cambios en la brecha del producto, de este modo cuando el producto es alto respecto del
potencial (brecha creciente) la tasa de inflación tiende a subir, en ese caso el banco central
ajusta la tasa de interés anunciando elevaciones de las tasas de referencia, con lo cual mantiene
la tasa real, pero eleva la tasa nominal y los agentes ajustan sus expectativas y por ende tienden
a consumir o prestar menos, lo que algunos economistas conocen como “enfriar” la economía,
pero en la práctica es ajustar la inflación esperada. Siguiendo a Romer la tasa real de interés,
debe seguir la siguiente función:
r = r ( π) (1)
En el modelo MP, un shock que eleve los precios y genere caídas a corto plazo de la tasa
real de interés (por mayor nivel de inflación), obliga a que los agentes financieros ajusten sus
expectativas de ganancias elevando las tasas nominales (impulso que parte del banco central en
muchos casos) y a corto plazo el efecto se traslada a las tasas reales de interés (r), esto produce
que la demanda originalmente creciente, se reduzca y se vuelva al nivel original de precios,
siendo la práctica usual de bancos centrales en el mundo (Romer, 2002)
Los shocks nominales o reales pueden impulsar un crecimiento de precios, la respuesta del
banco central es elevar o sostener la tasa real de interés (vía expansiones de la tasa nominal de
referencia), entonces cualquier efecto de crecimiento a corto plazo se diluye, los precios se
ajustan porque la mayor tasa de interés reduce el consumo y la inversión.
162
Modelo de regresión general y método de máxima verosimilitud
Es previsible entonces, que el crecimiento productivo sea constante a todo nivel de precios,
esto se produce porque si el incentivo de mayor inflación se da a corto plazo, entonces la oferta
puede incrementarse de modo inmediato, esa expansión de la brecha del producto se convierte
en el objetivo a reducir por la política monetaria, la elevación del interés real reduce la brecha, el
producto vuelve a su nivel potencial y los precios siguen estables, siempre se producirá a un
mismo nivel de precios, dicho nivel se conoce como inflación ajustada.
Hay que señalar que a diferencia de Lucas (1973), que señala que los shocks nominales
pueden tener efectos de corto plazo, pero a largo plazo sólo son inflacionarios, evidenciando una
oferta vertical (producto potencial a largo plazo), el movimiento de la inflación ajustada se da en
torno a los precios estables de corto plazo y son base de estabilidad a largo plazo, Lucas se
sustenta en las expectativas, si estas se ajustan a la inflación esperada, entonces la oferta no
varía a mayor nivel de precios, pero si hay ajuste lento, entonces a corto plazo hay efecto real
con mayor inflación, un resultado nada deseable para el banco central.
En el caso de la inflación ajustada, los shocks nominales, producen un efecto de corto plazo
inmediato con mayor inflación, pero a corto plazo el banco central ajusta las tasas de interés y
mantiene estables el producto y la inflación, con las evidentes ganancias de una mayor demanda
en el corto plazo.
Cuando la Oferta Agregada (OA) es menor al producto potencial, entonces la oferta se mueve
hacia ese nivel a tasas de inflación decreciente (siguiendo a Lucas, un producto menor al
potencial implica una inflación decreciente), que es lo mismo decir que el banco central reduce
las tasas nominales para incentivar el consumo.
A la inversa, si la OA se mueve por encima del producto potencial (Yp), esto se produce a
mayores tasas de inflación, de modo que el Banco Central ajusta las tasas nominales a un mayor
nivel, para reducir el consumo y por ende llevar al producto a su nivel potencial.
Podemos decir entonces, que los movimientos en la inflación están alineados con la
estabilidad de la tasa de interés real, lo cual es un resultado del alza de tasas nominales, la que
se da cuando el producto efectivo supera al potencial, planteando un modelo como el siguiente:
P t = P e + θ (Y t - Yp) (2)
rt = ω Pt (3)
r t = ωP e + ωθ (Y t - Yp) (4)
Donde:
ω: Factor de ajuste, si es cero, entonces no existe relación entre inflación del período y tasa
real de interés, si es 1 la relación es perfecta y la tasa real pasa a depender de la inflación
esperada y la brecha de producto.
Dado que la política monetaria se hace con la tasa nominal de referencia, entonces la
ecuación 4 puede ser analizada, partiendo de la noción de interés real:
rt = it-Pt (5)
Reemplazando en 4:
i t = P t + ωP e + ρ (Y t - Yp) (6)
Donde:
ρ : Producto de ωθ
saber la brecha de producto, la brecha de precios (la desviación en torno a la meta de inflación),
la meta de interés real y la tasa de inflación, dicha tasa además esta en relación con la inflación
rezagada, la inflación esperada (asumiendo la inflación de largo plazo) y la brecha de producto,
con esta información ajustaremos la ecuación (2) y (6) a las propuestas de Taylor, primero en el
caso de la inflación:
P t = b P t - 1 + (1 - b) P e + θ (Y t - Yp) (7)
Donde:
i t = r e + P t + c1 ( P t - P e ) + c2 (Y t - Yp) (8)
Donde:
c1: Indicador de política, si es 1, entonces la tasa de interés crece a mayor impulso que la
brecha de precios, si es cero, la tasa de interés crece en función a las desviaciones en torno a la
tasa nominal de largo plazo.
No obstante la propuesta de Taylor, tiene a su vez sus opiniones divergentes, los bancos
centrales si bien han dejado de usar la oferta monetaria como única o principal variable de ajuste
de precios, consideran que es necesario evaluar otros indicadores del manejo de precios, por
ejemplo el ajuste de los salarios reales, la expectativa de los agentes a través de encuestas de
confianza, el manejo fiscal, el nivel cambiario y la dinámica de los activos financieros bursátiles
(La Caixa, 2005).
Siguiendo a Herrau-Aragón (2003), la regla de Taylor tiene que ser considerada con cuidado
ante shock reales, es decir el uso de la tasa de interés como mecanismo de ajuste no debería
darse en contextos de shock temporal, sin embargo si la desviación empieza a debilitar la meta
de interés y de precios, es importante hacer uso de la regla, es decir preservar la credibilidad del
instrumento y ajustar la oferta.
norteamericana, concluyendo en un bajo ajuste entre la tasa de interés de referencia, que a decir
de diversos exponentes se debe, entre otros aspectos: a la incertidumbre de los agentes
respecto a la marcha económica, la cual genera poca sensibilidad a cambios económicos en los
agentes cuando se mueve la tasa de interés, es decir los niveles de apuesta por inversión o
consumo se hacen lentos. Otra consideración es sostener la estabilidad de los mercados
financieros, de modo que el uso de la tasa de interés es cuidadoso y de pequeños cambios,
también se hace mención al uso gradual de las tasas a corto plazo, pensando en la estabilidad
de la tasa de interés a largo plazo y finalmente, el uso de las tasas de interés esta sujeto a las
decisiones de los gestores de política (o un monopolio de la decisión), de modo que el ajuste
lento de las tasas es para evitar impactos o shocks en el bienestar social, a partir de cambios
fuertes en la brecha de producto.
Castillo, Montoro y Tuesta (2006) analizan los hechos estilizados de la economía peruana y
encuentran evidencia que sustenta el uso de la tasa de interés en un contexto de metas de
inflación, por un lado la correlación producto inflación ha ido creciendo; esto supone un
incremento del rol de la demanda en la formación de la brecha del producto, rol que se ve
influenciado principalmente por la tasa de interés de referencia, otro hallazgo es la correlación
positiva entre interés y producto, de modo que las reglas de interés están teniendo un efecto
positivo en la brecha de producto.
Otro trabajo de los mismos autores (Castillo, Montoro y Tuesta, 2006-1), indican que seguir el
esquema de metas de inflación y por ende la regla de tasas de interés, requiere la estimación de
una tasa natural de interés, la cual guía las acciones en torno al producto y precios, si la brecha
de interés es positiva (una tasa mayor a la natural) entonces se contrae el producto y los precios,
a la inversa una brecha negativa implica elevar el producto y los precios, esta tasa natural se
estima siguiendo la propuesta de Greenspan (1993) en torno a una tasa real de interés de largo
plazo alineada con el producto potencial.
166
Modelo de regresión general y método de máxima verosimilitud
Preguntas
167
Modelo de regresión general y método de máxima verosimilitud
Ejercicios
Se tiene un modelo de demanda (Xd: Cantidad demandada) y oferta (Xo: Cantidad ofertada),
para los precios del bien P1 y de un bien relacionado P2, donde e son los errores respectivos.
Xd=α0+α1P1+α2P2+ed
X o = β 0 + β 1 P 1 + β 2 P 2 + eo
T1 T2 T3 T4 T5 T6 T7 T8 T9 T10
P2 0.5 0.4 0.3 0.3 0.2 0.25 0.28 0.3 0.27 0.24
Xd 20 18 17 18 15 14 15 15 13 10
Xo 10 12 13 13 14 15 15 13 16 18
168
Modelo de regresión general y método de máxima verosimilitud
Referencias bibliográficas
Castillo, P. Montoro, C. Tuesta. V. (2006) Estimación de la Tasa Natural de Interés para la
Economía Peruana. Documentos de Trabajo. Banco Central de Reserva del Perú.
Clarida, R., J. Galí and M. Gertler (1998), “Monetary policy rules in practice. Some international
evidence”, European Economic Review, 42:1033-1067.
Clarida, R., J. Galí y M. Gertler (1999), “The science of monetary policy: a new keynesian
perspective”, Journal of Economic Literature, XXXVII, December: 1661-1707.
Clarida, R., J. Galí y M. Gertler (2001), “Optimal monetary policy in open versus closed
economies: an integrated approach”, American Economic Review, 91, No.2: 248-252
Corbo, V. Tesada, J. (2003) Modeling a small open economy: the case of Chile. Documentos de
Trabajo. Banco Central de Chile.
DeLong B. J. (2000) How to Teach Monetary Policy: Do Central Banks Set the Interest rate or Do
They Target the Money Stock? University of California. Berkeley.
Hsing, Yu. (2005) Application of the IS−MP−IA model to the German economy and policy
implications. Economics Bulletin. Vol. 15. No. 5.
Hsing, Yu. (2005) Application of the IS−MP−IA model to the Singapore economy and policy
implications. Economics Bulletin. Vol. 15. No. 6
169
Modelo de regresión general y método de máxima verosimilitud
Hsing, Yu. Clark, Don. (2005) Application of the IS-MP-IA Model and the Taylor Rule to Korea and
Policy Implications. The Journal of the Korean Economy. Vol. 6. Nº 2. Korea.
Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.
Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill.
La Caixa. (2005) Política monetaria: ¿Un traje a medida?. Informe mensual de economía
europea. España.
León, C. (2007) El modelo IS-MP y la regla de Taylor: Una aproximación empírica para el Perú.
USAT Escuela de Economía DI 003. Perú.
Montoro, Carlos. (2007) Why Central Banks Smooth Interest Rates? A Political Economy
Explanation. Documentos de Trabajo. Banco Central de Reserva del Perú.
Romer, David. (2000) Keynesian Macroeconomics without the LM Curve. Journal of Economic
Perspectivas. Vol. 14. Nº 2.
Romer, David. Romer, Christina. (2000) Federal Reserve Information and the Behavior of Interest
Rates. University of California.
Romer, David. Romer, Christina. (2002) A Rehabilitation of Monetary Policy in the 1950’s.
University of California.
Romer, David. Romer, Christina. (2004) A New Measure of Monetary Shocks: Derivation and
Implications. University of California.
Rotemberg, J.J. y M. Woodford (1999) Interest rate rules in an estimated sticky price model, en
Taylor, J.B. (ed.), Monetary Policy Rules, National Bureau of Economic Research, University of
Chicago Press: 319-348.
170
Modelo de regresión general y método de máxima verosimilitud
Rotemberg, J.J. (1987) The new Keynesian microfoundations, S. Fischer (ed.), NBER
Macroeconomics Annual, MIT Press: 297-346.
Taylor, J.B. (ed.), (1999a) Monetary Policy Rules, National Bureau of Economic Research,
University of Chicago Press.
Taylor, J.B. (1999b) A historical analysis of monetary policy rules, Taylor, J.B. (ed.), Monetary
Policy Rules, National Bureau of Economic Research, University of Chicago Press, 319-348.
Taylor, J.B. (1999c) The robustness and efficiency of monetary policy rules as guidelines for
interest rates setting by the European Central Bank. Journal of Monetary Economics, Vol. 43(3),
June, 655-679.
Taylor, J.B. (2001) The role of the exchange rate in monetary-policy rules, American Economic
Review Papers and Proceedings, Vol. 91, 2: 263-267.
171
CAPÍTULO V
Multicolinealidad en modelos
econométricos
172
Multicolinealidad en modelos econométricos
Introducción al tema
La relación entre dos variables explicativas se denomina normalmente como colinealidad, que
indica que dos variables tienen una relación lineal.
La presencia de colinealidad puede afectar las estimaciones realizadas, para empezar es
natural suponer que una de estas dos variables no debe estar en el modelo, aunque esta sea una
presunción apresurada por cuanto es posible que toda variable aporte algún grado de
información a la variable dependiente. Entonces el solo hecho de eliminar variables no parece la
mejor solución.
El problema sin embargo es persistente, la linealidad entre dos variables explicativas genera
diversas fallas en las estimaciones de los parámetros, por cuanto no sabemos su real dimensión
o magnitud, ya que las variables explicativas dejaron de ser independientes e incorporan errores
de la otra o variaciones de la otra.
La colinealidad entonces impulsa el hecho de conseguir variables que puedan ser explicativas
y puedan reemplazar las existentes, pero que a la vez sean independientes. Este proceso puede
ser complejo de obtener o de hallar variables con estas características, por cuanto la
independencia no siempre está presente en las variables económicas.
También esta el hecho de que debemos, del algún modo, probar que el modelo pierde ajuste
con más variables explicativas y que la causalidad entre variables independientes existe, para
poder señalar la presencia de colinealidad y proceder a resolverlo.
173
Multicolinealidad en modelos econométricos
Ahora consideremos que todas ellas pueden relacionarse del siguiente modo:
X1 + X2 + X3 + X4 + … + Xn = 0
En el caso anterior, una variable puede ser expresada del siguiente modo:
X1 = - X2 - X3 - X4 - … - Xn = 0
Donde podemos notar que X1 se relaciona linealmente con X2 y con las demás, ahora la
relación puede ser menos proporcional si consideramos que:
Ω1 X1 + Ω2 X2 + Ω3 X3 + Ω4 X4 + … + Ωn Xn = 0
Donde Ω son valores que expresan la relación entre variables pero todas ellas son diferentes
de cero para cualquier momento t. Si extraemos X1 de la ecuación previa tenemos:
X1 = - Ω2 / Ω1 X2 - Ω3 / Ω1 X3 - Ω4 / Ω1 X4 - … - Ωn / Ω1 Xn
En algunos casos la relación puede no ser exacta, es decir las variables X en general no
suman cero, sino que existe un error cualquiera (considere que la correlación entre dos variables
puede ser total, pero entre más variables es sólo parcial, pues todas aportan algo a la anterior)
derivado de las correlaciones parciales entre todas ellas:
Ω1 X1 + Ω2 X2 +Ω3 X3 + Ω4 X4 + … + Ωn Xn + error = 0
X1 = - Ω2 / Ω1 X2 - Ω3 / Ω1 X3 - Ω4 / Ω1 X4 - … - Ωn / Ω1 Xn + error / Ω1
174
Multicolinealidad en modelos econométricos
X1
X2
Y
X1
X2
La fig. 5.1 muestra que la variable dependiente recibe influencia de las variables X1 y X2 pero
las variables explicativas no se relacionan entre sí. Mientras que en la Fig. 5.2 se muestra que las
variables X1 y X2 se relacionan entre sí, evidenciando un proceso de multicolinealidad.
En modelos seriales por ejemplo podemos tomar las tasas de interés locales y externas
para explicar el movimiento cambiario, pero ambas tasas pueden ser relacionadas o
pueden ser colineales.
- También es posible que las variables explicativas generen relaciones cuando las
opciones de respuesta son limitadas (sesgadas hacia lo dicotómico) o tienen muy poca
variación. Consideremos que la variable es estar de acuerdo (1) o no (2) con las colas
de atención en una entidad financiera, pues naturalmente pocos estarían de acuerdo.
Ahora si calificamos el servicio del banco (donde hay muchas colas) de 1 a 5, donde 5
es de acuerdo que tiene un buen servicio y 1 estamos en desacuerdo que tiene un
buen servicio. Entonces encontraremos que las respuestas de ambas variables estarán
en alrededor de 1.
Ahora si consideremos que las colas son un factor que influye en las colocaciones de la
entidad, puede que un mal servicio afecte los créditos o colocaciones y que estar de
acuerdo con que haya colas igual afecte el servicio por cuanto serán muy pocos los que
estén de acuerdo. En este ejemplo la variable dependiente colocaciones depende de
dos variables cuya relación es lineal y muy alta, ambas son 1.
176
Multicolinealidad en modelos econométricos
Y Identidad X1 X2 R X3
2 1 2 4 4 8
3 1 3 6 4 10
4 1 4 8 4 12
4 1 5 10 3 13
5 1 6 12 3 15
6 1 7 14 4 18
5 1 8 16 4 20
6 1 9 18 2 20
6 1 10 20 1 21
6 1 11 22 1 23
7 1 12 24 4 28
8 1 13 26 3 29
177
Multicolinealidad en modelos econométricos
X2 = 2 X1
X3 = 2 X1 + R
Y=XB+U
B = ( X’ X )-1 X’ Y
. matrix XT=X'
. matrix XTX=XT*X
178
Multicolinealidad en modelos econométricos
symmetric XTX[3,3]
I X1 X2
I 12
X1 90 818
. matrix INVX=inv(XTX)
Hay que tener en cuenta que toda inversa se estima del siguiente modo:
179
Multicolinealidad en modelos econométricos
I X1 X2
I 12 90 180
X1 90 818 1636
X2 180 1636 3272
Ahora apliquemos la regla de Sarrus para hallar el determinante, primero repliquemos las
columnas I, X1 armando la matriz siguiente:
I X1 X2 I X1
I 12 90 180 12 90
X1 90 818 1636 90 818
X2 180 1636 3272 180 1636
Ahora multipliquemos las diagonales de la matriz previa, las diagonales positivas serán:
Sumatoria
Diagonal + 32,117,952.00 26,503,200.00 26,503,200.00 85,124,352.00
Diagonal - -26,503,200.00 -32,117,952.00 -26,503,200.00 -85,124,352.00
Determinante 0.00
Como indica el cálculo, el determinante es cero, lo que significa que no podremos dividir
ningún número sobre este valor (no olvide que una matriz inversa es su matriz adjunta entre el
determinante) ya que sería indeterminado, esto pasa cuando la multicolinealidad es perfecta y no
se puede hallar la inversa de X’X, siendo imposible hallar los parámetros del modelo de
regresión.
180
Multicolinealidad en modelos econométricos
Ahora analicemos el caso de la multicolinealidad inexacta, para ello usemos las variables I,
X1, X3 (no olvide que X3 se relaciona de modo inexacto con X1) con las cuales crearemos la
matriz A, usemos ahora los comandos de Stata ©:
. matrix AT=A'
. matrix ATA=AT*A
symmetric ATA[3,3]
I X1 X3
I 12
X1 90 818
Ahora estimemos la inversa de la matriz A’A, con los resultados hallados previamente con el
Stata © de A’A:
I X1 X3
I 12 90 217
A'A = X1 90 818 1,891
X3 217 1,891 4,421
Hallemos la matriz Adjunta de A’A, para ello usemos los cofactores de cada elemento de la
matriz A’A, por ejemplo para el elemento 1,2 o 90 (el elemento de X1,I) de la matriz A’A, sus
cofactores son los siguientes:
181
Multicolinealidad en modelos econométricos
90 1,891
Cofactores X1,I = 217 4,421
El determinante de los cofactores de (X1,I) o del elemento (1,2) es: 90*4421 – 1891*217 =
-12,457, este valor sería el elemento 1,2 de la matriz adjunta que se muestra a continuación
como Adj A’A:
Una vez que se obtiene la matriz adjunta, debemos multiplicar cada elemento de orden impar
por -1, eso nos da la matriz adjunta siguiente:
Para hallar la matriz inversa de A’A, necesitamos el determinante de A’A, el cual se estima
del modo siguiente usando la regla de Sarrus:
I X1 X3 I X1
I 12 90 217 12 90
X1 90 818 1891 90 818
X3 217 1891 4421 217 1891
Con la cual obtenemos las diagonales tal como se estimaron antes para X’X:
Sumatoria
Diagonal + 43,396,536.00 36,931,230.00 36,931,230.00 117,258,996.00
Diagonal - -38,518,802.00 -42,910,572.00 -35,810,100.00 -117,239,474.00
Determinante 19,522.00
Como se muestra en los cálculos el determinante de A’A es 19,522 con ello obtendremos la
inversa de la matriz A’A, del modo siguiente:
182
Multicolinealidad en modelos econométricos
Los resultados se muestran también con el programa Stata ©, lo cual indica que en presencia
de multicolinealidad inexacta, si es posible estimar los parámetros del modelo de regresión que
se plantee, esto se debe a que si es posible hallar la inversa de A’A.
. matrix INVA=inv(ATA)
symmetric INVA[3,3]
I X1 X3
I 2.0744288
X1 .6381006 .30545026
Donde:
Xi3 = Ω Xi1
183
Multicolinealidad en modelos econométricos
Yi = ß0 + ß1 X1i + ß3 (Ω Xi1 ) + Ui
Yi = ß0 + ( ß1 + ß3 Ω )Xi1 + Ui
Donde:
Π = ß1 + ß3 Ω
Yi = ß0 + Π Xi1 + Ui (2)
Ahora estimemos los parámetros para las regresiones mostrados en las ecuaciones (1) y (2),
en el caso de la ecuación (1) los resultados mostrados en la Fig. 5.2 se pueden expresar así:
También se puede notar que esta regresión tiene todos los parámetros no significativos,
debido a que el valor crítico de t de Student es menor que 2 y observe que el R2 del modelo es
relativamente alto, el valor llega a 0.9146 o 91.46% de ajuste.
En el caso de la regresión mostrada en la Fig. 5.3, ecuación (2), los resultados se expresan así:
Note que en la regresión donde sólo hay X1 como explicativa, la prueba t de Student es
satisfactoria y el valor del parámetro es significativo. Asimismo el ajuste del modelo medido con
R2 es de 0.9045 o 90.45%.
184
Multicolinealidad en modelos econométricos
. reg Y X1 X3
. reg Y X1
185
Multicolinealidad en modelos econométricos
Π = ß1 + ß3 Ω
Π = 0.1392788 + 0.1672984 Ω
Π = 0.4475524
0.4475524 = ß1 + 1.842657192 ß3
Podemos obtener diversos valores de ß1, por ejemplo si ß3 toma valores como:
ß3 ß1
0.1 0.263286681
0.2 0.079020962
0.3 -0.105244758
0.4 -0.289510477
0.5 -0.473776196
Podemos notar que para cualquier valor de ß3, las posibilidades de estimación de ß1 son
variadas e ilimitadas y ello imposibilita saber de manera insesgada el parámetro ß1.
Al observar ambas regresiones en los modelos (1) y (2) tenemos otros detalles, por ejemplo:
En buena cuenta los modelos con multicolinealidad, tienen parámetros con varianza mucho
mayor a los modelos sin esta falla, esto supone que el intervalo de confianza de los parámetros
es más amplio, en el caso del parámetro constante o intercepto del modelo también presenta
varianzas diferenciadas:
Como se indica antes, la varianza del intercepto del modelo con multicolinealidad es mayor al
intercepto del modelo que no presenta este problema, implicando un rango alto de variación de
los parámetros.
Para verificar lo anterior consideremos que la prueba t o valor crítico de Student se estima
primero hallando las varianzas de los parámetros, en este caso sólo usamos los valores de la
diagonal de la matriz de covarianzas y se elevan a 0.5 o se obtiene la raíz cuadrada:
Varianza de ß = σ 2 X’X -1
t = ß / Desviación estándar de ß
Dado que los valores de la desviación estándar de los parámetros ,son mayores en el modelo
con multicolinealidad inexacta respecto del modelo sin este problema, esto supone que los
valores t críticos de Student son bajos o menores en el caso multicolineal comparado con los del
modelo sin la presencia de la multicolinealidad, como pueden ver:
187
Multicolinealidad en modelos econométricos
t de ß1 t de ß0
Modelo 1 (Multicolineal) 0.459685274 1.389022854
Modelo 2 9.733526169 4.767873371
Entonces se puede verificar que la prueba t de modelos con multicolinealidad tiene valores
bajos, respecto del mismo modelo sin multicolinealidad.
Otra forma de detectar la multicolinealidad tiene que ver con el ajuste global del modelo, para
ello estimemos el valor de R2:
SCE SCT R2
Modelo 1 (Multicolineal) 28.9617696 31.6666667 0.9146
Modelo 2 28.6433566 31.6666667 0.9045
Puede notarse que el valor de R2 no varía mucho entre un modelo y el otro, en el caso del
modelo sin multicolinealidad el R2 es de 90.45% y en el caso del modelo con multicolinealidad la
medida global de ajuste es de 91.46%.
Donde R2 (Xi), resulta de estimar una regresión entre las variables explicativas, dicha regresión
se muestra a continuación:
. reg X1 X3
El FIV es el factor de ajuste entre las varianzas de los parámetros sin multicolinealidad y
aquellas con multicolinealidad, comprobemos para el caso de X1 (variable origen de la
multicolinealidad) que la varianza del parámetro equivale a la estimación realizada en la tabla 5.2:
189
Multicolinealidad en modelos econométricos
En buena cuenta si existe multicolinealidad, entonces el FIV será bastante alto, existe de ese
modo una gran distancia entre la varianza del parámetro multicolineal y aquel parámetro
equivalente sin esta falla.
Tolerancia = 1 / FIV
La tolerancia 0 (o muy cercana a cero) indica alta multicolinealidad, mientras que la tolerancia
igual a1 indica que no existe multicolinealidad, de ese modo podemos hallar esta falla en los
modelos econométricos. En el caso de nuestro ejemplo existe una alta multicolinealidad.
Una forma de darnos cuenta a modo indirecto de la presencia de variables que no aportan al
modelo, que a pesar de ello tiene un R2 alto, es el criterio de información de Akaike (AIC),
estimado como:
AIC = - 2 Ln FV + 2K
Donde:
Ln FV: Es el logaritmo natural del valor de la función de verosimilitud estimada con los
parámetros que resultan del modelo, dichos parámetros son ß0, ß1, … ßi y la ecuación de
estimación es:
Otro indicador alternativo es el Criterio de Información Bayesiano de Shwarz (BIC) que se estima
del modo siguiente:
BIC = - 2 Ln FV + Ln N * K
Donde:
Ln N: Es el logaritmo natural del tamaño de muestra empleado N, esto indica que el BIC depende
linealmente del tamaño muestral, esto le da mayor eficacia que el AIC, donde el número de
190
Multicolinealidad en modelos econométricos
parámetros se pondera por 2, ahora en el BIC los parámetros tienen mayor impacto en la medida
que el tamaño muestral aumenta.
En Stata © podemos calcular el AIC y BIC, para cada uno de los modelos siguiente, mediante
el comando de Stata © que se escribe en el Do editor, estat ic (escriba el comando una vez que
realice la regresión respectiva):
. estat ic
La fig. anterior muestra los resultados del AIC y BIC para todas las variables de análisis en
nuestro ejemplo (recuerde que usamos los datos de la tabla 5.1) incluidas en el modelo 1.
Estos resultados coinciden con los de la fig. 5.7 donde se ha suprimido la variable X2 (para
ello usamos la estimación del modelo 2), tomemos en cuenta que esta variable tiene colinealidad
perfecta con X1, de modo que puede ser eliminada sin que cambien los resultados de las
estimaciones de BIC y AIC.
Para estimar el AIC y BIC del modelo 2, primero logremos la estimación del Ln FV
relacionado con la expresión ll (model), mostrado en los resultados de Stata ©. Para dicha
estimación se usan todos los parámetros del modelo. En el caso de este modelo tenemos:
Parámetros (K) = 3 y Datos (N)= 12.
En los resultados mostrados por Stata ©, también aparece el ll (null) esta es la estimación
del LN FV sólo para el parámetro ß0 también llamado intercepto.
191
Multicolinealidad en modelos econométricos
. estat ic
El valor del LN FV (ll model) para el cálculo de AIC del modelo 2, puede hallarse también del
siguiente modo:
Y Y' ( Y - Y' ) 2
2 2.7137078 0.509378824
3 3.1875834 0.035187532
4 3.661459 0.114610009
4 3.9680362 0.001021685
5 4.4419118 0.311462439
6 5.0830858 0.84073165
5 5.5569614 0.310206001
6 5.6962402 0.092270016
6 6.0028174 7.93774E-06
6 6.476693 0.227236216
7 7.4524638 0.20472349
8 7.759041 0.05806124
Total 2.704897039
Donde:
mv = 2.70489704 / 12
2
192
Multicolinealidad en modelos econométricos
=[ 2 ] 0.5
Ln FV = -2.08820559 - 6
Ln FV = -8.0882056
Nuestra estimación del valor final del Ln FV, coincide con los resultados de Stata ©,
mostrados para el modelo 2.
Yi = ß0 + ß1 X1i + Ui (modelo 3)
. estat ic
Para el modelo 3, se tiene: K = 2 y N = 12. En este caso hay que notar que el AIC y el BIC
han bajado de valor, lo que indica que el modelo donde X1 es explicativa tiene mejor poder de
predicción que el modelo que usa X1 y X3 como explicativas.
Probemos ahora hallando el AIC y BIC del modelo 4, que se expresa a continuación:
Yi = ß0 + ß3 X3i + Ui (modelo 4)
193
Multicolinealidad en modelos econométricos
. estat ic
Finalmente en el modelo 4 se tiene: K = 2 y N = 12. Hay que notar que el AIC y el BIC han
bajado nuevamente de valor, lo que indica que el modelo que emplea a X3 como variable
explicativa tiene mejor poder de predicción o ajuste que todos los modelos anteriores.
La idea que existe detrás del uso del AIC y el BIC, es que los modelos iniciales usando X2 y
X1 son con variables colineales, que no le aportan información al modelo, por ello los criterios de
Akaike y Shwarz se van reduciendo, hasta llegar a X3 que si aporta información con mayor ajuste
que las variables previamente utilizadas, dando una idea de la posible existencia de
multicolinealidad.
No olvidemos que el AIC y el BIC sirven, además, para testear si el diseño del modelo es
óptimo no sólo en número de variables, sino también en el tipo de variables que colocamos. Al
existir variables redundantes es muy probable que haya multicolinealidad.
Donde:
TCVf : Valor del tipo de cambio de venta diario (enero a junio de 2013) para el Perú, medido en
dólares por sol.
194
Multicolinealidad en modelos econométricos
Tamn: Tasa activa en moneda nacional para el Perú (para créditos anuales)
La lógica del modelo es que el tipo de cambio responde a los diferenciales de tasas de interés
entre la moneda local y la moneda extranjera. Así mayores tasas locales de interés generan una
salida de fondos los cuales hacen que el tipo de cambio en dólares se reduzca y el tipo de
cambio en soles aumente, esto se conoce como la paridad de intereses.
Fig. 5.9 Regresión semestral para la variable dependiente Tipo de cambio venta en dólares
TCVf
195
Multicolinealidad en modelos econométricos
Una muestra de la relación entre estas dos variables puede verse gráficamente. En la Fig.
5.10, se evidencia que la relación entre la variable intbf y Libor3m es alta, la correlación entre
ambas es positiva y presentan los siguientes indicadores FIV y TOLERANCIA:
Tolerancia = 0.49
La evidencia de multicolinealidad es baja pero existe, el valor AIC de esta regresión inicial es
-873.3072.
Fig. 5.10 Relación entre tasa interbancaria en dólares (intbf) y tasa Libor 3 meses (Libor3m)
0 5 10
.3
Libor3m
.28
.26
10
5 intbf
0
.26 .28 .3
196
Multicolinealidad en modelos econométricos
Los resultados del modelo indican, que alzas del costo de la moneda local reflejados en la
Tamn generan entrada de fondos y una alza del TCVf (medido en dólares). Al revés se reduce el
valor de la moneda local en soles.
Alzas del intbs producen bajas del TCVf en este caso la variable se comporta al inverso de lo
esperado, una explicación es que esta tasa rige principalmente para la gran empresa, alzas de
esta tasa reflejan una mayor demanda local de moneda extranjera (ante el mayor costo de la
moneda local) que impulsa al alza al tipo de cambio en soles y a la baja al tipo de cambio en
dólares.
Una forma de corregir el modelo que presenta una correlación entre intbf y Libor3m de 0.71
(71%), es eliminar la variable que consideramos sospechosa del problema, sin embargo esta
quizás sea una solución relativamente mala, por cuanto perdemos algo de información y ajuste,
veamos los resultados eliminando Libor3m, que es la de menor valor crítico t de Student.
La Fig. 5.11 indica que el ajuste del modelo es ahora 0.5835 ligeramente menor al modelo
previo, lo que indica que la variable eliminada incorporaba algo de información al modelo, el AIC
es ahora -874, ha variado muy poco respecto del valor inicial, señalando nuevamente que
eliminar Libor3m no ha sido la mejor solución.
En el caso de los coeficientes del modelo estimado, la variable intbf sigue siendo no
significativa, al igual que el modelo original, mientras que las demás variables son
estadísticamente válidas.
197
Multicolinealidad en modelos econométricos
Fig. 5.11 Regresión corregida semestral para la variable dependiente Tipo de cambio venta
en dólares TCVf
Como se muestra en la Fig. 5.12 la regresión con datos para todo el año, ya presenta
parámetros estadísticamente significativos en todos los casos, es decir todas las variables son
relevantes para explicar el comportamiento del Tipo de cambio venta a valor en dólares. Los
signos siguen siendo los mismos respecto del modelo original y el R2 es ahora de 0.83 (83%) que
indica un buen ajuste del modelo.
El criterio de Akaike (AIC) ha caído fuertemente ahora tiene un valor de -1600, indicando que
el modelo tiene un buen poder explicativo, mucho mejor al planteado previamente.
198
Multicolinealidad en modelos econométricos
Fig. 5.12 Regresión anual para la variable dependiente Tipo de cambio venta en dólares
TCVf
El riesgo país puede crecer, lo cual eleva la tasa de interés externa relacionada a Perú, con
ello los fondos salen del país, esto hace que el tipo de cambio en moneda local suba y en
moneda local baje. Los resultados se muestran a continuación:
Es evidente que el R2 ha mejorado pues pasó a ser 0.93 o 93%, mientras que el AIC bajó a
-1,789, evidenciando que el modelo en términos generales explica mejor al tipo de cambio, pero
al interno las variables intbs e intbf (tasas interbancarias en soles y dólares) han perdido
significancia, nuevamente nos invade el problema de la potencial multicolinealidad.
199
Multicolinealidad en modelos econométricos
El signo del parámetro del riesgo país indica que si este sube, los fondos se van del país,
sube el cambio en sol por dólar, pero medido en moneda extranjera (TCVf) baja, lo cual es una
respuesta esperada.
Fig. 5.13 Regresión anual para la variable dependiente TCVf incluyendo Riesgo país
Para no perder la potencia de ajuste ganada, podemos ensayar otra forma de corregir los
modelos multicolineales, ello es transformando ligeramente las variables, para ello tomaremos
ahora la serie intbs y la pondremos en un período rezagado, es decir que estamos pensando que
el efecto de intbs se evidencia recién al siguiente día de producida su alza o baja.
Otras formas de ajuste es poner las variables al cuadrado, en este caso dado que intbs es
una tasa pequeña comparada con la Tamn, entonces procedemos a elevarla al cuadrado para
potenciar su efecto, sin embargo los resultados de este ensayo no producen mejoras en el
200
Multicolinealidad en modelos econométricos
modelo. El R2 sigue siendo de 0.93 y las variables intbs2 (al cuadrado) e intbf siguen siendo no
significativas.
Fig. 5.13 Regresión anual para la variable dependiente TCVf con Riesgo país sin intbf e intbs
Como vemos el modelo tiene ahora un ajuste de 93.16% muy similar a los casos anterior y
mucho mejor al de la Fig. 5.12, el valor del AIC es ahora -1,790 mucho menor a todas las
estimaciones previas. Este modelo parece ser el de mejor poder explicativo de todos los
ejemplos previos.
201
Multicolinealidad en modelos econométricos
TCVfi - TCVfi, t-1= ß0 + ß1 ( Tamn1i - Tamn1i, t-1 )+ ß2 ( intbs2i - intbs2i, t-1 )+ ß3 ( interbf3i -
interbf3i, t-1 ) + ß4 ( Libor3m4i - Libor3m4i, t-1 )+ Ui
Los resultados de este modelo en nuestro ejemplo fueron bastante bajos, el R2 apenas
llegó a 0.14 o 14%, esto puede indicar que las variaciones inmediatas del tipo de
cambio no se explican por las variaciones diarias de las distintas variables explicativas.
- Otros criterios de solución implican conocer de algún modo el valor que afecta
previamente la variable, pensemos por ejemplo que sabemos que por cada punto de
PBI la pobreza se reduce en 0.25%, entonces en modelos donde intervengan el PBI
per cápita y la pobreza, es mejor partir de ese criterio a priori. Si consideramos que la
desigualdad tiene que ver con el PBI per cápita y la pobreza, entonces podemos
estimar solamente el parámetro del PBI per cápita y luego sabemos que el otro
parámetro de pobreza tendrá un efecto de 0.25.
- Otra idea es hallar variables que reemplacen tanto al PBI per cápita como a la pobreza,
pero que a la vez se relacionan con ella sin perder su independencia, podemos usar
por ejemplo la tenencia de activos físicos o biológicos en el hogar, de modo que a más
activos se tiene más ingresos y menos pobreza, ello reduce la desigualdad y la
tenencia de activos se relaciona con las variables previas pero es de por sí
independiente, ello es usar variables proxy y en otros casos se pueden usar las
denominadas variables instrumentales.
Donde:
202
Multicolinealidad en modelos econométricos
Yi = ß0 + ß1 X1i + ei (ii)
Donde:
ei = ß2 X2i + Ui
ß1 ‘ = ∑ x1i yi / ∑x1i 2
Tenga en cuenta que el valor esperado del error es cero en todos los casos, entonces:
Con esto determinamos que la estimación ß1 ‘ es sesgada, siempre que ß2 sea diferente de
cero y que la covarianza de X1, X2 sea cero (o también su correlación), esto se denomina el
sesgo por variable omitida. Hay que considerar que el sesgo por variable omitida se produce sólo
con aquellas variables que correlacionan con X1.
203
Multicolinealidad en modelos econométricos
Granger (1969) plantea que el pasado de una variable puede de algún modo influir en otra,
por ejemplo el pasado de X1 puede afectar los sucesos actuales de X2, sin embargo no es posible
que los sucesos actuales de X2 afecten a X1. No obstante hay que tener en cuenta que las
variables económicas son relacionadas no solo de manera unidireccional sino bidireccional; por
lo que plantear pruebas de causalidad, siendo la de Granger muy popular, quizás sea una
herramienta útil aunque puede generar conclusiones apresuradas respecto de la direccionalidad
de la variable.
La causalidad puede ser tratada también como efectos o impactos de una variable sobre un
grupo de tratamiento (o análisis) y ningún impacto sobre otro, lo cual es la base de los
tratamientos o modelos experimentales que actualmente se diseñan. Aquí se responden
preguntas como: causa el crédito cambios en la productividad o cuál es el efecto del crédito en la
productividad. Resolver la causalidad en estos casos puede relacionarse con algunos problemas
prácticos, por ejemplo que tan comparables con las personas que recibieron crédito y aquellas
que no, considerando que en ambos casos pudo alterarse la productividad.
Al igual que Granger (1969) la causalidad puede relacionarse con la variable omitida, por
ejemplo en el caso de los que piden créditos, pueden darse características en los individuos que
no hemos contemplado previamente. Por ejemplo elementos de análisis que solicitan crédito sólo
porque tienen problemas económicos con lo cual podemos concluir que las empresas en apuros
no mejoran su productividad al recibir créditos, conclusión que puede ser errada sólo por omitir
estas consideraciones. Esto también se conoce como sesgo de selección y esta estrechamente
vinculado al sesgo por variable omitida ya mencionado (Rubin, 1974).
Volviendo a Granger (1969) el test de causalidad que plantea supone analizar el modelo
desde la siguiente perspectiva en el tiempo, primero podemos analizar que afecta a la variable
dependiente:
204
Multicolinealidad en modelos econométricos
Hay que considerar que los efectos no se producen en un solo período del pasado sino
también en diversos períodos previos por ejemplo:
Yi t = ß11 Y1i, t-1+ ß21 Y1i, t-2 +… + ßn1 Y1i, t-n + ß21 X1i, t-1+ ß22 X1i, t-2 + … + ß2n X1i, t-n + U1i
Xi t = ß13 Y1i, t-1+ ß23 Y1i, t-2 +… + ßn3 Y1i, t-n + ß41 X1i, t-1+ ß42 X1i, t-2 + … + ß4n X1i, t-n + U1i
Probar la causalidad de Granger (1969) requiere estimar el modelo anterior para cada
variable, en las siguientes condiciones:
Donde el modelo (a) nos dará una suma de residuos al cuadrado restringido (SRCr) mientras
que el modelo (b) nos dará una SRC no restringido (es decir usa todas las variables), esto lo
denominaremos SRCnr, se cumplirá entonces lo siguiente:
Donde:
La idea es conocer si intbf (Xi) causa a intbs (Yi), de modo que podamos eliminar a una de
ellas y usar la otra en el modelo evitando así la multicolinealidad o al menos mejorando las
205
Multicolinealidad en modelos econométricos
estimaciones realizadas; para esta previa causalidad consideramos que la tasas locales de
interés responden a las tasas internacionales de interés:
R= 5
K = 10
N = 208 datos para el modelo empleado en la sección anterior, 5 rezagos hacen perder datos.
F = 0.028
Este valor es bastante bajo para probar que es significativo, el valor de la tabla F es 2.26,
dado que no supera el valor crítico entonces se indica que la variable intbf no causa a intbs o
que la inclusión de la variable intbf en rezagos efectivamente afectan la regresión planteada.
Retomando el modelo (i) donde los años de estudio y la habilidad afectan el ingreso del
individuo y considerando que la habilidad no observable supone estimar el modelo (ii), entonces
el uso de una variable instrumental, por ejemplo Zi, requiere cumplir necesariamente los
siguientes criterios:
Cov (Zi, ei ) = 0
En ese caso Zi es una variable instrumental a ser usada en lugar de X1i siendo la variable
instrumental de X1i, donde ei es el nivel de error.
Hay que notar que no debe darse covarianza positiva entre Zi y el error del modelo (ii), así
mismo debe darse una correlación diferente de cero entre Zi y X1i (que se transforma en una
variable endógena, ya que es influida o causada por Zi.
206
Multicolinealidad en modelos econométricos
- La educación de los padres del individuo, puede estar correlacionada con la habilidad
(X2i ) debido a que el individuo gana habilidades de acuerdo a lo que saben los padres.
- El coeficiente intelectual del individuo, puede ser una variable interesante, pero no
necesariamente se relaciona con los años de educación formal del individuo, además
está el hecho de la posibilidad de medición y del sesgo de esta medición (sin reparar lo
costoso que debe ser) que tiende a ser subjetiva o emplear diversos test psicológicos.
También hay que notar que el coeficiente intelectual puede predisponer a ganar más
habilidades innatas, de modo que se da la correlación con X2i, lo que invalidad el uso.
- La zona donde nació el individuo, esto puede no estar correlacionado con la habilidad
pero tampoco se correlaciona con los años de estudio, salvo que podamos señalar que
si la zona es más alta entonces más difícil ir a la escuela, con lo cual la variable podría
ser los metros sobre el nivel del mar donde vive el individuo y eso se correlaciona con
años de estudio y puede ser independiente de la habilidad.
- Otra variable puede ser la lejanía al centro de estudios, así más lejos supone menos
años de educación y esa lejanía no tiene nada que ver con la habilidad, de modo que
puede ser una buena variable instrumental.
- Otra variable puede ser la edad en que se es padre, si es una edad temprana entonces
menos años de educación, si es una edad mayor entonces hay más años de educación
sin que ello se vincule con la habilidad.
- Los ingresos de los padres, puede implicar una buena relación con años de estudios,
pero también se relaciona con la habilidad (más ingresos es más probable que se
adquieran más habilidades)
X1i’ = Ω0 + Ω1 Zi + ej
Con la regresión previa hallamos el valor estimado de X1i‘ en buena cuenta es la estimación
de los años de educación a partir de la variable instrumental. Para indicar que la variable
instrumental Zi es un buen predictor de la variable X1i, se debe tener una prueba F relativamente
alta, Staiger y Stock (1997) indican que debe ser mayor a 10 por lo menos.
Yi = π0 + π1 X1i’ + ei
Donde:
Para demostrar las propiedades del estimador del parámetro de la VI, tomemos la estimación
en promedios:
Yim = π0 + π1 X1i m’
yi = π1 x1i’ + ei
Donde:
π1 = ∑ x1i’ yi / ∑ xi1 2
Note que x1i’ ha sido estimado con zi, de modo que el parámetro π1 de la VI es:
π1 = ∑ zi yi / ∑ zi x1i
Si consideramos la estructura del modelo (i) que deseamos estimar, entonces reemplazamos
en la estimación previa, todo en desviaciones respecto de la media:
yi = π1 x1i + π2 x2i + Ui
ei = π2 X2i + Ui
Donde los parámetros πi equivalen a ßi, puesto que estamos haciendo estimaciones de los
modelos, ante la no observación de la variable habilidad o también denominada X2i:
208
Multicolinealidad en modelos econométricos
π1 = π1 + ∑ zi ei / ∑ zi x1i
De modo que para hallar el estimador correcto de la variable instrumental π1, se debe cumplir
que la covarianza (Cov) entre la variable Zi y el error del modelo (ii) debe ser cero y la covarianza
entre Zi y la variable X1i, debe ser diferente de cero, de modo que esas condiciones hacen
robusta la estimación mediante la variable instrumental.
Finalmente hay que mencionar que hallar variables instrumentales es un proceso complejo,
en la medida que resolver las cuestiones de correlación entre esta variable, el error y la variable a
reemplazar son aspectos difícil de hallar en simultáneo, de modo que es probable que la VI sea
algo débil. En ese caso, debemos pensar en usar otros criterios para resolver el hecho de
variables omitidas o sesgos de selección, este proceso inclusive se hace complicado a la hora de
reemplazar variables en los modelos con multicolinealidad.
209
Multicolinealidad en modelos econométricos
Sin embargo, es posible estimar los parámetros en modelos con variables multicolineales
inexactas, estos parámetros no obstante son sesgados, es decir no son estimaciones correctas.
Las fallas que genera la multicolinealidad tienen que ver principalmente con el incremento de
la varianza de los parámetros estimados, esta alza de la varianza genera que la prueba de
significancia sea menor de lo esperado, con lo cual los valores tenderían a ser no significativos.
La bondad de ajuste del modelo con multicolinealidad puede no verse mayormente afectada,
de modo que es posible hallar parámetros no significativos y bondad de ajuste alto (R2 altos y F
significativos). Otra forma de darnos cuenta de la multicolinealidad, tiene que ver con hallar el
valor del Factor inflador de varianza (FIV) o su inverso que es la Tolerancia, que si tiende a cero
indica la presencia de multicolinealidad.
Formas indirectas de ver si hay multicolinealidad tiene que ver con la especificación del
modelo, así modelos con un criterio de información de Akaike (AIC) decreciente en la medida que
se añaden variables, indica que la nueva variable es relevante, mientras que mayores valores de
AIC indican que la variable añadida o las que están en el modelo, alguna de ellas puede ser
colineal o cuando menos redundante.
Las correcciones a los modelos de multicolinealidad pueden ser variadas, desde la poco
recomendable opción de eliminar variables, hasta posibilidades más concretas como aumentar el
tamaño de muestra, aumentar el número de variables, reemplazar alguna variable por otra,
transformar variables (o estimarlas previamente) e inclusive colocar variables en su pasado
inmediato o rezagadas.
Dado que es posible reemplazar variables por otras de igual impacto teórico, esto se puede
lograr mediante variables aproximadas o proxy, así como el uso de variables instrumentales. Este
último aspecto de reemplazar variables requiere necesariamente que la correlación entre la
variable reemplazante y el nivel de error de la estimación sea cero, además que exista relación
diferente de cero entre la variable instrumental y la reemplazada.
210
Multicolinealidad en modelos econométricos
Las variables instrumentales son complejas de hallar y deben cumplir las condiciones previas,
además debe verificarse también que pueda existir causalidad entre esta y la variable a
reemplazar.
211
Multicolinealidad en modelos econométricos
Preguntas de opinión
212
Multicolinealidad en modelos econométricos
Caso de aplicación
Lectura previa
“La demanda de los servicios de telefonía (en este caso las llamadas locales o servicio local y
de larga distancia hacia otras ciudades del país y hacia ciudades localizadas en otros países o
servicios de larga nacional e internacional) tiene algunas características no compartidas con la
demanda de la mayoría de bienes o servicios, lo que usualmente dificulta su estimación. En
particular, Taylor (1993) y Levy (1996), sugieren la existencia de cuatro aspectos: En primer
lugar, la demanda por el servicio de telefonía está caracterizada por la existencia de una
externalidad al nivel de la red de usuarios. El acceso a la red no representa utilidad para un hogar
si los miembros de su grupo social o las empresas a las que compra no están suscritos a la red.
Es decir, el acceso a los servicios de telefonía es útil en tanto otros individuos o empresas
también acceden a la red. En este sentido, cada vez que un hogar decide ser usuario de los
servicios genera una externalidad en los restantes hogares y empresas, por lo que el beneficio de
acceder a la red aumenta con el número de suscriptores.
En segundo lugar, existe una externalidad al nivel de las llamadas. Cada vez que un usuario
realiza una llamada, presumiblemente genera una externalidad en el receptor (los miembros de la
red estarían dispuestos a pagar una cantidad de dinero para tener la opción de contestar las
llamadas). En esta perspectiva, la utilidad de los usuarios depende también del consumo de los
otros miembros de la red.
Finalmente, los tipos de llamada que efectúan los miembros de un hogar son cualitativamente
distintos. Por ejemplo, existen diferencias entre una llamada a un familiar o amigo y una llamada
para averiguar la dirección de un establecimiento o para comprar una hamburguesa por teléfono.
Es decir, existe heterogeneidad en los usos del servicio de telefonía por lo que es necesario
hacer supuestos en la agregación de las llamadas evitando, así, problemas con la definición de la
demanda.
Las variables utilizadas en el estudio son el total de pasos del servicio local de telefonía y el
total de minutos en el servicio de larga distancia consumidos mensualmente.
213
Multicolinealidad en modelos econométricos
Este tipo de información a nivel del hogar es adecuado para los objetivos del estudio, de
relacionar el acceso a la red de telefonía y el consumo de los servicios con las tarifas, el ingreso
familiar y, especialmente, con las características socioeconómicas de los hogares, Para capturar
esta heterogeneidad de las familias, en el estudio se asume la existencia de varios grupos de
consumo distintos los que se representan por los niveles socio económicos.
Preguntas
214
Multicolinealidad en modelos econométricos
Ejercicios
Xi = α i I / P i
T1 T2 T3 T4 T5 T6 T7 T8 T9 T10
P2 0.5 0.4 0.3 0.3 0.2 0.25 0.28 0.3 0.27 0.24
X1 20 18 17 18 15 14 15 15 13 10
X2 10 11 12 14 16 10 10 9 14 16
• Para cada bien, probar que la elasticidad precio, ingreso y cruzada son unitarias,
considerando que la elasticidad precio tiene signo negativo.
• Hallar α1 y α2
• Pruebe que entre Pi y el Ingreso existe colinealidad, que recomienda en este caso
215
Multicolinealidad en modelos econométricos
Referencias bibliográficas
Acemoglu, Daron y Johnson, Simon y James Robinson (2001) The colonial origins of comparative
development: an empirical investigation. American Economic Review, 91(5), p. 1369-1401.
Angrist, Joshua (1990) Lifetime Earnings and the Vietnam Era Draft Lottery: Evidence from Social
Security Administrative Records. American Economic Review, American Economic Association,
vol. 80(3), p. 313-36.
Angrist, Joshua y Alan Krueger (1991) Does Compulsory School Attendance Affect Schooling and
Earnings?. The Quarterly Journal of Economics, MIT Press, vol. 106(4), p. 979-1014.
Granger, C. (1969) Investigating causal relations by Econometrics models and cross spectral
Methods. Econometrica. Julio 1969. USA.
Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.
Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill
Murray, Michael (2006) Avoiding invalid instruments and coping with weak instruments. Journal of
Economic Perspectives, 20(4), p. 111-132.
216
Multicolinealidad en modelos econométricos
Rubin, Donald (1974) Estimating causal effects of treatments in randomized and non-randomized
studies. Journal of Educational Psychology, 66, p. 688-701.
Taylor, L.D y D. Kridel (1990). Residential Demand for Acces to the Telephone Network. En:
Telecommunication Demand Modelling: An Integrated View. A. De Fontenay, H. Shugar y D.
Sibley, Editores. North-Holland.
Wooldridge, Jeffrey (2010) Econometric Analysis of cross section and panel data. The MIT Press,
Capítulos 5 y 21.
217
CAPÍTULO VI
Heterocedasticidad en
Modelos econométricos
218
Heterocedasticidad en Modelos econométricos
Introducción al tema
En los estudios de corte social normalmente análisis de corte transversal donde medimos
variables sociales, también es muy probable que haya grupos parecidos y otros no, o que haya
individuos parecidos y otros no, por ejemplo el acceso a salud, la tenencia de seguro médico, el
grado de alfabetización, los ingresos, el tamaño familiar, los niveles educativos, los activos que
poseen y otras variables; que generan diferencias en el tratamiento de la información y los
resultados respectivos.
Donde t es el período de ocurrencia del evento y t puede ser meses, días, años u otra
estructura temporal, en estos modelos normalmente se puede esperar varianzas estables,
pensemos en el ejemplo siguiente:
220
Heterocedasticidad en Modelos econométricos
Ahora analicemos los indicadores de varianza para cada país, en el modelo hipotético siguiente:
Realizando la estimación usando los 20 datos, obtenemos lo siguiente para la varianza del
modelo general, igual a SCR / N-K, también obtenemos las varianzas para el uso de dos
muestras con sólo 10 datos elegidos de modo aleatorio:
Como pueden notar en la tabla previa, las varianzas en todos los casos son cambiantes, esto
indica que las estimaciones realizadas al interno de cada muestra no logran aproximarse a la
población, en buena cuenta hay mucha distancia entre el ahorro existente y sus estimaciones, la
figura siguiente muestra el error obtenido general para cada país A o B:
221
Heterocedasticidad en Modelos econométricos
Como se puede ver en la figura previa, el nivel de error no tiene un valor esperado de cero o
una suma igual a cero, ello porque es cambiante y bastante oscilante, al no cumplir el criterio de
media cero, entonces es natural que la varianza no sea constante. Ahora ajustemos la serie de
tiempo a la figura siguiente:
Podemos notar que el ingreso A y el ahorro se comportan de manera similar, mientras que el
ingreso B sigue siendo bastante cambiante aunque con cierta relación con A, los resultados del
modelo econométrico modificado presentan una varianza de 0.3816 para el país A y de 2.80 para
el país B, confirmando que la varianza existente es mayor en el caso de los cambiantes datos de
ingresos del país B.
Los niveles de error al cuadrado del modelo con el ahorro modificado (mostrados en la fig.
siguiente) indican claramente que el modelo no es aplicable para el país B debido a su naturaleza
de alta varianza y es de mayor confiabilidad en el caso del país A.
222
Heterocedasticidad en Modelos econométricos
Fig. 6.4 Error cuadrático del Modelo Ahorro modificado e ingresos países A y B
Podemos también considerar si el error está asociado al ahorro o al ingreso, en ambos casos
tenemos:
Fig. 6.5 Error cuadrático versus Ahorro (a) y versus Ingreso B (b)
(a) (b)
223
Heterocedasticidad en Modelos econométricos
La fig. previa en el caso (a) indica que no hay mucha relación entre la varianza (error
cuadrático) y el ahorro modificado, si retrocedemos podemos observar cierta relación entre la
variable ingreso y ahorro, de modo que la varianza no se asocia con la variable dependiente.
Aquí se pueden tener “i” observaciones para cada grupo “j” de análisis, en buena cuenta “j”
representa los estratos, segmentos o sub grupos dentro de la muestra empleada, mientras que “i”
son todos los elementos que existen dentro de ese grupo.
Consideremos por ejemplo la tabla siguiente, donde sólo se entrevistan mujeres y se quiere
relacionar la cantidad de kilos de fruta consumida por semana con el peso en kilos de la
entrevistada, la idea es que si la entrevistada tiene más peso, entonces su tendencia es a
consumir más frutas, con fines de ajustar su peso.
Las mujeres entrevistadas tienen entre 20 a 25 años de edad. El modelo para los datos de la
tabla sería el siguiente (id es el número de entrevistado):
224
Heterocedasticidad en Modelos econométricos
id Fruta peso
1 2 45
2 1 65
3 3 76
4 1 55
5 1 52
6 4 75
7 3 85
8 1 48
9 2 49
10 3 61
Ahora si a la tabla anterior, le añadimos otro grupo de datos que serían los hombres entre 20
a 25 años, tenemos la tabla siguiente:
Mujeres Hombres
id Fruta peso id fruta peso
1 2 45 11 2 65
2 1 65 12 1 62
3 3 76 13 1 78
4 1 55 14 1 84
5 1 52 15 3 62
6 4 75 16 1 71
7 3 85 17 2 70
8 1 48 18 1 66
9 2 49 19 1 60
10 3 61 20 2 59
Usando los datos de la tabla anterior, la varianza del modelo previo resulta en 0.89899, lo
cual es mayor al obtenido sólo con mujeres, evidenciando que conforme se van añadiendo
225
Heterocedasticidad en Modelos econométricos
grupos, se va elevando el nivel de varianza, esto sucede siempre que los grupos añadidos sean
diferentes al estrato previo.
Hay que notar que el modelo incluyendo hombres, debe tener alguna forma de discriminar la
presencia de hombres y mujeres, en este caso es posible añadir la siguiente variable dicotómica
(D):
D= o si es mujer
D = 1 si es hombre
Con ello el modelo planteado queda del siguiente modo, el error ahora es eij:
Así si el entrevistado es mujer, entonces el modelo sólo estima el parámetro para ese grupo
de datos, ya que ß2 Dj sería igual a cero.
En este caso, la estimación tienen un valor adicional equivalente a ß2, con lo cual se corrige la
estimación inicial que no considera la variable dicotómica.
Hay que notar que la presencia de la variable Dj reduce el nivel de error presente en el
modelo, en el modelo inicial el error era equivalente a:
Uij = eij + Dj
En el nuevo modelo el error es sólo eij, con lo cual la varianza se reduce. Estimando el
modelo (i) la varianza finalmente resultó en 0.77896, mucho menor al modelo general que incluye
a los hombres y ligeramente mayor al modelo (i) que sólo incluía mujeres.
Si bien se redujo el nivel de varianza del modelo final (ii) respecto al (i), de todos modos se
presenta mayor varianza conforme hay más grupos heterogéneos en la muestra, grafiquemos el
nivel de error cuadrático de la estimación inicial y final para darnos cuenta de los efectos:
226
Heterocedasticidad en Modelos econométricos
Fig. 6.6 Error cuadrático para el modelo Peso Fruta con mujeres y hombres
Como se ve en la fig. previa, el error cuadrático del modelo sólo con mujeres (error1cuad) es
mucho menor al que se tiene cuando se estima el modelo con los datos del grupo de hombres e
incluyendo la variable dicotómica, que se muestra como error2cuad.
Hay que notar además que para los primeros 10 datos que son mujeres, la varianza del
modelo incluyendo hombres se parece mucho, ello porque la variable dicotómica es cero. En la
segunda parte de datos se incluyen los hombres, aquí la varianza del grupo de mujeres es
constante y la de los hombres eleva notoriamente el comportamiento previo con una mayor
oscilación, evidenciando que el grupo es mucho más heterogéneo que las mujeres.
En la medida que se insertan nuevos grupos diferentes al anterior, la varianza irá subiendo en
las estimaciones econométricas que se realicen, sin embargo incrementar la cantidad de datos
en cada grupo puede reducir el nivel de varianza (esto supone que el tamaño total de la muestra
se amplía). El efecto de una mayor cantidad de entrevistados por ejemplo, radica en que la media
irá convergiendo a la poblacional y con ello se irá reduciendo el nivel de error existente; además
cada nuevo entrevistado adicional tenderá a parecerse al anterior, salvo que las unidades
muestrales o individuos sean muy diferentes aún dentro del mismo sub grupo muestral, con lo
cual la muestra debería ser mucho más grande aún.
227
Heterocedasticidad en Modelos econométricos
Para fines de diseño de un modelo transversal que pueda ser de menor varianza y tenga
estimaciones fiables, es importante que la población sea correctamente representada en la
muestra, veamos el siguiente ejemplo:
Pensemos que la población de interés son 1.3 millones de individuos, todos ellos son lectores
de diarios (periódicos, matutinos o noticieros impresos), y se ha creído conveniente asumir que
compran diarios desde los 20 años, queremos saber de esta población, primero su estructura. La
tabla anterior resume las características de interés en el estudio a realizar, como son el género,
la zona de residencia, la geografía de residencia o densidad urbana rural y la edad.
n = N Z2 PQ / [ ( N – 1) e 2 + Z2 PQ ]
Donde:
228
Heterocedasticidad en Modelos econométricos
Z: Nivel de confianza estandarizado en una distribución normal, se asume 95% de confianza que
da un valor estándar de 1.96.
P: Población que efectivamente comprará o estará interesada en el producto sujeto del estudio o
simplemente se asume 0.5 para maximizar la muestra, donde 0.5 indica que el 50% de la
población estará interesada en lo que queremos vender o analizar.
e: Nivel de error del estudio o diseño muestral, de cada 100 respuestas cuántas estarán fuera de
la media.
Podemos observar que en el escenario típico de aceptar un 5% de error, la muestra sale 384
entrevistados, sin embargo si consideramos que el público es muy parecido u homogéneo,
podemos elevar el nivel de error a 7% con lo cual la muestra se reduce a 196 entrevistados.
Ahora si consideramos que e público es muy heterogéneo (grupos muy diferentes entre sí)
entonces es mejor reducir el nivel de error, en el ejemplo hemos pasado a un error de 2%, con lo
cual la muestra sale 2,397 entrevistados, como podemos concluir en esta parte, si se prevé una
alta varianza, es mejor incrementar el tamaño muestral.
Considere que trabajaremos con 384 entrevistas, reducir la varianza también implica conocer
la estructura de la muestra, la cual debe referirse exactamente a la población:
229
Heterocedasticidad en Modelos econométricos
Como se puede ver en la tabla previa, la muestra equivale a 384 personas, que se distribuyen
por género, por densidad urbana rural, por distrito, por edades; esta distribución permite reducir
los errores de concentrarnos en grupos poblacionales con la cual podemos generar varianzas de
mayor distorsión.
230
Heterocedasticidad en Modelos econométricos
- Series de tiempo con estacionalidades o con datos atípicos pueden ser causa de
varianza no constante o heterocedasticidad, por ejemplo piense un PBI que oscila entre
4 a 6% anual en los últimos 40 años y de pronto tiene una caída de -6%, con este dato
la varianza cambiará, la caída puede deberse a múltiples factores no manejables por el
investigador, en este caso es mejor retirar este dato, cuando se espera además que las
condiciones económicas en general hagan que el PBI vuelva a su nivel original. Ahora
si las caídas se mantienen, entonces hay que considerarlo, pues la varianza aún
subiendo, refleja ya un comportamiento relevante en la economía, habrá que corregir
231
Heterocedasticidad en Modelos econométricos
de algún modo la estimación. Este ejemplo también darse por ejemplo si queremos
explicar la captura de anchoveta y resulta que por un clima no previsto en otras partes
del mundo, la presencia del cardumen es alta y eleva la captura fuertemente, este dato
es atípico y es mejor retirarlo del modelo, considerando que la captura, pasado el
efecto no manejable, volverá a su nivel.
Cuando se presenta varianza no constante, las estimaciones que realizamos en los modelos
econométricos tienden a cambiar, veamos el modelo simple siguiente:
Y i = ß 0 + ß 1 X i+ U i
ß1 = ∑xiyi / ∑xi2
232
Heterocedasticidad en Modelos econométricos
Var ß1 = E (∑ Zi ui) 2
Además como vimos antes, el valor esperado E (ui uj) = E ( ui - E ui ) ( uj – E uj) = E (ui * uj) = 0
Var ß1 = 2 ( ∑ Zi 2 )
Donde Zi = xi / ∑xi2
Var ß1 = 2 / ∑xi 2
Para probar que la varianza del modelo (1) difiere de la varianza homocedástica
consideremos que lo siguiente es la estimación de la varianza constante:
2 = ∑ Ui 2 / N – 2 = E ∑ Ui 2
2 = ∑ - ( ß0’ - ß0 ) – (ß1’ - ß1 ) Xi + Ui )2 / N - 2
No olvide que (Um se considera cero, pero lo expresamos aquí), en el modelo poblacional
(para ß0 ) Um es cero, entonces ambos estimados quedan:
ß 0’ = Y m - ß 1’ X m + U m
233
Heterocedasticidad en Modelos econométricos
ß0 = Ym - ß1 Xm
Restando tenemos:
ß 0’ - ß 0 = - ( ß 1’ - ß 1 ) X m + U m
2 = ∑ ( ß1’ - ß1 ) Xm - Um – (ß1’ - ß1 ) Xi + Ui )2 / N - 2
Donde la media de Ui es cero, todos los productos con Ui también resultarán cero y sin
considerar a (N - 2), entonces:
E 2 = [ - Var ß1 ∑ xi 2 + E ∑ (Ui 2 - 2 Ui Um + Um 2 ]
E 2 = [ - Var ß1 ∑ xi 2 + ( N + 1) E ∑Ui 2 / N ]
E 2 = [- i
2 ∑ xi 2 / ∑ xi 2 + ( N + 1) i
2 /N ] (2)
234
Heterocedasticidad en Modelos econométricos
resulta la expresión (2) calculada previamente y en ese caso la varianza del parámetro ß1 es la
expresión mostrada en la ecuación (1).
Dado que tenemos problemas de estimación podría hacerse lo siguiente, a partir del modelo
ya planteado:
Y i = ß 0 + ß 1 X i+ U i
Yi = ß0 A+ ß1 Xi+ Ui
Var Ui = E Ui 2 = E ( ui / i)
2
Var Ui = E Ui 2 = E ( ui / i)
2
Var Ui = E Ui 2 = ( 1 / i)
2 E ( ui ) 2
Var Ui = E Ui 2 = ( 1 / i)
2
i
2
Var Ui = 1
Con ello se tiene que la varianza del modelo (3) es constante, esta corrección empleada se
denomina normalmente mínimos cuadrados generalizados (MCG), donde la estimación del
parámetro ß1, sería la siguiente:
235
Heterocedasticidad en Modelos econométricos
∑Ui 2 = ∑ ( Yi - ß0 + ß1 Xi + Ui ) 2
Ponderando el modelo tal como se hizo en la ecuación (3) para establecer los mínimos
cuadrados generalizados, tenemos:
∑ ∆i Ui 2 = ∑∆i ( Yi - ß0 * + ß1 * Xi + Ui ) 2
Donde:
∆i = ( 1 / i
2)
Diferenciando e igualando a cero como se hizo para obtener los estimados de mínimos
cuadrados (MCO) ya realizados en capítulos anteriores, tenemos:
Ym * - ß1 * Xm * = ß0 *
Donde:
Ym * = Ym ∑∆i / ∑∆i
Xm * = Xm ∑∆i / ∑∆i
236
Heterocedasticidad en Modelos econométricos
Bajo el criterio del modelo de mínimos cuadrados generalizados (MCG), la varianza del
parámetro ß1 *, queda del siguiente modo:
Var ß1 * = ∑∆i 2 i
2 Zi 2 ’
Donde:
Finalmente tenemos:
Var ß1 * = ∑∆i 2 i
2 / [ ∑∆i ∑∆i Xi 2 - ( ∑∆i Xi) 2 ]
Como podemos ver la estimación de la varianza de ß1 por MCG es una valor ponderado, note
en el denominador que se pondera las sumatorias de la variable independiente, mientras que en
MCO no existen esas ponderaciones, lo cual tiende a diferenciar ambas estimaciones. Si
tenemos que ∆i (varianza homocedástica) es una constante entonces podemos determinar que la
varianza del modelo con MCG es equivalente a MCO:
Var ß1 * = N ∆ / [ N ∆ ∆ ∑ Xi 2 - ∆ 2 ( ∑ Xi) 2 ]
Var ß1 * = N ∆ / [ N ∆2 ∑ Xi 2 - ∆ 2 ( ∑ Xi) 2 ]
Var ß1 * = N ∆ / ∆2 [ N ∑ Xi 2 - ( ∑ Xi) 2 ]
Var ß1 * = N / ∆ [ N ∑ Xi 2 - ( ∑ Xi) 2 ]
Var ß1 * = N 2 / [ N ∑ X i 2 - ( ∑ X i) 2 ]
Var ß1 * = 2 / [ ∑ X i 2 - ( ∑ X i) 2 / N ]
Var ß1 * = 2 / [ ∑ Xi 2 - ∑ Xi Xm ]
Var ß1 * = Var ß1 = 2 / ∑ xi 2
237
Heterocedasticidad en Modelos econométricos
Finalmente hay que señalar que la estimación con MCG brinda estimadores con varianza
constante, lo cual hace que los parámetros sean de mayor potencia y también son insesgados.
Ahora graficaremos el error cuadrático obtenido en el modelo anterior, contra las variables
dependiente e independiente lo cual se muestra a continuación:
238
Heterocedasticidad en Modelos econométricos
Es probable que la Fig, 6.8 indique la presencia de heterocedasticidad dada la relación entre
el error cuadrático y la variable dependiente, mientras que los datos de la Fig. 6.9 no indican
presencia de heterocedasticidad.
239
Heterocedasticidad en Modelos econométricos
Una segunda forma de detectar este problema, implica realizar algunas pruebas previas, las
más conocidas plantean siempre relaciones estadísticas entre el error cuadrático y las variables
existentes.
Park (1966) propone la siguiente prueba, conocida como test de Park (donde e* es el error del
modelo planteado por Park):
Ln i
2= Ln 2+ ß1 Ln Xi + e*i
Ln eij 2 = Ln 2+ ß1 Ln Xi + e*i
Ln eij 2 = ß0 + ß1 Ln Xi + e*i
240
Heterocedasticidad en Modelos econométricos
Como evidencia el test de Park mostrado en la regresión previa, el ajuste del modelo es de
0.1% y el valor t de Student para la variable lnpeso (independiente) es de 0.18, lo cual no es
significativo, con ello descartamos la presencia de heterocedasticidad.
De este modelo se obtiene la varianza del mismo, bajo el criterio de máxima verosimilitud, es
decir empleado la fórmula siguiente ya estimada antes (donde Ui es el error del modelo que se
estime inicialmente o el modelo original):
mv
2 = ∑ Ui 2 / N
Con ese valor se obtienen los errores cuadráticos corregidos, los cuales se expresan del
siguiente modo:
e i’ = e i 2 / 2
ei’ = ß0 + ß1 Peso + vi
De los resultados del modelo previo, se obtiene un indicador derivado de la SCE, estimado
del siguiente modo:
Apliquemos el test de Breusch - Pagan (1979) y Godfrey (1978) para el modelo peso fruta (ii)
usado de ejemplo, primero la varianza (con verosimilitud) resulta:
mv
2 = 13.2423335 / 20 = 0.6621
Ahora corremos la regresión con el error cuadrado ajustado, (ei‘ ) los resultados son:
241
Heterocedasticidad en Modelos econométricos
El valor de SCE hallado para este test, debe evaluarse en una distribución chi cuadrado con 1
variable explicativa o 1 grado de libertad (los grados de libertad equivalen al número de variables
independientes). Para el 5% de confianza, el valor de la distribución chi cuadrado es 3.8414, de
modo que el valor hallado de 0.14 no supera el valor de la distribución esto significa que su
varianza es menor del punto máximo, lo que indica la no existencia de heterocedasticidad.
Si el valor SCE del test, supera al valor de la distribución chi cuadrado, entonces la varianza
supera el mínimo establecido y es heterocedástica.
Otro test muy usado es la prueba de White (1980), mediante esta prueba se relacionan los
errores cuadráticos del modelo original con las variables explicativas en la forma siguiente:
Yi = ß0 + ß1 X1 + ß2 X2 + Ui
242
Heterocedasticidad en Modelos econométricos
U i 2 = a0 + a1 X1 + a2 X2 + a3 X1 2 + a4 X2 2 + a5 X1 X2 + vi
NR2
El valor anterior NR2, sigue una distribución chi cuadrado, de modo que si supera el valor de
la distribución al 5% existe heterocedasticidad. En este caso el R2 es bastante alto, de modo que
la relación entre el error cuadrático y las variables explicativas es alto, presentándose
heterocedasticidad.
Si el valor R2 es bajo no se tienen mayores relaciones entre el error cuadrático y las variables
explicativas, lo que indica que no existe heterocedasticidad, el indicador de varianza NR2 no
supera entonces el valor de la distribución chi cuadrado. Considere siempre que existen grados
de libertad equivalentes al número de variables independientes.
243
Heterocedasticidad en Modelos econométricos
N R2 = 20 * 0.0122 = 0.244
Cuando la varianza del modelo no es conocida (dado que con heterocedasticidad esta
varianza tiene más componentes de variabilidad), es posible hacer las siguientes relaciones:
2 correlacionado con X 2
Dado que necesitamos la desviación del modelo, esta puede aproximarse del siguiente modo:
correlacionado con X
Si la relación entre la varianza y la variable dependiente estimada existe, tal como vimos
antes, esto puede plantearse así:
correlacionado con Y’
244
Heterocedasticidad en Modelos econométricos
Entonces un paso previo para corregir la heterocedasticidad puede ser graficar el error
cuadrático contra la variable dependiente o independiente y elegir la variable donde más
correlacione, otra es usar los cálculos de correlación entre variables.
Para aplicar las correlaciones empleamos el ejemplo previo del peso y consumo de fruta,
primero veamos el modelo respectivo y luego las correlaciones, siempre usando el modelo (ii):
Como puede verse, la correlación más grande entre el error y la variable, se presenta con
Fruta 2 (que es la variable dependiente), dada la relación cuadrática, entonces la desviación
implica lo siguiente:
correlacionado con Y
Hay que notar que el modelo (iii) se estima sin constante, para poder así obtener el valor del
parámetro ß0*, ya que (1 / Y’ ) se transforma en una variable.
Donde:
Yinv, equivale a 1 / Y’
Hay que notar que el modelo no tiene constante de modo que para obtener este valor, basta
con establecer la siguiente ecuación:
ß0* [ 1 / Y’ ] Y’ = 0.91444
En el caso del valor que tiene la constante, se debe a que la varianza resultante del modelo,
genera que la estimación por MCG tenga diferencias respecto del modelo (ii) original, así el
estimador ß0* difiere del ß0 hallado originalmente con MCO.
ß1 = ∑ ( 0.0170468 * Y’ ) / 20 = 0.0306
ß2 = ∑ ( -0.4616473 * Y’ ) / 20 = - 0.8
246
Heterocedasticidad en Modelos econométricos
Una vez comprobada que el modelo MCG corrige los parámetros hay que notar que la
varianza del modelo ha cambiado, pasó de 0.7789 en el original de MCO a 0.2566 en el modelo
por MCG. Dado que en nuestro ejemplo no existe heterocedasticidad, al corregirlo en la práctica
estamos variando el error estándar de cada parámetro.
La corrección por MCG debería mejorar la prueba t de Student, siempre que el modelo inicial
presente la varianza no constante.
La estimación por MCG nos daría parámetros con varianza constante, que serían en caso de
presencia heterocedástica, los resultados mostrados en la Fig. 6.13 anterior.
Yi / i = ß0 (A / i )+ ß1 ( Xi / i ) + Uij / i (3)
La varianza conocida se refiere a que conocemos las desviaciones existentes dentro de cada
sub muestra o grupos que conforman la muestra de análisis.
Por ejemplo, si analizamos la rentabilidad de los bancos, cajas municipales, cajas rurales y
otras entidades financieras en función al tamaño o volumen crediticio, podemos hallar las
varianzas al interno de cada subgrupo, es decir la varianza en el grupo de bancos, luego la
varianza en cajas y etc, esta vendría a ser la varianza conocida del modelo.
Para ejemplificar el uso de la varianza conocida, tomemos este ejemplo de Gujarati (2004),
donde el modelo a plantear sería el siguiente:
247
Heterocedasticidad en Modelos econométricos
Tabla 6.7 Datos trimestrales para rotación de activos según rango de tamaño de activos
En buena cuenta, el tamaño de las empresas puede influenciar en la rotación de activos, que
normalmente se mide como Ventas / Activos, la rotación es un indicador importante para medir la
productividad de la empresa y es un componente de la rentabilidad sobre activos.
En este modelo tomamos el tamaño promedio para cada grupo de activos, ello para realizar
una regresión del modo más simple posible y ejemplificar el proceso de estimación.
248
Heterocedasticidad en Modelos econométricos
El modelo anterior tiene un ajuste de 2.5%, con una varianza de 0.0606 y los parámetros no
son significativos.
Ahora consideremos que existe heterocedasticidad (puede probarse la misma con los test ya
señalados antes), entonces para estimar el modelo por MCG se requiere hallar la desviación
estándar, los resultados son los siguientes:
249
Heterocedasticidad en Modelos econométricos
250 a 1000 a
Rango ! 1 a 10 10 a 25 25 a 50 50 a 100 100 a 250 1000 +
Desviación estándar 0.62 0.80 0.46 0.64 0.47 0.26 0.37
Rotac prom /desviación 11.31 9.05 15.77 11.42 16.40 28.75 19.14
1/desviación 1.61 1.25 2.16 1.55 2.14 3.90 2.74
X/desviación 1.61 2.49 6.48 6.21 10.70 23.41 19.17
Donde la desviación estándar calculada corresponde a cada grupo de datos de la tabla 6.7,
así la desviación de 0.62, equivale a la desviación estándar de la rotación trimestral para el
tamaño 1 de activos (1 a 10 millones), el calculo de la desviación se puede hacer con el comando
= desvest ( … ) de Excel ©.
Las variables para correr este modelo están en la tabla 6.9, la regresión por MCG se hace sin
constante y los resultados se muestran en la Fig. siguiente. Como puede notarse la varianza del
MCG ha pasado a ser 0.12187, ligeramente mayor lo que evidencia la no presencia de
heterocedasticidad por cuanto la varianza no se redujo.
El error estándar de la variable Tamaño para el modelo inicial por MCO es 0.0465, mientras
que con MCG el error estándar de Tamaño / i, es 0.037, la cual es menor debido a que al
ponderar la variable, hemos reducido el efecto de la varianza no constante.
La prueba t de Student para la variable tamaño mejoró notoriamente entre el modelo con
MCO y el modelo con ponderaciones o MCG.
250
Heterocedasticidad en Modelos econométricos
Fig. 6.15 Regresión MCG o MC Ponderados para la rotación versus tamaño de activos
Hay que indicar que el efecto del tamaño sobre la rotación de activos es de 0.0539, para el
caso de las variables ponderadas, el efecto es mayor a la estimación inicial de 0.0166, ello
debido a que elimina el sesgo de varianza no constante.
El modelo anterior debe estimarse mediante una regresión donde se incluya el intercepto, el
valor del intercepto será el estimador de ß1 sin el efecto de heterocedasticidad.
251
Heterocedasticidad en Modelos econométricos
Las razones de esta varianza no cambiante se basan en que la inclusión de grupos diferentes
de observaciones pueden elevar la variabilidad, piense en ejemplos donde vamos añadiendo
elementos o individuos de diferentes ingresos, diferentes niveles educativos y otras
características, ello hará que la varianza entre observaciones sea creciente o no constante.
Para evitar estos problemas se usan ponderaciones para las variables, un ponderador puede
ser la inversa de la desviación estándar del modelo (generando una variable ajustada o sin la
varianza) con ello la varianza final es la unidad, otra ponderación usada es la inversa de la
variable donde se presenta la relación con el error cuadrático (variable dependiente o
independiente), en este caso al dividir sobre la variable que crea la heterocedasticidad
procedemos a reducir el efecto.
Las estimaciones de los parámetros cuando usamos las correcciones respectivas, tienden a
ser insesgados y eficientes, pudiendo verificarse el efecto en la variable dependiente y sus
respectivos valores de t de Student.
Finalmente hay que señalar que detectar la heterocedasticidad, supone relacionar el error
cuadrático con las variables (normalmente explicativas) que existen en el modelo, para ello se
pueden emplear test diversos como el de Park, White o el de Breusch-Pagan y Godfrey.
252
Heterocedasticidad en Modelos econométricos
Preguntas de opinión
1. ¿Por qué en una serie de tiempo es menos probable que haya
heterocedasticidad?
2. ¿La heterocedasticidad puede darse por sesgo de selección? Explique.
3. La varianza del modelo heterocedástico relacionada con X en la práctica ¿qué
implicancia tiene?
4. Explique ¿Por qué la varianza podría no ser conocida en caso de
heterocedasticidad?
5. ¿Cómo se relacionan entre sí, los test de detección de heterocedasticidad aquí
estudiados?
253
Heterocedasticidad en Modelos econométricos
Caso de aplicación
Lectura previa
En el Perú, como en otros países, la oferta de microcrédito con fines de lucha contra pobreza,
se ubica generalmente dentro de la estructura de organizaciones no gubernamentales (ONG);
otras modalidades de financiamiento son de aquellas entidades que sostienen el autoempleo de
sus miembros y se denomina generalmente Cooperativas de Ahorro y Crédito, un paso más
adelante y ya en la esfera de las microfinanzas; se encuentran aquellas orientadas al crédito a
microempresas como las Entidades de Desarrollo de la Microempresa (EDPYME) y en una
escala de mayor desarrollo con créditos hacia la micro y pequeña empresa, además de cumplir
diversas funciones de la banca comercial se encuentra las Cajas Rurales y Cajas Municipales
(Jansson, 2001).
Copa et al (1995) señala además que la oferta de financiamiento hacia la pequeña empresa
peruana, también ha pasado por alianzas entre bancos tradicionales y ONGs, estableciendo una
tecnología crediticia externa al banco, es decir el seguimiento y selección lo hacen las ONG y el
banco comercial actúa como financiador (similar a la banca de segundo piso) en este caso el
riesgo se comparte entre ambas entidades y el repago es mayor dado la vigilancia permanente
de las ONG; que además despliegan en la zona múltiples actividades no sólo de crédito, sino
ayuda social en general.
El sistema de microfinanzas tiene algunas diferencias con la banca comercial, una de ellas es
que las entidades de microfinanzas no cumplen todas las funciones que la banca realiza, esto
debido a criterios regulatorios. Otra diferencia notoria son las tasas de interés cobradas, las
mismas que superan en gran medida el interés cobrado por la banca. Copa et al (1995)
manifiestan que este podría ser un aspecto positivo, ya que la pequeña empresa peruana al
financiarse a altas tasas de prestamistas informales, en realidad no tienen mucha sensibilidad al
precio y ello ayudaría a la entrada de entidades de microfinanzas a tasas relativamente altas pero
254
Heterocedasticidad en Modelos econométricos
menores a los créditos informales; permitiendo de ese modo cubrir los altos costos de monitoreo
o vigilancia del repago, dado que el seguimiento efectuado por las entidades de microfinanzas al
crédito, es personal y continuo.
En otros casos la vigilancia del repago, se ayuda de créditos solidarios o grupales, aspecto
aún presente en las realidades rurales; pero en los ámbitos de la microempresa urbana, el crédito
es una actividad personal y por ende costosa de seguir, sobre todo cuando los montos son
pequeños, en ese caso la única forma de rentabilizar a los ofertantes es sostener altas tasas de
interés (Banerjee, 2002).
Stiglitz y Weiss (1981) señalan también, que subir la tasa de interés, eleva la probabilidad de
que los clientes asuman proyectos más riesgosos y por ende generan problemas de pago, este
aspecto conocido como riesgo moral, es algo que los mercados en competencia generalmente no
tienen, por ello en estas condiciones, la oferta se raciona o restringe y se equilibra en contextos
de exceso de demanda, discriminando a los demandantes.
De acuerdo a lo anterior, Tenjo (2002) hace algunas relaciones con el mercado crediticio
colombiano, encontrando que el comportamiento de la banca comercial sigue el esquema de
racionamiento a tasas diferenciadas entre clientes, es decir la decisión bancaria no es por el
255
Heterocedasticidad en Modelos econométricos
proyecto en cuestión rentable, sino por evaluaciones hechas a la empresa, de este modo se
encuentran los clientes racionados y las tasas más altas o las que corresponden a mayores
riesgos del cliente (no el proyecto) no acceden al crédito.
No obstante esta premisa debe ajustarse, dado que las entidades de microfinanzas entran
con éxito en mercados tradicionalmente racionados. Para ello Chong y Schroth (1998) añaden el
aspecto de la reputación, algo similar a la incidencia cultural del pago ya señalada antes. Un
cliente deudor que paga sus créditos a tiempo, genera una reputación buena y en la siguiente
oportunidad incrementa su crédito.
Se puede concluir que uno de los criterios de segmentación más importantes giran en torno al
tamaño del negocio y en segundo aspecto a las relaciones que se establecen con la entidad
256
Heterocedasticidad en Modelos econométricos
financiera, las cuales pueden derivar en poca o mucha lealtad al actual ofertante de microcrédito,
desde allí podemos explorar la insatisfacción de los clientes en un mercado ya cubierto. En el
caso que esas relaciones con los ofertantes no existan, pero hay la intención del crédito,
entonces podemos derivar la parte de mercado no satisfecha actualmente.
Preguntas
257
Heterocedasticidad en Modelos econométricos
Ejercicios
Sea el modelo y = X’ β Donde X representa a una constante y una variable. Visto en
matrices, tenemos que los parámetros se estiman como: β = (X’ X) -1 X’ y
e’ e = y’ y – β X’X β e’ e = y’ y – y’ X β
Para el modelo anterior, se tienen los siguientes resultados extraídos en dos muestras con
reemplazo, los datos fueron tomados para 50 observaciones elegidas al azar:
Muestra 1 Muestra 2
X’ X = 50 300 50 300
258
Heterocedasticidad en Modelos econométricos
Referencias bibliográficas
Amorós, M. (2009) Determinantes del microcrédito y el perfil de microempresarios urbanos en las
ciudades de Chiclayo y Trujillo Perú. CIES.
Amao, J. Ogbowa. O. y Oni, O. (2005). Determinants of credit demand among rural farming
household in OSE local government area: Ondo State of Nigeria. Journal of financial managerial
and analysis. Vol. 18. Nº 2. Nigeria.
Banerjee, A. (2002). The uses of economic theory: Against a purely positive interpretation of
theoretical results. Mimeo. MIT. USA.
Breusch, T. And Pagan A. (1979) A simple test for heteroscedasticity and random coefficient
variation. Econometrica Vol. 47.
Copa, T.; Gonzáles de Otoya, G. y Linares, C. (1995). Atractivo del financiamiento a las
pequeñas y microempresas para la banca comercial privada. ESAN. Lima. Perú.
Chong, A. y Schroth. (1998). Cajas municipales, microcrédito y pobreza en el Perú. CIES. Lima.
Perú.
259
Heterocedasticidad en Modelos econométricos
Jaramillo, M. y Valdivia, N. (2005). Las políticas para el financiamiento de las Pymes en el Perú.
GRADE. Lima. Perú.
Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.
Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill.
Park, R. (1966) Estimation with heteroscedasticity error terms. Econometrica Vol. 34.
Stiglitz, J. y Weiss, A. (1981) Credit rationing in markets with imperfect information. The American
economic review. Vol. 71 Nº 3.
Tenjo, F. (2002). Stiglitz, sus aportes y la economía colombiana. Carta Financiera. ANIF
Colombia.
White, H. (1980) A heteroscedasticity consistent covariance matrix estimator and a direct test of
heteroscedasticity. Econometrica. Vol. 48.
Wooldridge, Jeffrey (2010) Econometric Analysis of cross section and panel data. The MIT Press,
Capítulos 5 y 21.
Yunus, M. (2006). Lectures in the Nobel Peace Prize 2006. Nobel Lecture. Oslo. Noruega.
260
CAPÍTULO VII
Autocorrelación de errores
261
Autocorrelación de errores
Introducción al tema
Uno de los supuestos de los modelos econométricos es que el valor esperado del error,
considerando una distribución normal de probabilidades, es cero y que sus relaciones con las
variables del modelo son equivalentes a cero o no existe covarianza alguna, asimismo el error
relacionado con su pasado es también una covarianza de cero, con ello se garantiza que los
errores son aleatorios y surgen de modelos donde el supuesto es la aleatoriedad de los datos.
En algunos modelos econométricos, los errores configuran variables de interés, que tienen
efectos en las estimaciones, por ejemplo en un modelo donde la producción es explicada por el
capital y trabajo, se asume que el error contienen la posibilidad de cambios tecnológicos (aquello
que las otras variables no explican), esos cambios no crean efectos inmediatos sino efectos
rezagados en el tiempo, siendo importante conseguir estas estimaciones, aún sabiendo que el
error no es independiente en el tiempo.
En buena cuenta la presencia de autocorrelación puede ser asumida como algo abundante
en los modelos econométricos, que puede tomarse como una forma de explicar la realidad
también o se puede corregir para realizar análisis más independientes de los efectos entre
variables dependientes e independientes.
262
Autocorrelación de errores
Lo anterior puede entenderse del siguiente modo, la demanda interna actual se relaciona en
alguna medida con la tasa de interés, sin embargo al no ser exacto hay un grado de error actual.
La demanda interna también depende del pasado de la tasa de interés, sin embargo eso
tampoco es 100% exacto, de modo que queda un error por explicar, todos los errores presentes
en estas estimaciones están relacionados, pues todos provienen de la misma variable: la tasa de
interés en el tiempo y su uso como explicador de la demanda interna.
263
Autocorrelación de errores
Las variables cíclicas o las que se mueven en conjunto con el ciclo, quizás no
presenten patrones de autocorrelación de errores, por ejemplo el menor consumo de
energía actual, implica que la producción actual está bajando, en ese caso ambas
variables se mueven al ritmo del ciclo y los errores pueden ser independientes.
- Una segunda causa de la autocorrelación son las omisiones de variables, también los
modelos con formas funcionales inexactas o estimaciones cuyas variables están
expresadas de modo incorrecto.
Y i = ß 0 + ß 1X 1 + U i (1)
Ui = ß2 X2 + ei
E Ui = ß2 E X2
264
Autocorrelación de errores
Yi = ß0 + ß1Xi + ß2X1 2 + ei
Y i = ß 0 + ß 1X i + v i
v i = ß 2X 1 2 + e i
Con lo cual la covarianza entre (ei, vi) deja de ser cero y también rompe el supuesto de
independencia de los errores.
X1 = ( Xt + Xt-1 + Xt-2 ) / 3
X2 = ( Xt -3 + Xt-4 + Xt-5 ) / 3
…
265
Autocorrelación de errores
Xk = ( Xn + Xt-n-1 + Xt-n-2 ) / 3
Para k trimestres, la sería previa va a generar de todos modos una serie suavizada
respecto a la original, con lo cual los errores tenderán a correlacionarse con la variable
dependiente, toda vez que cada media explica parcialmente su período y el siguiente.
Y t = ß 0 + ß 1X t + e t
Yt -1 = ß0 + ß1Xt -1 + e t -1
∆Y = ß1 ∆ X + vi (3)
Una aplicación de este tipo de modelos, puede ser por ejemplo, que si el tipo de cambio
(en este caso X) va subiendo respecto al período anterior (depreciación vista la moneda
como valor local o soles por dólar), entonces es probable que las reservas
internacionales (en este caso Y) puedan ir bajando respecto al nivel anterior, esto se
produce porque el Banco Central al intervenir vende moneda extranjera con fines de
atenuar la subida cambiaria.
En el caso del modelo (3) “vi” sería el error del modelo, en muestras pequeñas el valor
esperado de vi no es cero, en muestras grandes podría acercarse a cero. Cuando “vi” es
cero hablamos de un concepto llamado estacionariedad del modelo y es la base de las
estimaciones de modelos seriales en la econometría actual:
E vi = E (et - e t -1) = 0
E vi = ∑ (et - e t -1) / N = 0
E vi 2 = ∑ [ ( et - e t -1) - E ( et - e t -1) ] 2
266
Autocorrelación de errores
E vi 2 = ∑ ( et 2 - 2 et e t -1 + e t -1 2 ) / N -1- K
E vi 2 = ( ∑ et 2 + ∑ e t -1 2 ) / N -1- K
E vi 2 = 2 2
La varianza del modelo estacionario es, en buena cuenta, una constante cumpliendo
con los criterios de los modelos econométricos correctamente estimados.
- Si el error “vi” no es estacionario su varianza sería mucho más grande que la anterior y
el error “vi” deja de ser cero. Para analizar ello consideremos que el error se relaciona
hacia el pasado, en ese caso su covarianza es:
Cov (vt, vt-1) = E (et et-1 – et et-2 – et-1 et-1 + et-1 et-2)
Hay que notar entonces que la presencia de autocorrelación genera una covarianza diferente
de cero aunque constante.
Finalmente hay que señalar que la presencia de autocorrelación puede generar modelos en
diferencias, cuyos estimadores son correctos o insesgados, siempre que los errores de dicho
modelo sean estacionarios o de valor esperado cero.
Para analizar las fallas de los modelos con presencia de autocorrelación verifiquemos el
comportamiento del error, de su valor esperado y la covarianza que este error presenta con su
pasado. Comencemos con proponer el siguiente modelo genérico:
267
Autocorrelación de errores
Y t = ß 0 + ß 1X t + e t
et = Ω et-1 + ui (4)
El modelo (4) indica una autocorrelación de errores, supone que el error del período t se
relaciona con el error del período t-1, en este caso el error esperado del modelo es:
E et = et = Ω E et-1 + E ui = 0
Var et = Var ut / (1 - Ω2 )
Var et = e
2/ (1 - Ω2 ) = E et 2
Si bien se cumple que el error esperado es cero y también que la varianza previa es
constante, esta varianza se ajusta o es influenciada por el valor del parámetro del error
autocorrelacionado (Ω), lo que indica la presencia de este proceso.
Para valores positivos de Ω, note que la varianza con autocorrelación es naturalmente mayor
que la varianza de un modelo sin este problema (estimada con MCO), lo que significa que a
pesar que la varianza es constante, su mayor valor puede afectar la estimación del modelo.
Para el caso de dos períodos de rezago, la covarianza entre et y et-2 es como sigue:
268
Autocorrelación de errores
et = Ω et-1 + ui
Donde:
Para analizar estos parámetros insesgados o no, veamos los efectos de la autocorrelación en
la varianza de los mismos, esta varianza de los parámetros es importante en la significancia de
los mismos. El análisis puede plantearse del siguiente modo, en este caso para el parámetro ß1,
tomando estimaciones realizadas ya en capítulos previos:
Zt = xt / ∑xt2 Para: Yt = ß0 + ß1 Xt + ut
269
Autocorrelación de errores
Donde:
Ω 2= E (et et+1)
Ω2 2= E (et, et+2)
Var ß1 = (1 / ∑xt 2 ) 2[ 1 + 2 ( ∑xt ∑xt+1 / ∑xt+1 2 ) Ω ….+ 2 ∑xt ∑xt+n / ∑xt+n 2 Ωn - 1 ] (5)
Donde:
Otra perspectiva de las fallas ocasionadas en los parámetros, ha sido analizada por Kmenta
(1986) y Baltagi (2008), en este sentido la estimación del parámetro en un modelo con
autocorrelación, sigue el proceso siguiente: Sea un modelo donde se considera la estimación por
mínimos cuadrados generalizados, usando la correlación de errores como ponderador, se tiene:
Y t = ß 0 + ß 1X t + e t
et = Ω et-1 + ut
et = Ω (Yt-1 – ß0 - ß1Xt-1) + ut
Como puede notarse, el parámetro estimado es diferente al de MCO, aún con autocorrelación
la varianza es constante, pero influenciada por Ω (en la práctica denominado coeficiente de
autocorrelación) por ello la estimación del parámetro difiere de la hallada en MCO, sin embargo
en ausencia de autocorrelación (Ω = 0) ambos estimadores son iguales.
271
Autocorrelación de errores
Donde la ecuación (6) con un solo rezago equivale a la ecuación (5) en n rezagos.
Hay que notar que la autocorrelación genera una varianza de parámetros mayor que en
MCO, eso reduce la significancia de los parámetros. Otro detalles es que la varianza del modelo
autocorrelacionado, si bien es constante, es mayor que en MCO, ello reduce la potencia del
ajuste del modelo por lo tanto en presencia de correlación de errores, las estimaciones dejan de
ser insesgadas y el ajuste global del modelo esta sobre estimado.
Un primer paso es graficar los residuos o errores del modelo, pensemos en el siguiente
modelo de ejemplo:
En este modelo partimos del siguiente análisis: si la tasa activa en soles es creciente,
entonces los bancos tienden a pagar más por la tasa pasiva en soles, ello debido a que la mayor
demanda en el mercado crediticio eleva las tasas o por que la tasa externa es más cara. Para
lograr tener más fondos en soles o depósitos, los bancos están dispuestos a pagar una mayor
tasa pasiva ya que esos fondos son necesarios para dar créditos. Esto debe impulsar la
reducción del indicador de preferencia por circulante debido a que los agentes prefieren llevar
sus fondos al mercado bancario de depósitos.
La preferencia por circulante se define como la tasa de Circulante sobre Depósitos bancarios,
y se entiende como un componente del multiplicador bancario, ello también puede plantear la
idea de que mayor multiplicador menor tasa de interés, lo que supone que el modelo planteado
podría tener una causalidad inversa, ya hemos visto antes el tema de causalidad y bien podría
hacerse un análisis de ese tipo, sin embargo aquí partiremos de las condiciones y relaciones
entre interés activo y circulante planteada previamente.
La tasa de interés activa en este modelo, se mide en soles. Para fines de simplicidad y hallar
un parámetro de elasticidad, vamos a plantear el modelo con las variables en logaritmos. Un
análisis previo del modelo se puede realizar observando la Fig. siguiente, hay evidencias de una
272
Autocorrelación de errores
relación inversa pero tenuemente, lo que implica realizar la regresión respectiva para probar el
ajuste del modelo y luego el proceso de autocorrelación. Los resultados de la regresión son
(prueba t en paréntesis):
Fig. 7.1 Relación entre log circulante y log tasa de interés activa en soles
Fuente: BCRP
Como se puede encontrar en los resultados, la evidencia de ajuste global es pequeña, ahora
analicemos el comportamiento de los errores del modelo:
273
Autocorrelación de errores
Se nota una clara relación positiva lo que podría evidenciar la presencia de autocorrelación.
La Fig. siguiente muestra otro patrón de comportamiento, por un lado los residuos o errores del
modelo y por otro los residuos estandarizados (los residuos divididos entre el error estándar del
modelo o raíz de la varianza), se supone que el error estandarizado debe comportarse de modo
aleatorio con media cero y varianza constante, sin embargo la Fig. evidencia que tiene el mismo
patrón que el error normal, de modo que es posible la autocorrelación de errores.
274
Autocorrelación de errores
d = ∑ (et - et-1) 2 / ∑ et 2
d = ∑ ( et 2 + et-1 2 – 2 et et-1 ) / ∑ et 2
d = ( ∑ et 2 + ∑ ut-1 2 – 2 ∑ et et-1 ) / ∑ et 2
d = ( 2 ∑ et 2 – 2 ∑ et et-1 ) / ∑ et 2
d = 2 [ 1 – ∑ et et-1 / ∑ et 2 ]
Entonces:
d= 2[1 – Ω ]
El análisis de “d” presenta los siguientes escenarios, dependiendo de la correlación entre los
errores y su rezago:
Ω = -1 d=4
Ω=0 d=2
Ω=1 d=0
Finalmente hay que señalar que el Durbin Watson se analiza para modelos donde el error se
relaciona con un solo rezago, lo que se suele llamar también modelo autoregresivo de orden 1 o
AR (1).
La secuencia del valor de Durbin Watson (1951) ha sido también planteada en la Fig.
siguiente. Como puede verse hay zonas de indecisión y zonas donde se evidencia la
autocorrelación positiva o negativa, para ello hay que estimar los valores de dU y dL.
Con fines de analizar el indicador de Durbin Watson, procedemos a calcularlo del modo ya
planteado antes:
d = ∑ (et - et-1) 2 / ∑ et 2
d = 0.02728484 / 0.084980371
d = 0.321
d= 2[1 – Ω ]
0.321 = 2 [ 1 – Ω ]
Ω = 0.84
Este valor de la correlación es idéntico si hiciéramos la siguiente regresión, cuyos resultados son:
et = Ω et-1 + ut
et = 0.84 et-1 + ut
(t = 9.67)
R2 = 70.6%
Ahora usemos el valor de Durbin Watson calculado antes, para situarnos en la Fig. 7.4
necesitamos ubicar en la tabla estadística de Durbin y Watson (1951) los valores de dU y dL, los
cuales son para 41 datos (N) aunque usaremos 40 para usar la tabla y 1 variable explicativa (K):
dU = 1.544
dL = 1.442
d = 0.321
Como indica la Fig. siguiente, en nuestro modelo de ejemplo existe una autocorrelación
positiva, esto sólo confirma la evidencia previa de una correlación de 84% entre el error y su
pasado inmediato o un rezago. El indicador de Durbin Watson, como se ha visto, se estima
desde dos posibilidades, una de ellas hallando el parámetro del modelo de regresión entre el
error y su rezago o también a partir de las desviaciones entre el error y su rezago
277
Autocorrelación de errores
El indicador de Durbin Watson funciona bien para un rezago del modelo del error, pero si
tenemos p rezagos, entonces se puede plantear el modelo siguiente:
En este caso probamos dos cosas, una que el error es independiente de la variable
explicativa y dos que el error no tiene autocorrelaciones en p rezagos, esta prueba requiere
estimar el siguiente indicador:
(N – p ) R2
Que sigue una distribución chi cuadrado con p grados de libertad, apliquemos este test para
el modelo previo considerando 5 rezagos, los resultados son (prueba t en paréntesis):
et = 0.169 - 0.06 X1 + 0.702 et-1 - 0.063 et-2 + 0.271 et-3 - 0.139 et-4 + 0.09 et-5 + ut
R2 = 0.735
278
Autocorrelación de errores
Esto requiere que sepamos el valor de Ω, sin embargo este valor en la práctica no es
conocido, recuerde que hemos llegado al valor de la correlación (Ω) mediante
estimaciones del modelo de errores y su rezago. Dado esta limitación práctica,
podemos indicar que el modelo previo si bien ayuda a corregir los parámetros, su
utilidad es limitada en la medida que no conocemos la correlación.
Y * = Yt - 0.84 Yt-1
X * = Xt – 0.84 Xt-1
279
Autocorrelación de errores
Y * = ß0 (1 - Ω) + ß1 X* + ut
Y * = 0.67 + -0.329 X* + ut
(7.00) (-1.59)
d = 2.2 R2 = 6.2%
et = Ω et-1 + ut
Como hemos comprobado antes, el valor de Ω por este método fue también de 0.84,
esto nos lleva a los mismos resultados de estimación del modelo anterior.
280
Autocorrelación de errores
Un parámetro positivo (en caso el modelo sea explicativo) indica que mayores tasas de
interés activa tiene efecto positivo o alcista en el circulante, en buena cuenta hay
menos preferencia por depósitos bancarios, esto puede ser porque en el mercado en
general las tasas de rentabilidad también están subiendo y los fondos pasan del sector
bancario a sectores reales, hacia el mercado de capitales (por lo menos el private
equity o financiamiento privado) o hacia operaciones primarias fuera de bolsa.
Así como han cambiado el valor de los parámetros, de igual modo comprobamos que el
R2 ha subido, igual sucede con los valores de la pruebas t de cada parámetro, el
modelo sin autocorrelación tiene mejor ajuste y mejores indicadores de significancia del
parámetro de la variable explicativa.
et = Ω et-1 + ut
et = (1) et-1 + ut
et - et-1 = ut
Este modelo previo se conoce como de primeras diferencias y sus resultados son
(prueba t en paréntesis):
(-1.9)
d = 2.4 R2 = 8.3%
281
Autocorrelación de errores
Finalmente en este modelo, el valor del parámetro ya es significativo (al menos al 5%) y
el indicador Durbin Watson señala que no hay autocorrelación de errores, el valor
estimado de la correlación es de -20% bastante bajo para rechazar la posibilidad de
que los errores estén autocorrelacionados.
En este caso el signo del parámetro es el esperado, cumpliendo con lo que estamos
indicando en nuestro diseño teórico, que las mayores tasas en el mercado bancario
incentivan los depósitos (siempre que la tasa activa impulse la tasa pasiva) y reducen
la preferencia por circulante.
282
Autocorrelación de errores
La mayor varianza del modelo con sus errores correlacionados, implica que podemos reducir
la significancia de los parámetros y la bondad de ajuste es menor a la que esperamos, debido a
que los residuos al cuadrado mayores, reducen el peso de la suma cuadrada explicada.
283
Autocorrelación de errores
Preguntas de opinión:
1. Brinde ejemplos de modelos económicos donde es posible la autocorrelación.
2. La autocorrelación tiene varianza constante, pero ¿Por qué es ineficiente?
3. ¿Por qué la correlación entre los errores no es conocida?
4. ¿Por qué el modelo de error con su rezago no tiene constante?
5. ¿Qué significa que los errores sean estacionarios?
284
Autocorrelación de errores
Caso de aplicación
Lectura previa
La relación entre inflación y desempleo no es un análisis reciente, Sultan (1957) propone que
a medida que la sociedad requiere un menor desempleo, entonces debe estar dispuesto a
sacrificar su consumo mediante el alza de la tasa de inflación, este sacrificio no obstante es
atenuado y hasta reducido si el menor desempleo produce un crecimiento de la demanda interna.
La figura siguiente indica que conforme sube el nivel de precios, igualmente puede ir
subiendo el nivel de empleo (la llamada relación hipotética), sin embargo Sultan (1957) indica
también que hay un rango de precios tolerable máximo y de caída mínimo, en la caída también
baja el nivel de empleo, ambos casos relacionados con la mayor demanda de trabajadores en
contextos donde la demanda de bienes finales también es creciente.
285
Autocorrelación de errores
Phillips (1958) indica que los salarios crecen cuando aumenta su demanda respecto de la
oferta, en buena cuenta el salario es el precio del trabajo y se mueve según las fuerzas de
demanda u oferta laboral. Una demanda laboral mayor (con crecimiento positivo) genera un
crecimiento positivo de los salarios de modo que la relación es positiva, asimismo estos salarios
están vinculados al nivel de precios: Por ejemplo mayores niveles de precios incentivan al
empresario a producir más con lo cual sube la demanda de empleo (a la inversa baja el nivel de
desempleo) y finalmente sube el salario monetario.
Phillips (1958) plantea una relación no lineal sino más bien cuadrática, que puede plantearse así:
Y+a=BXx
En logaritmos:
En base a Phillips (1958), Samuelson y Solow (1960) plantean que la relación del desempleo
se verifica en sus efectos en la tasa de inflación, variable de mayor dinámica que la tasa de
crecimiento de los salarios.
286
Autocorrelación de errores
Preguntas
287
Autocorrelación de errores
Ejercicios
Donde:
ΔPt: Inflación en el período t, calculado como la variación porcentual (%) del índice de precios Pt
ΔPt / Π t-1: Inflación estimada para el período t, dado la influencia de toda la información
disponible en t-1, esta información se resume en el conjunto de variables Π t-1,expresado en
variación %, esta variable es condicional.
D*: Desempleo natural, una variable constante no observable, pero que puede ser estimada a
partir de la ecuación (1) aplicando regresión con constante en este modelo.
ΔPt – ΔPt / Π t-1: Representa la inflación mal estimada, si es positiva la inflación es mayor a la
estimada o a la inversa.
Dt – D*: Representa el efecto real que existe cuando se estima mal la inflación, es decir el
desempleo real supera o es menor a la tasa natural, con lo cual hay efectos en la producción.
La lógica del modelo es: En el mercado los agentes producen más que el PBI natural
(variable estable a largo plazo o el promedio de largo plazo) cuando creen que el precio será
mayor al esperado. Cuando se da esto, el desempleo se reduce por debajo del nivel natural o de
288
Autocorrelación de errores
largo plazo. Este menor desempleo incentiva la demanda y con ello crece la inflación realmente
observada. Por lo tanto β debería ser negativo.
Para fines de estimación, consideramos que el conjunto de variables Π t-1, esta representado
por la variación porcentual de la emisión primaria (M t-1) y la variación porcentual del índice de
precios internacional de combustibles (PIC t-1), los datos son los siguientes:
1 10 1000 5 5
2 11 1200 6 6
3 12 1400 7 5
4 13 1300 5 4
5 14 1500 4 3
6 15 1700 4 3
7 16 1600 5 2
8 17 1500 7 2
9 18 1800 8 3
10 19 2000 9 3
11 20 2000 13 2
Determine:
Referencias bibliográficas
Angrist, Joshua y Jorn-Steffen Pischke (2009) Mostly Harmless Econometrics. Princeton
University Press, Capítulo 4.
Breusch, T. (1978) Testing for autocorrelation dynamic linear models. Australian Economic
Papers. Vol. 17.
Godfrey, L. (1978) Testing against general autoregressive and moving average error models
when the regressor include lagged dependent variable. Econometrica. Vol. 46.
Jiménez, F. (2012) Elementos de teoría y política macroeconómica para una economía abierta.
Fondo Editorial PUCP.
Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill
Phillips, A. W. (1958). “The relation between unemployment and the rate of change of money
wage rates in the United Kingdom, 1861-1957”. Economica 25: 283-299.
Wooldridge, Jeffrey (2010) Econometric Analysis of cross section and panel data. The MIT Press,
Capítulos 5 y 21.
291
CAPÍTULO VIII
Modelos de respuesta
limitada: Probabilidad lineal y
logit
292
Modelos de respuesta limitada: Probabilidad lineal y logit
Introducción al tema
Los estudios sociales normalmente buscan explicar el comportamiento de las personas, por
ejemplo saber si alguien comprará o no un producto es importante para las empresas, esta
decisión puede enmarcarse en dos posibilidades, cero (0) si no compra y uno (1) si compra, de
modo que estos modelos se conocen como discretos ante estas opciones o limitados, por cuanto
no superan 1 y dado la variabilidad de datos, puede ser la respuesta también una probabilidad
donde si no compra es cero y si decide comprar como máximo es una decisión con 100% de
probabilidad.
En otros casos los estudios sociales pueden querer conocer por ejemplo, cual es la
probabilidad de que un hogar deje de ser pobre, o cuál es la probabilidad de ganar más, o de
obtener un empleo en el caso de individuos que buscan empleo. Todos estos estudios son
naturalmente de corte transversal, es decir provienen de información que se extrae en un mismo
momento del tiempo y por tanto están sujetos a un correcto diseño de encuestas para evitar
errores cuadráticos cambiantes o heterocedasticidad.
Los estudios con variables probabilísticas o de respuesta limitada son muy comunes en el
campo econométrico y ayudan mucho a medir los efectos de las diversas políticas de orden
social o de los diversos impulsos que se dan para que un individuo o agente económico cambie
su comportamiento, siendo muy relevantes conocer en qué casos sus respuestas son
significativas.
293
Modelos de respuesta limitada: Probabilidad lineal y logit
En cualquiera de estos casos, las variables explicativas pueden ser diversas, por ejemplo
para comprar un producto puede decidirse en función a los precios percibidos o cualidades del
producto, el empleo formal puede deberse a si el trabajador tiene calificaciones o estudios
superiores, la vivienda propia puede deberse al nivel de ingresos o tamaño familiar y si es mujer
jefa de hogar, puede deberse al grado de educación de la madre soltera.
Como se puede notar, la respuesta es simplemente una variable discreta, pero las
explicativas pueden ser variables discretas o continuas, el modelo planteado sería siempre con la
siguiente estructura:
Yi = ß0 + ß1 X1 + ß2 X2 + … + ßn Xn + ui
Donde:
Dado que la estimación de Yi es un valor esperado condicional, se puede escribir del siguiente
modo:
E (Yi = 0/ Xi ) = ß0 + ß1 X1 + ß2 X2 + … + ßn Xn + ui
E (Yi = 1/ Xi ) = ß0 + ß1 X1 + ß2 X2 + … + ßn Xn + ui
Ahora consideremos que el evento ocurre con las siguientes probabilidades, si es exitoso, la
probabilidad es 1 (Pi) y si es fracaso la probabilidad es cero (1 - Pi), lo cual se define así:
Yi = 0 Probabilidad = 1 - Pi
294
Modelos de respuesta limitada: Probabilidad lineal y logit
Yi = 1 Probabilidad = Pi
E (Yi ) = 0 * (1 - Pi ) + Pi * 1 = Pi
Pi = ß0 + ß1 X1 + ß2 X2 + … + ßn Xn + ui
Donde Pi sigue una distribución binomial que puede representarse del siguiente modo:
Donde:
Combinatoria (N, X) = N! / [ X! * ( N – X )! ]
Considere que el evento fue un fracaso es decir Pi = 0, entonces para todo valor positivo del
número aleatorio X, la distribución de probabilidad binomial arroja el valor cero. Ahora considere
que el evento fue un éxito, es decir Pi = 1, entonces el valor de la distribución binomial será
nuevamente cero.
Ahora tomemos en cuenta que las probabilidades de suceso pueden ser números entre 0 y 1,
entonces el valor de la distribución binomial, por ejemplo para 5 datos, considerando que la
variable aleatoria X es cambiante, puede representarse en la figura que sigue.
Como pueden ver, considerando que la variable aleatoria va de 0 a 5, piense por ejemplo que
el experimento consiste en sacar de una ánfora (se sacan papeletas conteniendo el DNI)
aquellas personas que están o no desempleadas, entonces el número 0 indica que no se saco
ninguna desempleada, el número 1 indica que se sacó una desempleada y así sucesivamente
hasta sacar 5 desempleados.
La probabilidad de 0.1 para este primer caso indica que existen 10% de posibilidades de
obtener un desempleado en un conjunto cualquiera de personas, piense que en el ánfora existen
100 papeletas y el experimento es sacar al menos 10 papeletas, a ver cuales son empleados o
desempleados, en el ánfora existen al menos 10 desempleados.
295
Modelos de respuesta limitada: Probabilidad lineal y logit
296
Modelos de respuesta limitada: Probabilidad lineal y logit
El valor de cada elemento de la tabla anterior, resulta del valor de la distribución binomial por
Xi, a partir de la siguiente expresión:
E (Xi = 0) = Pi * (Xi = 0)
E (Xi = 0) = 0.59 * 0
E ( Xi = 1) = 0.328 * 1
E ( Xi = 1) = 0.07 * 2
Así sucesivamente, donde el valor de la distribución binomial siguiendo la ecuación (1) para
una probabilidad de 10% (P = 0.1) es de (mostrado en la figura 8.1):
Pi (X = 0) = 0.59
Pi (X = 1) = 0.328
Pi (X = 2) = 0.07
Entonces el valor esperado X para la distribución binominal con P=0.1, resulta en:
E X ( P = 0.1) = ∑ Pi Xi = 0.5
E X ( P = 0.2) = ∑ Pi Xi = 1
297
Modelos de respuesta limitada: Probabilidad lineal y logit
EX=N*P
Donde N es el número de datos y P es la probabilidad de éxito, en este caso 0.1, 0.2, 0.3 y
0.5, como las usadas en la tabla anterior. Si estuviéramos sólo con una distribución dicotómica
discreta, conocida como distribución de Bernoulli, el valor esperado de X es:
EX=P
Varianza = E (X 2) - ( E X) 2
Los valores de la distribución binomial estimados usando la ecuación (1), se multiplican ahora
por Xi 2, estos resultados son sumados para cada nivel de probabilidad, por ejemplo para P = 0,1,
la suma resulta 0.70, lo que equivale al valor esperado: E (X2), esto se resta de la esperanza de
X cuadrática (E X) 2 estimada antes, con lo cual la varianza estimada y la desviación estándar se
muestran en el cuadro previo.
Los resultados estimados equivalen a decir que la varianza estimada de una distribución
binomial es:
298
Modelos de respuesta limitada: Probabilidad lineal y logit
Varianza X = N * P * (1 – P)
Varianza X = P * (1 – P)
Finalmente hay que señalar, que la distribución binomial que sigue una variable cualquiera,
en estos modelos dicotómicos, tiene una distribución de probabilidad acumulada, mostrada en la
figura siguiente.
299
Modelos de respuesta limitada: Probabilidad lineal y logit
Pi = ß0 + ß1 Xi + ui
Donde:
El modelo indica que si la inversión mejora, entonces se tendrá superávit del gobierno, si la
tasa de inversión privada cae, se tendrá un déficit primario. La figura siguiente ilustra el
comportamiento de las variables en el caso de Perú para los años 2009 a 2014.
Fig. 8.3 Resultado primario (0 déficit, 1 superávit) del Gobierno central e inversión privada
(% del PBI) trimestral 2009-2014
300
Modelos de respuesta limitada: Probabilidad lineal y logit
La figura previa indica que los resultados superavitarios del gobierno central (la variable toma
valor 1), tienden a relacionarse con un crecimiento de la inversión privada trimestral, lo cual
probaremos estimando los parámetros respectivos (prueba t en paréntesis):
Pi = -1.286 + 0.09 X1 + ui
(-1.87) (2.708)
R2 = 0.314
El modelo indica que el ajuste es de 31% y el parámetro X1 (la inversión privada sobre PBI)
es significativo pues tiene un valor t de 2.7, ahora veamos si el modelo presenta evidencias de
heterocedasticidad, para ello tomemos la siguiente figura:
Fig. 8.4 Error cuadrático (ui2) versus inversión privada sobre PBI (X)
La figura previa muestra una potencial heterocedasticidad, de modo que debemos corregir el
modelo, tomando en cuenta los cálculos de la desviación estándar de cada Pi estimado.
301
Modelos de respuesta limitada: Probabilidad lineal y logit
Para las correcciones consideramos, tal como muestra la tabla siguiente, que las
probabilidades estimadas (Yi’) negativas no serán tomadas en cuenta, toda vez que no existen en
el espacio binominal o discreto.
Pi ‘ = Yi corr = ß0 + ß1 Xi corr + ui
Donde:
302
Modelos de respuesta limitada: Probabilidad lineal y logit
Los resultados del modelo corregido son los siguientes (usando constante pero puede
correrse sin constante, lo cual ajusta más el modelo, la prueba t está en paréntesis):
(-9.81) (23.53)
R2 = 0.97
Como indica la versión corregida del modelo (sin heterocedasticidad), el parámetro constante
y la pendiente se han ajustado a la baja (tienen menos varianza), así encontramos que la
inversión privada sobre PBI (%) tiene un efecto de 0.05 en la probabilidad de que el gobierno
tenga un resultado primario positivo (1% de crecimiento de la inversión privada eleva 5% la
probabilidad de superávit).
Ambas variables son significativas y el ajuste del modelo es 97%. Con lo cual los resultados
son de mejor explicación y ajuste que el modelo anterior, producto de que ahora tenemos
variables corregidas sin el efecto de la varianza. Hay que notar que Yi es discreto o sigue la
distribución de Bernoulli, mientras que Yi’ es continuo y sigue una distribución binominal, siendo
una versión ajustada del primero, pero de mayor consistencia.
- En las colas de atención normalmente los usuarios llegan concentrados por horas, por
ejemplo primeras horas de la mañana o últimas horas de la tarde. Las teorías de colas
recogen este comportamiento a través de distribución de datos tipo Poisson.
- En los estudios sobre nivel educativo, es más probable encontrar individuos con
estudios básicos antes que superiores. Del total de población existente, las mayorías
se concentran estudios primarios y secundarios, mientras que la minoría se concentra
303
Modelos de respuesta limitada: Probabilidad lineal y logit
en estudios técnicos superiores y un grupo más reducido son los que siguen estudios
universitarios.
Fig. 8.5 Perú: Distribución de Ingresos por hogar 2013 (%) en soles netos por mes
40
30
Percent
20 10
0
La figura anterior indica una concentración de datos hacia la izquierda, es decir hacia la parte
baja de ingresos, esto no es evidentemente una distribución normal, lo cual limita las
304
Modelos de respuesta limitada: Probabilidad lineal y logit
estimaciones de mínimos cuadrados, en estos casos inclusive los errores no siguen una
distribución normal.
Existe además secuencias de datos que no son necesariamente dicotómicas, por ejemplo si
tomamos como variable dependiente el nivel educativo, este puede tomar valores desde 0 a 1, 2,
3… y sucesivamente, donde 3 puede ser primaria completa. En este caso tenemos modelos de
tipo multinomial, cuya estimación supera los modelos de probabilidad lineal ya vistos
previamente.
Una forma de resolver los problemas previos, es plantear un modelo de distribución de datos
logística o Logit, en este tipo de distribución la probabilidad de éxito cambia lentamente conforme
la variable aleatoria se acerca a cero, lo mismo sucede si la variable es muy grande.
305
Modelos de respuesta limitada: Probabilidad lineal y logit
Como indica la figura analizada, el modelo de probabilidad lineal puede dar estimados que
superan a 1 o son menores que cero, sin embargo el modelo logit esta diseñado para ser
acotado entre 0 y 1, además es no lineal en X o la variable explicativa.
A partir de la figura anterior tenemos que las probabilidades de éxito Pi y de fracaso (1 - Pi)
son:
Pi = 1 / [ 1 + e – (ß0 + ß1 Xi ) ]
1- Pi = 1 - 1 / [ 1 + e – (ß0 + ß1 Xi ) ]
1- Pi = [ 1 + e – (ß0 + ß1 Xi ) – 1 ] / [ 1 + e – (ß0 + ß1 Xi ) ]
1- Pi = e – (ß0 + ß1 Xi ) / [ 1 + e – (ß0 + ß1 Xi ) ]
1- Pi = 1 / [ e (ß0 + ß1 Xi ) + 1 ]
Pi / (1 – Pi ) = ( 1 / [ 1 + e – (ß0 + ß1 Xi ) ] ) / (1 / [ e (ß0 + ß1 Xi ) + 1 ] )
Pi / (1 – Pi ) = e (ß0 + ß1 Xi )
Pi / (1 – Pi ) = e Z est
En logaritmos:
Ln [ Pi / (1 – Pi ) ] = ß0 + ß1 Xi
306
Modelos de respuesta limitada: Probabilidad lineal y logit
De modo que la estimación del modelo econométrico es una función de tipo logística.
Consideremos que la función de distribución probabilística logit (la versión acumulada de la figura
anterior) es:
En este caso contamos con una variable aleatoria Y con “n” datos o elementos, que toma
valores entre 0 y 1, estos valores son para un conjunto de probabilidades Pi y (1 - Pi ), de modo
que la función previa es un producto de todas las distribuciones, note que la función logit tiene
mucho parecido con la binomial, donde:
= ∑ [ Yi Ln Pi + Ln (1 – Pi ) - Yi Ln (1 – Pi ) ]
= ∑ [ Yi (Ln Pi + Ln (1 – Pi ) + Ln (1 – Pi ) ]
= ∑ [ Yi Ln ( Pi / Ln (1 – Pi ) ) + Ln (1 – Pi ) ]
∂ Ln L / ∂ ß0 = 0
∂ Ln L / ∂ ß0 = ∑ Yi - ∑ ( ß0 + ß1 Xi ) = 0
∑ Yi - N ß0 + ß1 ∑ Xi = 0
307
Modelos de respuesta limitada: Probabilidad lineal y logit
N ß0 = ∑ Yi - ß1 ∑ Xi
E ß0 = Ym - ß1 X m
Donde:
Ym: es la media de Y
Xm: es la media de X
Hay dos formas de ver el modelo logit, una es el logit agrupado y la otra es el logit binomial
(cuando la variable dependiente toma valores entre 0 y 1).
En el caso del logit agrupado, se tiene el ejemplo siguiente, que plantea analizar la relación
entre la capitalización de una empresa que cotiza en bolsa y su respectiva rentabilidad,
para ello se requieren los datos siguientes:
Capitalización Miles
Sector Empresa Soles (Xi) Total empresas (Ni) Rentables (ni)
AFP Integra 55,467 4 1
Habitat 43,826 0
Prima 255,392 1
Profuturo 181,26 1
Agrarias Paramonga 332,709 18 0
Pucalá 208,822 0
Laredo 347,479 1
San Jacinto 119,501 1
308
Modelos de respuesta limitada: Probabilidad lineal y logit
Capitalización Miles
Sector Empresa Soles (Xi) Total empresas (Ni) Rentables (ni)
Cartavio 232,772 1
Casa Grande 774,957 1
Chucarapi 56,220 0
Andahuasi 227,462 0
Chiquitoy 888 1
Salamanca 40,027 0
La Unión 2,559 0
San Juan 60,000 1
Sintuco 34,599 0
Cayaltí 18,857 0
Pomalca 64,957 0
Tumán 28,749 0
Ingenio 43,699 0
Fanupe 2139 0
Fuente: BVL 2014
Considere ahora la tabla siguiente, donde se cuenta con datos reales y datos hipotéticos
(debido a que algunas empresas no tienen información del último año al estar en
reorganización). La tabla 8.4 es la fuente para las dos primeras filas de AFP y empresas
agrarias, el resto de datos fueron añadidos, de ese modo se construye la tabla para tener un
logit de tipo agrupado.
Con fines de tener un dato que represente la variable Xi agrupada, se ha tomado el valor
de mercado o capitalización bursátil más alta por sector, este dato es tomado de la Bolsa de
Valores de Lima (BVL) y se hace considerando que la variabilidad en los tamaños de
empresas es muy alto, de modo que el promedio puede ser un mal referente del grupo, no
309
Modelos de respuesta limitada: Probabilidad lineal y logit
obstante la posibilidad de que el logit agrupado sea heterocedástico es alta para cualquier
tipo de estos modelos.
Tabla 8.5 Tabla de datos sobre rentabilidad de empresas para modelo logit
Sector Capitalización más alta (Xi) Total empresas (Ni) Rentables (ni) * Pi
AFP 255,392 4 3 0.75
Agrarias 774,957 18 6 0.33
Bancos 24,086,035 31 22 0.71
Diversas 6,435,524 68 41 0.60
Fondos de inversión 91,071 9 3 0.33
Industriales 5,285,275 47 19 0.40
Mineras 8,411,631 43 19 0.44
Seguros 348,384 18 5 0.28
Servicios 9,371,780 29 21 0.72
* Datos hipotéticos
Pi = ni / Ni
En este caso se tiene la probabilidad de que haya empresas rentables en cada sector o
actividad económica, en función a la capitalización bursátil, el modelo finalmente será:
Li = Ln [ Pi / (1 – Pi ) ] = ß0 + ß1 Xi
Para esta estimación tenga en cuenta que no hay constante, consideremos la tabla siguiente
con toda la información necesaria para ello:
310
Modelos de respuesta limitada: Probabilidad lineal y logit
Tabla 8.6. Estimación del Logit para la rentabilidad de empresas según capitalización
En la tabla anterior, se ha tomado como varianza del modelo logit agrupado, la siguiente
expresión (note que es similar al modelo binomial) que sería la inversa de la varianza del
error (ui):
En base a la tabla anterior, se hizo una regresión de mínimos cuadrados ponderados (ya
que tanto Li como Xi han sido ponderados con wi 0.5) los resultados son los siguientes:
Los resultados de la regresión por Logit Agrupado indican que la variable capitalización
bursátil (equivale también al valor y tamaño de la empresa), tiene un efecto positivo (aunque
pequeño) en el logaritmo ponderado que mide la probabilidad de ser rentable, para cada
sector analizado con los datos de la tabla 8.5 (algunos datos hipotéticos).
311
Modelos de respuesta limitada: Probabilidad lineal y logit
El logit (Li) ponderado se obtiene usando los resultados de la regresión del logit agrupado,
mientras que el Logit estimado (Li ’ ), se obtiene del siguiente modo:
Li ‘ = Li ponderado / wi 0.5
La estimación del Logit Agrupado, puede realizarse mediante el programa Stata ©, para
ello hay que cargar los datos respectivos mediante la opción de importación, en el cuadro de
variables deben aparecer X, N y n, tal como se muestra en el Data Editor del programa (click
en el menú Browse):
312
Modelos de respuesta limitada: Probabilidad lineal y logit
Fig. 8.7 Data Editor en Stata con variables necesarias para un Logit Agrupado
Una vez cargado los datos, se coloca en Do-file Editor la sentencia para el logit agrupado
del siguiente modo:
blogit N, n X
Está indicando que se agrupan los datos por N, con n sale la probabilidad (P i) y X es la
variable explicativa, los resultados en Stata se muestran en la figura siguiente, note que es
muy aproximado al cálculo manual que hemos realizado, debido al mayor uso de dígitos por
parte del programa:
313
Modelos de respuesta limitada: Probabilidad lineal y logit
. blogit n N X
Los resultados señalan que la variable X es significativa (z con una probabilidad cercana a
cero) y también es significativa la constante, se tiene un Seudo R2 de 2.9%, indicador que
veremos en la sección final de este capítulo.
El logit individual puede ser binominal (para una respuesta dicotómica) o multinomial
(respuestas discretas), para cada elemento de la variable independiente se estima la
probabilidad respectiva usando la variable tal cual se obtiene en la muestra de información,
no se hacen agrupamiento de datos ni se obtiene probabilidades ex - ante, las estimaciones
se hacen directamente con las variables dependiente e independiente.
El modelo indica que la nota final o promedio final de un curso actual (Nota_final),
depende del promedio inicial (Promed_inicial) que obtiene el alumno (es decir el promedio
que obtuvo en el período anterior en cursos relacionados o requisitos), otra variable que
314
Modelos de respuesta limitada: Probabilidad lineal y logit
influye en la nota final es la Nota de diagnóstico (Nota_diagn) o prueba de entrada del alumno
en el curso, donde se evalúa si conoce los temas o materias necesarias y llevadas
previamente para estudiar el curso actual y finalmente la última variable influyente es si el
profesor aplica metodologías activas en el aula (Aplica_met), por ejemplo uso de internet,
multimedia, debates, trabajos y otros que involucran al alumno fuertemente.
Tabla 8.8 Datos para el modelo logit explicativo de la nota final de un curso
24 3.51 26.00 1 0
25 3.54 24.00 1 1
26 2.83 27.00 1 1
27 3.39 17.00 1 1
28 2.67 24.00 1 0
29 3.65 21.00 1 1
30 4.00 23.00 1 1
31 3.10 21.00 1 0
32 2.39 19.00 1 1
Fig. 8.9 Resultados Logit individual modelo para estimar la Nota Final
. logit Nota_final Promed_inicial Nota_diagn Aplica_met
316
Modelos de respuesta limitada: Probabilidad lineal y logit
Como puede verse la estimación es bastante sencilla y permite señalar al menos usando la
probabilidad (P > z), que las variables significativas son el Promedio inicial (0.025 dentro del
5% de rechazo de la hipótesis nula), Aplica metodología y la constante. La variable Nota
diagnóstico no es significativa. En buena cuenta si el alumno tiene un buen promedio (señal
de que se preocupa por cumplir lo requerido en sus cursos) es probable que apruebe el curso
siguiente, esto se refuerza si el profesor aplica metodologías activas.
Id Z est e z est Pi
1 -3.60 0.03 0.03
2 -2.76 0.06 0.06
3 -1.47 0.23 0.19
4 -3.63 0.03 0.03
5 0.28 1.33 0.57
6 -3.32 0.04 0.03
7 -3.60 0.03 0.03
8 -2.91 0.05 0.05
9 -2.08 0.13 0.11
10 0.82 2.26 0.69
11 -3.69 0.03 0.02
12 -1.45 0.23 0.19
13 -0.74 0.48 0.32
14 -1.43 0.24 0.19
15 -0.57 0.56 0.36
16 -3.47 0.03 0.03
317
Modelos de respuesta limitada: Probabilidad lineal y logit
De acuerdo con la tabla previa, el primer entrevistado tiene una probabilidad de aprobar el
curso de 3%, el segundo tiene una probabilidad de 6% y así sucesivamente, el último
entrevistado tiene una probabilidad de aprobar el curso actual, de 11%.
Podemos observar que las probabilidades suben conforme va subiendo el promedio inicial,
por ejemplo la probabilidad de aprobar el curso para un promedio inicial de 2.06 es de 6%
(véase el entrevistado 21), mientras que la probabilidad de aprobar el curso para quien
obtuvo un promedio inicial de 4 es de 57%, reflejando las relaciones que se establecen del
modelo.
318
Modelos de respuesta limitada: Probabilidad lineal y logit
Para ello usemos el mismo ejemplo del caso anterior, para empezar los parámetros de un
modelo logit se analizan con el ratio z, que se estima del siguiente modo:
z = ßi / SE (ßi)
Si este valor tiende a cero, entonces cae en la región de rechazo de la hipótesis nula, que
indica que el parámetro es igual a cero. De este modo los coeficientes del modelo y sus
respectivos valores z son:
Error
variable Parámetro estándar Valor Z Ratio Wald
Promed_inicial 2.826113 1.26 2.24 5.01
Nota_diagn 0.095158 0.14 0.67 0.45
Aplica_met 2.378688 1.06 2.23 4.99
Constante -13.021350 4.93 -2.64 6.97
El valor “z” debe superar a 2 para poder indicar que la variable es significativa, en el ejemplo
trabajado, la variable Nota_diagn no es significativa.
El ratio Wald es el valor z 2, indica que la distribución de los parámetros sigue una secuencia
t 2,
por lo que el valor crítico será 4, de modo que si el valor calculado supera a 4, se puede decir
que tenemos un variable significativa.
Otros indicadores que ayudan a entender la importancia y el impacto de los parámetros son el
ratio ODDS y los efectos marginales.
Efecto
Variable Ratio ODDS marginal
Promed_inicial 16.87971 0.3626
Nota_diagn 1.099832 0.0122
Aplica_met 10.79073 0.3052
319
Modelos de respuesta limitada: Probabilidad lineal y logit
ODDS = e ß
Los efectos marginales indican como impacta cada parámetro en la estimación final de la
probabilidad, así el parámetro Promedio inicial impacta en la probabilidad de aprobar el curso en
36%, mientras que el parámetro Nota diagnóstico sólo impacta en la probabilidad de aprobar en
un 1%. Finalmente el parámetro aplica metodología, impacta en la probabilidad de aprobar en un
30.5%, de este análisis la variable de mayor impacto en e modelo es el Promedio Inicial.
Veamos la tabla siguiente donde se muestra el cálculo de los efectos marginales para cada
entrevistado y el promedio mostrado:
320
Modelos de respuesta limitada: Probabilidad lineal y logit
Donde los efectos marginales (como cambia la probabilidad ante cambios en X) individuales
se calculan del siguiente modo:
Donde:
Z = ßi Xi
∂Z / ∂Xi = ßi
Pi = 1 / [ 1 + e – Z ]
∂Pi / ∂Z = e – Z / ( 1+ e – Z ) 2
Pi * ( 1 - Pi ) = ( 1 / [ 1 + e – Z ] ) ( 1 – (1 / [ 1 + e – Z ] )) = e – Z / ( 1+ e – Z ) 2
321
Modelos de respuesta limitada: Probabilidad lineal y logit
Con las estimaciones anteriores, podemos señalar que los efectos marginales individuales
(para cada variable explicativa del modelo) resultan en:
ßi * Pi ( 1- Pi )
Otros valores que nos ayudarán a estimar indicadores de ajuste del modelo son los
estimados de las funciones logit de verosimilitud que ya hemos visto anteriormente. Así se
cuentan con dos estimados, uno es L (M), donde M indica el máximo número de iteraciones
realizadas para el modelo y el otro es L(0) para la iteración de inicio.
Delta-method
dy/dx Std. Err. z P>|z| [95% Conf. Interval]
Cada iteración en la función de verosimilitud, supone el uso de los parámetros del modelo, así
podemos señalar que:
322
Modelos de respuesta limitada: Probabilidad lineal y logit
Σ Yi * Ln Pi + (1 - Yi ) * Ln (1 - Pi )
Yi = e Zi = 0.000002213
Como vemos el resultado es una constante. Con esos datos nos aproximamos al valor de L (0),
que en el modelo resultó - 20.59. Donde Pi proviene de la tabla 8.9.
L(5) la máxima iteración lograda en el modelo de ejemplo, se estimó considerando que es:
Σ Pi * Ln Pi + (1 - Pi ) * Ln (1 - Pi )
Donde:
Pi = e Z / (1+ e Z )
El valor de Z incluye todos los parámetros del modelo, la tabla 8.9 ya muestra los cálculos de
Pi, en este caso sólo se ha procedido a hallar los logaritmos y ponderarlos. Con estos datos el
valor de L(5) para las iteraciones realizadas con todos los parámetros fue de -12.88.
[ Pi Ln Pi ] +
Pi Ln Pi Ln (1 - Pi) Pi Ln Pi (1- Pi )( Ln (1 - Pi)) [ (1- Pi )( Ln (1 - Pi)) ]
0.03 -3.628 -0.027 -0.096 -0.026 -0.123
0.06 -2.822 -0.061 -0.168 -0.058 -0.226
0.19 -1.675 -0.207 -0.314 -0.169 -0.482
0.03 -3.653 -0.026 -0.095 -0.026 -0.120
0.57 -0.562 -0.844 -0.320 -0.363 -0.683
0.03 -3.356 -0.035 -0.117 -0.034 -0.151
0.03 -3.630 -0.027 -0.096 -0.026 -0.122
0.05 -2.965 -0.053 -0.153 -0.050 -0.203
0.11 -2.197 -0.118 -0.244 -0.105 -0.349
0.69 -0.366 -1.183 -0.254 -0.362 -0.616
323
Modelos de respuesta limitada: Probabilidad lineal y logit
Hay que notar que L(4) y L(5) muestran el mismo valor, esto indica que la función de
verosimilitud en realidad hizo 4 combinaciones de las variables explicativas, quedándose con
aquella que dio el máximo valor (son números negativos) y que corresponde al empleo de todas
las variables del modelo.
Esto indica que las variables independientes explican la probabilidad de aprobar el curso en
37.4%, hay que indicar que en modelos de este tipo, es adecuado inclusive si logramos ajustes
de 30 a 40%.
En este caso el R2 de Cox Snell indica que el modelo es explicado en un 38% por las
variables independientes, este valor es algo mayor al Seudo R2, por tanto tiene más holgura al
ponderarse por el número de datos.
R2 Nagelkerke = 0.5278
325
Modelos de respuesta limitada: Probabilidad lineal y logit
En este capítulo se ha abordado el diseño de los modelos de probabilidad lineal y logit, en ambos
casos se recurre a estos modelos debido a que las distribuciones de probabilidad de las variables
aleatorias de interés, puede no ser normal, de modo que los parámetros deben ser estimados
considerando las distribuciones de Bernoulli o Binomial y la distribución logit.
Ante este problema se plantean distribuciones acotadas entre 0 y 1, conocidas como funciones
Logit, estas funciones crecen lentamente en torno a cero y uno, pero se desplazan rápidamente o a
ritmo continuo en medio de esos datos, por lo cual tienen mejor poder explicativo que el modelo
binomial o de Bernoulli.
En un modelo logit se puede tener variables dependientes dicotómicas conocidas como logit
binomial o variables de respuesta discreta lo que se conoce como logit multinomial.
La estimación de los modelos logit puede ser mediante dos mecanismos, uno de ello es el logit
agrupado en donde es necesario conocer la variable explicativa (o variables) y también conocer la
estructura de la variable dependiente, esto es cuántos elementos de interés hay para cada set o
conjunto de respuestas o características de la variable. Por ejemplo cuantos tienen casa propia de
un total de hogares para cierto nivel de ingresos, o cuál es la rentabilidad de las empresas que
cotizan en bolsa para cada sector económico según el tamaño de las empresas.
En esos casos de datos agrupados se puede estimar este tipo de logit, aunque las respuestas
dada la presencia de heterocedasticidad (note que en cada grupo hay desviaciones y en el total se
amplifican) tienen que ser corregidas y estimar un logit agrupado bajo el método de mínimos
cuadrados ponderados (es decir usando la desviación estándar como ponderador).
Otro modelo aplicable es el logit individual, en este caso la estimación es directa para cada
elemento de la muestra de análisis, hay que notar que la variable dependiente es un ratio de
probabilidad de éxito sobre fracaso, con lo cual el valor estimado debe ser computado hasta hallar la
probabilidad requerida.
326
Modelos de respuesta limitada: Probabilidad lineal y logit
Los modelos Logit tienen indicadores de ajustes global como el R2 de Mc Fadden, o el de Cox
Snell, ambos indican el grado de explicación de las variables independientes sobre la variable
respuesta. Los parámetros se validan mediante un ratio “z” de distribución o el ratio Wald, asimismo
se procura estimar los impactos de cada parámetro mediante los efectos marginales, que miden cual
es la variable de mayor efecto en la probabilidad estimada.
327
Modelos de respuesta limitada: Probabilidad lineal y logit
Preguntas de opinión
1. Diseñe un logit agrupado para medir la productividad agrícola.
2. Diseñe una encuesta breve para un logit individual que mida las causas del
desempleo temporal.
3. ¿El logit es mejor que el modelo de probabilidad lineal?
4. ¿Cuándo usar un logit multinomial?
5. Explique ¿Por qué el test de Wald debe ser mayor a 4?
328
Modelos de respuesta limitada: Probabilidad lineal y logit
Caso de aplicación
Lectura previa
Zegarra et al (2007) encontraron una asociación positiva entre la actividad minera y los gatos
e ingresos de las familias urbanas, pero no se encontraron efectos en las familias rurales, no
obstante ellos afirman que si es posible encontrar menor pobreza en zonas donde hay actividad
minera comparada con zonas donde no existe dicha actividad.
Las evidencias por zonas indican que la sierra norte ha tenido mejoras de ingreso, mientras
que la sierra sur se ha visto afectada con mayor pobreza. Ahora en el caso de los hogares
estudiados por Zegarra et al (2007), se hallan evidencias de impacto positivo de la minería en
aquellos hogares donde el jefe tienen mayor nivel educativo, mientras que en grupos de mayor
pobreza y vulnerabilidad (menos calificación) el impacto de la minería puede ser hasta negativo.
En el caso del norte, Aragon y Rud (2009) encuentran que el efecto de la minería es concreto,
ellos hallan incrementos del ingreso de 1.7% relacionado con al menos 10% de las compras que
las empresas mineras realizan en la región o distrito de influencia, en esa línea dicha mejora de
los ingresos sustenta un aumento del bienestar y reducción de la pobreza.
Estudios de Macroconsult (2012) indican que la minería si impacta en la pobreza, así zonas
con actividad minera comparables con otras que no lo son, tienen menores índices de pobreza,
los efectos son mayores si se trata de la gran minería, mientras que la pequeña minería apenas
genera una reducción de pobreza de 1.4% entre hogares no pobres y pobres.
329
Modelos de respuesta limitada: Probabilidad lineal y logit
Es posible que el desarrollo humano, junto a la salud de los trabajadores formales informales
vinculados al rubro minero, se deterioren e inclusive pueden surgir actividades ilegales en torno a
la minería que generan empleos precarios y de alto contagio de enfermedades.
Hay efectos más institucionales por ejemplo en la corrupción local, o en la solidez de las
finanzas locales, por ejemplo la minería eleva los precios de los alimentos y otros bienes,
además de afectar el valor de la moneda local, esto puede ser el lado negativo del incremento de
los ingresos, considerando además que las poblaciones locales sufren evidentes cambios en sus
perfiles socio culturales.
Preguntas
1. ¿Cómo diseñaría un modelo (o modelos) LOGIT para medir los efectos de la minería
en los hogares, incluya las variables a usar?
2. ¿Cómo tomaría la información o que fuentes de datos necesita?
3. ¿Qué valores o signos deben tener los parámetros para explicar el efecto de la
minería en los hogares?
330
Modelos de respuesta limitada: Probabilidad lineal y logit
Ejercicios
Si consideramos que la tasa de interés en moneda extranjera para un país cualquiera sube,
entonces esto promueve la entrada de capitales y el tipo de cambio expresado en la moneda
local debería bajar (por ejemplo en soles por dólar). Al revés, menores tasa de interés por la
moneda extranjera suponen que el tipo de cambio debe subir en moneda local, esto se da por la
salida de moneda extranjera del país.
En buena cuenta, si las tasas de interés se reducen, es más probable que suban los tipos de
cambio en moneda local o que la moneda local se deprecie.
Donde F se expresa en dólares por sol y S también, F es el tipo de cambio esperado, así un
crecimiento de la tasa en moneda extranjera implica una caída de F (cae en dólar por sol), lo que
a su vez indica un alza de la moneda en soles por dólar. Esto valida la intuición de la salida de
capitales por menor rendimiento local frente a la moneda extranjera (medido en tasas de interés
pasivas).
Y=a+bX+e
Donde Y es la probabilidad lineal de que suba el tipo de cambio en dólares por sol, en buena
cuenta la probabilidad de que (F/S) sea creciente. Considere que Y es 1 si F es creciente o tiene
variación porcentual positiva (indicando lo que en economía se denomina apreciación del sol o de
la moneda local pues requiere más moneda extranjera por unidad) y cero de no ser así. Esto
puede expresarse del siguiente modo también:
Donde:
331
Modelos de respuesta limitada: Probabilidad lineal y logit
X es el ratio entre (1+ i en moneda local) sobre (1+ i en moneda extranjera), entonces si el ratio
sube, la probabilidad de que el tipo de cambio F (respecto a S), suba es creciente o tiende a 1. Si
no sucede esto la probabilidad sería cero. En resumen alzas del interés local, elevan la
probabilidad de que el sol se aprecie.
Datos a usar:
332
Modelos de respuesta limitada: Probabilidad lineal y logit
Fuente: BCRP
Preguntas
• Considere los datos siguientes y estime el modelo previo, analice si se cumple la intuición
aquí señalada o si requiere algunos ajustes al modelo.
• Si el modelo es poco explicativo, ¿qué otras variables pueden explicar la probabilidad de
que el sol se aprecie?
333
Modelos de respuesta limitada: Probabilidad lineal y logit
Referencias bibliográficas
Aragon, F. Rud., J. (2009) The blessing of natural resources: Evidence from Peruvian gold mine.
DT 2009-015. BCRP.
Cox, D. R., and E. J. Snell. 1989. The Analysis of Binary Data, 2nd ed. London: Chapman and
Hall.
Hausman, R. Hwang, J. and Rodrick, D. (2005) What your export matters. NBER Working Papers
11905.
Imbs, J. and Wacziarg, R. (2003) Stages of Diversification. American Economic Review. Vol. 93
Issue 1.
Johnston, J. and Dinardo, J. (1997) Econometric Methods. Fourth Edition. Mc Graw Hill
Mc Fadden, D. 1974. Conditional logit analysis of qualitative choice behavior. In: Frontiers in
Economics, P. Zarembka, eds. New York: Academic Press.
Rodrick, D. And Mc Millan, M. (2012) Globalization, structural change and Economic Growth.
NBER Working Papers 17143.
334