Resumen Cap 9 y 10 PARA ALUMNOS 360534
Resumen Cap 9 y 10 PARA ALUMNOS 360534
Resumen Cap 9 y 10 PARA ALUMNOS 360534
“ECONOMETRÍA”
<Cuarta Edición>
<Damodar Gujarati>
RESUMEN CAP. 9
Con a y b constante D = 1 ó 0*
*No debemos confundirnos con el hecho de que las variables dicotómicas siempre tomen valores 1 ó 0. Al cumplir
las restricciones de la ecuación anterior podrían tomar otros valores sin que por ello dejen de ser dicotómicas
Dichas variables son llamadas dicotómicas y son excluyentes entre sí. Entre los modelos más
conocidos por emplear tales variables se encuentra por ejemplo el modelo de análisis de
varianza o tabla ANOVA. Por ejemplo, si quisiéramos saber la producción promedio anual de
cobre en las mineras estatales de las zonas Norte, Centro y Sur de Chile podríamos utilizar un
modelo de tabla ANOVA desarrollando la siguiente ecuación:
D2i: 1 si la región está en la zona norte del país, 0 si está en cualquier otra zona
D3i: 1 si la región está en la zona sur del país, 0 si está en cualquier otra zona
Sin embargo, dada la tecnología disponible hoy en día tenemos herramientas para no caer en la
trampa de la multicolinealidad al agregar tantas variables dicotómicas como números de
categorías de la variable. Lo anterior puede ser evitado eliminando el término de intersección
de la ecuación, con lo cual igualmente podríamos obtener los valores medios de las distintas
categorías.
D2i: 1 si la región está en la zona norte del país, 0 si está en cualquier otra zona
D3i: 1 si la región está en la zona sur del país, 0 si está en cualquier otra zona
También podemos encontrar modelos ANOVA con 2 variables cualitativas, en el cual debemos
poner especial énfasis al momento de determinar a la categoría que se está considerando como
categoría base, ya que todas las comparaciones se llevaran a cabo respecto a dicha
comparación. Si nos confundimos en este punto, el modelo presentará errores y no será fiable.
Son una generalización de los modelos ANOVA y proporcionan un método para controlar
estadísticamente los efectos de las variables cuantitativas o variantes de control. Esto podría
aplicarse al ejemplo anterior si añadiéramos al modelo una variable cuantitativa X como podría
ser por ejemplo el gasto efectuado por el gobierno en subsidios a proyectos mineros. Dado lo
anterior el modelo quedaría así:
D2i: 1 si la región está en la zona norte del país, 0 si está en cualquier otra zona
D3i: 1 si la región está en la zona sur del país, 0 si está en cualquier otra zona
Con lo que podemos ver que añadimos al modelo una variable cuantitativa como lo es el gasto
en subsidios mineros efectuados por el estado.
Con lo anterior lo que básicamente hace este tipo de análisis es el eliminar la heterogeneidad
causada en la variable dependiente al añadir variables cuantitativas o covariables.
Como se vio antes, la prueba de Chow es un elemento que sirve para examinar la estabilidad
estructural del modelo de regresión, sin embargo, no establece de manera precisa cual es el
coeficiente, intersección o pendiente que es distinta. Ante esto y a modo de comparación
podemos ver que el método de la variable dicotómica corrige esas falencias además de
presentar otras ventajas tales como:
Por lo cual como se puede apreciar, el modelo posee muchas más ventajas que la prueba de
Chow que nos pueden simplificar mucho más el análisis además de arrojar resultados mucho
más exactos.
Gracias a la flexibilidad que presentan las variables dicotómicas es que las podemos utilizar en
una gran cantidad de problemas de aplicación práctica ya que no considera solamente el efecto
de 2 atributos de manera individual o en forma aditiva, sino que considera el producto entre
estas 2 variables dicótomas con lo cual el resultado final es más exacto, con lo cual lo podemos
aplicar a problemas tales como podrían ser por ejemplo la influencia del sexo en los salarios, o
la influencia de la raza en los salarios, e incluso la influencia de ambos atributos en conjunto en
base al salario. Con lo anterior podemos ver que gracias a este modelo podemos identificar de
manera clara el comportamiento de los atributos combinados cosa que no podríamos hacer de
emplear otro modelo meramente aditivo.
Como sabemos las series de tiempo son utilizadas para determinar el comportamiento de una
variable a través del tiempo, tales como las ventas durante un año, la cantidad de
precipitaciones (lluvia) en un país a lo largo del año, entre otras. Sin embargo, es común ver que
en estas series de tiempo se presentan muchos patrones estacionales en los datos, por ejemplo
el nivel de lluvia caída en un país es muy superior en invierno que en verano, por lo cual se hace
necesario utilizar una herramienta para solucionar este problema.
Lo anterior puede ser evitado mediante el método de las variables dicotómicas, con las cuales
podemos desestacionalizar o ajustar estacionalmente los datos a fin de poder concentrarnos en
otros componentes tales como la tendencia.
Existe otro tipo de regresiones lineales denominada regresión lineal por sectores, en la cual la
regresión no se comporta de igual manera a lo largo de su curva, sino que existen segmentos en
los cuales la influencia de las variables aumenta generando un cambio en el comportamiento de
la regresión. Lo anterior se puede clarificar mediante el siguiente ejemplo:
En una fábrica de zapatos se asignan bonos de producción a los trabajadores si es que estos
cumplen con una meta de producción, por ejemplo, si se llega a una producción mensual de
1.000.0000 de zapatos, los trabajadores tendrán un bono extra de $ 100.000 pesos. Si la
producción llega a ser de 1.500.000 zapatos, el bono extra será de $ 200.000.
Como vemos este es un claro ejemplo de regresión lineal por secciones ya que la recta no se
comporta uniformemente durante toda su trayectoria, sino que existen lapsos donde esta se
quiebra y aumenta repentinamente.
Como pudimos ver en capítulos anteriores, el modelo anterior sólo lo podíamos aplicar si la
variable regresora es cuantitativa, sin embargo, si tenemos una variable dicótoma en un modelo
que presente problemas de este tipo como podría ser una distinción en el salario dependiendo
del sexo del trabajador como el siguiente :
Entonces lo que debemos hacer es obtener el antilogaritmo de β1 para obtener de esta manera
la mediana del salario y si tomamos el antilogaritmo de (β1+ β2 obtendríamos la mediana de los
salarios por hora solucionando el problema de la dicotomía.
Si queremos examinar las regresiones entre 2 variables como por ejemplo podrían ser el ahorro-
ingreso para Chile entre 2 periodos, para evitar el problema de la heteroscedasticidad debemos
primero que todo estar seguros de que las varianzas en el subperiodo son iguales, lo cual puede
ser fácilmente remediado mediante la prueba f. Sin embargo, debemos destacar que estas
técnicas no son del todo infalibles pero que en los capítulos siguientes del libro Gujarati se hace
un estudio más profundo del tema.
No se hace referencia a ese punto en este capítulo, sino que se hablara más detalladamente en
el capítulo destinado a autocorrelación.
CONCLUSIONES FINALES:
Las variables dicótomas que tienen valores de 0 y 1, permiten introducir variables cualitativas en
el análisis de regresión.
1°, si la regresión contiene un término constante, el número de variables dicótomas debe ser
menor que el número de clasificaciones de cada variable cualitativa.
2°, el coeficiente que acompaña las variables dicótomas siempre debe ser interpretado en
relación con el grupo base. (Esta base dependerá del propósito de la investigación).
Finalmente podemos concluir que durante esta sección se analizaron las diversas aplicaciones
de las variables dicótomas:
RESUMEN CAP. 10
Naturaleza de Multicolinealidad:
Multicolinealidad significa que hay una relación lineal perfecta o “menos que perfecta” entre las
variables regresoras lo cual violaría el supuesto 10 del MCLR que establece que no hay
multicolinealidad. Se dice que hay relación lineal perfecta si:
Luego, se verifica que también es indeterminada. Esto ocurre porque, como y son
perfectamente colineales, es imposible hacer variar una de las variables y al mismo tiempo
mantener constante la otra. A medida que cambia, también lo hace por el factor .
Por lo general, no existe dicha relación lineal exacta entre las variables “X”, y la
Multicolinealidad perfecta es algo difícil de tener, es un extremo patológico.
No se puede descartar a priori, que la ecuación anterior pueda ser estimada. Salvo caso en que
sea cercano a cero llegaríamos al caso indeterminado.
1°. El insesgamiento es una propiedad multimuestral, o sea, manteniendo fijas las “X”, si se
obtienen muestras repetidas y se calculan los estimadores MCO, para cada una de estas
muestras, el promedio de los valores muestrales se aproximará a los verdaderos valores
poblacionales, a medida que aumente el número de muestras. Pero esto ni dice nada respecto a
las propiedades de los estimadores.
3°. La multicolinealidad es un fenómeno esencialmente muestral. Esto porque si bien las “X” de
la población no estén linealmente relacionadas, podrían estarlo en la muestra disponible. Es
posible que la muestra no sea lo suficiente rica para acomodar las variables X a favor del
análisis, sin colinealidad.
Es así que a pesar de que los estimadores MCO sean MELI, y existiendo multicolinealidad sea
poco consuelo.
Detección de la multicolinealidad:
Medidas correctivas:
En que P e I están correlacionados. Luego se puede estimar uno de los coeficientes haciendo la
siguiente regresión:
3. Eliminación de una variable y sesgo de especificación: esto puede ayudar a tener variables
estadísticamente significativas. Pero esto puede derivar en un sesgo de especificación por
eliminar una variable que es necesaria para el modelo. Supongamos que el modelo correcto es:
Si se resta:
Otra alternativa que se puede usar es la transformación de razón que queda como sigue:
5. Datos nuevos o Adicionales: una solución puede ser simplemente aumentar el tamaño de la
muestra o escoger otra muestra.
Ahora bien, cuando el objetivo de la regresión no apunta solamente a predicción, sino también
a predicción confiable de parámetros, la presencia de alta multicolinealidad puede ser un
problema, porque conduce a grandes errores estándar en los estimadores.
CONCLUSIONES FINALES:
1°. En términos simples, la multicolinealidad se refiere a una situación en la cual existe relación
lineal exacta o aproximadamente exacta entre las variables “X”.
- Si existe colinealidad perfecta entre las X, sus coeficientes serán indeterminados, y errores
estándar no están definidos.
Así, los valores poblacionales de los coeficientes no pueden estimarse en forma precisa.
3°. Una vez detectada la multicolinealidad, existen algunas reglas practicas para deshacerse del
problema:
4°. Si la estructura colineal continúa en alguna muestra futura, sería peligroso utilizar para fines
de predicción una regresión estimada, que contiene multicolinealidad.