MULTICOLINEALIDAD
MULTICOLINEALIDAD
MULTICOLINEALIDAD
CALLAO
MUTICOLINEALIDAD
4. Ejercicios de aplicación
Bibliografía
INTRODUCCION
La multicolinealidad se origina por la presencia de cierto grado de asociación entre las variables
explicativas de un modelo econométrico. En la práctica, esta es una característica de modelos
basados en información observable, puesto que la total independencia matemática de las
columnas de la matriz de regresores necesitaría que sean ortogonales entre sí, situación que es
improbable entre series de datos reales. Por lo que, ello exigiría encontrar total interdependencia
entre las columnas de la matriz de regresores.
En conclusión, la presencia de multicolinealidad, es un problema de grado.
Bajo el supuesto de no multicolinealidad entre los regresores de un modelo de regresión, en esta
separata consideraremos el supuesto de no multicolinealidad buscando respuestas a lo siguiente:
Naturaleza de la multicolinealidad, será realmente un problema, cómo se detecta y corrección del
problema de multicolinealidad.
1. LA MULTICOLINEALIDAD
Causas de la multicolinealidad.-
- Inclusión de variables irrelevantes: al incluir variables irrelevantes, se eleva la
probabilidad de colinealidad.
- Inclusión de muchos rezagos de una variable explicativa producirá alta colinealidad,
por lo que es recomendable hacer una evaluación del número de rezagos óptimo.
- Las variables económicas suelen tener una marcada tendencia en el tiempo: cuando
las variables explicativas presentan una fuerte tendencia procíclica o anticíclica,
estarán altamente correlacionadas.
Consecuencias de la multicolinealidad.-
- La varianza dl estimador MCO de beta, es más grande con relación a una situación sin
multicolinealidad, la distribución t, que prueba la significancia individual de los
coeficientes, sigue siendo válida.
- Dado que, Var (beta)=ʛ²(X´X)¯¹ si /X´X/ tiende a cero, entonces, (X´X)¯¹ tiende al
infinito, por lo que la Var(beta) se eleva. Esto implica que los parámetros san
estimados con muy poca precisión, sus intervalos de confianza serán más amplios y
tenderán a ser estadísticamente no significativos, aumentará la probabilidad de
aceptar la hipótesis nula (error tipo II).
- Dado que las variables explicativas están muy correlacionadas entre sí, las covarianzas
entre los estimadores MCO de beta, tiende a ser muy alta. Por lo que se dificulta
separar el efecto en la variable dependiente que es atribuible a cada variable
explicativa.
- Las altas covarianzas entre los estimadores MCO, ocasiona una alta inestabilidad en
los valores estimados, es decir, pequeños cambios muestrales (inclusión o exclusión de
una variable explicativa, adición o sustracción de pocas observaciones) produzcan
grandes cambios en los estimadores de beta asociados a las variables colineales, pero
sin afectar a los estimadores de las variables no colineales.
Y= bo+b1X1+b2X2+b3X3
- Test de Farrar-Glauber
Esta prueba permite un contraste más formal de la hipótesis de multicolinealidad y
consta de tres enfoques complementarios.
ii) Test F
Se busca determinar qué regresor se encuentra más colineado con los demás,
para ello, se utilizan regresiones auxiliares de cada variable Xi, versus el resto
de variables explicativas.. Deberá observarse el coeficiente de determinación
de cada regresión y tomar nota del R cuadrado estimado más alto:
Test t.-
Se calcula la matriz de coeficientes de correlación entre las variables
explicativas y se escoge el más alto de ellos (r máximo).
Ho: r máximo igual a cero
H1: r máximo diferente de cero
T= r máx √(n-k) /√ (1-r máx)
Donde:
T valor estimado de prueba t
K es el número de variables asociadas a pendientes.
Regla de decisión.-
Si t mayor que t crítico, se rechaza la Ho (la variable Xi está colineada con la
variables Xj. El grado de multicolinealidad es alto.
Ejemplo:
Se desea estimar los gastos en transporte(GT) de un grupo de 100 trabajadores, para
lo cual se divide e año entre el número de días trabajados por el trabajador (W), el
número de días de descanso médico (M) y el número de días no trabajados por otras
razones(O). El promedio de días trabajados es 242.7, el de descanso médico es 2.1 y el
de ptros días no trabajados es de 102.2.
GTt= -9.6 + 2.10Wt + 0.45Ot
ee 1.98 1.77
t 1.06 0.25
R²= 0.72 Fcal= 124.7
El estadístico t de ambos coeficientes de regresión son bajos, y no es posible
rechazar la hipótesis nula de que los coeficientes son cero. Por lo que,
aparentemente GT no son explicados por W y O.
El R² es alto
El estadístico F es 124.7, frente a F(2,97) .Por lo que se rechaza la hipótesis
nula(Ho:beta₂=beta₃=0)
La aparente contradicción entre los resultados de las pruebas t y F, se deben a la
colinealidad entre W y O, toda vez que 365=W+M+O En el modelo no hay
colinealidad perfecta porque se ha excluído la variable M.
3. Corrección del problema
- Fundamentada en el principio de comenzar con un modelo que incluya todas las
variables explicativas disponibles eliminar una por una las variables hasta que el grado
de multicolinealidad se reduzca al nivel deseado, por lo que habrá que eliminarse
primero aquellas variables más correlacionadas con el resto.
La implementación del procedimiento puede conseguirse mediante la estimación de
un índice auxiliar de colinealidad promedio para cada variable. Este coeficiente puede
calcularse así:
k
Colinealidad promedio (Xi)=∑ |correlación (Xi,Xj)|/k
J=1
king de regresores. De acuerdo con esta metodología, aquellos que tengan una ma-
Antes de dar cada paso de la eliminación, debe aplicarse un test apropiado para validar
- Tansformación de variables.-
Si se dispone de información de series de tiempo de variables que tienden a moverse
en la misma dirección, Una forma de minimizar esta dependencia es trabajar con la
ecuación en primeras diferencias. De esta manera, se reduce frecuentemente la
severidad de la correlación. El modelo así corregido no presentará intercepto el
término de perturbación, tiene problemas de correlación serial.
Otra transformación es la de la razón entre las variables explicativas más asociadas, lo
cual podría generar heteroscedasticidad.
Ft=-1.988398+0.039502PFt-0.000777PBt+1.770237log(Yd)t-3.14E-05CAT-0.355258D66
t 1.273645 -0.038453 0.945333 -0.957715 -1.006054
Ho=beta₅≥0
Ft=7.961108+0.027993PF+0.004692PB+0.360363logYd)-0.124462D66t
t 0.981075 0.242675 0.312010 -0.483211
R²= 0.722869 Fcal=13.04200 ProbF= 0.000022
=-0.124462/0.257573= -0.483210585
tcrít 96gl= 1.661. Como tcal beta₅ no es menor que tcrít, no es posible rechazar la
4. Ejercicios de aplicación
logY=2.81-0.53logK+0.9logL+0.047t
Rcuadrado=0.97 Fcalculado=189.8
Bibliografía
Juan Castro, Econometría aplicada.. Universidad del Pacífico, 1ra. Edic., 2010
Damodar Gujarati, Econometría. Mc Graw Hill, 5ta. Ed., 2010
Juan Pichihua, Econometría: Teoría y aplicaciones. Universidad Nacional Agraria La
Molina.
Jeffrey Wooldridge, Introducción a la econometría. Thomson, 2001.