Multicolinealidad 2

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 34

MULTICOLINEALIDAD

Multicolinealidad perfecta
Multicolinealidad imperfecta
Causas
Consecuencias
Métodos para detectarla
Formas de actuar
Multicolinealidad perfecta
En los modelos clásicos se supone que no existen, entre los regresores,
relaciones lineales exactas; es decir, que ningún regresor es una
combinación lineal exacta de los demás.

Hipótesis de rango pleno: Rg (X) = k + 1 < T. Donde T —número de filas— es


mayor que k+1 —número de columnas—, luego el máximo rango posible es
K+1.
1 𝑥11 𝑥21 . 𝑥𝑘1
1 𝑥12 𝑥22 . 𝑥𝑘2
𝑋= . . . . .
. . . . .
1 𝑥1𝑇 𝑥2𝑇 . 𝑥𝑘𝑇

Si no se cumple esta hipótesis se dice que existe Multicolinealidad perfecta


(Rg (X ) < k +1 ). Es lo que sucede si se introducen en la ecuación variables
redundantes, variables de las cuales se puede prescindir sin que el modelo
pierda capacidad para explicar el comportamiento del regresando.

2
Consecuencias
El Rg (X )< k+1  Rg(X´X) < k+1 por lo tanto la matriz X´X no puede invertirse.

Los EMCO(b) son indeterminados y sus varianzas infinitas.

Ejemplo:
Se especifica un modelo para explicar la inversión privada (INV) en función
del consumo (CON), del ahorro (AHO) y de los ingresos familiares (ING).

𝐼𝑁𝑉𝑖 = 𝛽0 + 𝛽1 𝐶𝑂𝑁𝑖 + 𝐴𝐻𝑂𝑖 + 𝐼𝑁𝐺𝑖 + 𝜀𝑖

En este modelo existe multicolinealidad perfecta puesto que:

𝐶𝑂𝑁𝑖 + 𝐴𝐻𝑂𝑖 = 𝐼𝑁𝐺𝑖 ∀𝑖

Solución
La multicolinealidad perfecta es más un problema teórico que real, porque
puede resolverse prescindiendo del regresor que la provoca.

3
Multicolinealidad imperfecta
En general, los regresores de un modelo econométrico son variables
económicas, que son más o menos multicolineales, de manera que aunque
entre ellos no existan relaciones lineales exactas, sí pueden existir relaciones
lineales más o menos intensas.

Las hipótesis del MRLNC se siguen cumpliendo por lo que los estimadores
MCO están determinados y conservan sus buenas propiedades estadísticas.
Sin embargo, pueden no ser buenos estimadores debido a las consecuencias
que pueden derivarse de la existencia de relaciones lineales intensas entre
los regresores del modelo.

La distinción importante no es entre presencia y ausencia de


multicolinealidad, sino entre si ocasiona o no un problema.

4
Multicolinealidad imperfecta — Causas
La aparición del problema está, habitualmente, relacionada con alguna de
las siguientes CAUSAS:

1. La inclusión en el modelo de REGRESORES QUE MANTIENEN


RELACIONES DE CAUSALIDAD, relaciones teóricas de causa y efecto.

Ejemplo:
Gasto en calefacción de los hogares españoles = f (número de
miembros, tamaño de sus viviendas)

Tamaño de las viviendas = f (número de miembros de las familias)

5
Multicolinealidad imperfecta — Causas
La aparición del problema está, habitualmente, relacionada con alguna de
las siguientes CAUSAS:

2. La inclusión en el modelo de REGRESORES que están RELACIONADOS


POR CASUALIDAD, que no dependen uno del otro, sino que ambos están
relacionados con una tercera variable y es por eso por lo que están
relacionados entre sí. Esta situación es muy frecuente en los modelos
temporales, porque muchas variables económicas siguen líneas de
tendencia comunes.
Ejemplo:
Empleo hostelería = f (superficie forestal quemada)
Habitualmente hay una elevada correlación positiva entre estas dos
variables porque sus valores máximos y mínimos están en los mismos
trimestres del año.

Nº nacimientos = f (nidos de cigüeñas)


Los valores de ambas variables dependen de la extensión de la
localidad.
6
Multicolinealidad imperfecta — Causas
3. La inclusión en un modelo de regresión con ordenada en el origen de algún
regresor que se mantiene aproximadamente constante a lo largo de la
muestra.
Si todos los valores de este regresor son aproximadamente iguales a su
media, sus observaciones son aproximadamente proporcionales a las del
regresor ficticio.

Ejemplo:
Consumo de los hogares = f (ingresos, tamaño) con datos atemporales
para las diferentes regiones de un país desarrollado. En este caso es
probable que la variable ‘tamaño de las familias’ presente una escasa
variabilidad a lo largo de la muestra.

7
Multicolinealidad imperfecta — Consecuencias

Como la multicolinealidad aproximada no supone el incumplimiento de la


hipótesis de rango pleno (ni de ninguna otra de las hipótesis del modelo
clásico), en ausencia de otros problemas, los estimadores mínimo
cuadrático ordinarios pueden obtenerse y, además, siguen siendo los ELIO
de los parámetros del modelo, y sus varianzas estimadas son insesgadas.

Sin embargo, que los estimadores MCO sean los ELI de mínima varianza
no garantiza que sus varianzas sean pequeñas. Son las menores posibles,
pero pueden ser elevadas.

8
Multicolinealidad imperfecta — Consecuencias
1. Varianzas grandes de los estimadores
La varianza de un estimador cualquiera 𝑏𝑖

𝜎2
𝜎𝑏2𝑖 = 𝜎 2 𝑥 𝑖𝑖 =
σ𝑇𝑡=1 𝑥𝑖 − 𝑥ഥ𝑖 2 (1 − 𝑅𝑖2 )

Variación de la variable 𝑥𝑖 Coeficiente de determinación de la


a lo largo de la muestra regresión de 𝑥𝑖 sobre los restantes
regresores del modelo

• Cuanto mayor es la variación total de 𝑥𝑖 en la muestra, menor


es la varianza de 𝑏𝑖
• Cuanto mayor es el coeficiente de determinación de la
regresión que explica el comportamiento de 𝑥𝑖 en función del
resto de los regresores del modelo, mayor es la varianza del
estimador 𝑏𝑖 .

9
Multicolinealidad imperfecta — Consecuencias

Si las varianzas de los estimadores son elevadas, también los serán sus
estimaciones (𝑆𝑏2𝑖 ) y, en consecuencia:
• Los intervalos de confianza definidos para los parámetros serán
amplios.
• Los estadísticos 𝑡𝑖 que se utilizan para contrastar las hipótesis de
nulidad individual de los parámetros serán pequeños.

Estas circunstancias favorecen la decisión de no rechazo de las hipótesis de


nulidad individual de los parámetros aún cuando las variables a las que
acompañen sean relevantes.

Es bastante habitual que, aunque las variables explicativas no se muestren


individualmente relevantes, la hipótesis de nulidad conjunta de los
coeficientes angulares se rechace a niveles de significación muy reducidos.

10
Multicolinealidad imperfecta — Consecuencias
2. Inestabilidad de los estimadores y de sus desviaciones típicas estimadas
ante pequeñas variaciones muestrales.

Puede suceder que pequeñas variaciones muestrales generen


variaciones importantes en los valores de los estimadores MCO y de sus
desviaciones típicas estimadas.

3. Dificultad para interpretar los coeficientes 𝜷 y, por tanto, sus


estimaciones.

𝑏𝑖 es el efecto estimado, por término medio, en ‘y’ de una variación


unitaria en xi suponiendo que las restantes variables explicativas no
varían, pero si las variables son colineales —varían a la vez— no es
posible aislar su efecto suponiendo que se mantienen constantes las
demás.

11
Multicolinealidad imperfecta — Consecuencias
4. Puede no tener efecto negativos sobre la predicción.

Siempre y cuando, además del modelo, también se mantengan estables las


relaciones entre los regresores.

12
Multicolinealidad imperfecta — Métodos para
detectarla
Los programas estadísticos y econométricos de uso habitual no indican
explícitamente la existencia de multicolinealidad imperfecta. Aunque el
grado de dependencia lineal entre los regresores del modelo sea muy
elevado, la matriz X´X es invertible y, por tanto, se puede estimar por
mínimos cuadrados ordinarios.

La multicolinealidad es una característica de las muestras y no de las


poblaciones ya que hace referencia a la condición de las variables
explicativas que —bajo las hipótesis del MRLNC— son no estocásticas. Por
consiguiente, para su detección, no se realizan contrastes de hipótesis con
los que puedan obtenerse conclusiones claras.

Para analizar si el grado de multicolinealidad existente es lo suficientemente


elevado como para ocasionar un problema hay un conjunto de reglas
prácticas, más o menos útiles según los casos:

13
Multicolinealidad imperfecta — Métodos para
detectarla
1. Análisis de los resultados de la estimación.

Un primer signo de alerta sobre la presencia de multicolinealidad entre los


regresores de un modelo, son los resultados de la estimación: modelos
fuertemente explicativos —coeficiente de determinación alto— , con
parámetros no significativos individualmente —varianzas estimadas de los
estimadores elevadas— y sí en su conjunto y, posiblemente, con
coeficientes estimados que presenten signos inadecuados.
Esta circunstancia no siempre se da en la práctica ya que no todas las
variables consideradas tienen por qué estar altamente correlacionadas.
En las aplicaciones empíricas es bastante habitual que el valor del
coeficiente de determinación sea bastante elevado y algún/os
regresor/es no se muestre/n individualmente relevante/s.

En este caso, una forma de analizar la capacidad explicativa de la


variable no significativa es estimando un modelo de regresión
lineal simple en el que ésta sea la única explicativa.
14
Multicolinealidad imperfecta — Métodos para
detectarla
Si 𝑡𝑖 < 2 y 𝑅2 es elevada lo más probable es que exista un elevado grado de
multicolinealidad.

𝑆𝐶𝐸
𝑅2 = 1 − SCE es pequeña
𝑆𝐶𝑇
𝑏𝑖
𝑡𝑖 = Si 𝑡𝑖 < 2 se debe al elevado valor de 𝑆𝑏𝑖
𝑆𝑏𝑖

𝑆𝐶𝐸 Por lo tanto el elevado valor de la


𝑆𝑏2𝑖 = 𝑆 2 𝑥 𝑖𝑖 = 𝑥 𝑖𝑖
𝑇 −𝑘 −1 varianza estimada de los estimadores
es debido al elevado valor de xii, por lo
que probablemente exista un elevado
Si SCE es pequeña, S2 es pequeña grado de multicolinealidad.

15
Multicolinealidad imperfecta — Métodos para
detectarla - Ejemplo
Modelo de ventas en función de la renta de los consumidores y los gastos de
publicidad 𝑉𝑡 = 𝛽0 + 𝛽1 𝑅𝑡 + 𝛽2 𝐺𝑃𝑡 + 𝜀𝑡

Signo de 𝑏2 es contrario a lo
esperado

Ninguna de las explicativas se muestran Las explicativas son


individualmente relevantes conjuntamente relevantes
𝑃𝑟𝑜𝑏 𝑡1 = 0,2571 𝑃𝑟𝑜𝑏 𝐹 = 8,93 𝑒 − 06
𝑃𝑟𝑜𝑏 𝑡2 = 0,6538

16
Multicolinealidad imperfecta — Métodos para
detectarla - Ejemplo
Al estimar dos regresiones simples, las variables son individualmente
relevantes y el signo de los estimadores es correcto.

Modelo de ventas en función de la renta de los consumidores


𝑉𝑡 = 𝛽0 + 𝛽1 𝑅𝑡 + 𝜀𝑡

Signo de 𝑏1 es correcto

La explicativa es individualmente relevante 𝑃𝑟𝑜𝑏 𝑡1 = 5,33 𝑒 − 07

17
Multicolinealidad imperfecta — Métodos para
detectarla - Ejemplo
Modelo de ventas en función de los gastos en publicidad
𝑉𝑡 = 𝛽0 + 𝛽1 𝐺𝑃𝑡 + 𝜀𝑡

Signo de 𝑏1 es correcto

La explicativa es individualmente relevante 𝑃𝑟𝑜𝑏 𝑡1 = 9,8 𝑒 − 07

18
Multicolinealidad imperfecta — Métodos para
detectarla
2. Análisis de los coeficientes de correlación lineal simple entre las variables
explicativas del modelo
Valores de 𝑟𝑖𝑗 próximos en valor absoluto a
𝐶𝑜𝑣(𝑥𝑖 , 𝑥𝑗 ) la unidad, indican una fuerte relación lineal,
𝑟𝑖𝑗 = lo cual significa la existencia de un elevado
𝑆𝑥𝑖 𝑆𝑥𝑗 grado de multicolinealidad, pero ésta no
siempre tiene importantes consecuencias
negativas sobre los resultados de la
estimación.
|𝑟𝑖𝑗 | ≃ 1 las varianzas estimadas de los estimadores podrían no se
demasiados elevadas si 𝑆 2 es pequeño y/o la variación muestral de
𝑥𝑖 es elevada.
Por tanto, valores elevados de los coeficientes de correlación lineal
simple no siempre implican valores altos de las varianzas y valores
pequeños de dichos coeficientes podrían relacionarse con valores
elevados de las varianzas.

19
Multicolinealidad imperfecta — Métodos para
detectarla
Hay que tener en cuenta que:

𝑆2
𝑆𝑏2𝑖 2 𝑖𝑖
=𝑆 𝑥 =
σ𝑇𝑡=1 𝑥𝑖 − 𝑥ഥ𝑖 2 (1 − 𝑅𝑖2 )

Si 𝑆 2 es pequeño y/o σ𝑇𝑡=1 𝑥𝑖 − 𝑥ഥ𝑖 2 es elevada, aunque 𝑟𝑖𝑗 ≅ 1, las varianzas


estimadas de los estimadores pueden no ser demasiado elevadas.
Si 𝑆 2 es elevado y/o σ𝑇𝑡=1 𝑥𝑖 − 𝑥ഥ𝑖 2 no es suficiente, aunque 𝑟𝑖𝑗 ≅ 0 , las
varianzas estimadas de los estimadores pueden ser elevadas.

20
Multicolinealidad imperfecta — Métodos para
detectarla
𝐶𝑜𝑣(𝑅, 𝐺𝑃)
𝑟𝑅,𝐺𝑃 = = 0,998
𝑆𝑅 𝑆𝐺𝑃

|𝑟𝑅,𝐺𝑃 | ≃ 1 → las variables renta y gastos en publicidad son altamente


colineales

21
Multicolinealidad imperfecta — Métodos para
detectarla
3. Cuando existe multicolinealidad, alguno de los regresores es función lineal de
los restantes más una perturbación.
Para detectarla, puede efectuarse la regresión de cada regresor sobre los
demás y obtener el valor del R2 de cada regresión. Si algún R2 está próximo a la
unidad, existe multicolinealidad elevada.

22
Multicolinealidad imperfecta — Métodos para
detectarla
4. Calculando el valor que toma el determinante de la matriz de correlación de
las variables explicativas 𝑅𝑋

Matriz de correlación —𝑅𝑋 — es una matriz cuadrada de orden k, cuyos elementos


son los coeficientes de correlación lineal simple entre las variables explicativas.

𝑟11 𝑟12 ⋯ 𝑟1𝑘 1 𝑟12 ⋯ 𝑟1𝑘


𝑟21 𝑟22 ⋯ 𝑟2𝑘 𝑟21 1 ⋯ 𝑟2𝑘
𝑅𝑋 = ⋯ ⋯ ⋯ ⋯ =
⋯ ⋯ ⋯ ⋯
𝑟𝑘1 𝑟𝑘2 ⋯ 𝑟𝑘𝑘 𝑟𝑘1 𝑟𝑘2 ⋯ 1

Si 𝑅𝑋 = 0 → multicolinealidad perfecta
Si 𝑅𝑋 = 1 → ortogonalidad

El grado de multicolinealidad será tanto más elevado, cuanto más próximo esté
a 0, el determinante de 𝑅𝑋 .

23
Multicolinealidad imperfecta — Métodos para
detectarla

𝑟11 𝑟12 1 0,998


𝑅𝑋 = 𝑟 𝑟22 =
21 0,998 1

𝑅𝑋 = 0,04 → Elevado grado de multicolinealidad

24
Multicolinealidad imperfecta — Métodos para
detectarla
5. Análisis del factor de inflación de la varianza —𝐹𝐼𝑉—
Es la razón entre la varianza estimada de 𝑏𝑖 y la que le correspondería en el
supuesto de que 𝑥𝑖 no estuviese correlacionada con las restantes explicativas
del modelo.
1
𝐹𝐼𝑉𝑖 =
1 − 𝑅𝑖2

Cuanto mayor es este cociente, mayor es el grado de multicolinealidad.

Inconveniente: no hay un criterio estricto para establecer el valor a partir del


cual se considera que existe un elevado grado de multicolinealidad.
Si 𝑅𝑖2 > 0,9 → 𝐹𝐼𝑉 > 10
Un FIV alto no es condición necesaria ni suficiente para que las varianzas
estimadas de los estimadores tomen un valor elevado.

25
Multicolinealidad imperfecta — Métodos para
detectarla

1
𝐹𝐼𝑉 = = 36,9 > 10
1 − 0,997252

26
Multicolinealidad imperfecta — Formas de actuar
Cuando la multicolinealidad es elevada y tiene importantes consecuencias
negativas sobre los resultados de la estimación no existe una única forma de
actuar, sino que existen distintas soluciones, dependiendo de la causa que la
provoca.
Incluso, en algunos casos, puede ser preferible no intentar corregirla y
simplemente tenerla en cuenta al interpretar los resultados.
La solución al problema de la multicolinealidad puede resultar poco o nada
satisfactoria cuando lo que se pretende es describir y cuantificar la relación
existente entre el regresando y los regresores.

Entre las formas de actuar más habituales ante la presencia de un elevado grado
de multicolinealidad, están:

27
Multicolinealidad imperfecta — Formas de actuar
1. Omitir del modelo la variable causante de la multicolinealidad
Se puede optar por esta alternativa si:
a. El coeficiente estimado que acompaña a esta variable tiene signo
contrario al esperado.
b. La omisión de este regresor no modifica significativamente el ajuste
global.

Inconvenientes
a. Puede causar el incumplimiento de las hipótesis relativas al
comportamiento de la perturbación aleatoria.
b. Incremento de la varianza de la perturbación.
c. Puede ocasionar el sesgo y la inconsistencia de los EMCO.

28
Multicolinealidad imperfecta — Formas de actuar
2. Incorporar al modelo una ecuación adicional que recoja la relación causal que
existe entre las explicativas
Se puede optar por esta alternativa si:
La multicolinealidad es causada por la existencia de relaciones causales
entre las explicativas del modelo.
El nuevo modelo será multiecuacional y no uniecuacional.

29
Multicolinealidad imperfecta — Formas de actuar
3. Transformar las variables

1. Tomar primeras diferencias para todas las variables del modelo

𝑦𝑡 − 𝑦𝑡−1 = 𝛽1 𝑥1𝑡 − 𝑥1𝑡−1 + 𝛽2 𝑥2𝑡 − 𝑥2𝑡−1 + … + 𝜀𝑡 − 𝜀𝑡−1

Si la muestra es atemporal, este procedimiento no es apropiado porque


la diferencia entre dos observaciones consecutivas no tiene significado
lógico.

Ha de tenerse en cuenta que el modelo transformado:


a. No tiene ordenada en el origen
b. Explica la variación del regresando en función de las variaciones de
las explicativas.
c. Puede incumplirse la hipótesis de incorrelación de las
perturbaciones.
30
Multicolinealidad imperfecta — Formas de actuar
3. Transformar las variables

2. Utilizar cocientes o ratios dividiendo todas las variables del modelo por
un factor de escala común como, por ejemplo, la población o un índice de
precios

Si el modelo original es un MRLNC, el transformado — que puede perder


la ordenada en el origen — no satisface la hipótesis de
homocedasticidad.

31
Multicolinealidad imperfecta — Formas de actuar
4. Aumentar el tamaño de la muestra

✓ Utilizando datos mixtos de series temporales y de corte transversal.

✓ Incorporando nuevos datos que no están afectados por la


multicolinealidad.

Se puede optar por esta alternativa si:


▪ La multicolinealidad se debe a que un regresor se mantiene
prácticamente constante, al aumentar el tamaño de la muestra es
probable que aumente su variabilidad y, por tanto, disminuya el grado
de correlación.
▪ Si el problema es consecuencia de que la relación entre las
explicativas es causal, un incremento del número de observaciones
puede resolver el problema dada la fuerte inestabilidad de este tipo de
multicolinealidad. Esta última opción es más teórica real porque, en
general, se trabaja con todos los datos disponibles.
32
Multicolinealidad imperfecta — Formas de actuar
5. Convivir con la multicolinealidad

No intentar corregirla y simplemente tenerla en cuenta para el análisis de los


resultados.
Esta alternativa está especialmente indicada si:
✓ La variable causante del problema es muy importante desde el punto de
vista teórico y su inclusión no provoca problemas muy serios: aunque los
estimadores son imprecisos, tienen signos correctos
✓ El objetivo del modelo es la predicción porque la multicolinealidad no
empeora necesariamente la capacidad predictiva del modelo.

33
Multicolinealidad imperfecta — Formas de actuar —
Ejemplo
Modelo de ventas en función de la renta de los consumidores y los gastos de
publicidad
Los datos utilizados son atemporales por lo que no es apropiado tomar
primeras diferencias porque la diferencia entre observaciones consecutivas no
tiene ningún sentido

En este caso, una posible solución puede ser ampliar la información muestral
con datos mixtos de series temporales y de corte transversal.

34

También podría gustarte