Clase 10 - Incumplimiento de Supuestos II V2
Clase 10 - Incumplimiento de Supuestos II V2
Clase 10 - Incumplimiento de Supuestos II V2
𝑉𝑎𝑟 𝒖 𝒙 = 𝝈2 𝑰𝒏𝒙𝒏
• La matriz de varianzas y covarianzas del término de perturbación, asumiendo
homocedasticidad y no autocorrelación se expresa de la siguiente manera:
𝝈2 ⋯ 0 𝐸[𝑢12 |𝑥] ⋯ 0
𝑉𝑎𝑟 𝝁 𝒙 = ⋮ ⋱ ⋮ = ⋮ ⋱ ⋮
0 ⋯ 𝝈2 0 ⋯ 𝐸[𝑢𝑛2 |𝑥]
2. Supuestos del MRLCK
Supuesto 4: Perturbaciones esféricas
𝑦𝑖 = 𝑥𝑖 𝛽 + 𝑢𝑖
• Las personas con altos ingresos ricos tienen muchas más opciones y
flexibilidad.
• Algunos pueden consumir mucho, otros ahorrar o invertir en el
mercado de valores, lo que implica que el consumo promedio (dado
por la línea de regresión) puede ser bastante diferente del consumo
real.
Heterocedasticidad
𝑦𝑖 = 𝑥𝑖 𝛽 + 𝑢𝑖
𝑉𝑎𝑟 𝑢 𝑥 ≠ 𝜎 2 𝐼𝑛x𝑛 o
𝑉𝑎𝑟 𝑢 𝑥 = 𝜎𝑖2 𝐼𝑛x𝑛
Ƹ 𝑌 − 𝑌
• Recordar que los residuos se definen como 𝑒=
• Sobre los residuos estimados se realizan los diferentes tipos de análisis o contrastes
para detectar la heterocedasticidad
Análisis Gráfico de los errores al cuadrado y el
valor estimado de Y (Modo informal)
✓Prueba de Park
✓Prueba de Glesjer
✓Prueba de Breusch-Pagan
✓Prueba de White
Pruebas de heterocedasticidad
Paso 2: Se obtienen los residuos de la regresión, algunos prefieren usar los errores
estandarizados para evitar los valores extremos.
ො 𝑌 − 𝑌
𝑢=
Paso 4a: Prueba de Park (Dependiente es el logaritmo natural de los residuos al cuadrado)
2 = 𝛼 + 𝛼 𝑙𝑛𝑍 + ⋯ + 𝛼 𝑙𝑛𝑍 + 𝜇
𝑙𝑛𝑢 𝑖 0 1 1 𝑝 𝑝𝑖 𝑖
𝑖 | = 𝛼0 + 𝛼1 𝑍1 + ⋯ + 𝛼𝑝 𝑍𝑝𝑖 + 𝜇𝑖
|𝑢
Pruebas de heterocedasticidad
2 = 𝛼 + 𝛼 𝑍 + 𝛼 𝑍 + 𝛼 𝑍 + 𝜇
𝑢 𝑖 0 1 1 2 2 3 3 𝑖
2 = 𝛼 + 𝛼 𝑍 + 𝛼 𝑍 + 𝛼 𝑍 + 𝛼 𝑍 2 + 𝛼 𝑍 2 + 𝛼 𝑍 2 + 𝑖𝑡𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑒𝑠 + 𝜇
𝑢 𝑖 0 1 1 2 2 3 3 4 1 5 2 6 3 𝑖
𝑖𝑡𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑒𝑠: 𝛼7 𝑍1 𝑍2 + 𝛼8 𝑍2 𝑍3 + 𝛼9 𝑍1 𝑍3
Pruebas de heterocedasticidad
Paso 5: Formule las hipótesis nula y alternativa. La hipótesis nula de homocedasticidad es:
𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝑢𝑖
• Paso 1. Ordene las observaciones de acuerdo con los valores de 𝑋𝑖 , a partir del valor más bajo
de X.
• Paso 2. Omita las c observaciones centrales, donde c se especificó a priori, y divida las
observaciones restantes (n − c) en dos grupos, cada uno de (n − c)/2 observaciones.
• Paso 3. Ajuste regresiones MCO separadas a las primeras (n − c)/2 observaciones y a las
últimas (n − c)/2 observaciones, y obtenga las respectivas sumas de cuadrados residuales
SCR1 y SCR2; SCR1 representa la SCR de la regresión correspondiente a los valores más
bajos de Xi (el grupo de varianza pequeña), y SCR2, a los valores más grandes de Xi (el grupo
de varianza grande). Cada SCR tiene
Si supusimos que las 𝑢𝑖 están normalmente distribuidas (lo cual suele hacerse), y si el supuesto de
homoscedasticidad es válido, entonces se demuestra que λ sigue la distribución F con un número de
gl en el numerador y uno en el denominador iguales a (n − c − 2k)/2.
Para el modelo con dos variables, los experimentos Monte Carlo realizados por Goldfeld y Quandt
sugieren que c sea alrededor de 8 si el tamaño de la muestra es alrededor de 30, y alrededor de 16 si
el tamaño de la muestra es alrededor de 60.
Paso 1: Estimar′𝑢
la ecuación principal 𝑦 = 𝑋𝛽 + 𝑢 y calcular los residuos al cuadrado. Calcular
ෝ
𝑢 ෝ
también 𝜎2 = 𝑛
ෝ𝑖2
𝑢
Paso 2: Regresionar 2 = 𝛼1 + 𝛼2 𝑤2 + ⋯ + 𝛼𝑝 𝑤𝑝 + 𝑣𝑖 y calcular la SCE auxiliar
𝜎
21
Paso 3: Bajo la Hipótesis Nula (Ho de homocedasticidad), 2 𝑆𝐶𝐸 ~𝜒(𝑝−1) , entonces se rechaza la
hipótesis nula de homocedasticidad con 𝛼% de significancia.
Corrección de heterocedasticidad
𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷
1. Media de 𝜷:
= 𝜷 + 𝒙′ 𝒙
𝜷 −𝟏 𝒙′ 𝒖
=𝜷
𝑬 𝜷
2. Varianza de 𝜷
𝑉𝑎𝑟 𝜷 −𝐸 𝜷
= [(𝜷 −𝐸 𝜷
)(𝜷 )′]
= 𝝈𝟐 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 𝑥 ′ Ω𝑥 𝒙′ 𝒙 −1 ≠ 𝝈𝟐 𝒙′ 𝒙 −1
= 𝝈 𝟐 𝒙′ 𝒙
Entonces solo si Ω es igual a la matriz identidad se tendría que 𝑉𝑎𝑟 𝜷 −1
𝑴𝑪𝑶
1.1 Propiedades estadísticas de 𝜷
Propiedad 1: Insesgadez del Estimador de MCO
= 𝐸[𝜷 + 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝒖]
= 𝜷 + 𝐸[ 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝒖]
= 𝜷 + 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝐸[𝒖]
=𝜷
𝑬[𝜷] Se cumple con que el
es
estimador de 𝜷
insesgado
𝑴𝑪𝑶
1.1 Propiedades estadísticas de 𝜷
Propiedad 2: Varianza del Estimador de MCO
• Definición: Un estimador 𝛽መ para 𝛽 es eficiente porque presenta la menor
varianza.
• Demostración:
′
=𝐸
𝑉𝑎𝑟 𝜷 −𝑬 𝜷
𝜷 −𝑬 𝜷
𝜷
′
=𝐸
𝑉𝑎𝑟 𝜷 −𝜷 𝜷
𝜷 −𝜷
= 𝜷 + 𝒙′ 𝒙 −1 𝒙′ 𝒖
• Usamos:𝜷
= 𝐸 𝜷 + 𝒙′ 𝒙 −1 𝒙′ 𝝁 − 𝜷 𝜷 + 𝒙′ 𝒙 −1 𝒙′ u − 𝜷
𝑉𝑎𝑟 𝜷 ′
𝑉𝑎𝑟 𝜷 = 𝐸 𝒙′ 𝒙 −1 𝒙′ 𝒖 𝒙′ 𝒙 −1 𝒙′ u ′
𝑉𝑎𝑟 𝜷 = 𝐸 𝒙′ 𝒙 −1 𝒙′ 𝒖𝒖′ 𝒙 𝒙′ 𝒙 −𝟏 ]
𝑴𝑪𝑶
1.1 Propiedades estadísticas de 𝜷
Propiedad 2: Varianza del Estimador de MCO
= 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 𝒙′ 𝐸[𝒖𝒖′ ]𝒙 𝒙′ 𝒙 −𝟏
= 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 ′ 𝟐
𝒙 𝝈 𝑰𝒙 𝒙′ 𝒙 −𝟏
= 𝝈𝟐 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 𝑥 ′ Ω𝑥 𝒙′ 𝒙 −1 Matriz de varianzas y
covarianzas de 𝜷 ya no
es la más eficiente
Corrección de heterocedasticidad:
CORRECCIÓN DE WHITE
• Puede pasar que no lleguemos a conocer la posible fuente de heterocedasticidad en
nuestro modelo; en otras palabras, no conocemos ∑. En estos casos, se puede usar el
estimador de WHITE.
• White (1980) indica que ante el problema de hetercedasticidad el principal problema de
los parámetros estimados no es la insesgadez sino la eficiencia; es decir, la varianza de
los parámetros estimados. Motivo por el cual, plantea que se puede usar los errores del
modelo de MCO original como ponderadores. De esta manera, se pueden obtener
estimadores robustos de la varianza de los parámetros estimados usando MCO.
Corrección de heterocedasticidad:
CORRECCIÓN DE WHITE
• De esta manera, si no conocemos la posible fuente de heterocedasticidad en el modelo,
la mejor opción es usar MCO con la matriz de varianzas y covarianzas corregidas por el
método de White.
• A este método también se le conoce como estimación con errores estándares robustos.
Corrección de heterocedasticidad:
CORRECCIÓN DE WHITE
• De esta manera se ve que la varianza varia entre observaciones pero la covarianza entre
diferentes observaciones en el tiempo es 0; es decir, la 𝑐𝑜𝑣 𝜇𝑖 𝜇𝑖 = 0 para todo i≠j.
𝑃 𝑦 = 𝑥𝛽 + 𝑢
𝑃𝑦 = 𝑃𝑥𝛽 + 𝑃𝑢
𝑦 ∗ = 𝑥 ∗ 𝛽 + 𝑢∗ Modelo Transformado
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS (MCG)
1
• Donde 𝑃 =
𝜎𝑖
𝑦 ∗ = 𝑥 ∗ 𝛽 + 𝑢∗
𝑢𝑖
𝑉𝑎𝑟 𝑢𝑖∗ = 𝑉𝑎𝑟 =1
𝜎𝑖
• Por lo tanto, los estimadores sobre el modelo 𝑦 ∗ = 𝑥 ∗ 𝛽 + 𝑢∗ ahora cumplen con ser
MELI.
−1
𝛽 = 𝑃𝑋 𝑃𝑋 ′
𝑃𝑋 ′ 𝑃𝑌
𝛽 = 𝑋 ′ 𝑃′ 𝑃𝑋 −1 𝑋 ′ 𝑃′𝑃𝑌
• Considerar que
1/𝜎12 ⋯ 0
𝑃′ 𝑃 = ⋮ ⋱ ⋮ = 𝑉 −1
0 ⋯ 1/𝜎𝑛2
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS (MCG)
• Por esta modificación, la varianza quedará expresada de la siguiente manera
𝑢𝑖
𝑉𝑎𝑟 𝑢𝑖∗ = 𝑉𝑎𝑟 =1
𝜎𝑖
• Por lo tanto, los estimadores sobre el modelo 𝑦 ∗ = 𝑥 ∗ 𝛽 + 𝑢∗ ahora cumplen con ser
MELI.
−1 ′ −1
′ −1
𝛽𝑀𝐶𝐺 = (𝑋 𝑉 𝑋 𝑋 𝑉 𝑌
• Si conocemos 𝑉 −1 obtenemos el 𝛽
𝑀𝐶𝐺 factible
−1
′
𝛽
𝑀𝐶𝐺𝐹 = (𝑋 𝑉 𝑋
−1 𝑋 ′ 𝑉
−1 𝑌
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS
(MCG)
• Si consideramos el caso de MCG, si consideramos S (matriz de corrección de white=)
dentro del estimador de 𝛽
𝑀𝐶𝐺 también puedo encontrar una expresión estimada (MCGF)
−1
𝛽 ′
𝑀𝐶𝐺𝐹 = (𝑋 𝑆𝑋 𝑋 ′ 𝑆𝑌
• Donde
2
𝑢 ⋯ 0
1
𝑆= ⋮ ⋱ ⋮
0 ⋯ 𝑢ෞ𝑛 2