Clase 10 - Incumplimiento de Supuestos II V2

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 53

Introducción a la Econometría

Clase 10: Incumplimiento de Supuestos


parte II

Profesora: Mag. Tania Paredes Zegarra


(correo: PCEFTPAR@upc.edu.pe, tania.paredes@pucp.edu.pe )
Motivación
2. Supuestos del MRLCK
Supuesto 4: Perturbaciones esféricas

• Homocedasticidad y No autocorrelación se reducen en:

𝑉𝑎𝑟 𝒖 𝒙 = 𝝈2 𝑰𝒏𝒙𝒏
• La matriz de varianzas y covarianzas del término de perturbación, asumiendo
homocedasticidad y no autocorrelación se expresa de la siguiente manera:

𝝈2 ⋯ 0 𝐸[𝑢12 |𝑥] ⋯ 0
𝑉𝑎𝑟 𝝁 𝒙 = ⋮ ⋱ ⋮ = ⋮ ⋱ ⋮
0 ⋯ 𝝈2 0 ⋯ 𝐸[𝑢𝑛2 |𝑥]
2. Supuestos del MRLCK
Supuesto 4: Perturbaciones esféricas

𝑉𝑎𝑟 𝑢𝑖 = 𝜎 2 𝑉𝑎𝑟 𝑢𝑖 = 𝜎𝑖2


Heterocedasticidad
Heterocedasticidad
¿Qué es la heterocedasticidad?

• La heteroscedasticidad se define como la ausencia de valores constantes para la


varianza de los errores, es decir 𝑉𝑎𝑟 𝑢 𝑥 ≠ 𝜎 2 𝐼𝑛x𝑛 o 𝑉𝑎𝑟 𝑢 𝑥 = 𝜎𝑖2 𝐼𝑛x𝑛

• Se presenta comúnmente en muestras de datos de tipo corte transversal.


Heterocedasticidad
Ejemplo:
• Consumo (𝒚𝒊 ) vs Ingreso 𝒙𝒊 :

𝑦𝑖 = 𝑥𝑖 𝛽 + 𝑢𝑖

• Una gran proporción de sus ingresos se gastará en comprar


alimentos, ropa y transporte.
• En niveles bajos de ingreso, los patrones de consumo no diferirán
mucho y la diferencia será relativamente baja.

• Las personas con altos ingresos ricos tienen muchas más opciones y
flexibilidad.
• Algunos pueden consumir mucho, otros ahorrar o invertir en el
mercado de valores, lo que implica que el consumo promedio (dado
por la línea de regresión) puede ser bastante diferente del consumo
real.
Heterocedasticidad

𝑉𝑎𝑟 𝑢𝑖 = 𝜎 2 𝑉𝑎𝑟 𝑢𝑖 = 𝜎𝑖2


Heterocedasticidad
Ejemplo:
• Nota en examen 𝒚𝒊 vs Número de veces que una persona toma el examen (𝒙𝒊 ):

𝑦𝑖 = 𝑥𝑖 𝛽 + 𝑢𝑖

• Cuanto menor sea X, mayor será la variabilidad en términos de la


nota Y.

• Cuanto mayor sea X, menor será la variabilidad en términos de la


nota Y.
Heterocedasticidad

𝑉𝑎𝑟 𝑢𝑖 = 𝜎 2 𝑉𝑎𝑟 𝑢𝑖 = 𝜎𝑖2


Heterocedasticidad
¿Qué causa la heterocedasticidad?

Entre las causas de heterocedasticidad encontramos las siguientes:


Mala especificación del modelo.
✓Variables omitidas
Forma funcional incorrecta en las variables usadas en el modelo.
✓Una de las variables tiene una relación no lineal con la dependiente
Cambio estructural.
✓Un cambio estructural puede provocar una estimación errónea de los parámetros.
Heterocedasticidad
¿Qué problemas genera la heterocedasticidad?

El estimador de MCO seguirá siendo insesgado y consistente


Cambia la varianza del estimador de MCO (la varianza no es la mínima)
Afecta los errores estándares
No normalidad en los errores
Cambia el estadístico t
Cambia el estadístico F

A partir de lo anterior, podemos decir que el estimador de MCO ya no será el mejor


estimador lineal e insesgado, dado que no será el que cumpla con tener la menor varianza.
Heterocedasticidad
¿Qué problemas genera la heterocedasticidad?

𝑉𝑎𝑟 𝑢 𝑥 ≠ 𝜎 2 𝐼𝑛x𝑛 o
𝑉𝑎𝑟 𝑢 𝑥 = 𝜎𝑖2 𝐼𝑛x𝑛

(*) Ello también se presenta


en el modelo bivariado.
Detección de heterocedasticidad
Formas de detectar la Heterocedasticidad
• Si no se cuenta con información previa sobre la naturaleza de la heterocedasticidad, se
debe estimar el modelo de regresión para luego hacer análisis de los residuos del
modelo estimado.

Ƹ 𝑌 − 𝑌෠
• Recordar que los residuos se definen como 𝑒=

• Sobre los residuos estimados se realizan los diferentes tipos de análisis o contrastes
para detectar la heterocedasticidad
Análisis Gráfico de los errores al cuadrado y el
valor estimado de Y (Modo informal)

De acuerdo a los supuestos del Modelo


MCO, los residuos no deben estar
correlacionados o asociados con el valor
promedio estimado de la variable
dependiente 𝐸 𝑢 𝑋 = 0.

Los gráficos muestran que esto sólo ocurre


en la figura a (cumple supuesto), mientras
en las demás figuras se aprecia cierto nivel
de asociación.

Este análisis nos estaría dando un indicio


sobre la posible fuente de
heterocedasticidad en el modelo.
Pruebas estadísticas para ver la presencia de
heterocedasticidad
Existen cuatro pruebas comúnmente usadas para ver la presencia de heterocedasticidad:

✓Prueba de Park
✓Prueba de Glesjer
✓Prueba de Breusch-Pagan
✓Prueba de White
Pruebas de heterocedasticidad

Paso 1: Estimar el modelo de regresión a testear

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1𝑖 + 𝛽2 𝑥2𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖 , 𝑖 = 1…𝑛

Paso 2: Se obtienen los residuos de la regresión, algunos prefieren usar los errores
estandarizados para evitar los valores extremos.
ො 𝑌 − 𝑌෠
𝑢=

Paso 3: Luego se estiman diferentes regresiones auxiliares o secundarias en función a los


residuos estimados y considerando como los regresores a las variables exógenas del
modelo (*).
Pruebas de heterocedasticidad

Paso 4a: Prueba de Park (Dependiente es el logaritmo natural de los residuos al cuadrado)

෢2 = 𝛼 + 𝛼 𝑙𝑛𝑍 + ⋯ + 𝛼 𝑙𝑛𝑍 + 𝜇
𝑙𝑛𝑢 𝑖 0 1 1 𝑝 𝑝𝑖 𝑖

Paso 4b: Prueba de Glesjer (Dependiente: Valor absoluto de los residuos)

෢𝑖 | = 𝛼0 + 𝛼1 𝑍1 + ⋯ + 𝛼𝑝 𝑍𝑝𝑖 + 𝜇𝑖
|𝑢
Pruebas de heterocedasticidad

Paso 4c: Prueba de Breusch-Pagan (Dependiente: residuos al cuadrado)

෢2 = 𝛼 + 𝛼 𝑍 + 𝛼 𝑍 + 𝛼 𝑍 + 𝜇
𝑢 𝑖 0 1 1 2 2 3 3 𝑖

Paso 4d: Prueba de White (Dependiente: residuos al cuadrado)

෢2 = 𝛼 + 𝛼 𝑍 + 𝛼 𝑍 + 𝛼 𝑍 + 𝛼 𝑍 2 + 𝛼 𝑍 2 + 𝛼 𝑍 2 + 𝑖𝑡𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑒𝑠 + 𝜇
𝑢 𝑖 0 1 1 2 2 3 3 4 1 5 2 6 3 𝑖

𝑖𝑡𝑒𝑟𝑎𝑐𝑖𝑜𝑛𝑒𝑠: 𝛼7 𝑍1 𝑍2 + 𝛼8 𝑍2 𝑍3 + 𝛼9 𝑍1 𝑍3
Pruebas de heterocedasticidad

Paso 5: Formule las hipótesis nula y alternativa. La hipótesis nula de homocedasticidad es:

Ho (Hipótesis nula) 𝛼0 = 𝛼1 = 𝛼2 …=0 Homocedasticidad


H1 (Hipótesis alternativa) 𝛼0 ≠ 𝛼1 ≠ 𝛼2 …≠0 Heterocedasticidad

Paso 6: Contrastar el valor del estadístico LM (Multiplicador de Lagrange) con el valor de


tabla

Pase 7: Rechazar la hipótesis nula implica la presencia de heterocedasticidad en los


errores
Pruebas de heterocedasticidad
• En las pruebas de Park y Glesjer se requiere saber que variable es la posible fuente de
heterocedasticidad.

• La prueba de Glesjer requiere que los residuos de la ecuación adicional sean


normalmente distribuidos.

• La prueba de Breusch-Pagan y White no requiere que se conozca la fuente de


heterocedasticidad dado que se estima sobre todas las explicativas del modelo. Por otro
lado, ambas pruebas no requieren el supuesto de normalidad de los residuos
Aplicación en Stata
Aplicación en Stata
Aplicación en Stata
Prueba de Park

• Se examinan los coeficientes de


cada variable junto con su t y valor
de p.
• Si la hipótesis nula (Ho) de que la
variable no está relacionada con los
errores es verdadera, entonces se
considera que la variable es
homocedástica en relación con la
variable analizada.
• Si esto no ocurre, entonces se
concluye que hay heterocedasticidad
presente.
• En el ejercicio realizado, se observa
una relación no hay una relación
significativa entre las variables y la
variable dependiente.
• Indicios de homocedasticidad.
Aplicación en Stata
Prueba de Glesjer

• Se examinan los coeficientes de


cada variable junto con su t y valor
de p.
• Si la hipótesis nula (Ho) de que la
variable no está relacionada con los
errores es verdadera, entonces se
considera que la variable es
homocedástica en relación con la
variable analizada.
• Si esto no ocurre, entonces se
concluye que hay heterocedasticidad
presente.
• En el ejercicio realizado, se observa
una relación entre el logaritmo del
capital y los errores, lo que sugiere
que esta variable puede ser la causa
del problema de heterocedasticidad.
Aplicación en Stata • El test de Breusch-Pagan, una vez que
Prueba de Breusch-Pagan se estima el modelo, se guarda el valor
del R2 (0.0136) y se construye el índice
que será igual a: nR2 que sigue una
distribución Chi- cuadrado con tantos
grados de libertad como variables
explicativas se incluyan en el modelo
(k=3) [sin considerar constante].
• La hipótesis nula (Ho) en el test de
Breusch-Pagan es de Homocedasticidad,
por tanto, si el valor del estadístico
calculado excede al valor de tablas, se
rechaza la nula y existe
heterocedasticidad en los errores.
• En caso no exceda, lo que se estaría
asumiendo es que los coeficientes de los
diferentes regresores incluidos son
iguales a 0.
• En caso de rechazar la nula, las
Estadistico de B-P nR2=7.74 ~𝜒 3 variables que resultan significativas para
explicar los residuos son posibles
7.74 vs 7.81 → No rechazo la Ho
causantes del problema de
heterocedasticidad
Aplicación en Stata • El test de White, una vez que se estima el
Prueba de White modelo, se guarda el valor del R2
(0.0136) y se construye el índice que será
igual a: nR2 que sigue una distribución
Chi- cuadrado con tantos grados de
libertad como variables explicativas se
incluyan en el modelo (k=9) [sin
considerar constante].
• La hipótesis nula (Ho) en el test de
Breusch-Pagan es de Homocedasticidad,
por tanto, si el valor del estadístico
calculado excede al valor de tablas, se
rechaza la nula y existe
heterocedasticidad en los errores.
• En caso no exceda, lo que se estaría
asumiendo es que los coeficientes de los
diferentes regresores incluidos son
iguales a 0.
• En caso de rechazar la nula, las
variables que resultan significativas para
explicar los residuos son posibles
causantes del problema de
Estadistico de White nR2=58.5501 ~𝜒 9 heterocedasticidad
58.5501 vs 16.92 → Rechazo la Ho
Aplicación en Stata
Comando en STATA para ver el problema de heterocedasticidad

• Prueba de heterocedasticidad con los valores ajustado


estat hettest
• Prueba de heterocedasticidad con las variables incluidas en el modelo
estat hettest, rhs
• Prueba de heterocedasticidad para una variable especifica en el modelo
estat hettest variable
• En el caso del test de White
ssc install whitetst // whitetst
Aplicación en Stata
• Prueba de heterocedasticidad con los valores ajustado
estat hettest

• Prueba de heterocedasticidad con las variables incluidas en el modelo


estat hettest, rhs
Aplicación en Stata
• Prueba de heterocedasticidad para una variable especifica en el modelo
estat hettest variable

• En el caso del test de White


ssc install whitetst // whitetst
Bonus 1: Test de Goldfeld-Quandt
• Este Test es aplicable si se supone que la varianza del error, que presenta
heterocedasticidad ( 𝜎𝑖2 ), está relacionada positivamente con una de las variables
explicativas en el modelo de regresión.

• Por simplicidad, se considera el siguiente modelo:

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖 + 𝑢𝑖

• Supongamos que 𝜎𝑖2 está correlacionado positivamente con 𝑋𝑖 , en la forma:


Esto significa que la varianza sería mayor
𝜎𝑖2 = 𝜎 2 𝑋𝑖2 mientras mayores fueran los valores de
𝑿𝒊 , lo cual caracteriza a una varianza
Donde 𝜎 2 es una constante heterocedástica (no constante).
Bonus 1: Test de Goldfeld-Quandt
• Para realizar el Test de Goldfeld y Quandt sugieren los siguientes pasos:

• Paso 1. Ordene las observaciones de acuerdo con los valores de 𝑋𝑖 , a partir del valor más bajo
de X.

• Paso 2. Omita las c observaciones centrales, donde c se especificó a priori, y divida las
observaciones restantes (n − c) en dos grupos, cada uno de (n − c)/2 observaciones.

• Paso 3. Ajuste regresiones MCO separadas a las primeras (n − c)/2 observaciones y a las
últimas (n − c)/2 observaciones, y obtenga las respectivas sumas de cuadrados residuales
SCR1 y SCR2; SCR1 representa la SCR de la regresión correspondiente a los valores más
bajos de Xi (el grupo de varianza pequeña), y SCR2, a los valores más grandes de Xi (el grupo
de varianza grande). Cada SCR tiene

gl: grados de libertad


k: número de parámetros incluido el
intercepto
Bonus 1: Test de Goldfeld-Quandt
• Paso 4. Calcule la razón.

Si supusimos que las 𝑢𝑖 están normalmente distribuidas (lo cual suele hacerse), y si el supuesto de
homoscedasticidad es válido, entonces se demuestra que λ sigue la distribución F con un número de
gl en el numerador y uno en el denominador iguales a (n − c − 2k)/2.

Si en una aplicación λ ( F) calculada es superior al F crítico en el nivel de signifi cancia seleccionado,


podemos rechazar la hipótesis de homoscedasticidad, es decir, podemos afi rmar que la
heteroscedasticidad es muy probable.
Bonus 1: Test de Goldfeld-Quandt
OJO: La omisión de observaciones centrales “c” se realiza para agudizar o acentuar la diferencia
entre el grupo de varianza pequeña (es decir, SCR1) y el grupo de varianza grande (es decir, SCR2).
Pero la capacidad de la prueba Goldfeld-Quandt para lograrlo depende de la forma de seleccionar c.

Para el modelo con dos variables, los experimentos Monte Carlo realizados por Goldfeld y Quandt
sugieren que c sea alrededor de 8 si el tamaño de la muestra es alrededor de 30, y alrededor de 16 si
el tamaño de la muestra es alrededor de 60.

Sin embargo, Judge et al., encontraron satisfactorios en la práctica los niveles de c = 4 si n =


30 y c 10 si n es alrededor de 60.
Bonus 2: Test de Breusch-Pagan-
Godfrey
• Se supone que 𝜎𝑖2 = ℎ 𝛼1 + 𝛼2 𝑤2 + ⋯ + 𝛼𝑝 𝑤𝑝 donde h(.) es una función como 𝑒 𝛼1+𝛼2𝑤2+⋯+𝛼𝑝 𝑤𝑝 ,
por ejemplo, y 𝑤1 , 𝑤2 , … + 𝑤𝑝 son algunas variables conocidas (X, inversas, logaritmos).

• Los pasos del test son:

Paso 1: Estimar′𝑢
la ecuación principal 𝑦 = 𝑋𝛽 + 𝑢 y calcular los residuos al cuadrado. Calcular

𝑢 ෝ
también 𝜎෢2 = 𝑛

ෝ𝑖2
𝑢
Paso 2: Regresionar ෢2 = 𝛼1 + 𝛼2 𝑤2 + ⋯ + 𝛼𝑝 𝑤𝑝 + 𝑣𝑖 y calcular la SCE auxiliar
𝜎

21
Paso 3: Bajo la Hipótesis Nula (Ho de homocedasticidad), 2 𝑆𝐶𝐸 ~𝜒(𝑝−1) , entonces se rechaza la
hipótesis nula de homocedasticidad con 𝛼% de significancia.
Corrección de heterocedasticidad
෡ 𝑴𝑪𝑶
4. Propiedades estadísticas de 𝜷

1. Media de 𝜷:

෡ = 𝜷 + 𝒙′ 𝒙
𝜷 −𝟏 𝒙′ 𝒖

෡ =𝜷
𝑬 𝜷


2. Varianza de 𝜷

𝑉𝑎𝑟 𝜷 ෢−𝐸 𝜷
෡ = [(𝜷 ෢−𝐸 𝜷
෡ )(𝜷 ෡ )′]

෡ = 𝝈𝟐 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 𝑥 ′ Ω𝑥 𝒙′ 𝒙 −1 ≠ 𝝈𝟐 𝒙′ 𝒙 −1

෡ = 𝝈 𝟐 𝒙′ 𝒙
Entonces solo si Ω es igual a la matriz identidad se tendría que 𝑉𝑎𝑟 𝜷 −1
෡ 𝑴𝑪𝑶
1.1 Propiedades estadísticas de 𝜷
Propiedad 1: Insesgadez del Estimador de MCO

෡ = 𝐸[𝜷 + 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝒖]

෡ = 𝜷 + 𝐸[ 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝒖]

෡ = 𝜷 + 𝒙′ 𝒙
𝑬[𝜷] −1 𝒙′ 𝐸[𝒖]

෡ =𝜷
𝑬[𝜷] Se cumple con que el
෡ es
estimador de 𝜷
insesgado
෡ 𝑴𝑪𝑶
1.1 Propiedades estadísticas de 𝜷
Propiedad 2: Varianza del Estimador de MCO
• Definición: Un estimador 𝛽መ para 𝛽 es eficiente porque presenta la menor
varianza.
• Demostración:

෡ =𝐸
𝑉𝑎𝑟 𝜷 ෡−𝑬 𝜷
𝜷 ෡ ෡−𝑬 𝜷
𝜷 ෡


෡ =𝐸
𝑉𝑎𝑟 𝜷 ෡ −𝜷 𝜷
𝜷 ෡−𝜷
෡ = 𝜷 + 𝒙′ 𝒙 −1 𝒙′ 𝒖
• Usamos:𝜷
෡ = 𝐸 𝜷 + 𝒙′ 𝒙 −1 𝒙′ 𝝁 − 𝜷 𝜷 + 𝒙′ 𝒙 −1 𝒙′ u − 𝜷
𝑉𝑎𝑟 𝜷 ′

𝑉𝑎𝑟 𝜷 ෡ = 𝐸 𝒙′ 𝒙 −1 𝒙′ 𝒖 𝒙′ 𝒙 −1 𝒙′ u ′
𝑉𝑎𝑟 𝜷෡ = 𝐸 𝒙′ 𝒙 −1 𝒙′ 𝒖𝒖′ 𝒙 𝒙′ 𝒙 −𝟏 ]
෡ 𝑴𝑪𝑶
1.1 Propiedades estadísticas de 𝜷
Propiedad 2: Varianza del Estimador de MCO

෡ = 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 𝒙′ 𝐸[𝒖𝒖′ ]𝒙 𝒙′ 𝒙 −𝟏

• Recordamos que 𝑉𝑎𝑟 𝜇 = 𝐸 𝜇𝜇 ′ = 𝜎 2 Ω = V, entonces:

෡ = 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 ′ 𝟐
𝒙 𝝈 𝑰𝒙 𝒙′ 𝒙 −𝟏

෡ = 𝝈𝟐 𝒙′ 𝒙
𝑉𝑎𝑟 𝜷 −1 𝑥 ′ Ω𝑥 𝒙′ 𝒙 −1 Matriz de varianzas y
covarianzas de 𝜷෡ ya no
es la más eficiente
Corrección de heterocedasticidad:
CORRECCIÓN DE WHITE
• Puede pasar que no lleguemos a conocer la posible fuente de heterocedasticidad en
nuestro modelo; en otras palabras, no conocemos ∑. En estos casos, se puede usar el
estimador de WHITE.
• White (1980) indica que ante el problema de hetercedasticidad el principal problema de
los parámetros estimados no es la insesgadez sino la eficiencia; es decir, la varianza de
los parámetros estimados. Motivo por el cual, plantea que se puede usar los errores del
modelo de MCO original como ponderadores. De esta manera, se pueden obtener
estimadores robustos de la varianza de los parámetros estimados usando MCO.
Corrección de heterocedasticidad:
CORRECCIÓN DE WHITE
• De esta manera, si no conocemos la posible fuente de heterocedasticidad en el modelo,
la mejor opción es usar MCO con la matriz de varianzas y covarianzas corregidas por el
método de White.

• Donde S es una estimación consistente de la matriz de varianzas y covarianzas (para


muestras grandes) para lo cual se usa los residuos al cuadrado del modelo MCO
estimado inicialmente.

• A este método también se le conoce como estimación con errores estándares robustos.
Corrección de heterocedasticidad:
CORRECCIÓN DE WHITE

Sin errores robustos


reg ln_labor ln_capital ln_output
ln_wage

Con errores robustos


reg ln_labor ln_capital ln_output
ln_wage, robust
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS (MCG)
• Si la varianza de los residuos no son constantes a lo largo de las diferentes
observaciones, el modelo de regresión presenta heterocedastidad. Esto se puede
expresar de la siguiente forma: 𝑉𝑎𝑟 𝜇𝑖 = 𝜎𝑖2

• De esta manera se ve que la varianza varia entre observaciones pero la covarianza entre
diferentes observaciones en el tiempo es 0; es decir, la 𝑐𝑜𝑣 𝜇𝑖 𝜇𝑖 = 0 para todo i≠j.

• De forma matricial, se puede expresar el problema de heterocedasticidad de la siguiente


manera:
𝝈2𝟏 ⋯ 0 𝒘𝟏 ⋯ 0
𝑉𝑎𝑟 𝝁 𝒙 = ⋮ ⋱ ⋮ = 𝜎2 ⋮ ⋱ ⋮ → 𝐸 𝜇𝜇′ = ∑ = 𝜎 2 Ω ≠ 𝜎 2 𝐼𝑛x𝑛
0 ⋯ 𝝈2𝑛 0 ⋯ 𝑤𝑛
Donde wi es la causante de la heterocedasticidad en los errores estimados
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS (MCG)
• El problema de heterocedasticidad no afecta al estimador de MCO en términos de
insesgadez y consistencia.

• No obstante, el estimador de MCO se afecta por su varianza. Este ya no será la mínima y


no cumplirá con el supuesto de Gauss-Markov.

• Por lo que, si bien la presencia de heterocedasticidad no introduce sesgo en los


parámetros estimados, si origina problemas en la validez de las inferencias estadísticas
dado que el estimador deja de ser eficiente.
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS (MCG)
• Consiste en transformar el modelo original de tal manera que los coeficientes estimados
no cambien y solo sea la matriz de varianzas y covarianzas del modelo la que cambie, de
tal forma que los nuevos errores estimados tengan varianza media 0 y varianza
constante.
• Asumimos que la matriz Pnxn permite trabajar con perturbaciones esféricas (luego
hallaremos P).
• De tal forma que, inicialmente, transformamos los datos:
𝑦 = 𝑥𝛽 + 𝑢 Modelo Original

𝑃 𝑦 = 𝑥𝛽 + 𝑢

𝑃𝑦 = 𝑃𝑥𝛽 + 𝑃𝑢

𝑦 ∗ = 𝑥 ∗ 𝛽 + 𝑢∗ Modelo Transformado
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS (MCG)
1
• Donde 𝑃 =
𝜎𝑖

• Por lo que, el modelo:

𝑦 ∗ = 𝑥 ∗ 𝛽 + 𝑢∗

Queda expresado como

𝑦𝑖 𝑥𝑘𝑖 𝑢𝑖 𝑦𝑖 1 𝑥2𝑖 𝑥3𝑖 𝑥𝑘𝑖 𝑢𝑖


= 𝛽𝑘 + → = 𝛽1 + 𝛽2 + 𝛽3 … 𝛽𝑘 +
𝜎𝑖 𝜎𝑖 𝜎𝑖 𝜎𝑖 𝜎𝑖 𝜎𝑖 𝜎𝑖 𝜎𝑖 𝜎𝑖
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS (MCG)
• Por esta modificación, la varianza quedará expresada de la siguiente manera

𝑢𝑖
𝑉𝑎𝑟 𝑢𝑖∗ = 𝑉𝑎𝑟 =1
𝜎𝑖

• Por lo tanto, los estimadores sobre el modelo 𝑦 ∗ = 𝑥 ∗ 𝛽 + 𝑢∗ ahora cumplen con ser
MELI.
−1

𝛽 = 𝑃𝑋 𝑃𝑋 ′
𝑃𝑋 ′ 𝑃𝑌
𝛽෢ = 𝑋 ′ 𝑃′ 𝑃𝑋 −1 𝑋 ′ 𝑃′𝑃𝑌
• Considerar que
1/𝜎12 ⋯ 0
𝑃′ 𝑃 = ⋮ ⋱ ⋮ = 𝑉 −1
0 ⋯ 1/𝜎𝑛2
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS (MCG)
• Por esta modificación, la varianza quedará expresada de la siguiente manera

𝑢𝑖
𝑉𝑎𝑟 𝑢𝑖∗ = 𝑉𝑎𝑟 =1
𝜎𝑖

• Por lo tanto, los estimadores sobre el modelo 𝑦 ∗ = 𝑥 ∗ 𝛽 + 𝑢∗ ahora cumplen con ser
MELI.
−1 ′ −1
෣ ′ −1
𝛽𝑀𝐶𝐺 = (𝑋 𝑉 𝑋 𝑋 𝑉 𝑌

• Si conocemos 𝑉 −1 obtenemos el 𝛽෣
𝑀𝐶𝐺 factible
−1
′ ෢
𝛽෣
𝑀𝐶𝐺𝐹 = (𝑋 𝑉 𝑋
−1 𝑋 ′ 𝑉෢
−1 𝑌
Corrección de heterocedasticidad:
MÍNIMOS CUADRADOS GENERALIZADOS
(MCG)
• Si consideramos el caso de MCG, si consideramos S (matriz de corrección de white=)
dentro del estimador de 𝛽෣
𝑀𝐶𝐺 también puedo encontrar una expresión estimada (MCGF)

−1
𝛽෣ ′
𝑀𝐶𝐺𝐹 = (𝑋 𝑆𝑋 𝑋 ′ 𝑆𝑌

• Donde

෢2
𝑢 ⋯ 0
1
𝑆= ⋮ ⋱ ⋮
0 ⋯ 𝑢ෞ𝑛 2

También podría gustarte