La Homocedasticidad

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 6

LA HOMOCEDASTICIDAD

La homocedasticidad es una propiedad deseable de los errores de un modelo de


regresión simple. La homocedasticidad, como hemos dicho anteriormente, nos
permite realizar modelos más fiables. Y esa fiabilidad se ve reflejada en que sea
mucho más fácil para los económetras trabajar con el modelo.
Este término, que es lo contrario de heterocedasticidad, se emplea para nombrar
la propiedad de algunos modelos de regresión lineal en los que los errores de
estimación son constantes a lo largo de las observaciones. Una varianza
constante nos permite disponer de modelos más fiables. Además, si una varianza,
aparte de ser constante es también más pequeña, nos dará como resultado una
predicción del modelo más fiable.

La palabra homocedasticidad se puede desglosar en dos partes, homo (igual) y


cedasticidad (dispersión). De tal manera que, si unimos estas dos palabras
adaptadas del griego, obtendríamos algo así como misma dispersión o igual
dispersión.

Se define que un Modelo de Regresión Múltiple es “Homocedástico”, si la


“Varianza del Error” de la regresión ES CONSTANTE para la totalidad de la Data.
Varianza del Error: Conjunto de irregularidades o variaciones aleatorias que
presenta toda data y se define como el cuadrado de la Desviación Estándar de la
serie. En otras palabras, para que un Modelo de Regresión Múltiple sea
“Homocedástico”, se deberá cumplir que:

Representación Gráfica del Concepto de Homocedasticidad


Obsérvese de que la gran mayoría de los pares ordenados (x,y), están
aproximadamente equidistantes de la Curva de Regresión Y= a + bX.
Por lo tanto, al analizar diferentes valores de X a lo largo de la data; podemos
observar que los pares ordenados (x,y), pareciera que se distribuyen muy
similarmente para cada uno de los valores de X que hemos seleccionado:

Obsérvese en el gráfico que todas las campanas dibujadas, tienen


aproximadamente misma forma, es decir: “La misma dispersión”. Concluyendo
que el Modelo de Regresión es Homocedástico.
A la hora de realizar contrastes de hipótesis o intervalos de confianza, cuando los
tamaños de cada grupo son muy distintos ocurre que:

 Si los grupos con tamaños muestrales pequeños son los que tienen mayor
varianza, la probabilidad real de cometer un error de tipo I en los contrastes
de hipótesis será menor de lo que se obtiene al hacer el test. En los
intervalos, los límites superior e inferior reales son menores que los que se
obtienen. La inferencia será por lo general más conservadora.
 Si, por el contrario, son los grupos con tamaños muestrales grandes los que
tienen mayor varianza, entonces se tendrá el efecto contrario y las pruebas
serán más liberales. Es decir, la probabilidad real de cometer un error de
tipo I es mayor que la devuelta por el test y los intervalos de confianza
verdaderos serán más amplios que los calculados.
Existen diferentes test que permiten evaluar la distribución de la varianza. Todos
ellos consideran como hipótesis nula que la varianza es igual entre los grupos y
como hipótesis alternativa que no lo es. La diferencia entre ellos es el estadístico
de centralidad que utilizan
Test de White para contrastar la Homocedasticidad de las perturbaciones
El test de White sirve para contraste la hipótesis de homocedasticidad en el
modelo de regresión lineal. Para ello se obtiene la regresión de los residuos al
cuadrado en función de las variables exógenas del modelo, de éstas al cuadrado y
de sus productos cruzados (opción cross-term). La expresión N R2 de esta
estimación se distribuye como una xj2 bajo la hipótesis nula de homocedasticidad
siendo j el número de regresores de dicha ecuación (excluyendo la constante)

Causas frecuentes de ausencia de homocedasticidad

 Variables independientes que posean un gran recorrido con respecto a su


propia media
Esto generalmente ocurre cuando se ha dispuesto arbitrariamente el orden de las
observaciones, generando, casualmente que existan observaciones con grandes
valores en una determinada variable explicativa y lo mismo con valores pequeños
de esta misma variable.

 Omisión de variables importantes dentro del modelo a estimar


Obviamente, si se omite una variable de relevancia en la especificación, tal
variable quedará parcialmente recogida dentro de las perturbaciones aleatorias,
introduciendo en estas su propia variación, que no será necesariamente fija.

 Cambio de estructura
El hecho de que se produzca un cambio en la estructura determina un mal ajuste
de los parámetros al conjunto de los datos muestrales. Y este no tiene por qué
influir del mismo modo en todo el recorrido de la muestra, pudiendo producir
cuantías de desajuste del modelo diferentes y, por lo tanto, varianza no constante

 Utilizar variables no relativizadas


Cuando existen observaciones dentro de una variable en concreto, y que poseen
un valor mayor a las otras variables explicativas, puede originar valores del error
diferentes. Esta situación es similar a la explicada al principio, pero con la
salvedad que en este caso se compara con las otras variables (inclusive con la
dependiente) y no con respecto a su media.

estimar en presencia de heterocedasticidad ==


 Cálculo incorrecto de las varianza y parámetros ineficientes
La mayor varianza por empleo de MCO en presencia de heterocedasticidad puede
producir un incremento de más de 10 veces en la varianza estimada del parámetro
constante.

 Invalidación de los contrastes de significancia


Ya que se aceptaría la hipótesis nula de los contrastes de significancia más veces
de las reales. Generalmente resulta que ciertas variables podrían resultar no ser
significativas cuando lo son realmente.

Verificación del cumplimiento del supuesto de homocedasticidad


Prueba o contraste para detectarla:
White
H 0 :α τ=¿¿0 Hay homoscedasticidad en los residuos

H 1: α τ ≠ 0 para i=2,3 , … , k No hay homoscedasticidad en los residuos o hay


heteroscedasticidad en los residuos
2 >X 2 (p ) }¿
W ={n R ¿
1−α
Se rechaza H o

W ={Pn R < α } Se rechaza H 0


2

n R2 : observaciones del R2
Pn R : probabilidad de las observaciones del R2
2

p: número de coeficientes en la ecuación de regresión, sin considerar el término


independiente.
La homocedasticidad es una propiedad deseable de los errores de un modelo de
regresión simple. La homocedasticidad, como hemos dicho anteriormente, nos
permite realizar modelos más fiables. Y esa fiabilidad se ve reflejada en que sea
mucho más fácil para los económetras trabajar con el modelo.
Pruebas de homocedasticidad
Los puntos que se muestran en la figura 3 corresponden a los datos de un estudio
que busca una relación entre los precios (en dólares) de las viviendas en función
del tamaño o área en metros cuadrados.
El primer modelo que se ensaya es el de una regresión lineal. En primer lugar se
nota que el coeficiente de determinación R^2 del ajuste es bastante alto (91%),
por lo que puede pensarse que el ajuste es satisfactorio.
Sin embargo del gráfico del ajuste pueden distinguirse claramente dos regiones.
Una de ellas, la de la derecha encerrada en un óvalo, cumple homocedasticidad,
mientras que la región de la izquierda no tiene homocedasticidad

Diferencias entre homocedasticidad y heterocedasticidad

La heterocedasticidad se diferencia de la homocedasticidad en que en ésta la


varianza de los errores de las variables explicativas es constante a lo largo de
todas las observaciones. A diferencia de la heterocedasticidad, en los modelos
estadísticos homecedásticos el valor de una variable puede predecir otra (si el
modelo es insesgado), y por tanto los errores son comunes y constantes durante
el estudio.

Las situaciones principales en las que aparecen perturbaciones heterocedásticas


son los análisis con datos de corte transversal donde los elementos
seleccionados, ya sean empresas, individuos o elementos económicos no tienen
un comportamiento homogéneo entre ellos.

Bibliografía
Ing., & Piol, R. (2011). VALIDACION DE LA REGRESION MEDIANTE EL
ANALISIS DE HOMECEDASTICIDAD. Obtenido de http://upav-
biblioteca.org/site/wp-content/uploads/2018/02/Validacion-de-la-Regresion-
Mediante-el-analisis-de-Homocedasticidad.pdf
Paz Rodriguez Jorge, Hérnandez García, S., & Pérez Molina, L. R. (2014).
Fórmulas y modelos econométricos para el análisis de regresión. Cuba:
Universitaria del Ministerio de Educación Superior .
Sancho, A., & Serrano, G. (2005). Econometría de Económicas.
Zapata, F. (2019). Lifider. Obtenido de Homocedasticidad: qué es, importancia y
ejemplos: https://www.lifeder.com/homocedasticidad/

También podría gustarte