0% encontró este documento útil (0 votos)
2 vistas4 páginas

6_Estimadores_de_regresión

Descargar como pdf o txt
Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1/ 4

Chapter 1

Estimadores de regresión

1.1 Introducción
Dada una muestra compuesta de por dos tipos de mediciones, en un subconjunto de n1
muestras se han medido la variable de interés Y y la variable auxiliar X, además en otro
subconjunto de n2 sólo se ha recogido información de la variable auxiliar X.
Con la serie de datos pareados se ajustará a un modelo lineal, Y = a + bX, con él que se
estimarán los valores esperados, Ŷ , de la variable principal Y para el conjunto de valores
de la variable auxiliar X.
Los estimadores de regresión son métodos indirectos de estimación.

1.2 Estimadores de regresión en el muestreo aleato-


rio simple
El estimador de regresión Ȳrl para la media tiene la expresión: Y rl = y + b · (X − x)
Generalmente la estimación del parámetro b se realiza a partir de la información muestral
mediante mı́nimos cuadrados ordinarios (OLS), con lo que, bajo los supuestos del modelo
lineal (Normalidad, Homocedasticidad, Independencia residual, Linealidad), se obtienen
estimadores â y b̂ centrados y eficientes de los parámetros a y b.

n
(yi −y)(xi −x)
P
i=1 syx
b̂ = n
P 2
= sx 2
(xi −x )
i=1

E(b̂ − b) = 0 y la varianza de V (b̂) mı́nima.


La esperanza del estimador de regresión para la media poblacional serı́a:

E(Y rl ) = E(ȳ + b0 (X̄ − x̄)) = E(ȳ) + E(b0 · X̄) − E(b0 · x̄) (1.1)

Dado que X̄ es un valor fijo X̄ = N


P
i=1 Xi /N , la ecuación anterior puede expresarse como:

E(Y rl ) = E(ȳ) + X̄ · E(b0 ) − E(b0 · x̄) (1.2)


E(Y rl ) = E(ȳ) + E(X̄) · E(b0 ) − E(b0 · x̄) (1.3)

1
2 CHAPTER 1. ESTIMADORES DE REGRESIÓN

E(Y rl ) = E(ȳ) + Cov(b0 , x̄) (1.4)


Por tanto, el sesgo del estimador de regresión es igual a la covarianza entre el coeficiente
de regresión y la variable auxiliar, Cov(b0 , x̄).
Si suponemos que b0 es un parametro fijo, entonces E(Y rl ) = E(ȳ) = Ȳ
Ası́, la varianza del estimador de regresión (supuesta b0 independiente) es por defini-
ción:
 2
E([Y rl ] − Ȳ )2 = E [ȳ + b0 · (X̄ − x̄)] − Ȳ (1.5)
 2
E(Y rl − Ȳ )2 = E (ȳ − Ȳ ) − b0 · (x̄ − X̄) (1.6)
 
2 2
V (Y rl ) = E(ȳ − Ȳ ) + E(b0 · (x̄ − X̄)) − 2E (ȳ − Ȳ ) · (b0 · (x̄ − X̄)) (1.7)
 
V (Y rl ) = E(ȳ − Ȳ )2 + b20 · E(x̄ − X̄)2 − 2 · b0 · E (x̄ − X̄)(ȳ − Ȳ ) (1.8)

V (Y rl ) = V (ȳ) + b20 · V (x̄) − 2 · b0 · Cov(x̄, ȳ) (1.9)


Si denotamos S como la varianza poblacional
1−f
V (Y rl ) = (Sy 2 + bo 2 Sx 2 − 2bo Sxy ) (1.10)
n

1−f
V (Y rl ) = (Sy 2 + bo 2 Sx 2 − 2bo ρxy Sx Sy ) (1.11)
n
Sxy
Utilizando la estimación OLS de la recta de regresión b0 = Sx2

1−f  S 2 S 
2 xy 2 xy
V (Y rl ) = (Sy + 2
Sx − 2 ρxy Sx Sy ) (1.12)
n Sx Sx2

1 − f 2 2

V (Y rl ) = Sy 1 − ρxy (1.13)
n
Siendo ρxy el coeficiente de correlación entre la variable auxiliar y la variable principal.

1.3 Dimensionamiento de muestras


El dimensionamiento de la muestra n para alcanzar un error de muestreo d con un nivel
de confianza 1 − α es obtenido por reiteración a partir de n0 :

t2α/2;n−1 · Sy2 · (1 − ρxy 2 )


n0 =
d2
n0
n=
1 + nN0
La utilización de la t-Student en el dimensionamiento de la muestra supone que las
medias residuales se distribuyen según una campana de Gauss.
1.4. COMPARACIÓN DEL ESTIMADOR DE REGRESIÓN CON EL ESTIMADOR DIRECTO DEL M

1.4 Comparación del estimador de regresión con el


estimador directo del muestreo aleatorio simple
Analizando la expresión de la varianza de los estimadores de regresión y del M.A.S. se
observa que:

V (Y ) v.s. V (Y rl )
(1−f ) (1−f )
n
· Sy 2 v.s. n
· Sy 2 ·(1 − ρ2 )

Luego: Sy 2 ≥ Sy 2 ·(1 − ρ2 )
Por tanto, el estimador de regresión es más preciso que el obtenido directamente en el
M.A.S.. El estimador de regresión será tanto más preciso que el estimador M.A.S. en la
medida que exista mayor correlación entre la variable principal y la variable auxiliar.

1.5 Comparación del estimador de regresión con el


estimador de razón
La comparación entre el estimador de regresión y el estimador de razón es algo más com-
pleja.

V (Y rl ) v.s. V (Y R )
1−f 2 1−f

n
Sy (1 − ρ2xy ) v.s. n
Sy2 + R2 Sx2 − 2RρSx Sy
2
(1 − ρxy 2 ) v.s. (1 + R2 SSx2 − 2Rρ SSxy )
y

En consecuencia, para que el estimador de regresión mejore las predicciones del esti-
mador de razón tiene que producirse:

2
1 − ρxy 2 ≤ 1 + R2 SSx2 − 2Rρ SSxy
y

2
2 Sx
0≤R Sy2
− 2Rρ SSxy + ρ2

0 ≤ R2 Sx2 − 2RρSx Sy + ρ2 Sy2


Sxy
0 ≤ (RSx − ρSy )2 dado que la estimación (OLS) de b0 = Sx2
la condición es
0 ≤ (R − b0 )2

El estimador de regresión será más preciso que el estimador de razón salvo en el caso
de R = b0 , que será igual de precisos.
4 CHAPTER 1. ESTIMADORES DE REGRESIÓN

1.6 Estimadores de regresión en muestreo estratifi-


cado
De forma análoga a los estimadores de razón, la aplicación de los estimadores de regre-
sión al muestreo estratificado produce estimadores de regresión separados por estratos y
estimadores de regresión combinados.

La expresión del estimador separado de la media es:


L L
X Nh X
ȳrlS = ȳ = Wh · ȳrlh
h=1
N rlh
h=1

La varianza del estimador separado de la media es:


L 2
X N2 h
V (ȳrlS ) = · V (ȳrlh )
h=1
N
La expresión del estimador combinado de la media es:

ȳrlC = ȳest + b · (X̄ − x̄est )

Cuya varianza es:


L
X Nh2 1 − fh 2
V (ȳrlC ) = 2
· · (Sy,h − 2b · Syx,h + b2 · Sx,h
2
)
h=1
N n h

También podría gustarte