Regresion Multiple-Estimación 2022 1
Regresion Multiple-Estimación 2022 1
Regresion Multiple-Estimación 2022 1
Modelo:
Representación de la realidad que reproduce o aproxima los aspectos más
saltantes de la realidad y que por lo general se construye para ayudar a
resolver un modelo.
CLASIFICACION:
Modelos cuantitativos
Modelos cualitativos…
Usos de la regresión:
Descripción de datos
Estimac ión de pará metros
Predicc ión y est imac ión
Control
E (Y / X1 , X 2 ,.........., X K ) 0 1 X1 ........ K X K
Y = Xβ ε (2)
Modelo s in intercepto
yi f ( x1 , x2 , ......., xk ) g ( xk 1 , xk 2 , ......., xn )
Yi: v. respuesta
X1,X2, ….,XKj : v. independiente s
εij : v.a. error
1.
2.
La expresión matricial del modelo de regresión múltiple es la siguiente:
Y = Xβ ε
SUPUESTOS BÁSICOS
Ho mocedasticidad Ho mocedasticidad
2 2
V ar = V ar =
Independencia,
Cov = 0 los Independencia las observaciones,
errores, i, son y i , son independientes
independientes
Nor malidad Nor malidad
2
i N(0, ) Y/ x i 1 , x i 2 ,..., x i k ~ N 2
)
n > k + 1 n > k + 1
Las variables
regresoras son Las variables regresoras
linealmente son linealmente independientes
independientes
Los errores tienen los siguientes supuestos:
1)
E ( i ) 0 i 1, 2,...., n
Var ( i ) 2 i 1, 2,......, n
2)
( i j ) 0 i j
3)
4)
i N (0, 2 )
Matricialmente se tiene que:
ε N n (0, 2I)
5) n>k+1
Estimación de β.
Sabemos que:
ei = yi −ŷi
ei = yi − (β̂0 + β̂1 x1i + β̂2 x2i +. . .β̂k xki )
se obtiene
En el modelo RLM:
El error se distribuye como una normal p variante
Y se distribuye normalmente….
Entonces
Si es una matriz no singular entonces la distribución puede describirse por
la siguiente función de densidad
L=
Se tiene que :
1
y-xβ ' y-xβ
L y, x, β, f ( i )
n
2 1 2 2
e
n 2
n/2
i 1
Se requiere obtener estimadores que minimic en la suma de cuadrados de los residuos, lo
que significa encontrar estimadores que maximicen el logaritmo de la función de
verosimilitud :
ln L y, x, β, 2 ln(2 ) n ln( )
n 1
2
y - xβ y - xβ
'
2 2
𝜕𝐿
Derivando parcialmente con respecto a 0 , 1 ,..........., k , 2 ,esto es | =𝟎
𝜕𝜷 𝜷
̂
ln L y, x,β, 2 0 yi n0 1 x j1 2 x j 2 ................... k x jk
n n n n
0 i 1 j 1 j 1 j 1
ln L y, x,β, 2 0 yi x j1 0 x j1 1 x 2j1 ................... k x j1 x jk
n n n n
1 i 1 j 1 j 1 j 1
.
.
ln L y, x,β, 2 0 yi x jk 0 x jk 1 x j1 x jk ................... k x 2jk
n n n n
k i 1 j 1 j 1 j 1
Encontrando:
̂ = 𝑿’𝒚 ⇒
𝑿’𝑿𝜷 ecuaciones normales
β X'X X'y
-1
SCE
CME
n p
También se sabe que E(CME )
2
SCE i 1 e 2
i
ˆ 2 CME
n p n p
Tarea:
(y - Xβ)'(y - Xβ)
ln L y, x,β, 2 0 2
2
n
2 𝑆𝐶𝑅𝑒𝑠
𝜎
̃ =
𝑛−𝑝
- 2X´V-1Y + 2X´V-1Xβ = 0
- X´V-1Y + X´V-1Xβ = 0
X´V-1Xβ = X´V-1Y
^β = (X´V-1X)-1 X´V-1Y
Demostración: Tarea
1.3.1.2.Interpretación Geométrica
Espacio de X
Ŷ
MMC:
2. V(Y) = V(Xβ+ε) = σ2 I
3. E (β^) = β es insesgado
4. Cov (β^) = V(β^) = σ2 (X´X)-1
5. V(β^j) = σ2 Cjj
6. Sea Y^ = Xβ^ entonces E (Y^) = XE(β^) = Xβ
7. V(Y^) = σ2 X(X´X)-1X´ = σ2 H
8. H matriz hat, sombrero, proyección de rango p y además idempotente.
9. Sea Y^ = Xβ^ = X(X´X)-1X´ Y = HY
Y^ = HY vector proyección
Propiedades algebraicas de los estimadores M.C.O.
1. La suma de los residuales en todo modelo de regresión que contiene el
intercepto es siempre 0
2. ∑ (Yi - Y^i ) = ∑℮i = 0
yi yˆi
i 1 i 1
4. La suma de valores observados
5. El producto cruzado muestral entre cada uno de los regresores y los
'
residuos mco es X e = 0
6. ˆ 'e 0
Y