Apuntes 1
Apuntes 1
Apuntes 1
Definición: Un vector aleatorio ⃗x tiene distribución normal p-variada con vector medio u⃗ y matriz de
varianza-covarianza Σ si la función de densidad es dada por
t −1
e−0. 5( ⃗x−⃗u ) Σ ( ⃗x− u⃗ )
f ( ⃗x )=
( 2 π ) p/ 2 √ det ( Σ )
La parte funcional del exponente se conoce como distancia al cuadrado de Mahalanobis.Ella toma en cuenta
la variabilidad y covarianza de los datos, la denotación usual es
0 .5
d 2 ( ⃗x ,Ω)=( ⃗x −⃗u )t Σ−1 ( ⃗x −⃗u ) ⇔d M ( ⃗x ,Ω)=( ( ⃗x −⃗u )t Σ−1 ( ⃗x −⃗u ) )
M
2
d 2≈ Χ (p)
Nota: Bajo contexto de normalidad M
Definición: El vector medio poblacional o esperanza del vector aleatorio ⃗x se define por
∞ ∞ ∞
E(⃗x )= ∫ ∫ ...... ∫ ⃗x f (⃗x )d ⃗x
−∞ −∞ −∞ son p integrales definidas ,ya que, el vector aleatorio tiene
p componentes
([ ] )
x 1−u 1
x 2−u 2
Σ=E ( ( ⃗x −⃗u ) ( ⃗x −⃗u ) )=E .
t
[ x 1 −u1 , x2 −u2 ,. , . , x p −u p ]
.
x p −u p
Desarrollando y aplicando las propiedades de la esperanza se puede explicitar, que ésta matriz es
simétrica y contiene en la diagonal las varianzas de las componentes del vector aleatorio y fuera de la
diagonal las covarianzas entre las variables aleatorias distintas
2
x V ( x i )=E( x 2 )−( E ( x i ) )
Pero la varianza de la variable i es dada por i
([ ])
E (( x 1 −u1 )2 ) E ( ( x1 −u1 )( x 2−u2 ) ) . . E (( x 1 −u1 )( x p −u p ) )
E ( ( x 1 −u1 )(x 2 −u2 ) ) E (( x 2−u 2 )2 ) . . E (( x 2 −u2 )( x p −u p ) )
. . . . .
. . . . .
E ( ( x 1 −u1 )(x p −u p ) ) E ( ( x 2−u2 )( x p −u p ) ) . . E ( ( x p−u p )2 )
( )
σ 11 σ 12 . . σ1 p
σ 21 σ 22 . . σ2 p
Σ= . . . . .
. . . . .
σ p1 σ p 2 . . σ pp
El siguiente gráfico hecho con matlab corresponde a una distribución normal bivariada en el
dominio [ −3,3 ] x [− 3,3 ] con una grilla a distancia 0.2 para el caso particular
⃗μ=
[] [
0
0
Σ=
0 . 25 0 .3
0.3 1 ]
Observación:Las sentencias en Matlab son mu = [0 0]; sigma = [0.25 0.3; 0.3 1];
Cree una cuadrícula de puntos espaciados uniformemente en el espacio bidimensional.
x1 = -3:0.2:3; x2 = -3:0.2:3; [X1,X2] = meshgrid(x1,x2); X = [X1(:) X2(:)];
y = mvnpdf(X,mu,sigma); y = reshape(y,length(x2),length(x1));
surf(x1,x2,y) caxis([min(y(:))-0.5*range(y(:)),max(y(:))]) axis([-3 3 -3 3 0
0.4]) xlabel('x1') ylabel('x2') zlabel('Probability Density')
⃗x =[ x 1 x 2 . . x p ]t
Propiedades: Consideraremos un vector aleatorio y matriz de varianza-
covarianza Σ
i) Sea
⃗x ≈N p ( ⃗μ , Σ ) d⃗ un vector constante con p componentes. Entonces
⃗x + ⃗d≈N p ( ⃗μ + ⃗d , Σ )
ii)
⃗x ≈N p ( ⃗μ , Σ ) Sea A una matriz con q filas y p columnas. Entonces el vector
A ⃗x ≈N q ( A ⃗μ , AΣA t )
iii)
⃗x ≈N p ( ⃗μ , Σ ) ⃗
Sea d un vector constante con p componentes. Entonces la combinación lineal de
Este resultado es muy importante, ya que, asegura que normalidad multivariante necesariamente implica
normalidad real en las componentes, sin embargo, al revés no es cierto, la normalidad marginal de cada
iv) Sea
⃗x ≈N p ( ⃗μ , Σ ) .
Entonces cualquier subvector de ⃗x también tiene distribución normal multivariada. En particular, cada
v) Sea
⃗x ≈N p ( ⃗μ , Σ ) Entonces el vector
⃗y= ( Σ )−1 /2 ( ⃗x −⃗μ )≈N p (0⃗ , I p ) . Además si A es una matriz
⃗t 2
y A ⃗y ≈Χ ( p)
de rango p. Entonces
vi) Si el vector
⃗x ≈N p ( ⃗μ , Σ ) se puede particionar en la forma
[]
⃗x = v⃗ ≈N q +( p−q)
⃗
w
⃗1 Σ 11
u
⃗
,
u 2 Σ 21(( ) [ Σ12
Σ22 ])
entonces los vectores ⃗v y ⃗w son independientes ⇔ Σ12=0
x 1≈ N p ( ⃗
⃗ μ1 , Σ1 ) x 2≈ N p ( ⃗
⃗ μ2 , Σ2 )
vii) Si 1 y 2 y además estos dos vectores son independientes.
entonces el vector
⃗x =
[] x⃗1
⃗
x2
≈Np +p
1 2 ⃗
,
(( ) [
u⃗1 Σ 1
u2 0
0
Σ2 ])
Conclusiones: Se han expuesto los resultados más importantes de la normalidad multivariante, éste marco
teórico incorpora resultados estadísticos que permitirán inferir situaciones, condiciones o conceptos en un
contexto multivariado en la población usando datos que se explicitan en una matriz de muestreo X