Apuntes 1

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 4

Tema 1: Normalidad Multivariante

Introducción: Se explicitarán las propiedades más importantes respecto de la normalidad multivariante, se


definirá su función de densidad y los parámetros poblacionales que describen la distribución, como por
ejemplo, el vector esperado y la matriz de varianza-covarianza

Definición: Un vector aleatorio ⃗x tiene distribución normal p-variada con vector medio u⃗ y matriz de
varianza-covarianza Σ si la función de densidad es dada por

t −1
e−0. 5( ⃗x−⃗u ) Σ ( ⃗x− u⃗ )
f ( ⃗x )=
( 2 π ) p/ 2 √ det ( Σ )
La parte funcional del exponente se conoce como distancia al cuadrado de Mahalanobis.Ella toma en cuenta
la variabilidad y covarianza de los datos, la denotación usual es

0 .5
d 2 ( ⃗x ,Ω)=( ⃗x −⃗u )t Σ−1 ( ⃗x −⃗u ) ⇔d M ( ⃗x ,Ω)=( ( ⃗x −⃗u )t Σ−1 ( ⃗x −⃗u ) )
M

2
d 2≈ Χ (p)
Nota: Bajo contexto de normalidad M

Definición: El vector medio poblacional o esperanza del vector aleatorio ⃗x se define por
∞ ∞ ∞
E(⃗x )= ∫ ∫ ...... ∫ ⃗x f (⃗x )d ⃗x
−∞ −∞ −∞ son p integrales definidas ,ya que, el vector aleatorio tiene

p componentes

Definición: La matriz de varianzas-covarianzas(v-c) se define por

([ ] )
x 1−u 1
x 2−u 2
Σ=E ( ( ⃗x −⃗u ) ( ⃗x −⃗u ) )=E .
t
[ x 1 −u1 , x2 −u2 ,. , . , x p −u p ]
.
x p −u p

Desarrollando y aplicando las propiedades de la esperanza se puede explicitar, que ésta matriz es
simétrica y contiene en la diagonal las varianzas de las componentes del vector aleatorio y fuera de la
diagonal las covarianzas entre las variables aleatorias distintas

E ( ( x i−ui )2 )= E ( x 2 )−2u i E ( x i )+u 2= E ( x 2 )−( E ( x i )2 )


En efecto: i i i

2
x V ( x i )=E( x 2 )−( E ( x i ) )
Pero la varianza de la variable i es dada por i

¿Qué ocurre fuera de la diagonal?


Se ubican las covarianzas de las variables aleatorias que son distintas, miden el nivel de asociación lineal que
tienen entre ellas

Definición: La covarianza entre las variables aleatorias


x i y x j se define por

E ( ( xi −ui )( x j −u j ) ) =E ( ( xi x j−x i u j−x j ui +u i u j )


=E ( x i x j )−u j E ( xi )−ui E ( x j )+ ui u j
=E ( x i x j )−E ( x i ) E( x j )
=σ ij i ≠ j
Entonces la descripción general de la matriz de varianza-covarianza es la siguiente

Σ=E ( ( x⃗ −u⃗ )( x⃗ −u⃗ )t ) =

([ ])
E (( x 1 −u1 )2 ) E ( ( x1 −u1 )( x 2−u2 ) ) . . E (( x 1 −u1 )( x p −u p ) )
E ( ( x 1 −u1 )(x 2 −u2 ) ) E (( x 2−u 2 )2 ) . . E (( x 2 −u2 )( x p −u p ) )
. . . . .
. . . . .
E ( ( x 1 −u1 )(x p −u p ) ) E ( ( x 2−u2 )( x p −u p ) ) . . E ( ( x p−u p )2 )

( )
σ 11 σ 12 . . σ1 p
σ 21 σ 22 . . σ2 p
Σ= . . . . .
. . . . .
σ p1 σ p 2 . . σ pp

El siguiente gráfico hecho con matlab corresponde a una distribución normal bivariada en el
dominio [ −3,3 ] x [− 3,3 ] con una grilla a distancia 0.2 para el caso particular

⃗μ=
[] [
0
0
Σ=
0 . 25 0 .3
0.3 1 ]

La función de distribución en éste caso particular será


( [ ][ ] )
−0 . 5 ( x , y ) 6 . 25 −1. 875 x
e
−1. 875 1 . 5625 y
f ( x , y )=
2 π √0 . 16

Observación:Las sentencias en Matlab son mu = [0 0]; sigma = [0.25 0.3; 0.3 1];
Cree una cuadrícula de puntos espaciados uniformemente en el espacio bidimensional.
x1 = -3:0.2:3; x2 = -3:0.2:3; [X1,X2] = meshgrid(x1,x2); X = [X1(:) X2(:)];
y = mvnpdf(X,mu,sigma); y = reshape(y,length(x2),length(x1));
surf(x1,x2,y) caxis([min(y(:))-0.5*range(y(:)),max(y(:))]) axis([-3 3 -3 3 0
0.4]) xlabel('x1') ylabel('x2') zlabel('Probability Density')

⃗x =[ x 1 x 2 . . x p ]t
Propiedades: Consideraremos un vector aleatorio y matriz de varianza-

covarianza Σ

i) Sea
⃗x ≈N p ( ⃗μ , Σ ) d⃗ un vector constante con p componentes. Entonces
⃗x + ⃗d≈N p ( ⃗μ + ⃗d , Σ )

ii)
⃗x ≈N p ( ⃗μ , Σ ) Sea A una matriz con q filas y p columnas. Entonces el vector

A ⃗x ≈N q ( A ⃗μ , AΣA t )

iii)
⃗x ≈N p ( ⃗μ , Σ ) ⃗
Sea d un vector constante con p componentes. Entonces la combinación lineal de

⃗d t∗⃗x ≈N (⃗d t∗⃗μ , ⃗d t Σ d⃗ )


variables aleatorias en IR caracterizadas por

Este resultado es muy importante, ya que, asegura que normalidad multivariante necesariamente implica
normalidad real en las componentes, sin embargo, al revés no es cierto, la normalidad marginal de cada

componente no asegura normalidad multivariante

iv) Sea
⃗x ≈N p ( ⃗μ , Σ ) .

Entonces cualquier subvector de ⃗x también tiene distribución normal multivariada. En particular, cada

componente tiene distribución normal en IR.

v) Sea
⃗x ≈N p ( ⃗μ , Σ ) Entonces el vector
⃗y= ( Σ )−1 /2 ( ⃗x −⃗μ )≈N p (0⃗ , I p ) . Además si A es una matriz

⃗t 2
y A ⃗y ≈Χ ( p)
de rango p. Entonces

vi) Si el vector
⃗x ≈N p ( ⃗μ , Σ ) se puede particionar en la forma

[]
⃗x = v⃗ ≈N q +( p−q)

w
⃗1 Σ 11
u

,
u 2 Σ 21(( ) [ Σ12
Σ22 ])
entonces los vectores ⃗v y ⃗w son independientes ⇔ Σ12=0

x 1≈ N p ( ⃗
⃗ μ1 , Σ1 ) x 2≈ N p ( ⃗
⃗ μ2 , Σ2 )
vii) Si 1 y 2 y además estos dos vectores son independientes.

entonces el vector
⃗x =
[] x⃗1

x2
≈Np +p
1 2 ⃗
,
(( ) [
u⃗1 Σ 1
u2 0
0
Σ2 ])
Conclusiones: Se han expuesto los resultados más importantes de la normalidad multivariante, éste marco
teórico incorpora resultados estadísticos que permitirán inferir situaciones, condiciones o conceptos en un
contexto multivariado en la población usando datos que se explicitan en una matriz de muestreo X

También podría gustarte