Vectores y Matrices Aleatorias

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 13

 x1 

 
Vector y matrices aleatorias  x2 
X = . 
1. Un vector aleatorio es un vector cuyos elementos  
 . 
son variables aleatorias (Xpx1) x 
 p

 x11 x12 . . x1 p 
x x2 p 
2. Una matriz aleatoria es una matriz cuyos elementos  21 x22 . . 
son variables aleatorias (Xnp) X = . . . . . 
 
 . . . . . 
 xn1 xn 2 . . xnp 
 

3. El valor esperado de un vector aleatorio (o de una  E ( x11 ) E ( x12 ) . . E ( x1 p ) 


E( x ) E ( x22 ) . . E ( x2 p ) 
matriz aleatoria) es un vector (o matriz ) cuyos  21 
elementos son sus valores esperado. Sea X una E( X ) =  . . . . . 
 
 . . . . . 
matriz aleatoria,
 E ( xn1 ) E ( xn 2 ) . . E ( xnp ) 
 
4. Si X e Y son dos matrices aleatorias de la misma
dimensión, A y B son matrices adecuadas de constantes,
entonces.
E ( X + Y ) = E ( X ) + E (Y ) E ( AXB) = AE ( X ) B
Medidas de sesgo y de kurtosis

Medidas de sesgo y de kurtosis para la distribución multinormal. Mardia(1970) .


Sea Xnxp ; sea xr y xs vectores filas de X; x vector de medias muestral, S matriz de
covarianza muestral. Utilizando la función invariante,

g rs = (x r − x)' S −1 (x s − x)
H 0 1, p = 0 ,  2, p = p( p + 2) n
1 1 n 2
b1, p = 2
n
g 3
rs b2, p =  g rr
H1 1, p  0 ´´y/o  2, p  p( p + 2) r ,s =1 n r =1
Para n → ∞

1 b1p medida de sesgo


nb1, p   2f f = 1 p( p + 1)( p + 2)
6 6 b2p medida de kurtosis

b2, p − p( p + 2)
 N (0,1)
8 p( p + 2) / n
1 b2, p − p( p + 2)
Rechazo H0 si nb1, p   ( f , ) y/o  z(1− / 2)
6 8 p( p + 2) / n
Nota.- Se rechaza la hipótesis de normalidad multivariada para valores grandes de b1, p

y para valores grandes y pequeños de de b2, p


Elipsoides de igual concentración

La distribución normal p variada tiene en p dimensiones, densidad constante


sobre elipses o elipsoides de la forma

( x −  )'  ( x −  ) = c
−1 2

donde c es una constante. Estos elipsoides son denominados contornos de la


distribución o elipsoides de igual concentración. Para =0, estos contornos son
centrados en x=0 y cuando = I , los contornos son círculos o esferas o
hiper_esferas para mayor dimensión.

Sea x Np(,)
−1
U = ( x −  )'  ( x −  )  p
2

La probabilidad de un punto x cae dentro del elipsoide, P(U<= c2),


es obtenida utilizando tablas chi-cuadrado.
Definición. Si x tiene distribución normal p variada si y solo sí a’x tiene distribución
normal univariada para todo vector fijo apx1

Resultado. Si x tiene distribución normal p variada y sea y=A’x + c, donde A es una matriz
pxq y c un vector qx1, entonces y tiene distribución q-variada.

Resultado Distribución marginal. Todo subconjunto de elementos de un vector normal


multivariado tiene distribución normal multivariado. En particular una componente del
vector tiene distribución normal univariada.
Ejemplo  x1  12.6375 13.1647 1.7089 1.2387 2.0825
  157.8738
 x2  241.1038 13.1647 25.6199 2.7095 2.1679 2.6987
x =  x3   N 5 31.4920 1.7089 2.7095 0.5758 0.2965 0.4104
  18.4826
 x4  20.7709 1.2387 2.1679 0.2965 0.2962 0.3052
  2.0825 2.6987 0.4104 0.3052 0.9219
 x5 
20.5

DISTRIBUCIONES MARGINALES 20

1.0000 0.7316
19.5

 x2    241.1038 25.6199 2.1679  Matriz de 19

   N   =  ,  =    18.5

  correlaciones 0.7316 1.0000


 x4   18.4826   2.1679 0.2962 
18

 17.5

17
225 230 235 240 245 250 255 260
MEDIDAS GLOBALES DE VARIABILIDAD

a).- Variabilidad total de los datos:

b).- Varianza promedio:

c).- Varianza generalizada:

Su raíz cuadrada se denomina desviación típica generalizada. Es una medida del área
(para p=2), volumen (para p=3) o hipervolumen (para p>3) ocupado por el conjunto de
datos. Supongamos el caso p=2. Entonces, S puede escribirse:

y la desviación típica generalizada es:

d).- La variabilidad promedio

6
Distancias: Existe un gran número de distancias, que verifican los tres
axiomas fundamentales.

a.- Distancia euclidiana. En un espacio de p dimensiones, la formula de la


distancia euclidiana es:

Donde XAj y XBj son las coordenadas respectivas de los puntos A y B en la


dimensión j.

b.- Distancia generalizada o D2 de Mahalanobis. Permite situar varias


poblaciones en un espacio de p dimensiones (p variables) y determinar en
qué medida estas poblaciones pueden ser diferenciadas las unas de las
otras. La principal ventaja de la distancia de Mahalanobis sobre la distancia
euclidea es que permite que las variables estén correlacionadas; en el caso
de que las correlaciones sean cero, la distancia de Mahalanobis es igual a la
euclidea medida con variables normalizadas.
ANÁLISIS DE DATOS CATEGÓRICOS Msc: NelQuezada
9
Lucio
Si llamamos W a la matriz de covarianzas, la distancia de Mahalanobis
entre A y B viene dada en notación matricial.

c.- Distancia de Minkowski. Se adapta perfectamente al caso en que los


ejes sobre los que se miden las coordenadas son ortogonales, con lo cual,
no existen problemas de correlación entre variables.
La distancia de Minkowski de orden n, es decir cuando la distancia entre los
puntos A y B se mide sobre sus coordenadas en n ejes ortogonales es.

Se observa, pues, desde un punto de vista teórico que la distancia


euclidiana es un caso particular, cuando n=2 y cuando n=1, a esta distancia
se le da el nombre de city-block.

10
Resultado
1
Si X es una matriz de datos de N p (, ), entonces x  N p (, )
n
Resultado Definición Distribución Wishart
n
Sea Xnxp es una matriz de datos de N p (0, ), entonces M = X ' X =  xi xi '  W p (, n) ,
i =1

distribución Wishart con n grados de libertad y  matriz de escala.

Resultado Distribución Wishart estándar


n
Sea Xnxp es una matriz de datos de N p (0, I), entonces x x ' W
i =1
i i p (I, n) , distribución

Wishart con n grados de libertad y I matriz de escala.


T2 de hotelling, Wilks lambda.

Definición Distribución T2 de Hotelling

Sea d  N p (0, I), y sea M  W p (I, n) , d y M distribuidos independientemente.


Entonces, nd ' M −1d  T 2 ( p ,n ) , distribución T2de Hotelling con (p,n) grados de libertad.

Resultado
Sea x  N p ( , ), y sea M  W p (, n) , d y M distribuidos independientemente.
Entonces, n(x − μ)' M −1 (x − μ)  T 2 ( p ,n ) , distribución T2de Hotelling con ( p,n) grados
de libertad.

Resultado. Definición Relación de T2 y F

np (n − 1) p
T 2
( p .n ) = F( p.n− p+1) T ( p.n−1) =
2
F( p.n− p )
(n − p + 1) (n − p)
Resultado. Estadística de Wilks
Sea A  Wp ( I , m) y B  Wp ( I , n) tales que A y B son independientes m>=p, luego
A
=   ( p.m.n ) tiene distribución lambda de wilks con parámetros p, m y n
A+ B

Nota.- Para n=1,2, puede expresarse como una F

Nota.- para otros valores de n y p se utiliza aproximación de Bartlett, para m → ∞


1
− (m − 1 ( p − n + 1)) log( ( p.m.n)   (2np)
2

También podría gustarte