Probabilidad
Probabilidad
Probabilidad
TEMA 1
VARIABLES ALEATORIAS MULTIDIMENSIONALES
Recordemos que el concepto de variable aleatoria surge de la necesidad de transformar el
espacio muestral asociado a un experimento aleatorio en un espacio cuantitativo, lo que se
consigue asignando un valor real a cada resultado elemental del experimento (a cada elemento
del espacio muestral). Este valor se obtiene midiendo una determinada caracterstica numerica
de los resultados del experimento que describa alguna propiedad de interes.
En muchas ocasiones, para describir las propiedades de interes de los resultados de un experi-
mento es preciso considerar varias caractersticas. Por ejemplo, en el experimento consistente en
la eleccion de un individuo de una determinada poblacion, se consideran las variables altura
y peso. Si se extraen cinco bolas de una urna con bolas blancas, negras y rojas, podemos
estar interesados en el numero de bolas de cada color.
Es evidente que al considerar diversas caractersticas para describir los resultados de un
experimento aleatorio (o sea, diversas variables aleatorias), estas estaran a menudo relacionadas,
por lo que sera conveniente realizar un estudio conjunto de ellas que refleje dichas relaciones,
mas que analizarlas individualmente.
De esta forma aparece el concepto de variable aleatoria multidimensional o vector aleatorio
que, en terminos generales, puede definirse como una funcion que asigna a cada elemento del
espacio muestral un conjunto finito de n umeros reales que describen el valor de cada una de las
caractersticas bajo estudio en dicho elemento.
Como en el caso unidimensional, al considerar un vector aleatorio definido en relacion a
un experimento, los conjuntos de interes estaran definidos en terminos de dicho vector y, para
poder calcular sus probabilidades, es preciso exigir determinadas propiedades. La definicion
formal y el tratamiento de las variables aleatorias multidimensionales son analogos a los de
unidimensionales.
B n = (Y n )
- Igual que en el caso unidimensional, todo intervalo, y en particular, todo punto y, por tanto,
todo conjunto numerable de Rn es un conjunto de Borel.
on de B n
Teorema: Caracterizaci
B n coincide con la algebra generada por los intervalos de la forma (, x], x Rn .
x = (x1 , . . . , xn ) Rn .
Dem
= X 1 (R R (, xi ] R) A
=] Sea x = (x1 . . . , xn ) Rn :
n
\
X 1
((, x]) = { / Xi () xi i = 1, . . . , n} = Xi1 ((, xi ]) A
i=1
Distribuci
on de probabilidad de un vector aleatorio
Como ocurra en el caso unidimensional, al considerar un vector aleatorio X = (X1 , . . . , Xn )
sobre un espacio de probabilidad, los u nicos sucesos de interes son los que se expresan en
terminos de dicho vector:
{ / X() B}, B B n
{ / X() B} = X 1 (B) = {X B} A
PX = P X 1 : B n [0, 1]
B 7 PX (B) = P{X 1 (B)} = P{X B}
Funci
on de distribuci
on de un vector aleatorio
Definicion: Dado X = (X1 , . . . , Xn ) : (, A, P) (Rn , B n , PX ), se define la denominada
funcion de distribucion de X como la funcion
FX : Rn [0, 1]
x 7 FX (x) = PX ((, x]) = P(X 1 ((, x])) = P{X x}
Teorema: Propiedades de FX
La funcion de distribucion de un vector aleatorio X satisface:
x1 , . . . , xi1 , xi+1 , . . . , xn
n
X
+ FX (x1 +1 , . . . , xi1 +i1 , xi , xi+1 +i+1 , . . . , xj1 +j1 , xj , xj+1 +j+1 , . . . , xn +n )+
i,j=1
i<j
+ + (1)n FX (x1 , . . . , xn ) 0
Ejemplo
0 x<0 o y <0 o x+y <1
F (x, y) =
1 x 0, y 0, x + y 1
Es no decreciente en x e y.
Es continua a la derecha en x e y.
F (+, +) = 1 y F (x, ) = F (, y) = 0, x, y R
a) (x1 , . . . , xn ) Rn ,
lim
0
FX (x1 , . . . , xi1 , xi , xi+1 . . . , xn ) =
>0
b) (x1 , . . . , xn ) Rn ,
P{X1 x1 , . . . , Xi1 xi1 , Xi = xi , Xi+1 xi+1 , . . . , Xn xn } =
FX (x1 , . . . , xi1 , xi , xi+1 , . . . , xn ) FX (x1 , . . . , xi1 , x
i , xi+1 , . . . , xn )
Variables bidimensionales: C
alculo de probabilidades de intervalos
P{X1 < b, c X2 d} = F (b , d) F (b , c )
P [a X1 b, c < X2 < d]
P [a X1 < b, c X2 < d]
P [a < X1 b, c X2 < d]
P [a X1 b, c X2 < d]
P [a X1 < b, c < X2 d]
P [a < X1 b, c < X2 d]
P [a X1 b, c < X2 d]
P [a < X1 < b, c X2 d]
P [a X1 < b, c X2 d]
P [a < X1 b, c X2 d]
P [a X1 b, c X2 d]
p : EX [0, 1]
xn 7 P{X = xn } = pn
P
que satisface pn 0 y xEX pn = 1 y determina completamente la distribucion del vector y,
por tanto, su funcion de distribucion:
X
PX (B) = P{X B} = P{X = x} B B n
X xBEX
FX (x) = P{X = xj } x Rn
xj EX
xj x
Ya hemos visto que un vector aleatorio no es mas que un conjunto de variables aleatorias
unidimensionales. Vemos a continuacion que los vectores discretos estan formados por variables
aleatorias discretas y recprocamente.
Se deduce entonces que un vector aleatorio n-dimensional de tipo discreto no es mas que un
conjunto de n variables aleatorias unidimensionales de tipo discreto.
Ejemplo: Se lanza un dado equilibrado y se observa la cara superior. Se definen las variables
aleatorias
2 si sale 1, 2, 3
1 si el resultado es impar
X1 = X2 = 0 si sale 4
1 si el resultado es par
3 si sale 5, 6
X2
2 0 3
X1
1 2/6 0 1/6
1 1/6 1/6 1/6
Funcion de distribucion
0 x1 < 1 o x2 < 2
2/6 1 x1 < 1, 2 x2 < 3
3/6 1 x1 < 1, x2 3
FX (x1 , x2 ) =
3/6 x1 1, 2 x2 < 0
4/6 x1 1, 0 x2 < 3
1 x1 1, x2 3
n FX (x1 , . . . , xn )
= fX (x1 , . . . , xn )
x1 xn
3) fX puede ser cambiada en conjuntos de medida nula sin afectar a la integral, o sea, a FX .
Por tanto, notamos que fX no es u nica. Elegiremos siempre una version de ella que sea,
en la medida de lo posible, continua.
R
Teorema. Toda funcion f : Rn R no negativa, integrable y tal que Rn f (t)dt = 1 es la
funcion de densidad de alg
un vector aleatorio n-dimensional de tipo continuo.
En el caso discreto hemos visto que los vectores pueden caracterizarse como conjuntos de
variables aleatorias unidimensionales discretas. Sin embargo, en el caso continuo esto no es
cierto.
Si bien las componentes de un vector aleatorio continuo son tambien de tipo continuo, el
recproco no es cierto. Probamos lo primero en la siguiente proposicion y lo segundo con un
contraejemplo.
FX (+, . . . , +, xi , +, . . . , +) =
Z + Z + Z xi Z + Z +
f (t1 , . . . , ti , . . . , tn )dt1 dtn =
Z xi Z + Z +
f (t1 , . . . , ti , . . . , tn )dt1 dti1 dti+1 . . . dtn dti
Entonces si definimos
Z + Z +
fi (ti ) = f (t1 , . . . , ti , . . . , tn )dt1 dti1 dti+1 . . . dtn
Sin embargo, es evidente que P{X1 = X2 } = 1. Por tanto, deducimos que (X1 , X2 ) no puede
ser de tipo continuo.
Z x Z y
F (x, y) = f (s, t)dtds =
0 x<0oy<0
RxRy Rx R y t
est dtds = es ds x y
0 0 0 0
e dt = (1 e )(1 e ) x, y 0
f (x, y) = 1 0 x, y 1
Calcular:
a) P{X + Y 1}
b) P{1/3 X + Y 3/2}
c) P{X 2Y }
a) Z 1 Z 1y Z 1 1
P{X + Y 1} = dxdy = (1 y)dy = (y y 2 /2)0 = 1/2
0 0 0
o bien Z 1 Z 1x Z 1 1
dydx = (1 x)dx = (x x2 /2)0 = 1/2
0 0 0
b)
Z 1/3 Z 1 Z 1/2 Z 1 Z 1 Z 3/2y
59
P{1/3 X + Y 3/2} = dydx + dydx + dydx =
0 1/3x 1/3 0 1/2 0 72
Distribuciones marginales
Al considerar un vector aleatorio como conjunto de variables aleatorias unidimensionales
la distribucion del vector se denomina distribucion conjunta (funcion de distribucion conjunta,
funcion masa de probabilidad conjunta o funcion de densidad conjunta) y a la distribucion de
cada componente se le denomina distribucion marginal de dicha componente.
Veamos a continuacion como pueden obtenerse las distribuciones marginales de cada com-
ponente a partir de la conjunta.
Funci
on de distribuci
on marginal
Si X = (X1 , . . . , Xn ) es un vector aleatorio con funcion de distribucion FX
Analogamente,
Sin embargo, ya que nosotros trabajamos con vectores discretos o continuos cuyas componentes,
como hemos visto, son variables aleatorias discretas o continuas, lo que nos interesa es el calculo
de las f.m.p o funciones de densidad marginales a partir de la conjunta.
Distribuciones marginales de vectores discretos
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto con P{X EX } = 1 y funcion masa de
probabilidad conocida: P{X = x} x EX .
Si Xi es una componente arbitraria (ya sabemos que es discreta y que toma valores en el
conjunto EXi = {xi R / x EX : (x)i = xi }) su funcion masa de probabilidad puede
obtenerse a partir de la de X por la siguiente relacion
X
P{Xi = xi } = P{X = x} =
xEX
(x)i =xi
X
P{X1 = x1 , . . . , Xi1 = xi1 , Xi = xi , Xi+1 = xi+1 , . . . , Xn = xn }
x1 ,...,xi1 ,xi+1 ,...,xn
(x1 ,...,xi ,...,xn )EX
Ejemplo: Se lanza una moneda tres veces y se define X : N umero de caras e Y : Diferencia, en
valor absoluto, de n
umero de caras y cruces. Calcular las distribuciones marginales a partir de
la conjunta.
La funcion masa de probabilidad conjunta y marginales son (sin mas que sumar por filas y por
columnas)
X
0 1 2 3
Y
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8 1
Por tanto, esta es la funcion de densidad de Xi que, como observamos se obtiene integrando la
conjunta en el resto de las componentes, fijando en la componente i-esima el punto de interes
ti .
1 3 1
Z
x 10
f2 (y) = 10x2 ydx = 10y = y(1 y 3 ) 0y1
y 3 y 3
La probabilidad P{Y 1/2} se puede calcular de dos formas, con la marginal
Z 1/2
10 19
P{Y 1/2} = y(1 y 3 )dy =
0 3 48
o con la conjunta,
Z 1/2 Z x Z 1 Z 1/2
2 19
P{Y 1/2} = 10x ydydx + 10x2 ydydx =
0 0 1/2 0 48
o bien,
Z 1/2 Z 1
19
P{Y 1/2} = 10x2 ydxdy =
0 y 48
de lo que se deduce
Z + Z +
fi1 ,...,ik (ti1 ,...,tik ) = fX (t1 , . . . , tn )dtn . . . dtik +1 dtik 1 dti1 +1 dti1 1 , , dt1
Distribuciones condicionadas
En el analisis conjunto de variables aleatorias surge una importante cuestion, como es
el estudio del comportamiento de un subconjunto de ellas, cuando el resto esta sujeto a
alguna condicion y, en particular, cuando se conoce su valor. Aparece as, el concepto de
distribucion condicionada.
Analizamos a continuacion como pueden obtenerse las distribuciones condicionadas a partir
de la conjunta distinguiendo entre vectores discretos y continuos.
Distribuciones condicionadas de vectores discretos
Caso bidimensional: X = (X1 , X2 )
Si tenemos un vector aleatorio X = (X1 , X2 ) definido en relacion a un experimento aleatorio
y se sabe que, por ejemplo, la variable X1 ha tomado un determinado valor, x1 , (P{X1 = x1 } =6
0), este conocimiento afecta a la distribucion de la variable X2 . De hecho, las probabilidades
de los distintos valores de X2 habra que calcularlas teniendo en cuenta que X1 = x1 y seran,
por tanto, distribuciones condicionadas:
P{X1 = x1 , X2 = x2 }
si x2 EX2
P{X1 = x1 }
P {X2 = x2 | X1 = x1 } =
0 si x2
/ EX2
X
Notemos que P {X2 = x2 | X1 = x1 } 0 y P {X2 = x2 | X1 = x1 } = 1, por lo que estos
x2 EX2
valores proporcionan una funcion masa de probabilidad sobre EX2 .
La distribucion determinada por esta f.m.p. se denomina distribuci
on condicionada de X2
a X1 = x1 (distribucion de X2 dado X1 = x1 ).
Notemos que x1 / P{X1 = x1 } > 0 puede definirse la distribucion de X2 dado X1 = x1 y, de
forma analoga, x2 / P{X2 = x2 } > 0 se define la distribucion condicionada de X1 a X2 = x2 .
Caso general: X = (X1 , . . . , Xn )
La definicion de distribuciones condicionadas en el caso bidimensional se generaliza de forma
inmediata al caso de vectores de dimension arbitraria, caso en el que puede condicionarse bien
al valor de una sola variable o de varias.
Definici
on: Distribucion condicionada al valor de una variable
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto. Sea Xi una componente arbitraria y xi
R / P{Xi = xi } > 0. Se define la distribucion condicionada de (X1 , . . . , Xi1 , Xi+1 , . . . , Xn ) a
{Xi = xi } (distribucion de (X1 , . . . , Xi1 , Xi+1 , . . . , Xn ) dado Xi = xi ) como la determinada
por la funcion masa de probabilidad:
X
0 1 2 3
Y
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8 1
X|Y = 1
P{X = 0|Y = 1} = 0, P{X = 1|Y = 1} = 1/2, P{X = 2|Y = 1} = 1/2, P{X = 3|Y = 1} = 0
X|Y = 3
P{X = 0|Y = 3} = 1/2, P{X = 1|Y = 3} = 0, P{X = 2|Y = 3} = 0, P{X = 3|Y = 3} = 1/2
Y |X = 0
P{Y = 1|X = 0} = 0, P{Y = 3|X = 0} = 1 Degenerada en 3
Definici
on: Distribucion condicionada a valores de varias variables
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto y sea (Xi1 , . . . , Xik ) un subvector ar-
bitrario y (xi1 , . . . , xik ) Rk / P{Xi1 = xi1 , . . . , Xik = xik } > 0. Se define la distribucion
condicionada de (X1 , . . . , Xi1 1 , Xi1 +1 , . . . , Xik 1 , Xik +1 , . . . , Xn ) a {Xi1 = xi1 , . . . , Xik = xik }
como la determinada por la funcion masa de probabilidad:
P{X1 = x1 , . . . , Xi1 1 = xi1 1 , Xi1 +1 = xi1 +1 , . . . ,
Xik 1 = xik 1 , Xik +1 = xik +1 , . . . , Xn = xn / Xi1 = xi1 , . . . , Xik = xik } =
P{X1 = x1 , . . . , Xi1 = xi1 , . . . , Xik = xik , . . . , Xn = xn }
P{Xi1 = xi1 , . . . , Xik = xik }
(x1 , . . . , xi1 1 , xi1 +1 , . . . , xik 1 , xik +1 . . . , xn ) / (x1 , . . . , xi1 , . . . , xik , . . . , xn ) EX
fX (x1 , x2 )
f X1 |X2 =x2 (x1 /x2 ) =
fX2 (x2 )
Definici
on 2: Distribucion condicionada a valores de varias variables
Sea X = (X1 , . . . , Xn ) un vector aleatorio de tipo continuo con funcion de densidad fX y
sea (Xi1 , . . . , Xik ) un subvector arbitrario y (xi1 , . . . , xik ) Rk / fXi1 ,...,Xik (xi1 , . . . , xik ) > 0. Se
define la distribucion condicionada de (X1 , . . . , Xi1 1 , Xi1 +1 , . . . , Xik 1 , Xik +1 , . . . , Xn ) a {Xi1 =
xi1 , . . . , Xik = xik } como la determinada por la funcion de densidad:
f (x, y) = 2, 0<x<y<1
Calcular las funciones de densidad y de distribucion condicionadas. Calcular tambien las pro-
babilidades
P{Y 1/2 / X = 1/2} P{X 1/3 / Y = 2/3}
DISTRIBUCION DE X/Y = y0
Z y
f2 (y) = 2dx = 2y 0<y<1
0
Si 0 < y0 < 1
f (x, y) 2 1
fX/Y =y0 (x/y0 ) = fX/Y =y0 (x) = = = 0 < x < y0
fY (y0 ) 2y0 y0
es decir,
X/Y = y0 U (0, y0 )
A partir de la funcion de densidad condicionada podemos calcular la funcion de distribucion
condicionada
0 x<0
Z x 1
x
FX/Y =y0 (x/y0 ) = FX/Y =y0 (x) = dt = 0 x < y0
0 y0 y0
1 x y0
DE Y /X = x0
DISTRIBUCION
Z 1
f1 (x) = 2dy = 2 2x 0<x<1
x
Si 0 < x0 < 1
f (x0 , y) 2 1
fY /X=x0 (y/x0 ) = fY /X=x0 (y) = = = x0 < y < 1
f1 (x0 ) 2 2x0 1 x0
es decir,
Y /X = x0 U (x0 , 1)
A partir de la funcion de densidad condicionada podemos calcular la funcion de distribucion
condicionada
0 y < x0
yx
0
FY /X=x0 (y/x0 ) = FY /X=x0 (y) = x0 y < 1
1 x0
y1
1
Por otra parte
Z
P{Y 1/2 / X = 1/2} = fY /X=1/2 (y)dy = 1 dado que Y /X = 1/2 U (1/2, 1)
{y1/2}
Z Z 2/3
3 31 1
P{X 1/3 / Y = 2/3} = fX/Y =2/3 (x)dx = dx = =
{x1/3} 1/3 2 23 2
dado que X/Y = 2/3 U (0, 2/3). Tambien se podan haber calculado a partir de las corres-
pondientes funciones de distribucion.
Ejemplo 1
Sea X = (X1 , X2 ) un vector aleatorio discreto con funcion masa de probabilidad
x1
1 0 1
x2
2 1/6 1/12 1/6
1 1/6 1/12 1/6
2 1/12 0 1/12
Calcular la funcion masa de probabilidad de Y = (|X1 |, X22 )
Y toma valores en {(1, 4), (1, 1), (0, 4), (0, 1)}
1 1 1 1 6
P [Y = (1, 4)] = P [X1 = 1, X2 = 2] = + + + =
6 6 12 12 12
1 1 4
P [Y = (1, 1)] = P [X1 = 1, X2 = 1] = + =
6 6 12
1
P [Y = (0, 4)] = P [X1 = 0, X2 = 2] =
12
1
P [Y = (0, 1)] = P [X1 = 0, X2 = 1] =
12
Cambio de variable de continuo a discreto
Si X es un vector aleatorio n-dimensional continuo con funcion de densidad fX y g : (Rn , B n )
(Rm , B m ) es una transformacion medible tal que Y = g(X) es un vector aleatorio m-dimensional
discreto, su funcion masa de probabilidad se puede obtener a partir de la funcion de densidad
de X como
Z
1
P [Y = y] = P [X g (y)] = fX (x) dx.
g 1 (y)
Ejemplo 2
Sea X = (X1 , X2 ) con funcion de densidad
Z Z
P [Y = 0] = P [X1 > X2 ] = ex1 ex2 dx1 dx2
0 x2
Z Z Z
x2 x1
ex2 ex1 x2 dx2
= e e dx1 dx2 =
0 x2 0
Z (+)x2
e =
= e(+)x2 dx2 =
0 ( + ) 0 +
P [Y = 1] =
+
Z
1
FY (y) = P [Y y] = P [g(X) y] = P [X g ((, y])] = fX (x) dx
g 1 ((,y])
Ejemplo 3
Sea X = (X, Y ) con funcion de densidad
X u
P u = (X + Y > 0) = P [X uX + uY ] = (1 u > 0) = P X Y
X +Y 1u
Z Z u y Z
1u
h u
i
= x y
e e dx dy = ey 1 e 1u y dy
Z0 0 Z 0
u
= ey dy ey(1+ 1u ) dy = u
0 0
As,
0 u<0
FU (u) = u 0u<1
1 u1
y, por tanto,
fU (u) = 1, 0 < u < 1,
X
es decir, U (0, 1).
X +Y
fY (y) = fX (g 1 (y))|J|, y Rn
k(y)
X
fY (y) = |Ji |fX (gi1 (y))
i=1
Ejemplo 3
Sea X = (X, Y ) con funcion de densidad
X = UV
Y = V (1 U )
con jacobiano
v u
J = =v
v 1 u
As,
f(U,V ) (u, v) = f (uv, v(1u))|v| = euvv(1u) |v| = vev , uv > 0, v(1u) > 0 (0 < u < 1, v > 0),
de donde
Z
fU (u) = vev dv = 1, 0 < u < 1
0
Distribuci
on del m
aximo y del mnimo de variables aleatorias
Un tipo de transformaciones que aparecen com
unmente en la practica son el maximo y el
mnimo de variables aleatorias.
Sea X = (X1 , . . . , Xn ) un vector aleatorio, se define M = max(X1 , . . . , Xn ) como una variable
aleatoria tal que
Dado que estas transformaciones no satisfacen, en general, las condiciones de los Teoremas de
Cambio de variable, para obtener su distribucion usamos la formula general.
P [M x] = FX (x, . . . , x) x<y
F(M,N ) (x, y) = P [M x, N y] =
P [M x] P [M x, N > y]
= P [M x] P [y < Xi x, i = 1, . . . , n] xy
Ejemplo
Sea X = (X1 , X2 ) un vector aleatorio discreto con funcion masa de probabilidad
M = max(X1 , X2 ) : 0, 1, 2, . . .
x
X x
X
2
P [M x] = P [X1 x, X2 x] = P [X1 = x1 , X2 = x2 ] = p (1 p)x1 +x2
x1 ,x2 =0 x1 ,x2 =0
x
!2 2
(1 p)x+1 1
X
2 x1 2
= p (1 p) =p = (1 (1 p)x+1 )2
x1 =0
p
de donde se deduce
P [M = x] = P [M x] P [M x 1] = (1 (1 p)x+1 )2 (1 (1 p)x )2
Tambien se podra haber hecho directamente
de donde se deduce
P [N = x] = P [N x] P [N x 1] = (1 p)2x (1 p)2x+2
Tambien se podra haber hecho directamente
P [M = m, N = m] = P [X1 = m, X2 = m] = p2 (1 p)2m , m = n
P [M = m, N = n] = P [X1 = m, X2 = n] + P [X1 = n, X2 = m] = 2p2 (1 p)m+n , m 6= n
x1 , . . . , xn R
B1 , . . . , Bn B
Dem
] Si la relacion es cierta B1 , . . . , Bn B, tomando Bi = (, xi ] se tiene la definicion de
independencia.
] Caso discreto: X1 , . . . , Xn V.A. discretas
X X
P [X1 B1 , . . . , Xn Bn ] = P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] P [Xn = xn ]
x1 B1 x1 B1
xn Bn xn Bn
! !
X X
= P [X1 = x1 ] P [Xn = xn ]
x1 B1 xn Bn
= P [X1 B1 ] P [Xn Bn ]
] Caso continuo: X1 , . . . , Xn V.A. continuas (si las variables son independientes y continuas,
el vector aleatorio formado por ellas es continuo)
Z Z
P [X1 B1 , . . . , Xn Bn ] = fX (x1 , . . . , xn ) dxn . . . dx1
B1 Bn
Z Z
= fX1 (x1 ) fXn (xn ) dxn . . . dx1
B1 Bn
Z Z
= fX1 (x1 ) dx1 fXn (xn ) dxn
B1 Bn
= P [X1 B1 ] P [Xn Bn ]
A continuacion damos otra caracterizacion, de gran interes practico, para variables discretas y
continuas. Su interes radica en que no es preciso calcular las funciones masa de probabilidad o
funciones de densidad marginales para comprobar la independencia.
Ejemplos
f (x, y) = 1, 0 < x < 1, 0 < y < 1 Independientes
Propiedades de independencia
Teorema 1
Una variable aleatoria degenerada es independiente de cualquier otra.
Dem
X1 c, X2 arbitraria
0 = P [X1 x1 ]P [X2 x2 ] si x1 < c
F (x1 , x2 ) = P [X1 x1 , X2 x2 ] =
P [X2 x2 ] = P [X1 x1 ]P [X2 x2 ] si x1 c
Teorema 2
Si X1 , . . . , Xn son independientes y gi : (R, B) (R, B) son funciones medibles (i = 1, . . . , n),
entonces las variables g1 (X1 ), . . . , gn (Xn ) son indepedientes.
Dem
P [g1 (X1 ) y1 , . . . , gn (Xn ) yn ] = P [X1 g11 ((, y1 ]), . . . , Xn gn1 ((, yn ])]
= P [X1 g11 ((, y1 ])] P [Xn gn1 ((, yn ])]
= P [g1 (X1 ) y1 ] P [gn (Xn ) yn ]
Teorema 3
Si X1 , . . . , Xn son independientes, cualquier subcoleccion Xi1 , . . . , Xik tambien lo son.
Dem
Teorema 4
X1 , . . . , Xn son independientes las distribuciones condicionadas de cualquier subvector a
cualquier otro coinciden con la marginal del primero.
i, j = 1, . . . , n, i 6= j, Xi y Xj son independientes.
Puesto que cualquier subcoleccion de variables aleatoria independientes lo son, es claro que
INDEPENDENCIA MUTUA INDEPENDENCIA DOS A DOS
Sin embargo, el recproco no es cierto como se prueba en el siguiente ejemplo.
X1 y X3 son independientes:
P [X3 = 1] = 1/2
1
P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
1
P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
1
P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
1
P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
Definicion
Dada una familia arbitraria de variables aleatorias definidas sobre el mismo espacio de proba-
bilidad, se dice que dichas variables son independientes si cualquier subcolecion finita de ellas
son VA independientes.
n N, X1 , . . . , Xn son independientes.
Definicion
Si X 1 , . . . , X m son vectores aleatorios definidos sobre un mismo espacio de probabilidad, con
dimensiones n1 , . . . , nm , respectivamente,
siendo X = (X 1 , . . . , X m ).