Probabilidad

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 28

CALCULO DE PROBABILIDADES II Grado en Estadstica

TEMA 1
VARIABLES ALEATORIAS MULTIDIMENSIONALES
Recordemos que el concepto de variable aleatoria surge de la necesidad de transformar el
espacio muestral asociado a un experimento aleatorio en un espacio cuantitativo, lo que se
consigue asignando un valor real a cada resultado elemental del experimento (a cada elemento
del espacio muestral). Este valor se obtiene midiendo una determinada caracterstica numerica
de los resultados del experimento que describa alguna propiedad de interes.
En muchas ocasiones, para describir las propiedades de interes de los resultados de un experi-
mento es preciso considerar varias caractersticas. Por ejemplo, en el experimento consistente en
la eleccion de un individuo de una determinada poblacion, se consideran las variables altura
y peso. Si se extraen cinco bolas de una urna con bolas blancas, negras y rojas, podemos
estar interesados en el numero de bolas de cada color.
Es evidente que al considerar diversas caractersticas para describir los resultados de un
experimento aleatorio (o sea, diversas variables aleatorias), estas estaran a menudo relacionadas,
por lo que sera conveniente realizar un estudio conjunto de ellas que refleje dichas relaciones,
mas que analizarlas individualmente.
De esta forma aparece el concepto de variable aleatoria multidimensional o vector aleatorio
que, en terminos generales, puede definirse como una funcion que asigna a cada elemento del
espacio muestral un conjunto finito de n umeros reales que describen el valor de cada una de las
caractersticas bajo estudio en dicho elemento.
Como en el caso unidimensional, al considerar un vector aleatorio definido en relacion a
un experimento, los conjuntos de interes estaran definidos en terminos de dicho vector y, para
poder calcular sus probabilidades, es preciso exigir determinadas propiedades. La definicion
formal y el tratamiento de las variables aleatorias multidimensionales son analogos a los de
unidimensionales.

Espacio de Borel multidimensional


Sobre el conjunto Rn se define la -algebra de borel B n , como la mnima clase, con estructura
de -algebra, que contiene a todos los intervalos de Rn .

Un intervalo de Rn es un subconjunto de la forma I1 In , donde Ii Y =


{intervalos de R}.

Notando por Y n a la clase formada por los intervalos de Rn , se tiene

B n = (Y n )

(Rn , B n ) Espacio de Borel n-dimensional


B B n B : Conjunto de Borel

- Igual que en el caso unidimensional, todo intervalo, y en particular, todo punto y, por tanto,
todo conjunto numerable de Rn es un conjunto de Borel.

Patricia Roman Roman 1



CALCULO DE PROBABILIDADES II Grado en Estadstica

- Puede probarse que, como en el caso unidimensional, la algebra de Borel B n es la ge-


nerada por intervalos de cualquier tipo y, en particular, por intervalos del tipo (, x1 ]
, (, xn ], que notaremos (, x], siendo x = (x1 , . . . , xn ) Rn

on de B n
Teorema: Caracterizaci
B n coincide con la algebra generada por los intervalos de la forma (, x], x Rn .

Variables aleatorias multidimensionales (vectores aleatorios)


Definicion: Una variable aleatoria n-dimensional sobre un espacio de probabilidad (, A, P) es
una funcion X : Rn medible (X 1 (B) A, B B n )
Notacion: X : (, A, P) (Rn , B n )

Caracterizaciones de vectores aleatorios:

X = (X1 , . . . , Xn ) : (, A, P) (Rn , B n ) es un vector aleatorio si y solo si

X 1 ((, x]) = { / X() x} = { / X1 () x1 , . . . , Xn () xn } A

x = (x1 , . . . , xn ) Rn .

X = (X1 , . . . , Xn ) : (, A, P) (Rn , B n ) es un vector aleatorio si y solo si

i = 1, . . . , n Xi : (, A, P) (R, B) es variable aleatoria

Dem

=] Sea xi R : Xi1 ((, xi ]] = { / Xi () xi , Xj () R j 6= i} =

= X 1 (R R (, xi ] R) A

=] Sea x = (x1 . . . , xn ) Rn :

n
\
X 1
((, x]) = { / Xi () xi i = 1, . . . , n} = Xi1 ((, xi ]) A
i=1

Distribuci
on de probabilidad de un vector aleatorio
Como ocurra en el caso unidimensional, al considerar un vector aleatorio X = (X1 , . . . , Xn )
sobre un espacio de probabilidad, los u nicos sucesos de interes son los que se expresan en
terminos de dicho vector:
{ / X() B}, B B n

{ / X() B} = X 1 (B) = {X B} A

Patricia Roman Roman 2



CALCULO DE PROBABILIDADES II Grado en Estadstica

y las probabilidades de estos sucesos describen completamente el comportamiento del vector


X.

Definicion: Dado un vector aleatorio X = (X1 , . . . , Xn ) : (, A, P) (Rn , B n ), se denomina


distribuci on de probabilidad de X o probabilidad inducida por X en (Rn , B n ) a la funcion
de conjunto

PX = P X 1 : B n [0, 1]
B 7 PX (B) = P{X 1 (B)} = P{X B}

Justificacion: X 1 (B) A y se puede aplicar P.

Teorema: PX es una medida de probabilidad sobre (Rn , B n )


Por tanto, X transforma el espacio probabilstico original (, A, P) en un nuevo espacio
probabilstico
X = (X1 , . . . , Xn ) : (, A, P) (Rn , B n , PX )
y el interes se centra exclusivamente en el estudio de este nuevo espacio, o sea, en el estudio de
PX .
Este estudio se llevara a cabo, como en R, a traves de la funcion de distribucion.

Funci
on de distribuci
on de un vector aleatorio
Definicion: Dado X = (X1 , . . . , Xn ) : (, A, P) (Rn , B n , PX ), se define la denominada
funcion de distribucion de X como la funcion
FX : Rn [0, 1]
x 7 FX (x) = PX ((, x]) = P(X 1 ((, x])) = P{X x}

Dado que x = (x1 , . . . , xn ), se escribe tambien FX (x1 , . . . , xn ) = P{X1 x1 , . . . , Xn xn }

Teorema: Propiedades de FX
La funcion de distribucion de un vector aleatorio X satisface:

1) Es monotona no decreciente en cada argumento.

2) Es continua a la derecha en cada argumento.

3) lim FX (x1 , . . . , xn ) = FX (+, . . . , +) = 1


x1 ,...,xn +

lim FX (x1 , . . . , xi , . . . , xn ) = FX (x1 , . . . , xi1 , , xi+1 . . . , xn ) = 0


xi

x1 , . . . , xi1 , xi+1 , . . . , xn

4) (x1 , . . . , xn ) Rn , (1 , . . . , n ) Rn+ :


n
X
FX (x1 + 1 , . . . , xn + n ) FX (x1 + 1 , . . . , xi1 + i1 , xi , xi+1 + i+1 , . . . , xn + n )+
i=1

Patricia Roman Roman 3



CALCULO DE PROBABILIDADES II Grado en Estadstica

n
X
+ FX (x1 +1 , . . . , xi1 +i1 , xi , xi+1 +i+1 , . . . , xj1 +j1 , xj , xj+1 +j+1 , . . . , xn +n )+
i,j=1
i<j

+ + (1)n FX (x1 , . . . , xn ) 0

La demostracion son analogas al caso unidimensional. Vamos a probar la 4) para el caso n = 2


y en general se probara por induccion.

FX (x1 + 1 , x2 + 2 ) FX (x1 , x2 + 2 ) FX (x1 + 1 , x2 ) + FX (x1 , x2 ) =


P[X1 x1 + 1 , X2 x2 + 2 ] P[X1 x1 , X2 x2 + 2 ]
(P[X1 x1 + 1 , X2 x2 ] P[X1 x1 , X2 x2 ]) =
P[x1 < X1 x1 + 1 , X2 x2 + 2 ] P[x1 < X1 x1 + 1 , X2 x2 ] =
P[x1 < X1 x1 + 1 , x2 < X2 x2 + 2 ]
ltima propiedad es FX (x1 + 1 ) FX (x1 ) 0, x1
Nota: Observar que, para n = 1, esta u
R, 1 R+ y es, por tanto, junto con 1) generalizacion del no decrecimiento de funciones de
distribucion en R.
De hecho, como probamos en el siguiente ejemplo, las propiedades 1), 2) y 3) no bastan
para que FX sea la funcion de distribucion de un vector aleatorio.

Ejemplo

0 x<0 o y <0 o x+y <1
F (x, y) =
1 x 0, y 0, x + y 1

Es no decreciente en x e y.

Es continua a la derecha en x e y.

F (+, +) = 1 y F (x, ) = F (, y) = 0, x, y R

Patricia Roman Roman 4



CALCULO DE PROBABILIDADES II Grado en Estadstica

F (1, 1) F (1, 0) F (0, 1) + F (0, 0) = 1 1 1 + 0 = 1 < 0

Luego no es funcion de distribucion, porque de ser la funcion de distribucion de (X, Y ), la


ltima expresion sera P[0 < X 1, 0 < Y 1].
u

Nota: Estas propiedades caracterizan a la funciones de distribucion multidimensionales en el


sentido de que toda funcion de Rn en R que las cumpla es la funcion de distribucion de alg
un
vector aleatorio

Otras propiedades de la funci


on de distribuci
on

a) (x1 , . . . , xn ) Rn ,
lim
0
FX (x1 , . . . , xi1 , xi , xi+1 . . . , xn ) =
>0

P{X1 x1 , . . . , Xi1 xi1 , Xi < xi , Xi+1 xi+1 , . . . , Xn xn }


y se nota FX (x1 , . . . , xi1 , x
i , xi+1 , . . . , xn )

b) (x1 , . . . , xn ) Rn ,
P{X1 x1 , . . . , Xi1 xi1 , Xi = xi , Xi+1 xi+1 , . . . , Xn xn } =
FX (x1 , . . . , xi1 , xi , xi+1 , . . . , xn ) FX (x1 , . . . , xi1 , x
i , xi+1 , . . . , xn )

c) FX es continua en el argumento i-esimo en el punto xi R si y solo si

P{X1 x1 , . . . , Xi1 xi1 , Xi = xi , Xi+1 xi+1 , . . . , Xn xn } = 0

La importancia de la funcion de distribucion (al igual que en el caso unidimensional) es que


determina la distribucion de probabilidad y, por tanto, el comportamiento del vector aleatorio;
esto es, conocida FX se puede calcular P (X B), B B. La forma de hacerlo para con-
juntos de Borel arbitrarios requiere usar tecnicas de integracion que escapan a nuestro nivel.
Sin embargo si se trabajan con intervalos, lo que generalmente ocurre en la practica, estas
probabilidades se calculan de forma de forma simple.

Variables bidimensionales: C
alculo de probabilidades de intervalos

P{a < X1 b, X2 I} = P{X1 b, X2 I} P{X1 a, X2 I}

P{a < X1 < b, X2 I} = P{X1 < b, X2 I} P{X1 a, X2 I}

P{a X1 < b, X2 I} = P{X1 < b, X2 I} P{X1 < a, X2 I}

P{a X1 b, X2 I} = P{X1 b, X2 I} P{X1 < a, X2 I}

P{X1 b, c < X2 d} = P{X1 b, X2 d} P{X1 b, X2 c} = F (b, d) F (b, c)

Patricia Roman Roman 5



CALCULO DE PROBABILIDADES II Grado en Estadstica

P{X1 b, c < X2 < d} = P{X1 b, X2 < d} P{X1 b, X2 c} = F (b, d ) F (b, c)

P{X1 b, c X2 d} = F (b, d) F (b, c )

P{X1 b, c X2 < d} = F (b, d ) F (b, c )

P{X1 < b, c < X2 d} = F (b , d) F (b , c)

P{X1 < b, c < X2 < d} = F (b , d ) F (b , c)

P{X1 < b, c X2 d} = F (b , d) F (b , c )

P{X1 < b, c X2 < d} = F (b , d ) F (b , c )

Ejercicio propuesto. Dar la expresion de las siguientes probabilidades en terminos de la funcion


de distribucion del vector aleatorio X = (X1 , X2 ):

P [a < X1 < b, c < X2 < d]

P [a X1 < b, c < X2 < d]

P [a < X1 b, c < X2 < d]

P [a X1 b, c < X2 < d]

P [a < X1 < b, c X2 < d]

P [a X1 < b, c X2 < d]

P [a < X1 b, c X2 < d]

P [a X1 b, c X2 < d]

P [a < X1 < b, c < X2 d]

P [a X1 < b, c < X2 d]

P [a < X1 b, c < X2 d]

P [a X1 b, c < X2 d]

P [a < X1 < b, c X2 d]

P [a X1 < b, c X2 d]

P [a < X1 b, c X2 d]

P [a X1 b, c X2 d]

Patricia Roman Roman 6



CALCULO DE PROBABILIDADES II Grado en Estadstica

Vectores aleatorios discretos


Definicion: X = (X1 , . . . , Xn ) : (; A, P) (Rn , B n , PX ) es de tipo discreto si EX Rn
numerable tal que P{X EX } = 1

El tratamiento de este tipo de vectores es totalmente analogo al de las variables discretas,


mediante la funcion masa de probabilidad

p : EX [0, 1]
xn 7 P{X = xn } = pn
P
que satisface pn 0 y xEX pn = 1 y determina completamente la distribucion del vector y,
por tanto, su funcion de distribucion:
X
PX (B) = P{X B} = P{X = x} B B n
X xBEX
FX (x) = P{X = xj } x Rn
xj EX
xj x

Teorema.- Toda coleccion numerable de n umeros no negativos y de suma la unidad constituyen


los valores de la f.m.p. de alg
un vector aleatorio n-dimensional de tipo discreto.

Ya hemos visto que un vector aleatorio no es mas que un conjunto de variables aleatorias
unidimensionales. Vemos a continuacion que los vectores discretos estan formados por variables
aleatorias discretas y recprocamente.

Teorema: Caracterizacion de vectores aleatorios discretos por sus componentes


X = (X1 , . . . , Xn ) : (, A, P) (Rn , B n , PX ) es discreto si y solo si i = 1, . . . , n las compo-
nentes Xi : (, A, P) (R, B) son discretas
=] Sea EX el conjunto de valores de X: P{X EX } = 1 y sea
i
EX DE Ex sobre el lado i
= {xi R / x EX : (x)i = xi } PROYECCION
i
Es evidente que, puesto que EX es numerable, EX tambien lo es y
i i
P{Xi EX } = P{X1 R, . . . , Xi1 R, Xi EX , Xi+1 R, . . . , Xn R} P{X EX } = 1
Por tanto, Xi es tambien de tipo discreto.
=] Supongamos ahora que Xi es discreta i = 1, . . . , n y P{Xi Ei } = 1.
Entonces, puesto que E1 , . . . , En son numerables, es claro que E1 En Rn es tambien
numerable y
P{X E1 En } P{X1 E1 , . . . Xn En } = 1 1
1
Tn
Si A1 , . . . An son sucesos seguros P ( i=1 Ai ) = 1
n
! n
! n
\ [ X
P Ai = 1 P Aci 1 P(Aci ) = 1 0 = 1
i=1 i=1 subadit i=1

Patricia Roman Roman 7



CALCULO DE PROBABILIDADES II Grado en Estadstica

Se deduce entonces que un vector aleatorio n-dimensional de tipo discreto no es mas que un
conjunto de n variables aleatorias unidimensionales de tipo discreto.

Ejemplo: Se lanza un dado equilibrado y se observa la cara superior. Se definen las variables
aleatorias


2 si sale 1, 2, 3
1 si el resultado es impar



X1 = X2 = 0 si sale 4
1 si el resultado es par




3 si sale 5, 6

Determinar la funcion masa de probabilidad y la funcion de distribucion de (X1 , X2 ).


EX = {(1, 2), (1, 3), (1, 2), (1, 0), (1, 3)}
Funcion masa de probabilidad

X2
2 0 3
X1
1 2/6 0 1/6
1 1/6 1/6 1/6

Funcion de distribucion


0 x1 < 1 o x2 < 2
2/6 1 x1 < 1, 2 x2 < 3




3/6 1 x1 < 1, x2 3

FX (x1 , x2 ) =

3/6 x1 1, 2 x2 < 0
4/6 x1 1, 0 x2 < 3




1 x1 1, x2 3

Vectores aleatorios continuos


Definicion: X = (X1 , . . . , Xn ) : (, A, P) (Rn , B n , PX ) es de tipo continuo si fX : Rn
R no negativa e integrable tal que
Z x
FX (x) = fX (t)dt x Rn

Z xn Z xn1 Z x1
FX (x1 , . . . , xn ) = fX (t1 , . . . , tn )dt1 dtn x1 , . . . , xn R

La funcion fX se denomina funcion de densidad del vector aleatorio X y, como vemos en la


definicion, fX determina FX y, por tanto, PX :
Z
PX (B) = P{X B} = fX (t)dt
B

lo cual implica, que si E es numerable, P{X E} = 0.

Patricia Roman Roman 8



CALCULO DE PROBABILIDADES II Grado en Estadstica

Ademas, fX tiene propiedades analogas a las del caso unidimensional.


Propiedades de fX
R + R + R +
1) fX es no negativa, integrable y
fX (t)dt =

fX (t1 , . . . , tn )dt1 dtn = 1.

2) fX es continua salvo en un conjunto con medida de Lebesgue nula, y en los puntos de


continuidad de fX , FX es derivable y

n FX (x1 , . . . , xn )
= fX (x1 , . . . , xn )
x1 xn

3) fX puede ser cambiada en conjuntos de medida nula sin afectar a la integral, o sea, a FX .
Por tanto, notamos que fX no es u nica. Elegiremos siempre una version de ella que sea,
en la medida de lo posible, continua.

R
Teorema. Toda funcion f : Rn R no negativa, integrable y tal que Rn f (t)dt = 1 es la
funcion de densidad de alg
un vector aleatorio n-dimensional de tipo continuo.

En el caso discreto hemos visto que los vectores pueden caracterizarse como conjuntos de
variables aleatorias unidimensionales discretas. Sin embargo, en el caso continuo esto no es
cierto.
Si bien las componentes de un vector aleatorio continuo son tambien de tipo continuo, el
recproco no es cierto. Probamos lo primero en la siguiente proposicion y lo segundo con un
contraejemplo.

Proposici on: Si X = (X1 , . . . , Xn ) : (; A, P) (Rn , B n , PX ) es un vector aleatorio de tipo


continuo, entonces Xi : (; A, P) (R, B, PXi ) es de tipo continuo i = 1, . . . , n.
Dem.- Fijado i = 1, . . . n, FXi (xi ) = P[Xi xi ] = P[X1 R, . . . , Xi1 R, Xi xi , Xi+1
R, . . . , Xn R] =

lim P[X1 x1 , . . . , Xi1 xi1 , Xi xi , Xi+1 xi+1 , . . . , Xn xn ] =


xj +
j6=i

FX (+, . . . , +, xi , +, . . . , +) =
Z + Z + Z xi Z + Z +
f (t1 , . . . , ti , . . . , tn )dt1 dtn =

Z xi Z + Z + 
f (t1 , . . . , ti , . . . , tn )dt1 dti1 dti+1 . . . dtn dti

Entonces si definimos
Z + Z +
fi (ti ) = f (t1 , . . . , ti , . . . , tn )dt1 dti1 dti+1 . . . dtn

Patricia Roman Roman 9



CALCULO DE PROBABILIDADES II Grado en Estadstica

se cumple que fi es una funcion real de variable real, no negativa, integrable y


Z xi
FXi (xi ) = fi (ti ) dti

Por tanto, Xi es de tipo continuo, con funcion de densidad fi .

Ejemplo: Variables continuas no tienen por que componer un vector continuo.


Sea X1 una variable aleatoria unidimensional de tipo continuo y X2 = X1 . Supongamos que
el vector X = (X1 , X2 ) es de tipo continuo. En tal caso, tendra una funcion de densidad f (x1 , x2 )
y podemos calcular la probabilidad de que X pertenezca a cualquier conjunto integrando en el.
Z + Z x2
P{X1 = X2 } = f (x1 , x2 )dx1 dx2 = 0
x2

Sin embargo, es evidente que P{X1 = X2 } = 1. Por tanto, deducimos que (X1 , X2 ) no puede
ser de tipo continuo.

Ejemplo 1: Calcular la funcion de distribucion de un vector aleatorio (X, Y ) con funcion de


densidad
f (x, y) = exy , x > 0, y > 0

Z x Z y
F (x, y) = f (s, t)dtds =


0 x<0oy<0
RxRy Rx  R y t
est dtds = es ds x y

0 0 0 0
e dt = (1 e )(1 e ) x, y 0

Ejemplo 2: Sea (X, Y ) un vector aleatorio con funcion de densidad

f (x, y) = 1 0 x, y 1

Calcular:
a) P{X + Y 1}
b) P{1/3 X + Y 3/2}
c) P{X 2Y }

a) Z 1 Z 1y Z 1 1
P{X + Y 1} = dxdy = (1 y)dy = (y y 2 /2) 0 = 1/2
0 0 0
o bien Z 1 Z 1x Z 1 1
dydx = (1 x)dx = (x x2 /2) 0 = 1/2
0 0 0

Patricia Roman Roman 10



CALCULO DE PROBABILIDADES II Grado en Estadstica

b)
Z 1/3 Z 1 Z 1/2 Z 1 Z 1 Z 3/2y
59
P{1/3 X + Y 3/2} = dydx + dydx + dydx =
0 1/3x 1/3 0 1/2 0 72

o bien Z 1/3 Z 1/3y Z 1 Z 1


59
1 dxdy dxdy =
0 0 1/2 3/2y 72
c)
Z 1/2 Z 1 Z 1 Z x/2
1
P{X 2Y } = dxdy = dydx =
0 2y 0 0 4

Distribuciones marginales
Al considerar un vector aleatorio como conjunto de variables aleatorias unidimensionales
la distribucion del vector se denomina distribucion conjunta (funcion de distribucion conjunta,
funcion masa de probabilidad conjunta o funcion de densidad conjunta) y a la distribucion de
cada componente se le denomina distribucion marginal de dicha componente.
Veamos a continuacion como pueden obtenerse las distribuciones marginales de cada com-
ponente a partir de la conjunta.
Funci
on de distribuci
on marginal
Si X = (X1 , . . . , Xn ) es un vector aleatorio con funcion de distribucion FX

i = 1, . . . , n FXi (xi ) = FX (+, . . . , +, xi , +, . . . , +) xi R

Analogamente,

FXi1 ,...,Xik (xi1 , . . . , xik ) = FX (+, . . . , +, xi1 , +, . . . , +, xik , +, . . . , +)

Sin embargo, ya que nosotros trabajamos con vectores discretos o continuos cuyas componentes,
como hemos visto, son variables aleatorias discretas o continuas, lo que nos interesa es el calculo
de las f.m.p o funciones de densidad marginales a partir de la conjunta.
Distribuciones marginales de vectores discretos
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto con P{X EX } = 1 y funcion masa de
probabilidad conocida: P{X = x} x EX .
Si Xi es una componente arbitraria (ya sabemos que es discreta y que toma valores en el
conjunto EXi = {xi R / x EX : (x)i = xi }) su funcion masa de probabilidad puede
obtenerse a partir de la de X por la siguiente relacion
X
P{Xi = xi } = P{X = x} =
xEX
(x)i =xi

X
P{X1 = x1 , . . . , Xi1 = xi1 , Xi = xi , Xi+1 = xi+1 , . . . , Xn = xn }
x1 ,...,xi1 ,xi+1 ,...,xn
(x1 ,...,xi ,...,xn )EX

Patricia Roman Roman 11



CALCULO DE PROBABILIDADES II Grado en Estadstica

relacion que se obtiene inmediatamente de P{Xi = xi } = P{Xi = xi , X EX }.


Analogamente se obtiene la funcion masa de probabilidad de cualquier subvector que sera tam-
bien de tipo discreto puesto que todas sus componentes los son.
X
P{Xi1 = xi1 , . . . , Xik = xik } = P{X = x} =
xEX
(x)i =xi ,j=1,...,k
j j
X
P{X1 = x1 , . . . Xi1 1 = xi1 1 , Xi1 = xi1 , Xi1 +1 = xi1 +1 , . . . , Xi 1 = xi 1 , Xi = xi , Xi +1 = xi +1 , . . . , Xn = xn }
k k k k k k
x1 ,...,xi 1 ,xi +1 ,
1 1
...,xi 1 ,xi +1 ,...,xn
k k

Ejemplo: Se lanza una moneda tres veces y se define X : N umero de caras e Y : Diferencia, en
valor absoluto, de n
umero de caras y cruces. Calcular las distribuciones marginales a partir de
la conjunta.
La funcion masa de probabilidad conjunta y marginales son (sin mas que sumar por filas y por
columnas)

X
0 1 2 3
Y
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8 1

Distribuciones marginales de vectores continuos


Sea X = (X1 , . . . , Xn ) un vector aleatorio de tipo continuo con funcion de densidad fX
conocida. En el apartado anterior vimos que cada componente Xi es de tipo continuo y su
funcion de distribucion es Z xi
FXi (xi ) = fi (ti )dti

con Z + Z +
fi (ti ) = fX (t1 , . . . , ti , . . . , tn )dt1 dti1 dti+1 dtn ti R

Por tanto, esta es la funcion de densidad de Xi que, como observamos se obtiene integrando la
conjunta en el resto de las componentes, fijando en la componente i-esima el punto de interes
ti .

Ejemplo: Sea (X, Y ) un vector aleatorio continuo con funcion de densidad

f (x, y) = 10x2 y 0yx1

Calcular las marginales y P{Y 1/2}


Z x 2 x

y
f1 (x) = 10x2 ydy = 10x2 = 5x4 0x1
0 2 0

Patricia Roman Roman 12



CALCULO DE PROBABILIDADES II Grado en Estadstica

1 3 1
Z
x 10
f2 (y) = 10x2 ydx = 10y = y(1 y 3 ) 0y1
y 3 y 3
La probabilidad P{Y 1/2} se puede calcular de dos formas, con la marginal
Z 1/2
10 19
P{Y 1/2} = y(1 y 3 )dy =
0 3 48
o con la conjunta,
Z 1/2 Z x Z 1 Z 1/2
2 19
P{Y 1/2} = 10x ydydx + 10x2 ydydx =
0 0 1/2 0 48

o bien,
Z 1/2 Z 1
19
P{Y 1/2} = 10x2 ydxdy =
0 y 48

Con un razonamiento similar se obtiene la distribucion marginal de un subvector (de dimension


mayor que uno) de un vector continuo

FXi1 ,...,Xik (xi1 , . . . , xik ) = FX (+, . . . , +, xi1 , . . . , xik , +, . . . , +) =


Z xi Z xi Z + Z + 
1 k
fX (t1 , . . . , tn )dtn dtik +1 dtik 1 dti1 +1 dti1 1 , , dt1

de lo que se deduce

Z + Z +
fi1 ,...,ik (ti1 ,...,tik ) = fX (t1 , . . . , tn )dtn . . . dtik +1 dtik 1 dti1 +1 dti1 1 , , dt1

Distribuciones condicionadas
En el analisis conjunto de variables aleatorias surge una importante cuestion, como es
el estudio del comportamiento de un subconjunto de ellas, cuando el resto esta sujeto a
alguna condicion y, en particular, cuando se conoce su valor. Aparece as, el concepto de
distribucion condicionada.
Analizamos a continuacion como pueden obtenerse las distribuciones condicionadas a partir
de la conjunta distinguiendo entre vectores discretos y continuos.
Distribuciones condicionadas de vectores discretos
Caso bidimensional: X = (X1 , X2 )
Si tenemos un vector aleatorio X = (X1 , X2 ) definido en relacion a un experimento aleatorio
y se sabe que, por ejemplo, la variable X1 ha tomado un determinado valor, x1 , (P{X1 = x1 } =6
0), este conocimiento afecta a la distribucion de la variable X2 . De hecho, las probabilidades

Patricia Roman Roman 13



CALCULO DE PROBABILIDADES II Grado en Estadstica

de los distintos valores de X2 habra que calcularlas teniendo en cuenta que X1 = x1 y seran,
por tanto, distribuciones condicionadas:

P{X1 = x1 , X2 = x2 }

si x2 EX2


P{X1 = x1 }

P {X2 = x2 | X1 = x1 } =


0 si x2
/ EX2

X
Notemos que P {X2 = x2 | X1 = x1 } 0 y P {X2 = x2 | X1 = x1 } = 1, por lo que estos
x2 EX2
valores proporcionan una funcion masa de probabilidad sobre EX2 .
La distribucion determinada por esta f.m.p. se denomina distribuci
on condicionada de X2
a X1 = x1 (distribucion de X2 dado X1 = x1 ).
Notemos que x1 / P{X1 = x1 } > 0 puede definirse la distribucion de X2 dado X1 = x1 y, de
forma analoga, x2 / P{X2 = x2 } > 0 se define la distribucion condicionada de X1 a X2 = x2 .
Caso general: X = (X1 , . . . , Xn )
La definicion de distribuciones condicionadas en el caso bidimensional se generaliza de forma
inmediata al caso de vectores de dimension arbitraria, caso en el que puede condicionarse bien
al valor de una sola variable o de varias.
Definici
on: Distribucion condicionada al valor de una variable
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto. Sea Xi una componente arbitraria y xi
R / P{Xi = xi } > 0. Se define la distribucion condicionada de (X1 , . . . , Xi1 , Xi+1 , . . . , Xn ) a
{Xi = xi } (distribucion de (X1 , . . . , Xi1 , Xi+1 , . . . , Xn ) dado Xi = xi ) como la determinada
por la funcion masa de probabilidad:

P{X1 = x1 , . . . , Xi1 = xi1 , Xi+1 = xi+1 , . . . , Xn = xn / Xi = xi } =

P{X1 = x1 , . . . , Xi1 = xi1 , Xi = xi , Xi+1 = xi+1 , . . . , Xn = xn }


P{Xi = xi }
(x1 , . . . , xi1 , xi+1 , . . . , xn ) / (x1 , . . . , xi1 , xi , xi+1 , . . . , xn ) EX
EJEMPLO: Se lanza una moneda tres veces y se define X : n umero de caras e Y : diferencia,
en valor absoluto, entre el n
umero de caras y cruces. Calcular las distribuciones condicionadas
de X a Y = 1, de X a Y = 3 y de Y a X = 0.

X
0 1 2 3
Y
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8 1
X|Y = 1

P{X = 0|Y = 1} = 0, P{X = 1|Y = 1} = 1/2, P{X = 2|Y = 1} = 1/2, P{X = 3|Y = 1} = 0

Patricia Roman Roman 14



CALCULO DE PROBABILIDADES II Grado en Estadstica

X|Y = 3
P{X = 0|Y = 3} = 1/2, P{X = 1|Y = 3} = 0, P{X = 2|Y = 3} = 0, P{X = 3|Y = 3} = 1/2
Y |X = 0
P{Y = 1|X = 0} = 0, P{Y = 3|X = 0} = 1 Degenerada en 3

Definici
on: Distribucion condicionada a valores de varias variables
Sea X = (X1 , . . . , Xn ) un vector aleatorio discreto y sea (Xi1 , . . . , Xik ) un subvector ar-
bitrario y (xi1 , . . . , xik ) Rk / P{Xi1 = xi1 , . . . , Xik = xik } > 0. Se define la distribucion
condicionada de (X1 , . . . , Xi1 1 , Xi1 +1 , . . . , Xik 1 , Xik +1 , . . . , Xn ) a {Xi1 = xi1 , . . . , Xik = xik }
como la determinada por la funcion masa de probabilidad:
P{X1 = x1 , . . . , Xi1 1 = xi1 1 , Xi1 +1 = xi1 +1 , . . . ,
Xik 1 = xik 1 , Xik +1 = xik +1 , . . . , Xn = xn / Xi1 = xi1 , . . . , Xik = xik } =
P{X1 = x1 , . . . , Xi1 = xi1 , . . . , Xik = xik , . . . , Xn = xn }
P{Xi1 = xi1 , . . . , Xik = xik }
(x1 , . . . , xi1 1 , xi1 +1 , . . . , xik 1 , xik +1 . . . , xn ) / (x1 , . . . , xi1 , . . . , xik , . . . , xn ) EX

Distribuciones condicionadas de vectores continuos


Si X = (X1 , . . . , Xn ) es un vector aleatorio continuo, i = 1, . . . , n, Xi es continua y P{Xi =
xi } = 0 xi R. No es posible, por tanto, definir la probabilidad condicionada al suceso
{Xi = xi } como en el caso discreto.
Para obtener de forma rigurosa las distribuciones condicionadas debe realizarse un procedi-
miento de paso al lmite que escapa a los contenidos de este curso. Veamos simplemente las
definiciones.
Caso bidimensional
Sea X = (X1 , X2 ) un vector aleatorio de tipo continuo con funcion de densidad fX . Sea
x2 R tal que fX2 (x2 ) > 0. Se define la distribucion condicionada de X1 a {X2 = x2 }

(distribucion de X1 dado X2 = x2 ) como la determinada por la funcion de densidad

fX (x1 , x2 )
f X1 |X2 =x2 (x1 /x2 ) =
fX2 (x2 )

Caso general: X = (X1 , . . . , Xn )


Definici
on 1: Distribucion condicionada al valor de una variable
Sea X = (X1 , . . . , Xn ) un vector aleatorio de tipo continuo con funcion de densidad fX . Sea
Xi una componente arbitraria y xi R tal que fXi (xi ) > 0. Se define la distribucion condicio-
nada de (X1 , . . . , Xi1 , Xi+1 , . . . , Xn ) a {Xi = xi } (distribucion de (X1 , . . . , Xi1 , Xi+1 , . . . , Xn )
dado Xi = xi ) como la determinada por la funcion de densidad
fX (x1 , . . . , xi , . . . , xn )
f X1 ,...,Xi1 ,Xi+1 ,...,Xn |Xi =xi (x1 , . . . , xi1 , xi+1 , . . . , xn |xi ) =
fXi (xi )

Patricia Roman Roman 15



CALCULO DE PROBABILIDADES II Grado en Estadstica

Definici
on 2: Distribucion condicionada a valores de varias variables
Sea X = (X1 , . . . , Xn ) un vector aleatorio de tipo continuo con funcion de densidad fX y
sea (Xi1 , . . . , Xik ) un subvector arbitrario y (xi1 , . . . , xik ) Rk / fXi1 ,...,Xik (xi1 , . . . , xik ) > 0. Se
define la distribucion condicionada de (X1 , . . . , Xi1 1 , Xi1 +1 , . . . , Xik 1 , Xik +1 , . . . , Xn ) a {Xi1 =
xi1 , . . . , Xik = xik } como la determinada por la funcion de densidad:

fX1 ,...,Xi1 1 ,Xi1 +1 ,...,Xik 1 ,Xik +1 ,...,Xn |Xi1 =xi ,...,Xik =x


i
(x1 , . . . , xi1 1 , xi1 +1 , . . . , xik 1 , xik +1 , . . . , xn /xi1 , . . . , xik ) =
1 k

fX (x1 , . . . , xi1 , . . . , xik , . . . , xn )


=
fXi1 ,...,Xik (xi1 , . . . , xik )
EJEMPLO: Sea (X, Y ) un vector aleatorio con funcion de densidad

f (x, y) = 2, 0<x<y<1

Calcular las funciones de densidad y de distribucion condicionadas. Calcular tambien las pro-
babilidades
P{Y 1/2 / X = 1/2} P{X 1/3 / Y = 2/3}
DISTRIBUCION DE X/Y = y0
Z y
f2 (y) = 2dx = 2y 0<y<1
0
Si 0 < y0 < 1

f (x, y) 2 1
fX/Y =y0 (x/y0 ) = fX/Y =y0 (x) = = = 0 < x < y0
fY (y0 ) 2y0 y0

es decir,

X/Y = y0 U (0, y0 )
A partir de la funcion de densidad condicionada podemos calcular la funcion de distribucion
condicionada


0 x<0



Z x 1

x
FX/Y =y0 (x/y0 ) = FX/Y =y0 (x) = dt = 0 x < y0

0 y0 y0




1 x y0
DE Y /X = x0
DISTRIBUCION
Z 1
f1 (x) = 2dy = 2 2x 0<x<1
x

Patricia Roman Roman 16



CALCULO DE PROBABILIDADES II Grado en Estadstica

Si 0 < x0 < 1
f (x0 , y) 2 1
fY /X=x0 (y/x0 ) = fY /X=x0 (y) = = = x0 < y < 1
f1 (x0 ) 2 2x0 1 x0

es decir,

Y /X = x0 U (x0 , 1)
A partir de la funcion de densidad condicionada podemos calcular la funcion de distribucion
condicionada

0 y < x0




yx
0
FY /X=x0 (y/x0 ) = FY /X=x0 (y) = x0 y < 1

1 x0



y1

1
Por otra parte
Z
P{Y 1/2 / X = 1/2} = fY /X=1/2 (y)dy = 1 dado que Y /X = 1/2 U (1/2, 1)
{y1/2}

Z Z 2/3
3 31 1
P{X 1/3 / Y = 2/3} = fX/Y =2/3 (x)dx = dx = =
{x1/3} 1/3 2 23 2
dado que X/Y = 2/3 U (0, 2/3). Tambien se podan haber calculado a partir de las corres-
pondientes funciones de distribucion.

Funciones de vectores aleatorios: Cambio de variable


Como en el caso unidimensional, si X es un vector aleatorio n-dimensional y g : (Rn , B n )
(Rm , B m ) es una transformacion medible, Y = g(X) es un vector aleatorio m-dimensional
(composicion de funciones medibles) cuya distribucion puede hallarse a partir de la de X.

Formula general de cambio de variable

FY (y) = P [Y y] = P [g(X) y] = P [X g 1 ((, y])]

Cambio de variable de discreto a discreto


Si X es un vector aleatorio n-dimensional discreto con valores en EX y g : (Rn , B n )
(Rm , B m ) es una transformacion medible, Y = g(X) es un vector aleatorio m-dimensional
discreto con valores en g(EX ) y su funcion masa de probabilidad se puede obtener a partir de
la de X como
X
P [Y = y] = P [X g 1 (y)] = P [X = x], y g(EX ).
xg 1 (y)

Patricia Roman Roman 17



CALCULO DE PROBABILIDADES II Grado en Estadstica

Ejemplo 1
Sea X = (X1 , X2 ) un vector aleatorio discreto con funcion masa de probabilidad

x1
1 0 1
x2
2 1/6 1/12 1/6
1 1/6 1/12 1/6
2 1/12 0 1/12
Calcular la funcion masa de probabilidad de Y = (|X1 |, X22 )

Y toma valores en {(1, 4), (1, 1), (0, 4), (0, 1)}
1 1 1 1 6
P [Y = (1, 4)] = P [X1 = 1, X2 = 2] = + + + =
6 6 12 12 12
1 1 4
P [Y = (1, 1)] = P [X1 = 1, X2 = 1] = + =
6 6 12
1
P [Y = (0, 4)] = P [X1 = 0, X2 = 2] =
12
1
P [Y = (0, 1)] = P [X1 = 0, X2 = 1] =
12
Cambio de variable de continuo a discreto
Si X es un vector aleatorio n-dimensional continuo con funcion de densidad fX y g : (Rn , B n )
(Rm , B m ) es una transformacion medible tal que Y = g(X) es un vector aleatorio m-dimensional
discreto, su funcion masa de probabilidad se puede obtener a partir de la funcion de densidad
de X como
Z
1
P [Y = y] = P [X g (y)] = fX (x) dx.
g 1 (y)

Ejemplo 2
Sea X = (X1 , X2 ) con funcion de densidad

f (x1 , x2 ) = ex1 ex2 , x1 , x2 > 0 (, > 0)


Sea

0 X1 > X2
Y =
1 X1 < X2
Calcular su distribucion.

Patricia Roman Roman 18



CALCULO DE PROBABILIDADES II Grado en Estadstica

Z Z
P [Y = 0] = P [X1 > X2 ] = ex1 ex2 dx1 dx2
0 x2
Z Z  Z
x2 x1

ex2 ex1 x2 dx2

= e e dx1 dx2 =
0 x2 0
Z (+)x2

e =
= e(+)x2 dx2 =
0 ( + ) 0 +


P [Y = 1] =
+

Cambio de variable de continuo a continuo


Si X es un vector aleatorio n-dimensional continuo con funcion de densidad fX y g : (Rn , B n )
(Rm , B m ) es una transformacion medible tal que Y = g(X) es un vector aleatorio m-dimensional
continuo, su funcion de densidad se puede obtener derivando su funcion de distribucion que se
obtiene como

Z
1
FY (y) = P [Y y] = P [g(X) y] = P [X g ((, y])] = fX (x) dx
g 1 ((,y])

Ejemplo 3
Sea X = (X, Y ) con funcion de densidad

f (x, y) = exy , x, y > 0


X
Calcular la funcion de densidad de U =.
X +Y

X 0 u<0
U= (0, 1) FU (u) = () 0u<1
X +Y
1 u1

   
X u
P u = (X + Y > 0) = P [X uX + uY ] = (1 u > 0) = P X Y
X +Y 1u
Z Z u y Z
1u
h u
i
= x y
e e dx dy = ey 1 e 1u y dy
Z0 0 Z 0
u
= ey dy ey(1+ 1u ) dy = u
0 0

As,

0 u<0
FU (u) = u 0u<1
1 u1

Patricia Roman Roman 19



CALCULO DE PROBABILIDADES II Grado en Estadstica

y, por tanto,
fU (u) = 1, 0 < u < 1,
X
es decir, U (0, 1).
X +Y

Teorema: Cambio de variable de continuo a continuo


Sea X : (, A, P ) (Rn , B n , PX ) un vector aleatorio con funcion de densidad fX y g :
(Rn , B n ) (Rn , B n ) una funcion medible tal que

1) g = (g1 , . . . , gn ) admite inversa g 1 = (g1 , . . . , gn ).


gi (y1 , . . . , yn )
2) i, j = 1, . . . , n, .
yj
 
gi (y1 , . . . , yn )
3) J = 6= 0.

yj i,j

En estas condiciones, el vector aleatorio n-dimensional Y = g(X) es de tipo continuo y su


funcion de densidad es

fY (y) = fX (g 1 (y))|J|, y Rn

NOTA 1: Si el vector transformado es de dimension menor que el original se consideran variables


auxiliares y luego se calcula la marginal correspondiente.

NOTA 2: Si g no admite inversa pero cada y Rn tiene un n umero finito de antiimagenes,


g11 (y), . . . , gk(y)
1
(y), y cada una de las antiimagenes satisface las hipotesis del Teorema, entonces

k(y)
X
fY (y) = |Ji |fX (gi1 (y))
i=1

siendo Ji el jacobiano correspondiente a gi1 .

Ejemplo 3
Sea X = (X, Y ) con funcion de densidad

f (x, y) = exy , x, y > 0


X
Calcular la funcion de densidad de U = .
X +Y
X
U=
X +Y
V =X +Y
de forma que 0 < u < 1, v > 0. La transformacion inversa es

Patricia Roman Roman 20



CALCULO DE PROBABILIDADES II Grado en Estadstica

X = UV
Y = V (1 U )
con jacobiano
v u
J = =v
v 1 u
As,

f(U,V ) (u, v) = f (uv, v(1u))|v| = euvv(1u) |v| = vev , uv > 0, v(1u) > 0 (0 < u < 1, v > 0),

de donde
Z
fU (u) = vev dv = 1, 0 < u < 1
0

Distribuci
on del m
aximo y del mnimo de variables aleatorias
Un tipo de transformaciones que aparecen com
unmente en la practica son el maximo y el
mnimo de variables aleatorias.
Sea X = (X1 , . . . , Xn ) un vector aleatorio, se define M = max(X1 , . . . , Xn ) como una variable
aleatoria tal que

M () = max{X1 (), X2 (), . . . , Xn ()}


y N = min(X1 , . . . , Xn ) como una variable aleatoria tal que

N () = min{X1 (), X2 (), . . . , Xn ()}

Dado que estas transformaciones no satisfacen, en general, las condiciones de los Teoremas de
Cambio de variable, para obtener su distribucion usamos la formula general.

Distribucion del maximo: M = max(X1 , . . . , Xn )


Sea X = (X1 , . . . , Xn ) un vector aleatorio con funcion de distribucion FX . Entonces

FM (x) = P [M x] = P [X1 x, . . . , Xn x] = FX (x, . . . , x)


y, a partir de aqu se obtiene su funcion masa de probabilidad, en el caso discreto, o su funcion
de densidad, en el caso continuo.

Distribucion del mnimo: N = min(X1 , . . . , Xn )

FN (x) = P [N x] = 1 P [N > x] = 1 P [X1 > x, . . . , Xn > x]


y, a partir de aqu se obtiene su funcion masa de probabilidad, en el caso discreto, o su funcion
de densidad, en el caso continuo.

Patricia Roman Roman 21



CALCULO DE PROBABILIDADES II Grado en Estadstica

Distribucion conjunta: (M, N )



P [M x] = FX (x, . . . , x) x<y

F(M,N ) (x, y) = P [M x, N y] =

P [M x] P [M x, N > y]
= P [M x] P [y < Xi x, i = 1, . . . , n] xy

Ejemplo
Sea X = (X1 , X2 ) un vector aleatorio discreto con funcion masa de probabilidad

P [X1 = x1 , X2 = x2 ] = p2 (1 p)x1 +x2 , xi = 0, 1, 2, . . . , i = 1, 2 (0 < p < 1).


Calcular la funcion masa de probabilidad de M = max(X1 , X2 ), N = min(X1 , X2 ) y la conjunta
de M y N .

M = max(X1 , X2 ) : 0, 1, 2, . . .
x
X x
X
2
P [M x] = P [X1 x, X2 x] = P [X1 = x1 , X2 = x2 ] = p (1 p)x1 +x2
x1 ,x2 =0 x1 ,x2 =0
x
!2 2
(1 p)x+1 1
X 
2 x1 2
= p (1 p) =p = (1 (1 p)x+1 )2
x1 =0
p
de donde se deduce

P [M = x] = P [M x] P [M x 1] = (1 (1 p)x+1 )2 (1 (1 p)x )2
Tambien se podra haber hecho directamente

P [M = m] = P [X1 = m, X2 < m] + P [X1 < m, X2 = m] + P [X1 = m, X2 = m]


m1
X m1
X
2 m+x2
= p (1 p) + p2 (1 p)m+x1 + p2 (1 p)2m
x2 =0 x1 =0
m1
X
= 2p2 (1 p)m (1 p)x + p2 (1 p)2m
x=0
(1 p)m 1
= 2p2 (1 p)m + p2 (1 p)2m
p
= 2p(1 p)m (1 (1 p)m ) + p2 (1 p)2m , m = 0, 1, 2, . . .
M = min(X1 , X2 ) : 0, 1, 2, . . .

X
X
P [N x] = 1 P [X1 > x, X2 > x] = 1 P [X1 = x1 , X2 = x2 ] = 1 p2 (1 p)x1 +x2
x1 ,x2 =x+1 x1 ,x2 =x+1

!2
x+1 2
 
X (1 p)
= 1 p2 (1 p)x1 = 1 p2 = 1 (1 p)2x+2
x1 =x+1
p

Patricia Roman Roman 22



CALCULO DE PROBABILIDADES II Grado en Estadstica

de donde se deduce

P [N = x] = P [N x] P [N x 1] = (1 p)2x (1 p)2x+2
Tambien se podra haber hecho directamente

P [N = n] = P [X1 = n, X2 > n] + P [X1 > n, X2 = n] + P [X1 = n, X2 = n]


X
X
2 n+x2
= p (1 p) + p2 (1 p)n+x1 + p2 (1 p)2n
x2 =n+1 x1 =n+1

2
X (1 p)n+1
= 2p (1 p)n+x2 + p2 (1 p)2n = 2p2 (1 p)n + p2 (1 p)2n
x=n+1
p
= 2p(1 p)n (1 p)n+1 + p2 (1 p)2n , n = 0, 1, 2, . . .

(M, N ) toma valores en {(m, n) / m, n = 0, 1, . . . , m n}


Calculamos directamente su funcion masa de probabilidad

P [M = m, N = m] = P [X1 = m, X2 = m] = p2 (1 p)2m , m = n
P [M = m, N = n] = P [X1 = m, X2 = n] + P [X1 = n, X2 = m] = 2p2 (1 p)m+n , m 6= n

Independencia de variables aleatorias


El concepto de independencia de variables aleatorias es esencial en el Calculo de Probabilidades.
La distribucion conjunta de un conjunto de variables aleatorias determina de forma u nica las
distribuciones marginales. Sin embargo, el recproco no es cierto en general.
A continuacion estudiamos una situacion en la que si se cumple este hecho: las marginales
determinan de forma u nica la distribucion conjunta.
Definici
on y caracterizaciones de independencia
Definicion
Sean X1 , . . . , Xn variables aleatorias unidimensionales definidas sobre el mismo espacio de pro-
babilidad y sea X = (X1 , . . . , Xn ). Decimos que las variables X1 , . . . , Xn son mutuamente
independientes (completamente independientes) o, simplemente, independientes si

FX (x1 , . . . , xn ) = FX1 (x1 ) FXn (xn ), x1 , . . . , xn R

Caracterizacion para variables aleatorias discretas


Sean X1 , . . . , Xn variables aleatorias unidimensionales discretas definidas sobre el mismo espacio
de probabilidad

X1 , . . . , Xn son independientes P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] P [Xn = xn ],

x1 , . . . , xn R

Patricia Roman Roman 23



CALCULO DE PROBABILIDADES II Grado en Estadstica

Caracterizacion para variables aleatorias continuas


Sean X1 , . . . , Xn variables aleatorias unidimensionales continuas definidas sobre el mismo espa-
cio de probabilidad

X = (X1 , . . . , Xn ) es de tipo continuo
X1 , . . . , Xn son independientes
fX (x1 , . . . , xn ) = fX1 (x1 ) fXn (xn ), x1 , . . . , xn R

El siguiente teorema de caracterizacion de independencia establece la relacion entre la indepen-


dencia de variables aleatorias y la independencia de sucesos expresados en terminos de dichas
variables.

Caracterizacion de independencia por conjuntos de Borel


Sean X1 , . . . , Xn variables aleatorias unidimensionales definidas sobre el mismo espacio de pro-
babilidad

X1 , . . . , Xn son independientes P [X1 B1 , . . . , Xn Bn ] = P [X1 B1 ] P [Xn Bn ],

B1 , . . . , Bn B

Dem
] Si la relacion es cierta B1 , . . . , Bn B, tomando Bi = (, xi ] se tiene la definicion de
independencia.
] Caso discreto: X1 , . . . , Xn V.A. discretas
X X
P [X1 B1 , . . . , Xn Bn ] = P [X1 = x1 , . . . , Xn = xn ] = P [X1 = x1 ] P [Xn = xn ]
x1 B1 x1 B1

xn Bn xn Bn
! !
X X
= P [X1 = x1 ] P [Xn = xn ]
x1 B1 xn Bn
= P [X1 B1 ] P [Xn Bn ]

] Caso continuo: X1 , . . . , Xn V.A. continuas (si las variables son independientes y continuas,
el vector aleatorio formado por ellas es continuo)
Z Z
P [X1 B1 , . . . , Xn Bn ] = fX (x1 , . . . , xn ) dxn . . . dx1
B1 Bn
Z Z
= fX1 (x1 ) fXn (xn ) dxn . . . dx1
B1 Bn
Z  Z 
= fX1 (x1 ) dx1 fXn (xn ) dxn
B1 Bn
= P [X1 B1 ] P [Xn Bn ]

Patricia Roman Roman 24



CALCULO DE PROBABILIDADES II Grado en Estadstica

A continuacion damos otra caracterizacion, de gran interes practico, para variables discretas y
continuas. Su interes radica en que no es preciso calcular las funciones masa de probabilidad o
funciones de densidad marginales para comprobar la independencia.

Caracterizacion de independencia por factorizacion


a) Sean X1 , . . . , Xn variables aleatorias unidimensionales discretas definidas sobre el mismo
espacio de probabilidad

X1 , . . . , Xn son independientes P [X1 = x1 , . . . , Xn = xn ] = h1 (x1 ) hn (xn ), x1 , . . . , xn R

b) Sean X1 , . . . , Xn variables aleatorias unidimensionales continuas definidas sobre el mismo


espacio de probabilidad

X = (X1 , . . . , Xn ) es continuo
X1 , . . . , Xn son independientes
fX (x1 , . . . , xn ) = h1 (x1 ) hn (xn ), x1 , . . . , xn R

Ejemplos
f (x, y) = 1, 0 < x < 1, 0 < y < 1 Independientes

f (x, y) = 2, 0 < x < y < 1 No son independientes



1 x>0
f (x, y) = 2(x) (y x) (1 y) con (x) =
0 x0
De hecho las marginales son

f1 (x) = 2(1 x), 0 < x < 1, f2 (y) = 2y, 0 < y < 1

Propiedades de independencia

Teorema 1
Una variable aleatoria degenerada es independiente de cualquier otra.

Dem
X1 c, X2 arbitraria


0 = P [X1 x1 ]P [X2 x2 ] si x1 < c
F (x1 , x2 ) = P [X1 x1 , X2 x2 ] =
P [X2 x2 ] = P [X1 x1 ]P [X2 x2 ] si x1 c

Patricia Roman Roman 25



CALCULO DE PROBABILIDADES II Grado en Estadstica

Teorema 2
Si X1 , . . . , Xn son independientes y gi : (R, B) (R, B) son funciones medibles (i = 1, . . . , n),
entonces las variables g1 (X1 ), . . . , gn (Xn ) son indepedientes.

Dem

P [g1 (X1 ) y1 , . . . , gn (Xn ) yn ] = P [X1 g11 ((, y1 ]), . . . , Xn gn1 ((, yn ])]
= P [X1 g11 ((, y1 ])] P [Xn gn1 ((, yn ])]
= P [g1 (X1 ) y1 ] P [gn (Xn ) yn ]

Teorema 3
Si X1 , . . . , Xn son independientes, cualquier subcoleccion Xi1 , . . . , Xik tambien lo son.

Dem

P [Xi1 Bi1 , . . . , Xik Bik ] =


P [X1 R, . . . , Xi1 1 R, Xi1 Bi1 , Xi1 +1 R, . . . , Xik 1 R, Xik Bik , Xik +1 R, . . . , Xn R]
(por la caracterizacion de conjuntos de Borel)
= P [X1 R] P [Xi1 1 R]P [Xi1 Bi1 ]P [Xi1 +1 R] P [Xik 1 R]P [Xik Bik ]P [Xik +1 R] P [Xn R]

= P [Xi1 Bi1 ] P [Xik Bik ]

Teorema 4
X1 , . . . , Xn son independientes las distribuciones condicionadas de cualquier subvector a
cualquier otro coinciden con la marginal del primero.

Independencia dos a dos


Definicion
Sean X1 , . . . , Xn variables aleatorias unidimensionales definidas sobre el mismo espacio de pro-
babilidad son independientes dos a dos si

i, j = 1, . . . , n, i 6= j, Xi y Xj son independientes.

Puesto que cualquier subcoleccion de variables aleatoria independientes lo son, es claro que
INDEPENDENCIA MUTUA INDEPENDENCIA DOS A DOS
Sin embargo, el recproco no es cierto como se prueba en el siguiente ejemplo.

Patricia Roman Roman 26



CALCULO DE PROBABILIDADES II Grado en Estadstica

Ejemplo. Sean X1 y X2 variables aleatorias independientes y con identica distribucion P [Xi =


1] = 1/2, i = 1, 2. Sea X3 = X1 X2 . Vamos a probar que X1 , X2 y X3 son independientes
dos a dos pero no mutuamente independientes.
Independencia dos a dos.

X1 y X2 son independientes por hipotesis.

X1 y X3 son independientes:
P [X3 = 1] = 1/2
1
P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
1
P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
1
P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4
1
P [X1 = 1, X3 = 1] = P [X1 = 1, X2 = 1] = (por indep.) = = P [X1 = 1]P [X3 = 1]
4

X2 y X3 son independientes (igual que el anterior)

Sin embargo, no son mutuamente independientes ya que


1
P [X1 = 1, X2 = 1, X3 = 1] = 0 6= = P [X1 = 1]P [X2 = 1]P [X3 = 1]
8

Familias arbitrarias de variables aleatorias independientes


La nocion de independencia de variables aleatoria, que se ha definido para colecciones finitas,
se puede extender a familias arbitrarias.

Definicion
Dada una familia arbitraria de variables aleatorias definidas sobre el mismo espacio de proba-
bilidad, se dice que dichas variables son independientes si cualquier subcolecion finita de ellas
son VA independientes.

Sucesiones de variables aleatorias independientes


Sea {Xn }nN una sucesion de variables aleatorias definidas sobre el mismo espacio de probabi-
lidad. Se dice que {Xn }nN es una sucesion de variables aleatorias independientes si cualquier
subcoleccion finita de variables de la sucesion son independientes o, equivalentemente, si

n N, X1 , . . . , Xn son independientes.

Patricia Roman Roman 27



CALCULO DE PROBABILIDADES II Grado en Estadstica

Independencia de vectores aleatorios


La definicion de independencia de variables aleatoria se extiende de forma inmediata a vectores
aleatorios.

Definicion
Si X 1 , . . . , X m son vectores aleatorios definidos sobre un mismo espacio de probabilidad, con
dimensiones n1 , . . . , nm , respectivamente,

X 1 , . . . X m son independientes FX (x1 , . . . , xm ) = FX 1 (x1 ) FX m (xm ), x1 Rn1 , . . . , xm Rnm

siendo X = (X 1 , . . . , X m ).

Las caracterizaciones y propiedades se extienden al caso multidimensional.

Patricia Roman Roman 28

También podría gustarte