Tarea1Proba PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Alumno: Hernán González A.

MPG3900, Teorı́a de Probabilidades


Profesor: Gregorio Moreno Tarea 1

1. Sean X1 y X2 variables aleatorias independientes (a valores en R) y sean F1 y F2 sus


respectivas funciones de distribución acumuladas.
Demuestre que Z
P[X1 + X2 ≤ x] = F1 (x − y)dF2 (y).
R

Solución: Primero probaremos que si X1 , ..., Xn tienen distribuciones µ1 , ..., µn respec-


tivamente, entonces (X1 , ..., Xn ) (todos en conjunto) tiene distribución µ1 ⊗ · · · ⊗ µn

Sean A1 , ..., An ∈ B(R), eventos independientes en los Borelianos en un espacio


de probabilidad. Dado que son independientes, sumado a la medida producto.

P((X1 , ..., Xn ) ∈ A1 × .... × An ) = P(X1 ∈ A1 , ..., Xn ∈ An )


n
Y n
Y
= P(Xi ∈ Ai ) = µi (Ai ) = µ1 ⊗ · · · ⊗ µn (A1 × ... × An )
i=1 i=1

Luego, por el teorema probado en Análsis I se puede extender una única medida
de probabilidad en el sigma álgebra generado por los Borelianos en Rn . En otra
palabras uno demuestra que, si sean 2 medidas de probabilidad µ1 ⊗· · ·⊗µn , ν1 ⊗
· · · ⊗ νn , entonces

L = {A1 ×...×An ∈ B(Rn )) : µ1 ⊗· · ·⊗µn (A1 ×...×An ) = ν1 ⊗· · ·⊗νn (A1 ×...×An )}

= σ({A1 × ... × An })
Ahora si, probando lo pedido: Sea X1 , X2 variables aleatorias con medidas
µ(z), ν(y) y funciones de distribución acumulada F1 , F2 respectivamente.
Usando Fubini-Tonelli
Z Z
P(X1 + X2 ≤ x) = 1(−∞,z] (X1 + X2 )dP = 1 (−∞,x] (z + y)d(µ ⊗ ν)(z, y)
Ω R2

Luego, dado que son independientes, la medida producto de divide en la multi-


plicación de las medidas (demostrado en la página anterior). Sumado al teorema
de cambio de variable z + y = x, y por definición de la distribución acumulada
Z Z Z Z
= 1(−∞,x] (z + y)dµ(z)dν(y) = 1(−∞,x−y] (z)dµ(z)dν(y) =
R R R R
Z Z x−y Z
= dµ(z)dν(y) = P(X ≤ x − y)dν(y)
R −∞ R
Z Z
= F1 (x − y)dν(y) = F1 (x − y)dF2 (y)
R R

1 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

2. Suponga que, para todo δ > 0,

lı́m P[|Xn − Xm | ≥ δ] = 0.
m→∞,n→∞

Demuestre que existe una variable aleatoria X tal que Xn converge a X en probabilidad.

Solución:

Sea Xn , Xm variables aletorias en el espacio de probabilidades (Ω, F, P) tales


que:
lı́m P[|Xn − Xm | ≥ δ] = 0.
m→∞,n→∞

Es decir, existe una secuencia con nk , con n ≥ nk , m ≥ nk tal que:


1 1
P(|Xn − Xm | > k
)< k
2 2
Sea
1
Ak := {Xnk , Xnk+1 ; |Xnk − Xnk+1 | > )}
2k
∞ ∞
1 X X
Entonces P(Ak ) ≤ k y por ende E( 1Ak ) = P(Ak ) ≤ 1.
2 k=1 k=1
X ∞
Esto implica que P( 1Ak < ∞) = 1
k=1
En otras palabras, con probabilidad
P∞ 1 el evento Ak pasa finitas veces. Es decir,
para cualquier ω ∈ Ω tal que k=1 1Ak (ω) < ∞, existe k0 (ω) tal que

1
|Xnk (ω) − Xnk+1 (ω)| ≤ , ∀k ≥ k0 (ω)
2k
Es decir Xnk (ω) es una sucesión de Cauchy en R o en C. En otras palabras,
existe l tal que ∀k, l ≥ k0 (ω)
1
|Xnk (ω) − Xnl (ω)| ≤ , ∀k ≥ k0 (ω)
2k
Como es sucesión de cauchy en un espacio completo, existe X(ω), ∀ω ∈ Ω tal
que
lı́m |Xnk (ω) − X(ω)| = 0
k→∞

Finalmente tenemos que:


ε ε
lı́m P(|Xn − X| ≥ ε) ≤ lı́m P(|Xn − Xnk | ≥ ) + lı́m P(|Xnk − X| > ) = 0
n→∞ n,k→∞ 2 n,k→∞ 2
Es decir, Xn converge a X en probabilidad.

2 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

Además, si para todo δ > 0,

lı́m P[ sup |Xk − Xm | ≥ δ] = 0,


m→∞,n→∞ m<k≤n

Demuestre que existe una variable aleatoria X tal que Xn converge a X casi segura-
mente.

Solución:

De la parte anterior, si Xn converge a X en probabilidad cuando n tiende a


infinito., entonce existe subsucesión Xnk que converge casi seguramente a X
cuando k tiende a infinito.
Por tanto si tomamos η(n) := mı́n{nk , nk ≥ n}, la última ecuación del ejercicio
anterior nos queda:

ε ε
P(sup |Xk − X| ≥ ε) ≤ P(sup |Xk − Xη(n) | ≥ ) + P(sup |Xη(n) − X| > ) = 0
k≥n k≥n 2 k≥n 2

Si lı́mn,k→∞ . Por ende, Es decir, Xk converge a X en casi seguramente.

3. En este problema, demostraremos que no necesitamos el Teorema de Kolmogorov para


construir una secuencia infinita de variables aleatorias independientes de ley Bernou-
lli(1/2). Para esto, sea Y una variable aleatoria uniformemente distribuı́da sobre [0, 1].
Para n ≥ 1, sea 
1 si b2n Y c es impar,
Xn :=
0 si b2n Y c es par.

Demuestre que (Xn )n es una sucesión de variables aleatorias i.i. d. de ley común Ber-
noulli(1/2).

Solución:

3 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

Queremos demostrar primero que son independientes, es decir:

P({Y (ω) ∈ [0, 1), ω ∈ Ω : X1 (Y (ω)) ∈ B1 , ..., Xn (Y (ω)) ∈ Bn }] =


n −1
2Y
P[{Y (ω) ∈ [0, 1), ω ∈ Ω : Xi (Y (ω)) ∈ Bi })
i=1

∀n ∈ N, ∀B1 , ..., Bn ∈ B(R). Utilizaremos inducción. Para el caso base en n = 1


tenemos que:

1 si b2Y c es impar,
X1 :=
0 si b2Y c es par.
que haciendo los cálculos, es equivalente a

 1 si Y ∈ [0, 1 ),

X1 := 2
1
 0 si Y ∈ [ , 1).

2
Y por ende es independiente de si mismo. Además, cabe notar que al ser Y una
variable aleatoria de distribuye uniforme entre [0, 1), X1 por definición corres-
ponde a una variable aleatoria Bernoulli con parámetro 21 .
Para el caso n = 2 , notamos como es la forma de la variable aleatoria X2

  1 si Y ∈ [0, 1 ) ∪ [ 1 , 3 ),

1 si b22 Y c es impar, 4 2 4
X2 := =⇒ 1 1 3
0 si b22 Y c es par.  0 si Y ∈ [ , ) ∪ [ , 1)

4 2 4
y en particular Y ∈ [0, 14 ) ∪ [ 12 , 43 ) implica que (usando la medida de probablilidad
de la distribución uniforme)
Z 1 Z 3 Z 1 Z 3
1 1 3 4 4 4 4 1
P([0, ) ∪ [ , )) = dµ(y) + dµ(y) = dx + dx =
4 2 4 0 1
2
0 1
2
2

Por lo que efectivamente, dado la uniformidad de Y , X2 también es una variable


aleatoria Bernoulli de parámetro 12 . Asumiremos la independencia en este caso,
para solo probarlo en el caso n
Supongamos que es independiente para n − 1, es decir, si llamamos

A = P({Y (ω) ∈ [0, 1), ω ∈ Ω : X1 (Y (ω)) ∈ B1 , ..., Xn−1 (Y (ω)) ∈ Bn−1 })

Bastarı́a probar que:

P(A ∩ (Y (ω) ∈ [0, 1), ω ∈ Ω : Xn (Y (ω)) ∈ Bn ) =

P(A) ⊗ P{{Y (ω) ∈ [0, 1), ω ∈ Ω : Xn (Y (ω)) ∈ Bn }).

4 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

Del caso 2, notamos que σ(X1 , ..., Xn−1 ) tiene subconjuntos formados por uniones
de intervalos de la siguiente forma:
i i+1
[ , ) , ∀i ∈ {0, . . . , 2n−1 − 1}
2n−1 2n−1

Dado que A es σ(X1 , . . . , Xn−1 )-medible, tenemos que (con I un conjunto de


ı́ndices):
[ i i+1
A= [ n−1 , n−1 )
n−1
2 2
i∈I⊆{0, . . . , 2 −1}

Es decir, bastarı́a probar que:


i i+1
P([ , ) ∩ {Y (ω) ∈ [0, 1), ω ∈ Ω : Xn (Y (ω)) ∈ Bn }) =
2n−12n−1
i i+1
P ([ n−1 , n−1 )) ⊗ P({Y (ω) ∈ [0, 1), ω ∈ Ω : Xn (Y (ω)) ∈ Bn })).
2 2
Y finalmente notamos que

2i 2i + 1


 [ n, ) si 0 ∈ Bn y1 6∈ Bn ,

 2 2n
 2i + 1 2i + 2


i i+1 \ [ n , ) si 1 ∈ Bn y0 6∈ Bn ,
[ n−1 n−1 ) {Y ∈ [0, 1), : Xn ∈ Bn } = 2 2n }
2 2  i i+1
[ n−1 , n−1 ) si 1 ∈ Bn y0 ∈ Bn


 2 2



∅ si 1 6∈ Bn y0 6∈ Bn

Que muestra que efectivamente es la forma esperada de


[ i i+1
A ∩ (Y (ω) ∈ [0, 1), ω ∈ Ω : Xn (Y (ω)) ∈ Bn ) = [ , )
2n−1 2n−1
i∈I⊆{0, . . . , 2n−1 }

Por ende, son independientes, es decir:


i i+1
P([ , ) ∩ {Y (ω) ∈ [0, 1), ω ∈ Ω : Xn (Y (ω)) ∈ Bn }) =
2n−12n−1
i i+1
P ([ n−1 , n−1 )) ⊗ P({Y (ω) ∈ [0, 1), ω ∈ Ω : Xn (Y (ω)) ∈ Bn })).
2 2
Finalmente notamos que en efecto, por hipótesis de indución P(A) = 12 , luego
haciendo el mismo calculo que con n = 2
[ i i+1 1
P( [ , )) =
2n−1 2n−1 2
i∈I⊆{0, . . . , 2n−1 }

Por tanto, no solo los (Xn )n son independientes , sino que además tienen distri-
bución Bernoulli( 12 ), es decir (Xn )n son i.i.d.

5 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

4. Sea (Ω, F, P) un espacio de probabilidad.


(a) Sean X e Y variables aleatorias independientes y f, g : R → R medibles y acotadas.
Demuestre que
E[f (X)g(Y )] = E[f (X)]E[g(Y )].

Solución:

Si f : R2 → R es acotada, digamos |f (x)| < M, M > 0, ∀x ∈ R2 , usando


desigualdad de Jensen

E(f (X, Y )) < |E(f (X, Y ))| < (E|f (X, Y )|) < E(M ) = M
Usando el lemma previo para demostrar el problema uno (ver página 1), y lo
recién demostrado (si es f acotado, su Esperanza también es acotada) notamos
que en efecto dada la independencia de las variables aleatorias
Z Z
E[f (X, Y )] = f (x, y)d(µ × ν)(x, y) = f (x, y)dµ(x)dν)(y)
R2 R2

Donde la última igualdad viene de Fubini-Tonelli (ya que es acotada).


Ahora, analogamente, f, g : R → R, acotados por

|f (x)| < M1 , |g(y)| < M2 , M1 , M2 > 0, ∀x, y ∈ R

tenemos que:

E(f (X)) < |E(f (X))| < (E|f (X)|) < E(M1 ) = M1 ,
E(g(Y )) < |E(g(Y ))| < (E|g(Y )|) < E(M2 ) = M2
Por tanto por Fubini-Tonelli nuevamente (ya que E|g(X)|E|h(Y )| < ∞ nueva-
mente), y el lemma del ejercicio 1, página 1
Z Z Z Z
E[g(X)h(Y )] = g(x)h(y)dµ(x)dν(y) = h(y) ( g(x)dµ(x))dν(y)
R R R R
Z Z
= h(y)E[g(X)]dν(y) = E[g(X)] h(y)dν(y) = E[g(X)]E[h(Y )].
R R

6 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

(b) Sean A1 , A2 ⊂ F dos álgebras independientes (es decir, A1 yxA2 para todo A1 ∈
A1 , A2 ∈ A2 ). Demuestre que σ(A1 )yσ(A2 ) son independientes.

Solución:

Por Análsis 1, ya que los sigma álgebra se puede generar con los medibles exten-
didos (en ese caso los eventos) o sin extender, es decir

σ(Ai ) = σ(Ai ∪ {Ω}), ∀i ∈ 1, 2

asi que sin pérdida de generalidad, Ω ∈ Ai , ∀i ∈ 1, 2, ası́ bastará con calcular las
intersecciones (ya que las intersecciones + el complemento nos dará que la unión
estará contenida siempre cuando Ω ∈ Ai , ∀i ∈ 1, 2)
Sea
L := {A ∈ F : P (A ∩ A2 ) = P (A)P (A2 )}
Probaremos que L = σ(A1 ), y con eso. Es claro que, L ⊆ σ(A1 ), por lo que
demostraremos la otra contención.
1) Es claro que ∅ ∈ L ,ya que: P (∅ ∩ A2 ) = P (∅) = 0 = 0P (A2 ) = P (∅)P (A2 )
2) Es claro que Ω ∈ L, ya que: P (Ω ∩ A2 ) = P (A2 ) = 1P (A2 ) = P (Ω)P (A2 )
3) Ahora el complemento. Supongamos A, B ∈ L y sin perdida de generalidad
A ⊆ B. Mostraremos que (B\A) ∈ L

P ((B\A) ∩ A2 ) = P ((B ∩ A2 )\(A ∩ A2 )) = P (B ∩ A2 ) − P (A ∩ A2 )

= P (B)P (A2 ) − P (A)P (A2 ) = (P (B) − P (A))P (A2 ) = P (B\A)P (A2 )


4) Por último B1 , B2 , .., Bn , ... ∈ L se puede construir los Bn como la unión de los
anteriores n−1, y dado que la medida es finita gracias al espacio de probabilidad,
por monotomı́a Bn % B. Entonces (Bn ∩ A2 ) % (B ∩ A2 ) , ası́ que por ende:

P (B ∩ A2 ) = lı́m P (Bn ∩ A2 ) = lı́m P (Bn )P (A2 ) = P (B)P (A2 )


n→∞ n→∞

Por ende B ∈ L. Acabamos de probar que σ(A1 ) ⊆ L.


Ahora como (A1 , A2 ) son independientes por hipótesis, dado lo recién demostra-
do, entonces implica que (σ(A1 ), A2 ) son independientes.
Analogamente si definimos

L∞ := {A2 ∈ F : P (A ∩ A1 ) = P (A2 )P (A1 )}

y hacemos el mismo procedimiento anterior, mostraremos que en efecto σ(A2 ) ⊆


L∞ y ası́ si (σ(A1 ), A2 ) son independientes, entonces (σ(A1 ), (σ(A2 )) son inde-
pendientes

7 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

5. Sea (Xj )j una familia de variables aleatorias i.i. d. con E[|X1 |] = ∞ y


Sn = X1 + · · · + Xn . Demuestre que
(a) P[|Xn | > n, i.o.] = 1,
Probaremos un lema antes, que fue de propuesto en una clase, demostraremos primero
que Z ∞
p
E|X| = p y p−1 P(y < |X|) dy
0

Solución:

Sean (ω, y) ∈ Ω × [0, |X(ω)|]


!
Z Z |X(ω)|
E|X|p = p y p−1 dy P(dω) (1)
Ω 0
Z ∞ Z 
p−1
=p y P(dω) dy (2)
0 Ω:y<|X(ω)|
Z ∞
=p y p−1 P(y < |X|) dy (3)
0

Ahora, usando lo anterior, con p = 1, y el hecho de que P(|X1 | > n) es no es


creciente, nos da la siguiente cota por arriba
Z ∞ ∞
X ∞
X
E|X1 | = P (|X1 | > x)dx ≤ P(|X1 | > n) ≤ P(|X1 | ≥ n) .
0 n=0 n=0

Luego, dado que E|X1 | = ∞ y por ser (Xn )n i.i. d. , por el segundo lema de
Borel-Cantelli se tiene que

P(|Xn | ≥ n, i.o.) = 1.

8 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

Sn Sn
(b) P[lı́mn→∞ existe y lı́mn→∞ ∈ (−∞, ∞)] = 0.
n n
Solución:

Sn
Basta probar que C = { lı́m existe en R} y {|Xn | ≥ n i.o.} son
n→∞ n
disjuntos, asi, si P (|Xn | ≥ n i.o.) = 1 entonces implicarı́a que P (C) = 0.
Primero notemos que

Sn Sn+1 (n + 1)Sn − n(Sn + Xn+1 ) Sn Xn+1


− = = − .
n n+1 n(n + 1) n(n + 1) n + 1

Supongamos ahora por contradicción que ω ∈ C Notamos que de lo anterior

Sn (ω)
lı́m =0
n→∞ n(n + 1)

Entonces, existe un N () ∈ N tal que

Sn (ω) 1
| | < , n ≥ N ()
n(n + 1) 2
Ahora, si ω ∈{|Xn | ≥ n i.o.} , entonces hay infinitos valores de n ≥ N tal que

|Xn (ω)|
≥1
n
Es significarı́a en particular que

Sn (ω) Sn+1 (ω) Sn (ω) Xn+1 (ω) 1


| − |=| − |>
n n+1 n(n + 1 n+1 2

para infinitos valores de n, entonces la sucesión en R

Sn (ω)
(
)n
n
no es de Cauchy, contradiciendo la completitud de R, y por ende contradiciendo
el hecho que ω ∈ C

9 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

6. Percolación sobre un árbol binario: Sea T un árbol binario infinito, es decir, cada vértice
del árbol tiene dos descendientes. Recuerde que tal árbol se puede representar como
palabras formadas por zeros y unos: la raı́z se representa por 0, sus descendientes por
00 y01, etc.
Considere la percolación usual sobre T y sea ψp la probabilidad que exista una com-
ponente conexa infinita. Sea C(v) la componente conexa ‘superior’ del vértice v, es
decir, aquellos descendientes de v que están en la componente abierta de v. Sea
θp = Pp [|C(0)| = ∞], y

pc = ı́nf{p ∈ [0, 1] : θp > 0}.

(a) Demuestre que ψp = 1 si y sólo si θp > 0.

Solución:

⇒ Supongamos que no. Como θp es no decreciente, y como es probabilidad, θp


esta entre [0, 1] pero al ser no decreciente, la única opción es que θp = 0, es
decir que el primer descendiente no existe, y si no existe el primero tampoco el
segundo y ası́ sucesivamente. Luego no habrá componente conexa y ası́ ψp = 0
lo que es una contradicción.

(b) Calcule θp . Hint: relacione θp con los eventos {|C(00)| = ∞}y

{|C(01)| = ∞}.

Solución:

Sea Pn la probabilidad de una paso abierto hacia la generación n en un árbol


esta dado por:

Pn = 1 − (1 − pPn−1 )2
Esto dado que la probabilidad de la generación 0 a alguno de los 2 siguientes
00 o 01 es pPn−1 . Luego la opción de no devolverse de 00 a 0 es (1-pPn−1 ).
Analogamente alguno de los descendientes de 00 (por ejemplo 000) tiene la opción
de no devolverse a 00 es de (1 − pPn−1 ). Luego la opción de no devolverse de 00
a 0 es de (1 − pPn−1 )2 . Nuevamente por complemento la probabilidad de ir de 0
a 00 es de 1 − (1 − pPn−1 )2 .
Buscaremos ahora como se comporta θp . Sea:

fp (x) = 1 − (1 − px)2

10 of 11
Alumno: Hernán González A. MPG3900, Teorı́a de Probabilidades
Profesor: Gregorio Moreno Tarea 1

Por definición Pn = fp (Pn−1 )


Dado que es continua la función f

lı́m Pn = lı́m fp (Pn−1 )


n→∞ n→∞

Luego basta encontrar los punto fijos de:

θ(p) = fp (θ(p)) .
Es decir

x = 1 − (1 − px)2
2p − 1
Al resolver la ecuación, las soluciones son x = 0 y x =
2
Pero del ejercicio anterior, la solución no puede ser cero sino ψp = 0, por lo que
2p − 1
la única opción es x = , que serı́a el único punto fijo.
2
Finalmente, θ(p) esta definido por:

if p < 12

0
θ(p) = 2p−1
2
if p ≥ 12

(c) Calcule pc .

Solución:
1
Del ejercicio anterior, es claro que el pc es 2

(d) Demuestre que, si p > pc , entonces hay infinitas componentes conexas infinitas con
probabilidad 1.

Solución:

Hay que probar que dada esa condición, el evento que indentifica que las compo-
nentes conexa infinitas pertencen al sigma-álgebra de la cola. Luego, por la Ley
0-1 indica que la probabilidad anterior es cero o uno. Pero, dado que θ(pc+) > 0,
no queda otra opción que la probabilidad de que hayan infinitas componentes
conexas es 1 casi seguramente.

11 of 11

También podría gustarte