Procesos Estocasticos
Procesos Estocasticos
Procesos Estocasticos
Quito – Ecuador
Marzo del 2009
Meitner Cadena Cepeda1,2
Consultor Actuario – Financiero
1
Matemático, MSc. en Informática y MSc. en Ciencias Actuariales
2
Programador a nivel avanzado certificado por SAS
CONTENIDO I
Contenido
2 Procesos Estocásticos 14
3 Cadenas de Markov 19
(a) ∅ ∈ F
(b) Si A ∈ F, entonces Ac ∈ F (el complemento de A)
(c) Si A1 , A2 , . . . ∈ F, entonces ∪∞
i=1 Ai ∈ F
(a) 0 ≤ P (A) ≤ 1
(b) P (Ω) = 1
(c) Para la sucesión A1 , A2 , . . . de disjuntos de F, es decir Ai ∩ Aj = ∅ si i 6= j,
P∞
entonces P (∪∞
i=1 Ai ) = i=1 P (Ai )
k
P ({k}) = e−λ λk! (probabilidad de Poisson con parámetro λ > 0)
Si U es una familia de subconjuntos de Ω, entonces la σ-álgebra más pequeña conteniendo
U es, por definición,
y−x
P ([x, y]) =
b−a
EJEMPLO
Sea el experimento de medir el tiempo de vida de un foco. Entonces Ω = [0, ∞). F = B [0,∞) .
La probabilidad de que el foco tenga un tiempo de vida superior a t ≥ 0 es
Una variable aleatoria X es una función ω → R dada por ω → X(ω), la cual es F-medible,
es decir X −1 (B) ∈ F para cualquier conjunto de Borel en R
La condición de medibilidad significa que dados los números reales a ≤ b, entonces {ω ∈
Ω|a ≤ X(ω) ≤ b} ∈ F, es decir este subconjunto es un evento y será denotado, brevemente,
{a ≤ X ≤ b}
• Una variable aleatoria define una medida de probabilidad sobre la σ-álgebra de Borel
de BR por PX = P ◦ X −1 , esto es,
Se dice que una variable aleatoria X tiene una densidad de probabilidad fX si fX es una
función no negativa sobre R, medible con respecto a la σ-álgebra de Borel y tal que
Z b
P (a < X < b) = fX (x)dx,
a
R +∞
para todo a < b. Nótese que −∞ fX (x)dx = 1. Las variables aleatorias admitiendo una
densidad de probabilidad se dicen continuas.
Se dice que una variable aleatoria X es discreta si toma un número finito o contable de
valores diferentes xk . Las variables aleatorias discretas no tienen densidades y su ley es
caracterizada por una función de probabilidad :
pk = P (X = xk )
1
P (X = 1) = P (X = −1) =
2
EJEMPLO Si A es un evento en un espacio de probabilidad, la variable aleatoria
(
1 si ω ∈ A
1A (ω) =
0 si ω 6∈ A
b (x−µ)2
1
Z
P (a < X < b) = √ e− 2σ 2 dx
2πσ 2 a
para a < b
EJEMPLO Se dice que una variable aleatoria X tiene la ley binomial Bin(n, p) si
n k
P (X = k) = p (1 − p)n−k
k
para k = 0, 1, . . . , n
La función FX : R → [0, 1] definida por
lim FX (x) = 0
x→−∞
lim FX (x) = 1
x→+∞
Z x
FX (x) = fX (y)dy
−∞
Z
E(X) = XdP
Ω
Note que
E(1A ) = P (A)
X1 (ω) ≤ X2 (ω) ≤ · · ·
donde X + = max(X, 0) y X − = − min(X, 0), siempre que E(X + ) y E(X − ) son finitos.
Esto último significa que
E(|X|) < ∞
Z
E(X) = XdP
Ω
Z Z +∞
= 1{t<X} dtdP
Ω 0
Z +∞ Z
= 1{t<X} dP dt
0 Ω
Z +∞
= P (t < X)dt
0
La esperanza de una variable aleatoria X puede ser calculado integrando la función x con
respecto a la ley de probabilidad de X
Z Z +∞
E(X) = X(ω)dP (ω) = xdPX (x)
Ω −∞
Z Z +∞
E(g(X)) = g(X(ω))dP (ω) = g(x)dPX (x)
Ω −∞
EJEMPLO Si X es una variable aleatoria con ley normal N (µ, σ 2 ) y λ es un número real,
entonces
Z +∞
λX
E(e ) = eλx dPX (x)
−∞
+∞ (x−µ)2
1
Z
= √ eλx e− 2σ 2 dx
2πσ 2 −∞
−µ 2 /2σ 2 Z +∞
e x2 −2x(λσ 2 +µ)
= √ e− 2σ 2 dx
2πσ 2
−∞
2 2 2 2 +∞
e((λσ +µ) −µ )/2σ (x−(λσ 2 +µ))2
Z
= √ e− 2σ 2 dx
2πσ 2 −∞
2 +2µ)/2
= eλ(λσ
∞
X e−λ λn
E(X) = n
n!
n=0
∞
−λ
X λn
= e
(n − 1)!
n=1
∞
−λ
X λn−1
= λe
(n − 1)!
n=1
= λ
2
σX = Var(X)
= E((X − E(X))2 )
= E(X 2 − 2XE(X) + E(X)2 )
= E(X 2 ) − 2E(X)2 + E(X)2
= E(X 2 ) − E(X)2
Si X e Y son variables aleatorias tales que E(X 2 ) < ∞ y E(Y 2 ) < ∞, entonces su covarianza
es definida por
Se dice que una variable aleatoria X tiene un momento finito de orden p ≥ 1, probado que
E(|X|p ) < ∞, el cual se define por
mp = E(X p )
El conjunto de variables aleatorias con momento finito p-ésimo se denota por L p (Ω, F, P )
La función característica de una variable aleatoria X se define por
ϕX (t) = E(eitX )
Nótese que
1 (n) 1
ϕ (t) = E(in X n eitX )
in X t=0 in t=0
n
X
t
(A1 , . . . , An )ΓX (A1 , . . . , An ) = ΓX (i, j)ai aj ≥ 0
i,j=1
n
X n
X
ΓX (i, j)ai aj = cov(Xi , Xj )ai aj
i,j=1 i,j=1
n
!
X
= Var a i Xi
i=1
≥ 0
Como en el caso de las variables aleatorias a valores reales, se introduce la ley o distribución
de un vector aleatorio X de n dimensiones como la medida de probabilidad definida sobre
la σ-álgebra de Borel de Rn por
PX (B) = P (X −1 (B))
= P (X ∈ B)
Decimos que un vector aleatorio X tiene una densidad de probabilidad fX si fX (x) es una
función no negativa sobre Rn , medible con respecto a la σ-álgebra de Borel de Rn y tal que
Z bn Z b1
P (ai < Xi < bi , i = 1, . . . , n) = ··· fX (x1 , . . . , xn )dx1 · · · dxn
an a1
Z +∞ Z +∞
··· fX (x1 , . . . , xn )dx1 · · · dxn = 1
−∞ −∞
Se dice que un vector aleatorio X de n dimensiones tiene una ley normal multidimensional
N (m, Γ) donde m ∈ Rn y Γ es una matriz simétrica definida positiva, si X tiene la función
de densidad
1 − 12 n
P
i,j=1 (xi −mi )(xj −mj )Γij
−1
fX (x1 , . . . , xn ) = n/2
e
(2π|Γ|)
σ2 · · · 0
.1 . ..
Γ= . ..
. .
0 ··· σn2
n (x−mi )2
Y 1 −
2σ 2
fX (x1 , . . . , xn ) = q e i
i=1 2πσi2
E(AX) = AE(X)
= Am
• Desigualdad de Markov
Si X es una variable aleatoria no negativa y v > 0, entonces
vP (X ≥ v) ≤ E(X)
Efectivamente,
Z
E(X) = XdP
Ω
Z +∞
= xdPX (x)
0
Z +∞ Z v
= xdPX (x) + xdPX (x)
v 0
Z +∞
≥ xdPX (x)
v
Z +∞
≥ vdPX (x)
v
≥ vP (X ≥ v)
• Desigualdad de Chebyshev
Si λ > 0,
1
P (|X| > λ) ≤ E(|X|p )
λp
Basta tomar Y = |X|p ≥ 0, por la desigualdad de Markov se tiene
E(|X|p ) = E(Y )
≥ λp P (Y ≥ λp )
= λp P (|X|p ≥ λp )
= λp P (|X| ≥ λ)
• Desigualdad de Schwartz
p
E(XY ) ≤ E(X 2 )E(Y 2 )
• Desigualdad de Hölder
1 1
donde p, q > 1 tales que p + q =1
Consideremos la desigualdad ...
• Desigualdad de Jensen
Si ϕ : R → R es una función convexa tal que las funciones X y ϕ(X) tienen esperanza
finita, entonces
ϕ(E(X)) ≤ E(ϕ(X))
|E(X)|p ≤ E(|X|p )
• Convergencia en probabilidad
Xn →P X si
• Convergencia en ley
Xn →L X si
1
P (|Xn − X| > ) ≤ E(|Xn − X|p )
p
• La convergencia casi segura implica la convergencia en probabilidad. Recíprocamente,
la convergencia en probabilidad implica la existencia de una subsucesión que converge
casi seguramente
P (A ∩ B) = P (A)P (B)
para cada conjunto finito de índices {i1 , . . . , ik } ⊂ I, y para todos los conjuntos de Borel
Bj
Suponga que las variables aleatorias X e Y son independientes con esperanza finita. En-
tonces XY tiene esperanza
E(XY ) = E(X)E(Y )
donde gi son funciones medibles tales que E(|gi (Xi )|) < ∞
P (A ∩ B)
P (A|B) =
P (B)
P (A|B) = P (A)
Z
E(X|B) = XdP (·|B)
Ω
1
Z
= X1B dP
P (B) Ω
1
= E(X1B )
P (B)
X1 + · · · + Xn a.s.
→ m
n
donde m = E(X1 )
TEOREMA DE LIMITE CENTRAL
Sea {Xn }n≥1 una sucesión de variables aleatorias independientes e idénticamente distribuidas,
tales que E(X12 ) < ∞. Sea m = E(X1 ) y Var(X1 ) = σ 2 . Entonces
X1 + · · · + Xn − nm L
√ → N (0, 1)
σ n
2 Procesos Estocásticos
t 7→ Xt (ω)
(Xt1 , . . . , Xtn ) : Ω → Rn
mX (t) = E(Xt )
ΓX (s, t) = Cov(Xs , Xt )
= E((Xs − mX (s))(Xt − mX (t)))
Var(Xt ) = ΓX (t, t)
2
= σX (t)
EJEMPLO
Considere el proceso estocástico
Xt = A cos(ϕ + λt)
donde A y ϕ son variables aleatorias independientes tales que E(A) = 0, E(A 2 ) < +∞ y ϕ
es uniformemente distribuida sobre [0, 2π]. Entonces, este es un proceso de segundo orden
con
mX (t) = 0
1
ΓX (s, t) = E(A2 ) cos(λ(t − s))
2
EJEMPLO
Proceso de llegadas: considere el proceso de llegadas de clientes a un almacén y suponga
que el experimento es establecido para medir el tiempo entre llegadas.
Suponga que el tiempo entre llegadas son variables aleatorias positivas X 1 , X2 , . . . , lo que
significa que dos o más clientes no pueden llegar a la vez.
Entonces, para cada t ∈ [0, +∞), ponemos Nt = k si y solamente si el entero k es tal que
X1 + · · · + Xk ≤ t < X1 + · · · + Xk+1
PROCESOS DE POISSON
Una variable aleatoria T : Ω → (0, ∞) tiene distribución exponencial de parámetro λ > 0 si
P (T > t) = e−λt
para todo s, t ≥ 0
Si T tiene la propiedad de pérdida de memoria, entonces
P (T > s + t ∩ T > s)
P (T > s + t|T > s) =
P (T > s)
P (T > s + t)
=
P (T > s)
e−λ(s+t)
=
e−λs
−λs
= e
= P (T > s)
g(s + t) = g(s)g(t)
1. N0 = 0
2. Para cualquier n ≥ 1 y para cualquier 0 ≤ t1 < · · · < tn los incrementos Ntn − Ntn−1 ,
. . . , Nt2 − Nt1 son variables aleatorias independientes
(λ(t − s))k
P (Nt − Ns = k) = e−λ(t−s)
k!
para k = 0, 1, . . . donde λ > 0 es una constante fija
Una construcción de un proceso de Poisson puede ser realizado de la siguiente manera: con-
sidere una sucesión {Xn |n ≥ 1} de variables aleatorias independientes con ley exponencial
∞
X
Nt = n1{Tn ≤t≤Tn+1 } (1)
n=1
∞
X
N0 = n1{Tn ≤0≤Tn+1 }
n=1
X∞
= n0
n=1
= 0
Segundo,
EJEMPLO
Un artículo tiene un tiempo de vida aleatorio cuya distribución es exponencial con parámetro
λ = 0.0002 (el tiempo de vida es medido en horas). Cuando el artículo falla, este es
inmediatamente reemplazado por un articulo idéntico, y así sucesivamente. Si N t es el
número de fallas en [0, t], entonces concluimos que el proceso de fallas {N t |t ≥ 0} es un
proceso de Poisson con tasa λ > 0.
Suponga que el costo de un reemplazo es β dólares, y suponga que la tasa de descuento
continua del dinero es α > 0, entonces se tiene que el valor presente de todos los costos de
los reemplazos futuros es
∞
X
C= βe−αTn
n=1
∞
X βλ
E(C) = βE e−αTn =
α
n=1
Zt = Y1 + · · · + YNt (= SNt )
e(ϕY1 (x)−1)λ(t−s)
X
E(eix(Zt −Zs ) ) = E(eix(Zt −Zs ) 1{Ns =m,Nt −Ns =k} )
m,k=0
X
= E(eix(Sm+k −Sm ) 1{Ns =m,Nt −Ns =k} )
m,k=0
X
= E(eixSk )P (Ns = m, Nt − Ns = k)
m,k=0
X
= E(eixSk )P (Nt − Ns = k)
k=0
X (λ(t − s))k
= (E(eixY1 ))k e−λ(t−s)
k!
k=0
X (ϕY (x)λ(t − s))k
= e−λ(t−s) 1
k!
k=0
−λ(t−s) ϕY1 (x)λ(t−s)
= e e
−λ(t−s)(1−ϕY1 (x))
= e
3 Cadenas de Markov
Sea I un conjunto contable, el cual establecerá el espacio de estados del presente proceso
estocástico.
Una distribución de probabilidad π sobre I está formada por los números 0 ≤ π i ≤ 1 talaes
P
que i∈I πi = 1. Si I es finito, entonces π es un vector de N dimensiones.
P
Decimos que una matriz P = (pij )i,j∈I es estocástica si 0 ≤ pij ≤ 1 y j∈I pij = 1
Una cadena de Markov será un proceso estocástico de tiempo discreto con espacio de estados
I. Los elementos pij representarán la probabilidad que Xn+1 = j condicional a Xn = i
Un ejemplo de matriz estocástica es
!
1−α α
β 1−β
1. P (X0 = i0 ) = πi0
Nótese que
P (X0 = i0 , X1 = i1 , . . . , Xn = in )
P (X0 = i0 , X1 = i1 ) P (X0 = i0 , X1 = i1 , . . . , Xn = in )
= P (X0 = i0 ) ···
P (X0 = i0 ) P (X0 = i0 , X1 = i1 , . . . , Xn−1 = in−1 )
= πi0 P (X1 = i1 |X0 = i0 ) · · · P (Xn = in |X0 = i0 , X1 = i1 , . . . , Xn−1 = in−1 )
= πi0 pi0 i1 · · · pin−1 in
De otra parte, (P 2 )ij = pik pkj , por lo que P n es una matriz estocástica, denotando
P
k∈I
P 0 = I.
Entonces, primeramente, tenemos que
P (Xn = j) = (πP n )j
Efectivamente,
X X
P (Xn = j) = ··· P (X0 = i0 , . . . , Xn = j)
i0 ∈I in−1 ∈I
X X
= ··· πi0 pi0 i1 · · · pin−1 j
i0 ∈I in−1 ∈I
= (πP n )j
y, también,
(n)
P (Xn+m = j|Xm = i) = pij
P (Xn+m = j, Xm = i)
P (Xn+m = j|Xm = i) =
P (Xm = i)
P P
i0 ∈I · · · in+m−1 ∈I πi0 pi0 i1 · · · pim−1 i piim+1 · · · pin+m−1 j
=
(πP m )i
X X
= ··· piim+1 · · · pin+m−1 j
im+1 ∈I in+m−1 ∈I
(n)
= pij
EJEMPLO
Considere una cadena de Markov de 2 estados con la matriz de transición
!
1−α α
P =
β 1−β
(n) (n)
Puesto que se conoce que p11 + p12 = 1, tenemos
(n+1) (n)
p11 = β + p11 (1 − α − β)
(0)
con la condición p11 = 1. La solución de esta recurrencia es,
(
β α
(n) α+β + α+β (1 − α − β)n si α + β 6= 0
p11 =
1 + nβ si α + β = 0
(n+m)
X X
pij = ··· pii1 · · · pin+m−1 j
i1 ∈I in+m−1 ∈I
X X X X
= ··· ··· pii1 · · · pin+m−1 j
i1 ∈I in ∈I in+1 ∈I in+m−1 ∈I
(m)
X X
= ··· pii1 · · · pin−1 in pin j
i1 ∈I in ∈I
(n) (m)
X
= piin pin j
in ∈I
n+m n m
P = P P
(1)
fij (1) = pij = pij
y, para n > 1,
n−1
(n) (n−k)
X
fij (n) = pij − fij (k)pjj
k=1
RESULTADOS
PROBABILIDAD DE LA TRANSICION DE i A j
X
Fij = fij (n)
n
Note que si Fij = 1, entonces la transición de i a j se produce con seguridad y, además, los
fij (n) conforman una distribución de probabilidad de la variable número de pasos para ir
de i a j por primera vez, por lo que la media de esta variable es,
X
µij = nfij (n)
n
n
(n) (n−k)
X
pii = fii (k)pii
k=1
o, también,
n−1
(n) (n−k)
X
fii (n) = pii − fii (k)pii
k=1
0 1/2 1/2
1/2 0 1/2
1/2 1/2 0
y para
!
1/4 3/4
1 0
PROBABILIDADES DE EQUILIBRIO
La relación
πin+1 = πin P
π = πP
= lim πin P
n→∞
= lim πi0 P n
n→∞
= πi0 lim P n
n→∞
= π i0 P ∞
πi = (P ∞ )ii