Cadenas de Markov
Cadenas de Markov
Cadenas de Markov
CAPTULO VI
CADENAS DE MARKOV
6.1 INTRODUCCIN
Un vector fila v = (v1, v2, ...,vn) recibe el nombre de vector de probabilidad si sus
componentes son no negativas y la suma es igual a 1.
82
Cadenas de Markov
1 1
= =
2 + 3 + 0 + 6 + 4 15
1 2 3 0 6 4
w = w = , , , ,
15 15 15 15 15 15
6.2.2 Proceso estocstico: Si el estado de un sistema dado puede cambiar con cierta
probabilidad a intervalos fijos o aleatorios de tiempo se denomina proceso estocstico
Las variables X1, X2 y X3 pueden representar los niveles de inventario al finalizar los meses
1, 2 y 3 las marcas de productos preferidas por los clientes en las semanas 1, 2 y 3.
6.2.3 Espacio de estados: Se define al conjunto de todos los posibles valores asociados a
un proceso estocstico.
83
Cadenas de Markov
6.2.5 Diagrama de transiciones: Conjunto de nodos y arcos dirigidos que ilustra las
transiciones entre estados.
1 2
Figura 6.1
Probabilidad de que la variable de estado tome el valor de j en el tiempo t+1 dado que en el
tiempo t toma el valor de i.
84
Cadenas de Markov
y
M
p
j =0
n
i, j = 1 para toda i y n = 0,1 ,2, ... donde M es el nmero finito asociado por donde
Una mquina que produce piezas puede estar ajustada o desajustada. Si esta ajustada,
suponga que la probabilidad de que no lo est es 0.3. Si la mquina esta desajustada, la
probabilidad de que este ajustada el da siguiente es 0.6 y la probabilidad de que no lo este
es 0.4. Si el estado 1 representa la situacin en que la mquina esta ajustada y el estado 2
representa el caso en que esta desajustada, las probabilidades de cambio son las que se
indica en la tabla 6.1.
El proceso se representa con dos rboles de probabilidades en la figura 6.2a y 6.2b, cuyas
ramas ascendentes indican el paso al estado 1 y las ramas inferiores el cambio al estado 2.
A Ajustada No Ajustada
De
Ajustada 0.7 0.3
No ajustada 0.6 0.4
Tabla 6.1
0.49
1
0.7
1 0.3
0.7
2 0.21
1
0.3
0.18
0.6 1
2
0.4
2 0.12
Figura 6.2 a
85
Cadenas de Markov
0.42
1
0.7
1 0.3
0.6
2 0.18
2
0.4
0.24
0.6 1
2
0.4
2 0.16
Figura 6.2 b
P11 = P{ X 2 = 1 / X 1 = 1}
P11 = 0.7
P112 = P{ X 3 = 1 / X 1 = 1}
P112 = P11 * P11 + P12 * P21 = 0.49 + 0.18 = 0.67
P122 = P{ X 3 = 2 / X 1 = 1}
P122 = P11 * P12 + P12 * P22 = 0.21 + 0.12 = 0.33
P12 = P{ X 3 = 2 / X 1 = 2, X 2 = 1}
P12 = 0.3
86
Cadenas de Markov
0.7
1 2 0.4
0.6
Figura 6.3
Una matriz cuadra P = (pij) es estocstica si cada una de sus filas es un vector de
probabilidad, esto es, si cada elemento de P es no negativo y la suma las componentes para
cada fila es 1.
Definicin: Una matriz estocstica P es regular si todos los elementos de alguna potencia
Pm son positivos.
1 1
2 2 1 0
A= B=
1 0 1 2
3 3
87
Cadenas de Markov
0.75 0.25
A2 = por lo tanto A es una matriz estocstica Regular
0 .5 0.5
1 0
Bm = por lo tanto B no es una matriz estocstica regular
1 0
Un vector no nulo u= (u1,u2, ..., un) es un punto fijo de una matriz cuadrada A si u
permanece fijo, esto es, no cambia cuando se multiplica por A.
uA=u
1 1
2 2
Ejemplo: Si tenemos la matriz A = entonces u=(3/8, 5/8) es un punto fijo de A
3 7
10 10
puesto que
1 1
2 2
( 3 , 5 ) = (3 , 5 )
8 8 3 7 8 8
10 10
6.2.9 Puntos fijos y matrices estocsticas regulares
La principal relacin entre las matrices estocsticas y regulares y los puntos fijos se
establece en el teorema siguiente.
88
Cadenas de Markov
Ejemplo 7: Sea A una matriz estocstica Regular, halle el vector fijo nico u
Si u= (x,y,z) y
0 1 0
A = 0 0 1 sabemos que uA=u entonces:
1 1
0
2 2
0 1 0
( x , y , z ) 0 0 1 = ( x, y , z )
1 1
0
2 2
0x + 0y + z = x
1x + 0y + z = y
0x + 1y + 0z = z
x+y+z=1
u=(1/5,2/5,2/5)
b) Halle la matriz A64 y compare los valores de cada fila con el vector fijo nico u
1 2 2
5 5 5
0 1 0
64 1 2 2
A = 0 0 1 A =
5 5 5
1 1
0 1 2 2
2 2
5 5 5
La matriz de transicin es una matriz estocstica en la cual se incorpora los estados actuales
y los estados en el tiempo t+1
Ejemplo 8: Una persona puede escoger entre conducir su automvil o tomar el metro para
ir a su trabajo cada da. Supongamos que la persona nunca toma el tren dos das seguidos;
pero si conduce hasta el trabajo, entonces al da siguiente puede manejar de nuevo o tomar
el tren. Construya la matriz de transicin.
89
Cadenas de Markov
Este proceso estocstico es una cadena de Markov, puesto que el resultado de cualquier da
depende nicamente de lo que ha sucedido el da anterior. La matriz de transicin de la
cadena de Markov es:
Estado Futuro
m c
Estado
Actual
m 0 1
c 0.5 0.5
M
Pijn = Pikm * Pkj( m n ) para 0 m n
k =0
0.3
0.6 0.7
90
Cadenas de Markov
0.4
0.5 3
1 2
0.5 0.4
0.5 4
0.1
Figura 6.4
0.2
5
0.8
Figura 6.5
Definicin: Un estado j es alcanzable desde un estado i si hay una trayectoria que vaya de i
aj
El estado 5 es alcanzable desde el estado 3.
91
Cadenas de Markov
0.3
0.6 0.7
0.4
0.5 3
1 2
0.5 0.4
0.5 4
0.1
S1
Figura 6.6 0.2
5
0.8
S2
Figura 6.7
S1 y S2 son conjuntos cerrados.
0.4 0.6
1
1 2
Figura 6.8
92
Cadenas de Markov
4
2
5
3
Figura 6.9
Definicin: Un estado i es peridico con periodo k>1 si k es el nmero mas pequeo tal
que las trayectorias que parten del estado i y regresan al estado i tienen una longitud
mltiplo de k. Si un estado recurrente no es peridico, se llama aperidico.
1 2 3
Figura 6.10
Al comenzar con el estado 1 la trayectoria a seguir para retornar al estado 1 sera 1-2-3-1
por lo tanto k = 3. Esto es, si se parte del estado 1 para retornar al estado 1, se tendrn que
realizar pasos en cantidades que son mltiplos de 3.
Definicin: Si todos los estados en una cadena son recurrentes, aperidicos y se comunican
entre si, se dice que la cadena es ergdica (estocstica regular).
93
Cadenas de Markov
1 2 4 2 1
3 0 9
3 9 3
1 1 2 1 11 3
P= 0 -> P=
2 2 6 24 8
0 1 3 1 3 11
4 4 8 16 16
Como se haba indicado anteriormente, para verificar que la matriz es ergdica se puede
elevar la matriz a la potencia m y si se comprueba que desaparecen los ceros, se concluye
que la matriz es ergdica.
Primera caracterstica: todos los estados son recurrentes (para cada salida existe un
retorno)
Segunda caracterstica: todos los estados son aperidicos (Para el estado 1 y 3 k=1 y
para el estado 2 no existe un mltiplo mnimo k)
Tercera caracterstica : Todos los estados se comunican entre s (La cadena de Markov
es un solo conjunto cerrado y son recurrentes)
94
Cadenas de Markov
1 1 1
0 2 3 6 0,237 0 0,763 0
0 0,373 0 0,627
1 0
1 1
0,237 0 0,763 0
2 4 4
P= -> P64 = 0 0,373 0 0,627
1 1
0
1
3 3 3
1 2 2
0
5 5 5
Primera caracterstica: todos los estados son recurrentes (para cada salida existe un
retorno)
Segunda caracterstica: todos los estados son aperidicos (Para todos los estados existe
un periodo K>1 y es mltiplo de 2, por lo tanto todos los estados son peridicos con
periodo igual a 2)
Tercera caracterstica : Todos los estados se comunican entre s (La cadena de Markov
es un solo conjunto cerrado y son recurrentes)
Al no cumplir con alguna de las caractersticas, en este caso la segunda, se concluye que la
matriz no es ergdica
95
Cadenas de Markov
Es la probabilidad de pasar del estado i al estado j en n transiciones sin pasar por el estado j
en una transicin intermedia. Esto es, la probabilidad de llegar al estado j por primera vez
en la transicin n.
n
La probabilidad de primera ocurrencia se representa por ( f ij )
pij si n = 1
M
f ijn = P * f n 1 si n 2
ik kj
k j
k =1
Desarrollando:
f ijn = Pijn f ij1 p njj1 f ij2 p njj 2 ... f ijn 1 Pjj Probabilidad de primera ocurrencia en n transiciones
f ijn
Las probabilidades de primera ocurrencia en n transiciones cumplen la condicin de que
f
n =1
n
ij 1
Si i=j y f iin = 1 entonces el estado i se conoce como estado recurrente. Un caso especial
i =1
de un estado recurrente es un estado absorbente.
Si i=j y f iin < 1 entonces el estado i se conoce como estado transitorio
i =1
96
Cadenas de Markov
si
f
n =1
n
ij < 1
ij =
nf n
f n
ij si ij = 1
n =1 n =1
Siempre que f n =1
n
ij = 1 entonces ij , satisface de modo nico la ecuacin
M
ij = 1 + pik kj ij
K =1
k j
Cuado j=i, el tiempo esperado del primer paso se llama tiempo esperado de recurrencia y se
representa por:
1
ij = i=j
j
Ejemplo 12:
El mercado para un producto de 3 marcas diferentes cuenta con 1,000 clientes potenciales
distribuidos de la siguiente forma
A 300 0 30 30 310
B 400 40 0 80 370
C 300 30 60 0 320
------- -------
1000 1000
97
Cadenas de Markov
98
Cadenas de Markov
b)
d) p(0)P = p(1)
p(1)P = p(2)
e) P =
1 1 1
1 = ; 2 = ; 3 =
3 3 3
99
Cadenas de Markov
f) A,C = 1 + pi ,k k , j
k j
A,C = 1 + p AA AC + p AB BC + p AC CC
B ,C = 1 + p BA AC + p BB BC + p BC CC
A,C = 8; B ,C = 6
Un cliente que actualmente prefiere la marca A tardar 8 mese en preferir la marca
C
1
g) A, A =
A
1
A, A = = 3 meses
1
3
h) f B2,C = p BA p AC + p BB p BC
Una cadena de Markov en la que uno o ms estados son estados absorbentes corresponde a
una cadena de Markov absorbente.
Muchas de las aplicaciones importantes de anlisis de Harkov tratan con situaciones donde
existen uno o ms estados absorbentes en el proceso y pueden identificarse por sus
cantidades en la matriz de transicin. En particular, el estado i es absorbente si Pii = 1.
100
Cadenas de Markov
1.- Cul es el tiempo esperado que el proceso est en estado no absorbente antes de que
entre en uno no absorbente?
2.- Cul es el tiempo total antes de la absorcin para cada estado no absorbente?
3.- Cul es la probabilidad de absorcin partiendo de cada uno de los estados no
absorbentes?
Para dar respuesta a estas interrogantes, el primer paso es rearreglar los estados de tal
manera que los estados absorbentes estn agrupados en la parte superior izquierda de la
matriz de transicin; los estados restantes entonces se tendrn en cualquier orden.
Arreglando los estados de esta manera se proporciona la forma cannica en la figura 4.12.
I O
P =
A T
Figura 4.12
Para cualquier cadena de Markov absorbente escrita en esta forma cannica se define una
matriz fundamental.
F=(I-T)-1
Donde F tiene una dimensin (n-r) X (n.r) y sus cantidades representan la media o nmero
esperado de veces que el proceso est en cada estado no absorbente antes de ser absorbido.
Ya que los renglones representan la absorcin del proceso de varios estados, la suma de
cada rengln de F representa el tiempo total esperado hasta la absorcin de cada uno de os
estados no absorbentes.
B=F x A
101
Cadenas de Markov
Ejemplo 13
a)
A B C D
A 1 0 0 0
B 0 0,2 0,5 0,3
C 0,1 0,1 0,8 0
D 0 0 0 1
102
Cadenas de Markov
b)
c)
Estados Absorbentes A y D
Estados Transitorios B y C
Estados Recurrentes A y D
2 2
d) PBB + PBC
Utilizando las ecuaciones de Chapman Kolmogorov
po(0,1,0,0) x P = p1(0, 0.2, 0.5, 0.3)
p1(0, 0.2, 0.5, 0.3) x P = p2(0.05, 0.09, 0.5, 0.36)
2
e) PBC = 0.1
f)
Matriz en formato cannico
A D B C
A 1 0 0 0
D 0 1 0 0
B 0 0,3 0,2 0,5
C 0,1 0 0,1 0,8
La matriz fundamental es la siguiente F=(I-T)-1
B C
F= B 1,818 4,545 6,36
C 0,909 7,273 8,18
El tiempo de vida del paciente es de 6.36 aos
g)
A D
B=FxA B 0,455 0,545
C 0,727 0,273
Si un paciente esta sano, la probabilidad de que muera estando bajo tratamiento es 0.273
103
Cadenas de Markov
EJERCICIOS PROPUESTOS
1.- Mario Jaldn es el distribuidor de Coca Cola en una provincia. Su gerente de almacn
inspecciona las cajas de gaseosas ( stos son los guacales de madera que almacenan 24
botellas) cada semana y los clasifica as A) recin construido esta semana, B) en buenas
condiciones, C) en condicin aceptable D) imposible de utilizar por daos. Si no es
posible usar una caja por dao, se enva al rea de reparacin, donde usualmente esta fuera
de uso por una semana. Los registros de la bodega de Mario indican que sta es la matriz
apropiada de probabilidades de transicin para sus cajas de gaseosas
El contador de Mario le dice que le cuesta 2.50 Bs. reconstruir una caja, y la compaa
incurre en un costo de $1.85 Bs. por prdida de eficiencia de produccin cada vez que una
caja se encuentra que esta daada. sta prdida de eficiencia es porque las cajas rotas hacen
lento el proceso de cargar los camiones.
a) Calcule el costo total semanal esperado por la reconstruccin como por la prdida
de eficiencia de produccin.
Respuesta: Costo total semanal es 0.725 por caja.
b) Suponga que Mario desea considerar el construir cajas siempre que se inspeccione y
se encuentre que estn en condicin aceptable (Eliminando la posibilidad de que la
caja se dae). Construya la nueva matriz de transicin. Y calcule el costo total
semanal esperado con esta nueva matriz de transicin.
Respuesta: Costo total semanal = 0.625 por caja
2.- Industrias Unidad, un fabricante de ropa de dormir para mujer clasifica a sus operadores
de mquinas de coser en cuatro categoras, dependiendo de su productividad durante el mes
precedente; 1 es la categora mas baja y 4 es la categora mas alta. Histricamente, la fuerza
de trabajo de cosido se ha distribuido entre las cuatro categoras como sigue: 1=30%, 2=
35%, 3= 25%, 4= 10%. Hace siete meses, Industrias Unidas produjo un nuevo sistema
organizacional en su planta con 450 operadores. El nuevo sistema agrupa a los operadores
en unidades voluntarias de trabajo que no slo eligen a sus propios supervisores sino que
tambin determinan sus propios horarios de trabajo. Los registros de produccin
mantenidos desde que se adopt el nuevo plan le ha permitido a su gerente de planta,
construir esta matriz de probabilidades de transicin que ilustra los cambios mes a mes de
la productividad de sus empleados.
104
Cadenas de Markov
La compaa A retuvo el 80% de sus clientes, perdi 5% de sus clientes con B y 15% con C.
La compaa B retuvo e 90% de sus clientes; perdi el 10% con A y ninguno con C
La compaa C retuvo el 60% de sus clientes; perdi el 20% con A y 20% con B
105
Cadenas de Markov
4.- Una tienda vende cmaras fotogrficas y cada sbado ordena solo si tiene 0 cmaras en
inventario, en caso contrario no ordena, los pedidos se hacen por 3 cmaras, las cmaras
ordenadas estn disponibles el lunes por la maana. La demanda de las cmaras es Poisson
con media de 1 cmara /semana.
5.- Un proceso de produccin incluye una mquina que se deteriora con rapidez bajando
tanto en la calidad como en el rendimiento de su produccin bajo un uso pesado, de modo
que se inspecciona al final de cada da. Inmediatamente despus de la inspeccin, se
observa la condicin de la mquina y se clasifica en uno de los cuatro estados posibles:
Estado Condiciones
106
Cadenas de Markov
0 1 2 3
Obtener:
6.- Hay dos fichas blancas en la urna A y 3 fichas rojas en la urna B. A Cada paso del
proceso se selecciona una ficha de cada una y se intercambian las dos fichas seleccionadas.
Sea Xn el nmero de fichas rojas en la urna A.
a) Encuentre la Matriz de transicin P.
Respuesta: El vector t de esta matriz de transicin es (0.1;0.6;0.3)
b) Construya el diagrama de transiciones.
c) Cul es la probabilidad de haya dos fichas rojas en la urna A luego de cuatro
pasos?
Respuesta:0.3056
d) A la larga Cul es la probabilidad de que haya dos fichas rojas en la urna A?
Respuesta:0.3
e) Cuntos pasos en promedio se requieren para que existan 2 fichas rojas en la urna
A?
Respuesta: 3 pasos
107
Cadenas de Markov
f) Si actualmente, hay una ficha roja en la urna A Cul es la probabilidad para que
existan 2 fichas rojas, en esta urna, por primera vez en tres pasos?
Respuesta: 0.1389
7.- La clientela compra automviles en tres agencias. Dada la compaa a la que compr un
cliente la ltima vez, la probabilidad que compre la prxima vez es:
Comprar en
Compr en: Agencia 1 Agencia 2 Agencia 3
108
Cadenas de Markov
Respuesta:0.9492
9.- Un borracho camina por el pasillo que tiene un ancho de cinco baldosas. Comienza a
caminar en la baldosa central pero no puede mantener la lnea recta y se va a la izquierda o
la derecha con la misma probabilidad. Cuando llega a una baldosa que est junto a la pared
del lado izquierdo, se choca contra ella y esto hace que en el siguiente paso vaya a la
baldosa de al lado, pero si llega a la baldosa que esta en el extremo derecho el borracho
pierde el equilibrio y cae porque las baldosas de esa fila no estn bien colocadas.
109