Material Soporte de Clase - Cadenas de Markov - 2016
Material Soporte de Clase - Cadenas de Markov - 2016
Material Soporte de Clase - Cadenas de Markov - 2016
2
Procesos estocásticos - Introducción
“Para describir el comportamiento del sistema es necesario definir una
variable aleatoria X(t) que represente una característica mensurable de los
distintos estados que puede adoptar el sistema según sea el resultado del
fenómeno aleatorio y su correspondiente probabilidad de estado asociada
P [X(t)] .”
Un ejemplo podría ser las condiciones del tiempo en Buenos Aires en una serie
de días consecutivos: el tiempo cambia día a día de una manera que en apariencia
es algo aleatoria. O bien, la sucesión podría consistir en los precios de las
acciones que cotizan en la bolsa en donde otra vez interviene cierto grado de
aleatoriedad.
3
Procesos estocásticos - Ejemplos
Otros ejemplos de procesos estocásticos podrían ser:
4
Procesos estocásticos - Ejemplos
6 Nt
Número 5
de
4
compradores
3
2
1
0
Tiempo
5
Procesos estocásticos - Introducción
Un ejemplo de un proceso estocástico es una sucesión de lanzamientos de una
moneda. En este caso, el resultado en cualquier etapa es independiente de todos
los resultados previos (esta condición de independencia es parte de la definición
de los ensayos de Bernoulli).
6
Procesos estocásticos - Clasificación
► Según la memoria que guarda el proceso de la historia de los estados
anteriores:
► Procesos aleatorios puros: la probabilidad de que el sistema se encuentre en un
estado cualquiera X(t) en un instante t se puede calcular de manera independiente a
cuales fueron los estados anteriores.
► Ejemplos: Ensayos independientes al azar: dados, ruleta, etc.
7
Procesos estocásticos markovianos
En la mayoría de los procesos estocásticos, cada resultado depende de lo que
sucedió en etapas anteriores del proceso. Por ejemplo, el tiempo en un día
determinado no es totalmente aleatorio sino que es afectado en cierto grado
por el tiempo de días previos. El precio de una acción al cierre de cualquier
día depende en cierta medida del comportamiento de la bolsa en días previos.
8
Procesos de Markov - Clasificación
► Según la naturaleza discreta o continua del espacio de estados de la variable
X(t):
► Proceso de Markov: cuando X(t) representa una magnitud continua (energía, potencia,
corriente eléctrica, etc.) estamos en presencia de un Proceso de Markov con
estados continuos o simplemente Proceso de Markov.
► Cadena de Markov: cuando X(t) representa una magnitud discreta (unidades en stock
en un depósito, cantidad de clientes en un sistema de filas de espera, etc.) estamos en
presencia de un Proceso de Markov con estados discretos o simplemente Cadena
de Markov.
9
Procesos de Markov - Clasificación
► Según la naturaleza discreta o continua del parámetro tiempo t:
10
Procesos de Markov - Clasificación
► Clasificación de los procesos de Markov según la naturaleza discreta o
continua del espacio de estados de la variable X(t) y del parámetro tiempo
t:
Discreto Continuo
Naturalez Discreto Cadenas de Markov Procesos de Markov
a del (t = 0,1,2,…) de parámetro de parámetro
parámetro discreto discreto
tiempo t
Continuo Cadenas de Markov Procesos de Markov
(t ≥ 0) de parámetro de parámetro
continua continuo
11
Procesos Estocásticos, Procesos de
Markov y Cadenas de Markov
Procesos
Estocásticos
Procesos de Cadenas de
Markov Markov
Parámetro
Discreto
Parámetro
Continuo
12
Repasando
Una Cadena de Markov es una serie de eventos (de una variable aleatoria
de magnitud discreta), donde la probabilidad de que ocurra un evento
determinado depende del evento inmediato anterior.
13
Propiedad de Markov
Dada una secuencia de variables aleatorias X1, X2, X3 …. tales que el valor de Xn
es el estado del proceso en el tiempo n.
14
Matriz de Transición
Al trabajar con cadenas de Markov, es útil pensar la sucesión de ensayos como
experimentos efectuados en cierto sistema físico, cada resultado dejando a este
sistema en cierto estado.
A, B, A, A, B, B, B, A, B, B
16
Matriz de Transición
Por ejemplo podríamos tener las probabilidades siguientes:
17
Matriz de Transición
En tal caso, la sucesión de elecciones forman una cadena de Markov, dado que las
probabilidades de los dos resultados de cada elección están determinadas por el
resultado de la elección precedente.
3/4
1/4 2/3
Los círculos A y B se denominan
nodos y representan los estados del
A B proceso, las flechas que van de un
nodo a si mismo o al otro son los
arcos y representan la probabilidad
de cambiar de un estado al otro
1/3
18
Matriz de Transición
La información probabilística que se acaba de dar se puede representar de
manera conveniente por la siguiente matriz:
Cada pij ≥ 0
20
Vector de estado inicial
Consideremos un sistema de n estados posibles. Para cualquier etapa en el
futuro (m transiciones) no podemos predecir en qué estado se encontrará el
sistema pero sí podríamos definir las probabilidades de que se encuentre en cada
uno de los estados 1, 2, ….,n.
21
Vector de estado inicial
Tomemos otro ejemplo. Consideremos el valor de una acción que varía a diario.
Cuando la bolsa de valores se encuentra estable, un incremento en un día tiende
a anteceder una baja el día siguiente, y una baja por lo regular es seguida por un
alza. Por lo tanto, las probabilidades de alza y baja del valor del acción se pueden
representar a través de la siguiente matriz de transición:
22
Vector de estado inicial
Si ayer se obtuvo una baja en el valor de la acción, el vector de estado inicial
resultante sería:
P(0) = ( 0 1)
23
Vector de estado inicial
La probabilidad de que la acción vaya al alza o a la baja después de dos días sería:
24
Probabilidad de Transición de m pasos
Una de las propiedades de la matriz de transición es que es estacionaria. Es decir,
no cambia con el tiempo. Esto también implica:
25
Matriz de transición de m pasos
P(n+1) = P(n) . P
26
Ecuaciones de Chapman-Kolmogorov
Las ecuaciones de Chapman-Kolmogorov proporcionan un método para calcular
las probabilidades de transición de n pasos pij(n).
27
Ecuaciones de Chapman-Kolmogorov
Como ya vimos, esto mismo se puede expresar de otra forma:
Luego, si m = n = 1 tenemos:
Si m = 1 y n = r – 1 tenemos:
28
Cadenas de Markov
Veamos un ejemplo
29
Cadenas de Markov – Segunda clase
RETOMANDO…
30
Procesos de Markov - Clasificación
► Clasificación de los procesos de Markov según la naturaleza discreta o
continua del espacio de estados de la variable X(t) y del parámetro tiempo
t:
Discreto Continuo
Naturalez Discreto Cadenas de Markov Procesos de Markov
a del (t = 0,1,2,…) de parámetro de parámetro
parámetro discreto discreto
tiempo t
Continuo Cadenas de Markov Procesos de Markov
(t ≥ 0) de parámetro de parámetro
continua continuo
31
Matriz de Transición
Definición: Consideremos un proceso de Markov en que el sistema posee n
estados posibles, dados por los números 1, 2, 3, …., n. Denotemos pij a la
probabilidad de que el sistema pase al estado j después de cualquier ensayo en
donde su estado previo era i. Los números pij se denominan probabilidades de
transición y la matriz nxn P = (pij) se conoce como matriz de transición del
sistema.
Cada pij ≥ 0
32
Matriz de transición de m pasos
P(n+1) = P(n) . P
33
Vector de estado inicial
En general, si p1 , p2 , ... , pn son las probabilidades de que el sistema se encuentre
en los estados 1, 2, ….., n, respectivamente, entonces la matriz de dimensión 1xn
(p1 , p2 , ... , pn) se conoce como matriz de estado inicial o vector de estado
inicial del sistema. Obviamente que la suma de esa fila es 1. Denotaremos a la
matriz de estado inicial como P(0) y a la matriz de estado después de k ensayos o
etapas por P(k) .
El vector de estado inicial del sistema estará conformado por ceros y un uno,
identificando este el estado inicial en el que se encuentra el sistema.
Ejemplo:
P(0) = ( 0 1)
34
Ecuaciones de Chapman-Kolmogorov
Las ecuaciones de Chapman-Kolmogorov proporcionan un método para calcular
las probabilidades de transición de n pasos pij(n).
35
Cadenas de Markov Homogéneas
En una cadena de Markov, en la que X(t) representa una magnitud discreta
como cantidad de unidades en stock, clientes en una cola, etc., ∆t representa
el lapso de tiempo (discreto o continuo) en el que se produce una
“transición”, es decir, el posible cambio de estado de X(t)
Si i j y j k , entonces i k
37
Clasificación de las Cadenas de Markov
Homogéneas
Estados comunicantes
Si i j y j k , entonces i k
38
Clasificación de las Cadenas de Markov
Homogéneas
Clase comunicante
39
Clasificación de las Cadenas de Markov
Homogéneas
Clase comunicante - Clases recurrentes
40
Clasificación de las Cadenas de Markov
Homogéneas
Clase comunicante - Clases transitorias
41
Clasificación de las Cadenas de Markov
Homogéneas
Estados sin retorno
Son aquellos estados que no se comunican con ningún otro estado, ni si quiera
consigo mismo. Esto significa que una vez que la cadena ha alcanzado dicho
estado la probabilidad de que retorne a él es nula.
42
Clasificación de las Cadenas de Markov
Homogéneas
Cadenas de Markov
Homogéneas
Recurrentes Transitorias
Estados absorbentes
43
Clasificación de las Cadenas de Markov
Homogéneas
Veamos algunos ejemplos:
0 1 2 3 4 5 6 7
El estado 4 es accesible desde los estados 2, 3 y 4 en un paso, desde el 1 en dos pasos
y desde el estado 0 en tres pasos.
44
Clasificación de las Cadenas de Markov
Homogéneas: Ergódicas y no Ergódicas
45
Clasificación de las Cadenas de Markov
Homogéneas: Ergódicas y no Egódicas
Cadenas ergódicas regulares
Una cadena ergódica es regular o aperiódica cuando todos los estados pueden
comunicarse simultáneamente en una cantidad r de pasos. En estas condiciones,
Pr es una matriz con todos sus elementos no nulos.
Un criterio para comprobar que una cadena es regular consiste en calcular las
sucesivas potencias de P hasta encontrar un número r de pasos tal que la matriz
Pr tiene todos sus elementos no nulos.
46
Clasificación de las Cadenas de Markov
Homogéneas: Ergódicas y no Egódicas
Cadenas ergódicas periódicas
47
Clasificación de las Cadenas de Markov
Homogéneas: Ergódicas y no Egódicas
Cadenas no ergódicas
48
Clasificación de las Cadenas de Markov
Homogéneas
Cadena no ergódica
0 1 2 3 4 5 6 7
49
Clasificación de las Cadenas de Markov
Homogéneas: Ergodicidad
Cadenas de Markov
Homogéneas
50
Régimen Permanente y Régimen
Transitorio
Se define como Régimen Permanente o Estado Estacionario de una
cadena de Markov homogénea a la situación que el sistema alcanza luego de un
período relativamente largo de tiempo.
51
Condiciones para alcanzar el Régimen
Permanente o Estado Estacionario.
El estudio de las Cadenas Ergódicas Regulares interesa particularmente
porque las conclusiones, bajo determinadas condiciones, son extensibles a las
Cadenas Ergódicas Periódicas y a las clases recurrentes de las cadenas
no ergódicas.
Como vamos a ver a continuación, sólo puede asegurarse que una cadena de
Markov será estable en el régimen permanente o en otras palabras, admite
estado estacionario, cuando es una cadena Ergódica Regular.
52
Comportamiento de la cadenas
regulares en el régimen permanente
Para describir el comportamiento de una cadena regular en el régimen
permanente o al largo plazo es preciso conocer las probabilidades de transición
y de estado cuando el número n de transiciones tiende a ∞.
P0 … Pj … Pm
n∞ n∞ P0 … Pj … Pm
53
Comportamiento de la cadenas
regulares en el régimen permanente
Luego, aplicando la ecuación de Chapman - Kolmogorov obtenemos:
P0 … Pj … Pm
n∞ n∞ P0 … Pj … Pm
m
Y por cumplirse que : ∑ Pi(0) = 1 , queda:
i=0
lim P(n) = P = | P0 … Pj … Pm |
n∞
54
Comportamiento de la cadenas
regulares en el régimen permanente
Estas ecuaciones expresan que una cadena de Markov regular , luego de un
número suficientemente grande de transiciones (n ∞), sus probabilidades de
transición y de estado se estabilizan en valores límites iguales para cada estado j,
e independientes del estado inicial i.
55
Cálculo del estado estacionario
El estado estacionario se puede calcular de tres maneras distintas:
2 – Mediante :
Si p(n) = p(n-1) . P
Entonces si: p = p . P
Luego: p .{ P – I } = 0
∑ Pi . Pij = Pj . ∑ Pjk
i≠j j≠k
Tenemos que:
59
Cálculo del estado estacionario
1 - Chapman - Kolmogorov
Y finalmente:
n∞
60
Cálculo del estado estacionario
2 – Ecuación de Estado
Tenemos que:
Entonces:
P0 + P1 + P2 = 1
61
Cálculo del estado estacionario
2 – Ecuación de Estado
Luego:
P0 + P1 + P2 = 1
P0 + P1 + P2 = 1
62
Cálculo del estado estacionario
2 – Ecuación de Estado
Entonces:
Tenemos que:
1 1 1 1
Entonces:
64
Cálculo del estado estacionario
3 – Ecuación de Balance de Flujos Prob.
Ordenando:
P0 + P1 + P2 = 1
65