Mpes U2 A1 Elvc
Mpes U2 A1 Elvc
Mpes U2 A1 Elvc
Licenciatura en Matemáticas
Grupo: MT-MPES-2201-B2-000
Propiedad Markoviana:
Donde i0, i1, ..., in-1, i, j son posibles “ estados” o valores que puede tomar el
proceso estocástico en las distintas etapas. Esto consiste básicamente en afirmar
que el futuro (t=n+1) es independiente del pasado dado el presente (t=n).
Suponga que en un juego existen 2 jugadores, cada uno de los cuales dispone
inicialmente de 2 monedas. En cada jugada se gana una moneda con probabilidad
½ o se pierde una moneda con probabilidad ½. El juego termina cuando un
jugador tiene 4 monedas o se queda con ninguna. Modele como una Cadena de
Markov la situación descrita.
Luego se debe identificar los posibles valores o estados que puede tomar esta
variable aleatoria para una etapa n cualquiera. Sabemos que el jugador A
comienza el juego con 2 monedas y el juego termina cuando pierde todo (y por
tanto el jugador B gana) o cuando gana todo (y por tanto el jugador B pierde). En
consecuencia, los valores posibles para Xn son {0,1,2,3,4}.
A continuación se debe determinar las probabilidades de transición (en una etapa).
Por ejemplo, si actualmente el jugador A tiene 2 monedas, la probabilidad que
tenga 3 monedas al cabo de una jugada es ½ (probabilidad de ganar) y la
probabilidad de que tenga 1 moneda es ½ (probabilidad de perder). De esta forma
se identifican las distintas combinaciones o probabilidades de que comenzando en
un estado "i" se pueda pasar a un estado "j" al cabo de una etapa. Notar que si el
jugador A tiene 0 monedas la probabilidad que continúe en ese estado es 1 (o
Procesos Estocásticos
Unidad 2. Cadenas de Markov a tiempo discreto
100%) dado que no tiene monedas para seguir jugando. De la misma forma si el
jugador A tiene 4 monedas el jugador B tiene 0 y por tanto la probabilidad de que
el jugador A se mantenga en ese estado es de 1 (o 100%).
Cabe destacar que la suma de las probabilidades para cada fila en la matriz de
transición P es de un 100%.
Haciendo uso del grafo y dado que actualmente el jugador A tiene 2 monedas, se
busca identificar las combinaciones que permitan a este jugador mantener esta
cantidad de monedas al cabo de 2 etapas. Esto se logra ganando la próxima
jugada (con probabilidad ½) y perdiendo la jugada que sigue (con probabilidad ½).
También se llega al mismo resultado perdiendo la próxima jugada pero luego
ganando en la jugada que sigue. Por tanto la probabilidad de tener 2 monedas al
cabo de 2 etapas es P(X2=2/X0=2) = ½*½ + ½*½ = ½.
Procesos Estocásticos
Unidad 2. Cadenas de Markov a tiempo discreto
2. Elabora un ejemplo de estado absorbente
Ejemplo.
Modelo de enfermedad. Este modelo se puede representar por 4 estados: E1
donde las personas no tienen enfermedad, E2 donde las personas tienen la
enfermedad, E3 estado muerte como consecuencia de la enfermedad y E4 estado
muerte por otras causas
Supongamos la siguiente matriz de transición
Los posibles estados o valores que puede adoptar la variable aleatoria en una
etapa n cualquiera son 0, 1 o 2. Es decir, el individuo podrá tener en su casa al
inicio de un día en particular 0, 1 o 2 paraguas.
Una vez identificadas todas las probabilidades de transición en una etapa entre
estados, éstas se pueden resumen en la matriz de probabilidades de transición
(conocida también como matriz P). Notar que la suma de las probabilidades de
cada una de las filas de la matriz es (y debe ser) un 100%.
Procesos Estocásticos
Unidad 2. Cadenas de Markov a tiempo discreto
Referencias.