Trabajo Final de Cadenas de Markov
Trabajo Final de Cadenas de Markov
Trabajo Final de Cadenas de Markov
CADENAS DE MARKOV
DOCENTE :
ALUMNOS :
INTRODUCCIÓN
análisis exhaustivo para llegar a una solución. Situaciones en las que no bastando con la
ayuda de la misma experiencia necesitan otro tipo de herramientas para sus prontas
decisiones ya que podrían ser vitales para el progreso de una empresa o negocio.
Las cadenas de Markov son pues una de esas herramientas que motivan el uso de
hechos que ya sucedieron para a través de probabilidades predecir una futura situación.
Piura.
GENERAL:
ESPECIFICOS:
Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j,a, b, c,.....
Entonces el sistema es un estado discreto de discretas transiciones de procesos de
Markov. La implicación de esta condición es que la historia anterior del sistema a su
llegada en (a) no tiene efecto en la transición a (j). En otras palabras, el sistema no
tiene memoria.
P= . . . .
. . . .
0<=pij<=1
p =1, i = 1,2,3...........,m
ij
.j=1
Estado transitorio
Estado absorbente
Si es un estado absorbente si el sistema entra al estado y permanece ahí. Y el
límite de la probabilidad de estado es 1. este estado es conocido también como
estado trampa.
Cadena recurrente
2. CADENAS ERGÓDICAS
Condición suficiente: si existe un n>0 tal que P ijn >0; i, j=0,1,2....m. la cadena de
Markov, con esta propiedad, se llama ergódica. Entonces, P ijn = k=0 (Pikn * Pkj), luego
1
n
Lim ninfinito Pii = inf
n=1 n fiin
Siendo fii la probabilidad de que el proceso regrese al estado i dado que comienza
en el estado i.
Y además
Lim ninfinito Pijn = Lim ninfinito Piin
Del teorema se pueden sacar fuertes conclusiones:
El valor infn=1 n fiin = mi. se define como el tiempo medio de recurrencia del
Observe que si Pij es la matriz de transición asociada a una clase recurrente ergódica
positiva, entonces la ecuación i = infk=0 Pkj k llevada a su forma matricial:
NEKO NIVEA
PALMOLIVE OTROS
El proceso se define como una cadena de Markov debido a que cumple la propiedad
Markoviana de la siguiente forma:
NEKO NIVEA
PALMOLIVE OTROS
5) CALCULO DE PROBABILIDADES
PROPORCIONES
DEMANDA DE NEKO 854 0.5154
DEMANDA DE NIVEA 132 0.0796
DEMANDA DE PALMOLIVE 300 0.1811
DEMANDA DE OTROS 371 0.2239
DEMANDA TOTAL 1657
PROBABILIDADES DE TRANSFERENCIA DE LA DEMANDA ENTRE ESTADOS
DEMANDA
QUE
SEMANA SEMANA DEMANDA QUE NO CONTINUA EN
PRODUCTO 01 02 CONTINUA EN "i" "i"
DEMANDA DE
NEKO 854 727 0.1487 0.8512
DEMANDA DE
NIVEA 132 111 0.159 0.8409
DEMANDA DE
PALMOLIVE 300 290.5 0.0317 0.9683
DEMANDA DE
OTROS 371 301 0.1886 0.8111
6) MATRIZ DE TRANSICION
KEKE DE
ESTADOS OREJITAS NARANJA PIONONO PASTELITOS
NEKO 0.8512 0.0496 0.0496 0.0496
NIVEA 0.054 0.8409 0.053 0.053
PALMOLIVE 0.0106 0.0106 0.9683 0.0106
OTROS 0.063 0.063 0.063 0.8111
Estados aperiodicos.
Estados concurrentes.
Estados comunicados.
Estados alcanzables.
8) ARBOL DE LA DISTRIBUCION DE PROBABILIDADES DEL COMPORTAMIENTO
DE LA TRANSFERENCIA DE LA DEMANDA.
N N
C
P
O
C N
C
P
O
P N
C
P
O
N
O C
P
P² = P*P
(P²)²
NEKO 0.5154
NIVEA 0.0796
PALMOLIVE 0.1811
OTROS 0.2239
p*P²
N C P O
p*(P²)²
N C P O
t*P=t Pⁿ
t1 + t2 + t3 + t4 =1
SOLUCION
t1 = 0.2356
t2 = 0.1981
t3 = 0.3674
t4 = 0.1981
1. Esta primera conclusión es para decir que no se concluirá sobre los resultados
numéricos del proceso, pues en el desarrollo del mismo se explica claramente las
respuestas obtenidas. Nuestro deseo es expresar conclusiones alrededor del proceso
de construcción del conocimiento y crear una inquietud acerca del proceso a analizar.
2. Se requiere de más tiempo para poder elaborar un buen documento que sirva como
apoyo a otras personas que quieran profundizar en el modelado y explicación de una
cadena de Markov.
4. En este problema en particular se tuvo que modelar el proceso de la demanda con los
datos disponibles en la empresa. No hay otros más.
6. El problema se abordo desde una perspectiva académica, pero siempre con el norte
de responderle a un empresario de forma técnica y científica todas las inquietudes que
se generan alrededor de una cadena de Markov.
7. Las cadenas de Markov no deben abordase de una forma simple, ellas tienen una
sustentación matemática fuerte y unos requisitos que se deben probar.
Existen inquietudes que nos llevan a concluir que no es solamente construir una matriz y
calcularle probabilidades de estado estable y tiempos de ocurrencia y recurrencia, las
cadenas de Markov son mucho más.
BIBLIOGRAFÍA