Presentacion Equipo

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 15

Cadenas de

MARKOV
PROBABILIDAD DE TRANSICIONES ESTACIONARIAS
DE N PASOS.
EQUIPO
YAHIR ABDIEL LEONARDO VICENCIO
RAMIREZ OLAN ALVARADO
GALILEA PELAEZ OLIVER DE JESUS
MARTINEZ LORENZO
HERNANDEZ
INTRODUCCIÓN
Las cadenas de Markov son modelos
matemáticos utilizados para describir sistemas
que cambian de estado de manera
probabilística.Una de las características más
importantes de estos sistemas es la distribución
estacionaria, que representa el comportamiento
a largo plazo del sistema, donde las
probabilidades permanecen constantes con el
tiempo.
DEFINICIÓN
Se refiere a la probabilidad de
que un sistema que comienza en
un estado particular transite a
otro estado después de n pasos.
Esto se puede calcular utilizando
la matriz de transición de la
cadena de Markov, que describe
las probabilidades de pasar de
un estado a otro en un solo paso.
CADENA DE VARIACIONES ALEATORIAS
INDEPENDIENTES
Es una Cadena de Markov a
tiempo discreto que toman
valores en un conjunto finito o
numerable E, conocido como
espacio de estados
COMO POR EJEMPLO
Sistema de comunicaciones
Consideremos un sistema de comunicaciones
que transmite dígitos 0 y1. Cada dígito debe
pasar por varias fases, en cada una de las
cuales hay una probabilidad p de que el dígito
que entra coincida con el que sale. Las fases
son independientes entre sí.
MATRIZ DE TRANSICIÓN
La primera elección en la sucesión deja en el
poder al partido A, la segunda fue ganada por el
partido B, y así sucesivamente, hasta que la
décima elección la gane el partido B. Supongamos
que las probabilidades de que el partido A o B
ganen la próxima elección son determinadas por
completo por el partido que está en el poder
ahora. Por ejemplo podríamos tener las
probabilidades siguientes:
• Si el partido A está en el poder, existe una probabilidad de ¼ que el partido
A ganará la próxima elección y una probabilidad de ¾ de que el partido B
gane la elección siguiente.

• Si el partido B está en el poder, hay una probabilidad de 1/3 de que el


partido A gane la elección siguiente y una probabilidad de 2/3 que el partido B
permanezca en el poder.

En tal caso, la sucesión de elecciones forman una cadena de Markov, dado


que las probabilidades de los dos resultados de cada elección están
determinadas por el resultado de la elección precedente.

Lo descrito anteriormente puede representarse gráficamente usando la


siguiente red:
La información probabilística que se acaba de
dar se puede representar de manera
conveniente por la siguiente matriz
Los círculos A y B se denominan
nodos y representan los estados
del proceso, las flechas que van de
un nodo a si mismo o al otro son
los arcos y representan la
probabilidad de cambiar de un Esta matriz se denomina matriz de
estado al otro. transición. Los elementos de la matriz de
transición representan las probabilidades de
que en el próximo ensayo el estado del
sistema del partido indicado a la izquierda de
la matriz cambie al estado del partido
indicado arriba de la matriz.
EJEMPLO DE BEBIDA
Suponga que toda la industria de bebidas produce solo 2
refrescos. Dado que una persona la ultima vez compro refresco 1,
hay 90% de probabilidades de que su siguiente compra sea
refresco 1. dado que la ultima compra de una persona fue refresco
2, hay un 80% de probabilidades de que su siguiente compra se
refresco 2.
Si una persona en la actualidad es comprador de cola 2, ¿cuál es
la probabilidad de que compre cola 1 dos veces a partir de ahora?
Si una persona en la actualidad es comprador de cola 1, ¿cuál es
la probabilidad de que compre cola 1 tres ocasiones a partir de
ahora?
SOLUCIÓN
Vemos las compras de cada persona como una cadena de Markov con el estado,
en cualquier tiempo dado, del tipo de cola que compró la persona en la última
vez. Así. las compras de cada individuo pueden representarse como una cadena
de Markov de dos estados, donde;
Estado I = La persona compró cola del tipo 1 la última vez.
Estado 2 = La persona compró cola del tipo 2 la última vez.

Si se define Xn, como el tipo de cola que una persona compra en su n-ésima
compra futura (compra actual de cola = X0), entonces X0, X1... se podría
describir como la cadena de Markov con la siguiente matriz de transición:
Ahora se pueden contestar las preguntas 1 y 2.

Se busca P(X, = 1I X0 = 2) = ) elemento 2,1 de P2

•Por consiguiente, (2) = .34. Esto significa que la probabilidad de que un


bebedor de cola 2 en el futuro compre dos veces cola l es .34. Mediante la
teoría de probabilidad básica, se podría obtener esta respuesta de una
manera distinta
Observe que (2) = (probabilidad de que la siguiente compra sea cola
1 y la segunda compra sea cola 1) + (probabilidad de que la siguiente
compra sea cola 2 y lasegunda compra sea cola
1. = =(.20)(.90) + (.80)(.20) =. 34.
La probabilidad de que
2. Se busca (3) = elemento 11 de :
dos periodos a partir de
ahora, un comprador de
cola 2 compre cola 1 es
.20(.90) +.80(.20) = 34

Por lo tanto, (3) = .781


¡MUCHAS GRACIAS!
FUENTES BIBLIOGRAFICAS
https://www.studocu.com/es-mx/document/instituto-tecnologico-superior-de-
irapuato/investigacion-de-operaciones/unidad-4-cadenas-de-markov/8844738/download/unidad-
4-cadenas-de-markov.pdf
https://inop2.blogspot.com/p/cadenas-de-markov.html
https://www.collegesidekick.com/study-docs/2686525
https://es.scribd.com/document/142003967/Cadenas-de-Markov
https://prezi.com/h7kis9ga7pxk/probabilidad-de-transiciones-estacionarias-de-n-pasos/
ttp://books.google.es/books?id=9pNkg4eNTOcC&lpg=PP1&pg=PA705#v=onepage&q&f=false
http://es.wikipedia.org/wiki/Andr%C3%A9i_M%C3%A1rkov
https://es.slideshare.net/slideshow/cadenas-de-markov-15274774/15274774
http://recursostic.educacion.es/descartes/web/materiales_didacticos/markov_mbgr/Markov5.htm

También podría gustarte