Este documento resume un capítulo sobre cadenas de Markov. Explica que las cadenas de Markov son procesos estocásticos donde la probabilidad futura depende solo del estado actual y no del pasado. Describe los conceptos clave como estados transitorios y recurrentes, y cómo las cadenas de Markov exhiben un comportamiento estable a largo plazo.
0 calificaciones0% encontró este documento útil (0 votos)
86 vistas6 páginas
Este documento resume un capítulo sobre cadenas de Markov. Explica que las cadenas de Markov son procesos estocásticos donde la probabilidad futura depende solo del estado actual y no del pasado. Describe los conceptos clave como estados transitorios y recurrentes, y cómo las cadenas de Markov exhiben un comportamiento estable a largo plazo.
Este documento resume un capítulo sobre cadenas de Markov. Explica que las cadenas de Markov son procesos estocásticos donde la probabilidad futura depende solo del estado actual y no del pasado. Describe los conceptos clave como estados transitorios y recurrentes, y cómo las cadenas de Markov exhiben un comportamiento estable a largo plazo.
Este documento resume un capítulo sobre cadenas de Markov. Explica que las cadenas de Markov son procesos estocásticos donde la probabilidad futura depende solo del estado actual y no del pasado. Describe los conceptos clave como estados transitorios y recurrentes, y cómo las cadenas de Markov exhiben un comportamiento estable a largo plazo.
Descargue como DOCX, PDF, TXT o lea en línea desde Scribd
Descargar como docx, pdf o txt
Está en la página 1de 6
INDICE DE EVIDENCIAS DE
INVESTIGACION DE OPERACIONES II
ALMORA CRUZ ESMERALDA 176P0033
GRUPO 5B
UNIDAD 4 CADENAS DE MARKOV
AIO5B.4.1 RESUMEN DEL CAPITULO 16. CADENAS DE MARKOV
CADENAS DE MARKOV
El capítulo 15 se enfocó en la toma de decisiones ante la incertidumbre de uno o más
eventos futuros, con la intención de conocer el verdadero estado de la naturaleza. Sin embargo, algunas decisiones deben tomar en cuenta la incertidumbre acerca de muchos eventos futuros. Ahora se presentará el fundamento de la toma de decisiones en este contexto más amplio. En particular, este capítulo presenta modelos de probabilidad de procesos que evolucionan en el tiempo de una manera probabilística. Tales procesos se llaman procesos estocásticos. Después de una introducción breve de los procesos estocásticos generales en la primera sección, el resto del capítulo se dedica a un tipo especial de proceso que se denomina cadena de Markov. Las cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la forma en que el proceso evolucionará en el futuro dependen sólo del estado actual en que se encuentra el proceso y, por lo tanto, son independientes de los eventos que ocurrieron en el pasado. Muchos procesos se ajustan a esta descripción, por lo que las cadenas de Markov constituyen una clase de modelo probabilístico de gran importancia
PROCESOS ESTOCÁSTICOS
Un proceso estocástico se define ne como una colección indexada de variables
aleatorias {Xt }, donde el índice t toma valores de un conjunto T dado. Con frecuencia T se considera el conjunto de enteros no negativos mientras que Xt representa una característica de interés cuantifi cable en el tiempo t. Por ejemplo, Xt puede representar los niveles de inventario al fi nal de la semana t. Los procesos estocásticos son de interés para describir el comportamiento de un sistema en operación durante algunos periodos. Un proceso estocástico tiene la siguiente estructura.
CADENAS DE MARKOV
Es necesario hacer algunos supuestos sobre la distribución conjunta de X0, X1, . .
. para obtener resultados analíticos. Un supuesto que conduce al manejo analítico es que el proceso estocástico es una cadena de Markov, que tiene la siguiente propiedad esencial: Se dice que un proceso estocástico {Xt } tiene la propiedad markoviana si P{Xt11 5 j|X0 5 k0, X1 5 k1, . . ., Xt–1 5 kt–1, Xt 5 i} 5 P{Xt11 5 j|Xt 5 i}, pa ra t 5 0, 1, . . . y toda sucesión i, j, k0, k1, . . ., kt–1. En palabras, esta propiedad markoviana establece que la probabilidad condicional de cualquier “evento” futuro dados cualquier “evento” pasado y el estado actual Xt 5 i, es independiente de los eventos pasados y sólo depende del estado actual del proceso. Un proceso estocástico {Xt } (t 5 0, 1, . . .) es una cadena de Markov si presenta la propiedad markoviana. Las probabilidades condicionales P{Xt11 5 j|Xt 5 i} de una cadena de Markov se llaman probabilidades de transición (de un paso). Si para cada i y j, P{Xt1 j⏐Xt i} P{X1 j⏐X0 i}, para toda t 1, 2, . . ., entonces se dice que las probabilidades de transición (de un paso) son estacionarias. Así, tener probabilidades de transición estacionarias implica que las probabilidades de transición no cambian con el tiempo. La existencia de probabilidades de transición (de un paso) estacionarias también implica que, para cada i, j y n (n 5 0, 1, 2, . . .), P{Xtn j⏐Xt i} P{Xn j⏐X0 i} para toda t 5 0, 1, . . . Estas probabilidades condicionales se llaman probabilidades de transición de n pasos
Formulación del ejemplo de inventarios como una cadena de Markov
Si se regresa al ejemplo de inventarios que se desarrolló en la sección anterior, recuerde que Xt es
el número de cámaras en almacén al fi nal de la semana t (antes de ordenar más), donde Xt representa el estado del sistema en el tiempo t (el fi n de la semana t). Dado que el estado actual es Xt 5 i, la expresión al fi nal de la sección 16.1 indica que Xt11 depende sólo de Dt11 (la demanda en la semana t 1 1) y Xt . Como Xt11 es independiente de la historia del sistema de inventarios antes del tiempo t, el proceso estocástico {Xt } (t 5 0, 1, . . .) tiene la propiedad markoviana y por lo tanto es una cadena de Markov. A continuación se verá cómo obtener las probabilidades de transición (de un paso), es decir, los elementos de la matriz de transición (de un paso) CLASIFICACIÓN DE ESTADOS EN UNA CADENA DE MARKOV
Acabamos de ver en la parte fi nal de la sección anterior que las probabilidades de
transición de n pasos del ejemplo del inventario convergen hacia las probabilidades del estado estable después de un número de pasos sufi ciente. Sin embargo, esto no es válido para todas las cadenas de Markov. Las propiedades a largo plazo de una cadena de Markov dependen en gran medida de las características de sus estados y de la matriz de transición. Para describir con más detalle las propiedades de una cadena de Markov es necesario presentar algunos conceptos y defi niciones que se refi eren a estos estados. Se dice que el estado j es accesible desde el estado i si pij (n) . 0 para alguna n $ 0. (Recuerde que pij (n) es sólo la probabilidad condicional de llegar al estado j después de n pasos, si el sistema está en el estado i.) Entonces, que el estado j sea accesible desde el estado i signifi ca que es posible que el sistema llegue fi nalmente al estado j si comienza en el estado i. Esto es particularmente vá16_HILLIER 16.indd 684 16 HILLIER 16 indd 684 15/12/09 20:15:58 15/12/09 20:15:58 lido para el ejemplo del clima (vea la fi gura 16.1) puesto que pij . 0 para toda i y j. En el ejemplo de inventarios (vea la fi gura 16.2), pij (2) . 0 para todo i y j de manera que cada estado es accesible desde cualquier otro estado. En general, una condición sufi ciente para que todos los estados sean accesibles es que exista un valor de n para el que pij (n) . 0 para todo i y j. En el ejemplo del juego que se presentó al fi nal de la sección 16.2 (vea la fi gura 16.4), el estado 2 no es accesible desde el estado 3. Esto se puede deducir del contexto del juego (una vez que el jugador llega al estado 3 nunca lo deja), lo que implica que p32 (n) 5 0 para toda n $ 0. Sin embargo, aun cuando el estado 2 no es accesible desde el estado 3, el estado 3 sí es accesible desde el estado 2 puesto que, con n 5 1, la matriz de transición del fi nal de la sección 16.2 indica que p23 5 p . 0. Si el estado j es accesible desde el estado i y el estado i es accesible desde el estado j, entonces se dice que los estados i y j se comunican. En el ejemplo de inventarios, todos los estados se comunican. En el ejemplo del juego, los estados 2 y 3 no se comunican. En general: 1. Cualquier estado se comunica consigo mismo (porque pii (0) 5 P{X0 5 i|X0 5 i} 5 1). 2. Si el estado i se comunica con el estado j, entonces el estado j se comunica con el estado i. 3. Si el estado i se comunica con el estado j y éste con el estado k, entonces el estado i se comunica con el estado k. Estados recurrentes y estados transitorios
Con frecuencia es útil saber si un proceso que comienza en un estado regresará
alguna vez a él. La siguiente es una posibilidad. Un estado se llama estado transitorio si, después de haber entrado a este estado, el proceso nunca regresa a él. Por consiguiente, el estado i es transitorio si y sólo si existe un estado j (j Þ i) que es accesible desde el estado i, pero no viceversa, esto es, el estado i no es accesible desde el estado j. Así, si el estado i es transitorio y el proceso visita este estado, existe una probabilidad positiva (quizá incluso de 1) de que el proceso se moverá al estado j y nunca regresará al estado i. En consecuencia, un estado transitorio será visitado sólo un número fi nito de veces. Para ilustrar lo anterior, considere el ejemplo del juego que se presentó al fi nal de la sección 16.2. Su diagrama de transición de estado que se muestra en la fi gura 16.4 indica que ambos estados (1 y 2) son transitorios ya que el proceso los abandonará tarde o temprano para entrar al estado 0 o al 3 y, después, permanecerá en dicho estado de manera indefi nida. Cuando se inicia en el estado i, otra posibilidad es que el proceso defi nitivamente regrese a ese estado. Se dice que un estado es recurrente si, después de haber entrado a este estado, el proceso defi - nitivamente regresará a ese estado. Por consiguiente, un estado es recurrente si y sólo si no es transitorio
PROPIEDADES A LARGO PLAZO DE LAS CADENAS DE MARKOV
Probabilidades de estado estable Mientras se calculaban las matrices de
transición de n pasos de los ejemplos del clima y de inventarios en la sección 16.3, se observó una característica interesante de estas matrices. Si n es lo sufi cientemente grande (n 5 5 en el ejemplo del clima y n 5 8 en el ejemplo de inventarios), todos los renglones de la matriz tienen elementos idénticos, lo que signifi ca que la probabilidad de que el sistema esté en cada estado j ya no depende del estado inicial del sistema. En otras palabras, parece que existe una probabilidad límite de que el sistema se encuentre en el estado j después de un número grande de transiciones, y que esta probabilidad es independiente del estado inicial. En realidad, estas propiedades del comportamiento a largo plazo de un proceso de Markov
Costo promedio esperado por unidad de tiempo de funciones de costo complejas
En la subsección anterior, la función de costo se basó nada más en el estado en el
que se encuentra el proceso en el tiempo t. En muchos problemas importantes el costo también puede depender de otra variable aleatoria. Por ejemplo, en el problema de inventarios de la sección 16.1, suponga que debe tomarse en cuenta el costo de ordenar y el costo de penalización por demanda insatisfecha (los costos de almacenaje son pequeños, por lo que se pasarán por alto). Es razonable suponer que el número de cámaras ordenadas al principio de la semana t depende sólo del estado del proceso Xt–1 (el número de cámaras que se tiene) cuando se hace el pedido al fi nal de la semana t – 1. Sin embargo, el costo de la demanda que no se satisfi zo durante la semana t dependerá de la demanda Dt . Por lo tanto, el costo total (costo de ordenar más costo de la demanda insatisfecha) de la semana t es una función de Xt–1 y de Dt , esto es, C(Xt–1, Dt ).
TIEMPOS DE PRIMERA PASADA
Las probabilidades de transición de n pasos del estado i al estado j. Con
frecuencia es conveniente poder hacer afi rmaciones en términos de probabilidades sobre el número de transiciones que hace el proceso al ir del estado i al estado j por primera vez. Este lapso se llama tiempo de primera pasada al ir del estado i al estado j. Cuando j 5 i, este tiempo de primera pasada es igual al número de transiciones hasta que el proceso regresa al estado inicial i. En este caso, el tiempo de primera pasada se llama tiempo de recurrencia del estado i
ESTADOS ABSORBENTES
En la sección 16.4 se señaló que el estado k se llama estado absorbente si pkk 5
1, de manera que una vez que la cadena llega al estado k permanece ahí para siempre. Si k es un estado absorbente y el proceso comienza en el estado i, la probabilidad de llegar en algún momento a k se llama probabilidad de absorción al estado k, dado que el sistema comenzó en el estado i. Esta probabilidad se denota por f ik. Si existen dos o más estados absorbentes en una cadena de Markov y es evidente que el proceso será absorbido en uno de estos estados, es deseable encontrar estas probabilidades de absorción. Dichas probabilidades pueden obtenerse con sólo resolver un sistema de ecuaciones lineales que considera todas las posibilidades de la primera transición y después, dada la primera transición, considera la probabilidad condicional de absorción al estado k.
CADENAS DE MARKOV DE TIEMPO CONTINUO
En todas las secciones anteriores se supuso que el parámetro t del tiempo es
discreto (es decir, t 5 0, 1, 2, . . .). Este supuesto es adecuado para muchos problemas, pero existen ciertos casos (como en algunos modelos de colas, que se estudiarán en el capítulo 17) en los que se requiere un parámetro (llamado t9) de tiempo continuo, debido a que la evolución del proceso se observa de manera continua a través del tiempo. La defi nición de cadena de Markov que se dio en la sección 16.2 también se extiende a esos procesos continuos. Esta sección está dedicada a la descripción de estas “cadenas de Markov de tiempo continuo” y sus propiedades
Algunas variables aleatorias importantes
En el análisis de las cadenas de Markov de tiempo continuo, un conjunto
importante de variables aleatorias es el siguiente. Cada vez que el proceso entra en el estado i, la cantidad de tiempo que pasa en ese estado antes de moverse a uno diferente es una variable aleatoria Ti , donde i 5 0, 1, . . ., M.
Suponga que el proceso entra en el estado i en el tiempo t9 5 s. Entonces, para
cualquier cantidad de tiempo fi jo t . 0, observe que Ti . t si y sólo si X(t9) 5 i para toda t9 en el intervalo s # t9 # s 1 t. Por lo tanto, la propiedad markoviana (con probabilidades de transición estacionarias) implica que Ésta es una condición bastante rara para una distribución de probabilidad. Dice que la distribución de probabilidad del tiempo que falta para que el proceso haga una transición fuera de un estado dado siempre es la misma, independientemente de cuánto tiempo haya pasado el proceso en ese estado. En efecto, la variable aleatoria no tiene memoria;
1. La variable aleatoria Ti tiene una distribución exponencial con media 1/qi .
2. Cuando sale de un estado i, el proceso se mueve a otro estado j, con
probabilidad pij, donde pij satisface las condiciones.