Cadenas de Markov, Inv de Operaciones II
Cadenas de Markov, Inv de Operaciones II
Cadenas de Markov, Inv de Operaciones II
DE HONDURAS EN EL VALLE DE
SULA
Carrera de Ingeniería Industrial
Asignatura Investigación de operaciones II
Cadenas de Markov
i
TABLA DE CONTENIDO
I. Introducción..............................................................................................................................1
II. Desarrollo de la investigación..................................................................................................2
2.1 Cadenas de Márkov................................................................................................................2
2.2 Como utilizamos las cadenas de Markov...............................................................................3
2.3 Ejemplos.................................................................................................................................3
III. Conclusiones..........................................................................................................................5
IV. Bibliografía............................................................................................................................6
ii
I. INTRODUCCIÓN
En las cadenas de Markov considera ciertos puntos discretos en el tiempo para toma de valores de
la variable aleatoria que caracteriza al sistema. Entonces las cadenas de Markov se usan para
estudiar ciertos comportamientos de largo y cortos plazos de sistemas.
1
II. DESARROLLO DE LA INVESTIGACIÓN
De acuerdo con Javier (2016) Una cadena de Markov es una serie de eventos, en la cual la
probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las
cadenas de este tipo tienen memoria, "Recuerdan" el ultimo evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas
de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.
Más formalmente, la definición supone que en procesos estocásticos la probabilidad de que algo
suceda solamente depende del pasado histórico de la realidad que estamos estudiando. Por este
motivo, a menudo se dice que estas cadenas cuentan con memoria.
La base de las cadenas es la conocida como propiedad de Markov, la cual resume lo dicho
anteriormente en la siguiente regla: lo que la cadena experimente en un momento t + 1 solamente
depende de lo acontecido en el momento t (el inmediatamente anterior).
Dada esta sencilla explicación de la teoría, puede observarse que es posible a través de la misma
conocer la probabilidad de que un estado ocurra en el largo plazo. Esto ayuda indudablemente a
la predicción y estimación en largos periodos de tiempo.
2
Cadena de Markov.
- Una cadena de Markov es un proceso estocástico en el que: si el estado
actual Xn y lo sestados previos X1, X2, …, X n-1 son conocidos.
=> La probabilidad del estado futuro X n+1:
No depende de los estados anteriores X1, X2, …, X n-1 y
Solamente depende del estado actual X n
Es decir;
Para n = 1, 2, y
Para cualquier sucesión de estados S1, S2, …, s n+1
P (X n+1 = S n+1 | X1 = s1, X2 = s2 , … , Xn = sn ) = P (X n+1 = S n+1 | Xn = sn ). (Taha,
2012).
Las cadenas de Markov han experimentado una importante aplicación real en el ámbito de los
negocios y las finanzas. Esto, al permitir, como se ha señalado, analizar y estimar futuros
patrones de conducta de los individuos atendiendo a la experiencia y los resultados anteriores.
Lo anterior puede reflejarse en diferentes campos como la morosidad, el estudio de las conductas
de consumidores, la demanda estacional de mano de obra, entre otros.
El sistema elaborado por Markov es bastante sencillo y cuenta, como hemos dicho, con una
aplicación práctica bastante fácil. Sin embargo, muchas voces críticas señalan que un modelo tan
simplificado no puede ser totalmente efectivo en procesos complejos.
2.3 Ejemplos
Consideremos que en un locutorio telefónico con 5 líneas de teléfono en un instante de tiempo
dado puede haber un número cualquiera de líneas ocupadas.
3
n = 1, 2,... Xn es una v.a. que representa el número de líneas ocupadas cuando se observan en el
instante de tiempo n−ésimo.
El estado del proceso en cualquier instante de tiempo es el número de líneas que están siendo
utilizadas en ese instante. Un proceso estocástico como el que acabamos de describir se llama
proceso de parámetro discreto, ya que las líneas se observan en puntos discretos a lo largo del
tiempo. Para que el proceso estocástico del número de líneas ocupadas sea una cadena de Markov
es necesario que la probabilidad de cada posible número de líneas ocupadas en cualquier instante
de tiempo dependa solamente del número de líneas ocupadas 2 minutos antes.
4
III. CONCLUSIONES
Para concluir podemos decir que las cadenas de Markov son una herramienta para analizar el
comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos
que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de
estados.
5
IV. BIBLIOGRAFÍA
1.
Javier Sánchez Galán (05 de agosto, 2016).
Cadena de Markov. Economipedia.com
2. Hillier F. S, Lieberman G.J. Introducción a la Investigación de Operaciones. Novena Edición.
Mc Graw Hill. México D. F, 2010.Morral, Jimeno, & Molera. (1985). Metalurgia
General. Barcelona: Reverte S.A.
3. Álvarez M. Modelos Económicos – Matemáticos II. Tomo 1. Editora ISPJAE. La Habana,
1987.