Cadenas de Markov, Inv de Operaciones II

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 8

UNIVERSIDAD NACIONAL AUTÓNOMA

DE HONDURAS EN EL VALLE DE
SULA
Carrera de Ingeniería Industrial
Asignatura Investigación de operaciones II

Cadenas de Markov

Paola Gisselle Inocente García


Número de Cuenta: 20162000582
Sección: 1400

SPS, Septiembre 22 de 2021

i
TABLA DE CONTENIDO
I. Introducción..............................................................................................................................1
II. Desarrollo de la investigación..................................................................................................2
2.1 Cadenas de Márkov................................................................................................................2
2.2 Como utilizamos las cadenas de Markov...............................................................................3
2.3 Ejemplos.................................................................................................................................3
III. Conclusiones..........................................................................................................................5
IV. Bibliografía............................................................................................................................6

ii
I. INTRODUCCIÓN

En las cadenas de Markov considera ciertos puntos discretos en el tiempo para toma de valores de
la variable aleatoria que caracteriza al sistema. Entonces las cadenas de Markov se usan para
estudiar ciertos comportamientos de largo y cortos plazos de sistemas.

Los estados en el tiempo representan situaciones exhaustivas y mutuamente excluyentes del


sistema en un tiempo específico. Además, el número de estado puede ser finito.

Por lo general una cadena de Markov describe el comportamiento de transición de un sistema en


intervalos de tiempo igualmente espaciados. Sin embargo, existen situaciones donde los
espaciamientos temporales dependen de las características del sistema y por ello, pueden no ser
iguales entre si.

Las cadenas de Markov se pueden aplicar en áreas como la educación, comercialización,


servicios de salud, finanzas, contabilidad y producción.

1
II. DESARROLLO DE LA INVESTIGACIÓN

2.1 Cadenas de Márkov

De acuerdo con Javier (2016) Una cadena de Markov es una serie de eventos, en la cual la
probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las
cadenas de este tipo tienen memoria, "Recuerdan" el ultimo evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas
de Markov de las series de eventos independientes, como tirar una moneda al aire o un dado.

 es un concepto desarrollado dentro de la teoría de la probabilidad y la estadística que establece


una fuerte dependencia entre un evento y otro suceso anterior. Su principal utilidad es el análisis
del comportamiento de procesos estocásticos.

La explicación de estas cadenas la desarrolló el matemático de origen ruso Andréi Márkov en


1907. Así, a lo largo del siglo XX, se ha podido emplear dicha metodología en numerosos casos
prácticos de la vida cotidiana.

Más formalmente, la definición supone que en procesos estocásticos la probabilidad de que algo
suceda solamente depende del pasado histórico de la realidad que estamos estudiando. Por este
motivo, a menudo se dice que estas cadenas cuentan con memoria.
La base de las cadenas es la conocida como propiedad de Markov, la cual resume lo dicho
anteriormente en la siguiente regla: lo que la cadena experimente en un momento t + 1 solamente
depende de lo acontecido en el momento t (el inmediatamente anterior).
Dada esta sencilla explicación de la teoría, puede observarse que es posible a través de la misma
conocer la probabilidad de que un estado ocurra en el largo plazo. Esto ayuda indudablemente a
la predicción y estimación en largos periodos de tiempo.

2
Cadena de Markov.
- Una cadena de Markov es un proceso estocástico en el que: si el estado
actual Xn y lo sestados previos X1, X2, …, X n-1 son conocidos.
=> La probabilidad del estado futuro X n+1:
 No depende de los estados anteriores X1, X2, …, X n-1 y
 Solamente depende del estado actual X n
Es decir;
Para n = 1, 2, y
Para cualquier sucesión de estados S1, S2, …, s n+1
P (X n+1 = S n+1 | X1 = s1, X2 = s2 , … , Xn = sn ) = P (X n+1 = S n+1 | Xn = sn ). (Taha,
2012).

2.2 Como utilizamos las cadenas de Markov

Las cadenas de Markov han experimentado una importante aplicación real en el ámbito de los
negocios y las finanzas. Esto, al permitir, como se ha señalado, analizar y estimar futuros
patrones de conducta de los individuos atendiendo a la experiencia y los resultados anteriores.
Lo anterior puede reflejarse en diferentes campos como la morosidad, el estudio de las conductas
de consumidores, la demanda estacional de mano de obra, entre otros.
El sistema elaborado por Markov es bastante sencillo y cuenta, como hemos dicho, con una
aplicación práctica bastante fácil. Sin embargo, muchas voces críticas señalan que un modelo tan
simplificado no puede ser totalmente efectivo en procesos complejos.

2.3 Ejemplos
Consideremos que en un locutorio telefónico con 5 líneas de teléfono en un instante de tiempo
dado puede haber un número cualquiera de líneas ocupadas.

Durante un periodo de tiempo se observan las líneas telefónicas a intervalos de 2 minutos y se


anota el número de líneas ocupadas en cada instante. ¥ Sea X1 la v.a. que representa el número de
líneas ocupadas al principio del periodo. ¥ Sea X2 la v.a. que representa el número de líneas
ocupadas cuando se observa en el segundo instante de tiempo, 2 minutos más tarde. ¥ En general,

3
n = 1, 2,... Xn es una v.a. que representa el número de líneas ocupadas cuando se observan en el
instante de tiempo n−ésimo.

El estado del proceso en cualquier instante de tiempo es el número de líneas que están siendo
utilizadas en ese instante. Un proceso estocástico como el que acabamos de describir se llama
proceso de parámetro discreto, ya que las líneas se observan en puntos discretos a lo largo del
tiempo. Para que el proceso estocástico del número de líneas ocupadas sea una cadena de Markov
es necesario que la probabilidad de cada posible número de líneas ocupadas en cualquier instante
de tiempo dependa solamente del número de líneas ocupadas 2 minutos antes.

Figura 1. Diagrama de la cadena de Markov

Fuente: Javier Sánchez Galán (05 de agosto, 2016).


Cadena de Markov. Economipedia.com

4
III. CONCLUSIONES

Para concluir podemos decir que las cadenas de Markov son una herramienta para analizar el
comportamiento y el gobierno de determinados tipos de procesos estocásticos, esto es, procesos
que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de
estados.

5
IV. BIBLIOGRAFÍA

1.
Javier Sánchez Galán (05 de agosto, 2016).
Cadena de Markov. Economipedia.com
2. Hillier F. S, Lieberman G.J. Introducción a la Investigación de Operaciones. Novena Edición.
Mc Graw Hill. México D. F, 2010.Morral, Jimeno, & Molera. (1985). Metalurgia
General. Barcelona: Reverte S.A.
 3. Álvarez M. Modelos Económicos – Matemáticos II. Tomo 1. Editora ISPJAE. La Habana,
1987.

También podría gustarte