Apunte de Contenidos: Optimización II Unidad 2: UGM Escuela de Ingeniería Santiago, Chile 2022
Apunte de Contenidos: Optimización II Unidad 2: UGM Escuela de Ingeniería Santiago, Chile 2022
Apunte de Contenidos: Optimización II Unidad 2: UGM Escuela de Ingeniería Santiago, Chile 2022
Optimización II
Unidad 2
UGM
Escuela de Ingeniería
Santiago, Chile
2022
1. Procesos estocásticos
1.1 ¿Qué se entiende por un Proceso Estocástico?
Los Procesos Estocásticos o Procesos Aleatorios, son una herramienta
probabilística, que surge ante la necesidad de modelar el comportamiento de
experimentos aleatorios que varían en el tiempo, o dependen de alguna otra
variable no determinista. De manera general pueden dividirse en procesos
estocásticos de tiempo discreto y de tiempo continuo.
Es decir, cuando nosotros estudiamos procesos estocásticos, cada observación
que realicemos corresponderá a una función del tiempo. A manera de entender
lo que es el significado de las palabras “estocástico” y “proceso”, de una manera
sencilla podemos decir que estocástico significa “aleatorio”, al “azar” o “no
determinista”, y la palabra proceso en
nuestro contexto diremos que significa una “función del tiempo”.
Concluimos entonces que un proceso estocástico es un sistema que se va
desarrollando a través del tiempo, mientras va pasando por fluctuaciones al
azar.
Es usual describir a tales sistemas como una familia de variables aleatorias, {Xt},
donde Xt mide, en el instante t, el comportamiento del sistema en estudio.
Definición: La sucesión {Xt(ω): t ∈ T, ω ∈ Ω} es un proceso estocástico si, para cada
t ∈ T, Xt(ω) es una variable aleatoria. Si T = {1, 2, ...}, el proceso estocástico Xt, t ∈
T es justamente una sucesión de variables aleatorias y, en tal caso, hablamos de
un proceso estocástico de tiempo discreto. Cuando T es un conjunto continuo (un
intervalo), hablamos de un proceso estocástico de tiempo continuo.
Nos referimos a
• t como el índice, el cual es interpretado como el tiempo o el paso;
• Al conjunto T se le llama el conjunto índice o espacio del parámetro;
• y a Xt(ω) o X(t) o Xt, como el estado del proceso en el tiempo t, y los
cambios en el valor de X(t) reciben el nombre de transiciones entre sus
estados. Y al conjunto de todos los valores posibles que las variables
aleatorias X(t) pueden asumir, se les llama espacio de estados
Ejemplos
• X(t) puede ser igual al número total de clientes que han entrado al
supermercado en el tiempo t;
• X(t) puede ser el número de aprobados en el curso de procesos estocásticos
en el tiempo t;
pág. 2
• X(t) puede ser la cantidad total de ventas que se han registrado en el
supermercado en el tiempo t;
https://www.fcfm.buap.mx/jzacarias/cursos/procesos/apuntes/apun1_pe.pdf
Usualmente se usan como modelos matemáticos de fenómenos aleatorios que
evolucionan en el tiempo o el espacio. Y como la aleatoriedad está presente en
una gran diversidad de situaciones, sus posibles aplicaciones son muy amplias:
Enlistaremos una breve lista de ejemplos:
• Telecomunicaciones: tamaño de Redes, cobertura de las antenas, control
de tráfico, enrutamiento alternativo y reconocimiento de voz.
• Computadoras: diseño de redes, procesamiento paralelo, inteligencia
artificial, reconocimiento de patrones y optimización de desempeño.
• Fabricación: pronóstico, planificación, programación, ubicación de
instalaciones y gestión de recursos.
• Finanzas: carteras, precios de opciones, fondos de pensiones y pronósticos.
• Seguros: análisis de riesgo, demografía, inversiones y diversificación.
• Internet: diseño, control, búsqueda óptima, procesamiento paralelo,
publicidad y reconocimiento de patrones.
• Call-centers: pronóstico, elección de personal, enrutamiento alternativo y
diseño óptimo.
• Aerolíneas: programación, mantenimiento, precios de boletos y
sobreventa.
• Cadenas de suministro: diseño de redes, control de inventario, transbordo,
fuentes alternativas y contratación.
pág. 3
• Infraestructura: confiabilidad y mantenimiento de carreteras, edificios,
puentes, represas, diques y servicios públicos.
• Aeropuertos: control de tráfico, emergencias, seguridad y diseño de pistas.
• Control de inventario: artículos de venta y alquiler, sangre, aceite, agua y
alimentos.
• Seguridad: computadoras, patria, bancos, teléfonos y archivos de datos.
• Medicina: secuenciación del ADN, diagnósticos, epidemias y vacunas.
Otro tipo de aplicaciones especializadas y de las cuales no siempre se tiene acceso
fácilmente a tales aplicaciones, se da en disciplinas científicas como Matemáticas,
Ingeniería, Física, Ciencias Sociales, Biología, Negocios, etc., así como en asuntos
relacionados a dependencias gubernamentales como Nasa, Armada Naval, etc.
2. Cadenas de Markov
Los procesos de paseo aleatorio en realidad son un caso particular de procesos
más generales que son las cadenas de Markov. En esencia, una cadena es un
proceso en tiempo discreto en el que una variable aleatoria Xn va cambiando con
el paso del tiempo. Las cadenas de Markov tienen la propiedad de que la
probabilidad de que Xn = j sólo depende del estado inmediatamente anterior del
sistema: Xn−1. Cuando en una cadena dichas probabilidades no dependen del
tiempo en que se considere, n,
P (Xn = j | Xn−1 = i)
se denomina cadena homogénea, esto es, las probabilidades son las mismas en
cada paso.
pág. 4
para cada i = 1, 2,… m. Todos estos valores se combinan formando una matriz de
transición T de tamaño m × m, donde
Observación:
Si las matrices A = [aij ] y B = [bij ] son matrices estocásticas, entonces C = A · B es
también estocástica. Por la regla de multiplicación de matrices,
De este modo:
Probabilidad Pj (n)
Una probabilidad de bastante interés es la probabilidad de llegar a Ej después de
(0)
n pasos, dada una distribución de probabilidad n {𝑝𝑖 }
(𝟎)
Se observa que {𝒑𝒊 } o es la probabilidad de que el sistema ocupe inicialmente
el estado Ei, de modo que
pág. 5
(𝟏)
Si se denomina 𝒑𝒊 a la probabilidad de alcanzar Ej en un solo paso, entonces,
por el teorema de probabilidad total
Esto se puede expresar de forma vectorial: sean p(0) y p(1) los vectores fila de
probabilidad dados por:
y en n pasos,
(𝟏)
NOTA: 𝒑𝒋 es la probabilidad incondicional de estar en el estado Ej en el n-
ésimo paso, dado que la probabilidad inicial es p(0), esto es,
𝑛
Probabilidad de transición en n pasos 𝑝𝑖𝑗
pág. 6
𝑛
Se define 𝑝𝑖𝑗 como la probabilidad de que la cadena esté en el estado Ej
después de n pasos, dado que la cadena empezó en el estado Ei. Se tiene que
para n ≥ 2, ya que la cadena debe haber pasado por uno de los m posibles
estados en la etapa n – 1
Sabemos que:
2
ya que 𝑝𝑖𝑗 son los elementos de T2 y así sucesivamente. Así,
pág. 7
2. Si hoy está nublado, ¿cuál es la probabilidad de que dentro de tres días esté
también nublado? ¿y de que esté soleado?
3. Calcula T5 y T10. ¿Cuál es el comportamiento de T n cuando n → ∞? ¿Cómo se
comporta p(n) cuando n → ∞? ¿Depende el límite de p(0)?
(1) Asumimos que el proceso es markoviamo y que el tiempo sólo depende del
día anterior. Se tiene una cadena de Markov con dos estados: E1 ≡ Día nublado
N, E2 ≡ Día soleado S. La matriz de transición es:
es decir,
Es decir,
(2) Empezando los pasos a partir del día actual, se tiene que:
De este modo, si hoy está nublado, dentro de tres días, se tiene que
29
Así, la probabilidad de que haya un día nublado en el tercer día es 𝑝13 = y que
72
43
sea soleado es 𝑝23 =
72
(3)
pág. 8
En una cadena homogénea con m estados E1, E2,...,Em y matriz de transición T
= [pij ] , (1 ≤ i, j ≤ m) el valor de pij es la probabilidad de que haya una transición
entre Ei y Ej en un momento dado. Según lo anterior se pueden clasificar los
estados de una cadena
Estado absorbente: Un estado es absorbente cuando una vez que se entra en él
no se puede salir del mismo. Un estado Ei es absorbente si
en la i-ésima fila de T
es decir, el máximo común divisor de (mcd) del conjunto de los enteros n para
los que𝑝𝑖𝑖𝑛 > 0. Entonces, el estado Ei es periódico si d(i) > 0 y aperiódico si d(i)=1
Ejemplo. Sea una cadena de Markov con la siguiente matriz de transición:
pág. 9
Observando este grafo, se ve que todos los estados tienen periodo 3. Por
ejemplo, si se empieza en E1, entonces los regresos a ese estado sólo se
producen en los pasos 3, 6, 9,...
(𝑛)
Estado recurrente: Denominamos como 𝑝𝑗 la probabilidad de que la primera
visita al estado Ej ocurra en la etapa n. Esta probabilidad no es la misma que
𝑛
𝑝𝑗𝑗 , que es la probabilidad de que se produzca un retorno en el n-ésimo paso y
esto incluye a los posibles retornos en los pasos 1, 2, 3,...,n − 1 también. Se
deduce que
Así, en general
(𝑛)
Se puede expresar en términos de 𝑝𝑗
pág. 10
La probabilidad de regresar en algún paso al estado Ej es
Clasificación de cadenas
Cadenas irreducibles: una cadena irreducible es aquella en la que todos los
estados son alcanzables desde cualquier otro estado de la cadena en un número
finito de pasos. Eso implica que se puede llegar a cualquier estado Ej desde otro
(𝑛)
estado Ei esto es 𝑝𝑖𝑗 > 0, para algún número entero n.
(𝑛)
Una matriz A = [aij ] se dice que es positiva si 𝑎𝑖𝑗 > 0 para todos los i, j. Una matriz
de transición T se dice que es regular si existe un número entero N tal que T N es
positivo. Una cadena regular obviamente es irreducible, sin embargo, lo contrario
no tiene por qué ser necesariamente cierto.
pág. 11
Distribución de equilibrio de una cadena de Markov
Un problema de gran interés en las aplicaciones prácticas es el siguiente:
transcurrido un número muy grande de etapas, ¿cuál es la probabilidad de que la
cadena se encuentre en un estado j determinado? Esta pregunta sólo tiene
sentido cuando el proceso es ergódico. Un proceso estocástico es ergódico
𝑃𝑖𝑗𝑛
cuando existe la distribución límite:𝜋𝑖𝑗 =
𝑛→∞
en cuyo caso se dice que la cadena está en equilibrio. La distribución𝜋 =
(𝜋1 , 𝜋2 , 𝜋3 ) recibe el nombre de distribución de equilibrio de la cadena. La
ergodicidad significa que, transcurridas muchas etapas, la probabilidad de estar
𝑃𝑖𝑗𝑛
en un estado j, 𝜋𝑖𝑗 = es independiente del estado de partida i.
𝑛→∞
3. Teoría de colas
3.1 Introducción
La teoría de colas fue planteada por Agner Krarup Erlang (Dinamarca, 1878 - 1929)
en 1909 para analizar la congestión de tráfico telefónico con el objetivo de cumplir
la demanda incierta de servicios en el sistema telefónico de Copenhague.
La teoría de líneas de espera o de colas es actualmente una herramienta de valor
en negocios debido a que muchos de sus problemas pueden caracterizarse, como
problemas de congestión llegada - partida.
pág. 12
Una línea de espera es una cola y la teoría de colas es un conjunto de modelos
matemáticos que describen sistemas de líneas de espera particulares o de
sistemas de colas, desde lo más simple hasta complejas redes, llamémosle, de
atención.
Estos modelos sirven para determinar y calibrar los costes del sistema y los
tiempos promedio de la línea de espera para un sistema dado.
El objetivo es determinar la tasa de atención (o servicio) otorga un adecuado
balance al sistema.
Las llegadas o arribos al sistema pueden o no conocerse con exactitud, además
pueden ocurrir en cualquier momento. De igual manera el tiempo necesario para
brindar el servicio puede o no conocerse con exactitud.
Los problemas de “Colas” son cosa cotidiana de la vida diaria. Un estudio realizado
en los EE.UU. concluyó que el ciudadano promedio pasa 5 años de su vida
esperando en distintas Colas (6 meses de ellos, parado en los semáforos).
Definición
La teoría de líneas de espera o de colas, es el estudio matemático del
comportamiento de líneas de espera. Estas se presentan cuando, llamémosle
"clientes" llegan a un "lugar" demandando un servicio a un "servidor" el cual tiene
cierta capacidad de atención. Si el servidor no está disponible inmediatamente y
el cliente decide esperar, entonces se forma en la línea de espera.
I II III IV V VI
pág. 13
Finita o De 1 en lote o en Número de colas. -FIFO -1 servidor, 1
infinita lotes Capacidad de las -LIFO fase.
colas. -Emergencias -1 servidor,
Distribución: Aleatorio múltiples fases.
Constante Menor tiempo de -Múltiples
Exponcial o de procesado servidores, 1
Poisson. -Otras fase.
Erlang. prioridades -λ es la tasa de
Otra. llegadas.
Nivel de -1/ λ es el tiempo
entre llegadas.
Nivel de
paciencia:
-Abandona la
cola.
-Se queda.
-Cambia de cola.
-λ es la tasa de
llegadas.
-1/λ es el tiempo
entre llegadas.
NOTACION
Donde:
• M Distribución exponencial.
• D Distribución degenerada (tiempos constantes).
• Ek Distribución Erlang (con parámetro de forma k).
• G Distribución General (permite cualquier distribución arbitraria)
pág. 14
CONCEPTOS BÁSICOS
Clientes: Término usado para referirse a:
• Gente esperando líneas telefónicas desocupadas.
• Máquinas que esperan ser reparadas.
• Aviones esperando aterrizar.
Instalaciones de servicio: Término usado para referirse a:
• Líneas telefónicas.
• Talleres de reparación.
• Pistas de aeropuerto.
Llegadas: es el número de clientes que llegan a las instalaciones de servicio.
Tasa de servicio: Término usado para designar la capacidad de servicio, por
ejemplo:
Un sistema telefónico entre dos ciudades puede manejar 90 llamadas por minuto.
• Una instalación de reparación puede de media, reparar máquinas a razón
una cada 8 horas.
• Una pista de aeropuerto en la que aterrizan dos aviones por minuto.
Número de servidores de servicio: Es la cantidad de servidores disponibles en el
sistema:
pág. 15
Desde el punto de vista del cliente:
Cuando el número de servidores es reducido, el costo de esperar es alto, y
conforme se incrementa el número de servidores el costo de espera se reduce.
Desde el punto de vista del sistema:
Cuando el número de servidores es reducido, el costo de mantener el sistema es
reducido, y conforme se incrementa el número de servidores el costo de
mantener el sistema se incrementa.
El sistema alcanza su costo óptimo cuando el costo total es el mínimo. El costo
total es la suma del costo de mantener el sistema más el costo de espera.
pág. 16
La distribución de poisson
Esta distribución es muy frecuente en los sistemas de colas. Describe una variable
aleatoria discreta que tiene valores no-negativos y enteros. Por ejemplo, la
llegada de pacientes a un consultorio, las llamadas a una central telefónica, la
llegada de automóviles a un servicio de lavado, etc.
SUPOSICIONES PARA LA APLICACIÓN DE LA DISTRIBUCIÓN POISSON
a) El número de llegadas que ocurren en un intervalo de tiempo T es
independiente de las que ocurren en cualquier otro intervalo de tiempo
disjunto.
b) La probabilidad de que se produzca una sola llegada en un intervalo de
tiempo muy corto, es proporcional a la duración del intervalo de tiempo, y
no depende del número de llegadas fuera de este intervalo de tiempo.
c) La probabilidad de que ocurra más de una llegada en dicho intervalo de
tiempo corto es insignificante.
La probabilidad de que se produzcan n llegadas durante el intervalo de
tiempo T según un proceso poissoniano viene dada por:
pág. 17
Donde λ es la tasa media de llegadas por unidad de tiempo.
LA DISTRIBUCIÓN EXPONENCIAL
La distribución de Poisson describe las llegadas por unidad de tiempo y la
distribución exponencial estudia el tiempo entre cada una de estas llegadas.
Si las llegadas son de Poisson, el tiempo entre ellas es exponencial. La
distribución de Poisson es discreta, mientras que la distribución exponencial es
continua, porque el tiempo entre llegadas no tiene por qué ser un número
entero.
Esta distribución se usa mucho para describir el tiempo entre eventos,
específicamente, la variable aleatoria que representa el tiempo necesario de
servicio. Un ejemplo típico puede ser el tiempo que un médico dedica a un
paciente.
La probabilidad de que la duración de un servicio sea de t unidades de tiempo es:
pág. 18
Supuesto 1. Dado N(t)= n, la distribución de probabilidad actual del tiempo que
falta para el próximo nacimiento (llegada) es exponencial con parámetro 𝜆n (n 5
0, 1, 2, . . .).
Supuesto 2. Dado N(t) =n, la distribución de probabilidad actual del tiempo que
falta para la próxima muerte (terminación de servicio) es exponencial con
parámetro 𝜇n (n 5 1, 2, . . .).
Supuesto 3. La variable aleatoria del supuesto 1 (el tiempo que falta hasta el
próximo nacimiento) y la variable aleatoria del supuesto 2 (el tiempo que falta
hasta la siguiente muerte) son mutuamente independientes. La siguiente
transición del estado del proceso es:
n → n+1 1 (un solo nacimiento)
o
n→n–1 1 (una sola muerte),
lo que depende de cuál de las dos variables es más pequeña.
En el caso de un sistema de colas, λn y μn representan, respectivamente, la tasa
media de llegada y la tasa media de terminaciones de servicio, cuando hay n
clientes en el sistema. En algunos sistemas de colas, los valores de las λn serán las
mismas para todos los valores de λn, y las λn también serán las mismas para toda
n excepto para aquella n tan pequeña que el servidor este desocupado (es decir,
n =0). Sin embargo, las λn y las también pueden variar en forma considerable con
n para algunos sistemas de colas.
Por ejemplo, una de las formas en las que 𝜇n puede ser diferente para valores
distintos de n es si los clientes potenciales que llegan se pueden perder (rechazar
la entrada al sistema) con mayor probabilidad a medida que n aumenta. De
manera similar, μn puede ser diferente ante valores distintos de n debido a que
existe una mayor probabilidad de que los clientes renuncien (se vayan sin haber
sido servidos) a medida que aumenta el tamaño de la cola.
Uno de los ejemplos de la sección
Principio de tasa de entrada =tasa de salida. Para cualquier estado n (n= 0, 1, 2, .
. .) del sistema, la tasa media de entrada =tasa media de salida.
La ecuación que expresa este principio se llama ecuación de balance del estado n.
Después de construir las ecuaciones de balance de todos los estados en términos
de las probabilidades Pn desconocidas, se puede resolver este sistema de
ecuaciones (más una ecuación que establezca que las probabilidades deben
sumar 1) para encontrarlas.
A fin de ilustrar una ecuación de balance, considere el estado 0. El proceso entra
a este estado sólo desde el estado 1. En consecuencia, la probabilidad de estado
pág. 19
estable de encontrarse en el estado 1 (P1) representa la proporción de tiempo
que es posible que el proceso entre al estado 0.
Dado que el proceso se encuentra en el estado 1, la tasa media de entrada al
estado 0 es μ1. (En otras palabras, para cada unidad acumulada de tiempo que el
proceso pasa en el estado 1, el número esperado de veces que lo dejaría para
entrar al estado 0 es μ1.) Desde cualquier otro estado, esta tasa media es 0. Por
lo tanto, la tasa media global a la que el proceso deja su estado actual para entrar
al estado 0 (la tasa media de entrada) es
λ1P1 +0(1- P1)=𝜇1 𝑝1
En el caso de todos los demás estados, existen dos transiciones posibles, hacia
adentro y hacia afuera del estado. Entonces, cada lado de las ecuaciones de
balance de estos estados representa la suma de las tasas medias de las dos
transiciones incluidas. En tabla siguiente se muestra las ecuaciones de balance
para n estados.
pág. 20
Resultados del proceso de nacimiento y muerte
Observación: Los modelos exponenciales están basados en procesos de
nacimientos y muertes.
pág. 21
2. El tiempo promedio que un cliente pasa en el sistema, W, es decir, el tiempo
que pasa en la fila más el tiempo en que se le atiende:
Costos en el modelo
Ahora que se han mostrado relaciones de las características del sistema de colas,
pero no identificó las decisiones óptimas ni consideró factores de costo. Como se
señaló anteriormente, la solución al problema de colas podría requerir que la
gerencia haga un balance entre el costo aumentado de ofrecer mejor servicio y
los costos reducidos de espera que se derivan de dar el servicio. Ambos costos se
conocen como costo de espera y costo del servicio.
pág. 22
m = número de canales.
Cs= costo de servicio (costo de mano de obra) de cada canal.
Cuando el costo de tiempo de espera se basa en el tiempo en el sistema, el costo
de espera es:
Costo total de espera= (Tiempo total pasado en espera por todas las
llegadas)(costo de la espera)
= (Número de llegadas)(Espera promedio por
llegada)Cw
así,
Costo total de espera =(𝝀W)Cw
Si el costo del tiempo de espera se basa en el tiempo en la cola, lo anterior será
Costo total de espera = (𝝀Wq)Cw
Estos costos se basan en cualesquiera unidades de tiempo (frecuentemente
horas) que se utilicen para determinar𝝀 . Cuando se suma el costo del servicio
total con el costo de espera total, se obtiene el costo total del sistema de colas.
Cuando el costo de espera se basa en el tiempo en el sistema, este es:
Costo total = Costo total de servicio + Costo total de espera
Costo total = mCs+(𝝀Wq)Cw
pág. 23
λ= tasa de llegadas promedio, y
μ=tasa de servicio promedio en cada canal se pueden utilizar las siguientes
fórmulas en el análisis de la línea de espera:
1. La probabilidad de que haya cero clientes o unidades en el sistema es:
6. Tasa de utilización:
pág. 24
que serían en los modelos que acabamos de presentar, que tienen tiempos de
servicio variables. En realidad, tanto la longitud promedio de la cola como el
tiempo de espera promedio en la cola disminuyen a la mitad con el modelo de
tasa de servicio constante.
pág. 25
otros modelos de colas que usen otras distribuciones de probabilidad.
Desafortunadamente, el análisis matemático de los modelos de colas con
distribuciones no exponenciales es mucho más difícil. Sin embargo, se han podido
obtener algunos resultados útiles con algunos modelos.
Modelo M/G/1
el modelo M/G/1 supone que el sistema de colas tiene un servidor y un proceso
de entradas de Poisson (tiempos entre llegadas exponenciales) con una tasa
media de llegadas fija λ. Como siempre, se supone que los clientes tienen tiempos
de servicio independientes con la misma distribución de probabilidad, pero no se
imponen restricciones sobre cuál debe ser esta distribución de tiempos de
servicio. En realidad, sólo es necesario conocer (o estimar) la media 1/𝜇 y la
variancia 𝜎 2 de esta distribución.
Cualquier sistema de líneas de espera de este tipo podrá alcanzar, en algún
momento, una condición de estado estable si Los resultados de estado estable
𝜆
disponibles 𝜌 = < 1 de este modelo general son los siguientes:
𝜇
pág. 26
Observe que para cualquier tiempo de servicio esperado fijo 1/𝜇 Lq, L, Wq y W se
incrementan cuando 𝜎 2 aumenta. Este resultado es importante porque indica
que la congruencia del servidor tiene gran trascendencia en el desempeño de la
instalación de servicio, no solo en su velocidad promedio. Este punto esencial se
ilustra en la siguiente subsección.
Cuando la distribución de los tiempos de servicio es exponencial, 𝜎 2 = 1/𝜇2 y
los resultados anteriores se reducen a los correspondientes al modelo M/M/1 que
se presentó al inicio de la sección
La flexibilidad total en cuanto a la distribución de los tiempos de servicio que
proporciona este modelo es en extremo útil, por lo que es lamentable que no se
haya tenido éxito en el desarrollo de resultados análogos en el caso de varios
servidores. Ahora bien, se han logrado algunos resultados para más de un servidor
en los importantes casos especiales descritos en los dos modelos siguientes.
Referencias bibliográficas
pág. 27