Libro
Libro
Libro
TESIS
PARA OBTENER EL Tı́TULO DE:
LICENCIADO EN MATEMÁTICAS APLICADAS
PRESENTA:
DAVID LÓPEZ OSORIO
DIRECTOR DE TESIS:
DR. GUILLERMO ARTURO LANCHO ROMERO
Diciembre de 2010
A mis padres, Joel y Eudelia.
Agradecimientos
En primer lugar agradezco a mi familia. A mis padres Joel y Eudelia les agradezco el apoyo
y la confianza que me han brindado. A mis hermanos Joel y Daniel les agradezco su apoyo
incondicional. Gracias a su ejemplo y motivación he concluido mis estudios.
Agradezco a mi asesor, Dr. Guillermo Arturo Lancho Romero, por guiarme en todas las
etapas del desarrollo de este trabajo y por sus observaciones y sugerencias que han sido de
provecho en mi desarrollo profesional.
Agradezco el apoyo que recibı́ del Conacyt como parte del proyecto con número de registro
80993.
David
Prefacio
La programación lineal es una rama de la optimización que estudia problemas que con-
sisten en minimizar o maximizar una función lineal donde la solución se busca en el conjunto
solución de un sistema de desigualdades lineales llamadas restricciones. La programación li-
neal ordinaria trata del estudio de los problemas lineales con un número finito de restricciones
mientras que la programación lineal semi-infinita se ocupa de los problemas lineales en los
que el número de restricciones es infinito.
En este trabajo consideramos el conjunto de los problemas de programación lineal ordinaria
que tienen el mismo número de variables y restricciones. Equipando a este conjunto con
una topologı́a adecuada, demostraremos que el conjunto de problemas que tienen una única
solución óptima es denso en el conjunto de problemas que tienen al menos una solución óptima,
es decir, para cada problema lineal que tiene al menos una solución óptima existe un problema
lineal que tiene una única solución óptima arbitrariamente próximo a él. Para esto usaremos
caracterizaciones de optimalidad y unicidad ası́ como condiciones de estabilidad de problemas
lineales consistentes. Un problema lineal es consistente si el sistema de restricciones tiene al
menos una solución. Un problema consistente es estable si al hacer modificaciones pequeñas
en sus datos se obtiene un problema nuevo que también es consistente.
Veremos que el Teorema de Karush-Kuhn-Tucker es una condición necesaria y suficiente
de optimalidad en programación lineal ordinaria. De esta condición de optimalidad se deriva
una caracterización de los problemas que tienen una única solución óptima. Demostraremos
algunas caracterizaciones del interior del conjunto de problemas consistentes usando la co-
nocida condición de Slater y la continuidad de la llamada multifunción conjunto factible, y
veremos que tales condiciones caracterizan a los problemas lineales consistentes que son es-
tables. Para demostrar que el conjunto de problemas lineales que tienen una única solución
óptima es denso en el conjunto de problemas lineales que tienen al menos una solución ópti-
ma, seguiremos los tres pasos siguientes. Primero, dado un problema de programación lineal
ordinaria que tiene al menos una solución óptima, su correspondiente conjunto factible puede
no ser estable. Haciendo modificaciones pequeñas en sus datos obtenemos un problema nuevo
arbitrariamente “cercano” al problema original que tiene conjunto factible estable, sin embargo
este problema nuevo puede no tener solución óptima. Segundo, haciendo algunas perturba-
ciones convenientes al problema construido en el primer paso obtenemos un problema nuevo
arbitrariamente “cercano” al problema construido en el primer paso y que tiene al menos una
solución óptima. Tercero, modificando los datos del problema construido en el segundo paso
obtenemos un problema nuevo con una única solución óptima arbitrariamente “cercano” al pro-
blema construido en el segundo paso y por lo tanto este último problema está arbitrariamente
“cercano” al problema original.
En la referencia [6] está demostrado un resultado análogo para cierta clase de problemas
de programación lineal semi-infinita. Las hipótesis empleadas en la demostración propuesta
en [6] son sofisticadas y algunas no se requieren para enunciar el resultado en programación
lineal ordinaria. Por ejemplo, el cono convexo generado por un conjunto finito de vectores es
un cono cerrado mientras que el cono convexo generado por un número infinito de vectores
puede no ser cerrado. Además en programación lineal ordinaria en cada punto de la frontera
existe al menos una restricción activa, si un problema tiene solución óptima entonces existe
un punto extremo que es solución óptima, lo cual no sucede en general en programación lineal
semi-infinita.
La estructura de la tesis es la siguiente. En el capı́tulo 1 presentamos una reseña histórica
del desarrollo de la programación matemática y en particular de la programación lineal. En
la sección 1.1, presentamos la notación usual e introducimos una métrica en el conjunto de
problemas de programación lineal ordinaria para dotar a este conjunto con una topologı́a. En
la sección 1.2 mencionamos algunos ejemplos que ilustran aplicaciones de la programación
lineal.
En el Capı́tulo 2 presentamos una compilación de herramientas de análisis convexo y
funciones convexas que utilizaremos en este trabajo. La sección 2.1 consta de definiciones y
propiedades básicas de los conjuntos convexos. En la sección 2.2 se presentan las propiedades
geométricas de separación y soporte de conjuntos convexos, mismas que son importantes para
establecer los criterios de optimalidad y unicidad en los problemas de optimización. En la
sección 2.3 estudiamos algunas propiedades del conjunto factible de un problema de progra-
mación lineal ordinaria, el cual pertenece a la clase de conjunto convexos llamados poliedros.
En la sección 2.4 hablaremos de las funciones convexas, de algunas propiedades de estas
funciones y de criterios que caracterizan a las funciones de este tipo.
En el Capı́tulo 3 presentamos las condiciones necesarias y suficientes de optimalidad y
unicidad. La sección 3.1 tiene como resultado principal al Teorema que, para problemas de
optimización cuya función objetivo es diferenciable, caracteriza las direcciones de descenso
en cada punto factible en términos del gradiente de la función objetivo en dicho punto. Este
resultado permite derivar la condición necesaria de primer orden para optimalidad, la cual
exponemos en la sección 3.2. En la sección 3.4 veremos que el Teorema de Karush-Kuhn-
Tucker se deduce de la condición necesaria para optimalidad local usando el concepto de
restricciones activas. Este Teorema es también una condición suficiente para problemas en
los que las funciones involucradas además de ser diferenciables satisfacen propiedades de
convexidad, tal como lo demostraremos en el Teorema 3.15. En la sección 3.5 presentamos una
caracterización de unicidad en programación lineal ordinaria.
En la primera sección del Capı́tulo 4 demostramos criterios de estabilidad de los problemas
consistentes y resolubles. En la sección 4.2 demostramos el resultado principal de esta tesis
el cual mencionamos anteriormente.
La demostración de la suficiencia del Teorema de Karush-Kuhn-Tucker, enunciada en el
Teorema 3.15, ası́ como las demostraciones de los resultados presentados en el Capı́tulo 4
para programación lineal ordinaria son pruebas originales propuestas en esta tesis.
Índice general
Prefacio VII
1. Introducción 1
1.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Programación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Análisis convexo 11
2.1. Conjuntos convexos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Separación y soporte de conjuntos convexos . . . . . . . . . . . . . . . . . . . . . 21
2.3. Conjunto factible de un problema de programación lineal . . . . . . . . . . . . . 24
2.4. Funciones convexas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4. Resultados principales 59
4.1. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2. Resultado principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5. Conclusiones 71
Topologı́a 73
XII ÍNDICE GENERAL
Diferenciabilidad 77
Bibliografı́a 79
Capı́tulo 1
Introducción
En este Capı́tulo mencionamos una reseña del desarrollo de la programación lineal y una
introducción a la teorı́a de la optimización.
1.1. Preliminares
(P ) M inimizar f (x)
sujeto a gi (x) ≥ 0, para cada i = 1, 2, . . . , m.
x1 y1
. .
Si x = . . n 0
. , y = . ∈ R , entonces con la expresión x denotaremos el vector
xn yn
transpuesto de x, es decir, x = (x1 , x2 , . . . , xn ); x0 y representa el producto interno usual en
0
n
X
Rn definido por x0 y = xj yj .
j=1
Si el objetivo y las restricciones del problema (P ) son funciones lineales entonces se dice
que el problema (P ) es un problema de programación lineal. Si el objetivo es una función
cuadrática y las restricciones son lineales entonces tenemos un problema de programación
cuadrática. Ası́ un problema de programación cuadrática tiene la forma siguiente:
M inimizar x0 Hx + a0 x
sujeto a
a11 x1 + a12 x2 + · · · + a1n xn ≥ b1
..
.
am1 x1 + am2 x2 + · · · + amn xn ≥ bm .
donde H es una matriz n×n con entradas reales, a ∈ Rn y bi ∈ R, i = 1, . . . , m son constantes.
Si las restricciones o la función objetivo son no lineales, entonces el problema (P ) se conoce
como problema de programación no lineal.
La programación lineal se creó como rama independiente de la teorı́a de optimización gra-
cias al impulso que se dió a la investigación y desarrollo de modelos para el uso eficiente de
los recursos en el contexto de la segunda guerra mundial ([7], [1]). El estudio de la programa-
ción lineal recibió un gran impulso con el desarrollo del método simplex creado por George
Dantzig en 1947. El incremento en la capacidad de procesamiento y disponibilidad de las
computadoras desde esta época permitieron que el método simplex fuera capaz de resolver
problemas involucrando gran cantidad de datos, con esto, la programación lineal atrajo la
atención de quienes vieron en ésta una herramienta poderosa y eficiente. Posteriormente, la
publicación del teorema de dualidad por Gale, Khun y Tucker en 1951 introdujo la teorı́a de
dualidad, la cual ha sido una rama importante en el desarrollo de esta teorı́a.
Posteriormente al inicio de la programación lineal, el desarrollo de la teorı́a de optimización
ha sido notable: En 1959, Wolfe desarrolló el método simplex para programación cuadrática y
en 1963 desarrolló el método del gradiente reducido para problemas con restricciones linea-
les y función objetivo no lineal. Posteriormente se desarrollaron los métodos numéricos para
programación no lineal, en 1970 diversos autores desarrollaron métodos cuasi-Newton para
optimizar funciones no cuadráticas sin restricciones y en 1969 Abadie generalizó el método
del gradiente reducido para problemas de programación no lineal.
Capı́tulo 1. Introducción 3
M inimizar c0 x (1.1)
sujeto a a0t x ≥ bt , t ∈ T, (1.2)
Se dice que el problema representado por σ tiene solución óptima única si F ∗ = {x∗ }. Se
dice que el problema definido por σ es resoluble si tiene al menos una solución óptima.
Si T es un conjunto finito, por ejemplo T = {1, 2, . . . , m}, (1.1) y (1.2) definen un problema
4 1.2. Programación lineal
M inimizar c1 x1 + c2 x2 + · · · + cn xn
sujeto a
a11 x1 + a12 x2 + · · · + a1n xn ≥ b1
.. ..
. .
am1 x1 + am2 x2 + · · · + amn xn ≥ bm .
d(σ, σ1 ) = 0 ⇔ kA − A1 k = 0, kb − b1 k∞ = 0, kc − c1 k∞ = 0
⇔ A = A1 , b = b1 , c = c1
⇔ σ = σ1 .
1.3. Ejemplos
Las aplicaciones de la programación lineal son diversas. Existen problemas que son formu-
lables directamente como problemas de programación lineal en la planificación de actividades,
diseño de polı́ticas públicas, etc. El ejemplo que sigue muestra un problema de planificación
de la producción que puede ser modelado mediante la programación lineal.
Ejemplo 1.4. En Suchixtlahuaca el gobierno municipal local ha impulsado dos programas
paralelos de empleo para sus ciudadanos, los cuales consisten en la producción de jitomate
en un ambiente controlado de invernadero y la tradicional producción de jitomate y trigo como
cultivos de temporal. La localidad, bajo el régimen de propiedad comunal, posee H hectáreas
de tierra disponibles para su aprovechamiento, de las cuales se han usado K hectáreas para la
construcción de invernaderos, y L horas de trabajo. Supondremos que los costos de producción
unitarios del jitomate y trigo en campo son c1 y c2 , en cada caso. Además el costo de producción
del jitomate en invernadero es c3 . De acuerdo con su experiencia en el comercio, los pobladores
esperan los siguientes precios para la siguiente temporada
Producto Precio esperado Costo
Jitomate en campo p1 c1
Trigo p2 c2
Jitomate en invernadero p3 c3
Para fines de simplificación, supondremos que los costos de producción son constantes. La
tecnologı́a de producción se resume en la siguiente tabla
Producto Tierra Trabajo
Jitomate en campo a11 a21
Trigo a12 a22
Jitomate en invernadero a13 a23
donde la tierra se mide en hectáreas y el trabajo en horas. El gobierno local desea planificar
su producción para el siguiente perı́odo de forma que se maximizen sus ganancias.
Denotemos, de forma respectiva, con x1 y x2 a las cantidades a producir de jitomate y
trigo en campo y con x3 la cantidad de producción de jitomate en invernadero. El problema a
resolver es
M ax x1 (p1 − c1 ) + x2 (p2 − c2 ) + x3 (p3 − c3 ),
donde las restricciones en cuanto al uso de la tierra son
Ejemplo 1.5. Una compañı́a desea determinar el nivel de producción de las T semanas si-
guientes de forma que se satisfagan las demandas, que son conocidas, y se minimicen los
costos de producción y almacenamiento. La demanda al tiempo t se denota con g(t). El nivel
de producción e inventario al tiempo t se denotan con x(t) y y(t), respectivamente. Se supone
8 1.3. Ejemplos
que el nivel de inventario en el tiempo inicial 0 es y0 y se desea tener al final del horizonte
de planificación el nivel yT . Suponiendo que el costo de almacenamiento es proporcional al
RT
nivel de inventario, entonces se puede expresar como c1 0 y(t)dt, donde la constante c1 > 0
se supone conocida. De la misma forma se supone que el costo de producción es proporcional
RT
al nivel de producción, y por lo tanto está dada por c2 0 x(t)dt. Entonces el costo total es
RT
0 [c1 y(t) + c2 x(t)]dt. El nivel de inventario al tiempo t está dado por
Z t
y(t) = y0 + [x(τ ) − g(τ )]dτ, t ∈ [0, T ].
0
Se supone que no se permiten atrasos, es decir, que la demanda debe ser satisfecha totalmente.
Además la capacidad de manufactura restringe el nivel de producción a no exceder b1 en
cualquier tiempo y la capacidad de almacenamiento permite un nivel de almacenamiento
máximo b2 . Este problema puede ser formulado como sigue:
RT
M inimizar 0 [c1 y(t) + c2 x(t)]dt
Rt
sujeto a y(t) = y0 + 0 [x(τ ) − g(τ )]dτ, t ∈ [0, T ]
y(T ) = yT
0 ≤ x(t) ≤ b1 , t ∈ [0, T ]
0 ≤ y(t) ≤ b2 , t ∈ [0, T ]
Este problema es un problema de control óptimo, donde la variable de control es el nivel de
producción x(t) y la variable de estado es el nivel de inventario y(t). El problema puede
ser aproximado por un problema lineal discretizando las variables x(t) y y(t). Primero se
divide el horizonte de planificación [0, T ] en n perı́odos [0, ∆], [∆, 2∆], . . . , [(n − 1)∆, n∆]
donde T = n∆. El nivel de producción, el de inventarios y la demanda se asumen constantes
en cada perı́odo j denotándolos con xj , yj , y gj , respectivamente. Entonces el problema de
control óptimo anterior puede ser aproximado por el problema de programación lineal ordinaria
siguiente:
Pn Pn
M inimizar j=1 (c1 ∆)yj + j=1 (c2 ∆)xj
sujeto a yj = yj−1 + (xj − gj )∆, j = 1, . . . , n
yn = yT
0 ≤ xj ≤ b1 , j = 1, . . . , n
0 ≤ y j ≤ b2 , j = 1, . . . , n.
El ejemplo que sigue muestra la importancia de la programación lineal ordinaria como
herramienta en la resolución de problemas lineales semi-infinitos.
Ejemplo 1.6. El método iterativo de discretización por mallas permite resolver problemas de
programación lineal semi-infinita discretizando el conjunto de ı́ndices T y resolviendo, en cada
Capı́tulo 1. Introducción 9
iteración, un problema lineal finito aproximado (ver Capı́tulo 11 de [8]). Este método consiste
T
en construir una sucesión {Tr }r∈N de subconjuntos finitos de T , tales que ∞ r=0 Fr = F ,
0
aquı́ Fr denota al conjunto solución del sistema de desigualdades {at x ≥ bt , t ∈ Tr }. Dada la
constante > 0 se resuelve sucesivamente el problema aproximado que consiste en optimizar
el objetivo sobre el conjunto factible relajado Fr hasta que se obtiene una solución x̄ la cual
es -factible para el problema original, es decir, tal que para todo t ∈ T satisfaga a0t x̄ ≥ bt − .
Una clase de problemas para los cuales este método de discretización es fácilmente apli-
cable está formada por los problemas para los cuales T es numerable, los cuales tienen la
forma siguiente:
M inimizar c0 x
sujeto a a0t x ≥ bt , t ∈ T,
donde T = {t1 , t2 . . . }.
T
En este caso la sucesión {Tr } con término r-ésimo Tr = {t1 , t2 , . . . , tr } satisface ∞r=1 Fr = F .
El algoritmo consiste en aplicar iterativamente los pasos siguientes
(Pn ) M inimizar c0 x
sujeto a a0t x ≥ bt , t ∈ Tr
Para asegurar que el subproblema (Pr ) a resolver en el Paso 1 tenga solución óptima se pide
que la función objetivo c0 x tenga conjuntos de nivel no vacı́os y acotados sobre el conjunto Fr
lo cual sucede, por ejemplo, si F ∗ es no vacı́o y acotado.
Capı́tulo 2
Análisis convexo
Definición 2.1. Sea X ⊆ Rn . Se dice que X es convexo si para cualesquiera dos puntos
x1 , x2 ∈ X se tiene λx1 + (1 − λ)x2 ∈ X, para cada λ ∈ (0, 1), ver la Figura 2.1.
Trivialmente ∅ es convexo por vacuidad y Rn es convexo por ser un espacio vectorial y por
lo tanto cerrado bajo la suma y producto por escalar.
12 2.1. Conjuntos convexos
De la definición anterior, es claro que cualquier variedad afı́n es un conjunto convexo puesto
que una combinación convexa es también combinación afı́n, de acuerdo con la Definición 2.2.
Si V es un conjunto afı́n, entonces existe un único subespacio de Rn , S, tal que V =
a + S para cierto a ∈ Rn fijo (Teorema 1.2 de [11]). Se define la dimensión de V como
dim(V ) := dim(S).
Definición 2.5. Sea X ⊂ Rn . La envoltura convexa (afı́n, lineal) de X, denotada por convX
(af f X, spanX) es el mı́nimo conjunto convexo (variedad afı́n, subespacio vectorial) en Rn
que contiene a X. Es decir, convX (af f X, spanX) es la intersección de todos los conjuntos
convexos (variedades afines, espacios vectoriales) en Rn que contienen a X.
el cual está representado en la Figura 2.3. El interior de este conjunto es ∅ pero el interior
14 2.1. Conjuntos convexos
relativo de X es ( ! )
x1 2
ri X = ∈ R : 1 < x1 < 5, x2 = 4 .
x2
El interior relativo de un conjunto convexo X coincide con el interior topológico usual
cuando af f X = Rn . Las combinaciones convexas entre puntos en la frontera y el interior
relativo de un conjunto convexo pertenecen al interior relativo del conjunto convexo, esta
propiedad es conocida como lema de Accesibilidad.
Como consecuencia del Teorema 2.8 tenemos que el interior de un conjunto convexo arbi-
trario y la cerradura de un conjunto convexo con interior no vacı́o son conjuntos convexos.
Tal como lo enuncia el Teorema 2.1 de [11], la intersección de una colección arbitraria de
conjuntos convexos es también un conjunto convexo.
X ∗ = {p ∈ Rn : x0 p ≤ 0 ∀x ∈ X}.
X o = {p ∈ Rn : x0 p ≥ 0 ∀x ∈ X}.
Capı́tulo 2. Análisis convexo 15
Geométricamente, el conjunto coneX es la envoltura convexa del cono que consta de todos
los rayos que contienen elementos de X, X ∗ consta de todos los vectores en Rn que forman
un ángulo mayor o igual que 90 grados con todos los elementos de X y X o está formado por
los vectores que forman un ángulo menor o igual que 90 grados con todos los elementos de
X. La Figura 2.4 ilustra estos conjuntos.
Como poliedros especiales tenemos a los polı́topos. Un polı́topo se define como la envoltura
convexa de un conjunto finito de puntos. El Teorema siguiente enuncia que un polı́topo, ası́ como
un cono convexo generado por un conjunto finito de puntos, son poliedros.
Teorema 2.11 (Teorema 3.5 de [7]). Sea X ⊆ Rn un conjunto finito no vacı́o, entonces
Como consecuencia inmediata de este teorema tenemos que un cono convexo finitamente
generado es cerrado.
16 2.1. Conjuntos convexos
Demostración. Veamos que D(X, x̄) es un cono. Sea α > 0 arbitrario, si d ∈ D(X, x̄) entonces
existe > 0 tal que
x̄ + δd ∈ X, para cada 0 ≤ δ < ,
δ
x̄ + (αd) ∈ X, para cada 0 ≤ δ < ,
α
es decir, αd ∈ D(X, x̄). Por lo tanto D(X, x̄) es un cono.
Veamos ahora que D(X, x̄) es un conjunto convexo. Sean d1 , d2 ∈ D(X, x̄) y λ ∈ (0, 1)
arbitrarios. Como d1 ∈ D(X, x̄) entonces existe 1 > 0 tal que
se sigue que
λd1 + (1 − λ)d2 ∈ D(X, x̄).
! ! !
4 0 0
a1 = , a2 = , a3 = ,
0 0 5
18 2.1. Conjuntos convexos
P
donde ki=1 λi = 1, λi ≥ 0 para i = 1, . . . , k y µj ≥ 0 para j = 1, . . . , l.
El Corolario 19.1.1 de [11] indica que un poliedro tiene un número finito de puntos extremos
y direcciones extremas. El Teorema de Weyl proporciona una caracterización de los puntos
extremos de un poliedro en términos de su representación externa:
Veamos que y ∈ D(F, x̄). De (2.3) tenemos que, para cada ai tal que a0i x̄ = bi ,
Por otra parte, si ai es tal que a0i x̄ > bi , consideremos los dos casos siguientes:
(a) a0i y ≥ 0: En este caso a0i (x̄ + y) = a0i x̄ + a0i y = bi + a0i y > bi , para todo > 0.
Capı́tulo 2. Análisis convexo 19
a0i x̄−bi
(b) a0i y < 0: En este caso basta definir i = |a0i y| > 0 para obtener a0i (x̄ + δy) > bi , para
cada 0 ≤ δ ≤ i .
De lo anterior concluimos que y ∈ D(F, x̄). De forma análoga podemos verificar que −y ∈
D(F, x̄). Existe δ > 0 tal que x̄ ± δy ∈ F , entonces
1 1
x̄ = (x̄ + δy) + (x̄ − δy),
2 2
de aquı́, x̄ no es un punto extremo de F .
Supongamos ahora que x̄ ∈ F es tal que dim span{ai : a0i x̄ = bi } = n y que x̄ no es punto
extremo de F . Entonces existen x1 , x2 ∈ F distintos tales que x̄ = λx1 + (1 − λ)x2 , para cierto
λ ∈ (0, 1).
Sea y = x2 − x1 . Entonces x̄ + λy = λx1 + (1 − λ)x2 + λ(x2 − x1 ) = x2 ∈ F y por lo tanto
y ∈ D(F, x̄). Por otra parte, si 0 < < 1 − λ entonces
y por lo tanto
span{ai : a0i x̄ = bi } ⊆ span{x̄ − y}⊥ ,
de donde
2 ≤ dim span{ai : a0i x̄ = bi } ≤ span{x̄ − y}⊥ = 1,
(a) a0k (x̄ + λy) > bk : En este caso a0k y > λ1 (bk − a0k x̄) = 0. Luego
Ası́, cada punto de un cono convexo puede representarse como una combinación cónica de
sus direcciones extremas, en otras palabras, un cono convexo coincide con la envoltura convexa
del cono generado por sus direcciones extremas, como lo veremos en el Corolario siguiente.
El siguiente resultado proporciona una representación para los elementos del interior de
un cono convexo. Incluimos la demostración hecha en [4].
Demostración. (i) ⇒ (ii). Sea x ∈ int coneC entonces existen vectores zi ∈ coneC,
i = 1, 2, . . . , r y escalares positivos β1 , . . . , βr tales que
k
X
span{z1 , . . . , zr } = Rn y x = βi zi .
i=1
De acuerdo con el Corolario 2.19 para cada i = 1, . . . , r existen escalares γij > 0 y vectores
dij ∈ C, j = 1, 2 . . . , si , tales que
si
X
zi = γij dij .
j=1
Por lo tanto
r
X si
X si
r X
X
x= βi γij dij = βi γij dij ,
i=1 j=1 i=1 j=1
Se dice que la separación es estricta si las desigualdades anteriores son estrictas, la separa-
ción es propia si X1 y X2 no están ambos contenidos en H, la separación es fuerte si existe
> 0 tal que X1 + B está contenido en uno de los semiespacios mientras que X2 + B
está contenido en el otro.
22 2.2. Separación y soporte de conjuntos convexos
Teorema 2.22 (Teorema 11.3 de [11]). Sean X1 y X2 dos subconjuntos convexos no vacı́os de
Rn . Para que exista un hiperplano que separa X1 y X2 propiamente es necesario y suficiente
que riX1 no se intersecte con riX2 .
La desigualdad (2.6) implica que p ∈ C 0 , notemos que por la desigualdad (2.5) tenemos que
p0 x̄ > 0, lo cual contradice que x̄ ∈ C 00 . Por lo tanto, x̄ ∈ C. Ası́ C 00 ⊆ C.
Capı́tulo 2. Análisis convexo 23
(a) Existe un único hiperplano de sopor- (b) Existe una infinidad de hiperplanos
te de X en el punto x̄ de soporte de X en x̄
!
x̄
Demostración. (i) Sea ∈ K 0 tal que x̄n+1 6= 0 entonces x̄n+1 < 0. Dividiendo
x̄n+1
por x̄n+1 ambos lados de la desigualdad a0i x̄ + bi x̄n+1 ≥ 0, i ∈ I, concluimos que
x̄
− x̄n+1 ∈ F . Por lo tanto F 6= ∅.
Recı́procamente,
! si existe x̄ ∈ F entonces a0i x̄ + bi (−1) ≥ 0, para todo i ∈ I. Por lo tanto,
x̄
∈ K 0 y xn+1 = −1 6= 0.
−1
!0 !
x̄ ai
(ii) a0i x̄ ≥ bi , para cada i ∈ I si y sólo si ≥ 0, para cada i ∈ I, si y solo
−1 bi
!
x̄
si ∈ K 0.
−1
Demostración. Supongamos
! es consistente y sea x̄ ∈ !
que el sistema ! F . De acuerdo
! con el
0
x̄ 0 0 x̄
Lema 2.26 (ii), ∈ K 0 , de aquı́ / K 00 puesto que
∈ = −1 < 0.
−1 1 1 −1
!
0
Segun el Lema 2.23, K 00 = K, por lo tanto ∈
/ K.
1
Recı́procamente, si el sistema es inconsistente, entonces, según el Lema 2.26 (i), K 0
está contenido en el hiperplano
( ! )
x̄
H= ∈ Rn+1 : xn+1 = 0 .
xn+1
! !0 !
x̄ 0 x̄
Por otra parte, si ∈ H entonces = 0. Luego
xn+1 1 xn+1
!
0
∈ K 00 = K.
1
26 2.3. Conjunto factible de un problema de programación lineal
a0 x ≥ b, (2.7)
Definición 2.30. Sea f : Rn → R una función. Se dice que un vector d ∈ Rn es una dirección
de descenso en x̄ ∈ Rn si existe δ > 0 tal que f (x̄ + λd) < f (x̄), para cada λ ∈ (0, δ).
1
Los algoritmos basados en esta idea se llaman métodos de gradiente descendiente, y son muy populares en
optimización numérica.
30 2.3. Conjunto factible de un problema de programación lineal
para todo λ ∈ (0, 1). Si la desigualdad anterior se satisface de forma estricta entonces se dice
que f es estrictamente convexa en S. Se dice que f es cóncava en S si −f es convexa en S
y se dice que es estrictamente cóncava en S si −f es estrictamente convexa en S.
(iii) La función f : Rn → Rm dada por f (x) = Ax + b, donde A es una matriz con entradas
reales de m × n y b ∈ Rm , es convexa y cóncava.
Figura 2.15: El epı́grafo de una función convexa y el hipógrafo de una función cóncava son
conjuntos convexos.
esto implica que, para todo λ ∈ (0, 1), λx1 + (1 − λ)x2 ∈ Sα y por lo tanto Sα es convexo.
(ii) Supongamos que f es convexa. Sean (x1 , y1 ), (x2 , y2 ) ∈ epif cualesquiera y λ ∈ (0, 1),
es decir
f (λx1 + (1 − λ)x2 ) ≤ λf (x1 ) + (1 − λ)f (x2 )),
de donde, f es convexa.
Teorema 2.34 (Teorema 3.3.3 de [2]). Sea S un subconjunto de Rn abierto, convexo y no vacı́o;
y sea f : S → R una función diferenciable en S. Entonces f es convexa si y sólo si para cada
x̄ ∈ S se tiene
f (x) ≥ f (x̄) + ∇f (x̄)0 (x − x̄), para todo x ∈ S.
Teorema 2.35 (Teorema 3.3.7 de [2]). Sea S un conjunto abierto y convexo en Rn . Una función
dos veces diferenciable f : S → R es convexa en S si y sólo si la matriz Hessiana H(x̄) es
positiva semidefinida para todo x̄ ∈ S.
Capı́tulo 2. Análisis convexo 35
Demostración. Supongamos que f es convexa. Se debe probar que x0 H(x̄)x ≥ 0 para todo
x ∈ Rn . Sea x ∈ Rn , como S es abierto entonces x̄ + λx ∈ S para λ tal que |λ| =
6 0 es
suficientemente pequeño. Según el teorema 2.34 tenemos
f (x̄ + λx) = f (x̄) + λ∇f (x̄)0 x + 1/2λ2 x0 H(x̄)x + λ2 kxk2 α(x̄; λx). (2.9)
Dividiendo esta última ecuación por 1/2λ2 > 0 y tomando el lı́mite cuando λ → 0 se sigue
que
x0 H(x̄)x ≥ 0.
donde x̂ = λx̄ + (1 − λ)x para cierto λ ∈ (0, 1). Dado que S es convexo, x̂ ∈ S luego H(x̂) es
positiva semidefinida, por consiguiente (x − x̂)0 H(x̂)(x − x̂) ≥ 0. De (2.10) concluimos que
Teorema 2.36 (Teorema 3.3.12 de [2]). Sea H una matriz simétrica con n filas.
1. Si hii ≤ 0 para algún i ∈ {1, 2, . . . , n}, entonces H no es positiva definida; y si hii < 0
para algún i ∈ {1, 2, . . . , n}, entonces H no es positiva semidefinida.
2. Si hii = 0 para algún i ∈ {1, 2, . . . , n} y existe j ∈ {1, 2, . . . , n} tal que hij 6= 0 entonces
H no es positiva semidefinida.
" #
h11 q0
H= ,
q G
donde, por el inciso anterior, si h11 = 0 entonces podemos asumir q = 0, puesto que en
caso contrario H no es positiva semidefinida. En otro caso asumimos h11 > 0 y aplicando
operaciones elementales de Gauss-Jordan, H se puede transformar en la matriz siguiente:
" #
h11 q0
Hnueva = .
0 Gnueva
Teorema 3.1 (Teorema 4.1.2 de [2]). Supongamos que f : Rn → R es una función diferenciable
en x̄. Si el vector d ∈ Rn satisface ∇f (x̄)0 d < 0, entonces d es una dirección de descenso de
f en x̄. Recı́procamente, si d ∈ Rn es una dirección de descenso en x̄ entonces ∇f (x̄)0 d < 0.
Ası́, existe δ > 0 tal que f (x̄ + λd) − f (x̄) < 0 para todo λ ∈ (0, δ).
Supongamos ahora que d es una dirección de descenso en x̄, es decir, existe δ > 0 tal que,
para todo λ ∈ (0, δ), f (x̄ + λd) < f (x̄), entonces
Figura 3.1: En la figura se muestran las curvas de nivel de f . Los conos están sombreados.
Como consecuencia del resultado anterior tenemos que, si d ∈ Rn satisface ∇f (x̄)0 d > 0
entonces d es una dirección de ascenso en x̄. El conjunto de direcciones de descenso, ası́ como
el conjunto de direcciones de ascenso de una función diferenciable en un punto son conos
convexos, como veremos a continuación.
Como d y λd, λ > 0, definen la misma dirección, podemos tomar como direcciones repre-
sentativas del cono a las direcciones de norma euclideana menor o igual que 1. Sobre este
∇f (x̄)
conjunto se verifica que la dirección de mayor descenso es − k∇f (x̄)k , como veremos en el
Corolario siguiente:
42 3.2. Condición necesaria de primer orden
Corolario 3.3. Sea f : Rn → R una función diferenciable en x̄. Para cualquier vector d ∈ Rn
dirección de descenso para f en x̄ tal que kdk ≤ 1 existe > 0 tal que, para todo λ ∈ (0, ),
∇f (x̄)
se satisface f (x̄ + λd̄) ≤ f (x̄ + λd), donde d̄ = − k∇f (x̄)k .
Demostración. Sea d ∈ Rn una dirección de descenso para f en x̄ tal que kdk ≤ 1. Como
kdk ≤ 1 = kd̄k, entonces k∇f (x̄)kkdk ≤ k∇f (x̄)kkd̄k. Por otra parte
de lo anterior
|∇f (x̄)0 d| ≤ |∇f (x̄)0 d̄|. (3.1)
Como d y d̄ son direcciones de descenso de f en x̄, entonces ∇f (x̄)0 d < 0 y ∇f (x̄)0 d̄ < 0,
ası́ (3.1) implica
∇f (x̄)0 d̄ ≤ ∇f (x̄)0 d, (3.2)
de donde se sigue
Demostración. Si d ∈ T (x̄) entonces existe una sucesión {xk } ∈ F tal que xk → x̄ y existen
escalares λk ∈ R tales que d = lı́m λk (xk −x̄). Por la diferenciabilidad de f , para cada k ∈ N
k→∞
podemos escribir
donde lı́m α(x̄; xk − x̄) = 0. Debido a la optimalidad local de x̄, y como xk → x̄, entonces
xk →x̄
f (x̄) ≤ f (xk ), para k suficientemente grande. Por otra parte
De aquı́,
lı́m ∇f (x̄)0 (xk − x̄) ≥ 0.
k→∞
Esto es,
∇f (x̄)0 d ≥ 0.
Si x̄ ∈ intF entonces D(F, x̄) = Rn y de acuerdo con la Proposición 3.5 D(F, x̄) ⊂ T (x̄),
por lo que T (x̄) = Rn , luego d = −∇f (x̄) ∈ T (x̄). Como ∇f (x̄)0 d ≥ 0 entonces
Según la condición necesaria de primer orden, los posibles candidatos a soluciones óptimas
locales son los puntos x̄ ∈ F que satisfacen ∇f (x̄)0 d ≥ 0, para cada d ∈ T (x̄). Sin embargo, la
verificación de esta condición no es fácil, debido a que se debe conocer T (x̄), el cual es difı́cil
de determinar de forma explı́cita. El teorema de Karush-Kuhn-Tucker salva esta dificultad al
sustituir el cálculo del cono de tangentes por el cono generado por los gradientes de las
restricciones activas, si se satisface una condición sobre las restricciones que garanticen la
igualdad de estos conjuntos.
Definición 3.7. El cono activo en x̄ es el cono convexo generado por los gradientes de las
restricciones activas en x̄, es decir
Para ver la relación que existe entre el cono formado por los gradientes de las restricciones
activas y el cono de direcciones tangenciales en un punto consideremos el siguiente ejemplo:
M inimizar x1 + x2
sujeto a −x2 + 1 ≥ 0
x2 − x21 ≥ 0.
! !
x1 x1
Tenemos dos restricciones dadas por g1 = −x2 + 1 y g2 = x2 − x21 .
x x2
!2 !
0 0
Consideremos los puntos factibles x̄1 = y x̄2 = . Los conos tangenciales en
0 1
estos puntos son ( ! )
x1
T (x̄1 ) = : x2 ≥ 0
x2
y ( ! )
x1
T (x̄2 ) = : x2 ≤ 0
x2
Capı́tulo 3. Criterios de optimalidad y unicidad 45
los cuales están representados en color más ! obscuro en la Figura 3.2. El gradiente de la
0
restricción activa en x̄1 es ∇g2 (x̄1 ) = y el gradiente de la restricción activa en x̄2 es
1
!
0
∇g1 (x̄2 ) = .
−1
Notemos que x ∈ T (x̄1 ) si y solo si ∇g2 (x̄1 )0 x ≥ 0, de la misma forma x ∈ T (x̄2 ) si y solo si
∇g2 (x̄2 )0 x ≥ 0.
Proposición 3.9 (Proposición 3.3 de [7]). Para cualesquiera x̄ ∈ F se cumple T (x̄) ⊆ A(x̄)0 .
Demostración. Si I(x̄) = ∅ entonces nada hay que probar pues T (x̄) = A(x̄)o = Rn . Supon-
gamos I(x̄) 6= ∅. Sea d ∈ T (x̄), existe una sucesión {xk } ⊆ F tal que xk → x̄ y escalares
positivos λ1 , λ2 , . . . , tales que d = lı́m λk (xk − x̄). Sea gi ∈ I(x̄), según la diferenciabilidad
k→∞
de g tenemos
gi (xk ) = gi (x̄) + ∇gi (x̄)0 (xk − x̄) + kxk − x̄kα(x̄; xk − x̄),
pero xk ∈ F implica gi (xk ) ≥ 0 y, por consiguiente, lı́m gi (xk ) ≥ 0. Además lı́m kxk −
k→∞ k→∞
x̄kα(x̄; xk − x̄) = 0. Luego
lı́m ∇gi (x̄)0 (xk − x̄) ≥ 0,
k→∞
multiplicando por λk
∇gi (x̄)0 d = lı́m ∇gi (x̄)0 λk (xk − x̄) ≥ 0.
k→∞
Para reemplazar en la condición necesaria de primer orden T (x̄) por A(x̄)o , se debe satis-
facer la otra contención T (x̄) ⊇ A(x̄)o . El siguiente ejemplo muestra que esta contención no
siempre ocurre:
M inimizar x1 + x2
sujeto a x21 + (x2 − 1)2 ≤ 1
x21 + (x2 + 1)2 ≤ 1.
! !
x1 x1
Las restricciones son g1 = −x21 −(x2 −1)2 +1 y g2 = −x21 −(x2 +1)2 +1 (Ver
x2 x2
donde {xk } es una sucesión en F que converge a x̄ y λk > 0. Como F = {x̄}, es claro que la
única expresión de la forma (3.3) es el vector 0. !
0
Por otra parte, las dos restricciones son activas en x̄ con gradientes ∇g1 (x̄) = y
2
!
0
∇g2 (x̄) = , respectivamente. Luego el cono activo en x̄ es
−2
( ! !) ( ! )
0 0 0
A(x̄) = cone , = λ :λ∈R ,
2 −2 1
Una cualificación de restricciones es una condición sobre las restricciones de tal forma que
se cumpla la igualdad T (x̄) = A(x̄)0 , llamada cualificación de restricciones de Abadie. En la
siguiente Proposición mencionamos dos propiedades que son cualificaciones de restricciones,
las cuales se pueden consultar en la sección 5.2 de [2].
Proposición 3.11. Cada una de las siguientes condiciones es una cualificación de restricciones.
(ii) Cualificación de Slater: Las funciones {gi , i ∈ I} son cóncavas y además intF 6= ∅.
El resultado que sigue establece que en cualquier punto de un poliedro el cono de tan-
gentes coincide con el cono de direcciones factibles y el cono de tangentes es igual al cono
polar del cono activo. Incluimos la demostración tomada de [7].
(i) I(x̄) = ∅. En este caso a0i x̄ > bi , para cada i ∈ I. Para cada i = 1, . . . , m, tenemos que
x̄ pertenece al semiespacio abierto
{x ∈ Rn : a0i x > bi },
48 3.4. Teorema de Karush-Kuhn-Tucker
x̄ + δB ⊆ {x ∈ Rn : a0i x > bi }.
(ii) I(x̄) 6= ∅. Para demostrar A(x̄)0 ⊆ T (x̄) basta verificar que A(x̄) ⊆ D(F, x̄), puesto que
D(F, x̄) ⊆ T (x̄). Sea d ∈ A(x̄)0 arbitrario, entonces a0i d ≥ 0 para cada i ∈ I(x̄). Si para
todo i = 1, . . . , m se satisface a0i d ≥ 0 entonces a0i (x̄ + λd) ≥ 0, para cualquier λ > 0 y
por lo tanto d ∈ D(F, x̄). Si i ∈ / I(x̄) entonces a0i x̄ > bi , luego
de donde, existe λi > 0 tal que a0i (x̄ + λi d) > bi . Haciendo = mı́n{λi , i ∈
/ I(x̄)}
obtenemos x̄ + d ∈ F lo cual implica que d ∈ D(F, x̄).
(P ) M inimizar f (x)
sujeto a gi (x) ≥ 0, para cada i ∈ I,
Los puntos que satisfacen la condición necesaria anterior son llamados puntos de KKT. El
teorema de Karush-Kuhn-Tucker no es una condición suficiente en general, sin embargo lo es
bajo algunas hipótesis de convexidad.
A continuación presentamos algunas propiedades de las funciones convexas:
Proposición 3.14. Consideremos el problema (P ). Entonces:
(i) Si para todo i ∈ I , gi es cóncava, entonces el conjunto factible F es convexo.
(i) Si f es convexa y el conjunto factible es convexo, entonces cualquier mı́nimo local del
problema (P ) es también un mı́nimo global.
Demostración. (i) El conjunto factible está dado por F = ∩ Fi , donde
i∈I
n n
Fi = {x ∈ R : gi (x) ≥ 0} = {x ∈ R : −gi (x) ≤ 0},
el cual es un conjunto convexo según la Proposición 2.33. Ası́ F es convexo, puesto que
es la intersección de conjuntos convexos.
(ii) Sea x̄ ∈ F es un mı́nimo local del problema (P ). Supongamos que existe x∗ ∈ F tal
que f (x∗ ) < f (x̄). Como f es convexa, para cada λ ∈ (0, 1) se satisface
de aquı́
∇gi (x∗ )0 (x − x∗ ) ≥ gi (x) − gi (x∗ ) ≥ 0.
De acuerdo con lo anterior, ∇gi (x∗ )0 (x − x∗ ) ≥ 0, para cada i ∈ I(x∗ ). Al multiplicar ca-
da una de estas desigualdades por el multiplicador de KKT λi correspondiente obtenemos
λi ∇gi (x∗ )0 (x − x∗ ) ≥ 0, y sumando sobre I(x∗ )
X
λi ∇gi (x∗ )0 (x − x∗ ) ≥ 0. (3.4)
i∈I(x∗ )
P
Por hipótesis ∇f (x∗ ) = i∈I(x∗ ) λi ∇g(x
∗ ), luego, según (3.4)
X
∇f (x∗ )0 (x − x∗ ) = λi ∇g(x∗ )0 (x − x∗ ) ≥ 0.
i∈I(x∗ )
Por otra parte, como f es convexa, f (x) ≥ f (x∗ ) + ∇f (x∗ )0 (x − x∗ ); y por lo tanto
El teorema de KKT está enunciado para problemas en los que las restricciones son de la
forma gi (x) ≥ 0. En el caso de problemas de programación lineal podemos considerar cada
restricción a0i x ≥ bi como gi (x) = a0i x − bi ≥ 0. Ası́, ∇gi (x) = ai . En este caso el teorema
anterior queda enunciado como sigue.
En el caso finito el cono de restricciones activas, ası́ como cualquier cono finitamente
generado, es cerrado. Sin embargo en el caso semi-infinito esto no es siempre válido, como lo
ilustra el ejemplo siguiente:
M inimizar x1 + x2
sujeto a x1 + n1 x2 ≥ 0, para cada n ∈ N.
!
0
Claramente x∗ = ∈ F . Además el conjunto de gradientes de las restricciones activas
0
( ! )
1
en x∗ es ∈ R2 : n ∈ N . El cono activo en este punto es
1/n
( ! )
∗ x1 2
A(x ) = ∈ R : x1 ≥ x2 , x2 > 0 ∪ {0},
x2
La cerradura de ciertos conos es una hipótesis fundamental para extender los resultados
de programación lineal ordinaria a ciertas clases de problemas lineales semi-infinitos. Según
la definición dada en [4], se dice que un parámetro σ ∈ Π es Farkas-Minkowski si
"( ! ) ( !)#
at 0
cone , t∈T ∪
bt 1
(a) Gradientes de las restricciones activas (b) Cono convexo generado por los gradientes
Otra propiedad del caso finito es que en cualquier punto en la frontera del conjunto factible
existe al menos una restricción activa1 , lo cual no sucede en general en el caso semi-infinito,
tal como podemos observar en el ejemplo siguiente:
M inimizar −x1
sujeto a −x1 ≥ −1 − 1/n, n ∈ N
x1 ≥ 0
x2 ≥ 0.
( ! )
x1
El conjunto factible de este problema es F = ∈ R2 : 0 ≤ x1 < 1, x2 ≥ 0 . Además
x2
!
∗ 1
x = ∈ ∂F ∩ F ∗ , pero I(x∗ ) = ∅, puesto que x∗ satisface todas las restricciones de
1
1
puesto que el conjunto factible es la intersección finita de semiespacios cerrados.
Capı́tulo 3. Criterios de optimalidad y unicidad 53
A continuación mencionamos tal extensión del Teorema de KKT usando el concepto de res-
tricciones activas modificadas.
c0 x∗ ≤ c0 x, para todo x ∈ F,
si y solo si
c0 α(x − x∗ ) = α(c0 x − c0 x∗ ) ≥ 0, para todo x ∈ F y α > 0,
si y solo si
c0 d ≥ 0, para cada d ∈ D(F, x∗ ),
si y solo si c ∈ D(F, x∗ )0 .
Para verificar esta caracterización se requiere conocer el cono D(F, x∗ ) el cual es difı́cil
de determinar en forma explı́cita. Para reemplazar este cono por otro cono que involucra los
datos del problema se usa una cualificación de restricciones. Una cualificación de restricciones
es la llamada condición local Farkas-Minkowski, definida a continuación.
Capı́tulo 3. Criterios de optimalidad y unicidad 55
Teorema 3.24 (Teorema 5.7 de [8]). Un parámetro σ ∈ Π tal que F 6= ∅ es localmente Farkas-
Minkowski si y solo si A(x) = D(F, x)0 , para cada x ∈ F .
3.5. Unicidad
En esta sección estudiamos el concepto de unicidad en programación lineal. En seguida
veremos un ejemplo en el cual se satisface el Teorema de KKT en un punto de la frontera del
conjunto factible y por lo tanto es solución óptima pero no es la única solución óptima.
M aximizar x1 + x2 ,
x1 + x2 ≤ 6 (3.6)
2x1 + x2 ≤ 8 (3.7)
x1 ≥ 0
x2 ≥ 0.
El conjunto factible de este ejemplo está representado en la Figura 3.6. Notemos que la res-
!
2
tricción (3.7) es activa en cada punto del segmento cuyos extremos son los puntos A = y
4
! !
6 1
B= . El gradiente de la restricción (3.7) en cada punto de este segmento es el
0 1
cual coincide con el(gradiente ! de la función objetivo. Por lo tanto el conjunto
) óptimo de este
x1
problema es F ∗ = ∈ R2 : 2x1 + x2 = 8, 2 ≤ x1 ≤ 6, 0 ≤ x2 ≤ 4 . Notemos que en
x2
cada punto óptimo el gradiente de la restricción activa pertenece a la frontera del cono activo.
56 3.5. Unicidad
1. Si p < n, entonces cualquier otro punto factible x∗ tal que I(x̄) = I(x∗ ) es también una
solución óptima, puesto que
X p
0 0 ∗
c x̄ = c x = λi bi .
i=1
por lo que los criterios de unicidad para programación convexa no son aplicables en el caso
lineal.
A continuación presentamos una caracterización de unicidad de la solución en programa-
ción lineal ordinaria.
Teorema 3.26 (Teorema 4.5 de [7]). Sea σ = (c, A, b) ∈ θ. x∗ ∈ F es la única solución óptima
de σ si y sólo si c ∈ intA(x∗ ).
de donde d ∈ A(x∗ )0 . De acuerdo con la Proposición 3.12, A(x∗ )0 = D(F, x∗ ) y por lo tanto
d es una dirección factible de F en x∗ , es decir, existe > 0 tal que x∗ + λd ∈ F para todo
λ ∈ [0, ). Por otra parte
c0 (x∗ + λd) = c0 x∗ + λc0 d = c0 x∗ ,
Resultados principales
4.1. Estabilidad
La teorı́a de estabilidad en programación lineal semi-infinta trata del estudio del compor-
tamiento de las propiedades de un problema cuando se perturban sus datos. Dichas pertur-
baciones pueden surgir de forma natural al usar aproximaciones, debidas por ejemplo, a la
estimación o redondeo de ciertas cantidades involucradas en el problema.
Se dice que un problema que tiene una propiedad especial, como consistencia o reso-
lubilidad, es estable respecto a esta propiedad si los problemas suficientemente “próximos”
conservan tal propiedad, es decir, al hacer perturbaciones pequeñas en los datos de un pro-
blema nominal, el problema nuevo obtenido también tiene la propiedad del problema nominal.
En lo que sigue presentamos conceptos que usaremos para establecer criterios de estabi-
lidad. Para esto presentamos a continuación las definiciones de multifunción y de continuidad
de una multifunción.
Es claro que la condición fuerte de Slater implica la condición de Slater. Para problemas
continuos estas condiciones son equivalentes, como lo veremos en el siguiente resultado.
Demostración. Veamos que la condición de Slater implica la condicón fuerte de Slater. Su-
pongamos que σ satisface la condición de Slater, entonces existe x̄ tal que a0t x̄ > bt para cada
t ∈ T . Como σ es continuo entonces la función g : T → R definida por g(t) := a0t x̄ − bt es
continua sobre el compacto T y está acotada inferiormente por 0 puesto que x̄ es punto de
Slater, por lo tanto existe t0 ∈ T que es mı́nimo de g, es decir
Πc := {σ ∈ Π : F 6= ∅},
Πs := {σ ∈ Π : F ∗ 6= ∅},
Πu := {σ ∈ Πs : F ∗ = {x∗ }}.
Cada uno de los conjuntos anteriores es un espacio topológico equipado con la topologı́a
relativa.
En el Capı́tulo 10 de [8] se han estudiado las propiedades de semicontinuidad de la
multifunción conjunto óptimo, además de la función valor óptimo ϑ : Π → [−∞, +∞], tal
que a cada parámetro σ ∈ Π le asigna su valor óptimo ϑ(σ).
El capı́tulo 6 de [8] se estudia la estabilidad de los sistemas de ecuaciones lineales. Entre
otros resultados enunciado y probados en [8] nosotros solo utilizaremos las caracterizaciones
de intΠc que mencionamos a continuación.
Teorema 4.6 (Teorema 6.1 de [8]). Sea σ ∈ Πc . Las siguientes afirmaciones son equivalentes:
(b) σ ∈ intΠc ;
(ii) intF 6= ∅;
(iii) σ ∈ intθc ;
k(x̄ + λd) − x̄k = kλdk = λkai k < kai k = ,
kai k
es decir, x̄ + λd ∈ x̄ + B ⊆ F . Por otra parte
lo cual se contradice con (4.2). Por lo tanto para todo i = 1, . . . , m tenemos a0i x̄ > bi , es decir,
x̄ es un punto de Slater.
Capı́tulo 4. Resultados principales 63
Veamos que (i) ⇔ (iii). Supongamos que σ satisface la condición de Slater y sea x0 ∈ F
un punto de Slater, entonces a0i x0 > bi , para cada i ∈ I. Sean δ = mı́n{a0i x0 − bi , i ∈ I} > 0
y = mı́n{ 2δ , 2nkxδ0 k∞ } > 0. Sea σ1 = (c1 , A1 , b1 ) ∈ σ + B arbitrario. Entonces
d(σ, σ1 ) = kA − A1 k + kb − b1 k∞ + kc − c1 k∞ < ,
de aquı́
0
a1i x0 − b1i > a0i x0 − bi − δ, para todo i ∈ I, (4.3)
Según la definición de δ tenemos que a0i x0 − bi − δ ≥ 0, para cada i ∈ I; por lo tanto, (4.3)
implica
0
a1i x0 − b1i > 0, para cada i ∈ I,
b1 := b + δ,
La desigualdad anterior implica que x1 es un punto de Slater para σ, y por lo tanto σ satisface
la condición de Slater.
Veamos que (iii) ⇔ (iv). Sea σ ∈ intθc y sea W ⊆ Rn abierto tal que F ∩ W 6= ∅. Sea
x̄ ∈ F ∩ W . Si x̄ ∈
/ intF , entonces tomamos ȳ ∈ intF (tenemos que intF 6= ∅ puesto que
σ ∈ intθc ). Como W es abierto entonces W = int W , luego x̄ ∈ intW . De acuerdo con el
Teorema 2.8, existe λ > 0 suficientemente pequeño tal que
Demostración. Supongamos que para todo > 0 existen b, bi ∈ Rn tales que ka − bk∞ < ,
máx{kai − bi k∞ , i = 1, . . . , n} < y b ∈ / int cone{b1 , . . . , bn }. Entonces tomando sucesiva-
mente = 1/n podemos construir sucesiones {br }r∈N y {bir }r∈N tales que br → a, bir → ai ,
i = 1, . . . , n y br ∈
/ int cone {b1r , . . . , bnr }. Si a ∈ int cone{a1 , . . . , an }, entonces existe
δ > 0 tal que a + δB ∈ cone{a1 , . . . , an }. Existe N ∈ N suficientemente grande tal que
a + δB ∈ cone {b1r , . . . , bnr } y ka − br k < δ para r ≥ N , lo cual no puede suceder. Por lo
tanto a ∈
/ int cone{a1 , . . . , an }.
Capı́tulo 4. Resultados principales 65
El Teorema 4.7 caracteriza el interior del conjunto de problemas lineales resolubles como
el conjunto de los problemas que pertenecen al interior del conjunto de problemas consistentes
y tales que su conjunto óptimo es acotado y no vacı́o. En particular, tenemos que los problemas
lineales que pertenecen al interior del conjunto de problemas lineales consistentes y tienen
una única solución óptima pertenecen al interior del conjunto de problemas resolubles, tal
como veremos en el resultado siguiente.
Teorema 4.10. θu ∩ intθc ⊂ intθs .
Demostración. Sea σ ∈ θu ∩ intθc . Sea x̄ la única solución óptima de σ. De acuerdo con
el Teorema 3.26 tenemos c ∈ intA(x̄). El Teorema 2.20 garantiza que existe un conjunto
linealmente independiente {a1 , . . . , an } tal que c ∈ int cone {a1 , . . . , an }. Según el Lema
anterior, existe 1 > 0 tal que para cualesquiera c1 , a1i ∈ Rn tales que ka − c1 k∞ < 1 y
máx{kai − a1i k∞ , i = 1, . . . , n} < 1 implica c1 + 1 B ∈ int cone{a11 , . . . , a1n }. Por otra parte,
como θ ∈ intθc , entonces, según el Teorema 4.8, existe 2 > 0 tal que σ1 = (c1 , A1 , b1 ) ∈ θc
para cualesquiera σ1 ∈ σ + 2 B. Definiendo = mı́n{1 , 2 } concluimos que σ1 ∈ intθc y
c1 ∈ int cone{a11 , . . . , a1n }, es decir, σ1 ∈ θs para cualesquiera σ1 ∈ σ + B. Por lo tanto
σ ∈ int θs .
1. Primero a partir de los datos de σ construimos un problema σ1 tal que d(σ, σ1 ) < /3
y σ1 ∈ intθc . Hacemos esto con un desplazamiento en el vector b. El problema σ1
resultante es el que sigue:
M inimizar x1
sujeto a x1 ≥ 1 − /3
−x1 ≥ −1 − /3.
!
/3
Este problema está definido por los datos σ1 = (c, A, b1 ), donde b1 = b − . El
/3
Como intF1 6= ∅ entonces σ 1 ∈ intθc lo cual garantiza que al hacer pequeñas modifica-
ciones en sus datos no se pierda la factibilidad.
M inimizar x1
sujeto a x1 + 3 x2 ≥ 1 − /3
−x1 ≥ −1 − /3.
!
1 /3
Los datos de este problema son (c, A1 , b1 ), donde A1 = . Notemos que
−1 0
M inimizar 3 x2
sujeto a x1 + 3 x2 ≥ 1 − /3
−x1 ≥ −1 − /3.
( ! !)
∗ 1 −1
Tenemos b c ∈ intA(x ) = int cone , y por lo tanto x∗ es la única
/3 0
solución óptima de σ
b.
68 4.2. Resultado principal
(b) aj+1 ∈
/ span{b1 , . . . , bj }. En este caso sea bj+1 := aj+1 .
Teorema 4.13. El conjunto de problemas de programación lineal ordinaria que tienen solución
única θu es un subconjunto denso del conjunto de problemas de programación lineal ordinaria
resolubles θs .
Demostración. Sea σ = (c, A, b) ∈ θs , demostraremos que para todo > 0 existe σ b ∈ θu tal
que d(σ, σ
b) < .
Sea > 0 y sea x̄ ∈ F ∗ . Para cada i ∈ I sea b1i = bi − /3. El problema σ1 = (c, A, b1 )
satisface la condición de Slater puesto que a0i x̄ ≥ bi > bi − /3 = b1i , para cada i ∈ I; por
consiguiente, según el Teorema 4.8, σ1 ∈ intθc . Además
Veamos que I(x̄) 6= ∅ para el problema σ. Supongamos que I(x̄) = ∅ entonces a0i x̄ > bi , para
cada i ∈ I, es decir, x̄ es un punto de Slater para σ. De acuerdo con el Teorema 4.8, x̄ ∈ intF y
según el Teorema 3.1, existe una dirección de descenso en x̄ lo cual contradice la optimalidad
de x̄ para σ; por lo tanto, I(x̄) 6= ∅ y por consiguiente A(x̄) 6= ∅. El Teorema 3.16 garantiza
que c ∈ A(x̄). Sea {a21 , a22 , . . . , a2k } el conjunto de direcciones extremas de A(x̄)}, entonces
c ∈ cone{a21 , a22 , . . . , a2k } = A(x̄). Sea β = mı́n{ 3 , 2δ , 2nkx̄k
δ
∞
}, donde
0
δ = mı́n{ai x̄−bi , i ∈ I} > 0. Como m ≥ n podemos tomar n−k vectores distintos del conjunto
{ai : i ∈ I} \ {a21 , . . . , a2k } y aplicando el procedimiento descrito en el Lema 4.12 con el escalar
β podemos completar el conjunto linealmente independiente {a21 , . . . , a2k , a2k+1 , . . . , a2n }. Enton-
ces el parámetro σ2 = (c, A2 , b1 ), donde la matriz A2 se obtiene de la matriz A al reemplazar
cada fila ai por a2i , satisface lo siguiente
La independencia lineal del conjunto {a21 , . . . , a2n } implica la existencia de x∗ , solución única
0
del sistema {a2i x = bi , i = 1, . . . , n}, tal que dimA2 (x∗ ) = n y por lo tanto, intA2 (x∗ ) 6= ∅.
Tenemos que
c ∈ cone{a21 , . . . , a2k } ⊆ cone{a21 , . . . , a2n } = A(x∗ ).
De acuerdo con el Corolario 2.19 existe un subconjunto de {a21 , . . . , a2k }, digamos {a21 , . . . , a2p }
y escalares positivos λ1 , . . . , λp tales que
p
X
c= λi a2i .
i=1
Definamos por último el problema σ b := (c1 , A2 , b1 ). De acuerdo con lo anterior c1 ∈ intAσb (x∗ ),
puesto que A2 (x∗ ) = Aσb (x∗ ). El Teorema 3.26 nos permite concluir que x∗ es solución única
de σ
b. Mas aún,
se sigue que
b) ≤ d(σ, σ1 ) + d(σ1 , σ2 ) + d(σ2 , σ
d(σ, σ b) < 3/3 = .
Conclusiones
Para demostrar que el conjunto de problemas con una única solución óptima es denso en el
en el conjunto de problemas resolubles, estudiamos la teorı́a de análisis convexo que sustenta
las caracterizaciones de optimalidad y unicidad en programación lineal y las caracterizaciones
de estabilidad respecto a las propiedades de consistencia y resolubilidad.
El análisis de estabilidad en el conjunto de problemas de programación lineal ordinaria
θ considerado en este trabajo nos proporcionó información sobre su estructura e hizo posible
conocer algunas relaciones existentes entre subconjuntos distintos de problemas. Ası́, en el
Teorema 4.8 caracterizamos en varios sentidos los problemas que son estables respecto a
la propiedad de consistencia. En la demostración del resultado principal, partiendo de un
problema con al menos una solución óptima construimos un problema próximo el cual tiene
una única solución óptima, además el problema nuevo es estable respecto a consistencia y por
lo tanto, como consecuencia del Teorema 4.10, es también estable respecto a la propiedad de
resolubilidad.
Muchas propiedades y resultados establecidos en programación lineal ordinaria se pueden
extender al conjunto de problemas de programación lineal semi-infinita que son continuos, es
decir cuando T es un conjunto Hausdorff compacto y las funciones a : T → Rn y b : T → R
son continuas. En la clase de problemas lineales continuos, si un problema tiene soluciones
óptimas entonces existe un punto extremo que es solución óptima y en cada punto en la
frontera del conjunto factible existe al menos una restricción activa, estas propiedades no se
cumplen en programación lineal semi-infinita en general, tal como lo ilustra el Ejemplo 3.19.
Algunos autores han generalizado varios resultados al conjunto de problemas acotados donde
el conjunto T no tiene estructura topológica. Un resultado análogo al resultado principal
tratado en esta tesis se demostró primero en 1998 en el artı́culo [9] para la clase de problemas
72
Definición .2. Sea (X, τ ) un espacio topológico y sea x ∈ X. Se dice que V ⊆ X es una
vecindad de x si existe A ∈ τ tal que x ∈ A ⊆ V .
Definición .3. Una base para un topologı́a en el conjunto X es una colección B de subconjuntos
de X tal que
Definición .4. Sea (X, τ ) un espacio topológico y sea x ∈ X. Una colección de vecindades
de x, B, es una base local de x si para cualesquiera vecindad V de x existe A ∈ B tal que
A ⊆ V . Se dice que el espacio (X, τ ) satisface el primer axioma de numerabilidad si cada
punto x ∈ X tiene una base local numerable.
Definición .5. Sea (X, τ ) un espacio topológico. Se dice que X es de Hausdorff si para todo
x, y ∈ X con x 6= y existen dos abiertos U, V ∈ τ tales que x ∈ U , y ∈ V y U ∩ V = ∅.
Los espacios topológicos que satisfacen el primer axioma de numerabilidad permiten ca-
racterizar los conceptos convergencia, continuidad, compacidad por medio de sucesiones. La
propiedad Hausrdoff garantiza la unicidad del lı́mite de cualquier sucesión convergente. Estas
propiedades no se satisfacen para cualquier espacio topológico en general.
Definición .6. Sea X un conjunto. Una métrica es una función d : X × X → R que cumple
las siguientes condiciones
Si existe una métrica definida en el conjunto X entonces se dice que X es un espacio métrico.
Definición .7. Sea (X, d) un espacio métrico. La bola unitaria B en X está definida por
B = {x ∈ X : d(x, 0) < 1}. Sea a ∈ X y r ≥ 0, se define la bola abierta de radio r con
centro en a como el conjunto B(a, r) = {x ∈ X : d(x, a) < }. Si el espacio métrico X tiene
estructura de espacio vectorial entonces la bola abierta con centro en a y radio r es el conjunto
a + rB.
Una métrica sobre un espacio induce de forma natural una topologı́a sobre X, la cual tiene
como base al conjunto de todas las bolas abiertas.
Todo espacio métrico (X, d) equipado con la topologı́a inducida por la métrica d satisface
el primer axioma de numerabilidad y la propiedad Hausdorff, puesto que para cada x ∈ X,
la colección de conjuntos {y ∈ X : d(x, y) < n1 : n ∈ N} es una base local numerable,
además dados x, y ∈ X tales que x 6= y los abiertos U := {z ∈ X : d(z, x) < d(x,y) 2 } y
d(x,y)
V := {z ∈ X : d(z, y) < 2 } son tales que x ∈ U , y ∈ V y U ∩ V = ∅.
Definición .8. Sea (X, d) un espacio métrico y Y ⊆ X. El interior de Y está definido como
sigue:
intY = {x ∈ X : existe > 0 tal que B(x, ) ⊆ Y },
Capı́tulo . Topologı́a 75
Definición .9. Sea (X, d) un espacio métrico. Se dice que una sucesión {xn } en X converge
a p ∈ X si para cada > 0 existe N ∈ N tal que n ≥ N implica d(xn , p) < .
(i) Y es denso en X si para todo x ∈ X y cualquier > 0 existe y ∈ Y tal que d(x, y) < .
f (x) = f (x̄) + ∇f (x̄)0 (x − x̄) + 1/2(x − x̄)0 H(x̄)(x − x̄) + kx − x̄k2 α(x̄; x) (2)
∂ 2 f (x̄)
Si H(x̄) existe entonces se satisface (H(x̄))ij = . La expresión 1 es el polinomio de
∂xi ∂xj
Taylor de primer grado de la función f en x̄, mientras que la expresión 2 es el polinomio de
Taylor de segundo grado de f en x̄.
Bibliografı́a
[1] Bazaraa M. S., Jarvis J. J. “Programación Lineal y Flujo en Redes”. Limusa, México 1981.
[2] Bazaraa M. S., Sherali H. D., Shetty C. M. “Nonlinear Programming, Theory and Algo-
rithms”. Tercera Edición. John Wiley, 2006.
[4] Fisher, T. Strong Unicity and Alternation for Linear Optimization, Journal of Optimization
Theory and Applications Vol 69 (1991), 251-267.
[5] Goberna M. A., Lancho A., Todorov, M. I., Vera de Serio V. N. Locally upper bounded linear
semi-infinite systems with aplications, por aparecer en AMO.
[6] Goberna M. A., López M. A., Todorov, M. I. A Generic Result in Linear Semi-Infinite Opti-
mization, Applied Mathematics and Optimization 48 (2003), 181-193.
[7] Goberna M.A., Puente R., Jornet V. “Optimización Lineal, Teorı́a, Métodos y Modelos”.
McGraw-Hill, Madrid, 2004.
[8] Goberna M.A., López M.A. “Linear Semi-Infinite Optimization”. John Wiley, 1998.
[9] Helbig, S., Todorov, M. I. Unicity results for general linear semi-infite optimization problems
using a new concept of active constraints, Applied Mathematics and Optimization 38 (1998),
21-43.
[12] Rodrı́guez A. M. “Nuevos resultados sobre sistemas lineales y conjuntos convexos”. Tesis
de doctorado, Universidad de Alicante (2001).