Programación No Lineal
Programación No Lineal
Programación No Lineal
INTRODUCCIÓN …………………………………………………………… 3
CONCLUSIÓN……………………………………………………………...20
BIBLIOGRAFÍA…………………………………………………………….21
INTRODUCCIÓN
2
Función objetivo
En esencia la programación lineal consiste en optimizar (maximizar o minimizar) una
función objetivo, que es una función lineal de varias variables:
f(x,y) = ax + by.
Restricciones
La función objetivo está sujeta a una serie de restricciones, expresadas por
inecuaciones lineales:
Cada desigualdad del sistema de restricciones determina un semiplano.
a1x + b1y ≤ c1
… … …
… … …
Solución factible
El conjunto intersección, de todos los semiplanos formados por las
anx + bny ≤cn
restricciones, determina un recinto, acotado o no, que recibe el
nombre de región de validez o zona de soluciones factibles.
4
Solución óptima
El conjunto de los vértices del recinto se denomina conjunto de soluciones factibles
básicas y el vértice donde se presenta la solución óptima se llama solución máxima (o
mínima según el caso).
Entonces la figura 13.7 ilustra que la solución óptima es (*l5 x2 ) = (3,3), que se
encuentra dentro de la frontera de la región factible. (Se puede comprobar que esta
solución es óptima si se usa cálculo para derivarla como un máximo global no
restringido; como también satisface las restricciones, debe ser óptima para el problema
restringido.) Por lo tanto, es necesario que:
6
Un algoritmo general para resolver problemas de este tipo tome en cuenta todas las
soluciones en la región factible, y no sólo aquellas que están sobre la frontera.
Otra complicación que surge en programación no lineal es que un máximo local no
necesariamente es un máximo global (la solución óptima global). Por ejemplo,
considere la función de una sola variable graficada en la figura 13.8. En el intervalo 0
< x < 5, esta función tiene tres máximos locales — x=0,x=2,x=4—pero sólo uno de
éstos—x – 4—es un máximo global. (De igual manera, existen mínimos locales en x =
1,3 y 5, pero sólo x = 5 es un mínimo global.)
Una función de este tipo cuya curvatura siempre es “hacia abajo” (o que no tiene
curvatura) se llama función cóncava. De igual manera, si se sustituye < por >, de
manera que la función tiene siempre una curvatura “hacia arriba” (o no tiene curvatura),
se llama función convexa. (Así, una función lineal es tanto cóncava como convexa.)
En la figura 13.9 se pueden ver ejemplos de esto. Note que la figura 13.8 ilustra una
función que no es cóncava, ni convexa pues alterna sus curvaturas hacia arriba y hacia
abajo.
Las funciones de variables múltiples también se pueden caracterizar como cóncavas
o convexas si su curvatura es siempre hacia abajo o hacia arriba. Estas definiciones
intuitivas se fundamentan en términos precisos que, junto con cierta profundización en
los conceptos.
7
La siguiente es una forma conveniente de verificar esto para una función de más de
dos variables cuando la función consiste en una suma de funciones más pequeñas
cada una de sólo
Una o dos variables. Si cada función más pequeña es cóncava, entonces la función
completa es cóncava. De manera similar, la función completa es convexa si cada
función más pequeña es convexa.
Es la suma de las dos funciones más pequeñas dadas en los paréntesis cuadrados.
La primera función más pequeña 4*! – x\ es una función de la variable x nada más, por
lo que puede verse que es cóncava si se observa que su segunda derivada es
negativa. La segunda función más pequeña (x2 – x¿ )2 es una fimción de x2 y por lo
que se puede aplicar la prueba para funciones de dos variables dada en el apéndice
2. De hecho, este apéndice usa esta función en particular para ilustrar la prueba y
encuentra que la función es cóncava. Como las dos funciones más pequeñas son
cóncavas, la función completa f (jVj ,x2,x3) debe ser cóncava.
8
Si un problema de programación no lineal no tiene restricciones, el hecho de que la
función objetivo sea cóncava garantiza que un máximo local es un máximo global. (De
igual mane-ra, una función objetivo convexa asegura que un mínimo local es un
mínimo global.) Si existen restricciones, entonces se necesita una condición más para
dar esta garantía, a saber, que la región factible sea un conjunto convexo. Un conjunto
convexo es sencillamente un conjunto de puntos tales que, para cada par de puntos
de la colección, el segmento de recta que los une está totalmente contenido en la
colección. Así, la región factible en el problema original de la Wyndor Glass Co. (vea
la figura 13.6 o 13.7) es un conjunto convexo. De hecho, la región factible para
cualquier otro problema de programación lineal es un conjunto convexo. De igual
manera, la región factible de la figura 13.5 también es un conjunto convexo.
En general la región factible para un problema de programación no lineal es un
conjunto convexo siempre que todas las funciones g¡ (x) [para las restricciones g (x) <
b{ ] sean convexas. Para el ejemplo de la figura 13.5, las dos gt (x) son convexas, ya
que gx (x) = x (una función lineal es automáticamente cóncava y convexa) y g2 (x) =
9x\ + 5x\ (tanto 9x\ como 5x2 son funciones convexas, por lo que su suma es una
función convexa). Estas dos funciones convexas g¡ (x) conducen a que la región
factible de la figura 13.5 sea un conjunto convexo.
Ahora se analizará qué pasa cuando sólo una de estas funciones g¡ (x) es una función
concava. En particular, suponga que el único cambio que se hace al ejemplo de la
figura 13.5 es:
OPTIMIZACIÓN NO RESTRINGIDA
Sobre todos los valores x= (x1, x2,…,xn). La condición necesaria para que una
solución específica x = x* sea óptima cuando f(x) es una función diferenciable es:
Cuando f (x) es cóncava, esta condición también es suficiente, con lo que la obtención
de x* se reduce a resolver el sistema de las n ecuaciones obtenidas al establecer las
n derivadas parciales iguales a cero. Por desgracia, cuando se trata de funciones no
lineales f (x), estas ecuaciones suelen ser no lineales también, en cuyo caso es poco
probable que se pueda obtener una solu-ción analítica simultánea.
¿Qué se puede hacer en ese caso? Las secciones 13.4 y 13.5 describen
procedimientos algorítmicos de búsqueda para encontrar x* primero para n = 1 y luego
para n > 1. Estos procedimientos también tienen un papel importante en la solución de
varios tipos de problemas con restricciones, que se describirán en seguida. La razón
es que muchos algoritmos para problemas restringidos están construidos de forma
que se adaptan a versiones no restringidas del problema en una parte de cada
iteración.
para cada j de este tipo. Esta condición se ilustra en la figura 13.11, donde la solución
óptima de un problema con una sola variable es x = 0 aun cuando la derivada ahí es
negativa y no cero. Como este ejemplo tiene una función cóncava para maximizar
11
sujeta a una restricción de no negatividad, el que su derivada sea menor o igual a 0
en # = 0, es una condición necesaria y su-ficiente para que x= 0 sea óptima.
Un problema que tiene algunas restricciones de no negatividad y que no tiene
restricciones funcionales es un caso especial (m = 0) de la siguiente clase de
problemas.
PROGRAMACIÓN CUADRÁTICA
De nuevo los problemas de programación cuadrática tienen restricciones lineales, pero
ahora la función objetivo /(x) debe ser cuadrática. Entonces, la única diferencia entre
éstos y un problema de programación lineal es que algunos términos de la función
objetivo incluyen el cuadrado de una variable o el producto de dos variables.
12
PROGRAMACIÓN CONVEXA
La programación convexa abarca una amplia clase de problemas, entre ellos como
casos especiales, están todos los tipos anteriores cuando /(x) es cóncava. Las
suposiciones son:
f(x) es cóncava.
Cada una de las g(x) es convexa.
PROGRAMACIÓN SEPARABLE
PROGRAMACIÓN NO CONVEXA
PROGRAMACIÓN GEOMÉTRICA
Cuando se aplica programación no lineal a problemas de diseño de ingeniería, muchas
veces la función objetivo y las funciones de restricción toman la forma:
En tales casos, las ci y a ty representan las constantes físicas y las x son las variables
de diseño. Estas funciones por lo general no son ni cóncavas ni convexas, por lo que
las técnicas de programación convexa no se pueden aplicar directamente a estos
problemas de programación geométrica. Sin embargo, existe un caso importante en el
que el problema se puede transformar en un problema de programación convexa
equivalente. Este caso es aquel en el que todos los coeficientes , en cada función son
estrictamente positivos, es decir, las funciones son polinomios positivos generalizados
(ahora llamados posinomiales), y la función objetivo se tiene que minimizar. El
problema equivalente de programación convexa con variables de decisión yx, y2,…,
yn se obtiene entonces al establecer:
PROGRAMACIÓN FRACCIONAL
Suponga que la función objetivo se encuentra en la forma de una fracción, esto es, la
razón o cociente de dos funciones,
Por último, teniendo en cuenta que las dimensiones de la caja no pueden ser
negativas el problema puede expresarse matemáticamente como Maximizar
xyz sujeto a 2 (xy + yz + zx) = A x, y, z ≥ 0.
Fundamentos de Optimización
En este ejemplo se distinguen tres elementos fundamentales: las variables del
problema, una función de esas variables y un conjunto de relaciones que deben
cumplir las variables del problema. Estos elementos se repetirán en todos los
problemas de optimización y se definen formalmente a continuación:
(a) Restricciones de igualdad: Son ecuaciones entre las variables de la forma h (x) =
h (x1,....xn)=0 donde g : A ⊆ Rn → R es una función real de variables reales definida
sobre un conjunto A de números reales.
Una característica de los puntos de inflexión es que son los puntos donde la función
derivada tiene máximos y mínimos. Si nos fijamos, cuando nos acercamos a un punto
de inflexión la función cada vez crece más (o decrece menos), pero al sobrepasar el
punto de inflexión la función empieza a crecer menos (o decrecer menos). Esto
significa que justamente donde haya un punto de inflexión la derivada tendrá un
máximo o un mínimo. Consecuentemente encontraremos los puntos de inflexión
buscando ceros de la segunda derivada.
Vamos a ilustrar el proceso con un ejemplo para así dar una explicación simple y clara:
Consideraremos la función F(x) = x³ - 3x (es la función representada en la anterior
gráfica).
Sabemos ya calcular los máximos y los mínimos de la función f(x) usando la primera
derivada. La expresión de ésta es 3x² - 3 y justamente encontramos máximos y
mínimos respectivamente en x = -14 y x = 1 . Si representamos la gráfica de la
derivada queda:
Los máximos y mínimos en una función f son los valores más grandes (máximos) o
más pequeños (mínimos) que toma la función, ya sea en una región (extremos
relativos) o en todo su dominio (extremos absolutos).
19
CONCLUSIÓN
https://www.gestiondeoperaciones.net/programacion-no-lineal/diferencias-
entre-la-programacion-no-lineal-y-la-programacion-lineal/
http://www.aliat.org.mx/BibliotecasDigitales/economico_administrativo/Investig
acion_de_operaciones/Investigacion_de_operaciones_Parte_2.pdf
http://www.ehu.eus/mae/html/prof/Maria_archivos/plnlapuntes.pdf
https://www.gestiopolis.com/programacion-lineal-en-la-investigacion-de-
operaciones/
https://alejandraarvisu.wordpress.com/3-1-conceptos-basicos-de-problemas-
de-programacion-no-lineal/
https://karenbandala.wordpress.com/unidad-iii/3-2-optimizacion-clasica-
programacion-no-lineal/
https://karenbandala.wordpress.com/unidad-iii/3-3-problemas-no-restringidos-
programacion-no-lineal/
http://operaciongadget.blogspot.com/2017/10/34-optimizacion-clasica.html
http://www.sangakoo.com/es/temas/concavidad-y-convexidad-puntos-de-
inflexion-de-una-funcion
http://nuyoo.utm.mx/~jjf/rna/guia_foe.pdf
http://www.universoformulas.com/matematicas/analisis/maximos-minimos-
funcion/