TesisArias PDF
TesisArias PDF
TesisArias PDF
de complementariedad no lineal
Directora
Dra. Rosana Pérez Mera
Profesora de la Universidad del Cauca
Codirector
Dr. Héctor Jairo Martı́nez Romero
Profesor de la Universidad del Valle
A mi familia por motivar cada uno de mis esfuerzos. A mi padre y a mi madre porque
han hecho posible cada uno de mis sueños. A Isabel por brindarme su amor y su apoyo
incondicional.
A mi directora de tesis, Dra. Rosana Pérez Mera, por el conocimiento que me compartió y
la motivación que me brindó en este arduo camino. Porque con su visión y su experiencia
me guió hacia este logro.
A mi codirector Dr. Héctor Jairo Martinez, por sus aportes e invaluables consejos que
consolidaron esta investigación.
Al Dr. Jhon Jairo Duque Robles y al Mg. Favián Enrique Arenas Aparicio por sus
acertadas sugerencias, fruto de sus conocimientos y su experiencia investigativa.
I
TABLA DE CONTENIDOS
Índice de tablas IV
1. Introducción 1
2. Preliminares 6
3.1. Hipótesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4. Pruebas Numéricas 23
II
TABLA DE CONTENIDOS III
5. Comentarios finales 39
Bibliografı́a 41
ÍNDICE DE TABLAS
IV
CAPÍTULO 1
INTRODUCCIÓN
Sea F : Rn −→ Rn , F (x) = (F1 (x), F2 (x), ..., Fn (x)) , una función no lineal y continua-
mente diferenciable. El Problema de Complementariedad No Lineal (PCNL), consiste en
hallar un vector x ∈ Rn tal que
La tercera condición de (1.1) implica que xi Fi (x) = 0 para i = 1, 2, ..., n y por lo tanto,
xi = 0 o Fi (x) = 0 , siendo esta la razón por la cual el problema recibe el calificativo de
complementariedad. Esta condición trae consigo implı́citamente la búsqueda de un equi-
librio entre la variable del problema y el valor que toma la función que define el problema
en dicha variable. Ası́, el concepto de complementariedad es sinónimo del concepto de
sistema en equilibrio [17].
1
1. Introducción 2
Es por ello que ha sido de gran interés para la comunidad matemática el estudio de
diversos métodos que permitan solucionar el PCNL, entre ellos, métodos de homotopı́a,
que son derivados de métodos de punto fijo [37] [14]; métodos basados en redes neuro-
nales [39][24][25] y métodos de ecuaciones no diferenciables [12][11]. En particular, estos
últimos, consisten en reformular el PCNL como un sistema de ecuaciones no lineales, no
diferenciable, usando para ello una función ϕ : R2 −→ R tal que
ϕ(a, b) = 0 ⇐⇒ a ≥ 0, b ≥ 0, ab = 0 , (1.2)
Observemos que esta familia de funciones incluye la función de Fischer como un caso
particular, cuando λ = 2, y converge a un múltiplo de la función mı́nimo cuando λ
tiende a cero.
entonces un vector x∗ es solución del PCNL, si y solo si, x∗ es solución del sistema de
ecuaciones
Φλ (x) = 0. (1.5)
Como consecuencia de la no diferenciabilidad de ϕλ , el sistema de ecuaciones no lineales
1. Introducción 3
Entre los métodos más populares para resolver sistemas de ecuaciones no lineales dife-
renciables de la forma G(x) = 0, se encuentran el método de Newton [27] y métodos
Cuasi Newton [13]. La principal diferencia entre ellos radica en que en el primero es
necesario calcular, en cada iteración, la matriz jacobiana de G, lo que computacional-
mente resulta costoso, mientras que en el segundo tipo de métodos basta con tomar una
aproximación a dicha matriz, pagando a cambio un cierto precio que se ve reflejado en
una disminución de la velocidad de convergencia del algoritmo respectivo [13].
Usando matrices del conjunto (1.8), Qi [33] propone el llamado método de Newton ge-
neralizado para resolver sistemas de ecuaciones no lineales no diferenciables, el cual, en
cada iteración, resuelve un sistema lineal cuya matriz de coeficientes es una de las matri-
ces del conjunto ∂B G(x). Por otra parte, para problemas de complementariedad no lineal
también se han propuesto métodos cuasi Newton [31][1][6], los cuales han mostrado un
1
Una función G : Rn −→ Rn es Lipschitz continua, si existe una constante positiva K tal que
para todo x y y en Rn
1. Introducción 4
Con el fin de evitar inconvenientes en la elección del punto inicial, los algoritmos locales
son globalizados, es decir, son dotados de un criterio que permite ejecutarlos cuando su
punto inicial está lejos de la solución del problema.
Algunos de esos criterios se basan en ciertas funciones conocidas como funciones de méri-
to [27]. La función de mérito más utilizada en el caso de sistemas de ecuaciones no lineales
de la forma G(x) = 0 , es la función f : Rn −→ R definida por f (x) = kG(x)k22 . Te-
niendo como base esta función, una nueva iteración en un algoritmo global será aceptada
siempre y cuando el valor de la función f decrezca con respecto a la iteración actual del
mismo; este requerimiento conduce a resolver el problema de minimización
1
M inimizar kG(x)k22 (1.9)
x∈R n 2
1
donde el factor 2
es adicionado por conveniencia algebraica.
Cabe destacar que toda solución del sistema de ecuaciones G(x) = 0 es un minimizador
de (1.9), sin embargo, pueden existir soluciones locales de (1.9) que no son soluciones del
sistema de ecuaciones no lineales asociado.
Teniendo en cuenta lo anterior y con el fin de globalizar algún método tipo Newton que
busque hallar una solución del sistema de ecuaciones no lineales (1.5), recurriendo al
jacobiano generalizado de Φλ , se puede hacer uso de una función de mérito asociada a
este sistema. En efecto, para tal fin basta considerar Ψλ : Rn −→ R , definida por
1 1
Ψλ (x) = Φλ (x)T Φλ (x) = kΦλ (x)k22 . (1.10)
2 2
Observemos que Ψλ es continuamente diferenciable (Teorema 3.1 en [21] y Proposición
3.4 en [15]). Con esta función de mérito, podemos reformular nuevamente el sistema de
ecuaciones no lineales, no diferenciable (1.5) como el siguiente problema de minimización
1. Introducción 5
diferenciable
En [21], los autores proponen un algoritmo global tipo Newton generalizado para resolver
el problema de minimización (1.11). Recientemente, en [1], el autor propone un algoritmo
cuasi Newton local que permite resolver el PCNL recurriendo al sistema de ecuaciones
(1.5) y deja abierta la posibilidad de introducir estrategias de globalización para mejorar
el desempeño de su algoritmo.
Teniendo en cuenta lo anterior y pensando en las limitaciones que puede tener un al-
goritmo local, en este trabajo de investigación, proponemos un algoritmo cuasi Newton
global para resolver el PCNL a través de la minimización de la función de mérito (1.10),
es decir, proponemos una globalización del algoritmo presentado en [1], usando ideas
del algoritmo expuesto en [21]. Desarrollamos su teorı́a de convergencia global y rea-
lizamos pruebas numéricas preliminares que muestran un buen desempeño del mismo.
Adicionalmente, analizamos numéricamente el comportamiento del algoritmo propuesto
cuando cambiamos la búsqueda lineal estándar, por una búsqueda lineal no monótona
[20]. También incluimos una exploración preliminar de la variación del parámetro λ y
su impacto en la convergencia global de nuestro algoritmo
PRELIMINARES
En este capı́tulo, presentamos algunas definiciones y resultados teóricos que han sido
demostrados previamente por algunos autores y que serán útiles en el desarrollo de
nuestra investigación.
x∗ ≥ 0 F (x∗ ) ≥ 0 F (x∗ )T x∗ = 0.
6
2. Preliminares 7
p
Gλ (a, b) = (a − b)2 + λab , (2.2)
es decir,
2(a − b) + λb −2(a − b) + λa
χ(a, b) = y ψ(a, b) = · (2.3)
2Gλ (a, b) 2Gλ (a, b)
Además, teniendo en cuenta la forma de las matrices H ∈ ∂Φλ (x) dada en (2.1), el
autor de [1] propone aproximaciones cuasi Newton de dichas matrices de la forma
[B]1
B = ... (2.4)
[B]n
2. Preliminares 8
con
T
(χ(xi , Fi (x)) − 1)ei + (ψ(xi , Fi (x)) − 1)[A]i ,
i 6∈ β
[B]i =
(χ(zi , [A]i z) − 1)eTi + (ψ(zi , [A]i z) − 1)[A]i , i∈β
donde la matriz
[A]1
A = ... (2.5)
[A]n
Con respecto a las derivadas parciales dadas en (2.3), cabe destacar que, para cualquier
vector no nulo (a, b ), estas derivadas están acotadas de la siguiente forma [1][21]:
√
|χ(a, b)| ≤ 1 y |ψ(a, b)| ≤ 2. (2.6)
Con base en estas consideraciones, en [1], el autor propone un algoritmo cuasi Newton
local para resolver el PCNL a través su reformulación como el sistema de ecuaciones
no lineales, no diferenciable (1.5), cuya forma genérica presentamos a continuación ya
que nuestro interés es introducir en dicho algoritmo una estrategia de globalización que
permita obtener un nuevo algoritmo cuasi Newton global para resolver el PCNL.
Por otra parte, en [1], se demuestra que la distancia entre una matriz H y su respectiva
aproximación B está acotada por un valor constante y, que bajo ciertas condiciones, la
matriz B de la forma (2.4) es no singular. Formalmente, los resultados son los siguientes
Teorema 2.1. [1] Sean x∗ una solución del PCNL; F : Rn −→ Rn , una función de
clase C 1 cuya matriz jacobiana es Lipschitz continua, y δ constantes positivas dadas;
2. Preliminares 9
kH − Bk∞ ≤ θ.
Teorema 2.2. [1] Sean x∗ una solución del PCNL y B la matriz definida por (2.4).
Existen constantes positivas 0 y δ0 tales que si
kx − x∗ k∞ ≤ 0 y kA − F 0 (x∗ )k∞ ≤ δ0 ,
Teorema 2.3. [21] Si x∗ ∈ Rn es una solución R-regular del PCNL, entonces las
matrices en el jacobiano generalizado ∂Φλ (x∗ ) son no singulares.
Corolario 2.1. Si x∗ es una solución R-regular del PCNL, entonces x∗ es una solución
BD-regular.
Demostración. Supongamos que x∗ es una solución R-regular del PCNL. Por hipótesis
y el Teorema 2.3, todas la matrices de ∂Φλ (x∗ ) son no singulares. Por otra parte, de
(1.8) tenemos que
∂Φλ (x∗ ) = conv {∂B Φλ (x∗ )},
con lo cual
∂B Φλ (x∗ ) ⊆ ∂Φλ (x∗ ).
Ası́, si H ∈ ∂B Φλ (x∗ ), entonces H ∈ ∂Φλ (x∗ ) y por lo tanto, es no singular. En
consecuencia, x∗ es una solución BD-regular del PCNL.
Las dos definiciones siguientes son útiles para la presentación del Teorema 2.4, cuya
demostración se puede consultar en [16].
Hd − G0 (x ; d) = o(kdk).
Teorema 2.5. [12] Sean F : Rn −→ Rn , F (x) = (F1 (x), F2 (x), . . . , Fn (x)) una función
no lineal y continuamente diferenciable, Φλ la función dada en (1.4) asociada a F y
Ψλ la función de mérito (1.10) asociada a Φλ . Si para todo i = 1, 2, . . . , n, la función
Fi es de clase SC 1 , entonces Ψλ es también de clase SC 1 .
Teorema 2.6. [21] Para cualquier matriz H ∈ ∂Φλ (x), la función de mérito Ψλ dada
en (1.10) es continuamente diferenciable y
ALGORITMO Y TEORÍA DE
CONVERGENCIA
En este capı́tulo, proponemos un nuevo algoritmo cuasi Newton global para resolver
el PCNL indirectamente, a través de la solución del problema de minimización (1.11).
Además, para este algoritmo, desarrollamos su teorı́a de convergencia global.
12
3. Algoritmo y Teorı́a de Convergencia 13
P.0 Inicialización
Escoja λ ∈ (0, 4), x0 ∈ Rn , ρ > 0, µ ∈ (0, 1), σ ∈ (0, 21 ), p > 2, ε ≥ 0, N > 0 y haga
k := 0 y A0 = F 0 (x0 ).
P.4 Actualización
y su cambio, medido en alguna norma, con respecto a la matriz Ak , debe ser mı́nimo.
Ejemplos de este tipo de actualizaciones son las siguientes:
(yk − Bk sk )sTk
Ak+1 = Ak + · (3.4)
sTk sk
(yk − Bk sk )eTjk Bk
Ak+1 = Ak + (3.5)
eTjk Bk sK
F (xk )sTk
Ak+1 = Ak + (3.6)
sTk sk
Por el Teorema 2.6, para calcular el gradiente de la función Ψλ en cada iteración nece-
sitarı́amos las matrices Hk en el jacobiano generalizado de Φλ en xk , como alternativa
a dicho cálculo proponemos realizar una aproximación a dicho gradiente, esta aproxima-
ción, que denotaremos ∇Ψλ (xk ), requiere de las matrices Bk definidas en (2.4) y de la
evaluación de la función Φλ en xk , explı́citamente, proponemos la siguiente aproxima-
ción a ∇Ψλ (xk ),
∇Ψλ (xk ) = BkT Φλ (xk ). (3.7)
A continuación presentamos las hipótesis bajo las cuales desarrollamos la teorı́a de con-
vergencia global del Algoritmo 3.1.
3.1. Hipótesis 15
3.1. Hipótesis
A continuación, presentamos dos lemas que serán útiles en la demostración de los teo-
remas de convergencia del Algoritmo 3.1. En el primero de ellos, probamos que bajo
ciertas condiciones, la norma de las matrices que aproximan a las respectivas matrices
del jacobiano generalizado de Φλ , es acotada. Cabe mencionar que, en nuestra demostra-
ción, hacemos uso de la norma infinito para vectores y su respectiva norma inducida para
matrices [32]; sin embargo, teniendo en cuenta que las normas en Rn son equivalentes,
el resultado probado es independiente de la norma usada. En el segundo lema, probamos
una equivalencia entre el gradiente de la función de mérito Ψλ y la aproximación a este
que proponemos en (3.7).
Lema 3.1. Sean B como en (2.4) y δ > 0. Para toda matriz A ∈ B(F 0 (x∗ ); δ), existe
una constante η tal que
kBk ≤ η. (3.8)
además,
3.2 Resultados de Convergencia 16
Lema 3.2. Si ∇Ψλ (xk ) es la aproximación a ∇Ψλ (xk ) dada en (3.7), entonces
Por el Teorema 2.1, para un k suficientemente grande, existe una constante θ tal que
kHk − Bk k∞ ≤ θ , en consecuencia
de donde,
|∇Ψλ (xk )T dk − ∇Ψλ (xk )T dk | n θ kΦλ (x k )k∞
0≤ 2
≤ ,
kdk k∞ kdk k∞
3.2 Resultados de Convergencia 17
por lo tanto, teniendo en cuenta que con el Algoritmo 3.1 se busca minimizar la
función de mérito Ψλ y que dk es una dirección de descenso, podemos inferir que
aunque la sucesión {kdk k} converja a cero, la sucesión {kΦλ (xk )k} lo hará más rápido,
en consecuencia
|∇Ψλ (xk )T dk − ∇Ψλ (xk )T dk |
lı́m =0
k→∞ kdk k2∞
lo que demuestra (3.10).
Los siguientes teoremas de convergencia son análogos a los presentados para un método
tipo Newton (no suave) que busque resolver PCNL.
Teorema 3.1. Todo punto de acumulación de la sucesión {xk } generada por el Algo-
ritmo 3.1 es un punto estacionario de Ψλ .
m ≤ kdk k ≤ M. (3.13)
En efecto, de (3.12)
kΦλ (xk )k ≤ kBk kkdk k
de donde
kΦλ (xk )k
≤ kdk k
kBk k
por tanto, si la sucesión {dk } converge al vector cero, entonces la sucesión {kΦλ (xk )k}
converge a cero ya que, por el Lema 3.1, kBk k es acotada para todo k , en consecuencia,
la sucesión {Φλ (xk )} converge al vector cero, luego ∇Ψλ (xk ) también converge al vector
3.2 Resultados de Convergencia 18
∇Ψλ (x∗ ) = 0,
lo que contradice nuestro supuesto. Es decir, existe una constante positiva m tal que
m ≤ kdk k.
Por otra parte, si kdk k no es acotada superiormente, teniendo en cuenta que ∇Ψλ (xk )
es acotado y que p ≥ 2, entonces
∇Ψλ (xk )T dk
lı́m =0
k→∞ kdk kp
Esto significa que existe una constante positiva M tal que kdk k ≤ M .
tk dk → 0. (3.15)
Ası́, de (3.16), si k → ∞
σ ≥ 1,
la sucesión {dk } converge al vector cero y por lo tanto, la sucesión {kdk k} converge a
cero, lo cual contradice el hecho que ∇Ψλ (x∗ ) 6= 0. En conclusión, ∇Ψλ (x∗ ) = 0.
B(x∗ ; δ) ∩ Ω = {x∗ }.
Ahora, si
∗ δ
Λ= k ∈ N : kxk − x k ≤ ,
4
3.2 Resultados de Convergencia 20
{kΨ(xk )k}Λ converge a cero, lo que a su vez, por (3.14) y (3.10) implica que la sucesión
{dk } converge al vector cero. Ası́, existe e
k tal que si k ∈ Λ y k ≥ e
k ≥ k entonces
δ
kdk k ≤ ·
4
k ∈ Λ tal que b
Sea b k≥e
k , observemos que
El siguiente resultado muestra que existe un entero positivo k tal que para todo k > k, el
Algoritmo 3.1 tiene un comportamiento local idéntico al del Algoritmo 4.1 propuesto
en [1] lo que nos permitirá garantizar una tasa de convergencia similar a la obtenida
para dicho algoritmo. Cabe mencionar que si x∗ es R-regular, la hipótesis H3 en [1] es
inmediatamente satisfecha (teorema 2.3).
3.2 Resultados de Convergencia 21
Por otra parte, por el Teorema 2.2, para algún k suficientemente grande, la matriz
Bk−1 existe y por lo tanto, el sistema de ecuaciones
Bk dk = −Φλ (xk )
Ahora, por el Lema 3.2, el Teorema 2.4 y teniendo en cuenta que Ψλ es una función
3.2 Resultados de Convergencia 22
1
de clase SC 1 , se tiene que para cualquier σ ∈ 0, 2
existe k tal que para todo k > k
PRUEBAS NUMÉRICAS
P.0 Inicialización:
Escoja λ ∈ (0, 4), x0 ∈ Rn , ρ > 0, µ ∈ (0, 1), σ ∈ (0, 21 ), p > 2, ε ≥ 0, N > 0 y haga
k := 0.
23
4. Pruebas numéricas 24
Hk dk = −Φλ (xk ).
Si este sistema no tiene solución o si ∇Ψλ (xk )T dk > −ρkdk kp haga dk := −∇Ψλ (xk ).
P.4 Actualización:
Como se puede ver, este algoritmo usa en cada iteración las matrices Hk ∈ ∂Φλ (x) . Es
básicamente en esta etapa donde radica su diferencia con el Algoritmo 3.1 que propo-
nemos en el capı́tulo anterior, ya que en lugar de calcular dichas matrices, calculamos
aproximaciones a ellas como la dada en (2.4). De (2.7) y por lo mencionado anteriormen-
te, es imposible calcular el gradiente de la función de mérito Ψλ en cada iteración con
el Algoritmo 3.1, motivo por el cual precisamente, proponemos la aproximación (3.7)
a dicho gradiente para ser usada en nuestro algoritmo.
Finalmente, teniendo en cuenta el buen desempeño local que han mostrado los algoritmos
de complementariedad que usan la función mı́nimo y el buen desempeño global que han
mostrado los algoritmos de complementariedad que usan la función de Fischer [31] [21],
en la tercera parte de este capı́tulo realizamos una exploración numérica preliminar del
comportamiento del Algoritmo 3.1 al variar el parámetro inicial λ que define la función
4. Pruebas numéricas 25
x∗ = (a 0 0 0 ),
Estos problemas, tomados de [28] y [3], son considerados problemas difı́ciles en cuanto a
su convergencia y por ello, de uso obligado para probar algoritmos de complementariedad
no lineal. Cabe destacar que los problemas de Kojima Shindo (aplicación en Economı́a al
problema de equilibrio económico [22]), Kojima Josephy y Mathiesen Modificado (apli-
cación al problema de equilibrio económico walrasiano [26]) son analizados localmente
en [1]. Además, es de subrayar que el problema de Billups fue construido por Billups [3]
con el objetivo de hacer que los métodos usados para resolverlo fallen [21], es decir, es
un problema de alta exigencia en cuanto a su convergencia.
Para escribir los códigos de los algoritmos y de las funciones de prueba, utilizamos el soft-
ware Matlabr y realizamos las pruebas numéricas en un computador con procesador
Intel(R) Atom(TM) de 1.67 GHz.
En la implementación de los Algoritmos 3.1 y 4.1, para cada problema, usamos como
puntos iniciales los utilizados en [21] para sus pruebas. Además, usamos los siguientes
valores para los parámetros requeridos
De igual forma, teniendo en cuenta los resultados presentados en [21], el buen desempeño
que ha mostrado la función de Fischer cuando se ejecutan algoritmos iterativos con
puntos iniciales alejados de la solución y la eficiencia local de la función mı́nimo para
este tipo de algoritmos, implementamos una escogencia dinámica para el parámetro λ,
el cual se actualiza en cada iteración de la siguiente manera:
1. Escoja λ = 2
2. Si Ψλ (xk ) ≤ γ1
λ := Ψλ (xk ),
si no,
λ := mı́n{c1 Ψ(xk ), λ}
3. Si Ψ(xk ) ≤ γ2 ,
λ := mı́n{c2 , λ}
donde
γ1 = 10−2 , γ2 = 10−4 , c1 = 10, c2 = 10−8 .
Esta elección del parámetro λ permite que los algoritmos realicen sus primeras iteracio-
nes usando la función de complementariedad de Fischer [19][18], la cual ha mostrado un
4.1. Pruebas con los Algoritmos 3.1 y 4.1 27
mejor comportamiento cuando el punto inicial en los algoritmos está alejado de la solu-
ción y culmine su ciclo con funciones de complementariedad que tienden a ser múltiplos
de la función mı́nimo [34][29], la cual ha mostrado un buen desempeño local [34].
Presentamos los resultados de las pruebas numéricas en tablas cuyas columnas contienen
la siguiente información:
Por otra parte, los resultados muestran el buen desempeño que tiene el Algoritmo 3.1
cuando se utiliza la actualización de Broyden “buena” pues convergió para un 93 % de los
problemas y puntos iniciales, sin contar los resultados obtenidos al resolver el problema
de Billups, pues en este caso, el Algoritmo 4.1 divergió, entre tanto, el Algoritmo 3.1
convergió.
P.0 Inicialización
Escoja λ ∈ (0, 4), x0 ∈ Rn , ρ > 0, µ ∈ (0, 1), σ ∈ (0, 12 ), p > 2, ε ≥ 0, N > 0 s > 0,
M > 0 y haga k = 0 mk = 0 y A0 = F 0 (x0 )
Bk dk = −Φλ (xk ).
Si k ≤ s o dk = −BkT Φλ (xk ),
haga mk = 0
si no
haga mk = mı́n{mk−1 + 1, M }
Calcule
Rk = máx Ψλ (xj )
k−mk ≤j≤k
P.4 Actualización
Cabe destacar que con la búsqueda lineal no monótona usada en el Algoritmo 4.2, es
posible comparar el valor que toma la función a minimizar en la iteración actual con el
máximo valor que toma la función en alguna iteraciones anteriores con el fin de seleccionar
el tamaño del paso, es decir, es posible que la función no decrezca entre dos iteraciones
consecutivas. El número de iteraciones anteriores con la cuales se puede comparar el valor
de la función en la iteración actual depende del parámetro M, por lo tanto, si M = 0
tendremos una búsqueda lineal monótona. De igual manera, el parámetro s indica el
número de iteraciones iniciales con las que el Algoritmo 4.2 realizará una búsqueda
lineal monótona.
Siguiendo la propuesta hecha en [21], decidimos comparar el valor que toma la función
de prueba en la iteración actual hasta con ocho de las iteraciones inmediatamente an-
teriores, es decir, tomamos M = 8, además, pedimos al Algoritmo 4.2 que realizara
una búsqueda lineal monótona sólo en la primera iteración, es decir, tomamos s = 1.
Los resultados obtenidos se muestran en la siguiente tabla.
4.2 Búsqueda lineal no monótona 32
A continuación, presentamos algunos resultados relevantes, para los cuales cabe mencio-
nar que tomamos s = 1.
Esto en primera instancia nos permite, hipotéticamente, deducir que usar la búsqueda
lineal no monótona con 5 ≤ M ≤ 10 es una buena opción cuando el Algoritmo 3.1 no
converja, sin embargo, en caso que este algoritmo converja, en general lo hará un poco
más rápido que si se usa la búsqueda lineal no monótona, ası́ el número de iteraciones
realizadas por los dos algoritmos sea el mismo.
Estos resultados nos permiten ratificar las conclusiones realizadas por Grippo, Lampa-
riello y Lucidi en [20], pues los mejores resultados se obtienen para s entre 3 y 5, es
decir, el Algoritmo 4.2 presenta un mejor desempeño si se realizan entre tres y cinco
iteraciones iniciales usando una búsqueda lineal monótona.
4.3. Variación del parámetro λ 36
Teniendo en cuenta el buen desempeño local que presentan los algoritmos de complemen-
tariedad que hacen uso de la función mı́nimo y el buen desempeño global que presentan
los algoritmos de complementariedad que hacen uso de la función de Fischer, realiza-
mos una exploración numérica al variar el parámetro inicial λ en el Algoritmo 3.1.
Recordemos que la función de complementariedad dada en (1.3) es idéntica a la función
de Fischer si su parámetro λ es igual a dos y converge a un múltiplo de la función
mı́nimo si λ converge a cero, por lo tanto, hemos decidido tomar valores aleatorios para
el parámetro inicial λ iniciando en uno y haciendo incrementos de 0.1 unidades hasta
tres.
En la siguiente tabla mostramos los resultados obtenidos para algunos de los problemas
analizados anteriormente.
Estos resultados sugieren una elección del parámetro λ entre uno y dos, pues en este
rango convergió el algoritmo con mayor frecuencia, aunque en general no lo hizo más
rápido que para valores de λ mayores que dos. Un dato que ratifica nuestras observa-
ciones y que no está condensado en la Tabla 4.5 es el comportamiento del Algoritmo
3.1 al resolver problema de Kojima Shindo cuando se tomó como punto inicial el punto
(100 100 100 100), ya que bajo estas condiciones, convergió solo para λ = 1.1, para los
demás valores el algoritmo divergió.
Cabe destacar que la variación del parámetro λ es sólo una experiencia numérica y
por tanto, deja las puertas abiertas para futuras investigaciones en algoritmos que usen
funciones de complementariedad.
CAPÍTULO 5
COMENTARIOS FINALES
En este trabajo, propusimos un algoritmo cuasi Newton global que permite resolver el
PCNL y que puede ser útil, en primer lugar, cuando la matriz jacobiana de la función que
define el problema es costosa de calcular y en segundo lugar, cuando el usuario no tiene
información de la posible solución del problema. Para dicho algoritmo desarrollamos la
teorı́a de convergencia global y demostramos que después de algunas iteraciones, este
tiene una tasa de convergencia idéntica a la del algoritmo local propuesto en [1].
39
5. Comentarios Finales 40
Además, las variaciones realizadas a nuestro algoritmo nos permitieron formular conclu-
siones a priori sobre el desempeño del mismo, por lo tanto, creemos conveniente realizar
más pruebas numéricas que consideren dichas variaciones. De igual forma, creemos ne-
cesario incorporar estrategias que permitan elegir el parámetro inicial λ con el objetivo
de mejorar la efectividad en cuanto a convergencia del algoritmo.
BIBLIOGRAFÍA
[1] Favian E. Arenas, Métodos secantes de cambio mı́nimo para el problema de comple-
mentariedad no lineal, Tesis de Maestrı́a, Universidad del Cauca, 2013.
[2] Dimitri Bertzekas, Constrained optimization and lagrange multiplier methods, At-
hena Scientific, 1996.
[3] Stephen C. Billups, Algorithms for complementarity problems and Generalized Equa-
tions, Ph.D. thesis, University of Wisconsin, 1995.
[4] Peter N. Brown and Youcef Saad, Convergence theory of nonlinear newton-krylov
algorithms, SIAM Journal on Optimization 4 (1994), no. 2, 297–330.
[5] Charles G. Broyden, A Class of Methods for Solving Nonlinear Simultaneous Equa-
tions, Mathematics of Computation 19 (1965), no. 92, 577–593.
[6] Sandra Buhmiler and Nataža Krejić, A new smoothing quasi-newton method for
nonlinear complementarity problems, Journal of Computational and Applied Mat-
hematics 211 (2008), no. 2, 141 – 155.
[7] Frank H. Clarke, Necessary Conditions for Nonsmooth Problems in Optimal Control
and the Calculus of Variations, Ph.D. thesis, University of Washington, 1973.
[8] Frank H. Clarke, Generalized gradients and applications, Transactions of the Ame-
rican Society 205 (1975), 247–262.
41
BIBLIOGRAFÍA 42
[10] Thomas F. Coleman, Burton S. Garbow, and Jorge J. More, Software for estimating
sparse jacobian matrices, ACM Trans. Math. Softw. 10 (1984), no. 3, 329–345.
[11] Tecla De luca, Francisco Facchinei, and Kanzow Christian, A theorical and nu-
merical comparison of some semismooth algorithms for complementarity problems,
Mathematical Programming (1997), 1 – 34.
[12] Tecla De Luca, Francisco Facchinei, and Christian Kanzow, A semismooth equa-
tion approach to the solution of nonlinear complementarity problems, Mathematical
Programming 75 (1996), 407–439.
[13] John E. Dennis and Robert B. Schnabel, Numerical methods for unconstrained opti-
mization and nonlinear equations, Society for Industrial and Applied Mathematics,
1996.
[14] Jundi Ding and Hongyou Yin, A new homotopy method for solving non-linear com-
plementarity problems, Numerical Mathematics 16 (2007), 155–163.
[15] F. Facchinei and J. Soarez, A new merit function for nonlinear complementarity
problems and a related algorithm, SIAM 7 (1997), 225–247.
[16] Francisco Facchinei, Minimization of SC 1 functions and the maratos effect, Opera-
tions research letters 23 (1994), no. 17, 131–137.
[17] Michael C. Ferris and Jong-Shi Pang, Engineering and economic applications of
complementarity problems, SIAM Review 39 (1997), 669–713.
[19] Andreas Fischer and Christian Kanzow, On finite termination of an iterative method
for linear complementarity problems, Math. Program. 74 (1996), no. 3, 279–292.
[20] L. Grippo, F. Lampariello, and S Lucidi, A nonmonotone line search technique for
newton’s method, SIAM 23.
[21] Christian Kanzow and Helmut Kleinmichel, A new class of semismooth newton-type
methods for nonlinear complementarity problems, Comput. Optim. Appl. 11 (1998),
no. 3, 227–251.
[22] Masakazu Kojima and Susumu Shindoh, Extensions of newton and quasi-newton
methods to systems of P C 1 equations, Research reports on information sciences,
Inst. of Technology, Department of Information Sciences, 1986.
BIBLIOGRAFÍA 43
[24] Li-Zhi Liao and Houduo Qi, A neural network for the linear complementarity pro-
blem, Math. Comput. Model. 29 (1999), 9 – 18.
[25] Li-Zhi Liao, Houduo Qi, and Liqun Qi, Solving nonlinear complementarity problems
with neural networks, Comput. Appl. Math. 131 (2001), 343 – 359.
[27] Jorge Nocedal and Wright Stephen J., Numerical optimization, Springer Series in
Operations Research, 2000.
[28] Jong-Shi Pang and Steven A. Gabriel, A robust algorithm for the nonlinear comple-
mentarity problem, Mathematical Programming 60 (1993), 295–337.
[29] Jong-Shi Pang and Liqun Qi, Nonsmooth equations: Motivation and algorithms,
SIAM Journal on Optimization 3 (1993), no. 3, 443–465.
[30] Rosana Pérez and Vera Lucı́a Rocha, Recent applications and numerical implementa-
tion of quasi-newton methods for solving nonlinear systems of equations, Numerical
Algorithms 35 (2004), 261–285.
[31] Rosana Pérez M., Algoritmos para complementariedade não lineal e problemas re-
lacionados, Ph.D. thesis, IMECC, UNICAMP, Campinas, Brazil, 1997.
[32] Rosana Pérez M. and Diaz V. Tomás H., Minimización sin restricciones, Universi-
dad del Cauca, 2010.
[33] Liqun Qi, Convergence analysis of some algorithms for solving nonsmooth equations,
Math. Oper. Res. 18 (1993), no. 1, 227–244.
[34] Vera Lucia Rocha, Jose M. Martı́nez, and Rosana Pérez, On the local convergence
of quasi-newton methods for nonlinear complementary problems, Applied Numerical
Mathematics 30 (1999), 3–22.
[35] Jhon Glen Wardrop, Some theoretical aspects of road traffic research, Proceeding of
the Institute of Civil Engineers (1952), 325 – 378.
[36] David Watkins, Fundamentals of matrix computations, John Wiley and Sons, 2002.
BIBLIOGRAFÍA 44
[37] Qing Xu and Chuangyin Dang, A new homotopy method for solving non-linear
complementarity problems, Optimization 57 (2008), no. 5, 681–689.
[38] Longquan Yong, Nonlinear complementarity problem and solution methods, Procee-
dings of the 2010 International Conference on Artificial Intelligence and Compu-
tational Intelligence: Part I, Springer-Verlag, 2010, pp. 461–469.
[39] Xia Youshen and Feng Gang, A neural network for solving nonlinear projection
equations, Neural Networks 5 (2007), 577 – 589.