Optimisation Et Analyse Convexe
Optimisation Et Analyse Convexe
Optimisation Et Analyse Convexe
com
L3M1
Optimisation
et analyse convexe
EXERCICES CORRIGÉS
Jean-Baptiste Hiriart-Urruty
Retrouver ce titre sur Numilog.com
OPTIMISATION
ET
ANALYSE CONVEXE
Exercices et problèmes corrigés,
avec rappels de cours
Jean-Baptiste Hiriart-Urruty
Imprimé en France
ISBN : 978-2-7598-0373-6
Tous droits de traduction, d’adaptation et de reproduction par tous procédés réservés pour tous
pays. Toute reproduction ou représentation intégrale ou partielle, par quelque procédé que ce soit, des
pages publiées dans le présent ouvrage, faite sans l’autorisation de l’éditeur est illicite et constitue une
contrefaçon. Seules sont autorisées, d’une part, les reproductions strictement réservées à l’usage privé
du copiste et non destinées à une utilisation collective, et d’autre part, les courtes citations justifiées
par le caractère scientifique ou d’information de l’œuvre dans laquelle elles sont incorporées (art. L.
122-4, L. 122-5 et L. 335-2 du Code de la propriété intellectuelle). Des photocopies payantes peuvent
être réalisées avec l’accord de l’éditeur. S’adresser au : Centre français d’exploitation du droit de copie,
3, rue Hautefeuille, 75006 Paris. Tél. : 01 43 26 95 35.
c 2009, EDP Sciences, 17, avenue du Hoggar, BP 112, Parc d’activités de Courtabœuf,
91944 Les Ulis Cedex A
Retrouver ce titre sur Numilog.com
Introduction v
Abréviations et notations ix
Sources 323
Index 331
iv
Retrouver ce titre sur Numilog.com
INTRODUCTION
Toulouse, 1989–1997
J.-B. Hiriart-Urruty
vi
Retrouver ce titre sur Numilog.com
Introduction
Depuis sa publication il y a dix ans (en mars 1998), cet ouvrage a subi les vicis-
situdes d’un document de formation destiné à un public (d’étudiants en sciences)
en nette diminution. Il a été traduit en russe par des collègues de Kiev (Ukraine)
en 2004, mais la version française originelle n’est plus disponible depuis 2006.
Ainsi, pour répondre à une demande de collègues et étudiants, un nouveau tirage
a été envisagé. Je remercie les éditions EDP Sciences, notamment mon collègue
D. Guin (directeur de la collection Enseignement Sup – Mathématiques), d’avoir
accueilli ce projet. Aude Rondepierre a donné un coup de main pour reprendre
les fichiers informatiques anciens ; qu’elle soit remerciée de sa bonne volonté et
efficacité.
vii
Retrouver ce titre sur Numilog.com
ABRÉVIATIONS ET NOTATIONS
R+ ∗
∗ , R+ ou ]0, +∞[ : ensemble des réels strictement positifs.
+
u : partie positive du réel u.
x = (x1 , . . . , xn ) ou x = (ξ1 , . . . , ξn ) : notation générique pour un vecteur
de Rn .
u+ signifie (u+ +
1 , . . . , un ) lorsque u = (u1 , . . . , un ) ∈ R .
n
·, · , ·, ·
, (· | ·) : notations utilisées pour les produits scalaires (dans
des espaces euclidiens). Sauf indication contraire,
·, · désigne dans Rn le produit
scalaire usuel (celui qui à x = (ξ1 , . . . , ξn ) et y = (η1 , . . . , ηn ) associe
x, y :=
n
ξi ηi , soit encore x y (cf. supra)). Bien des problèmes d’optimisation se posent
i=1
dans des espaces de matrices : si X := Mm,n (R), le produit scalaire standard sur
X est défini par M, N
:= tr (M N ).
x
Retrouver ce titre sur Numilog.com
Abréviations et notations
l∗ (y), x
=
y, l(x) pour tout (x, y) ∈ E × F.
Si l’on représente l’ensemble des formes linéaires sur E par E via le produit
scalaire ·, ·
(idem pour F ), prendre l’adjointe de l ou sa transposée revient
au même. Lorsque E et F sont munies de bases orthonormales (comme c’est le
cas des espaces euclidiens (Rn ,
·, ·) munies de leurs bases canoniques), la matrice
représentant l’adjointe de l (= sa transposée) dans ces bases est la transposée de
la matrice représentant l.
· : norme dans un espace vectoriel normé X. Si X est muni d’un produit
scalaire
·, · (exemples typiques : Rn , Mm,n (R)), et en l’absence d’autres pré-
cisions, · désignera la norme dérivée du produit scalaire (i.e. · =
·, ·).
Lorsqu’interviennent à la fois des normes de vecteurs et de matrices, on évite les
confusions en utilisant · pour les vecteurs et ||| · ||| pour les matrices).
◦
int S ou S : intérieur de S ; S : adhérence de S ;
fr S : frontière de S.
B(x, r) : boule fermée de centre x et de rayon r.
Δn : simplexe-unité de Rn , c’est-à-dire l’ensemble des (α1 , . . . , αn ) ∈ Rn tels
que α1 + . . . + αn = 1 et αi 0 pour tout i (coefficients qui servent dans la prise
de combinaisons convexes).
xi
Retrouver ce titre sur Numilog.com
I
RÉVISION DE BASES : CALCUL
DIFFÉRENTIEL, ALGÈBRE LINÉAIRE
ET BILINÉAIRE
Rappels
I.1. Algèbre linéaire et bilinéaire
Sx, x
Sx, x
λmax (S) = max , λmin (S) = min ·
x = 0 x 2 x = 0 x 2
Sn (R) est muni de l’ordre (partiel) suivant : A B dans Sn (R) lorsque A − B est
semi-définie positive (A − B ∈ Pn (R)).
◦
Si X ∈ Pn (R), la racine carrée positive de X (notée X 1/2 ) est l’unique S ∈
◦
Pn (R) telle que S 2 = X. L’application X −→ X 1/2 a des propriétés similaires
à celles de la fonction racine carrée sur R+
∗ ; prudence tout de même... Mêmes
remarques pour l’application X −→ X −1 .
Si K est un cône convexe fermé d’un espace euclidien (E,
·, ·), le cône polaire
◦
K de K est le cône convexe fermé de E défini comme suit :
K ◦ := {s ∈ E |
s, x 0 pour tout x ∈ K}.
2
Retrouver ce titre sur Numilog.com
f est dite strictement convexe sur C quand l’inégalité (1.4) est stricte dès que
x = x . Une propriété encore plus forte est comme suit : f est dite fortement
convexe sur C, de module de forte convexité c > 0, lorsque
1
f αx + (1 − α) x αf (x) + (1 − α) f (x ) − c α (1 − α) x − x 2 (1.5)
2
pour tout (x, x ) ∈ C × C et tout α ∈ ]0, 1[ .
Rappelons deux résultats essentiels :
f (x) f (x) +
∇f (x) , x − x pour tout (x, x) ∈ C × C ; (1.6)
3
Retrouver ce titre sur Numilog.com
(ii) f est strictement convexe sur C si et seulement si l’inégalité (1.6) est stricte
dès que x = x ;
∇2 f (x) d, d c d 2 pour tout x ∈ O et tout d ∈ Rn .
Références. Parmi les exercices de [15] figurent des applications simples à l’Ana-
lyse numérique matricielle et l’Optimisation. Outre les références suggérées en
pp. 305 307 de [15] (et rééditées à présent), signalons [16], ouvrage complet et très
diffusé, dans lequel l’aspect matriciel (celui qui prévaut dans les applications) est
privilégié.
Pour les fonctions convexes différentiables, on pourra consulter [12], Cha-
pitre IV, Section 4, par exemple.
Montrer qu’alors
L
|f (x + d) − f (x) −
∇f (x), d| d 2 pour tout (x, d) ∈ Rn × Rn .
2
4
Retrouver ce titre sur Numilog.com
y = f (x0 ) +
∇f (x0 ), x − x0 .
Un vecteur normal à cet hyperplan est fourni par (∇f (x0 ), −1) ∈ Rn × R.
On peut voir aussi grf comme la surface de niveau 0 de la fonction
Comme ∇g (x0 , f (x0 )) = (∇f (x0 ), −1) n’est jamais nul, le vecteur
(∇f (x0 ), −1) est normal à grf en (x0 , f (x0 )) .
Figure 1.
5
Retrouver ce titre sur Numilog.com
|
∇f (x + td) − ∇f (x), d| ∇f (x + td) − ∇f (x) · d
tL d 2 ,
d’où :
1
L
|f (x + d) − f (x) −
∇f (x), d| (tL d 2 )dt = d 2 .
0 2
Commentaire :
– Prolongement de l’exercice. On suppose à présent que f est deux fois diffé-
rentiable sur Rn . Comment traduire alors en termes de ∇2 f l’hypothèse dans la
3e question ? Proposer ensuite une démonstration de l’inégalité de la 3e question
qui s’appuie sur une autre formule de Taylor.
– Il importe de bien assimiler ce que représentent géométriquement les objets
∇f (x) et ∇2 f (x) vis-à-vis des surfaces de niveau et du graphe de f .
* Exercice I.2.
Situations : À déterminer :
1◦ ) f : Rn −→ R ∇f (x), ∇2 f (x) en tout point x.
x −→ f (x) :=
c, x + γ.
2◦ ) F : Rn −→ Rm JF (x).
x −→ F (x) := Lx + b, où L ∈ Mm,n (R).
3◦ ) f : Rn −→ R ∇f (x), ∇2 f (x).
x −→ f (x) := 12
Ax, x +
d, x + δ,
où A ∈ Mn (R).
4◦ ) g : Rn −→ R ∇g(x), ∇2 g(x).
m
x −→ g(x) := [ri (x)]2 ,
i=1
où les ri : Rn −→ R sont deux
fois différentiables.
6
Retrouver ce titre sur Numilog.com
Solution :
1◦ ) ∇f (x) = c, ∇2 f (x) = 0 pour tout x ∈ Rn .
2◦ ) JF (x) = L (L est la partie linéaire de la fonction affine F ).
3◦ ) ∇f (x) = 12 A + A x + d, ∇f (x) = Ax + d si A est symétrique.
∇2 f (x) = 12 A + A , ∇2 f (x) = A si A est symétrique.
m
4◦ ) ∇g(x) = 2 ri (x)∇ri (x),
i=1
m
∇2 g(x) = 2 ∇ri (x) [∇ri (x)] + ri (x)∇2 ri (x) .
i=1
Ainsi, si (r1 (x), ..., rm (x)) est « proche de 0 dans Rm », on peut considé-
m
rer que 2 ∇ri (x) [∇ri (x)] est une « bonne » approximation de ∇2 g(x) ;
i=1
approximation qui, de plus, ne fait appel qu’aux gradients des fonctions ri .
* Exercice I.3.
Situations : Questions :
1◦ ) g : Rn −→ R
m
2 , g est-elle différentiable deux fois
x −→ g(x) := fi+ (x)
différentiable ?
i=1
où les fi : Rn −→ R sont deux
fois différentiables et a+ désigne max
(0, a).
2◦ )
A
Rn Rm
f
g := f ◦ A
7
Retrouver ce titre sur Numilog.com
F. JOHN (1910–1994) (on trouve souvent écrit Fritz John) est aussi un mathématicien
de ce siècle qui a établi les conditions qui portent son nom (cf. Chapitre III) en 1948.
Le travail de F. John était motivé par des questions de nature géométrique ; les ellip-
soïdes pleins de volume extrémal mis en évidence dans les Exercices III.21 et III.22 sont
d’ailleurs appelés ellipsoïdes de John (ou de Loewner-John). On doit aussi au mathéma-
ticien d’origine tchèque Ch. Loewner (ou K. Löwner) l’ordre partiel dans Sn (R).
H. MINKOWSKI (1864–1909). Mathématicien allemand considéré comme le fondateur
de la géométrie des nombres entiers ; il s’est intéressé aussi à la Physique mathématique
(les fameux espaces de Minkowski de dimension 4) et a, le premier, procédé à une étude
systématique de la convexité dans les espaces de dimension finie.
J. (VON) NEUMANN (1903–1957). Il y a plusieurs mathématiciens du nom de
Neumann. Celui-ci, Von Neumann (John) est un mathématicien américain d’origine hon-
groise, mort relativement jeune, et qui fut pionnier dans ses idées et recherches en Ma-
thématiques appliquées. Et quand il attaquait un problème, il n’enfonçait pas des portes
ouvertes ! On lui doit notamment un théorème de mini-maximisation (cf. Chapitre IV).
330
INDEX
D K
décomposition de Moreau : VI.22
Kantorovitch (inégalité) : I.9
dérivée directionnelle : III.12, III.30, VI.21
DFP : III.23
L
différence de fonctions convexes : VII.27
(problème) dual en minimisation convexe : IV.4,
lagrangien augmenté : I.18(B), IV.13
IV.5, IV.6, IV.7, IV.8, IV.9, IV.10,
logarithme du déterminant : I.13, I.14
IV.11
logarithmiquement convexe (fonction) : I.15
dual augmenté : IV.13
(problème) dual en programmation linéaire :
M
V.21, V.22, V.23, V.24, V.25
matrices définies positives : I.10, I.11, I.12
E
minimum local vs. minimum global : II.5
Ekeland : II.3 moindres carrés : I.2 (4◦ ), II.11
ellipsoïde : III.8 Moreau-Yosida : VII.15, VII.17
ellipsoïde de volume maximal : III.21, III.22
Everett (lemme de) : III.15 N
F
Newton (direction de) : III.9
face : VI.14 normal (cône) : VI.23