M1 Optim Exam2 2020 2
M1 Optim Exam2 2020 2
M1 Optim Exam2 2020 2
Examen no 2 - Optimisation
Master 1 - Math. Fondamentales, CSMI - Durée : 2 heures
Consignes : les documents et calculatrices sont autorisés. ll est important d’apporter une grande attention au
soin et à la présentation, justification et rédaction des réponses. Il faut donc utiliser des phrases de liaison, des
affirmations et des conclusions.
D = {( x, y) ∈ R2 | ax + by + c = 0}
C = {( x, y) ∈ R2 | x2 + y2 = 1 et x − y2 ≥ 0}.
à l’aide d’une méthode de type Uzawa, à quel type de difficulté est-on confronté ? Proposer
un algorithme permettant de palier ce problème.
Indication : on pourra admettre qu’il existe des algorithmes permettant de minimiser une fonction de
Rn dans R (sans contrainte donc) sans avoir à calculer de dérivée. Ces méthodes reposent juste sur
l’évaluation de la fonction. On peut citer par exemple la méthode du recuit simulé ou encore la méthode
du simplexe de Nelder-Mead.
2. On considère la fonction f : R2 → R définie par
f ( x, y) = | x − 2| + |y − 2|,
inf f ( x, y).
( x,y)∈C
Indication : simplifier l’écriture de f ( x, y). On se posera notamment les questions de l’existence de solu-
tions, qualification des contraintes, etc.
1
EXERCICE No 3 (la méthode LASSO - 7 points)
Dans tout l’énoncé, h·, ·iRn désignera le produit scalaire euclidien de Rn et k · kk la norme définie par
d
k x kkk = ∑ | x j |k .
j =1
On propose dans cet exercice d’étudier une méthode de régression linéaire pénalisée à l’aide d’une
contrainte de parcimonie : la méthode LASSO 1 . Soient λ > 0, (n, d) ∈ (N∗ )2 , M ∈ Mn,d (R) et
y ∈ Rn . On considère le problème
1 λ d w2j λ d
inf
(w,η )∈Rd ×(R∗+ )d
J (w, η ) où J (w, η ) =
2n
ky − Mwk22 +
2 ∑ ηj
+
2 ∑ ηj
j =1 j =1
1
inf J (w, η ) = inf ky − Mwk22 + λkwk1 .
(w,η )∈Rd ×(R∗+ )d w ∈Rd 2n
1
inf ky − Mwk22 + λkwk1 .
w ∈Rd 2n
On détaillera très précisément chaque étape de l’algorithme et on ne demande pas d’en dé-
montrer la convergence.