Optimx Meta PDF
Optimx Meta PDF
Optimx Meta PDF
http://www.lifl.fr/~dhaenens
Optimisation multi-critère
§ Nombreux secteurs de l’industrie concernés
(Télécommunications, Transport, Environnement,
Mécanique, Aéronautique, ...).
§ Algorithmes d’optimisation
Ø Classification
Ø Présentation des métaheuristiques
§ Algorithmes d’optimisation
Ø Classification
Ø Présentation des métaheuristiques
{
Sac à dos multi-critère [Teghem et al. 97]
(f ) ∑c x
{
m
(x) =
i
Max i
j =1
j j x j=
1 si l’élément j est dans le sac
(i = 1 ,..., n ), x ∈ C
0 sinon
m
C=x ∑w x j j
<W wi j : poids de l’élément j
j =1
c : utilité de l’élément j / critère i
∈ {0 ,1}, ∀ j = 1,.., m
j
x j
PMO industriels
§ Télécommunications : Design d ’antennes [Sandlin et al. 97], affectation
de fréquences [Dahl et al. 95], ...
§ Aéronautique : ailes d ’avions [Obayashi 98], moteurs [Fujita 98], ...
§ Environnement : gestion de la qualité de l ’air [Loughlin 98], distribution
de l ’eau, …
§ Transport : tracé autoroutier, gestion de containers [Tamaki 96], …
§ Finances, Productique, Robotique, ...
(PMO)
{ min F ( x ) =
s.c. x ∈C
Variables de décision
(f 1
( x ), f 2
x = ( x1 , x 2 ,..., x k )
( x ),..., f n
( x) ) n≥2
x
1 Espace de décision F
C f 2
f 3
x
2
Définitions
• Dominance (minimisation)
y domine z ssi ∀ i ∈ [ 1 .. n ], f ( y ) ≤ f ( z ) et ∃k ∈ [ 1.. n ] / f ( y ) < f ( z )
i i k k
• Pareto optimalité
Une solution x*∈C est Pareto optimale ssi il n’existe pas de solution
x∈ C tel que x domine x*
f 1
Enveloppe convexe 5
4
10 3
9
6
y * 8 7
f 1 1 f 1
Difficultés des PMO
§ Discontinuité
Connaissances acquises
Plan de la présentation
§ Optimisation multi-critère (multi-objectif) :
Ø Définitions
Ø Problèmes
§ Algorithmes d’optimisation
Ø Classification
Ø Présentation des métaheuristiques
Heuristiques
Algorithmes exacts
Heuristiques Métaheuristiques
spécifiques
Branch Programmation A*
and bound dynamique
Recuit Algorithmes Recherche
[Ulungu 95] [Carraway 90] [Stewart 91] simulé génétiques tabou
PO* : Approximation de PO
Méthodes heuristiques
Problème de minimisation
Ø Méthode de descente
• Vers un meilleur voisin
Ø Recherche Tabou
• Vers un meilleur voisin mais,
• Possibilité de dégrader solution
• Impossibilité de retourner vers
solutions récemment visitées
(évite de cycler)
• Paramètres : fonction objectif,
voisinage,
description mouvement Tabou,
longueur liste Tabou
Méthodes heuristiques
Ø Recuit simulé
• Basé sur analogie avec recuit
des matériaux
• Vers un meilleur voisin mais,
• Possibilité de dégrader solution
• En fonction d’une température :
Au plus la recherche avance, au moins la dégradation est
acceptée.
• Paramètres : fonction objectif,
voisinage,
Temp initiale,
fonction de diminution Temp,
longueur palier de Temp,…
Méthodes heuristiques
Ø Algorithmes évolutionnaires
• A base de population
• Héritage de patrimoine génétique
• Les mieux adaptés survivent
• Amélioration globale
• Paramètres : fonction objectif,
taille de la population,
opérateurs,
sélection des parents,
remplacement, …
Algorithme génétique - Schéma
Sélection Reproduction
Remplacement
Croisements
Elitisme Maj
archives
Mutation
Mécanisme
Pareto
Plan de la présentation
§ Optimisation multi-critère (multi-objectif) :
Ø Définitions
Ø Problèmes
§ Algorithmes d’optimisation
Ø Classification
Ø Présentation des métaheuristiques
§ Approches Pareto
Utilisent la notion de dominance
Méthodes d’agrégation
{ min F ( x ) = ∑i =1 λ i
n
f i
(x)
(PMOλ ) n
s.c. x ∈C λ i
≥ 0, i = 1,.., n ∑λ
i =1
i
=1
Domaine réalisable
y
Optimiser F z
Ø Fonction d’acceptation T
§ Recherche tabou [Dahl et al. 95]
Ø Poids = priorité de l’objectif
( PMO k (ε ))
{ f
min
s.c.
j
f k
x ∈C
(x)
f2
§ Variation de ε Solution optimale
{
2
min f 1 F’(C)
f 2 ≤ε2
f1
Métaheuristiques
§ Algorithmes génétiques
(i −1).(ε − ε )
Ø Individu = ε [Loughlin 98] ε i = ε min + max
(k − 1)
min
{
k : taille de la population
§ Recherche tabou [Hertz et al. 94]
Ø Suite de sous-problèmes f* q
f (x )
= min q
+ Détérioration acceptée x ∈C
{
n
min ∑ f j ( x) − z j
( PMOk (ε )) j =1
s.c. x ∈ C
Z : Vecteur idéal ou de référence
f2
F(C)
*
f 2
f1
*
f 1
Métaheuristiques
§ Algorithmes génétiques
Ø Fonction min-max, AG parallèle avec différents poids [Coello 98]
Ø Règles floues dans l’évaluation de F [Reardon 98]
sous-population 1
Objectif 1
Population Population
Objectifs
Convergence : Méthodes de Diversification : Maintient
ranking (ordre entre individus) de la diversité
f 2 f 2
A(1) A(1)
H(3) H(6)
F(2) F(3)
B(1) B(1)
C(1) C(1)
G(2) G(2)
D(1) D(1)
E(1) E(1)
f 1 f 1
NSGA NDS
Sélection
§ Rang [Baker 85]
p n
= Probabilité de sélection
S ( N + 1 − R n ) + Rn − 2 S = Pression de sélection
pn = R = 1 + r + 2∑ r
n −1
N ( N − 1) i i
i =1
i
f 2
A
Ensemble de comparaison
f 1
§ Niching séquentiel
Ø Exécution itérative avec pénalisation des optima déjà trouvés
dist ( x , y ) α
sh
1− dist( x, y ) < σ sh
Si
σ
sh(dist(x, y )) =
1
sh
0 Sinon
σ sh dist
Algorithmes de résolution
Heuristiques
Algorithmes exacts
Heuristiques Métaheuristiques
spécifiques
Branch Programmation A*
and bound dynamique
Recuit Algorithmes Recherche
simulé génétiques tabou
Approches
de résolution
Approche à base Approches Titre
Approches
de transformation non-Pareto Pareto
du
Programmation Sélection Sélection
diag
Agrégation ε-contrainte
par but parallèle lexicographique ram
me
Techniques avancées
§ Modèles parallèles
(Algorithmes génétiques) Utilisateur
Contraintes, poids, ...
Ø Accélération de la recherche
AG AG AG Recuit, Tabou
f1 f2 fn Meilleures solutions
Ensemble PO*
GA GA
GA GA
§ Restriction de voisinage
Techniques avancées
§ Hybridation
Ø Algorithme Génétique + Recherche Locale
§ Algorithmes d’optimisation
Ø Classification
Ø Présentation des métaheuristiques
- Efficacité Absolue
PO * ∩ PO
Proportion des solutions Pareto dans PO* AE =
PO
Distance moyenne MD =
∑ y ∈ PO
d ( PO *, y )
PO
d ( PO *, y ) = min (d ( x , y ) ), x ∈ PO *
- Uniformité n
WD d ( x, y) = ∑λi f ( x) − f j ( y)
DIV = i =1
i
MD
Evaluation des performances
• Ensemble PO inconnu
Efficacité relative (A, B) : Nombre de solutions de A dominées par des
solutions de B
f2 A f2
+ A≠ B + B + ND ( A U B ) = A
ND ( A U B ) = A + B − ND ( A U B ) ≠ φ
+
+ +
+ +
+ +
A faiblement meilleur que B A fortement meilleur que B
f1 f1
f2 f2
+ ND ( A U B ) = B
+ +
A I ND( A U B) = φ
+ + +
+
+ +
B totalement meilleur que A A et B incomparables
f1 f1
Evaluation des performances
C=4
W1=4 - N1=1
W2=0 - N2=1
Cont(O,X)=0,7
Cont(X,O)=0,3
Evaluation des performances
§ Algorithmes d’optimisation
Ø Classification
Ø Présentation des métaheuristiques
M1
M2
M3
Travaux précédents
§ Résultats
Ø Bons résultats sur petit problèmes
Ø Manque de robustesse
Ø Paramétrage
Travaux précédents
§ AG hybride adaptatif [Basseur02]
Ø Diversification adaptative.
Ø Mutation adaptative.
Ø Hybridation par une recherche mimétique sur le
front.
§ Résultats:
Ø Bons résultats dans l’ensemble.
Ø Mutation adaptative à améliorer.
Ø Bonne robustesse.
Ø Exploration insuffisante.
Mutation adaptative
§ AG hybride adaptatif :
Mutation n
Computation of PO* … Mutation selection
and the population
Mutation 1
End of GA
Ajustement des P(Mi)
Ajustement des P(Mi) adapté aux problèmes multi-critères:
0 si I domine IMi
π ( M iN )= 1 si I est dominé par IMi 1/2 0
1/2 sinon
Progress(Mi)= ∑π(M )
iN 1 1/2
MiN
×(1−n×δ )+δ
Progress(Mi)
P(Mi)=
∑ j=1Progress(Mj)
n
Résultats – exemple 20jx10m
Résultats – exemple 50jx20m
Plan de la présentation
§ Optimisation multi-critère (multi-objectif) :
Ø Définitions
Ø Problèmes
§ Algorithmes d’optimisation
Ø Classification
Ø Présentation des métaheuristiques
§ Modèles parallèles