2005 Commande Robuste
2005 Commande Robuste
2005 Commande Robuste
Emil NIKOLOV
Daniel JOLLY
Nina NIKOLOVA
Bela BENOVA
COMMANDE
ROBUSTE
SOFIA
2005
Le présent livre est un manuel, rédigé conformément à la première partie (Mé-
thodes fréquentielles et systèmes à propriétés robustes) du programme éducatif
pour la discipline “Commande robuste” - obligatoire dans les plans d’études de la
spécialité 02 21 08 “Automatisation de la production” pour les étudiants dans la Fi-
lière Francophone de Génie Electrique de l’Université Technique - Sofia.
Dans le manuel sont tracés, argumentés et analysés les directions d’une ap-
proche nouvelle pour la conception de stratégie de commande - l’approche de la
contre-réaction combinée aux conséquences des perturbations, aussi bien qu’à cer-
taines sources de fluctuations paramétriques et structurelles présentes dans les
systèmes de commande. Les aspects liés à l’instrumentation, la configuration et la
systématisation de cette approche sont basés sur l’utilisation combinée de la syn-
thèse robuste, de la stabilisation paramétrique et de l’absorption de perturbations à
structure d’onde, permettant d’atteindre ainsi une plus grande efficacité.
TABLE DE MATIERES
INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
BIBLIOGRAPHIE. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
INTRODUCTION
Le but principal lors de la commande des procédés est la stabilisation des grandeurs qui
les décrivent. La stratégie de commande dans ce cas est celle de contre-réaction aux perturba-
tions. C’est pourquoi les méthodes utilisés s’opposent à l’ensemble d’action nuisibles (paramé-
triques, structurelles et de signal), générées par le milieu de fonctionnement des procédés.
Dans les conditions d’incertitude a priori dans le modèle du procédé commandé et en fonc-
tionnement multi-régime, le système de commande doit satisfaire à certaines exigences de sta-
bilité, rapidité et précision. L’efficacité réelle d’un système industriel est déterminée par la per-
formance robuste et l’aptitude de fonctionnement multi-régime. Les critères sévères dans ce
domaine sont liés à l’efficacité et l’amélioration des instrumentations techniques de commande
dans de telles conditions et déterminent les tendances dans leur développement selon trois
axes de conception. Les systèmes adaptatifs, les systèmes avec modèle et les systèmes robus-
tes traitent l’incertitude de manière différente.
Les premiers [6,7,17,92,130 ÷ 132] utilisent l’approche de l’adaptation (Athans M., As-
trom, K., Wittenmark B., Kuo S. M., Morgan D.R., Landau J. D., Ackermann J., Giri F.,
Dugard M. L., Dion J. M., Ротач В. Я., Цыпкин Я.З., Фомин В .Н., Фрадков А. Л.,
Якубович В. А., Томов И. И. etc.) aux variation dans le procédé à travers une réparamétrisa-
tion correspondante du dispositif de commande.
Dans le deuxième cas [58 ÷ 60,104] (Prett D., Arkun, Y., J. Hollett, W. Canney B., Mo-
rari M., Mehra, R., Rouhani R., Zafiriou E., Richalet, J., Rault A., Testud J., Papon J.,
Хаджийски М. Б. etc.)), l’approche proposée par Garcia C. et Morari M., qui ont développé
l’idée de Richalet J., consiste en une commande prédiction selon le modèle du procédé.
Pour le troisième type de systèmes [1,3,4,8,9,11,12,14 ÷ 22,24 ÷ 29,31,33,35,37 ÷ 41,
43 ÷ 51, 54 ÷ 57,62 ÷ 64,66,67,69 ÷ 73,81,82,86 ÷ 88,90,91,94,97,117,120 ÷ 125,127,130 ÷ 132], (Youla
D. C., Zames G., Doyle J. C., Francis B. A., Kwakernaak H., Chen B. S., Bernussou J.,
Томов И. И., Петков П. Х., Христов Н. Д. etc.) on fait recours à la synthèse robuste dans
une intervalle d’incertitude connue (fixée) a priori pour lе modèle du procédé considéré.
L’utilisation de chacune parmi ses trois approches en tant que stratégie de contre-réaction
aux perturbations mène bien sûr à certaines difficultés. Les algorithmes adaptatifs, en principe,
réalisent des procédures d’optimisation en temps réel sous certaines conditions limitatives,
mais cependant leur stabilité (la convergence, la vitesse de convergence et la convergence de
calcul), compliquent leur applicabilité pratique. Pour le deuxième cas, l’efficacité de la com-
mande prédictive est déterminée par les possibilités d’utilisation des modèles (statiques ou dy-
namiques) du procédé dans tous les régimes possibles. Quant aux systèmes robustes, le pro-
blème est leur conservatisme pour surdimensionnement lors de la synthèse des intervalles
d’incertitude.
Une relation (Fig.i) existe entre la performance d’un système et le degré d’incertitude
dans les conditions d’exploitation de ce système. En présence d’incertitude élevée, les systè-
mes conçus selon la stratégie de contre-réaction seulement aux perturbations de signal, ne
peuvent pas fournir la performance exigée. Les indices de performance des systèmes se dé-
gradent lors de reparamétrisation et restructuration (fluctuations de l’ordre et du type de l’équa-
tion) du modèle du procédé en dessus de la limite supérieure (vers le cas de limite et perte de
stabilité). Les stratégies de la commande adaptative, la commande avec modèle et commande
robuste peuvent traiter l’incertitude et fournir ainsi une efficacité d’exploitation supérieure à
celle des systèmes conçus selon la stratégie de contre-réaction seulement aux perturbations de
signal.
Durant les dernières années sont proposées des solutions, basées sur une différente stra-
tégie de contre-réaction aux perturbations en présence d’incertitude. Combinant les aspects
instrumental, configurationnel et systématique, ces solutions traitent en même temps les per-
turbations externes (de signal) et les conséquences de l’incertitude, aussi bien que les facteurs
d’action permanente, qui réparamétrisent ou restructurent le système, tels le bruit acoustique
dans les vannes automatiques ou les champs électromagnétiques.
performance
stratégie de
contre-réaction aux
5 perturbations et aux facteurs
d’action permanente
qui modulent des
4 perturbations paramétriques
stratégie de
contre-réaction aux
2 perturbations stratégie de
paramétriques contre-réaction aux
perturbations
de signal
1
0
0 1 2 3 4 5 6 7 8 9 10 11 12
(Fig.i) incertitude
La stratégie combinée place le point de fonctionnement décrivant l’état initial aussi bien
que l’état d’exploitation courant dans cette région de la caractéristique « degré d’incertitude –
performance du système » Fig.i, où la performance du système domine l’incertitude y présente.
Evidemment, durant les processus transitoires et lors de l’exploitation, la réparamétrisation et
la restructurisation nuisent aux indices de performance. Bien sûr, en régimes transitoires ou de
travail, la reparamétrisation et la restructuration dans le procédé causent la dégradation des in-
dices de performance. Ceci dit, une tendance dans la conseption des systèmes est le déve-
loppement d’une approche de contre-réaction combinée aux perturbations, aussi bien qu’aux
facteurs de présence permanente réparamétrisant et/ou restructurant le système.
Cette stratégie combinée est réalisée par les systèmes à propriétés robustes, qui com-
binent de manière efficace les propriétés:
- des systèmes à compensation paramétrique dans la classe Gain Scheduled Control
Systems - systèmes avec variation planifiée des paramètres du dispositif de commande, confor-
mément à des facteurs de régime mesurables (Hyde R., Glover K., Rugh W., Shamma J.,
Athans M., Wang J., Rugh W. etc.);
- des systèmes robustes dans la classe Robust Model Matching Systems - systèmes à
modèle interne (Chen B. S., Lin C. L., Томов И. И. etc.);
En tant que des systèmes robustes typiques, dans le livre sont considérés:
- systèmes robustes à déviation minimale de la trajectoire nominale avec retour condi-
tionnel et modèle interne du procédé;
- systèmes robustes à modèle interne;
- systèmes à compensation paramétrique et stabilisation en série;
- systèmes à compensation paramétrique et stabilisation additive et combinée;
- systèmes robustes à déviation minimale de la trajectoire nominale stabilisée;
- systèmes partiellement absorbants les perturbation;
- systèmes à compensation paramétrique, partiellement absorbant les perturbations;
- systèmes robustes avec déviation minimale de la trajectoire nominale, partiellement
absorbants les perturbations;
- systèmes robustes à déviation minimale de la trajectoire nominale stabilisée, partielle-
ment absorbant les perturbations.
Une attention spéciale est portée aux méthodes existantes pour l’estimation quantitative
et qualitative de l’efficacité et de la supériorité des systèmes robustes. L’analyse robuste de
performance utilise les normes des matrices des systèmes en boucle fermée, fait preuve de la
stabilité et de la performance robuste. Ses résultats permettent aussi une estimation quantita-
tive de la performance augmentée à l’aide des marges de stabilité robuste. Cette estimation
traite la valeur singulière maximale structurée de la fonction de transfert en boucle fermée ma-
tricielle - la norme de la matrice de commande pour la μ - synthèse.
Pour les buts de l’analyse technologique d’ingénieur et de l’analyse systématique de la
performance des systèmes robustes, mis en conditions réelles d’exploitation sous l’effet de
l’intégralité du spectre de perturbations (de signal, paramétriques, structurelles), sont considé-
rées également les méthodes de la modélisation et de l’analyse comparative par simulation.
Elles sont utilisées pour l’estimation quantitative de la performance suivant les indices généra-
lisés °déviation de la trajectoire nominale°, °erreur dynamique° pour une longue période du
fonctionnement du système. L’analyse parallèle par simulation (avec modélisation des pertur-
bations généralisées), confirme que pour toutes les autres conditions étant les mêmes, par
rapport aux systèmes réagissant seulement aux perturbations de signal, pour les robustes (se-
lon la stratégie de contre-réaction combinée): les marges de stabilité et de stabilité robuste
restent constantes, l’erreur dynamique et la déviation de la trajectoire nominale sont diminuées
considérablement.
Les résultats dans le livre sont représentatifs, tant qu’ils soient obtenus à partir de modè-
les de procédés qui reflètent des fluctuations paramétriques et structurelles. Parmi ces modè-
les sont ceux des caractéristiques d’exploitation des vannes automatiques, la dynamique de la
régulation dans les vannes automatiques pour un fluide en mouvement forcé, etc. Les modèles
des procédés généralisés permettent la simulation de variations de la charge hydraulique, pro-
ches ou supérieures aux réelles. Cela donne la possibilité d’analyse des caractéristiques fré-
quentielles f 1 et temporelles f 2 des systèmes dynamiques considérés, selon les aspects de
nonlinéarité, nonstationarité et par la méthode des «coefficients fixés», en tant que des fonc-
tions multidimansionnelles de:
- la fréquence, la reparamétrisation et la charge dans le temps
f 1 ( ω , ξ t , s t );
(
f 2 t, y t , ξ t , s t
0
);
- la fréquence, la reparamétrisation et la charge, dans le temps et des procédés dans les
vannes automatiques VA (à caractéristique linéaire VALIN ou à caractéristique logarithmique
respectivement VALOG ) par un réglage du débit à caractère lisse
( )
f 1 ( ω , ξ t , s t , c 1 ) , f 2 t , y t , ξ t , s t , c 1 .
0
A part les propriétés structurelles, les principes de conception, les méthodes et les algo-
rithmes de synthèse et d’analyse des systèmes robustes, dans le livre pour la discipline “Com-
mande Robuste”, sont considérés aussi bien les solutions de plusieurs problèmes d’applica-
tion de la pratique et des exemples industriels, dont certains sont généralisés et formulés en
tant que des approches d’ingénieur.
Chapitre 1
PERTURBATIONS ET INCERTITUDE DANS LES PROCEDES
1.1.1. Bruit.
Le bruit est un signal nuisible, superposé à la(les) grandeur(s) réglable(s), de caractère
chaotique, avec des inflexions brusques, sans structure ondulatoire. La description du bruit est
effectuée à travers les propriétés stochastiques du signal (valeur moyenne, dispersion, densité
spectrale, etc.), tandis que sa modélisation analytique se fait à l’aide de la théorie classique des
processus aléatoires (“bruit blanc”, “bruit coloré”, etc.).
1.1.2. Disturbances.
Les perturbations externes (disturbances) sont des signaux qui, dans le cas général, ne
peuvent pas être mesurés, dont le comportement ne peut pas être influencé. Le modèle analyti-
que du procédé est conçu en tenant compte de ce type de perturbations externes, si leurs
points d’application sont connus - par exemple les perturbations externes localisées à l’entrée
ou à la sortie du procédé.
Dans le cas d’une description finie dans l’espace d’état, le modèle est de la forme
x& = A x + B μ + G ξ , où la structure de la matrice G est déterminée par les points d’application
de la perturbation externe ξ . Si ces derniers ne sont pas connus, la disturbance ξ est modéli-
sée en la considérant ramenée à la sortie du procédé.
Les perturbations externes (disturbances) sont systématisées comme suit:
1. Disturbances dont le comportement dans le temps n’est pas connu, mais pour les-
quelles on peut supposer une forme pour leur variation. Dans ce cas on admet que le signal
perturbant est limité en amplitude dans une marge connue a priori.
2. Disturbances avec une forme déterminée, mais avec des valeurs inconnues des pa-
ramètres (par exemple - signal harmonique, mais d’amplitude et/ou de fréquence inconnue),
pour lesquelles sont connues a priori les marges de variation.
t
1
-60
ε
50
t
1
Fig.1.1
perturbation à structure d’onde
-50
certitude totale
1
-60
50
structure d’onde
spectre d’incertitude
0
-50
40
bruit coloré
perturbation de type bruit
1
-60
40
bruit blanc
1
-60
La sensibilité des systèmes à contre-réaction est définie par rapport aux deux types de
perturbations, mais elle est déterminée surtout par les disturbances à travers le niveau de bruit,
mesuré à la sortie du système.
Un système de commande est d’autant plus robuste pendant son fonctionnement que sa
dépendance vis-à-vis des perturbations internes partiellement non structurelles est moindre.
C’est pourquoi la sensibilité et la robustesse sont mutuellement complémentaires. La robus-
tesse est utilisée en tant qu’estimation de l’effet des perturbations internes sur la performance
du système.
L’indice fondamental de robustesse est la stabilité robuste - le système reste stable pour
toute perturbation appartenant à l’intervalle délimitée lors de la conception de ce système.
La performance robuste reflète la stabilité robuste et démontre que certains indices de
performance spécifiques (inertie, degré d’amortissement, etc.) ne varient pas pour toute pertur-
bation appartenant à cette intervalle.
L’incertitude a priori peut être paramétrique ou structurelle, si, respectivement, elle
concerne les valeurs des paramètres pour une structure fixe du modèle ou bien cette même
structure (l’ordre de l’équation caractéristique). Une représentation possible du spectre de
l’incertitude est montrée à la Fig.1.2.
(1.1) a n + .... + a 0 y ( t ) = b m + .. . . + b 0 x ( t ) + ξ (t ),
dt n
m
dt
où
⎛ i di ⎞
(1.2) A ( D ) y ( t ) = B ( D ) x ( t )+ ξ ( t ) ⎜
, D = ⎟ ,
⎜ dt
i ⎟
⎝ ⎠
où D est l‘opérateur de dérivation, y ( t ) et x ( t ) sont les grandeurs réglable et réglante,
alors:
- les caractéristiques structurelles du modèle (1.1) sont déterminées en fonction des
rangs m et n des polynômes;
- les caractéristiques de performance du modèle (1.1) sont déterminées à partir des va-
leurs α i du vecteur α des paramètres du modèle, de dimension dim α = n + m + 1 , et sont
comme suit:
(1.3) α = [ a n a n −1 . . . a 0 b m b m −1 . . . b 0 ] T
,
(1.5) H ( jω ) = H 0 ( jω ) . P ( jω ) ,
(1.6) P ( jω ) = 1 , A R G ( P ( jω ))=0 .
(1.7-2) α = α H + f ( ρ ) ,
où α~ reflète les déviations possibles, appartenantes à l’espace connu a priori Ω α~ , des para-
mètres de leurs valeurs nominales, α H est la composante des valeurs nominales [130,131,132].
Une telle description de l’incertitude est convenable pour les cas de faible variation des proprié-
tés du procédé, lors du fonctionnement du système dans des conditions d’exploitation réelles
quand la trajectoire est divisée en secteurs de comportement quasi-stationnaire.
1.2.3.1. Vecteur composé avec composante mesurable.
Pour des perturbations paramétriques mesurables la description de l’incertitude est du
type (1.7-2), où f ( η ) est une fonction vectorielle et η est le vecteur des perturbations para-
métriques mesurables.
1.2.3.2. Vecteur composé -fonction du temps, non stationnarité.
Pour des procédés non stationnaires, l’incertitude a priori est décrite par un vecteur
composé [33,95,130], qui reflète le fait que les fluctuations des paramètres dépendent du temps
(1.8)
(1.8) α = α H + α~ , (α~ = Ψ ( t , α t ) ) ,
(1.9) { F }⇔ y ( t )= f ( x ( t )) ,
(1.10) y ( t ) = L x ( t
) .
Pour le modèle du procédé (1.1) la fonctionnelle { F } (1.9) reflète la dépendance entre
les deux grandeurs (vecteurs), représentée de façon équivalente par l’opérateur L (1.10). Les
conditions pour la linéarité du système (1.1), exprimées par la linéarité de l’opérateur L (1.10)
se résument dans le principe de la superposition et dans l’exigence d’uniformité de l’opérateur
L (1.11)
⎧ L ( x 1 ( t ) + x 2 ( t ) ) = L ( x 1 ( t ) ) + L ( x 2 ( t ) ) − principe de la superposition ⎫
(1.11) ⎨ ⎬ .
⎩ L ( a . x 1 ( t ) ) = a . L ( x 1 ( t ) ) − uniformité de lopérateur ⎭
Si pour tout nombre réel τ ( τ = const ) la condition (1.12) est satisfaite, alors L est dé-
terminé en tant qu’opérateur linéaire stationnaire, et le système (1.1) l’est aussi
(1.12) y ( t − τ ) = L ( x ( t − τ )) .
S’il existe un nombre τ ( τ = const ), pour lequel (1.12) n’est pas satisfait, alors L est dé-
terminé en tant qu’opérateur non stationnaire et le système (1.1) l’est aussi.
1.2.4. Modèles M −Δ .
1.2.4.1. Définitions.
Les valeurs singulières de la matrice A ∈ C m xn de rang r sont désignées par le symbole
σ j . Elle sont les racines carrées non négatives des valeurs propres de la matrice A H A , en sé-
rie descendante (σ 1 ≥ σ 2 ≥ σ 3 ≥. . . .≥ σ p , p = min ( m , n ) ) , où (1.13)
(1.13) σ r + 1 = σ r + 2 = σ r + 3 = . . . . = σ r + p = 0 .
⎡Σ r 0⎤
(1.14) A = U Σ V H
=U ⎢ ⎥V
H
.
⎣ 0 0⎦
Les propriétés les plus importantes des valeurs singulières sont (1.15) :
Ax Ax
(1.15-1) σ ( A )= max = A 2
, (1.15-2) σ ( A ) = min ,
x ∈Cn x x ∈Cn x
( A ) ≤ λi ( A ) (A), (1.15-4) σ ( A ) = σ ( A −1 ) −1
(1.15-3) σ ≤σ ,
( A ) = σ ( A −1 ) , (1.15-6) σ ( α A ) = α σ ( A ) ,
−1
(1.15-5) σ
(1.16) H 2 = G ( jω ) 2
=
∫ ∑ (σ
−∞ i =1
i ( jω ) ) 2 d ω .
Fig.1.3 M
(1.19)
G = G .( I + L i ) ,
~ ~
( ~
L i = G −1 . G − G
.
)
G = ( I + L o ) .G ,
~
( ~ ~
L o = G − G . G −1 )
G = ( I − Le ) . G ,
−1 ~
( ~ ~
L e = G − G . G −1 )
G
La
~
G
Ls ~
G
Li G
Li
~
G
Li G
~
G
G Lo
~
G
G
Le
~
G
Fig.1.4
Pour les cas cités ci-dessus la grandeur de la perturbation L peut être la limite supé-
rieure de σ ( L ) c’est-à-dire σ ( L ) ≤ l ( ω ) , ∀ ω , où l ( ω ) = max σ ( L ) sur l’espace des
procédés perturbés. La limite l ( ω ) peut être interprétée comme le poids scalaire de la per-
turbation paramétrique normalisée Δ ( p )
(1.20) L ( p ) = l ( p ) Δ ( p ) , σ ( Δ ( j ω )) ≤ 1 .
La limite considérée l ( ω ) (1.20) peut s’avérer une description trop conservative de
l’incertitude réelle avec ses différentes sources, c’est pourquoi ces dernières doivent être pré-
sentées par les différentes matrices des perturbations paramétriques Δ j , σ ( Δ j ( j ω ) ) ≤ 1 .
De cette manière la matrice possède la forme diagonale en blocs et l’incertitude qu’elle modé-
lise est structurelle. Pour la décrire, il est nécessaire de concevoir une approche spéciale qui
effectue le calcul de la valeur singulière structurelle.
Soit X ν (1.21) l’espace de toutes les perturbations paramétriques complexes de struc-
ture diagonale en blocs spécifiques et de norme spectrale inférieure à ν
(1.21) X ν = {Δ = diag {Δ 1 , Δ 2 , . . .. ,Δ m } σ (Δ j ) ≤ ν }.
À l’aide de Δ ∈ X ν , on peur démontrer que la stabilité robuste du système est assurée si
et seulement si la condition (1.22) est satisfaite
⎧ det ( I − M Δ ) ≠ 0 , ∀ Δ ∈ X ν
⎪
(1.22) ⎨ ρ ( M Δ ) < 1 , ∀ Δ ∈ X ν .
⎪
⎩ ν < σ −1 ( M )
Définition: La fonction μ ( M ) , appelée valeur singulière structurelle est déterminée de
telle façon que μ −1 ( M ) soit égale à la plus petite σ ( Δ ) nécessaire pour que ( I − M Δ ) soit
singulière, c’est-à-dire (1.23)
(1.23) μ −1
( M ) = min {ν , Δ ∈ X V det ( I − M Δ ) = 0 }.
V
Un des scalaires de d i peut être constant ( d i = 1 ) sans perte de généralité. Les valeurs opti-
males d 1 , d 2 , . .. . , d m −1 sont obtenues de manière itérative à partir de certaines valeurs initiales,
comme suit: pour le bloc j ( 1 ≤ j ≤ m − 1 )
(1.25) D = diag {D 1, j , d j l j , D3, j },
⎡ M 11 , j M 12 , j M 13 , j ⎤
⎢ ⎥
(1.26) M = ⎢ M 21 , j M 22 , j M 23 , j ⎥ .
⎢M M M 33 , j ⎥⎦
⎣ 31 , j 32 , j
Alors
⎡ D 1 , j M 11 , j ( D 1 , j ) −1 D 1 , j M 12 , j d −1
D 1 , j M 13 , j ( D 3 , j ) −1
⎤
⎢ ⎥
j
= ⎢ d j M 21 , j ( D 1 , j ) (D )
−1 −1
(1.27) D M D −1 M 22 , j djM 23 , j 3 ,j ⎥ ,
⎢ ⎥
⎢⎣ D 3 , j M 31 , j ( D 1 , j ) (D )
−1 −1
D 3 ,j M 32 , j D 3 ,j M 33 , j 3 ,j ⎥⎦
ou
⎧
⎪
D M D −1 2
F1
= D 1, j M 11, j (D ) 1, j
−1 2
F1
+ D 1, j M (D ) 13, j 3, j
−1 2
F1
+ M 22, j
2
F1
+ ⎫
⎪
⎪ ⎪
⎪ + D 3, j M 31, j (D ) 1, j
−1 2
F1
+ D 3, j M (D )
33 , j + 3, j
−1 2
F1 ⎪
⎪⎪
(1.28) ⎨ +d
2
j1
[M 21, j (D ) 1, j
−1 2
F1
+ M 23, j (D ) ]+ 3, j
−1 2
F1
⎪⎪
⎬ .
⎪
⎪ +d
−2
j1
[D 1, j M 12, j 2
F1
+ D 3, j M 32, j
2
F1
]= ⎪
⎪
⎪ −2
⎪
⎪ =α +d β +d γ ⎪
4 2 4 4
⎩⎪ ⎭⎪
j1 j1 j1 j1 j1
ΔP
ΔU
M
Fig.1.5
y 0' ε′
α i = α i + α~ i , cela cause des variations dans le mouvement libre Ψ i , décrites par l’expres-
sion (1.33)
(1.33) Ψ i = Ψ i ( t , α 1 + α~ 1 , α 2 + α~ 2 , α 3 + α~ 3 , α 4 + α~ 4 , . . , α n + α~ n ) = Ψ i ( t , α + α~ ) ,
(1.34) J i = J i (α 1 + α~ 1 , α 2 + α~ 2 , α 3 + α~ 3 , α 4 + α~ 4 , . . . ,α n + α~ n ).
(1.36) Y = Y ( x 1 , x 2 , x 3 , x 4 , . . ., x r ) ,
et ses dérivées partielles sont continues et déterminées de manière univoque par rapport à cha-
que argument x i (c’est-à-dire, dans les cas où ces arguments sont des variables indépendan-
tes), alors la différentielle totale d’ordre k de la fonction Y est donnée par (1.37)
( k )
⎛ ∂Y ∂Y ∂Y ∂Y ⎞
(1.37) d ( k )
Y=⎜ d x1 + d x2 + d x 3 + . . . .+ d xr ⎟ .
⎜ ∂x ∂ x2 ∂ x3 ∂ xr ⎟
⎝ 1 ⎠
⎧ Δ Ψ i (t , α ) = ⎫
⎪ ⎪
⎪ = Ψ i ( t , α + α~ ) − Ψ i ( t , α ) = ⎪
⎪ 1 1 1 ⎪
⎪ d Ψ i (t , α ) + d 2 Ψ i (t , α ) + d 3Ψ i ( t , α ) + . . . . ⎪⎬ .
(1.38) ⎨
⎪ 1! 2! 3! ⎪
⎪ 1 n 1 ⎪
⎪ + d Ψ i (t , α ) + d ( n + 1 ) Ψ i ( t , α + α~ ) ⎪
⎪⎩ n! ( n+1 ) ! ⎪⎭
1 ⎛⎜ ∂ Ψ ( t , α ) ~ ∂ Ψ (t , α ) ~ ∂ Ψ (t , α ) ~ ∂ Ψ ( t , α ) ~ ⎞⎟
k
La sensibilité d’un système (Fig.1.6) est déterminée à partir du rapport de l’état du sys-
tème sur les fluctuations de ses paramètres. Pour un système, décrit par des équations dif-
férentielles ordinaires du type (1.41)
ζ
μ y
système
Fig.1.6 dynamique
(1.43) S& = f y S + f ς ,
(1.44) y ( t , ς + Δ ς ) = y ( t , ς ) + S ( t , ς ) . Δ ς + ο ( Δ ς ) .
La norme de la sensibilité peut être utilisée en tant qu’estimation des variations du vec-
teur d’état y , exprimées par de petites variations du paramètre ς .
Tant que la commande μ ne dépend pas de l’état courant, le système est considéré
sans contre-réaction. Si on considère une loi de commande avec contre-réaction du type (1.45),
alors la sensibilité du système est donnée par (1.46)
(1.45) μ = R ( y , t , ς ) ,
(1.46) S& = ( f y + f μ R y ) . S + f μ R ς + f ς .
(1.47) J ( y ( . ) , ς ) =
∫ L ( y ( t ) , t , y& ( t ) , ς ) d t → in f (
, y ( t 0 ) = y 0 , y (t 1 ) = y 1 ),
t0
⎧⎪ y& = A 1 ( t ) y + A 2 x + B 1 ( t ) μ , y ( 0 ) = y 0
(1.48) ⎨ ,
⎪⎩ β . x& = A 3 ( t ) x + A 4 y + B 2 ( t ) μ , x ( 0 ) = x
0
le modèle d’un système avec des perturbations singulières, décrit par une équation différen-
tielle linéaire, où x ( t ) ∈ R m , y ( t ) ∈ R n , μ ( t ) ∈ R r , et β est le petit paramètre.
Les états y et x représentent respectivement les processus lents et rapides. Pour β = 0
l’ordre du système m + n se réduit à m , ce qui donne au modèle la forme (1.49)
y& = A 1 ( t
) y + A2 x + B1 ( t ) μ , y (0 )= y0
(1.49) ,
0 = A3 ( t ) x + A4 y+ B2 ( t ) μ
où t ∈ [ 0 , 1 ] (la condition initiale x ( 0 ) = x 0 n’est pas prise en compte, étant donné l’im-
possibilité de la satisfaire).
En supposant que la matrice A 4 ( t ) n’est pas permutée et en résolvant l’équation par
rapport à x , on obtient le modèle (1.50)
(1.50) y& ( t ) = A 0 ( t ) y + A2 x+ B0 (t )μ , y (0 )= y0 ,
où
(1.52) J ( y ( . ) , ς )=
∫ L ( y ( t ) , t , ς . y& ( t ) ) d t → i n f ( )
, y ( t 0 ) = y 0 , y ( t 1 )= y 1 .
t0
d Lμ
(1.53) L y − ς =0 .
dt
Si ς est une grandeur petite, alors la substitution de ς par ς = 0 , qui définit correcte-
ment le problème à la limite, réduit cette équation à une forme algébrique ce qui peut amener à
des effets défavorables comme celui de la couche limite.
(t )
100
80 ξ
60
40
20
0
t
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-20
-40
-60
-80
-100
Fig.1.7
Une des équations les plus utilisées est le modèle à structure d’onde (1.55)
(1.55) ξ ( t ) = c 1 f 1 ( t ) + c 2 f 2 ( t ) + c 3 f 3 ( t ) + . . . . + c M f M ( t ) , ( M = L ) .
Cette description (1.55) de ξ ( t ) peur être traitée comme une image de la perturbation
réelle ξ ( t ) dans l’espace fonctionnel dont la base sont les fonctions
{ f ( t ) , f ( t ) , f ( t ),. . . . , f ( t ) }
1 2 3 M
20
15 ξ ( t )= c1 + c 2 t c1
c2
10 c1+c2*t
5
t
0
1 3 5 7 9 11 13 15 17 19 21
-5
-10
-15
{ f i (t )} = {1 , t }
-20
Fig.1.8
où sont utilisées deux fonctions de base ( M = 2 ) , tandis que les coefficients de poids c K
( K = 2 ) varient suivant une loi continue par intervalles. Pour une forme arbitraire (un trend),
comme celle de la Fig.1.8, les coefficients constants par intervalles c i peuvent être calculés.
Cependant, ils restent inconnus aussi dans le déroulement du processus après la représenta-
tion de la perturbation qui en a été donné initialement, puisqu’ils varient avec le temps, même si
on suppose que la perturbation ξ ( t ) maintienne sa structure d’onde de la Fig.1.8. Quant au
modèle mathématique des perturbations expectées ξ ( t ) , si la réalisation ξ ( t ) (donnée par
le trend de la Fig.1.8) s’avère représentative pour le comportement global futur de ξ ( t ) , on ne
peut pas affirmer que le comportement futur de ξ ( t ) va être décrit par (1.56), où les paramè-
tres sont totalement inconnus et varient parfois brusquement suivant une loi inconnue continue
par intervalles.
D’autres exemples de perturbations industrielles à structure d’onde affectant la gran-
deur réglable sont donnés à la Fig.1.9 avec les modèles analytiques semi déterminés corres-
pondants.
ξ (t )
100
80
60
40
20
t
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-20
-40
ξ 1
c1+(c2*(e^(-a*t)))
-60
ξ 2 c1+c2*t
-80
ξ 3
(c1+c2*t)*(e^(-a*t))+(c3+c4*t)*(e^(-b*t))
-100
ξ c1+c2*SIN(-a*t)+c3*COS(-a*t)+c4*SIN(-b*t)+c5*COS(-b*t)
Fig.1.9 4
Les modèles à structure d’onde considérés permettent de décrire l’ensemble des formes
ou comportements probables pour la réalisation inconnue de la perturbation ξ ( t ) à n’importe
quel moment du temps.
Du point de vue de la théorie des processus aléatoires, le modèle considéré (1.55) peut
être traité comme une expression analytique de la famille à M paramètres de réalisations
{ ξ ( t ) } parmi laquelles peut être extraite la manifestation de la perturbation réelle ξ ( t ) .
Le modèle à structure d’onde (1.55) n’est pas la description d’un processus aléatoire.
L’ensemble des fonctions de base { f i ( t ) } n’est pas composé conformément aux propriétés
statistiques de la perturbation, même si ces dernières sont connues. Les fonctions de base
dans le cas général sont choisies par le concepteur du système de façon à pouvoir représenter
avec une précision suffisante les formes observées typiques des perturbations. De plus, cha-
que réalisation concrète de la perturbation ξ ( t ) peut avoir un ensemble autonome de pro-
priétés statistiques. De cette manière la représentation en forme d’onde est applicable même
pour des fonctions de la perturbation ξ ( t ) totalement non ergodiques, par exemple des fonc-
tions pour lesquelles chaque réalisation de ξ ( t ) est une grandeur absolument arbitraire.
La création du modèle ondé comporte deux étapes.
1. Le choix d’un système convenable de fonctions de base { f i ( t ) }, qui peut être ob-
tenu par l’analyse visuelle et numérique des trends expérimentaux et/ou par l’analyse des ca-
ractéristiques dynamiques du processus physique qui a généré la perturbation ξ ( t ) .
2. La détermination du modèle d’état à structure d’onde, correspondant au modèle ondé
(1.54), (1.55). Le modèle d’état à structure d’onde représente l’équation différentielle satisfaite
par l’expression analytique de la perturbation à structure d’onde. Le modèle d’onde de ξ ( t )
doit donc être toujours cherché en tant que solution de l’équation différentielle inconnue. C’est
le problème inverse dans la théorie des équations différentielles. L’équation différentielle (ou le
système d’équations différentielles) avec pour solution le modèle ondé ξ ( t ) n’est pas (ou ne
sont pas) pas unique(s) dans le cas général.
La méthode efficace pour garantir la convergence de l’algorithme pour la solution du
problème inverse consiste en:
Supposer que pour chaque fonction f i ( t ) choisie à partir du système de base
{ f i ( t ) } il existe une transformation de Laplace correspondante f i ( p ) qui a la forme ap-
propriée des fonctions rationnelles (1.57)
Pm i (p)
(1.57) f i ( p )= ,
Q ni (p)
où P m i
( p ) et Q ni ( p ) sont des polynômes suivant les puissances de p avec les rangs
correspondants pour lesquels 0 ≤ m i ≤ n i ≤ ∞ . Dans ce cas, si les coefficients de poids c i
sont considérés comme des constantes, la transformation de Laplace du modèle à structure
d’onde de la perturbation ξ ( t ) peut être représenté par (1.58)
(p)
∑
M
Pm i
(1.58) ξ ( p ) = L [ξ ( t ) ] = c 1 f1 ( p )+ c 2 f2 ( p ) +. . . . . + c M fM ( p )= ci .
i =1
Qni (p)
En ramenant au même dénominateur, la relation (1.58) représente un rapport de deux po-
lynômes (1.59)
(p)
P
(1.59) ξ ( p )= ,
Q(p)
où: celui du numérateur P ( p ) comporte les coefficients c i , tandis que celui du dénominateur
Q ( p ) est le plus petit dénominateur commun parmi les polynômes des dénominateurs
{ 1 2 3 M
}
Q n ( p ) , Q n ( p ) , Q n ( p ) , . . , Q n ( p ) en (1.58). Cela garantit la dimension minimale
du modèle définitif de ξ ( t ).
(1.60) Q ( p ) = p + . . . + q 2 p + q 1 , ⎜⎜ ρ ≤ n i ⎟⎟ .
ρ ρ −1 ρ −2
+ qρ p + q ρ −1 p
⎜ ⎟
⎝ i =1 ⎠
De (1.59) il s’ensuit que la perturbation ξ ( t ) peut être représentée en tant que gran-
deur de sortie d’un système dynamique linéaire fictif avec fonction de transfert (1.61)
1
(1.61) G ( p )= ,
Q (p)
sous les conditions initiales { ξ ( 0 ) , ξ& ( 0 ) , ξ&& ( 0 ) , . . . } qui, à partir des transformations de
Laplace, déterminent le polynôme du numérateur P ( p ) .
Dans ces conditions le modèle à structure d’onde (1.55) de la perturbation ξ ( t ) satis-
fait à la solution d’une équation différentielle linéaire homogène à coefficients constants du
type (1.62)
ρ
d ξ (t ) d
ρ −1
ξ (t ) d
ρ −2
ξ (t ) d
ρ −3
ξ (t ) dξ (t )
(1.62) +qρ + q ρ −1 + q ρ −2 + .... + q 2 + q1ξ ( t )=0 ,
dtρ d t ρ −1 d t ρ −2 d t ρ −3 dt
De cette manière, si les fonctions de base { f i ( t ) } du modèle ondé (1.55) ont pour
transformation de Laplace (1.57), alors la détermination du modèle d’état de ξ ( t ) (1.55)
(c’est-à-dire de l’équation différentielle, dont l’intégrale de solution est le modèle (1.55)) n’est
nécessaire que pour le calcul des coefficients { q 1 , q 2 , . . . . , q ρ } d’après les équations (1.62)
et (1.63), et après - l’utilisation du modèle commun d’état (1.63) d’ordre ρ celui-ci dépendant du
choix des fonctions de base { f i ( t ) } dans le modèle à structure d’onde (1.55) de ξ ( t ) .
(1.66) Q ( p ) = p ρ + q ρ p ρ −1 + . . . + q 2 p + q 1 = p 2 ,
qui détermine le caractère des polynômes du numérateur et du dénominateur. Dans le cas
considéré, le polynôme Q ( p ) est du type (1.66), où ρ = 2 , q 2 = 0 , q 1 = 0 , ce qui veut dire que
l’équation semi-déterminée est la solution de l’équation différentielle du type (1.67)
d ξ
ρ
(t ) d
ρ −1
ξ (t ) dξ (t ) d ξ
2
(t )
(1.67) ρ
+q ρ ρ −1
+. . . . + q 2 + q 1ξ (t ) = 2
= 0 ,
dt dt dt dt
ou, en prenant en considération le caractère des coefficients de poids constants par intervalles,
elle est la solution de l’équation différentielle du type (1.68)
d ξ
2
(t )
(1.68) 2
=ν (t ),
d t
qui représente aussi l’état à structure d’onde cherché, correspondant, en tant que solution du
problème inverse, à l’équation semi-déterminée du modèle ondé. Pour les bases fonctionnelles
{ f i ( t ) } les plus utilisées (Tableau 1.1), la correspondance “modèle ondé ⇔ modèle d’état”
est donnée à la Fig.1.9, Fig.1.10.
100 x =c 1+c2*t+c3*t^2
ξ (t )
x =c 1+c2*t+c3*(t^2)+c 4*(t^3)
x =c 1+c2*e^(-2*t)+c3*e^(-3*t)+c4*e^(-4*t)
80
x =c 1+c2*e^(-2*t)+c3*e^(-3*t)+c4*e^(-4*t)+c5*t+c6*(t^2)+c 7*(t^3)
x =c 1+c2*(1-e^(-2*t))
60 x =c 1+c2*(1-e^(-2*t))+c 3*t*e^(-2*t)
x =c 1+c2*(1+5*e^(-t))+c3*((-5*t)+6)*e^(-t))
x =c 1+c2*t*e^(-5*t)+c 3*t*e^(-t)+c 4*e^(-5*t)+c 5*(t-2+(t+2)*e^(-t))
40
20
t
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-20
-40
-60
-80
-100
Fig.1.10
Si les foncions de base sont choisies de manière à approximer ξ ( t ) pour une longue
intervalle du temps, alors la solution est obtenue pour une petite valeur de M . Cela mène à une
faible valeur de ρ . D’autre côté, si les fonctions de base { f i ( t ) } sont choisies de façon à
approximer ξ ( t ) pour de petites intervalles du temps, la solution exige des valeurs plus gran-
des pour M et ρ .
Tableau 1.1.
№ ξ ( t ) ⇒ modèle Q ( D ) ξ ( t ) = ν ( t ) ⇒ état
d ξ
2
1 ξ ( t ) = c1 + c2 t 2
=ν (t )
dt
d ξ
3
2 ξ ( t ) = c1 + c 2 t + c3 t 2
3
=ν (t )
dt
d ξ
4
3 ξ ( t ) = c1 + c2 t + c3 t + c4 t 2 3
4
=ν (t )
dt
d ξ dξ
2
4 ξ ( t ) = c1 + c2 e −α t
2
+α =ν (t )
dt dt
d ξ d ξ
4 3
+ (α + β + γ ) +
ξ ( t ) = c1 + c 2 e −α t +
4 3
dt dt
5
+ c 3 e − β t + c 4 e −γ t d ξ dξ
2
+ (α β + α γ + β γ ) 2
+α β γ =ν (t )
dt dt
d 7ξ d 6ξ
+ (α + β + γ ) +
ξ ( t ) = c1 + c 2 t + c3 t 2 + c4 t 3 + d t7 dt6
6 −α t −β t −γ t
+ c5 e + c6 e + c7 e d 5ξ d 4ξ
+ (α β + β γ + α γ ) +α β γ =ν (t )
dt5 dt4
d 4ξ d 3ξ d 2ξ
+α β
2 2
+ α +β ( 2 2
) +
ξ ( t ) = (c1 + c 2 t ) e −α t + dt4 dt3 dt2
7
+ ( c 3 + c 4 t ) e −β t dξ
+α β + (α + β ) ξ ( t )=ν ( t )
dt
d ξ dξ
2
8 ξ ( t ) = c1 + c 2 1− e ( −t
) 2
+ =ν (t )
dt dt
d ξ d ξ dξ
3 2
9 ξ ( t ) = c1 + c2 1− e ( −t
)+ c 3t e
−t
3
+2 2
+ =ν (t )
dt dt dt
10
(
ξ ( t ) = c1 + c2 1+ ( α −1 ) e − t + ) d ξ
3
+2
d ξ
2
+
dξ
=ν (t )
+ c 3 (( 1−α ) t +α ) e −t
dt
3
dt
2
dt
d ξ d ξ
5 4
+ (2 +α ) +
ξ ( t ) = c1 + c 2 t e −α t + c3 t e − t + dt
5
dt
4
11
+ c4 e
−α t
(
+ c5 t − 2 + ( t + 2 ) e
−t
) d 3ξ d 2ξ
+ ( 1 + 2α ) +α =ν (t )
dt3 dt2
ξ ( t ) = c 1 + c 2 sin (α t ) +
d ξ d ξ dξ
5 3
12 + c 3 cos (α t ) + c 4 sin ( β t ) +
5
(
+ α +β
2 2
) 3
+α β
2 2
=ν (t )
+ c 5 cos ( β t )
dt dt dt
ρ
d ξ (t )
(1.70) ρ
=ν (t ) .
dt
L’introduction de la dépendance (1.69) dans la représentation de la forme ondée est très
efficace pour tous les cas pratiques, même si lors de la synthèse, la structure du modèle d’onde
ξ ( t ) est connue. Cela est argumenté par l’existence d’imprécision entre les valeurs des para-
mètres du système physique et de son modèle analytique. Cette supposition mène, aussi dans
les cas des modèles à structure d’onde des perturbations, à des éléments appelés “perturbés”
dans la description du système. A titre d’exemple la description d’un système non perturbé de
ce type est donnée ci après
(1.71) x& = A x + B μ (t ).
Du fait de l’incertitude présente, le système réel perturbé obéit à une description du type
(1.72), qui est ramené à (1.73). La relation (1.73) permet, en prenant en considération les pertur-
bation paramétriques, de représenter le modèle analytique par (1.74)
(1.72) x& = ( A + Δ A ) x + ( B + Δ B ) μ (t ),
(1.73) x& = A x + B μ + Δ A x + Δ B μ (t ),
(1.74) x& = A x + B μ ( t ) + ξ (t ),
(1.75) ξ ( t ) = Δ A x + Δ B μ ( t ) ,
où la perturbation ajoutée à l’équation, est la généralisation des termes représentant l’erreur du
modèle, c’est-à-dire (1.75).
Δ A et Δ B étant inconnus, la forme ondée de la perturbation ξ ( t ) dans les équations
(1.74), (1.75) est de même inconnue et dans ce cas de description des perturbations paramétri-
ques inconnues, le modèle à structure d’onde (1.51) n’est pas applicable.
I.3. Classifications.
I.4. Applications.
Δ Plin
WΦ1 WΦ2
Δ P VA
Ψ1 ( t,l) Ψ2 ( t, s)
W ( p ,Ψ 1 ( t , l ) ,Ψ 2 ( t , s ) ) Fig.1.12
l Q
- l - position du système de régulation de la vanne automatique VA ;
- s - charge hydraulique de VA dans le système;
-Ψ 1 ( t , l ) - perturbation paramétrique généralisée, dépendante de l’entrée;
-Ψ 2 ( t , s ) - perturbation paramétrique généralisée, dépendante de la sortie
d Q( t )
(1.76) T o ( l t , s t ) + Q( t )= k o (l t , s t ) l (t ) .
dt
2. Chute de pression Δ P (1.77), Fig.1.13, Fig.1.14, où:
P1 α1 PV α2 P2
V ,Θ
ΔP Fig.1.13
α1 , α2
( P1 , P2 )
WΦ1 WΦ 2 WΦ 4 WΦ3
Ψ4 ( t, k )
Ψ 1 ( t , P1 , P2 ) Ψ 2 ( t , α 1 ,α 2 ) Ψ 3 ( t , PV ) PV
W ( p ,Ψ 1 ( t , P1 , P2 ) , Ψ 2 ( t , α 1 ,α 2 ) , Ψ 3 ( t , PV ) ,Ψ 4 ( t , k ) )
P1 , P2
ΔP
( α 1 ,α 2 )
Fig.1.14
-Ψ 1 ( t , l ) - perturbation paramétrique généralisée, dépendante de l’entrée;
-Ψ 2 (t , α 1 ,α 2 ) - perturbation paramétrique généralisée indépendante;
ISBN 954 438 500 2 33
COMMANDE ROBUSTE
WΦ1 WΦ 2 WΦ3
Ψ 1 ( t , P1 , P2 ) Ψ 2 ( t , α 1 ,α 2 ) Ψ 3 ( t , PV ) PV
Fig.1.16
W ( p , Ψ 1 ( t , P1 , P2 ) , Ψ 2 ( t , α 1 ,α 2 ) , Ψ 3 ( t , PV ))
P1 , P2
PV
( α 1 ,α 2 )
-Ψ 1 ( t , l ) - perturbation paramétrique généralisée, dépendante de l’entrée;
-Ψ 2 (t , α 1 , α 2 ) - perturbation paramétrique généralisée indépendante;
-Ψ 3 (t , P V ) - perturbation paramétrique généralisée, dépendante de la sortie;
-Ψ 4 ( t , k ) - perturbation paramétrique-structurelle généralisée combinée dépendante de
l’entrée
V dΔ P α 1 P1 + α 2 P2
(1.78) + PV = .
R Θ (α 1 + α 2 ) d t α1 +α 2
4. Niveau H (1.79), Fig.1.17, Fig.1.18, où :
Q1
l
H
Fig.1.17
ν,ρ densité (viscosité)
WΦ 1 WΦ 2 WΦ 3
Ψ1 ( t,l ) Ψ 2 ( t ,ν , ρ ) Ψ3 ( t, H ) H
Fig.1.18
W ( p ,Ψ 1 ( t , l ) ,Ψ 2 ( t , ν , ρ ) ,Ψ 3 ( t , H ) )
Q1 H
ρ dH(t ) Q1 ( t )
(1.79) ⋅ + H ( t )= .
A (H , kl , ks ) dt A (H , kl , k s )
Des modèles pour l’analyse par simulation sont données par les structures Fig.3.1,
Fig.3.4 ÷ Fig.3.41, Fig.3.43 ÷ Fig.3.48, Fig.4.1 ÷ Fig.4.4, Fig.4.6, Fig.5.9, Fig.5.17, Fig.5.19, Fig.5.21,
Fig.5.22, Fig.5.27, Fig.5.29, Fig.5.34, Fig.5.38, Fig.5.41, Fig.5.42, Fig.6.3, Fig.6.17.
Ces modèles sont développés et sont utilisés dans les chapitres suivants pour approu-
ver l’efficacité et l’applicabilité des systèmes robustes considérés, réalisant les méthodes: de
contre-réaction efficace aux perturbations, d’estimation quantitative des indices généralisés
des systèmes analysés.
Ces modèles permettent également lors des simulations d’obtenir les résultats confor-
mément à la méthode des «coefficients fixes» (Fig.1.19, Fig.1.20) ou en tant que des fonctions
multivariables (Fig.1.21, Fig.1.22), qui est indicatif surtout pour les systèmes dynamiques nonli-
néaires.
0.5
Imag G ( jω )
D A S C R O N E ( s t ,ξ t )
D A S C R O N E ⋅ G S C ( s t ,ξ t )
-0.5
C L A S S ( j ω , s t ,ξ t )
Φ y y ( jω )
0
-1
-1 -0.5 0 0.5 1 1.5 2
Real G ( jω )
Fig.1.19 Fig.1.21
system classic disturbance absorbing system
Φ y y ( jω )
0
D A S C R O N E ⋅ G S C ( j ω , s t ,ξ t )
D A S C R O N E ( jω , s t ,ξ t )
C L A S S ( j ω , s t ,ξ t )
Fig.1.20 Fig.1.22
I.5. Conclusions.
Les définitions et les principes fondamentaux pour les chapitres suivants sont détermi-
nés et cités.
Chapitre 2
PERFORMANCE DES SYSTEMES DE COMMANDE EN CONDITIONS D’INCERTITUDE
Les procédés industriels pour la commande en tant que systèmes dynamiques repré-
sentent des filtres basse fréquence et sont caractérisés par la présence de retard et d’inertie. Ils
sont modélisés à l’aide d’unités dynamiques d’ordre élevé. L’approximation du retard par un
modèle de dimension finie (avec retard “pur” représenté par une série finie comme celle de
Padé) est adéquate pour l’intervalle de fréquences de fonctionnement du système. Cependant,
pour les hautes fréquences, la différence entre le retard réel et son approximation par un mo-
dèle de dimension finie, peut être considérée comme une incertitude. Cela implique que le ré-
gulateur dans le système soit conçu conformément à cette incertitude, c’est-à-dire en tant que
régulateur robuste. L’incertitude peut être décrite par différents moyens. Une des possibilités
pour modéliser l’incertitude dans le procédé réel de commande à partir des caractéristiques fré-
quentielles est l’ensemble fonctionnel Π ( jω ) (2.1), où Π ( jω ) ∈ G ( jω )
⎧ Δ G ( jω ) : G ( jω ) − G * ( jω ) ≤ l a ( ω ) , ( ω ∈ [ 0 ; ∞ ) ) ⎫
⎪⎪ ⎪⎪
(2.1) Π ( jω ) = ⎨ G ( jω ) − G * ( jω ) ⎛ la ( ω ) ⎞ ⎬ .
Δ ( ω ) ≤ l ( ω ) ⎜ l (ω )= ⎟
⎪ G j : ,
⎜ ⎟ ⎪
G * ( jω ) G * ( jω )
m m
⎪⎩ ⎝ ⎠ ⎪⎭
(2.3) r 0 ( ω i )= la ( ωi ) R ( ωi ) = lm ( ωi ) R ( ωi ) G* ( ωi ) ,
⎧⎪ Re 0 ( ω i ) = Re* ( ω i ) + r ( ω i ) c o s Ω , ( Ω ∈ [0 , ∞ ) )
(2.4) π 0 ( jω i ) = ⎨ .
⎪⎩ Im 0 ( ω i ) = Im* ( ω i ) + r ( ω i ) s i n Ω , ( Ω ∈ [0 , ∞ ) )
Nyquist plot
0.5
( −1, j 0 )
0
Imag (jw)
ω 3 ω 3 W
( jω )
ω 2
-0.5
ω 2
ω 1
ω
W * ( jω )
1
-1
ω ∈ [0 ; ∞ )
-1.5 -1 -0.5 0 0.5
Real (jw) Fig.2.3.а
Nyquist plot
1
W
( jω )
0.8
0.6
W * ( jω )
0.4
ω ∈ [0 ; ∞ )
0.2
( −1, j 0 )
Imag (jw)
-0.2
ω
ω
i
-0.4 1
ω i
-0.6 ω
ω
2
1
-0.8
ω 2
-1
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1
Real (jw)
Fig.2.3.b
La synthèse d’un régulateur dans le système de commande exige la connaissance du
modèle de l’incertitude, en présence duquel, le système en boucle fermée doit être stable. Dans
le cas contraire le régulateur réalisé ne serait pas efficace. C’est pourquoi, lors de la conception
de régulateur, le système de commande doit posséder la stabilité robuste et la performance ro-
buste. Dans le cas réel, l’action à l’entrée (externe, de signal) du système est généralisée et
peut être représentée par le vecteur v des perturbations externes de signal (2.5):
(2.5) v ( p ) = y 0 ( p ) ϑ ( p ) ς ( p ) [= Wv ( p ) v ′ ( p ) . ] T
1 G( p ) 1
(2.8) ε ( p ) = y0 (p) − ϑ (p) − ς (p) ,
1 + R ( p )G ( p ) 1+ R ( p ) G ( p ) 1+ R ( p ) G ( p )
⎡ R( p ) G( p ) G( p ) − R( p ) G( p) ⎤
⎢ ⎥
⎢ 1+ R( p ) G( p ) 1+ R( p ) G( p ) 1+ R( p ) G( p ) ⎥
⎡ y ( p )⎤ ⎢ ⎥ ⎡ y 0 ( p )⎤
R( p ) − R ( p )G ( p ) − R( p )
(2.9) ⎢⎢ u ( p ) ⎥⎥ =⎢ ⎥⋅⎢ϑ( p )⎥ .
⎢ 1+ R( p ) G( p ⎢ ⎥
⎢⎣ ε ( p ) ⎥⎦ ) 1+ R( p ) G( p ) 1+ R( p ) G( p ) ⎥ ⎢
ς(p)⎥
⎢ ⎥ ⎣ ⎦
⎢ 1 − G( p ) −1 ⎥
⎢ ⎥
⎣ 1+ R( p ) G( p ) 1+ R( p ) G( p ) 1+ R( p ) G( p ) ⎦
Pour le cas considéré, la condition nécessaire et suffisante de stabilité exige que toutes
les racines du polynôme caractéristique ( 1 + R ( p ) G ( p ) = 0 ) soient dans la partie gauche
du plan complexe. Pour l’estimation des propriétés du système, la théorie de la commande dé-
finit:
- la fonction de la sensibilité e (2.10), qui exprime l’influence de la perturbation rame-
née ς sur la grandeur réglable y et qui est primordiale lors de l’estimation de la performance
du régulateur dans le système en boucle fermée
1 ) ε(p) y( p
(2.10) e ( p ) = = = ;
1+ R( p ) G( p ) ς ( p ) y 0 ( p )
- la fonction de sensibilité complémentaire η (2.11), qui exprime l’influence du bruit
mesurable n sur la grandeur réglable y
R( p ) G( p ) y( p )
(2.11) η ( p ) = = .
1+ R( p ) G( p ) y0 ( p )− n ( p )
Les fonctions de la sensibilité e et de la sensibilité complémentaire η satisfont toujours
à l’exigence (2.12)
(2.12) e ( p ) + η ( p ) = 1 .
Lors de la conception des systèmes de commande des exigences sont en vigueur pour:
- obtenir une réduction du bruit mesurable n , c’est-à-dire e ( p ) ≈ 1 , η ( p ) ≈ 0 ;
- obtenir un suivi précis de la valeur y 0 par la grandeur réglable y et une contre-réac-
tion efficace aux perturbations, c’est-à-dire e ( p ) ≈ 0 , η ( p ) ≈ 1 .
Ces deux exigences sont contradictoires. Si le niveau du bruit mesurable n est bas
( n ( p ) → 0 ) et en prenant en considération le fait que, l’exigence principale par rapport aux
systèmes de commande robuste est la contre-réaction efficace aux perturbations internes (re-
paramétrisation et/ou restructuration dans le modèle analytique du procédé de commande),
alors lors de la conception de systèmes robustes on accentue la seconde exigence – pour le
suivi précis de la valeur de la consigne par la grandeur réglable et une contre-réaction efficace
aux perturbations (2.13)
⎧ 1 y( p) ε(p)
⎪ e ( p )= = = 0 ≈0
⎪ 1 + G ( p )R ( p ) ς ( p ) y ( p )
(2.13) ⎨ .
⎪ G ( p )R ( p ) y( p)
⎪ η ( p )= = 0 ≈1
⎩ 1 + G ( p )R ( p ) y ( p ) − n ( p )
Cette exigence (2.13) détermine le but principal lors de la commande du système - la mi-
nimisation de l’erreur ε (2.14) qui apparaît entre la grandeur réglable y et la consigne y 0 (lors-
que le système est soumis à des actions externes suivant y 0 et suivant ς )
(2.14) ε ( p ) = y 0 ( p ) − y ( p ),
et la nécessité que le module de la fonction de sensibilité e ( ω) (2.15) soit minimal, aussi
bien que le module de la fonction de sensibilité complémentaire η ( ω ) soit avec une valeur
la plus proche de l’unité (2.16), (2.17)
1
(2.15) lim e ( ω ) = lim =0 ,
ω→ ∞ ω→∞ 1 + G ( ω )R ( ω )
G ( ω )R ( ω )
(2.16) lim η (ω ) = lim =1 ,
ω →∞ ω →∞ 1 + G ( ω )R ( ω )
(2.17) e ( ω ) + η (ω ) =1 .
Il faut prendre en considération (en utilisant les théorèmes de l'Hôpital pour les limites),
que l’exigence (2.15) peut être satisfaite si et seulement si est satisfaite la condition (2.18)
(2.18) lim G ( ω ) R ( ω ) =0.
ω→∞
Mais pour les systèmes réels de commande (2.18) n’est en vigueur que pour des fré-
quences (2.19), supérieures à une valeur limite donnée ( ω * )
(2.19) lim G ( ω ) R (ω ) = 0 ,∀ ω > ω* .
ω→∞
Cette limitation réelle (2.19) ne permet pas la réalisation d’une “commande idéale” de
sensibilité nulle e ( ω ) = 0 pour l’intervalle de fréquence entier ω ∈ [0 ,∞ ) .
⎛ 1 ⎞
2
⎛ 1
2
⎞
(2.21) ε ( p ) = v ( ⎟ ; ⎜ ε (ω ⎟ .
p )⎜ ) = v( ω ) 2
⋅
2 2 2
⎜ 1+ R ⎜⎜ ⎟⎟
⎝ ( p )G ( p ) ⎟⎠ 1+ R ( ω ) G ( ω )
⎝ ⎠
Lors de la conception de systèmes robustes on choisit pour critère de performance
l’erreur intégrale-quadratique minimale ℑ (2.22) sous l’action généralisée. L’analogue de ℑ
dans le domaine des caractéristiques fréquentielles est donné par σ (2.23)
∞
∞ 2
∫
1 1
(2.23) σ = min max ⋅ v (ω ) dω .
2
R G ∈Π 2π 1 + G ( ω )R ( ω )
−∞
(2.24) ε ( t ) =
∫ ε ( t ) dt ,
2 2
2
∫
1
(2.25) min ε ( ω ) = min ε (ω ) dω ,
2 2
2π
2
R R
−∞
∫
1
(2.26) min e (ω )v (ω ) = min e (ω )v (ω ) dω .
2 2
2π
2
R R
−∞
⎧ v(ω )
2 ∞
v (ω )
2 ⎫
∫
⎪ 1 ⎪
(2.27) V = ⎨ v : v ' ( ω ) = = dω ≤ 1 ⎬ ,
2
⎪
2
Wv (ω ) 2π Wv (ω ) ⎪
⎩ 2 −∞ ⎭
∞ ∞
∫ ∫
1 1
(2.29) sup e W v v ' = sup d ω ≤ sup e W v v ' dω ,
2 2 2
e W v v' sup
2π 2π
2
v ' ∈V ' v' ∈V ' ω v ' ∈V '
−∞ −∞
⎧ ∞ ⎫
∫ v'
⎪ ⎪
(2.30) V ' = ⎨ v ' : v '
2
2
= 2
(t ) dt ≤ 1 ⎬ ,
⎪ ⎪
⎩ 0 ⎭
Si on suppose que pour le poids W v , la valeur optimale de la fonction de but (2.32) est
de valeur unité, alors de (2.33) il s’en suit que pour toute valeur de ω , (2.34) est en vigueur.
Cela démontre que, lors de la synthèse du régulateur, on peut imposer une limite pour la
fonction de la sensibilité (2.34). Si le régulateur est tel que la relation (2.35) soit en vigueur,
alors la limite (2.34) est atteinte.
Dans le cas où cette limite est déterminée selon la fonction de sensibilité du système
avec modèle nominal du procédé (2.36), alors elle forme l’expression analytique pour la per-
formance nominale du système de commande
(2.34) e ( ω ) < v (ω ) −1
,∀ω ,
(2.35) e ( ω ) v ( ω ) ∞
< 1,
(2.36) e * ( ω ) < v (ω ) −1
,∀ω .
(2.37) r 0 ( ω i ) = G* ( ω i ) R( ωi ) lm ( ωi ).
De manière analytique l’exigence de stabilité robuste du système par rapport à tous les
points de l’ensemble π ( jω ) (2.2), est donnée par (2.38), (2.39)
(2.38) 1 + G * ( ω ) R ( ω ) > r 0 ( ω ), ∀ω ,
(2.39) 1 + G * ( ω ) R ( ω ) > G* ( ω ) R ( ω ) lm ( ω ), ∀ω .
Nyquist plot
0 W ( jω ) W* ( jω )
( − 1; )
| 1+
j0
R(
ω
-0.2
i
)G
)|
* (ω
ω
i
*(
i
)G
π0 ( jω i )
)|
0 ω
i
-0.4 r
(
|R
| 1+R (ω ) G []
Imag (jw)
| 1+R (ω i
-0.6
π ( jω i )
i
ωi
) G (ω i )
(ω i ) |
| 1+
-0.8
R(
ω i)
|
G(ω
-1 ωi
i
)|
r 0 ( ω i )= l m ( ω i ) R ( ω i ) G* ( ω i )
-1.2 -1 -0.8 -0.6 -0.4 -0.2 0
Real (jw)
Fig.2.4.а
Nyquist plot
W ( jω ) W * ( jω )
0.2
0.1
( − 1; j0 )
0 0
| 1+ r
R(
ω )|
* (ω
i )G i
-0.1 * (ω )G
| 1+R
(ω i
π0 ( j ω i )
i )| |R
Imag (jw)
(ω i ) G
-0.2
| 1+
π ( jω i )
ωi
R(
[] (ω i ) |
-0.3 |1
+R
ω i)
(
G(
ω
-0.4 i )G
ω i)
ω
i )|
ωi
|
-0.5
-0.6
-0.7 r
0
( ω i )= lm ( ωi ) R ( ω i ) G* ( ω i )
-1 -0.8 -0.6 -0.4 -0.2 0
Fig.2.4.b Real (jw)
En considérant
G* ( jω ) R ( jω ) ( 1 + G * ( j ω ) R ( jω ) ) − 1 = η* ( jω ) ,
alors (2.38), (2.39) sont exprimés de manière équivalente par (2.40), (2.41)
G* ( ω )R ( ω )
(2.40) lm ( ω ) = η* ( ω ) lm ( ω ) < 1 , ∀ω ,
1 + G* ( ω )R ( ω )
(2.41) η * ( ω ) > l m ( ω ) , ∀ω .
−1
En supposant que le régulateur R est optimal, ajusté par rapport au modèle nominal du
procédé G * , selon un critère local σ de performance concret, c’est-à-dire:
R ( j ω ) ⇔ G * ( jω ) ,
{σ = const }
alors de (2.40) et (2.41) il s’ensuit que le système de commande a de stabilité robuste avec le
régulateur R ( jω ) (stable pour tout l’intervalle Π ( jω ) des variations Δ G ( jω ) ) si et seule-
ment si la fonction de la sensibilité complémentaire η * ( jω ) du système pour le modèle nomi-
nal du procédé G* ( jω ) satisfait à l’exigence de limitation stricte (2.42)
(2.42) η * ( ω ) l m ( ω ) ∞ = sup η * ( ω ) l m ( ω ) < 1 , ∀ω .
ω
∫ ∫
1 1
(2.43) min max (ε ( t ) ) 2
dt =
ˆ min max v
2
dω .
R G ∈Π R G ∈Π 2π 1+ G ( ω )R ( ω )
0 −∞
Il est évident que ce but n’est atteint que dans les cas (Fig.2.4), où la distance entre le
point ( − 1 , j 0 ) et n’importe quel point ω = ω i de W * ( jω ) , réduite par la valeur du rayon
r 0 ( ω i ) , ne soit pas supérieure à la distance correspondante à la fréquence ω = ω i de
W ( jω ) au point ( − 1 , j 0 ) . Les expressions analytiques des exigences pour tous les points de
l’ensemble π ( jω ) sont données par (2.44)
(2.44) 1 + G ( ω ) R ( ω ) ≥ 1 + G* ( ω )R ( ω ) − r 0 ( ω ) , ∀ G ∈ Π ;∀ω .
Suite aux transformations (2.45) ÷ (2.49), la relation (2.44) est exprimée par (2.50)
(2.45) 1 + G ( ω ) R ( ω ) ≥ 1 + G* ( ω )R ( ω ) − G* ( ω )R ( ω ) lm ( ω ) , ∀ G ∈ Π ; ∀ω ,
1 1
(2.46) ≤ , ∀ G ∈ Π ;∀ω ,
1+ G ( ω )R ( ω ) 1 + G* ( ω )R ( ω ) − G* ( ω )R ( ω ) lm (ω )
1 + G* ( ω ) R ( ω ) ⎛ 1 ⎞
(2.47) e ( ω ) ≤ ⎜ ⎟ ,
1 + G* ( ω ) R ( ω ) ⎜ 1 + G* ( ω ) R ( ω
⎝ ) − G* ( ω ) R ( ω ) lm ( ω ) ⎟⎠
1 1
(2.48) e ( ω ) ≤ ⋅ ,
1 + G* ( ω )R ( ω ) ⎛ 1 + G* ( ω )R ( ω ) − G* ( ω )R ( ω ) lm (ω ) ⎞
⎜ ⎟
⎜ 1 + G* ( ω )R ( ω ) ⎟
⎝ ⎠
1
(2.49) e ( ω ) ≤ e * ( ω ) ⋅ , ∀ G ∈ Π ;∀ω ,
⎛ G* ( ω ) R ( ω ) ⎞
⎜1 − ⋅ lm ( ω ) ⎟⎟
⎜ 1 + G* ( ω ) R ( ω )
⎝ ⎠
e* ( ω )
(2.50) e ( ω ) ≤ , ∀ G ∈ Π ;∀ω ,
1 − η* ( ω ) ⋅ lm (ω )
et modifie l’expression de l’erreur (2.51) dans le système (2.52)
2
1
(2.51) ε 2
(t ) =
ˆ ε (ω ) 2
≡ v (ω )2,
1+ G ( ω ) R ( ω )
2
1
(2.52) ε ( t ) =ˆ
2
ε (ω ) 2
≡ e* ( ω )⋅ v ( ω ) 2
, ∀ G ∈ Π ;∀ω .
1 − η* ( ω ) ⋅ lm (ω )
D’ici il s’ensuit que l’exigence principale pour la commande optimale - H 2 peut être ex-
primée par (2.53), et pour la commande optimale - H ∞ par (2.54) ou (2.55). En prenant en consi-
dération (2.50), l’exigence (2.55) se transforme en (2.56) et (2.57)
∞ 2
∫
1 1
(2.53) min e* ( ω ) v ( ω ) dω ,
2
R 2π 1− η* ( ω ) lm (ω )
−∞
(2.54) max e ( ω ) v ( ω ) ∞
= max sup e ( ω ) v (ω ) <1 ,
G∈Π G∈Π ω
(2.55) e ( ω )v ( ω ) ∞
= sup e ( ω ) v (ω ) < 1 , ∀ G∈Π ,
ω
e* ( ω ) v ( ω )
(2.56) < 1 , ∀ω ,
1 − η* ( ω ) lm (ω )
(2.57) η * ( ω ) lm (ω ) + e* ( ω ) v ( ω ) < 1 , ∀ω .
La performance robuste est définie par (2.57) et signifie stabilité robuste (2.42) ajoutée
à la performance nominale (2.36). L’amélioration des indices de performance nominale (la dimi-
nution de la valeur du module e * ( ω ) v ( ω ) ) réduit la robustesse en augmentant la valeur
du module η * ( ω ) l m ( ω ) et rapproche le système en boucle fermée du point d’instabilité
pour le procédé G ∈ Π . Pour garantir la performance robuste, le régulateur optimal pour le
système doit satisfaire aux exigences (2.59)
(2.59) min sup ( η * ( ω ) lm (ω ) + e* ( ω ) v ( ω ) ).
R ω
⎧ l a ( jω ) G ( jω )− G* ( jω ) ⎫
⎪Δ G ( jω )= = = l m ( j ω )⎪
(2.61) ξ m ⇔⎨ G* ( jω ) G* ( jω ) ⎬ ,
⎪ ⎪
⎩ l m ( jω ) ≤ lm ( ω ) ⎭
R ( j ω )G ( j ω )
(2.62) η ( j ω ) = = 1 − e ( j ω )= Φ ( jω ) ,
1+ R( jω ) G ( jω )
0
y y
1
(2.63) e ( j ω ) = = 1 −η ( j ω ) = Φ ( jω ) ,
1+ R( jω ) G ( jω )
y ε
0
⎧ G ( j ω )−G* ( j ω ) ⎫
⎪ Δ G: ≤ lm ( ω ) ⎪
⎪ G* ⎪
⎪ ⎪
lm ( ω ) < η*( ω )
−1
(2.66) Π = ⎨ , ∀ω ⎬ .
⎪ ⎪
⎪ η * ( ω ) l m ( ω ) + e* ( ω ) v ( ω ) < 1 , ∀ω ⎪
⎪ ⎪
⎩ ⎭
L’analyse robuste consiste en la vérification que le système satisfait aux exigences de
(2.64), ou bien de (2.65) ou de (2.66) conformément au critère concret, utilisé lors de la syn-
thèse.
∫
1
(2.67) min e (ω )v (ω ) = min e (ω )v (ω ) dω .
2 2
2π
2
R R
−∞
(2.68) e ( ω ) v ( ω ) ∞
= sup e ( ω ) v ( ω ) .
ω
(2.69) J =
∫ (x )
Qx + u T R u d t ,
T
(2.70) x& ( t ) = A x ( t ) + B u ( t ) , x ( 0 ) = x 0 ,
(2.71) u = − K x ,
La détermination de la position des pôles désirés du système en boucle fermée est ré-
alisée conformément aux indices désirés de performance du processus transitoire qui
d’habitude sont donnés de manière analytique par des inégalités.
Cela détermine le type de la solution du problème pour la position des pôles désirés
sous forme d’un domaine Γ 1 de l’espace de dimension “ p ” pour une valeur fixée du vecteur
α (1.7-1), par exemple α = α 1 , et une structure déterminée pour le régulateur dans le système.
A partir de ce domaine Γ 1 le domaine Ω 1 (α 1 ) est formé à partir des paramètres possibles
(pour α = α 1 ) du régulateur.
Pour une valeur de α (1.7-1), par exemple α = α 2 (qui représente la limite de l’incerti-
tude et la variation des paramètres du procédé), la solution du problème est un domaine Γ 2 ,
qui forme le domaine Ω 2 (α 2 ) des valeurs possibles des paramètres du régulateur (pour
α = α 2 ).
Le critère de minimisation des variations des indices de performance du processus tran-
sitoire (selon des pôles donnés du système en boucle fermée) consiste en la résolution du pro-
blème de détermination de la position des pôles dans la zone constituée de l’ensemble super-
posé des domaines Ω 1 (α 1 ) et Ω 2 (α 2 ) .
(2.72) G ′ ( j ω ) = G ( j ω ) + Δ G ( j ω ) ,
(2.73) ω u' = ω u + Δ ω u .
(2.74) Φ m = a r g R ( j ω u ) + a r g G ( j ω u ) .
Δ Φ m = Φ m' − Φ m =
(2.76) ,
(
= a r g R ′ j ω u' ) − ar g R( jω ) + ar g G ( jω ) − ar g G ( jω )
u
' '
u u
(2.77) Δ Φ m = Δ φ r + Δ φ p ,
(2.79) Δ φ r = 0 .
(2.80-2) y α H
= CαH ( t ) xα H
+ EαH (t ) u RH ( t ) , (ξ ( t ) = 0 ) ,
tandis que l’équation (2.81) illustre l’état “perturbé” du système
(2.81-1) x& α H +α~ = A α H + α~ ( t ) xα H + α~ + B α H + α~ ( t ) u R H ( t )+ F ( t ) ξ ( t ) ,
(2.81-2) y α H +α~ = C α H + α~ ( t ) xα H + α~ + E α H + α~ ( t ) u R ( t )+ G ( t ) ξ ( t ) .
H
La différence entre les grandeurs réglables y dans les deux descriptions du système
(2.80) et (2.81), donnée par la relation (2.82)
(2.82) e Y = y α H +α~ − y α H ,
u1 (p) y1 (p)
F (p) Fig.2.5
La fonction de transfert matricielle du système en boucle fermée est donnée par (2.84)
(2.84) M ( p ) = T y 1 u1 ( p ) = T 11 ( p ) + T 12 ( p ) [ I − F ( p ) T 22 ( p ) ] −1 F ( p ) T 21 ( p ) .
Les méthodes pour chercher la loi de commande robuste avec contre-réaction, diffèrent
par les exigences par rapport à la fonction de transfert matricielle du système en boucle fermée
T y u ( p ) et par l’approche pour satisfaire à ces exigences. Les méthodes sont:
1 1
(2.85) m i n T y 1 u1 (p) ∞
,
F ( p )
(2.86) T y 1 u1 (p) ∞
< 1,
(2.87) D ( p )T y 1 u 1 ( p ) D −1 ( p ) < 1 .
∞
La procédure de synthèse est composée des phases suivantes, comportant deux pro-
blèmes d’optimisation, résolus en fixant soit F ( p ) , soit D ( p ) :
(2.88) D( p ) T y1u1 ( p ) D −1 ( p ) .
∞
cul.
Chapitre 3
SYSTEMES ROBUSTES A DEVIATION MINIMALE DE LA TRAJECTOIRE
NOMINALE
y
0
(p) ε(p) u (p) y (p)
R* ( p ) G* ( p )
- Fig.3.1
ν (p) ξ (p)
ΔG
y (p)
ν (p) ξ (p) G*
u (p)
y
0
(p) ε(p) u (p) y (p)
R* ( p ) G (p)
-
Fig.3.2
perturbation paramétrique multiplicative
Fig.3.3
perturbation paramétrique additive
La description (3.2) ÷ (3.5) du système nominal non-perturbé (Fig.3.1) utilise les nota-
tions: y 0 ( p ) - consigne; ε ( p ) - erreur; ν ( p ) - disturbance; u ( p ) - grandeur de com-
mande; y ( p ) - grandeur réglable; Φ i , j ( p ) - fonction de transfert du système en boucle fer-
mée avec entrée i et sortie j
(3.2) Φ yoy
( p ) = R * ( p ) G ( p ) [ 1 + R * ( p ) G * ( p ) ] −1 ,
(3.3) Φ y o
ε
( p ) = 1 [ 1 + R * ( p ) G * ( p ) ] −1 ,
(3.4) Φ ν y ( p ) = G* ( p ) [ 1 + R* ( p ) G* ( p ) ] − 1 ,
(3.5) Φ ν ε ( p ) = − G* ( p ) [ 1 + R* ( p ) G* ( p ) ] − 1 .
Les variations du procédé, causées par la perturbation paramétrique ξ ( p ) , sous
conditions initiales nulles, (Fig.3.2), sont données par (3.6). Ici G ( p ) est la fonction “pertur-
bée”, tandis que Δ G ( p ) = l a ( p ) représente ses variations autour de G * ( p )
(3.6) G ( p ) = G * ( p ) + Δ G ( p ) , [Δ G ( p ) = G ( p )− G* ( p ) = l a ( p ) ] .
La dynamique du système classique non-perturbé par ξ ( p ) (Fig.3.2, Fig.3.3) est don-
née par (3.7) ÷ (3.11):
( p ) = R* ( p ) G ( p ) [ 1 + R* ( p ) G ( p ) ] −1
(3.7) Φ ,
yo y
( p ) = 1 [ 1 + R* ( p ) G ( p ) ]
− 1
(3.8) Φ y oε
,
( p ) = G ( p ) [ 1 + R* ( p ) G ( p ) ]
−1
(3.9) Φ ν y ,
( p )= − ( p ) [1 + R * ( p ) G ( p ) ]
−1
(3.10) Φ ν ε G ,
( p ) = Δ G ( p ) [ 1 + R* ( p ) G ( p ) ]
−1
(3.11) Φ ξ y .
La perturbation ξ ( p ) fait varier les valeurs des paramètres de l’équation caractéristi-
que et déplace les pôles du système nominal en nuisant à sa performance. Le régulateur de
base R * ( p ) (3.1) et le système classique (Fig.3.2) sont une solution non efficace de la tâche
pour la stabilisation en conditions d’incertitude avec Δ G ( p ) .
La trajectoire du système nominal est une conséquence des variations de y 0 ( p ) et
ν ( p ) . La notion trajectoire nominale du système (3.15) est définie comme la réaction du sys-
tème (3.12) ÷ (3.14) à une action perturbatrice généralisée ϑ
[
(3.12) y α H
( p ) ]ν = y ( G* ) ( p ) = [G * ( p ) [ 1 + R * ( p ) G * ( p ) ] − 1 ] ν ( p ) ,
[
(3.13) y α H
( p ) ]ξ =0 ,
[
(3.14) y α H
( p )] y o
= y ( G* ) ( p ) = [R* ( p ) G* ( p ) [ 1 + R* ( p ) G* ( p ) ] − 1 ]y o
(p) ,
(3.15) [y α H
( p ) ]O G =G *
[
= Φ νy 0 Φ ξ y ] [ν ( p ) ξ (p) yo ( p )] .
T
La description du système perturbé (3.16) ÷ (3.18) est donnée en tant que trajectoire per-
turbée du système (3.19):
(3.16) y α [ H +α~ ( p ) ]ν = y (G * +Δ G ) ( p ) = G ( p [ ) [1 + R * ( p ) G
( p )]
−1
]ν ( p ) ,
(3.17) y α[ H +α~ ( p )]ξ = y (G * +Δ G ) ( p ) = Δ G [ ( p ) [1 + R * ( p ) G ( p ) ]
− 1
]ξ ( p ) ,
(3.18) [ y α H +α~ ( p )] y o = y ( G * +Δ G ) ( p ) = R * [ ( p ) G ( p ) [ 1 + R* ( p ) G ( p ) ]
−1
]y o
(p) ,
(3.19) [y α H + α~ ( p ) ] G =G
= ⎡Φ ν
⎢⎣
y Φ
ξ y Φ
yoy
[
⎤ ν
⎥⎦
(p) ξ (p) y
o
( p )]
T
.
(3.21) u ( p ) = u 1 ( p ) + u 2 ( p ) ,
(3.22) u ( p ) = R * ( p ) ε ( p ) + [ R * ( p ) G * ( p )ε ( p ) − y ( p ) ] D F ( p ) ,
(3.23) u 2 ( p ) = [ R * ( p ) G* ( p ) ε ( p ) − y ( p ) ] DF ( p ) ,
(3.24) u 2 ( p )=0 , [G
( p ) ≡ G* ( p ) , Δ G ( p ) = 0 ].
ξ (p)
régulateur robuste (p)
ν ΔG
y
0
(p) ε (p) u1 ( p ) y (p)
R* ( p ) G* ( p )
- u2 (p)
G* ( p ) ε* (p)
DF (p)
Fig.3.4 -
La description du système robuste non-perturbé (Fig.3.4) ROB 1 (Robust System with a
Minimum Deviation from the Nominal Trajectory) est donné par (3.2) ÷ (3.5) et du système
perturbé - par (3.25) ÷ (3.29):
(p)
G
(3.25) Φ ν y ( p ) = ,
(1 − G
( p ) D F ( p ) ) + R * ( p ) G ( p ) (1 − G * ( p ) D F ( p ) )
(p)
Δ G
( p )=
(3.26) Φ ,
ξ y
(1 − G
( p ) D F ( p ) ) + R * ( p ) G ( p ) (1 − G * ( p ) D F ( p ) )
R * ( p )G ( p ) (1 − G * ( p ) D F ( p ) )
(3.27) Φ
( p )= ,
y o
y
(1 − G
( p ) D F ( p ) ) + R * ( p ) G ( p ) (1 − G * ( p ) D F ( p ) )
(1 − G ( p ) D
( p ))
(3.28) Φ
( p )= F
,
y 0
ε
(1 − G
( p ) DF ( p )) + R* ( p ) G
( p ) (1 − G * ( p ) D F ( p ) )
(p)
−G
(3.29) Φ ν ε ( p )= .
(1 − G
( p ) D F ( p ) ) + R * ( p ) G ( p ) (1 − G * ( p ) D F ( p ) )
En prenant en considération (3.30), le système perturbé peut être décrit par l’intermé-
diaire des relations (3.31) ÷ (3.33)
(3.30) A = ( 1 − G * D F ) (
, B = 1− G DF ) ( )
, C = 1 − G DF ⋅ (1 − G* DF )−1 = B A −1 ,
G(p)
(3.31) Φ ν y ( p )= ,
B ( p ) + R * ( p )G ( p ) A ( p )
Δ G ( p
)
(3.32) Φ ξ y ( p )= ,
B ( p )+ R* ( p ) G ( p ) A ( p )
R * ( p )G
( p ) A( p ) R * ( p )G ( p )
(3.33) Φ
( p )= = .
B ( p ) + R * ( p )G ( p ) A ( p ) C ( p ) + R * ( p )G ( p )
yo y
⎡ ⎤ ⎡ν ( p )⎤
G G* ΔG R* G R* G* ⎢ ⎥
(3.34) [ e ( p )] = ⎢ .
− − ⎥ ⎢ξ ( p)⎥
⎢⎣ B + R * G * A 1 + R * G * B + R* G A C + R* G 1 + R * G * ⎥⎦ ⎢⎣ y o ( p ) ⎥⎦
(3.35) e Y ≤ Δ e Y
⇔ e (p) = [e ( p )]ο .
Du point de vue de la stabilité du système, le cas le plus difficile est la limite supérieure
des variations du coefficient de transfert du procédé k ob et/ou τ ob T ob . Par exemple, si le mo-
dèle nominal du procédé est du type (3.36), le procédé perturbé à la limite supérieure G (p)
est donné par (3.37)
⎧
(3.37) ⎪⎨ G ( p )≡ G ( p ) = G * ( p ) + Δ G ( p ) = G * ( p ) + l a ( p ) = [ 5 , 85 e −255 p ( 520 p + 1 ) − n ] .
[
⎪⎩ l a ( p )=Δ G ( p ) = G [] ( p ) − G * ( p ) = 5 , 85 e −255 p ( 520 p + 1 ) −n − 0 , 5 e −180 p ( 1350 p + 1 ) −n ]
⎡ ⎤ ⎡ ν ⎤
G G* ΔG R* G R* G * ⎢ ⎥ .
(3.38) [ e ] ROB
=⎢ − − ⎥ ⎢ ξ ⎥
⎢⎣ B + R * G * A 1 + R * G * B + R* G A C + R* G 1 + R * G * ⎥⎦ ⎢⎣ y o ⎥⎦
(3.39) R * ( p ) ⇔ G * ( p ) , ( β * ⇔ α H , β * ( p ) = R * ( p ) ⋅ G * ( p )) ,
(3.40) R ( p ) ⇔ G ( p ) , (β ⇔ α H + α~ , β ( p ) = R ( p ) ⋅ G ( p )) .
ν (p) ξ (p)
y 0
(p) ε (p) u (p) y (p)
R
(p) G
(p)
-
Fig.3.5
Dans ce cas la solution du problème pour la synthèse d’un régulateur robuste est rame-
né à la conception du filtre dynamique D F ( p ) qui accomplit les exigences de l’équation de
balance de la stabilité (3.41), correspondante au critère de °déviation minimale et stabilité° du
système (Fig.3.4) qui démontre l’essence de la méthode de synthèse proposée et satisfait aux
exigences de:
(3.42) 1 − G D F + R * G − R * G * G D F = 1 + R G ,
(3.43) ( 1 + R * G ) − G D F ( 1 + R * G * ) = 1 + R G ,
(3.44) − G D F ( 1 + R * G * ) = 1 + R G − 1 − R * G ,
(3.45) G D F ( 1 + R * G * ) = − G ( R − R * ) ,
( p ) − R* ( p )
R
(3.46) D F ( p ) = − .
1 + R* ( p )G* ( p )
R* G
( 1 − G *D F ) R* G
(1 + R
G* )
(3.47) Φ y
(p) = = ,
o
y {G = G }
(1 + R
G ) (1 + R
G ) ( 1 + R* G* )
G
(3.48) Φ ν y
(p) = ,
{ G = G } (1 + R G
)
Δ G
(3.49) Φ ξ y
(p) = ,
{G = G } (1 + R G
)
(3.50) [y α H + α~ ( p ) ]
ROB
G =G
= ⎡Φ ν y
⎢⎣
Φξy
Φy
o
y ⎥⎦
[
⎤ ν( p ) ξ(p) y
o
( p )]
T
,
aussi bien que la description du système robuste non-perturbé avec (3.51) ÷ (3.53)
R* G*
(3.51) Φ s y (p) = ,
{ G = G* } (1 + R* G* )
G*
(3.52) Φ ν y ( p ) = ,
{ G = G* } (1 + R * G * )
(3.53) Φ ξ y (p) = 0 .
{ G = G* }
(3.54) [ e ] ROB ⎡ G
G* ΔG R* G
(1 + R
G* ) R* G* ⎤ ⎡ν
⎢ ξ
⎤
⎥ ,
=⎢ − − ⎥
⎢⎣ 1 + R G
(1 + R * G * ) (1 + R
G ) (1 + R
G ) ( 1 + R * G * ) ( 1 + R * G * ) ⎥⎦ ⎢
⎢⎣ y o
⎥
⎥⎦
qui est de norme minimale e ( p ) , puisque sont valables les relations (3.55)
⎪
[
⎧ y
α H + ~( p )
α ]
ROB
G =G
[
− yα H ( p )
O
]
G = G*
[
< y α H + α~ ( p )
G =G
]
− yα H ( p )
O
[ ] G = G*
⎫
⎪
⎪ ⎪
⎪
⎪
[
y α H + α~ ( p )
]
ROB
G = G
[
< y α H + α~ ( p )
G =G
] ⎪
⎪
⎪ [ e ( p ) ] ROB < [ e ( p ) ] ⇔ [ e ( p ) ] ROB = m i n e ( p ) ⎪
⎪ ⎪
⎪ ⎧ G
G* G
G* ⎫ ⎪
⎪ ⎪ − < − ⎪ ⎪
(3.55) ⎨ ⎪
⎪ ⎪
1+ R G
(1 + R * G * ) 1 + R* G [
[1 + R * G * ] ] ⎪
⎪
⎬ .
⎪
⎪ ⎪ Δ G Δ G ⎪⎪ ⎪
⎪ ⎪ < ⎪
⎪ ⎨ (
1+ R G
)
1 + R* G [
] ⎬ ⎪
⎪ ⎪ ⎪ ⎪
⎪ ⎪ R* G (
1 + R G* ) R* G
⎪ ⎪
⎪ ⎪ ⎪
R* G* R* G*
− < − ⎪
⎪ ⎪ 1 + R G ( 1 + R* G* ) ( 1 + R* G* )
⎩ ⎪⎩
( ) 1 + R* G [[ 1 + R *G * ] ] ⎪
⎪⎭
⎪
⎭
- En différence par rapport au système classique, le système robuste proposé ROB 1 est
caractérisé par les polynômes stables (3.47) ÷ (3.53) pour l’état perturbé aussi bien
que pour l’état non-perturbé. Cela est caractéristique aussi pour la déviation (3.54)
de la trajectoire nominale du système robuste (le minimum de la norme de la dé-
viation). Avec ces propriétés le système proposé satisfait à l’exigence de stabilité
robuste (voir la preuve dans les problèmes d’application & 3.2);
- Dans la méthode considérée le régulateur de base R * ( p ) , aussi bien que le filtre dy-
namique D F ( p ) et le régulateur “hypothétique” R ( p ) sont synthétisés sous
le même critère de performance, ce qui garantit que le système ROB 1 possède la
propriété correspondante à l’exigence de performance robuste du système (voir la
preuve dans les problèmes d’application & 3.2);
ν (p) ξ (p)
ΔG
régulateur robuste
y 0
( p ) ε( p ) y (p)
(
R* 1 − R G*
)( 1 − R * G * ) −1
ΔG
u( p)
- y (p) -
(R
− R* )( ( 1 − R * G * ) R * ) −1
Fig.3.6
Ici sont relevées les propriétés structurelles du régulateur robuste, synthétisé selon le
critère °déviation minimale de la trajectoire nominale et stabilité°.
Les nouveautés dans ce système robuste avec modèle interne du procédé à commander
et retour conditionnel sont la méthode fréquentielle [99,100] et le critère °déviation minimale de
la trajectoire nominale et stabilité° pour la synthèse du compensateur dynamique.
En effet, c’est une méthode typique pour la synthèse robuste dans une des classes
FDM (Frequency Domain Methods), QFT (Quantitative Feedback Theory) et RMM (Ro-
bust Model Matching Methods).
k (T p +1 )( T p+1 ) 0.1 ( 10 p + 1 )( 1 p + 1 )
(3.59) R ( p )= R i d
= .
Ti p ( a Ti p + 1 ) 10 p ( 0 , 21 p + 1 )
G ( j ω ) = G* ( j ω ) G ( j ω ) = G* ( j ω )
= (1 + R* G* )
−1
Φy 0
ε
Φ νy = G * ( 1 + R * G * ) − 1
= R* G* (1 + R* G * )
−1
Φy 0
y
Fig.3.7 Fig.3.8
G = G* ; G = G G =G
ϕ G* ( ω ) ϕ G (ω ) classique
classique
AG (ω )
A G* ( ω )
Fig.3.9 Fig.3.10
Φy 0
y
(
= R * G 2 1 + R * G 2 ) −1
R* G* Φy 0
y
(
= R * G 3 1 + R * G 3 ) −1
R * G 15
R* G 1
R* G 2
R* G 3
R* G 4
R* G 5 Φy 0
y
(
= R * G 4 1 + R * G 4 ) −1
R* G 6 Φy 0
y
= R* G * (1 + R* G * )
−1 Φy 0
y
= R* G 5
(1 + R * G )
5
−1
Fig.3.11 Fig.3.13
(
système classique G = G * ; y y , ν = 10 % ; ε y , ν = 10 %
0
) ( 0
) système classique y y ( 0
, ξ → k ob = 2.35 ,τ = 2.35 )
y
Fig.3.12 Fig.3.14
En régime nominal avec modèle du procédé G * ( p ) , le système (Fig.3.12) satisfait aux
exigences imposées par la synthèse.
En régime d’exploitation pour procédé perturbé à la limite supérieure G ( p ) avec le
modèle (3.57), le système classique (Fig.3.1) est instable (Fig.3.9, Fig.3.10, Fig.3.11, Fig.3.13).
Fig.3.14 donne la réponse indicielle pour un échelon additif ξ a ( p ) [ ξ a ( p ) ⇔ Δ G ( p , ξ ) ]
(3.15), signal qui le ramène à la limite de stabilité. Dans ce cas le procédé est modelisé par
(3.61)
−2 , 35 p −1 , 0 p
2 , 35. e 1 , 0. e
(3.60) Δ G ( p , ξ ) = − ,
( 10 p + 1 ) ( 10 p + 1 )
−2 , 35 p
2 , 35. e
(3.61) G ( p ) = .
( 10 p + 1 )
I.2. La même procédure pour la synthèse d’un système hypothétique (Fig.3.5) pour la
stabilisation de G ( p ) (3.57), conformément aux exigences et aux critères de performance
pour la stabilisation de G * ( p ) , mène à R ( p ) (3.59).
I.3. En tant qu’élément principal, R ( p ) détermine la conception de D F ( p ) (3.62)
dans le système robuste ROB 1 pour stabilisation de G ( p ) conformément à la structure de
Fig.3.4, Fig.3.6. Le modèle du système robuste synthétisé est donné par Fig.3.15, Fig.3.16
0.1 ( 10 p + 1 )( 1 p + 1 ) 3 ( 10 p + 1 )( 2 p + 1 )
−
R ( p )− R* ( p )
10 p ( 0 , 21 p + 1 ) 10 p ( 0 , 2 2 p + 1 )
(3.62) D F ( p )= = .
1 + R* ( p ) G* ( p ) 3 ( 10 p + 1 )( 2 p + 1 ) 1. e
−1 p
1+
10 p ( 0 , 22 p + 1 ) ( 10 p + 1 )
-
1
8.384 +
10s+1 Sum7
Slider Gain2 Transfer Fcn4 Transport
Delay1
1
1
10s+1
Slider Gain1 Transport
Transfer Fcn3
Delay2
+ + 1
+ + 1 +
- + 10s+1
y
0
(p) ε (p) u1 ( p ) y (p) 1
1 +
R* ( p ) G* ( p ) 10s+1 -
- u2 (p)
Gain2
Transfer Fcn1 Transport Delay2 Sum3
+ 1
-
1 10s+1
G* ( p )
Sum2
ε* (p) PIDcontroler1 Gain1 Transfer Fcn2 Transport Delay1
-
+
DF (p) Sum4
-
PID controler_
(3.63) l m ( ω ) < η ( ω ) −1
ROB
, ∀ω .
Ceci est la preuve que le système analysé (Fig.3.15, Fig.3.16) est de stabilité robuste
pour l’ensemble Π de G ( p ) (des fluctuations paramétriques de G ( p ) autour G * ( p ) ) et
pour des conditions initiales lors de la synthèse du système (3.64)
[
(3.64) Π ∈ G *, G . ]
ISBN 954 438 500 2 66
COMMANDE ROBUSTE
La stabilité robuste du système η ( ω ) l m ( ω ) ROB < 1 est illustrée par Fig.3.18. Pour
comparaison est donnée η ( ω ) −1
CLASS
(3.65), qui ne satisfait pas aux exigences de stabilité et
de performance robustes
(3.65) l m ( ω ) < η ( ω ) −1
CLASS
, ∀ω .
En même temps, pour l’ensemble considéré (3.64), le système satisfait aux exigences de
performance robuste (3.66)
(3.66) η ( ω ) lm ( ω ) + e (ω ) s(ω ) < 1 , ∀ω .
−1
η
−1
ROB
1 = Φ y
0
y
(ω ) 1
ROB
l ( jω )= Δ G ( jω )
m
G ( j ω )− G * ( j ω )
l ( jω )=
G* ( jω )
m
l m ( jω ) ≤ lm (ω )
Fig.3.17
performance
robuste
η lm + e y0 < 1
Fig.3.18
(ou proches à celles-ci), pour des perturbations paramétriques et de signal avec base
pour la comparaison - le système classique correspondant;
tation (ou proches à celles-ci), le système perturbé dans le spectre complet, avec base
pour la comparaison - le correspondant système classique paramétriquement perturbé;
[ ]
sys
[ ê ] , [ ε̂ ]
sys sys
estim
et Ê Δ
estim
étant les estimations pour les autres conditions étant les mêmes,
estim
⎪
[ ]
⎧ ν ( p ) ξ ( p ) y o ( p ) T pour systèmes robuste et classique analyses ⎫
⎪
⎪
(3.67) ϑ = ⎨ [
ν( p ) 0 ]
y ( p ) pour système nominal
o T ⎪
⎬ .
⎪
( ) (
⎪⎩ υ 1 = f 1 ( υ , q , V ) ; υ 2 = f 2 υ , q ,V ; υ 3 = f 3 υ , q , V
≈ ≈ ~
)
~ ⎪
⎪⎭
cours à la simulation parallèle des systèmes synthétisés pour les mêmes conditions initiales en
utilisant les modèles de VA :
- analyse d’un groupe de modèles des systèmes comparés, mis dans les mêmes
conditions du milieu d’exploitation ϑ (3.67);
- analyse de groupes homogènes de modèles des systèmes comparés, mis dans des
différents régimes d’exploitation ϑ 1 , ϑ 2 ,. . , ϑ n (3.67).
L’essentiel de la méthode [99,100] est le suivant :
En conditions de simulation parallèle en tant qu’estimations [ ê ] estim de [ e ] estim sont uti-
sys sys
[ ) ] [ ŷ (t , ϑ ) ]O
syst estim
(3.68) [ ê ( t )] = ŷ α H +α~ ( t , ϑ
NOM
estim
a − αH ,
G = G*
G =G
t t
∫ [ ŷ (t , ϑ ) ]
∫ [ ŷ (t , ϑ ) ]O
sys sys
(3.69) [ ê ( t )]
NOM
estim
estim
b = α + α~
dt − αH dt ,
H
G =G G = G*
0 0
t t
∫ [ ŷ (t , ϑ ) ]
∫ [ ŷ (t , ϑ ) ]O
sys sys
(3.70) [ ê ( t )]
NOM
estim
estim
c = α + α~
dt − αH dt ,
H
G =G G = G*
0 0
t t
∫ [ ŷ (t , ϑ ) ]
∫ [ ŷ (t , ϑ ) ]O
sys
NOM
estim
α + α~ dt − αH dt
H
G =G G = G*
sys
(3.71) [ ê ( t ) ) ] estim
d = 0
t
0
100 , % .
∫ [ ŷ ( t , ϑ ) ]
sys
estim
α + α~ dt
H
G =G
0
sys
En fonction de l’estimation concrète utilisée [ ê ( t ) ] estim
i , l’analyse démontre avec com-
G = G*
.
G =G
− yα H[ ( p )] 0
NOM
G =G*
,
G = G*
, analogiques à (3.68) ÷ (3.71)
(3.73) [ ê ( t ) ] CLASS
e = ŷ α [ H + α~ ( t , ϑ ) ]
CLASS
G =G
− [ ŷ αH (t , ϑ ) ]O
NOM
G = G*
,
t t
(3.74) [ ê ( t )]
∫ [ ŷ (t , ϑ ) ]
∫ [ ŷ (t , ϑ ) ]O
CLASS NOM
= dt − dt ,
CLASS
f α + α~ αH
H
G =G G = G*
0 0
t t
(3.75) [ ê ( t ) ] CLASS
∫ [ ŷ ( t , ϑ ) ]
∫ [ ŷ (t , ϑ ) ]O
CLASS NOM
g = α + α~
d t− αH dt ,
H
G =G G = G*
0 0
t t
∫ [ ŷ ( t , ϑ ) ]
∫ [ ŷ (t , ϑ ) ]O
CLASS NOM
α + α~
dt − αH dt
H
G =G G = G*
(3.76) [ ê ( t ) ] CLASS
h = 0
t
0
100 , % .
∫ [ ŷ ( t , ϑ ) ]
CLASS
α + α~ dt
H
G =G
0
Les modèles du système robuste et du système classique sont comparés à partir des re-
lations du type
⎛ sys
⎞
[ ê ( t ) ] iΔ = f i ⎜⎜ [ ê ( t ) ] CLASS
i , [ ê ( t ) ] estim
i
⎟⎟ ,
⎝ ⎠
qui reflètent la différence dans leurs déviations (3.73) ÷ (3.76) de la trajectoire nominale.
En conditions de simulation parallèle, en tant qu’estimations [ ε̂ ] estim de [ ε ] estim , sont
sys sys
utilisées les relations entre des grandeurs caractérisant la réaction du système à une action gé-
néralisée ϑ (3.67).
Pour une base de l’estimation comparative de la précision dynamique du système ana-
lysé est pris le système classique paramétriquement perturbé, correspondant au modèle
nominal du procédé commandé. Le système analysé est estimé en fonction de la trajectoire de
base (3.77) (l’erreur dynamique du système classique paramétriquement perturbé). La trajec-
toire de l’erreur dynamique estimée est donnée par (3.78)
(3.77) ε CLASS o
⎡
(ν , ξ , y ) ( p ) = ⎢⎣ Φ ν ε
CLASS
Φ ξε
CLASS
Φ y ε
o
CLASS ⎥⎦
[
⎤ ν( p ) ξ( p ) y
o
( p )] ,
T
⎡ ⎤
[ ( p )]
sys
( p ) = ⎢Φ ν ε ⎥ ν( p ) ξ( p )
T
(3.78) ε (estim Φ ξε Φ .
ν ,ξ, y ) o
yo ε
yo
⎣ ⎦
sys sys sys
estim estim estim
Le cas optimal pour la valeur de l’erreur dynamique est qu’elle soit nulle - une erreur in-
férieure dans le système détermine une précision dynamique supérieure. C’est la raison pour le
fait que la différence strictement positive dans les trajectoires des systèmes [ Δ ε ( p ) ] Δ (3.79)
définit les avantages dans la précision dynamique du système analysé par rapport au classi-
que, qui est exprimé par les estimations correspondantes [ e ( t ) ] εi (3.80), données par
)
(3.81) ÷ (3.84)
sys
(3.79) [ Δ ε ( p )] Δ
= ε ( yo CLASS
,ν , ξ ) ( p ) −ε (y
estim
o
,ν , ξ ) ( p ),
sys
(3.80) [ e ( t
)
) ] εi = [ Δ ε) ( t ) ] Δ = ε) CLASS ) estim
( y , ν , ξ ) ( t ) −ε ( y , ν , ξ ) ( t ) ,
o o
) ] a =[ε α ( t ,ϑ ) ] [ ]
sys
) )
(3.81) [ ê ( t − ε α H +α~ ( t ,ϑ )
CLASS
ε estim
+α~
O
,
H
G =G G =G
t t
∫ [ε ( t ,ϑ ) ]
∫ [ε ( t ,ϑ ) ]
sys
) )
(3.82) [ ê ( t )]b
CLASS
ε estim
= dt − dt ,
O
α + α~ α + α~
H
G =G H
G =G
0 0
t t
∫ [ε ( t ,ϑ ) ]
∫ [ε ( t ,ϑ ) ]
sys
) )
(3.83) [ ê ( t )]c
CLASS
ε estim
= dt− dt ,
O
α + α~ α + α~
H
G =G H
G =G
0 0
t t
∫ [ε ( t ,ϑ ) ]
∫ [ε ( t ,ϑ ) ]
sys
)
CLASS ) estim
dt −
O
α + α~ α +α~ dt
H
G =G H
G =G
(3.84) [ ê ( t ) ] εd = 0
t
0
100 , % .
∫ [ )
ε α H + α~ ( t ,ϑ ) ]
CLASS
G =G
dt
0
Les systèmes analysé et classique sont comparés en utilisant des relations du type
( )
[ ê ( t ) ] Δj = f j [ ê ( t ) ] εi , qui reflètent les différences entre les erreurs dynamiques.
[ ]
sys
En conditions de simulation parallèle en tant qu’estimations Ê Δ estim de [ E Δ ] estim sont
sys
utilisées des relations qui déterminent la réaction du système à l’action généralisée ϑ (3.67).
La base pour l’estimation comparative des pertes du système analysé est le correspon-
dant système classique paramétriquement perturbé pour les mêmes et pour des différents régi-
mes de fonctionnement. Les pertes dans le système classique paramétriquement perturbé et
dans le système analysé sont estimée selon les relations (3.85) ÷ (3.87)
(3.85) ŷ CLASS
(t , y o
,ν , ξ ) = y (t , y
CLASS
o
,ν , ξ ) − y (t , y
NOM
o
,ν ) ,
sys sys
(3.86) ŷ ( t , y estim
o
,ν , ξ )= y ( t , y
estim
o
,ν , ξ )− y (t , y
NOM
o
,ν )
,
sys
) CLASS ) estim
(3.87) Δ εˆ (Δt , y o
,ν , ξ )
= ε ( t , y ,ν , ξ )
o − ε (t , y o ,ν , ξ ) .
● Δ-estimations de I-er niveau de la performance par les indices généralisés pour les
mêmes conditions d’exploitation (de simulation), selon les relations (3.88) ÷ (3.91);
● Δ-estimations de II-eme niveau de supériorité dans la performance par les indices
généralisés de la performance pour les mêmes conditions d’exploitation (de simulation),
fonction des Δ-estimations de I-er niveau, par (3.92) ÷ (3.95);
● Δ-estimations de I-er niveau d’efficacité par les indices généralisés pour des diffé-
rents régimes d’exploitation, par (3.96) ÷ (3.99);
● Δ-estimations de II-eme niveau de supériorité dans la performance par les indices gé-
néralisés pour des différents régimes d’exploitation, par (3.100) ÷ (3.103);
[ ]
● Ê Δ -estimations des pertes hydrodynamiques pour les mêmes et pour des diffé-
rents régimes d’exploitation, selon les relations (3.100) ÷ (3.105),
Les estimations sont systématisées dans le Tableau 3.1. Les résultats de l’application de
la méthode et l’analyse des estimations sont une confirmation expérimentale (pour les modèles
concrets) de:
- la conclusion de l’analyse robuste, qui prouve la stabilité robuste et la performance ro-
buste des systèmes analysés;
- l’accomplissement des conditions du critère, utilisé lors de la synthèse;
- l’avantage des systèmes analysés par rapport au système classique, exprimé par
l’amélioration de la performance et la diminution des pertes.
[ ]
Les Ê Δ - estimations (3.104), (3.105) mesurent:
- l’augmentation ramenée des pertes intégrales par rapport à celles du système le plus
économique;
- la variation des pertes intégrales lors du passage vers des conditions d’exploitation
plus difficiles
t t
⎛ ⎞
∫ ∫
sys sys
(3.88) [ ê ( t ) ]1 ⎜⎜ [ ê ( t )] g , c
Δ CLASS
= CLASS
ŷ ( t , y o ,ν , ξ )
d t− ŷ (estim d t = f estim
⎟⎟ ,
,ν , ξ ) 1
o
⎝ ⎠
t ,y
0 0
⎡ ⎛ t t ⎞⎤
⎜ ⎟⎥ ⎛ ⎞
∫ ∫
sys sys
[ ê ] 2 = ⎢1−⎜ [ ]
Δ CLASS
(3.89) estim
ŷ ( t , y o dt CLASS
ŷ ( t , y o ,ν , ξ )
d t ⎟⎥ 100 , % = f ⎜ ê estim
⎟⎟ ,
⎢ ⎜ ,ν , ξ ) 2⎜ g ,c
⎢⎣ ⎝ ⎟⎥ ⎝ ⎠
0 0 ⎠⎦
⎡⎛ ) ⎞ ⎤
( [ê ( t ) ] )
sys
)
(3.90) [ ê ( t ) ] 3Δ = ⎢ ⎜⎜ ε (CLASS
t , y o ,ν , ξ )
ε estim
o
,ν , ξ )
⎟⎟ − 1 ⎥ = f 3 ε
a ,
⎣⎝ ⎠
(t , y
⎦
⎡ ⎛ t t ⎞⎤
(3.91) [ ê ( t )]4
Δ ⎢ ⎜
= 1−⎜
⎢ ∫ ε
) sys
estim
o
,ν , ξ )
dt
∫
) CLASS
ε ( t , y o ,ν , ξ )
⎟
dt ⎟⎥= f4
⎥
( [ ê ( t ) ] ) ,
ε
d
⎜ ⎟⎥
(t , y
⎢⎣ ⎝ 0 0 ⎠⎦
[) ] ⎛ ⎛ ) i ⎞⎞
sys sys
[ ] ⎛ ⎛ ) i ) estim ∗ ⎞⎟ ⎞⎟
sys
) sys
(3.93) Δ [ = ⎜ 1−⎜ [e ]2 [ e ] 2 ⎟ ⎟ 100 % ,
i
) estim ∗
e ]2 ⎜ ⎜
⎝ ⎝ ⎠⎠
[ ] ⎛ ⎛ ) i ) estim ∗ ⎞⎟ ⎞⎟
sys
) sys
(3.94) Δ [ e) ] = ⎜ 1−⎜ [e ]3 [ e ] 3 ⎟ ⎟ 100 % ,
i
estim ∗
3 ⎜ ⎜
⎝ ⎝ ⎠⎠
[ ] ⎛ ) estim ∗ ⎞⎟
sys
) sys
) i
(3.95) Δ [ e) ] = ⎜ 1−[e ]4 [ e ] 4 ⎟ 100 % ,
i
estim ∗
4 ⎜
⎝ ⎠
⎛ [ e) ] 1~ − [ e) ] 1≈ ⎞
(3.96) ∇ e)1 [) ] i
=⎜
⎜
⎟ 100 , % ,
⎟
⎝ [ e) ] 1≈ ⎠
⎛ [ e) ] ~2 − [ e) ] ≈2 ⎞
(3.97) ∇ e)2 [) ] i
=⎜
⎜
⎟ 100 , % ,
⎟
⎝ [ e) ] ≈2 ⎠
⎛ [ e) ] 3~ − [ e) ] 3≈ ⎞
(3.98) [∇ ]
)
=⎜ ⎟ 100 , % ,
i
)
e3
⎜ [ e) ] 3≈ ⎟
⎝ ⎠
⎛ [ e) ] 4~ − [ e) ] 4≈ ⎞
(3.99) ∇ e)4 [) ] i
=⎜
⎜
⎟ 100 , % ,
⎟
⎝ [ e) ] 4≈ ⎠
⎛ ⎞⎞
(3.100) [∇ ] [ ] [∇) ]
) sys
⎛ ) sys
= ⎜ 1 − ⎜⎜ ∇ e)1 ⎟ ⎟ 100 % ,
i ∗ i
1 estim ∗ estim
)
⎜ e1 ⎟⎟
⎝ ⎝ ⎠⎠
⎛ ⎛)i ∗ ⎞ ⎞
[) ]
sys
sys ) estim
= ⎜ 1−⎜ ∇ 2 ⎟ ⎟ 100 % ,
i
estim ∗
(3.101) ∇ 2 ∇2
⎜ ⎜ ⎟⎟
⎝ ⎝ ⎠⎠
⎛ ⎞⎞
[) ] ⎛ )
[ ] [∇) ]
sys sys
= ⎜ 1 − ⎜⎜ ∇ e)3 ⎟ ⎟ 100 % ,
i ∗ i
estim ∗
(3.102) ∇ 3 estim
)
⎟⎟
⎜ e3
⎝ ⎝ ⎠⎠
⎛ ⎞⎞
[) ] ⎛ )
[ ] [∇) ]
sys sys
= ⎜ 1 − ⎜⎜ ∇ e)4 ⎟ ⎟ 100 % ,
i ∗ i
estim ∗
(3.103) ∇ 4 estim
)
⎟⎟
⎜ e4
⎝ ⎝ ⎠⎠
⎡ ) estim ⎤
≈ ⎛ ⎛ t t ⎞⎞
⎜ ⎜ ⎟⎟
∫ ∫
sys sys
∗ i ) estim ∗ )i
(3.104) ⎢ Ε Δ ⎥ = ⎜ 1−⎜ ΔE≈ dt Δ E ≈ d t ⎟ ⎟ 100 % ,
⎣⎢ ⎦⎥ ⎜ ⎜ ⎟⎟
⎝ ⎝ 0 0 ⎠⎠
Tableau 3.1 - 1
notation formule signification
indices généralisés de la performance
déviation de la trajectoire nominale du système analysé paramé-
[ e ] estim
sys
(3.20)
triquement perturbé
sys erreur dynamique du système analysé paramétriquement per-
[ε ] estim (3.79)
turbé
I-er niveau Δ -estimations des indices généralisés de la performance selon:
diminution de la déviation intégrale du système analysé en com-
[ ê ]1Δ (3.88)
paraison avec le système classique correspondant
diminution en pourcents de la déviation intégrale de la trajec-
[ ê ] Δ2 (3.89)
toire nominale du système analysé
[ ê ] 3Δ diminution en pourcents de l’erreur du système analysé en com-
(3.90)
paraison avec le système classique correspondant
taux de diminution de l’erreur intégrale ramenée du système
[ ê ] Δ4 (3.91) analysé (par rapport à celle du système classique correspon-
dant)
II-nd niveau Δ -estimations de la supériorité en:
diminution en pourcents de la déviation intégrale ramenée du
[Δ) [ ] ] meilleur système (*) parmi les en comparaison avec le système
sys
(3.92)
i
) estim ∗
e 1 classique correspondant et avec les autres systèmes analysés
pour les mêmes conditions
diminution de la déviation intégrale ramenée du meilleur sys-
[Δ) [ ] ] tème (*) parmi les en comparaison avec le système classique
sys
(3.93)
i
) estim ∗
e 2 correspondant et avec les autres systèmes analysés pour les
mêmes conditions
diminution en pourcents de l’erreur du meilleur système (*) par-
[Δ) [ ] ] mi les en comparaison avec le système classique correspon-
sys
(3.94)
i
) estim ∗
e 3 dant et avec les autres systèmes analysés pour les mêmes
conditions
précision dynamique du meilleur système (*) parmi les en com-
[Δ) [ ] ]
sys
(3.95) paraison avec le système classique correspondant et avec les
i
) estim ∗
e 4
[∇) )
e1 ] i
(3.96)
déviation intégrale ramenée minimale pour changement des
conditions d’exploitation vers des plus difficiles
[∇) )
e2 ] i
(3.97)
déviation minimale pour changement des conditions d’exploita-
tion vers des plus difficiles
[∇) )
e3 ] i
(3.98)
diminution constante en pourcents de l’erreur pour changement
des conditions d’exploitation vers des plus difficiles
[∇) )
e4 ] i
(3.99)
précision dynamique constante pour changement des condi-
tions d’exploitation vers des plus difficiles
Tableau 3.1 - 2
notation formule signification
II-nd niveau ∇ -estimations de la supériorité en:
diminution en pourcents de la déviation intégrale ramenée du
[∇) ]
sys
1 estim
∗ i
(3.100) meilleur système (*) pour changement des conditions d’exploi-
tation vers des plus difficiles
diminution de la déviation intégrale ramenée du meilleur sys-
[∇) ]
sis
2 estim
∗ i
(3.101) tème (*) pour changement des conditions d’exploitation vers
des plus difficiles
diminution en pourcents de l’erreur du meilleur système (*) pour
[∇) ]
sys
3 estim
∗ i
(3.102) changement des conditions d’exploitation vers des plus diffici-
les
précision dynamique robuste du meilleur système (*) pour chan-
[∇) ]
sys
4 estim
∗ i
(3.103)
gement des conditions d’exploitation vers des plus difficiles
[Ε) Δ ]-estimations des pertes hydrodynamiques
~
augmentation ramenée des pertes hydrodynamiques intégrales
⎡ ) estim
sys
∗ i ⎤ en comparaison avec celles du système le plus économique ( ~ )
⎢Ε Δ ⎥ (3.104)
⎣⎢ ⎦⎥ en conditions d’émission de bruit (efficacité hydrodynamique du
meilleur système)
variation des pertes hydrodynamiques intégrales pour passage
[Ε) ]~
≈
i
(3.105) vers des conditions d’exploitation plus difficiles (de normales
sans émission de bruit vers émission sporadique ou constante)
III.2. Les résultats de la simulation du modèle du système robuste sont donnés par
Fig.3.19 ÷ Fig.3.22. Le système robuste (Fig.3.21) réalise une contre-reaction efficace à la per-
turbation ξ ( p ) ⇔ Δ G ( p , ξ ) (3.106),(3.107) [pendant que le classique (Fig.3.1) perd la
stabilité]. Il maintient la stabilité robuste aussi bien pour ξ ( p ) ⇔ Δ G ( p , ξ ) (3.108),(3.109)
mais non pas - les performances robustes (Fig.3.22) (dans le cas le critère est “processus tran-
sitoire apériodique critique”).
L’étendue limite de ξ ( p ) , pour laquelle le système considéré (Fig.3.6) maintient en
même temps la stabilité et les performances robustes, est ξ ( p ) ⇔ Δ G ( p , ξ ) (3.110), (3.111).
Cette propriété du système robuste pour l’ensemble Π est illustrée par Fig.3.22. Si
l’étendue de ξ ( p ) surpasse sa valeur limite (3.110), traitée par la synthèse, les indices de la
performance ne sont plus maintenus.
Pour perturbation additive ξ a ( p ) d’étendue ξ ( p ) ⇔ Δ G ( p , ξ ) (3.112), (3.113) ou su-
périeure, les processus dans le système sont avec un dépassement σ > 0 (Fig.3.22)
−2 , 384 p −1 , 0 p
2 , 384. e 1 , 0. e
(3.106) Δ G ( p , ξ ) = − ,
( 10 p + 1 ) ( 10 p + 1 )
−2 , 384 p
2 , 384. e
(3.107) G ( p ) = ,
( 10 p + 1 )
−16 , 824 p −1 , 0 p
16 , 824. e 1 , 0. e
(3.108) Δ G ( p , ξ ) = − ,
( 10 p + 1 ) ( 10 p + 1 )
−16 , 824 p
16 , 824. e
(3.109) G ( p ) = ,
( 10 p + 1 )
−8 , 0 p −1 , 0 p
8 , 0. e 1 , 0. e
(3.110) Δ G lim ite ( p , ξ ) = − ,
( 10 p + 1 ) ( 10 p + 1 )
−8 , 0 p
8 , 0. e
(3.111) G ( p ) = ≡ G norm ( p ) ,
( 10 p + 1 )
−10 , 0 p −1 , 0 p
10 ,0. e 1 , 0. e
(3.112) Δ G ( p , ξ ) = − ,
( 10 p + 1 ) ( 10 p + 1 )
−10 , 0 p
10 ,0. e
(3.113) G ( p ) = .
( 10 p + 1 )
Les Fig.3.23, Fig.3.24, Fig.3.25, Fig.3.26 montrent les caractéristiques des systèmes
classique et robuste en boucle fermée dans le cadre de reparamétrisation du modèle du procé-
dé.
G ( jω ) =G ( jω ) G ( jω ) =G ( jω )
robuste robuste
Fig.3.19 Fig.3.20
classique
Fig.3.21 Fig.3.22
Φ iROB
, y y
0 (
j ω , R* , G i
) Φ i CLASS
,ζ y (j ω , R * , G i )
système classique
Fig.3.23 Fig.3.25
Φ iCLASS
0
, y y
(j ω , R *, G i ) système classique système
G3 classique
G2
Φ i ROB
,ζ ε (
j ω , R* ,G i
)
G4
système robuste
G*
G i
G 30
Φ i CLASS
,ζ ε
G2
Fig.3.24 Fig.3.26
Les résultats de la simulation paramétrique de processus dans des points caractéristi-
ques de la structure (Fig.3.6) du système robuste sont donnés par Fig.3.27 ÷ Fig.3.30. Les condi-
tions de la simulation (selon le modèle de Fig.3.15, Fig.3.16) traitent les perturbations suivantes:
y = y (t , ξ ) ε = ε (t , ξ ) ε* = ε * ( t , ξ ) u = u (t , ξ )
2. Consigne échelon y 0 ( t ) = 1 ( t ) pour une famille de systèmes robustes avec les mê-
mes paramètres, dans lesquels le modèle du procédé est donné par (3.116) à (3.117) avec pas
de variation 0.5 des paramètres (Tableau 3.3)
−1 , 0 p
1 , 0. e
(3.116) G ( p ) = ,
( 10 p + 1 )
−9 , 5 p
9 , 5. e
(3.117) G ( p ) = .
( 10 p + 1 )
Tableau 3.3
Fig.3.28.a Fig.3.28.b Fig.3.28.c Fig.3.28.d
(
y = y t,y o ) (
ε =ε t,y o ) ε* = ε * t , y o( ) (
u =u t,y o )
3. Signal échelon pour la charge à l’entrée du procédé ν ( t ) = 1 ( t ) pour une famille de
systèmes robustes avec les mêmes paramètres, dans lesquels le modèle du procédé est donné
par (3.116) à (3.117) avec pas de variation 0.5 des paramètres (Tableau 3.4).
Tableau 3.4
Fig.3.29.a Fig.3.29.b Fig.3.29.c Fig.3.29.d
y = y (t , ν ) ε = ε (t , ν ) ε* = ε * ( t , ν ) u = u (t , ν )
Tableau 3.5
Fig.3.30.a Fig.3.30.b Fig.3.30.c Fig.3.30.d
(
y = y t , y0 ,ν ) (
ε = ε t , y0 ,ν ) ε* = ε* t , y0 ,ν( ) (
u = u t , y0 ,ν )
5. Échelon additif ξ a ( t ) et échelon multiplicatif ξ m ( t ) [ ξ ( p ) ⇔ Δ G ( p , ξ ) ] avec
étendue des valeurs des paramètres de (3.118) à (3.119) pour ξ a ( t ) et de (3.120) à (3.121) pour
ξ m ( t ) dans t = 60, s (Tableau 3.6)
−1 , 0 p −1 , 0 p
1 , 0. e 1 , 0. e
(3.118) Δ G a = − ,
( 10 p + 1 ) ( 10 p + 1 )
−8 , 0 p −1 , 0 p
8 , 0. e 1 , 0. e
(3.119) Δ G a = − =la ,
( 10 p + 1 ) ( 10 p + 1 )
⎛ 1 ,0. e −1 , 0 p ( 10 p + 1 ) ⎞
(3.120) Δ G m = ⎜ ⎟−1 ,
⎜ ( 10 p + 1 ) 1 ,0. e −1 , 0 p ⎟
⎝ ⎠
⎛ 8 ,0. e −8 , 0 p ( 10 p + 1 ) ⎞
(3.121) Δ G m = ⎜ ⎟−1 = l .
⎜ ( 10 p + 1 ) 1 ,0. e −1 , 0 p ⎟ m
⎝ ⎠
Tableau 3.6
Fig.3.31.a Fig.3.31.b Fig.3.31.c Fig.3.31.d
y = y (t , ξ ) ε = ε (t , ξ ) ε * = ε * (t , ξ ) u = u (t , ξ )
Δ y = y (ξ m ) − y (ξ a ) Δ u = u (ξ m ) − u (ξ a ) Δ ε = ε (ξ m ) − ε (ξ a ) Δ ε * = ε * (ξ m ) − ε * (ξ a )
(3.122) Δ G a = Δ G m = 0 ,
−8 , 0 p
8 , 0. e
(3.123) Δ G a = Δ G m = .
( 10 p + 1 )
Tableau 3.8
Fig.3.33.a Fig.3.33.b Fig.3.33.c Fig.3.33.d
y = y (t , ξ ) ε = ε (t , ξ ) ε * = ε * (t , ξ ) u = u (t , ξ )
Δ y = y (ξ m ) − y (ξ a ) Δ u = u (ξ m ) − u (ξ a ) Δ ε = ε (ξ m ) − ε (ξ a ) Δ ε * = ε * (ξ m ) − ε * (ξ a )
y ( ξ ) , k ob = 1 → 9 ,5 , τ = 1 → 9 ,5 , D F = D F 8
t = 60 s t = 60 s
y y ( ), k
0
ob = 1 → 9 ,5, τ = 1 → 9 ,5, DF = DF 8
y(t ) y(t )
Fig.3.27.a Fig.3.28.a
u ( ξ ) , k ob = 1 → 9 ,5 , τ = 1 → 9 ,5 , D F = D F 8
( )
u y 0 , k ob = 1 → 9 , 5 , τ = 1 → 9 , 5 , D F = D F 8
t = 60 s t = 60 s
u(t ) u(t )
Fig.3.27.b Fig.3.28.b
ε ∗ ( ξ ) , k ob = 1 → 9 ,5 , τ = 1 → 9 ,5, D F = D F 8
t =60s t =60s ε ∗
( y ), k
0
ob = 1 → 9 , 5 , τ = 1 → 9 , 5, D F = D F 8
ε* ( t ) ε* ( t )
Fig.3.27.c
ε ( ξ ) , k ob = 1 → 9 ,5 , τ = 1 → 9 ,5 , D F = D F 8 Fig.3.28.c
t =60s t =60s ( )
ε y 0 , k ob = 1 → 9 , 5 , τ = 1 → 9 , 5 , D F = D F 8
ε (t )
ε (t )
Fig.3.27.d Fig.3.28.d
y (ν ) , k ob = 1 ÷ 9 ,5 , τ = 1 ÷ 9 ,5 , D F = D F8 ( )
y y 0 ,ν , k ob = 1 ÷ 9 , 5 , τ = 1 ÷ 9 , 5 , D F = D F 8
y (t ) y (t )
Fig.3.29.a Fig.3.30.a
u ( ν ) , k ob = 1 ÷ 9 , 5 , τ = 1 ÷ 9 , 5 , D F = D F 8 ( )
u y 0 , ν , k ob = 1 ÷ 9 , 5, τ = 1 ÷ 9 , 5, D F = D F 8
u(t ) u(t )
Fig.3.29.b Fig.3.30.b
ε ( ν ) , k ob = 1 ÷ 9 , 5 , τ = 1 ÷ 9 , 5, D F = D F 8 ( )
ε y 0 , ν , k ob = 1 ÷ 9 , 5, τ = 1 ÷ 9 , 5, D F = D F 8
ε (t ) ε (t )
Fig.3.29.c Fig.3.30.c
ε * ( ν ) , k ob = 1 ÷ 9 , 5 , τ = 1 ÷ 9 , 5 , D F = D F 8 ( )
ε * y 0 , ν , k ob = 1 ÷ 9 , 5, τ = 1 ÷ 9 , 5 , D F = D F 8
ε* ( t ) ε* ( t )
Fig.3.29.d Fig.3.30.d
( )
y y 0 , ξ , k ob = 1 → 8, τ = 1 → 8, D F = D F 8 ( ) (
Δ y = y y0 , ξm − y y0 , ξa )
t= 60 s t= 60 s
(
y y0 , ξm )
y (y 0
, ξa )
( )
Fig.3.31.a Fig.3.32.a
u y 0 , ξ , k ob = 1 → 8, τ = 1 → 8, D F = D F 8
t =60 s t= 60 s
(
Δu = u y0 , ξm ) − u (y 0
,ξa )
(
u y0 , ξa )
(
u y , ξm
0
)
Fig.3.31.b
( )
ε y 0 , ξ , k ob = 1 → 8, τ = 1 → 8, D F = D F 8
t= 60 s t= 60 s
( )
Δε =ε y0 , ξm − ε y0 , ξa( ) Fig.3.32.b
(
ε y0 , ξa )
ε (y 0
, ξm )
Fig.3.31.c
( )
ε * y 0 , ξ , k ob = 1 → 8, τ = 1 → 8, D F = D F 8
t= 60 s t= 60 s
( ) (
Δε* = ε* y0 , ξ m − ε* y0 , ξa ) Fig.3.32.c
(
ε* y0 , ξa )
(
ε* y0 , ξm )
Fig.3.31.d Fig.3.32.d
( )
y y 0 , ξ , k ob = 1 → 8, τ = 1 → 8, D F = D F 8
t=60 s t=60 s
(
Δ y = y y0 , ξm ) − y (y 0
, ξa )
(
y y ,ξ m
0
)
(
y y , ξa
0
)
Fig.3.33.a Fig.3.34.a
( )
u y , ξ , k ob = 1 → 8, τ = 1 → 8, D F = D F 8
0
t= 60 s t= 60 s
( )
Δu = u y , ξm − u y , ξa
0
( 0
)
(
u y0 , ξa )
u (y , ξm )
0
Fig.3.33.b
( )
Fig.3.34.b
ε y 0 , ξ , k ob = 1 → 8, τ = 1 → 8, D F = D F 8
t= 60 s t= 60 s
( )
Δε =ε y0 , ξm − ε y0 , ξa ( )
(
ε y0 , ξa )
ε (y 0
, ξm )
Fig.3.33.c Fig.3.34.c
( )
ε * y , ξ , k ob = 1 → 8, τ = 1 → 8, D F = D F 8
0
t= 60 s t= 60 s
( )
Δε* = ε* y , ξm − ε* y , ξa
0
( 0
)
(
ε* y0 , ξa )
(
ε* y0 , ξm )
Fig.3.33.d Fig.3.34.d
[ ê ( t ) ]1Δ
algorithme d’estimation
nominal
action généralisée
[ ê ( t ) ] Δ2
charge
Band-Limited
White Noise
ν modèle
) CLASS
y
du système
perturbation
classique ) CLASS
ε [ ê ( t ) ] 3Δ
[ ê ( t ) ] 4Δ
paramétrique
Band-Limited
) ROB
White Noise
modèle y
du système
Fig.3.35 ξ robuste
ε
) ROB estimations de la
ϑ= y [ 0
( t ) ,ν ( t ) , ξ ( t ) ]
T
précision dynamique augmentée
⎧ Π ∈ G* , Π
⎪
[ ⎫
⎪
]
(3.124) ⎨ ⎡
⎤ ⎬ .
⎪ Π ∈ ⎢⎣ G min , G max ⎥⎦ ⎪
⎩ ⎭
Tableau 3.10
Fig.3.36.a Fig.3.36.b Fig.3.36.c Fig.3.36.d Fig.3.36.e Fig.3.36.f
[
ϑ = y 0 ,ν , ξ ] T
[ ŷ αH ( t , ϑ ) ]O
NOM
G = G*
[ ê ( t ) ] aROB [ ê ( t ) ] bROB [ ê ( t ) ] ROB
c [ ê ( t ) ] dROB
estimation de la déviation du système robuste
de la trajectoire nominale
≤ 50 % ≤ 2.5 % ≤ 14.5 % 2 , 5 fois
L’ensemble Π
, pour la situation la plus difficile G * ( p ) ≡ G min ( p ) , avec un pas uni-
forme des valeurs des paramètres du modèle, est donné dans le Tableau 3.10 par G 1 ÷ G 15 .
Dans le tableau sont donnés les paramètres de G * et de G i . 15 systèmes robustes
( ROB DF ÷ ROB DF ) sont conçus selon la méthode proposée et les critères considérés, pour
1 15
des conditions initiales de ( G *, G 1 , l 1 , D F ) à ( G *, G 15 , l 15 , D F ). Les régulateurs cor-
1 15
bleau 3.10. Les systèmes ROB DF et le système nominal correspondant avec régulateur de
i
[ )]
Fig.3.36.a ϑ Fig.3.37.a
⎧ ⎫
( ) ( ) (
T
⎪ ν p ξ p yo p pour systèmes robuste et classique analyses ⎪
ϑ =⎨ ⎬
⎪⎩ [ν ( p ) 0 yo ( p ]
) pour système nominal
T
⎪⎭
ξ
ξ y0 y0
White Noise Band-Limited
Noise Power 20000
simple time 30 s
ξ
0
y
ν ν
White Noise Band-Limited
Noise Power 20000
simple time 50 s
ν
White Noise Band-Limited
Noise Power 20000
Fig.3.36.b
simple time 15 s
) ) ROB Fig.3.37.b
[ e) ( t ) ]CLASS − [e ( t ) ] ROB )( t ) − ε ( y , ν )( t )
)
[ e ( t ) ]O ε CLASS
l a (y o ,ν , ξ o
,ξ
)
ε NOM
(t , y o
,ν )
Fig.3.36.c ) ) Fig.3.37.c
[ e) ( t ) ] CLASS [ e) ( t ) ] ROB ε
)( t ) ε
)( t )
CLASS ROB
l a (y ,ν , ξ
o
(y ,ν , ξ
o
Fig.3.36.d Fig.3.37.d
[ e) ( t ) ] bROB [ e) ( t ) ] CLASS
f [ ê ( t ) ] εb ROB [ ê ( t ) ] εb CLASS
[ ê ( t ) ] εb
[ e) ( t ) ]
C LA S S
f
− [ e ( t) ] b
) ROB
Fig.3.36.e Fig.3.37.e
[ e) ( t ) ] CLASS [ ê ( t ) ] εc CLASS
g
[ e) ( t ) ] CLASS
g − [e
)
( t ) ] cROB
[ ê ( t ) ] εc
[ e) ( t ) ] cROB [ ê ( t ) ] εc ROB
Fig.3.36.f [ ê ( t ) ] εd CLASS
Fig.3.37.f
[ e) ( t ) ] CLASS
h
[ ê ( t ) ] εd
[ e) ( t ) ] CLASS
h − [e
)
( t ) ] ROB
d [ ê ( t ) ] εd ROB
[e)
( t ) ] ROB
d
⎧
⎪ν
ϑ=⎨
[ ( p ) ξ ( p ) yo ( p )]
T ⎫
pour systèmes robuste et classique analyses ⎪
⎬
⎪⎩ [ν ( p ) 0 yo ( ]
p ) pour système nominal
T
⎪⎭
ξ ξ
y0
y0
ν ν
Fig.3.38.a Fig.3.39.a
[ ê ( t ) ] 1Δ [ ê ( t ) ] 3Δ ,%
Fig.3.38.b Fig.3.39.b
[ ê ( t ) ] Δ2 , % [ ê ( t ) ] 4Δ
Fig.3.38.c Fig.3.39.c
La simulation est conforme aux schémas et à la mise en œuvre, donnés par Fig.3.40,
Fig.3.41, Fig.3.42 et à la logique de l’analyse, présentée à la Fig.3.23. Une telle simulation résout
le problème de détermination et d’analyse de la relation fonctionnelle entre la performance des
systèmes ROB DF et: i
i i
des systèmes ROB DF , exprimée par l’étendue maximale de la perturbation paramétrique réelle
i
ξ i ≡ li;
7. La déviation la plus petite possible (3.125), pour toutes les autres conditions étant les
mêmes, est celle d’un système, synthétisé pour des conditions initiales ξ i ≡ l i , ce qui
confirme expérimentalement la preuve analytique des relations (3.55)
⎛ ⎞
ROB ⎜ G i , l i , D Fi ⎟ ⎛ ⎞
(3.125) [ ê ( t )] = mi n ⇔ [ e ( t ) ] ROB ⎜⎝ G
d
⎝ ⎠
i
i , l i , D Fi ⎟
⎠ = mi n e (t ) .
8. Il n’est pas raisonnable de choisir des conditions initiales plus difficiles que les plus
difficiles réellement possibles il faut respecter l i ≤ ξ i , étant donné que la sur-assurance pour-
rait amener à la perte de performance robuste en conditions réelles d’exploitation.
9. La solution optimale lors de la synthèse est guidée par le choix d’une valeur limite l i ,
qui correspond à la valeur maximale de la perturbation réelle l i ≡ ξ i l i ≡ ξ i .
Tableau 3.11
G k ob τ ob , s T ob , s R kp Ti , s Td , s
t t
∫ [ ŷ ( t , ϑ ) ]
∫ [ ŷ ( t ,ϑ ) ] O
ROB NOM
α H +α~
dt − αH dt
G =G G = G*
ϑ NOM [ ê ( t , DF i ) ] ROB
d
=
0
t
0
100 ,%
∫ ( ŷ ( t ,ϑ ) ) ROB
ROB DF1 α H +α~ dt
G =G
0
ROB DF2
[ ê ( DF 4 ) ] ROB
ROB DF4
ROB DF5 d
[ ê ( DF 3 ) ] ROB
d
[ ê ( DF 2 ) ] ROB
d
[ ê ( DF 1 ) ] ROB
[ ] T d
ϑ = y 0ν ξ 2
ξ 2 = l a 2 = 1 , 5 e −1 , 5 p ( 10 p + 1 ) −1
Fig.3.40.a
t t
∫ [ ŷ ( t , ϑ ) ]
∫ [ ŷ ( t , ϑ ) ]O
ROB NOM
dt − dt
ϑ
α H +α~ αH
NOM G =G G = G*
[ê (t , DF ,l )] ROB
=
0 0
100 ,%
ϑ (l a 1)
i ai d t
ROB DF1
∫ [ ŷ (t , ϑ )] ROB
α H +α~ dt
G =G
ϑ (l a 2) ROB DF2 0
A
ϑ (l a 3) ROB DF3
ϑ (l a 5) ROB DF5
[ê ( DF ,l a4 )] ROB
[ ]
4 d
T
ϑ = y 0 ν l ai
[ê ( DF 3 ,l a3 )] ROB
−2 p −1 d
ξ 1 = l a1 = 2e ( 10 p + 1 )
ξ 2 = l a 2 = 4e −4 p ( 10 p + 1 ) −1 [ê ( DF 2 ,l a2 )] ROB
d
ξ 3 = l a3 = 6e −6 p
( 10 p + 1 ) −1
ξ 4 = l a4 = 8e −8 p
( 10 p + 1 ) −1 [ê ( DF 1 ,l a1 )] ROB
d
ξ 5 = l a5 = 10e −10 p ( 10 p + 1 ) −1
Fig.3.41.a t t
∫ [ ŷ α ( t , ϑ ) ] ∫ [ ŷ ( t , ϑ ) ]O
ROB NOM
+α~
dt − αH dt
H
G =G G =G*
ϑ NOM
[ê( t ,l ai ) ]ROB =
0 0
100 ,%
d t
ϑ (l a 1)
∫ [ ŷ (t , ϑ )] ROB
αH +α~ dt
G =G
ϑ (l a 2) 0
A
ϑ (l a 3) ROB DF3
[ê (l a5 )] ROB
d
ϑ (l a 4)
ϑ (l a 5) [ê (l a4 )] ROB
[ê (l a3 )] ROB
d
[
ϑ = y 0ν ξ i ] T
d [ê (l a2 )] ROB
d [ê (l a1 )] ROB
ξ 1 = l a1 = 1 , 5e −1 , 5 p ( 10 p + 1 ) −1 d
ξ 2 = l a 2 = 2 , 5e − 2 , 5 p ( 10 p + 1 ) −1
ξ 3 = l a3 = 3 , 5e −3 , 5 p ( 10 p + 1 ) −1
ξ 4 = l a4 = 4 , 5e −4 , 5 p ( 10 p + 1 ) −1
ξ 5 = l a5 = 5 , 5e −5 , 5 p ( 10 p + 1 ) −1
Fig.3.42.a
y ROB ( t , DF i ) ROB
y DF
ϑ NOM 15
ROB ROB ROB ROB
ROB DF1 y DF y DF y DF y DF
2 3 4 5
ROB
ROB DF2 y DF
1
A
ϑ (l a 2) ROB DF3
ROB DF4
ROB DF5
DF5
DF1 système nominal
ϑ = y0 ν ξ2[ ] T
ξ 2 = l a 2 = 1 , 5 e −1 , 5 p ( 10 p + 1 ) −1
Fig.3.40.b
y
ROB
( t , DF i ) ROB
y DF
ϑ NOM ROB ROB ROB ROB
15
y DF y DF y DF y DF
ROB DF1 2 3 4 5
ROB DF4
ROB DF5
DF5
DF1
système nominal
[
ϑ = y 0ν ξ 2 ] T
ξ 2 = l a 2 = 1 , 5 e − p ( 10 p + 1 ) −1
Fig.3.40.c
y
ROB
( t , DF i )
ϑ NOM
DF5
ROB DF1 système nominal
ROB DF2
A
ϑ (l a 2) ROB DF3 ROB
y DF
1
ROB DF4 DF1 ROB
y DF
ROB DF5 ROB
2
y DF
3
ROB
y DF
4
ROB
y DF
5
ϑ = y 0ν ξ 2[ ] T
ξ 2 = l a 2 = 1 e −1 , 5 p ( 10 p + 1 ) −1
Fig.3.40.d
ϑ NOM y
ROB
(t , DF i , li )
ϑ (l a 1) ROB DF1
ϑ (l a 2) ROB DF2
A
ϑ (l a 3) ROB DF3 ROB
y DF
ϑ (l a 4) ROB DF4 15
ϑ (l a 5) ROB DF5
ROB
y DF
5
[
ϑ = y 0 ν l ai ] T
ROB
y DF
4
ξ 1 = l a1 = 2 e −2 p ( 10 p + 1 ) −1 ROB
y DF
ξ 2 = l a 2 = 4 e −4 p ( 10 p + 1 ) −1 3
ROB
ξ 3 = l a3 = 6 e −6 p ( 10 p + 1 ) −1 y DF
2
ξ 4 = l a4 = 8 e −8 p
( 10 p + 1 ) −1
y DF
ROB
système nominal
ξ 5 = l a5 = 10 e −10 p ( 10 p + 1 ) −1
1
Fig.3.41.b
DF1 DF5
ϑ
(t , DF i )
NOM ROB
y , li
ϑ (l a 1) ROB DF1
ϑ (l a 2) ROB DF2
A
ϑ (l a 3) ROB DF3 ROB
y DF
ϑ (l a 4) ROB DF4 15
ROB
ϑ (l a 5) ROB DF5 y DF
5
[ ]
ROB
T y DF
ϑ = y 0 ν l ai 4
ξ 1 = l a1 = 2 e − p ( 10 p + 1 ) −1
ROB
y DF
3
ξ 2 = l a 2 = 4 e − p ( 10 p + 1 ) −1 ROB
y DF
ξ 3 = l a3 = 6 e − p ( 10 p + 1 ) −1
2
système nominal
ROB
ξ 4 = l a 4 = 8 e − p ( 10 p + 1 ) −1 y DF
1
ξ 5 = l a5 = 10 e −p
( 10 p + 1 ) −1
ϑ NOM y
ROB
(t , DF i , l i )
ϑ (l a 1) ROB DF1 DF5
ϑ (l a 2) ROB DF2
DF1
A
ϑ (l a 3) ROB DF3
ϑ (l a 4) ROB DF4
[
ϑ = y 0 ν l ai ] T ROB
y DF
1
ξ 1 = l a1 = 1 e −2 p
( 10 p + 1 ) −1 ROB
y DF
2
ξ 2 = l a2 = 1 e −4 p
( 10 p + 1 ) −1 ROB
y DF
ξ 3 = l a3 = 1 e −6 p
( 10 p + 1 ) −1
ROB
3
y DF
ξ 4 = l a4 = 1 e −8 p ( 10 p + 1 ) −1 4
ROB ROB
y DF y DF
ξ 5 = l a5 = 1 e −10 p ( 10 p + 1 ) −1 5
15
Fig.3.41.d
ROB
y DF (t , ξ i )
ϑ NOM 3
ϑ (l a 1)
ϑ (l a 2)
A ROB
y DF (ξ5 )
ϑ (l a 3) ROB DF3 3
ϑ (l a 4) ROB
y DF (ξ 4
3
)
ϑ (l a 5) ROB
y DF
3
( ξ3 )
[
ϑ = y0 ν ξi ] T ROB
y DF
3
(ξ2 )
ξ 1 = l a1 = 1 , 5 e −1 , 5 p
( 10 p + 1 ) −1
ROB
y DF ( ξ1 )
ξ 2 = l a 2 = 2 , 5 e −2 , 5 p ( 10 p + 1 ) −1
3
ξ 3 = l a3 = 3 , 5 e −3 , 5 p ( 10 p + 1 ) −1 système nominal
ξ 4 = l a4 = 4 , 5 e −4 , 5 p
( 10 p + 1 ) −1
ξ 5 = l a5 = 5 , 5 e −5 , 5 p ( 10 p + 1 ) −1
Fig.3.42.b
ROB
y DF (t , ξ i )
ϑ NOM 3
ϑ (l a 1) ROB
y DF (ξ 5 )
ϑ (l a 2) 3
A
ϑ (l a 3) ROB DF3
ROB
y DF (ξ 4
3
)
ϑ (l a 4) ROB
y DF (ξ 3 )
ϑ (l a 5) 3
ROB
(ξ 2 )
[
ϑ = y0 ν ξi ] T y DF
3
ξ 1 = l a1 = 1 , 5 e − p ( 10 p + 1 ) −1
ROB
y DF
3
(ξ 1 )
ξ 2 = l a 2 = 2 , 5 e − p ( 10 p + 1 ) −1
ξ 3 = l a3 = 3 , 5 e − p ( 10 p + 1 ) −1
système nominal
ξ 4 = l a4 = 4 , 5 e − p ( 10 p + 1 ) −1
ξ 5 = l a5 = 5 , 5 e − p ( 10 p + 1 ) −1
Fig.3.42.c
ROB
y DF (t , ξ i )
ϑ NOM 3
ϑ (l a 1) système nominal
ϑ (l a 2)
A
ϑ (l a 3) ROB DF3
ϑ (l a 4)
ROB
y DF
3
( ξ1 )
ϑ (l a 5) ROB
y DF (ξ2 )
[ ]
3
T
ϑ = y0 ν ξi
y DF
ROB
( ξ3 )
ξ 1 = l a1 = 1 e −1 , 5 p
( 10 p + 1 ) −1 3
ξ 2 = l a 2 = 1 e − 2 , 5 p ( 10 p + 1 ) −1
y DF
ROB
3
( ξ4 )
ξ 3 = l a3 = 1 e −3 , 5 p ( 10 p + 1 ) −1
ROB
y DF (ξ5 3
)
ξ 4 = l a4 = 1 e −4 , 5 p
( 10 p + 1 ) −1
ξ 5 = l a5 = 1 e −5 , 5 p
( 10 p + 1 ) −1
Fig.3.42.d
(p) (p)
automatique technologique automatique technologique
l y (p) l (p) y
G1 (p) G2 ( p ,ξ t ) G1 ( p ,s t ) G2 ( p ,ξ t )
l =μ μ max
kl k PLANT kl k PLANT
l =μ μ max
k TOTAL PLANT = k ob k TOTAL PLANT = k ob
G ( p ,ξ t ) procédé généralise G ( p , s t , ξ t ) procédé généralise
Fig.3.43.a Fig.3.44.a
0,4 kob 3
y2
μ4 kob 3
0,3 kob 4
kob 4
μ5 y3
0,2 kob 5
kob 5 0,1
y4
y5 μ5 μ4 μ3 μ 2 μ1
0 μ
15 25 35 45 55 65 75 85 95
Tableau 3.12
grandeur μ ,% 25 % 95 %
d'entrée
l 0.25 0.95
para- k ob ( l ) 0.265 0.784
mètres
T ob 10, s 10, s
τ ob 1,s 1, s
−1 p
0.265e
modèles G* ( p ) (3.126)
10 p + 1
du
procédé 0.784 e −1 p
G
(p)
10 p + 1
(
2.2 1 + 5.5 p + 14.3 p
2
)
résultats R* ( p ) (3.128)
5.5 p
de la
synthèse (
0.9 1 + 10 p + 16 p 2 )
R
(p)
10 p
Tableau 3.13
s 1.00 1.00 0.9 0.9 0.75 0.75 0.6 0.6
μ ,% 25 % 95 % 25 % 95 % 25 % 95 % 25 % 95 %
l 0.25 0.95 0.25 0.95 0.25 0.95 0.25 0.95
k ob ( l , s ) 0.265 0.784 0.302 0.900 0.362 0.951 0.418 0.990
T ob 10, s 10, s 10, s 10, s 10, s 10, s 10, s 10, s
τ ob ( l , s ) 1,s 2.5, s 1.4, s 2.9 1.7, s 3.0, s 1.9, s 3.2, s
−1 p
0.265 e
G* ( p ) (3.126)
10 p + 1
0.99 e −3.2 p
G
(p) (3.127)
10 p + 1
(
2.2 1 + 5.5 p + 14.3 p 2 )
R* ( p ) 5.5 p
(
0.5 1 + 10 p + 50 p 2 )
R (p) (3.129)
10 p
( p )− R* ( p )
(p)
R
DF (3.131) −
1 + R* ( p ) G * ( p )
La synthèse du système robuste avec une déviation minimale ROB 1 pour des condi-
tions initiales, déterminées par G * ( p ) (3.126), G ( p ) (3.127) et l’étendue maximale de la
perturbation paramétrique l a (3.130)
Tableau 3.14
déviation diminuée par rapport au erreur dynamique diminuée par
système système classique rapport au système classique
analysé [ e) ] 1 [ e) ] 2 [ e) ] 3 [ e) ] 4
ROB ν 25 % 52 % 80 % 0 , 5 fois
ROB s 35 % 52 % 90 % 20 fois
yo
ynominal
Band-Limited système
White Noise
nominal
εnominal
yclassique
perturbation généralisée
algorithme d’estimation
système
s (ν ) classique estimation intégrale
Band-Limited
ε classique de la déviation diminuée
White Noise
estimation intégrale
yROB s de la précision
ξ dynamique
système robuste
Band-Limited (s) augmentée
White Noise
ε ROBs
yROBν
système robuste
(n) ε ROBν
Fig.3.45
ν (p)
y
0
(p) ε (p) u (p) y (p)
R* (p) G* (p)
- R* ( p ) ⇔ G* ( p )
Fig.3.46
ν (p) s (p) ξ (p)
y0
MODELE
REGULATEUR
NOMINAL
DE BASE
DU PROCEDE
FILTRE
régulateur robuste pour déviation
DUNAMIQUE minimale de la trajectoire optimale
ACTIONNEUR
Fig.3.48.b
y
0
ξ ν y0 ξ ν
Fig.3.49.a Fig.3.49.a
ν
ν
y NOM
y CLASS
y ROB q NOM q CLASS q ROB
Fig.3.49.b Fig.3.49.c
[ ê ( t ) ] 1
Δ
[ ê ( t ) ] 3Δ , 100 ,%
Fig.3.49.d Fig.3.49.f
[ ê ( t ) ] Δ2 , 100,% [ ê ( t ) ] 4Δ
Fig.3.49.e Fig.3.49.g
y0 ξ s y
0
ξ s
Fig.3.50.a Fig.3.50.a
s
NOM CLASS ROB NOM CLASS ROB s
y y y q q q
Fig.3.50.b Fig.3.50.c
[ ê ( t ) ] 1Δ [ ê ( t ) ] 3Δ , 100,%
Fig.3.50.d Fig.3.50.f
[ ê ( t ) ] Δ2 , 100 ,% [ ê ( t ) ] 4Δ
Fig.3.50.e Fig.3.50.g
3.3. Conclusions.
Dans ce chapitre les solutions des problèmes pour la synthèse, l’analyse robuste et
l’analyse comparative de systèmes robustes avec déviation minimale de la trajectoire nominale
sont considérées.
Également sont utilisées des méthodes originales:
● de l’équation de balance de la stabilité pour la synthèse analytique de systèmes
robustes (selon une structure connue), sous critère de déviation minimale et de sta-
bilité robuste (3.41), l’algorithme de la méthode étant (3.46) [99,100];
● d’analyse comparative et d’estimation intégrale de performance selon les indices
généralisés de déviation de la trajectoire nominale, erreur dynamique et pertes
d’énergie pour une période importante du fonctionnement du système [99,100];
Ces méthodes fréquentielles de synthèse font partie des classes FDM (Frequency
Domain Methods), QFT (Quantitative Feedback Theory) et RMM (Robust Model Mat-
ching Methods). La différence de ces méthodes par rapport aux classiques, connues de la lit-
térature [29, 31, 35, 37 ÷41, 43 ÷51, 54 ÷57, 62 ÷64, 67, 69, 82, 86 ÷88, 90, 91, 94, 97, 117, 118,
120 ÷123, 127,130 ÷132], est dans la présence de deux composantes dans la commande, d’un
modèle nominal du procédé et d’une contre-réaction conditionnelle.
Les systèmes synthétisés sont appliqués pour la commande des procédés en condi-
tions d’incertitude a priori et avec modèle nominal du procédé connu ou donné.
Dans le chapitre sont considérés:
- l’analyse des domaines d’application des méthodes et de la convergence des algorith-
mes;
- l’analyse de performance en fonction des conditions initiales de la synthèse;
- la confirmation et l’estimation par simulation de l’efficacité des solutions; l’analyse ro-
buste des solutions.
Les solutions des problèmes posés sont analysées de point de vue comparatif à travers
la simulation parallèle des modèles développés des systèmes et des actions généralisées de
l’environnement industriel conformément au schéma proposé pour l’estimation de la perfor-
mance selon des indices généralisés.
Chapitre 4
SYSTÈMES ROBUSTES À MODÈLE INTERNE
(4.1) y CR ( p ) = ( G ( p )− G* ( p ) ) u ( p )+ ς ( p ) = y ( p )− y* ( p ) .
y
0
(p) ς (p)
ε (p) u (p) y (p)
Q (p) G( p )
− +
y* ( p )
G* ( p )
R( M ) (p)
Fig.4.2
Q( p )
(4.2) R( M ) ( p )= .
1 − G* ( p)Q( p)
Dans le sens inverse, la correspondance entre les structures du système classique avec
R( M ) (Fig.4.3) et du système robuste à modèle interne avec Q (Fig.4.1) est complète. Si dans la
structure du système classique avec R( M ) (Fig.4.3) sont ajoutés deux blocs avec fonction de
transfert G * ( p ) , comme cela est montré à Fig.4.4, alors de manière univoque a partir d’elle on
obtient la structure d’un système robuste à modèle interne (Fig.4.1). Il s’ensuit que la dépen-
dance des grandeurs u et y par rapport à la consigne y 0 et la perturbation ς dans les systè-
mes de commande classique et robuste est équivalente pour les deux structures et les régula-
teurs R( M ) et Q sont liés par (4.2) et (4.3). La correspondance entre le système classique et le
système robuste permet de réduire la procédure de synthèse du système robuste équivalent à
la conception de Q (Fig.4.1), ou bien à la conception de R ( M ) (Fig.4.3)
R( M ) (p)
(4.3) Q ( p )= .
1 + G* ( p ) R( M )( p )
y0 (p) ς (p)
ε (p) u (p) y (p)
R( M ) (p) G (p)
−
y* ( p ) y* ( p )
G* ( p ) G* ( p )
− Q (p) +
Fig.4.4
G( p
) Q( p ) 1 − G* ( p ) Q( p
)
(4.4) y ( p ) = y0 ( p )+ ς( p ) ,
1 + Q( p ) ( G( p )− G* ( p ) ) 1+ Q( p ) ( G( p )− G*( p ) )
ε (p) y( p
) 1− G*( p ) Q( p )
(4.5) = = =e( p ) ,
ς ( p )− y 0 ( p ) ς(p) 1 + Q ( p )( G ( p ) − G * ( p ) )
y( p ) G ( p ) Q( p )
(4.6) = = η ( p).
y0 ( p ) 1 + Q( p ) ( G( p ) − G*( p ) )
Si G ( p ) ≡
ˆ G * ( p ) , alors les relations (4.5) et (4.6) se transforment en (4.7) et (4.8)
(4.7) e * ( p ) = 1 − G * ( p ) Q * ( p ) ,
(4.8) η * ( p ) = G * ( p ) Q * ( p ) .
Le régulateur Q* est lié avec e* et η * par une relation linéaire qui facilite sa concep-
tion. La relation entre R ( M ) et les fonctions de la sensibilité et de la sensibilité complémentaire
est plus complexe, dans ce cas ( G ( p ) ≡ ˆ G * ( p ) ) , l’exigence (2.13) lors de la synthèse du ré-
gulateur Q peut être satisfaite en prenant en considération les relations (4.9) ÷ (4.10)
(4.9) e * ( p ) = 1 − G * ( p ) Q * ( p ) ≈ 0 ,
(4.10) η * ( p ) = G * ( p ) Q * ( p ) ≈ 1 ,
(4.11) Q ( p ) ≡ Q * ( p ) ≡ ( G * ( p ))− 1 .
Une telle commande serait caractérisée par ε ( t ) = 0 , (∀ y 0 , ς , t ) pour toutes les va-
leurs de la consigne (∀ y 0 , ς , t ). De point de vue pratique, la commande « idéale » est irréa-
lisable, à cause de la spécificité de la relation (4.12)
Q* ( p )
(4.12) lim R( M ) ( p )= lim =∞ .
{Q* = ( G* ) }
-1
{Q* = ( G* ) } 1 − G * ( p ) Q * ( p )
-1
(4.13) ( 1 − e* ( ω )) ⋅ lm ( ω ) < 1, ∀ω ; ( lm ( jω ) ≡ lm (ω )) .
(4.14) Q ( p ) = Q* ( p ) Fλ ( p ) .
( p ) = ( β m −1 ) 1
(4.15) F λ p m −1 + K + β 1 p + 1 ,
(λ p +1 )
ρ
alors la détermination des valeurs des paramètres du filtre λ , β i et ρ (en tant qu’une solution
du problème d’optimisation), permet de réaliser ce compromis. Ici ρ et λ (ce dernier étant le
paramètre libre du filtre F λ ) peuvent être choisis avec des valeurs suffisamment grandes
pour que Q puisse satisfaire aux critères posés (2.25), (2.42), (2.57). Les valeurs de β i doivent
être choisies de manière à satisfaire aux exigences (4.16) (c’est-à-dire l’exigence que le filtre
soit un système statique)
k
d
(4.16) lim k
( 1 − Fλ ( p ) ) = 0 , ( 0 < k < m ) .
p →0 dp
La forme généralisée du filtre (4.15) peut être concrétisée par un bloc d’ordre inférieur -
par exemple par un système statique d’ordre m = 0 (4.17) ou m = 1 (4.18), pour lequel les exi-
gences (4.16) sont en vigueur
1 nλ p + 1
(4.17) F λ ( p )= , (4.18) F λ ( p ) = .
(λ p+1 )
ρ
(λ p +1 ) ρ
Le critère lors de la synthèse du système par la méthode du paramètre libre est stabili-
té robuste (2.42) et performance robuste (2.57). Pour satisfaire à cette exigence (2.42), la fonc-
tion de la sensibilité complémentaire η * du système doit satisfaire à (4.19). Pour réaliser (2.57),
la synthèse doit prendre en considération (4.20)
(4.19) η * ( ω ) l m ( ω ) ∞
= G*( ω ) Q( ω ) l m ( ω ) ∞
< 1 , ∀ω ,
⎧⎪ e* ( ω
) v ( ω ) + η* ( ω ) lm ( ω ) =
(4.20) ⎨ .
⎪⎩ = ( 1 − G*( ω ) Q ( ω ) ) v ( ω ) + G*( ω ) Q( ω ) l m ( ω ) < 1 , ∀ω
de cette étape de l’algorithme peut avoir recours à des méthodes analytiques et d’ingénieur
connus, pour le choix du régulateur et pour le réglage de ses paramètres sous critère local de
performance - erreur intégrale quadratique minimale. La deuxième étape, pour structure et pa-
ramètres de Q * déterminés, doit satisfaire aux exigences des critères (4.19) et (4.20) lors de la
conception du régulateur Q ( p ) = Q * ( p ) F λ ( p ) suivant (4.14). En la présence du filtre dans
la structure du système (Fig.4.1), les fonctions e * ( p ) et η * ( p ) sont décrites par (4.21), (4.22)
(4.21) η * ( p ) = G * ( p ) Q ( p ) ≡ G * ( p ) Q * ( p ) F λ ( p ) ,
(4.22) e * ( p ) = 1 − G * ( p ) Q ( p ) ≡ 1 − G * ( p ) Q * ( p ) F λ ( p ) .
Si (4.19) et (4.20) sont exprimés en prenant en considération (4.21) et (4.22), alors les cri-
tères de stabilité robuste et de performance robuste deviennent (4.23) et (4.24), respectivement
(4.23) η* ( ω ) lm ( ω ) ∞
= G * ( ω ) Q * ( ω ) Fλ ( p ) lm ( ω ) ∞
< 1 , ∀ω ,
⎧ e* ( ω ) v ( ω ) + η* ( ω ) lm ( ω ) =
(4.24) ⎪⎨ .
⎪⎩ = ( 1 − G * ( ω )Q * ( ω ) F λ ( ω ) )v ( ω ) + G * ( ω )Q * ( ω ) F λ ( p ) l m ( ω ) < 1 , ∀ω
⎛ 1 ⎞ 1
(4.29) R (i M ( p ) = k Ri ( ⎜ 1 + τ Di p + ⎟ .
) M ) ⎜
⎝ τ Ii p ⎟
⎠ (τ i
F p +1 )
4. Simulation du modèle du système robuste (Fig.4.3) avec R (i M ) .
5. Estimation des résultats de simulation pour vérification des exigences (2.25), (4.24) et
(4.23).
6. Variation de la valeur de λ i à λ i + 1 et reprise de la procédure de l’algorithme à partir
du pas „1” jusqu’au pas „5”, si les exigences (2.25), (4.24) et (4.23) ne sont pas satis-
faites.
L’essentiel de la procédure itérative „1” ÷ „6” est la résolution du problème d’optimisa-
tion multi-critérial: par le choix de la valeur de λ qui satisfait aux exigences (2.25), (4.24), (4.23)
par rapport au système synthétisé. La procédure itérative suppose la variation de la valeur de
λ à partir de λ i jusqu’à λ i + 1 après le pas „5” et ainsi de suite jusqu’à la valeur λ = λ q , pour
laquelle les exigences (2.25), (4.24), (4.23) par rapport au système synthétisé sont satisfaites.
Pour une convergence rapide de la procédure „1” ÷ „6” ( q → m i n ) , il est recommandé
que la valeur initiale λ i , ( i = 1 ) soit choisie en tant qu’un nombre entier positif arbitraire, tandis
que pour les cas où le modèle nominal du procédé de commande comprend aussi un retard τ -
en tant qu’un nombre entier positif, qui satisfait à l’exigence, posée par la synthèse.
I. Soit donné:
- Le modèle nominal G * ( p ) (4.30) d’un procédé à minimum de phase G ( p ) - une
chaudière;
- le modèle perturbé à la limite supérieure G ( p ) (4.31);
- le critère pour la synthèse.
Tableau 4.1
G* y o k R ∗ k τ I τ D τ F
k 1 τ
A τ p +1 p λ
τ - -
k 1 (τ + τ2)
(τ + τ2)
τ1 τ2
(τ p + 1)(τ 2 p + 1) (τ +τ2 ) -
1
B
λ
1
1 p 1
k 1 2ξ τ τ
2ξ τ -
C (τ 2
p 2 + 2 ξ τ p + 1) p λ 2ξ
(− β + 1 ) 1 τ βλ
D k
(τ p + 1 ) p ( 2β + λ ) τ - (2 β + λ )
(− β p + 1 ) 1 (γ + τ ) (γ + τ ) γ τ1 β (γ + λ )
p (τ 2 p + 1 ) ( γ +τ )
1
E k
(τ p + 1 )
1 (2 β − γ + λ ) 1
1 (2 β − γ + λ )
k (− β p + 1) 1 2ξ τ τ βλ
F 2ξ τ
(τ 2
p 2 + 2ξ τ p + 1 ) p ( 2β + λ ) 2ξ ( 2β + λ )
k 1 1
G p p λ
- - -
k 1 2
H 2λ - -
p p2 λ
k 1 1
I p (τ p + 1 ) p λ
- τ -
k 1 (2λ + τ ) (2λ + τ )
2λτ
J p (τ p + 1 ) p2 λ 2
(2 λ + τ ) -
k (− β p + 1) 1 1 βλ
K p p (2 β + λ ) - - (2 β + λ )
k (− β p + 1) 1 1 β (γ + λ )
L p p (τ p +1) (2 β − γ + λ ) - γ
(2 β − γ + λ )
2
k (− β p + 1) 1 2 (β + λ ) 2β λ (β λ + 4 β λ )
2 2
M ( 2β 2 + λ 2 ) (2 β + λ ) (β +λ )
p p2 (2 β + λ )
2 2
k (− β p + 1) 1 1 βλ
N p (τ p + 1) p (2 β + λ ) - τ
(2 β + λ )
k (− β p + 1) 1 2 (β + λ ) + τ 2 τ (β + λ ) β λ2
( 2β + λ ) + τ (2 β + 4 β λ + λ 2 )
O p (τ p + 1) p2 2 β 2 + 4 β λ + λ2 2 (β + λ ) + τ 2
−τo p −2 p
ko e 1 , 25 e
(4.30) G * ( p ) = = ,
To p + 1 10 p + 1
−10 p
2e
(4.31) G
( p )= ,
10 p + 1
ko( ( −τ o 2 ) p + 1 )
(4.32) G * ( p ) = .
( To p +1 ) ( (τ o 2 ) p +1 )
Pour l’exemple numérique concret (4.30), la ligne „F” de Tableau.4.1, détermine (pour
une entrée échelon unitaire) les paramètres pour le régulateur R ( M ) (4.25), donnés par (4.33),
(4.34), (4.35) et (4.36)
11
(4.33) k R = , (4.34) τ I = 11 ,
1 , 25 ( 2 + λ )
λ
(4.35) τ D = 0 , 909 , (4.36) τ F = .
2+λ
En suivant la procédure itérative „1” ÷ „6” est choisie la valeur du paramètre libre λ = 5 ,
pour laquelle le système possède la stabilité robuste (4.23) et la performance robuste (4.24) et
satisfait au critère local de performance – processus transitoire avec erreur intégrale quadrati-
que minimale (2.25).
Les exigences (2.25), (4.23), (4.24) par rapport au système robuste de commande à mo-
dèle interne synthétisé pour λ = 5 sont satisfaites avec R ( M ) (4.37)
⎛ 1 0 , 909 p 1 ⎞
(4.37) R ( M ) ( p ) = 0 , 4 ⎜ + + ⎟ .
⎜ ( 0 , 909 p + 1 )
⎝ ( 0 ,909 p + 1 ) ( )
9 , 999 p + 0 , 909 p ⎟⎠
2
30 η RMM (ω ) −1
25
20 stabilité robuste
Magnitude System (dB)
lm ( ω ) < η RMM (ω ) −1
, ∀ω
15
10
-5 lm ( ω )
-10
-15
0 0.5 1 1.5 2 2.5 3 3.5 4
Frequency (rad/sec)
Fig.4.5.a
e ( ω )v ( ω ) + η RMM ( ω ) lm ( ω ) < 1 , ∀ω
-10
performance robuste
Magnitude System (dB)
-15
-20
-25
stabilité robuste
-30
η RMM ( ω ) l m ( ω ) ∞ < 1 , ∀ω
-35
0 0.5 1 1.5 2 2.5 3 3.5 4
Frequency (rad/sec) Fig.4.5.b
0
y
Band-Limited
White Noise y CLASS
perturbation généralisée
algorithme d'estimation
CLASS
ν estimation intégrale
Band-Limited
White Noise de la précision
dynamique
ξ
y RMM augmentée
Band-Limited
White Noise
RMM
Fig.4.6
120
%
100
80 ϑ
0
y
60
40
CLASS
20 y
Fig.4.7.a y RMM
t , sec
0
200 400 600 800 1000
Time (second)
100 [ ê ( t ) ] 3RMM
80
60
40
Fig.4.7.b 20
t , sec
0
200 400 600 800 1000
Time (second)
40
[ ê ( t ) ] 4RMM
Fig.4.7.c
t , sec
( G* ) ( t )
1.2 3
y CLASS y RMM ( G* ) ( t ) y CLASS ( G ) ( t )
2.5
1
2
0.8
Amplitude (-)
Amplitude (-)
1.5
0.6
1 y RMM ( G ) ( t )
0.4
0.5
0.2
0
0 -0.5
0 50 100 150 0 50 100 150
Time (sec) Time (sec)
Fig.4.8.a Fig.4.9.a
Nyquist Plot Nyquist Plot
0.2 0.6
W CLASS ( G* ) ( jω ) W CLASS ( G ) ( j ω )
0.5
0.4
0
0.3
Imag (jw)
Imag (jw)
0.2
0.1
-0.2
W RMM ( G* ) ( jω ) -0.1
W RMM ( G ) ( j ω )
-0.4 -0.2
-0.5 -0.4 -0.3 -0.2 -0.1 0 0.1 -1 -0.8 -0.6 -0.4 -0.2 0 0.2
Fig.4.8.b Fig.4.9.b
Real (jw) Real (jw)
15
15 W CLASS ( G ) ( j ω )
10
W CLASS ( G* ) ( jω ) 10
20log10[G(jw)] (db)
20log10[G(jw)] (db)
0 5
-5
0
-10
-15 W RMM ( G* ) ( jω ) -5
W RMM ( G ) ( j ω )
-20 -10
-200 -180 -160 -140 -120 -100 -80 -200 -180 -160 -140 -120 -100 -80
Frequence (rad/s) Frequence (rad/s)
Fig.4.8.c Fig.4.9.c
Bode plot Bode plot
40 40
( G* ) ( j ω ) W CLASS ( G ) ( j ω )
20.log10[G(jw)] (db)
20.log10[G(jw)] (db)
20 W CLASS 20
0 0
W RMM ( G ) ( j ω )
-20 -20
-60 -60
-2 -1 0 1 -2 -1 0 1
10 10 10 10 10 10 10 10
-100
0
-100
0
(
arg W CLASS ( G ) ( j ω ))
Phase (deg)
Phase (deg)
arg (W CLASS ( j ω ))
-200 -200
( ))
-300 ( G* ) -300
-500 -500
-2 -1 0 1 -2 -1 0 1
10 10 10 10 10 10 10 10
Frequency (rad/sec) Frequency (rad/sec)
Fig.4.8.d Fig.4.9.d
Nyquist plot
1
0
π o
( jω1 )
-1
ω3 πo ( jω 2 )
-2
ω3 ω2 π o
( jω 3 )
-3
Imag (jw)
-4
ω1
-5 ω2
-6
ω↑
-7 W CLASS ( G )
1
W CLASS ( G* ) ( jω )
-8
-9
ω1
-10
-6 -5 -4 -3 -2 -1 0 1 2 3 4 5
Real (jw)
-1
ω3 π o
( jω3 )
ω3
-2
Imag (jw)
ω2 π o
( jω 2 )
-3 ω2
π o
( jω1 )
-4 ω1
W CLASS ( G )
2
W CLASS ( G* ) ( jω )
-5
ω1
ω↑
-6
-2 -1.5 -1 -0.5 0 0.5 1
Real (jw)
Fig.4.10.b
Nyquist plot
0.5
( −1, j 0 )
0 π o
( jω1 )
π o
( jω 2 )
-0.5
ω3 π o
( jω3 )
-1 ω2
Imag (jw)
ω3 ω1
-1.5
W RMM ( G* )
-2 ω2
-2.5
-3 ω1
W RMM ( G ) ( j ω )
ω↑ 1
-3.5
-1.5 -1 -0.5 0 0.5 1 1.5 2
Real (jw)
Fig.4.11.a
Nyquist plot
0.5
( −1, j 0 )
0
π o
( jω3 )
-0.5
Imag (jw)
ω3 π o
( jω 2 )
ω2
-1 ω3 π o
( jω1 )
ω1
ω2
-1.5 W RMM ( G* )
W RMM ( G ) ( j ω ) ω↑
2
ω1
-2
-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8
Real (jw) Fig.4.11.b
Tableau 4.2
procédé per-
procédé turbé à la
paramètres du nominal limite régulateur du système
système
G* ( p ) supérieure
G
(p)
−10 p
1 , 25 e −2 p 2e ⎛ 1 0 , 909 p 1 ⎞
( p ) = 0 ,4 ⎜⎜ + + ⎟
(9 ,999 p )
RMM R( M )
( 10 p + 1 ) ( 10 p + 1 ) ⎝ ( 0 , 909 p + 1 ) ( 0 , 909 p + 1 )
2
+ 0 , 909 p ⎟⎠
1 , 25 e −2 p 2e
−10 p
(5 p + 1) (2 p + 1)
CLASS R PID ( p ) = 0 ,13
( 10 p + 1 ) ( 10 p + 1 ) 5p ( 0 ,4 p + 1 )
Les fonctions indicielles de transfert y RMM ( t ) , y CLASS ( t ) des systèmes en boucle fer-
mée aussi bien que les caractéristiques fréquentielles W RMM ( j ω ) , W CLASS ( j ω ) des systèmes
en boucle ouverte RMM et CLASS (4.30) ÷ (4.37) et (4.38), respectivement, sont déterminés se-
lon Tableau 4.2 et sont montrés par:
- le procédé nominal G * (4.30) - Fig.4.8;
- le procédé perturbé à la limite supérieure G (4.31) - Fig.4.9.
L’analyse de Nyquist est effectuée pour deux variantes de procédés perturbés à la limite
supérieure:
- G (4.41), (Fig.4.10.а et Fig.4.11.а) avec variation du gain du procédé;
- G (4.42), (Fig.4.10.b et Fig.4.11.b) avec variation du gain et du retard du procédé.
−2 p −10 p
2.75 e 2e
(4.41) G 1
( p )= , (4.42) G 2
( p )= .
10 p + 1 10 p + 1
Les résultats de l’analyse robuste (Fig.4.5), de l’analyse Nyquist (Fig.4.10 pour CLASS
et Fig.4.11 pour RMM ), et de la méthode de simulation parallèle avec estimation comparative
(Fig.4.7) sont :
● la prevue de satisfaction des critères utilises (Fig.4.5, Fig.4.11) pour la synthèse du
système robuste (4.23), (4.24), (2.25);
● les avantages en termes de performance améliorée concernant l’erreur dynamique de
RMM par rapport à CLASS sont expérimentalement prouvés;
● l’analyse comparative des caractéristiques (Fig.4.8, Fig.4.9, Fig.4.10, Fig.4.11) confirme
les avantages du système à modèle interne RMM par rapport au classique CLASS . Les fluc-
tuations paramétriques Δ G avec limite supérieure G (4.31) autour du procédé nominal G * ,
données par Π (2.1), correspondantes à (4.23) et (4.24), sont la raison pour l’incapacité de
CLASS de satisfaire au critère de performance et pour sa perte de stabilité. Pour les mêmes va-
leurs de Δ G , RMM maintient ses stabilité et performance.
4.8. Conclusion.
Dans le chapitre sont traités les systèmes à modèle interne et leurs particularités. Une
méthode pour leur synthèse, connue de la littérature [30,53,59 ÷ 61,65,84,97,128,129] est consi-
dérée. Une proposition est faite pour le développement de cette méthode dans l’aspect de son
application pour la conception de systèmes robustes pour la commande de procédés indus-
triels, sous critère « erreur quadratique intégrale minimale ». L’efficacité des systèmes ainsi
synthétisés est prouvée théoriquement et affirmée et estimée expérimentalement. Dans ce but
sont utilisés les méthodes de l’analyse robuste, de l’analyse de Nyquist, de la simulation paral-
lèle et de l’analyse comparative des systèmes synthétisés. Les résultats de ce chapitre confir-
ment les possibilités d’application de la classe de systèmes considérée et l’efficacité de la mé-
thode de synthèse du paramètre libre.
Chapitre 5
SYSTÈMES À COMPENSATION PARAMÉTRIQUE
En ayant recours à l’algèbre des tenseurs, la dérivation abstraite et les filtres réjecteurs,
dix ans plus tard l’idée de Smith-Davison еst développée selon deux directions. La première,
issue des travaux de Sain M. [103,109,110], trouve un prolongement et des applications consi-
dérables. C’est une commande avec des régulateurs de variations planifiées des paramètres
(Controller Scheduling). L’autre direction de recherche, entamée par Kamen E. et Khargone-
kar P. [83], concerne la commande par des régulateurs réjecteurs suivant les perturbations pa-
ramétriques.
Très proche de l’idée de Sain est celle de Wang J. et Rugh W. pour l’utilisation de re-
tours linéarisants dans le système de commande qui effectuent la compensation paramétrique
conformément au régime de fonctionnement. La méthode de synthèse proposée [119] est de la
paramétrisation statique et dynamique linéaire et elle trouve un développement dans la mé-
thode de Rugh W. [98,107,108] des retours linéarisants élargis qui utilise l’idée de Baumann
W. [13] pour la paramétrisation linéaire élargie.
Baumann W. et Banach A. [10] proposent une approche, basée sur la méthode des
inéquations aux dérivées partielles, pour la synthèse de systèmes à compensation paramétri-
que à travers la variation planifiée des paramètres dans la classe de Gain Scheduled Control
Systems. Cette approche est une précision contemporaine de la classe Feedback/Feedforward
Redundant Control Systems.
Rugh W. [98,107,108] prouve la liaison entre les méthodes de synthèse des Gain Sche-
duled Control Systems (avec les inéquations aux dérivées partielles et des retours linéarisants
élargis) et l’idée du Controller Scheduling linéarisé.
En comparant les performances des systèmes avec des régulateurs et des systèmes
adaptatifs à modèle étalon dans des exemples concrets de l’industrie chimique, Dumont G. et
Marten-Sanchez [52] déterminent la nécessité du développement des systèmes à compensa-
tion et prouvent l’efficacité de la classe Gain Scheduled Control Systems.
Hyde R., K. Glover [68] proposent une méthode pour la synthèse H ∞ -optimale
Controller Scheduling avec un observateur et une contre-réaction d’état selon une procédure
de variation planifiée de deux paramètres dans le système, en introduisant la notion “régulateur
à contour paramétrique loop-shaping”. Par l’analyse de la valeur singulière maximale de la
fonction de transfert matricielle du système en boucle fermée sont déterminées les estimations
quantitatives de la stabilité robuste de cette solution proposée, qui trouve ces applications
dans des systèmes pour la commande de vols.
Dans la plupart des cas ce sont des systèmes pour la commande de procédés générali-
sés avec variation contrôlable des paramètres, suivant des facteurs du régime dont la variation
peut être quasi-stationnaire, lente, quasi-linéaire, non constante. Lors de la synthèse de ces
systèmes un modèle de l’incertitude du type “vecteur composé avec composante mesurable”
est utilisé.
WAME
ν (p)
y
0
(p) ε(p) μ (p) y (p)
R (p) G (p)
-
α
Fig.5.1
Dans les PCS un algorithme pour la mesure et l’estimation ( AME ) du vecteur des per-
turbations et un algorithme pour le calcul des valeurs des paramètres du régulateur R ( p )
( ACPR ) sont utilisés. Dans les cas d’un système de correspondance ou de suivi (par exemple
pour la saisie d’un missile, quand la consigne y 0 est très bruitée) ou d’un système de stabilisa-
tion programmable multi-régime, la structure PCS utilisée est celle de Fig.5.3, qui réalise la va-
riation planifiée des paramètres du régulateur après une analyse des situations de variation des
paramètres de y 0 . Dans ce cas la variable de compensation α est formée conformément à
la structure de Fig.5.4.
WAME WACPR
α1
algorithme
d’analyse 1
α2
algorithme
d’analyse 2
a
algorithme
n αn
Fig.5.4
( )
d’analyse
0
s y
et pour Δ q 1 (Fig.5.7) qui est le coefficient de transfert total de la VA et pour k l 1 (Fig.5.8) qui
est le coefficient de transfert courant, déterminé géométriquement à partir de la pente de la tan-
gente dans le point considéré de q ( l ) (Fig.5.6).
Chaque variation des paramètres de la perturbation ∇s par rapport à la base des para-
mètres optimaux s 0∗ (malgré la valeur constante de la position l 0∗ = const ) mène à :
⎧ ( ∂ q ∂ l ) Δ l + ( ∂ q ∂ s )Δ s k l ∗ Δ l + k s ∗ Δ s
dq ⎪⎪ =
0 0
(5.1) k l 1 = = ⎨ dl dl ,
dl ⎪
⎩⎪
(
t g (α 1 ) , t g (α 1 ) ⇔ ( k p , T i , T d ) opt )
⎧ ( ∂ q ∂ l ) Δ l + ( ∂ q ∂ s ) ( Δ s + ∇ s ) k l ∗ Δ l + k s ∗ ( Δ s + ∇s )
dq ⎪⎪ =
0 0
(5.2) k l 2 = = ⎨ dl dl .
dl ⎪
⎩⎪
(
t g (α 2 ) , t g (α 2 ) ≠ t g (α 1 ) ⇔ ( k p , T i , T d ) opt )
La différence entre les valeurs k l 2 ≠ k l1 crée des difficultés d’exploitation concernant
l’obtention d’une précision dynamique élevée et de la rapidité désirée dans le système classi-
que. Le coefficient k l 2 (5.3) ne correspond pas à k p opt
⎧ k l 2 ≠ k l1 ⎫
⎪⎪ ⎪
(5.3) ⎨ k l 0∗ Δ l + k s 0∗ ( Δ s + ∇s ) k l ∗ Δ l + k s ∗ Δ s ⎪⎬ .
≠
0 0
⎪ ⎪
⎩⎪ dl dl ⎪⎭
Le débit q ( l , s ) est non univoque, ce qui ne satisfait pas aux exigences du critère υ .
Le système (Fig.5.5) est optimal (dans le contexte de υ ) si et seulement si il ne quitte pas un
petit voisinage autour du point "1" (Fig.5.6). Le système (Fig.5.5) avec un régulateur classique
ne peut pas satisfaire à υ pour tous les points de la caractéristique q ( l , s ) .
Fig.5.6.a
α1 α >α
VA lin
2 CLASS
α
1
=α
q = Q Q max 3 PCS 1
1
s 1 = 0 , 04
q lin 1 s 2 = 0 , 20 s = 1 ,00
0,8
∇ s
1 → 3 Δ = q 1∗ − q 3∗ PCS
0,6
2 1 → 2 Δ = q 1∗ − q 2∗ CLASS
0,4
∗
s1 = s0
∇s = s1 −s2 = s1 −s3
0,2 ∇ l ⇔ ∇s
∇l ( ) −1
⎡ P o − P1 ⎤
∗ s =⎢ +1 ⎥
l 0 Valve Position ll ⎢⎣ ( P1 − P2 ) ⎥⎦
[ ( )]
0 0,2 0,4 0,6 0,8 1
q VA lin = 1 − s 1 − l −2 − 0 .5
[
q VA log = 1 − s 1 − e 2 n ( 1−l ) ( )] − 0.5
α1
1
q log α 3 PCS =α 1
∗
0,8 s1 = s 0
∇s = s1 −s2 = s1 −s3
s = 1 ,00
∇ l ⇔ ∇s
0,6 s 1 = 0 , 06 α 2 CLASS <α 1
1
1 → 3 Δ = q 1∗ − q 3∗ PCS
0,4
3
∇ s
∗ ∗
1→ 2 Δ =q 1 −q 2 CLASS s 2 = 0 , 60
0,2 2
∇l
l
0
0 0,2 0,4 0,6 ∗ 0,8 1 (
⎡ P o − P1 ⎤ ) −1
VA log l = μ μ max l 0
s=⎢
⎢⎣ ( P1 − P2 )
+1 ⎥
⎥⎦
Fig.5.6.b
Fig.5.7.a
2
0
-2
-4
-6
-8
-10
s -12
0,9 -14
0,7
0,5 0,81 0,99
0,3 0,41 0,61 −1
⎡ ( P o − P1 ) ⎤
0,1 0,21
0,02 s =⎢ +1 ⎥
−
l ⎣ ( P1 P 2 ) ⎦
∂ q (l ,s ) ∂ q (l , s ) ∂ q (l , s ) ∂ q (l , s )
Δ q VA lin = Δl + Δ s= Δ q VAlog = Δl + Δs=
∂l ∂s ∂l ∂s
s (
− 0 ,5 l
−2
−1 ) ⎛ 2.0.49847. n s e 2 n ( 1−l )
⎜
⎞
⎟
⎛
⎜ −0.5 e ( 2 n ( 1−l )
) −1 ⎞
⎟
= Δl+ Δs =⎜ ⎟ Δ l+ ⎜ ⎟Δ s
l
3
(1 − (1 − l ))
−2 1 ,5
(1 − (1 − l ))
−2 1 ,5 ⎜
⎝ (
s e 2 n ( 1−l ) + 1 − s
3
) ⎟
⎠
⎜
⎝ (s e 2 n ( 1−l )
+1− s )
3
⎟
⎠
Δ q VA log
8
2
s
0,9 1
0,5
0,1 0
0,61 0,81 0,99
0,02 0,21 0,41
l
VA log gain de transfert plain Fig.5.7.b
1,8
k l3 PCS 1 1,8
1,4
2 1,4
1,2
k l1 ∇ s
1,2
1 1
0,8
1s 1l 3 0,8
s 0,04 s 0,1 s 0,2 s=0,20
0,6 0,6
s 0,3 s 0,4 s 0,5
0,4 s=0,04 0,4
0,2
s
l 0,04
l 0,3
l 0,1
l 0,4
l 0,2
l 0,5
∇ l l 0,2
0 0
0,04 0,1 0,2 0,3 0,4 0,5
Fig.5.8.a dq (∂ q ∂ l )Δ l + (∂ q ∂ s )Δ s
k l1 = =
dl dl
dq ( ∂ q ∂ l ) Δ l + ( ∂ q ∂ s )( Δ s + ∇ s )
k l 2 class = =
dl dl
dq ( ∂ q ∂ l )( Δ l + ∇l ) + ( ∂ q ∂ s )( Δ s + ∇ s )
k l3PCS = =
dl dl
4,5
s= 0,9
l 0,3
s= 1
l 0,4
l 0,06
l 0,5
l 0,2
l 0,6
k l3 PCS 1 4,5
l 0,7 l 0,8 l 0,9 l1
4 4
3,5 3,5
3
k l1 3
1l
2,5 2,5
3
2 1s ∇ s 2
1,5
k l 2 class 2
1,5
1
s=0,06 1
0,5
s ∇ l l 0,5
0 0
0,06 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
[
⎧ k R = [ a ( ∇ s ) ] . k p opt l 0∗ , s 0∗ , ϑ
⎪
( )]
(5.4-1) ∃ a = a ( ∇ s ) : ⎨
k
⎪⎩ il ( ∇ s ) = k
l0
∗ = const ⇔ k p opt l ∗
0 , s ∗
0 , ϑ
,
( )
( ∗
k l ∗ l0 , s0
∗
) ( Δ l + ∇ l ) + k (ls
∗ 0
∗
∗
, s0 ) (Δ s + ∇ s ) ( ∗
∗
)
k l ∗ l 0 , s 0 Δ l + k s ∗ l0 , s0 Δ s ( ∗
∗
)
(5.4-2) = .
0 0 0 0
Δl Δl
y
0
(p) ε(p) l (p) y (p)
R (p) VA ( p )
-
α ξ
Fig.5.9
Graphiquement, cela veut dire, qu’à la différence du système classique, la variation for-
cée de l de l = l 0∗ en l = l 0∗ + ∇ l , dans le PCS 0 “déplace” le point de travail "1" de la caracté-
ristique statique du procédé q ( l ) (Fig.5.6) en " 3 " , et non pas en " 2 " . Le nouveau point de
travail " 3 " diffère de "1" et de " 2 " par le fait qu’il se trouve sur une ligne de la famille q ( l , s )
avec indice s = s 0∗ + ∇ s , mais d’abscisse l = l 0∗ + ∇ l . En " 3 " , la ligne est de pente k l 3 (5.5),
correspondante à (5.4-2) et équivalente à k l 1 (5.1) (Fig.5.8). De (5.5) est déterminée la compen-
sation additionnelle ∇ l , en prenant en considération que k l i = k l 3 = k l1 = const
⎧ k l ∗ (Δ l + ∇ l ) + k s ∗ (Δ s + ∇s ) kl ∗ Δ l + ks ∗ Δ s ⎫
⎪ ⎪
(5.5) ⎨ = ⎬ ,
0 0 0 0
⎪⎩ dl dl ⎪⎭
où:
mément au type de VA selon les données pour l 0∗ et s 0∗ du point de travail "1" de la synthèse
optimale du système selon les relations (5.6) ou bien (5.7)
⎧⎪ ε . k p opt
∗
= l0 , (∇ s = 0 , ∗
s = s 0 = const ) k s∗
(5.6) ⎨ , (5.7) ∇ l = − ∇s.
0
∗ −1
⎪⎩ ε =l 0 k p opt kl∗
0
⎪a s 1 ∗
⎪⎩ l0 ⎪⎩ l0 kl∗
0
⎧ ( )
− 0.5 e 2 n ( 1− l ) − 1 n s e 2 n ( 1− l )
⎪ ∇ l VALOG = − ∇s
⎪⎪
(5.12) ⎨
(
s e 2 n ( 1− l ) + 1 − s
3
) .
⎪ ( )
− 0.5 e 2 n ( 1− l ) − 1 n s e 2 n ( 1− l )
⎪ a VALOG = 1 + ∇s
⎪⎩ s e (
2 n ( 1− l )
+ 1 − s
3
. l ∗
o )
Δs=0, l=lo*
Δl 0.2
0.15
0.1
Δl2
0.05
0
-0.05 Δl1
-0.1
l o* 1
-0.15
l=lo*+ Δ l 0.9 -0.2
0.6 s= -0.5
0.3
2 s= -0.3
l=lo* 0.02 s= 0.2
s= -0.1
s
lo*= s= 0.4
Fig.5.10
1.6
a 1.4
0.6
0.4 2
l o*
s= -0.5 s= -0.3 0.02
s= -0.1 1s= 0.2
s s= 0.4
0.5 lo*=
1 Fig.5.11
Les flèches sur les Fig.5.12 et Fig.5.13 illustrent l’effet de la procédure de compensation
paramétrique. Il est évident que les signes de ∇ l et de a dépendent de la direction de varia-
tion de ∇ s , aussi bien que de l’allure univoque et plate / lisse des caractéristiques considérées.
Les valeurs de la variable a (5.11) sont un indice indirect pour la multiplicité de la varia-
tion du coefficient de transfert du procédé en fonction de ∇ s , pour s = s 0∗ = 0 , 5 .
0.1
0.08
Δl 0.06
0.04
0.02
0
-0.02
-0.04
-0.06
0.91
-0.08 0.61
-0.1 0.31
Fig.5.12 s= 0.5
s= 0.2 0.02
s= -0.2 l=
s= -0.5
1.6
1.4
1.2
1 a
0.8
0.6
0.4
0.9 s= -0.5
0.6 s= -0.2
0.3
0.02 s= 0.2
Fig. 5.13 lo*=
s= 0.5
( )
k l ∗ Δ l + ∇ l + k s ∗ ( Δ s + ∇s ) kl∗ Δ l +ks∗ Δ s
(5.13) = ,
0 0 0 0
dl dl
ks∗
(5.14) ∇ l = − ∇s .
0
kl∗
0
Soit le procédé généralisé (Fig.5.14), caractérisé par la variable de régulation l t (la posi-
tion de commande de la VA ), variable intermédiaire q t et variable de commande y t (niveau,
température ou n’importe quelle autre grandeur technologique).
s (p) ξ (p)
vanne processus
automatique q (p) technologique
l (p) y (p)
G1 ( p , st ) G2 ( p,ξt )
kl k PLANT
k TOTAL PLANT
alors la solution est possible à travers une réalisation technique en PCS de l’exigence, donnée
par l’équation (5.17-3)
(5.17-1) k SYS ( ξ , t ) = k P opt ,υ k l ( ξ , t ) k PLANT ( t ) = ∇a t k P opt ,υ k l k PLANT ( ξ , t ) = const ,
⎛ d (y t ) ⎞ ⎛ Δ ( yt ) ⎞⎟
−1 −1
(5.20) ∇ a t = c 0∗ ⎜
⎜ d (l ) ⎟
⎟ ≈ c0
∗ ⎜
⎜ Δ (l ) ⎟⎠
, (c ∗
0 = k SYS k −1
p opt , υ
= const , )
⎝ t ⎠ ⎝ t
où sont utilisées les notations: k P opt ,υ - coefficient du régulateur de base dans le système;
k PLANT ( ξ , t ) - coefficient de transfert du processus technologique dans le procédé;
k TOTAL PLANT ( ξ , t ) - coefficient de transfert du procédé généralisé; k̂ TOTAL PLANT ( ξ , t ) - estima-
tion du coefficient de transfert du procédé généralisé; c 0∗ - constante.
⎧ d q (∂ q ∂ l ) Δ l + (∂ q ∂ s ) Δ s k l ∗ Δ l + k s ∗ Δ s
⎪⎪ = =
0 0
(5.21-1) k l1 =⎨ dl dl dl ,
t g (α 1 ) ⇔ ( k p , T i , T d ) opt
⎪
⎪⎩
s (p) ξ (p)
vanne processus
automatique q (p) technologique
y0 (p) ε (p) u ( p ) =l ( p ) y (p)
R (p) G1 ( p , st ) G2 ( p,ξt )
- k p opt kl k PLANT
⎧ ( ∂ q ∂ l ) Δ l + ( ∂ q ∂ s )( Δ s + ∇s ) k l ∗ Δ l + k s ∗ ( Δ s + ∇s )
⎪⎪ =
0 0
(5.22) k l 2 =⎨ dl dl .
⎪
⎪⎩ k l 2 ( ∇s ) = t g (α 2 class )
Fig.5.16.a
VA lin
∇l
∂q ∂s 0,8
∇l = ∇s ∇l s 0∗ = 0 ,09 = const
∂q ∂l
0,4
-0,4 0,4
∇s
0,2
l 0∗ -0,1
-0,3
-0,8
0,02 0,2 -0,5 (
⎡ P o − P1 ⎤ ) −1
0,4 0,6 s =⎢ + 1⎥
⎣⎢ ( P1 − P2 )
0,8 1 ⎥⎦
∇ s = s 0∗ − s i −1
−2
− 0 ,5 l − 1 l(3
) ∇l VA log = −
− 0 ,5 e ( 2 n ( 1− l )
−1 )
∇s
∇l VA lin = − ∇s 2 n ( 1− l )
s 0 , 996948 n s e
∇l
∂q ∂s
∇ l= ∇s
∂q ∂ l
1,2
∇l
s 0∗ = 0 ,09 = const
0,8
0,4
-0,4
-0,8
0,4
0,2
-1,2
0,02 -0,1
0,2 (
⎡ P o − P1 ⎤ ) −1
l 0∗
0,4
0,6
-0,3
∇s s =⎢ + 1⎥
0,8
1
-0,5 ⎣⎢ ( P1 − P2 ) ⎥⎦
∇ s = s 0∗ − s i −1
VA log
Fig.5.16.b
⎧ ( t ) = k l i, t = k l 3 = k l1 = const ⇔ ( k p , T i , T d )
1
k lPCS
⎪
( )
opt
⎪
(5.25) ⎨ k l ∗ Δ l + ∇l t + k s ∗ ( Δ s + ∇s t ) kl∗ Δ l + ks∗ Δ st ,
⎪ 0 0
=
0 0
⎪⎩ dl dl
⎧ k s∗
⎪ ∇l t
PCS 1
= −
0
∇s t ;
⎪ k
⎪ ∗
(5.26) ⎨ l0
.
⎪
⎪ ∇ l t , va log =
0.5 e 2 n ( 1 − l ) − 1 ( )
0 ,5 l − 2 − 1 l 3 ( )
( )
∇s t ; ∇l t , valin = ∇s t
⎪⎩ n s e 2n 1− l s
⎧ k s∗
⎪
2
∇l t = − ∇s t ;
PCS 0
⎪
⎪ k ∗
(5.27) ⎨ l0
.
⎪
⎪ ∇ l t , VA log =
( )
0.5 e 2 n 1 − l − 1 ( )
0 ,5 l − 2 − 1 l 3 ( )
( )
∇s t ; ∇ l t , VAlin = ∇s t
⎪⎩ n s e 2 n 1−l s
( t ) à la valeur
2 2
B 2 − >> stabilise le coefficient k SYS
PCS PCS
k SYS 1
i ( ∇s t , ξ t , t ) = k SYS 1 = const ⇔ ( k p , T i , T d )
2 2
( k SYS
PCS PCS
opt
),
correspondante au point de travail "1" indépendamment de ∇s t , ξ t , à l’aide de la
variable de compensation en série ∇a t , en ayant recours à la stabilisation obtenue
( t ) = k l i, t = k l 3 = k l 1 = const ⇔ ( k p , T i , T d )
2
( k lPCS opt
) de B.1.
métrique en série, pour laquelle (5.28) est transformé en l’équation de la balance (5.29)
⎧ k PCS
⎪ SYS i
2
( ∇s t , ξ t , t ) = k SYS 2 ( ∇s t , ξ t , t ) = k p . k l
PCS 2 PCS 2
( ∇s , t ) . k
t PLANT (ξ t ,t)
(5.28) ⎨ ,
⎪⎩
PCS
k SYS i
2
( ∇s t , ξ t , t ) = k p . k l1
PCS
.k
2
PLANT (ξ , t )
t
⎧ k PCS ( t ) = ∇a . k . k PCS .k
⎪ SYS i
2
t p l1
2
PLANT (ξ t , t ) = k SYS
PCS
1 = const ⇔ ( k p , T i , T d
2
) opt
(5.29) ⎨ .
⎪ k SYS i ( t ) = ∇a t . k p . k l 1 .k̂
⎩
PCS 2
PCS 2
PLANT (ξ t , t )= k PCS 2
SYS 1 = const ⇔ ( k p , T i , T d ) opt
∇l ( p )= u2 ( p )
P
0
(p) k
∇l ( p )= s
∇s (p) vanne processus
ku automatique technologique
y
0
(p) ε (p) y (p)
R (p) G1 ( p , st ) G2 ( p,ξt )
- u1 (p)
u (p) q (p)
u ( p ) = u 1 ( p )+ u 2 ( p )
régulateur à compensation
paramétrique avec stabilisation procédé généralise
additive
−1 −1
PO ⎛ P 0 − P1 ⎞ ⎛ Δ P1 lin ⎞
A1 s1 = ⎜ +1⎟ = ⎜ +1⎟
⎜ P −P ⎟ ⎜ ΔP ⎟
−1 ⎝ 1 ⎠ ⎝ ⎠
⎛ P 0 − P1 ( t ) ⎛ Δ Plin ( t ) ⎞⎟
−1
2 1
⎞
st = ⎜ ⎟
−1 −1
= ⎜
P1 P2 ⎛ P 0 − P3 ⎞ ⎛ Δ P2 lin ⎞
+1 A2 s2 = ⎜
⎜ P −P
+1⎟
⎟
= ⎜
⎜ ΔP
+1⎟
⎟
⎜ P ( t )− P ( t ) ⎟ ⎜ ΔP (t ) ⎟⎠
⎝ 3 4 ⎠ ⎝ 2 ⎠
⎝ 1 2 ⎠ ⎝ VA P3 P4 ⎛ P 0 − P5 ⎞
−1
⎛ Δ P3 lin ⎞
−1
s3 = ⎜ +1⎟ = ⎜ +1⎟
Δ PVA ( t )
A3 ⎜ P −P ⎟ ⎜ ΔP ⎟
⎝ 5 6 ⎠ ⎝ 3 ⎠
st = P5 P6 ⎛ P 0 − P7
s4 = ⎜
⎞
+1⎟
−1
⎛ Δ P4 lin
= ⎜
⎞
+1⎟
−1
Δ PVA max A4 ⎜
⎝ P7 − P8
⎟
⎠
⎜
⎝ Δ P4
⎟
⎠
P7 P8
Fig.5.17.b
P
0 ∂q ∂s régulateur à
algorithme pour la ∇l t = ∇s t
stabilisation du ∂q ∂l compensation
coefficient de ⎛ P O − P1 ( t ) ⎞
−1 paramétrique
−⎜ +1⎟
∗
transfert de VA ∇s t = s 0
⎜ P ( t )− P ( t ) ⎟
avec stabilisation
Δ P , P1 ⎝ 1 2 ⎠
additive 1
y0
μ 1∗ μ 2∗ = ∇ l
y PCS 1 REGULATEUR
DE BASE
μ*
ACTIONNEUR
Fig.5.17.c
−1
⎛ P O ( t ) − P1 ( t ) ⎞
s ( t )= ⎜ +1⎟
⎜ ΔP (t ) ⎟
⎝ ⎠
∇ s ( t )= s0 − s ( t )
∗
∇s (t )
PID CLASSIQUE
∇ l va log ( t ) = −
−50 e ( (
2 n 1− l 0
∗
) −1 ) ∇s( t )
0 , 996948 n s 0 e
∗ (
2 n 1− l 0
∗
)
ALGORITHME
∇ l valin ( t ) = −
((
− 50 l 0
∗
) −2
−1 l0 )( ∗
) 3
∇s( t )
s 0∗
μ 2∗ ( t ) = ∇ l (t ) μ 1∗ ( t )
l ( t ) = μ ( t ) = μ 1∗ ( t ) + μ 2∗ ( t )
ACTIONNEUR
Fig.5.18
⎧
2 2 2
PCS PCS PCS
k SYS k SYS k SYS 1
⎪ ∇a t = 1
=
1
=
1
⎪
(5.30) ⎨ ,
⎛ d ( yt ) ⎞ ⎛ Δ ( yt ) ⎞
−1 −1
⎪
⎪ ∇a t = c 0
∗⎜
⎜
⎟ ≈ c0 ⎜
⎟
∗
⎜
⎟ , c 0∗ = k SYS
⎟
PCS 2 −1
1 . k p = const ( )
⎪⎩ ⎝ d (l t ) ⎠ ⎝ Δ (l t ) ⎠
, ∇a tPCS , suivant les algorithmes (5.26), (5.27), (5.30), sous les critères – (5.24), (5.25) et
2 2
∇l tPCS
(5.29).
considération que:
- ∇s est une perturbation de signal mesurable (Fig.5.17.b et Fig.5.19.b);
( )
- la réalisation technique de PCS 1 2
est montrée à la Fig.5.17.c et la Fig.5.19.c;
- l’abscisse l 0∗ du point de travail "1" pour s = s 0∗ = const est déterminée en conditions
d’exploitation à partir de l’erreur ε dans le système selon (5.6);
- k s et k l sont des constantes connues, dont les valeurs dans (5.7) sont calculées se-
∗ ∗
0 0
lon le type de VA suivant les données l 0∗ et s 0∗ pour le point de travail "1" [99], comme cela
est montré par les relations simplifiées pour PCS 1 avec (5.26) et pour PCS 2
avec (5.27);
- ∇s , k s et k l ainsi déterminés, permettent la formation des variables de compensa-
∗ ∗
0 0
1 2
tion ∇l tPCS dans PCS 1
selon (5.26) et de ∇l tPCS dans PCS 2
selon (5.27);
2
- l’illustration du principe de la compensation paramétrique dans PCS 2
selon ∇l tPCS
( t ) coïncide avec ∇l tPCS pour
2 1
(5.27) pour la stabilisation de k lPCS PCS
1
(5.26), (Fig.5.6);
u ( p ) = ∇a ( p ) u 1 ( p ) + u 2 ( p )
algorithme pour la stabilisation de k SYS
régulateur à compensation
paramétrique avec stabilisation procédé généralise
combinée
−1 −1
PO ⎛ P 0 − P1 ⎞ ⎛ Δ P1 lin ⎞
A1 s1 = ⎜ +1⎟ = ⎜ +1⎟
⎜ P −P ⎟ ⎜ ΔP ⎟
−1 ⎝ 1 ⎠ ⎝ ⎠
⎛ P 0 − P1 ( t ) ⎛ Δ Plin ( t ) ⎞⎟
−1
2 1
⎞
st = ⎜ ⎟
−1 −1
= ⎜
P1 P2 ⎛ P 0 − P3 ⎞ ⎛ Δ P2 lin ⎞
+1 A2 s2 = ⎜
⎜ P −P
+1⎟
⎟
= ⎜
⎜ ΔP
+1⎟
⎟
⎜ P ( t )− P ( t ) ⎟ ⎜ ΔP (t ) ⎟⎠
⎝ 3 4 ⎠ ⎝ 2 ⎠
⎝ 1 2 ⎠ ⎝ VA P3 P4 ⎛ P 0 − P5 ⎞
−1
⎛ Δ P3 lin ⎞
−1
s3 = ⎜ +1⎟ = ⎜ +1⎟
Δ PVA ( t )
A3 ⎜ P −P ⎟ ⎜ ΔP ⎟
⎝ 5 6 ⎠ ⎝ 3 ⎠
st = P5 P6 ⎛ P 0 − P7
s4 = ⎜
⎞
+1⎟
−1
⎛ Δ P4 lin
= ⎜
⎞
+1⎟
−1
Δ PVA max A4 ⎜ P −P
⎝ 7 8
⎟
⎠
⎜ ΔP
⎝ 4
⎟
⎠
P7 P8
Fig.5.19.b
0
P ∂q ∂s
algorithme pour la ∇l t = ∇s t
stabilisation du ∂q ∂l
algorithme pour
la stabilisation coefficient de ⎛ P O − P1 ( t ) ⎞
−1
∇s t = s 0 − ⎜ +1⎟
∗
transfert de VA ⎜ P ( t )− P ( t ) ⎟
du coefficient du
système
Δ P , P1 ⎝ 1 2 ⎠
y0
f ( Ti , Td )
μ 1∗ μ 2∗ = ∇ l régulateur à
kp compensation
y PCS 2 ∇a *
paramétrique
∗
co
l μ* avec stabilisation
y ACTIONNEUR additive 2
Fig.5.19.c
2
ALGORITHME POUR LA FORMATION DE VARIABLE DE COMPENSATION
(t )
2
c 0 (l t )
∗
yt
∇ s ( t )= s0 − s ( t ) ∇a
∗
X
f ( T i ,T d )
∇s (t )
PID ALGORITHME 2
∇ l va log ( t ) = −
−50 e ( (
2 n 1− l 0
∗
) −1 ) ∇s( t )
0 , 996948 n s 0 e
∗ (
2 n 1− l 0
∗
)
∇ l valin ( t ) = −
((
− 50 l 0
∗
) −2
−1 l0 )( ∗
) 3
∇s( t )
s 0∗
μ 2∗ ( t ) = ∇ l (t ) μ 1∗ ( t )
l ( t ) = μ ( t ) = μ 1∗ ( t ) + μ 2∗ ( t )
ACTIONNEUR
Fig.5.20
Les conditions initiales pour la synthèse sont données dans le Tableau 5.1.: le modèle
nominal G * ( p ) du procédé et le type de VA sont connus. Il faut synthétiser PCS 1 et PCS 2
pour la stabilisation du procédé généralisé G ( p ) , dont le modèle perturbé à la limite supé-
rieure est G ( p ) .
La conception des systèmes est menée en deux étapes: pour le régulateur R * ( p ) de
base et pour les variables de compensation dans le système.
La synthèse de système pour la stabilisation d’un procédé linéaire à minimum de phase
avec modèle nominal connu G * ( p ) est un problème dont la solution est donnée par R * ( p ) ,
d’ajustement optimal par rapport à G * ( p ) .
Dans le cas concret les méthodes de Chien-Hrones-Reswick et de Zigler-Nichols sont
utilisées. L’ajustement définitif de R * ( p ) (Tableau 5.1) est précisé en utilisant une procédure
itérative d’optimisation [99,100] de convergence prouvée et de vitesse de convergence connue
[100]. On prend en considération le but (la stabilisation), les exigences de performance (stabili-
té, rapidité, précision) et les indices qualitatifs (processus transitoires apériodiques critiques).
PCS
1
et PCS 2 selon la méthode de l’équation de la balance paramétrique a recours à
l’algorithme (5.26), (5.27), (5.30) [99,100] sous critère (5.24), (5.25) et (5.29). Les résultats sont
montrés dans le Tableau 5.1.
Tableau 5.1
conditions initiales G* ( p ) G
(p ) type de la VA
−2 p −10 p
1 , 239 e 2 , 439 e
pour la synthèse VALOG VALIN
( 10 p + 1 ) ( 10 p + 1 )
1 résultat de 1
paramètres du PCS la synthèse du PCS
(5 p + 1) (2 p + 1) (5 p + 1) (2 p + 1)
algorithme R * ( p ) de base 0 ,13 0 ,13
( 5 p ) (0 ,4 p + 1 ) ( 5 p ) (0 ,4 p + 1 )
variable de compensation (
0.5 e 2 n ( 1 − l ) − 1 )
1 ∇s t
∇l PCS
t nse 2n ( 1 − l )
2 résultat de 2
paramètres du PCS la synthèse du PCS
(5 p + 1) (2 p + 1) (5 p + 1) (2 p + 1)
algorithme R * ( p ) de base 0 ,13 0 ,13
( 5 p ) (0 ,4 p + 1 ) ( 5 p ) (0 ,4 p + 1 )
variable de compensation (
0.5 e 2 n ( 1 − l ) − 1 )
2 ∇s t
∇l
PCS 2n ( 1 − l )
t nse
variable de compensation
2 c 0∗ ( d ( y t ) d ( lt ) ) −1
∇a tPCS
ϑ ( t )= ⎨
[
⎧⎪ ν ( t ) ξ ( t ) y o ( t ) ] pour systèmes robuste et classique analyses ⎫⎪
T
⎬
(5.32) ⎪⎩ [ν ( t ) 0 ( t ) y o ( t ) ] T pour système nominal ⎪⎭ .
( 10% ≤ ν ( t ) ≤ 90% , 10% ≤ y o ( t ) ≤ 90% d' echele )
(5.34) y α [ H + α~ ( p ) ] G =G
= ⎡Φ νy
⎢⎣
Φ ξy
Φy
o
y
⎤ν
⎥⎦
[ (p) ξ(p) y
o
( p )] .
T
(5.35) [ e ( p ) ] PCS
1 ( 2 )
= ⎡ y α H +α~
⎢⎣
[ ( p ) ] G =G
− yα H [ ( p ) ]O G = G*
⎤.
⎥⎦
(5.36) [ ê ( t )]
∫ ∫
PCS 1 ( 2 ) 1 ( 2 )
= dt − ) dt ,
CLASS
1 ŷ ( t , y o ,ν , ξ )
ŷ (PCS
t, y
o
,ν , ξ
0 0
⎡ ⎛ t t ⎞⎤
⎜ ⎟
(5.37) [ ê ( t )] = ⎢1−⎜
∫ ŷ ( ∫ ŷ ( d t ⎟ ⎥ 100 , % ,
1 ( 2 ) 1 ( 2 )
PCS PCS CLASS
2 ⎢ ⎜ o
,ν , ξ ) dt t , yo ,ν , ξ ) ⎥
⎟⎥
t, y
⎣⎢ ⎝ 0 0 ⎠⎦
à la base de (5.38) (5.39)
(5.38) ŷ (CLASS
t , y ,ν , ξ )
= y (CLASS
t , y ,ν , ξ )
o − y (NOM
t,y o o
,s ),
( )
1 2
PCS 1 ( 2 )
(5.39) ŷ (PCS
t,y o
,ν , ξ )
= y (t , yo ,ν , ξ ) −
NOM
y (t , yo ,s ).
La base pour l’estimation comparative de la précision dynamique du système analysé
PCS 2 ) est le système classique perturbé paramétriquement CLASS (Fig.5.22). PCS 1 ( 2 ) est
1 (
estimé par rapport à la trajectoire de base (5.40) à travers l’erreur dynamique du système clas-
sique perturbé paramétriquement
(5.40) ε (CLASS
y ,ν , ξ )o ( p ) = ⎡⎢ Φ ν ε
⎣
Φ ξε
Φ y ε
o [
⎤ν
⎥⎦
(p) ξ (p) y
o
( p )] .
T
( )
L’erreur dynamique estimée de PCS 1 2
est donnée par (5.41)
(5.41) ε PCS
(y ,ν , ξ ) o
1 ( 2 )
( p ) = ⎡⎢ Φ ν ε
⎣
Φ ξε
Φ
yoε
⎤ ν
⎥⎦
[ (p) ξ (p) y
o
( p )] .
T
La variante optimale pour l’erreur dynamique est qu’elle soit nulle. Une moindre erreur dans le
système reflète une précision dynamique supérieure, c’est la raison pour laquelle une diffé-
rence (5.42) ÷ (5.43) constamment positive entre les trajectoires des erreurs dynamiques des
systèmes comparés reflète la précision dynamique augmentée du système analysé par rapport
au classique.
(5.42) [ Δ ε ( p ) ] Δ = ε (CLASS
( )
(p) (p),
1 2
y ,ν , ξ ) o − ε (PCS
y o ,ν , ξ )
(5.43) [ e ( t
)
) ] iε = [ Δ ε) ( t ) ] Δ = ε) (CLASS
y ,ν , ξ )
(t ) o
) PCS 1 ( 2 )
− ε ( y o ,ν , ξ ) ( t ),
Les systèmes PCS 1 ( 2 ) et CLASS sont comparés à travers des relations pour les diffé-
rences entre les estimations des erreurs dynamiques, toutes les autres conditions étant les mê-
mes. Les relations (5.44) et (5.45) sont représentatives
(5.44) [ ê ( t ) ] 3PCS
1 ( 2 )
= [ (ε) ( CLASS
t, y o
,ν , ξ )
ε (PCS
)
t, y
1
o
( 2 )
,ν , ξ
) ]
) −1 ,
⎡ ⎛ t t ⎞⎤
⎜ ⎟
= ⎢ 1 −⎜
∫ ε( ∫ε( dt ⎟⎥ .
) )
(5.45) [ ê ( t )] PCS 1 ( )
PCS 1 ( )
2 2
CLASS
4 ⎢ ⎜ t, y
o
,ν , ξ ) dt t, y
o
,ν , ξ )
⎟ ⎥⎥
⎢⎣ ⎝ 0 0 ⎠⎦
L’algorithme d’estimation (3.36) ÷ (3.45) est donné à la Fig.5.23.
s (p)
vanne processus
automatique technologique
y0 (p) ε (p) u (p) y (p)
R (p) *
G TOTAL PLANT (p)
- kp ⇔
∗
G TOTAL ( p ) k ( p ) = k TOTAL PLANT
opt
{ l =l ∗
0 ,s = s ∗
0 } PLANT TOTAL PLANT 1
vanne processus
automatique technologique
y
0
(p) ε (p) u (p) y (p)
R (p) G TOTAL PLANT ( p , st , ξ t )
- kp opt
{ l =l
⇔
∗ ∗
0 , s=s 0 }
∗
G TOTAL PLANT ( p ) k TOTAL PLANT (p, s t , ξ t , y t0 )
[ ê ] 1Δ
y 1
système
nominal
ε f3 [ ê ] Δ2 1
[ ê ] Δ3
système f1 1
classique f2 f4 [ ê ] Δ4 1
système f1
estime f2
perturbe paramétriquement
nonperturbe
avec émission de bruit dans
paramétriquement
la VA, avec même type de:
ξ =0
ξ =la ,s
I- er niveau
Δ- estimations
même type de: G * , y 0 , ν
Fig.5.23
Les modèles des systèmes (Tableau 5.1) sont simulés pour les mêmes conditions
d’exploitation. Le schéma suppose les mêmes:
• modèle nominal G * du procédé généralisé, qui reflète les propriétés dans le modèle
de VA [99,100];
• fluctuations paramétriques Δ G autour du modèle nominal du procédé G * avec li-
mite supérieure G (Tableau 5.1);
• critère local de performance (processus transitoires apériodiques critiques);
• modèle du type ϑ ( t ) (5.32) de simulation des actions du milieu sur le système;
Les processus transitoires des grandeurs principales y t , l t , ∇l t , ∇a t , k sys , k lt ,
q t / l t (Fig.5.30.a ÷ Fig.5.31.b) sont représentés en tant que résultats de la simulation parallèle
(Fig.5.30.a).
Les estimations indirectes de la stabilité robuste (Tableau 5.2) sont données par
l’analyse comparative de la déviation de la trajectoire nominale de PCS 1 ( 2 ) et du système
classique [ ê ( t ) ] 1PCS , [ ê ( t ) ] 2PCS
1 ( )
2 ( )1 2
(Fig.5.32.b) y t0 , s t , ξ t (Fig.5.32.a).
Les estimations quantitatives de la précision dynamique (Tableau 5.2) sont données par
l’analyse comparative de l’erreur dynamique [ ê ( t ) ] 3PCS , [ ê ( t ) ] 4PCS
( ) ( )
1 2 1 2
(Fig.5.32.c,
Fig.5.32.d) de PCS 1 ( 2 ) et du système classique perturbé paramétriquement en tant que résul-
tats de la simulation parallèle (Fig.5.32.a).
η −1
PCS 1 PCS 1
lm ( ω ) < η (ω ) −1
, ∀ω η (ω ) lm ( ω ) ∞
< 1 , ∀ω
lm ( ω ) η ( ω ) lm ( ω ) + e( ω ) v( ω ) < 1 , ∀ω
Fig.5.24.a Fig.5.24.b
η −1
PCS 2 PCS 2
η (ω ) lm ( ω ) ∞
< 1 , ∀ω
lm ( ω ) < η (ω ) −1
, ∀ω
lm ( ω ) η ( ω ) lm ( ω ) + e( ω ) v( ω ) < 1 , ∀ω
Fig.5.25.a Fig.5.25.b
y PCS 1 ( G ) ( t ) y PCS 2 ( G ) ( t )
Fig.5.26.a Fig.5.27.a
W PCS 1 ( G ) ( j ω ) W PCS 2 ( G ) ( j ω )
Fig.5.26.b Fig.5.27.b
W PCS 1 ( G ) ( j ω ) W PCS 2 ( G ) ( j ω )
(
arg W PCS 1 ( G ) ( j ω )) (
arg W PCS 2 ( G ) ( j ω ))
Fig.5.26.c Fig.5.27.c
W PCS 1 ( G ) ( j ω ) W PCS 2 ( G ) ( j ω )
Fig.5.26.d Fig.5.27.d
SUPERIORITE
de PCS1 (PCS2)
par rapport aux systèmes classiques
PERFORMANCE
AMELIOREE
PRECISION STABILITE
DYNAMIQUE ROBUSTE
indices généralises pour l’estimation de performance
a la base de résultats de la simulation parallèle
AUGMENTEE AUGMENTEE
déterminée déterminée
par estimation quantitative par estimation quantitative
de la diminution de la diminution
de l’erreur de la déviation de la
du système trajectoire nominale
[ ê ( t ) ] 3Δ [ ê ( t ) ] 1Δ
[ ê ( t ) ] 4Δ [ ê ( t ) ] Δ2
Fig.5.28
yo
Band-Limited NOM
White Noise ynominal
perturbation généralisée
algorithme d'estimation
s
CLASS estimation intégrale
Band-Limited yclassique
White Noise de la déviation diminuée
estimation intégrale
yPCS2
ξ de la précision
Band-Limited
White Noise
PCS 2 dynamique augmentée
yPCS1
PCS 1
Fig.5.29.a
y NOM
PROCESSUS
“V P”=OP TECHNOLOGIQUE
MODELE DE PROCEDE GENERALISE
Fig.5.29.b
y0 REGULATEUR CLASSIQUE
REGULATEUR OP
DE BASE CLASS
ACTIONNEUR
PO REGULATEUR A
∂q ∂s
ALGORITHME POUR LA ∇ l ( t) = ∇ s (t) COMPENSATION
STABILISATION DU ∂q ∂l
COEFFICIENT DE
TRANSFERT DE VA
⎛ P O − P1 ( t )
∇ s t = s ∗0 − ⎜
⎞
+ 1⎟
−1
PARAMETRIQUE 2
Δ P, P1
⎝ P1 ( t ) − P 2 ( t ) ⎠
y0 a = OP1 OP2 = ∇l
PCS 2
CON
kp TRO
* LLER
PV OP
OP ACTIONNEUR
PO ∂q ∂s
ALGORITHME POUR LA ∇ l ( t) =
∂q ∂l
∇ s (t) REGULATEUR A
STABILISATION DU
COEFFICIENT DE ⎛ P O − P1 ( t ) ⎞
−1 COMPENSATION
TRANSFERT DE VA ∇ s t = s ∗0 − ⎜ + 1⎟
Δ P, P1
⎝ P1 ( t ) − P2 ( t ) ⎠
PARAMETRIQUE 1
0
y
OP1 OP2 ∇l
PCS 1
REGULATEUR
DE BASE
OP
ACTIONNEUR
y PCS 1
MATIERE PREMIERE (ENERGIE) P1 V P=OP P2
PROCESSUS
TECHNOLOGIQUE
PROCEDE GENERALISE
Fig.5.29.e
Tableau 5.2
(p) (p)
2
paramètres G* R* ∇l t , va log
ROB
∇a tROB
1 2 PCS 1 PCS 2
CLASS
y PCS , y PCS , y CLASS , y o , s , ξ k sys , k sys , k sys
CLASS
PCS1
PCS2
Fig.5.30.a Fig.5.30.d
l PCS 1 , l PCS 2 , l CLASS k PCS
1
,k PCS
2
,k CLASS
⇒ dq dl
l l l
PCS1
PCS2 CLASS
CLASS
PCS2 PCS1
Fig.5.30.b Fig.5.30.f
∇l PCS 1 , ∇l PCS 2 , ∇ a PCS 2 (q l ) PCS 1 , (q l ) PCS 2 , (q l ) CLASS
∇ a PCS 2 ∇l PCS
1 = ∇l PCS
2 CLASS PCS2 PCS1
Fig.5.30.c Fig.5.30.e
∇l PCS 1 = ∇ l PCS 2
∇a PCS 2
Fig.5.31.a
l PCS 1 , l PCS 2
l CLASS
Fig.5.31.b
yi 1 2
y PCS , y PCS , y CLASS , y o , s , ξ
Fig.5.32.а
[ e) ] 2
PCS2
PCS1
[ e) ] 1
Fig.5.32.b
[ e) ] 3
PCS2
PCS1
Fig.5.32.c
[ e) ] 4 PCS2
PCS1
Fig.5.32.d
nées de trends réels pour Θ . Le Tableau 5.3 donne les résultats de la synthèse analytique d’un
système classique et d’un système à compensation paramétrique PCS 2 pour la stabilisation
de la température de la vapeur surchauffée.
La Fig.5.36 montre l’évolution du trend réel de la température Θ ( t ) comme une gran-
deur principale de l’installation. Cette dernière grandeur est commandée à l’aide du système
classique synthétisé et la Fig.5.37 donne les résultats des simulations des systèmes classique
et PCS 2 pour la commande de la température Θ dans les conditions les plus proches de cel-
les d’exploitation. Pour le trend considéré (Fig.5.37), les avantages de PCS 2 par rapport au
système classique sont évidents.
Tableau 5.3
conditions initiales pour la synthèse
G* ( p ) = =
O
(vanne automatique a C/%
caractéristique loga- 102 ,074 sec p + 1 1 ,70 min p + 1
rithmique)
G ( p ) avec VALOG −90 , 70 sec p −1 , 52 min p
1 , 812e 1 , 812e
(vanne automatique a G
(p )= =
O
C/%
caractéristique loga- 102 ,074 sec p + 1 1 ,70 min p + 1
rithmique
2
paramètres du PCS synthétisé
algorithme (77 ,0077 p + 1 ) ( 127 , 2293 p + 1 )
R* ( p ) 0 ,143755
de base
(77 ,0077 p ) ( 25 , 44 p + 1 )
( 2 n ( 1−l )
−1 )
(s )
2
variable ∇l tPCS PCS 2
0.5 e ∗ ∗
∇l t = 2 n ( 1−l )
∇s t , 0 = 0 ,732 , l 0 = 0 , 81
de compensation nse
2
variable ∇a tPCS ∗
(d ( yt ) d (l t ) ) −1
2
∇a t = c0
PCS
de compensation
eau d'alimentation
eau d'alimentation Q I Q II
I-ere injection
μ II-eme injection
vapeur
surchauffée
Θ
turbine
CHAUDIERE
s(p ) f [ s ( p )]
ε (p) μ(p)
y 0
( p) y(p)
R(p) G VA (p) G 1 (p) G 2 (p)
- procédé généralise
Θ 0 Q I
Q II = const Θ
Fig.5.34
kcr= 14,37566
Tcr = 167,407 sec = 2,7901 min
Kp = 0,143755
Ti = 77,0077 sec = 1,2834 min
Td = 127,2293 sec = 2,1204 min
360 mm/h
60 % charge
93 mm
t28=104,107 s = 1,735 min , t40=122,666 s = 2,044 min
Tu=70,70 s = 1,178 min Tg=102,074 s = 1,701 min
kob=1,2133, OC / %
−70 , 70 sec p − 1 , 178 min p
1 , 2133 e 1 , 2133 e
G* ( p )= =
O
, C/%
102 ,074 sec p + 1 1 ,70 min p + 1
Fig.5.35
450 o C
Θ vapeur
surchauffee
500 o C
CLASS
550 o C
1800 sec 3600 sec 5400 sec 7 2 0 0 se c
Fig.5.36
CLASS
PCS 2
Fig.5.37
−1 −1
⎛ P 0 − P1 ( t ) ⎞ ⎛ Δ P lin ( t ) ⎞ Δ PVA ( t )
(5.46) s t = ⎜ + 1⎟ = ⎜ +1⎟ = .
⎜ P ( t )− P ( t ) ⎟ ⎜ ΔP (t ) ⎟ Δ PVA
⎝ 1 2 ⎠ ⎝ VA ⎠ max
En [99,100], une méthode pour la synthèse analytique de systèmes robustes avec dévia-
tion minimale de la trajectoire nominale stabilisée ( ROB 2 Robust Systems with a Stabilized
Minimum Deviation from the Nominal Trajectory ) est considérée.
⎧
⎪ A − >> k lROB
i [ ∇s t , t ] = k lROB
1 = const ⇔ ( k p , T i , T d )
opt
⎪
⎪⎪ ⎧ k
⎪ [ ∇ s t , t ] = k = const ⇔ ( k p , T i , T d opt ⎫⎪
ROB
li
ROB
l1 )
(5.47) ⎨ B − >> ⎨ ROB ⎬ .
⎪ [ ]
⎪⎩ k SYS i ∇ s t , ξ t , t = k SYS 1 = const ⇔ ( k p ,T i ,T d ) opt ⎪⎭
ROB
⎪
⎪ C − >>
⎪⎩
[ ] [
[ e ( p ) ] ROB = ⎡⎢ y α H +α~ ( p ) G =G − y α H ( p ) O G =G* ⎤⎥ = m i n
⎣ ⎦
]
La Fig.5.38 donne la structure d’un système robuste avec déviation minimale stabilisée
( ROB ) qui comporte un régulateur de base, le modèle nominal, un filtre dynamique et un
2
( p ) − R * ( p ) ⎫⎪ ⎪ R * ( p ) ⇔ G * ( p ) , ( β ∗ ⇔ α H )
⎧
R
(5.48) D F ( p ) = − ⎬⎨ ,
1 + R * ( p ) G * ( p ) ⎪⎭ ⎪
R ( p ) ⇔ G ( p ) , ( β ⇔ α + α~ )
⎩ H
⎧ k s∗ ⎫
= const ⇔ ( k p , T i , T d ) opt
⎪ ∇ ROB
= − ∇s t ⎪
(t ) = k l
0
⎧ k ROB ROB
⎫ t
⎪
l l1
⎪ ⎪ k ∗ ⎪
⎪⎪ ⎪
l0
(5.49) ⎪
⎪ ⎪ ⎪⎪ 0.5 e (2 n ( 1−l )
−1 ) ⎪⎪ ,
⎬ ⎨ ∇ l t , va log = ∇s t
ROB
⎨ ⎬
( ) nse ( )
2 n 1−l
⎪ k ∗ Δ l + ∇l + k ∗ ( Δ s + ∇s t ) k l 0∗ Δ l + k s 0∗ Δ s t ⎪⎪ ⎪⎪ ⎪
⎪ l0
⎪
t s0
=
⎪ ⎪
(−2
0 ,5 l − 1 l )
3 ⎪
⎪
⎭ ⎪ ∇ l t , valin = ∇s t
ROB
⎩ dl dl
⎪
s
⎩⎪ ⎭⎪
⎧ k SYS
⎪
ROB
i ( t ) = ∇a t .k p .k l 1
ROB
.k PLANT ( ξ t , t ) = k SYS
ROB
1 = const ⇔ ( k p , T i , T d ) opt
(5.50) ⎨ ROB ,
⎪⎩ k SYS i ( t ) = ∇a t .k p .k l 1 . k̂
ROB
PLANT ( ξ t , t ) = k SYS 1
ROB
= const ⇔ ( k p , T i , T d ) opt
⎧ ROB
k SYS 1
ROB
k SYS 1
ROB
k SYS 1 1
⎪ ∇a t =
ROB
= =
⎪⎪ k p . k lPCS . k̂ PLANT ( ξ , t ) k p . k̂ TOTAL PLANT ( ξ , t ) k p d ( y t ) / d (l t )
2
(5.51) ⎨ ,
⎛ d ( yt ) ⎞ ⎛ Δ ( yt ) ⎞
−1 −1
⎪
⎪ ∇a t = c 0
ROB ∗ ⎜
⎜
⎟ ≈ c0 ⎜
⎟
∗
⎜ ⎟
(
⎟ , c 0∗ = k SYS ROB −1
1 . k p = const )
⎩⎪ ⎝ d (l t ) ⎠ ⎝ Δ (l t ) ⎠
s (p) ξ (p)
algorithme pour la stabilisation de kl
∇l ( p )≡ u3 ( p )
P
0
(p) ks
u3 ( p )
∇ll ( p ) =
∇ ∇s (p) vanne processus
ku automatique technologique
∇a ( p ) = c 0 ⎜ = k ob
∗
⎜ u( p ) ⎟⎠ k
∇a (p) ⎝ TOTAL PLANT
⎞
st = ⎜ ⎟
−1 −1
= ⎜
P1 P2 ⎛ P 0 − P3 ⎞ ⎛ Δ P2 lin ⎞
+1 A2 s2 = ⎜
⎜ P −P
+1⎟
⎟
= ⎜
⎜ ΔP
+1⎟
⎟
⎜ P ( t )− P ( t ) ⎟ ⎜ ΔP (t ) ⎟⎠
⎝ 3 4 ⎠ ⎝ 2 ⎠
⎝ 1 2 ⎠ ⎝ VA P3 P4 ⎛ P 0 − P5 ⎞
−1
⎛ Δ P3 lin ⎞
−1
s3 = ⎜ +1⎟ = ⎜ +1⎟
Δ PVA ( t )
A3 ⎜ P −P ⎟ ⎜ ΔP ⎟
⎝ 5 6 ⎠ ⎝ 3 ⎠
st = P5 P6 ⎛ P 0 − P7
s4 = ⎜
⎞
+1⎟
−1
⎛ Δ P4 lin
= ⎜
⎞
+1⎟
−1
Δ PVA max A4 ⎜ P −P
⎝ 7 8
⎟
⎠
⎜ ΔP
⎝ 4
⎟
⎠
P7 P8
Fig.5.38.c
régulateur robuste pour déviation
minimale stabilisée de la trajectoire optimale
ALGORITHME
∇l
DE MODELE
P0 STABILISATION NOMINAL
Δ P , P1 DU PROCEDE
0
y ε
REGU
FILTRE
kp LA DYNAMIQUE
* TEUR
∇a PV
OP
ACTIONNEUR ε*
P1 P2 y ROB 2
MATIERE PREMIERE (ENERGIE)
l = μ μ max PROCESSUS
TECHNOLOGIQUE
procédé généralise q
Fig.5.38.a
Le modèle du procédé non linéaire comportant dans sa structure une VALOG , est mo-
délisé selon les relations connues [99,100] pour une charge hydraulique combinée s en
conditions normales d’exploitation sans émission de bruit. La solution de ce problème utilise le
principe de la méthode d’analyse comparative selon des indices généralisés de performance.
Tableau 5.4
s 1.00 0.6
μ ,% 25 % 95 %
l 0.25 0.95
k ob ( l , s ) 1.239 1.960
T ob 10, s 10, s
τ ob (l , s ) 2, s 4, s
critère
processus transitoires apériodiques processus transitoires apériodiques
de la
critiques du système critiques du système
synthèse
G* ( p )
G * ( p ) = 1 , 239 e ( 10 p + 1 ) −1
−2 p
(5.53)
G (p) G
( p ) = 1.96 e −4 p ( 10 p + 1 ) −1
(5.54)
R* ( p ) (5 p + 1) (2 p + 1)
R * ( p ) = 0 ,13
(5.55) ( 5 p ) ( 0 ,4 p + 1 )
R (p) ( 12 , 8 p + 1 ) ( 5 p + 1 )
R ( p ) = 0 , 35
(5.56) ( 12 , 8 p ) ( p + 1 )
(p) R ( p ) − R* ( p )
DF
DF ( p )= −
(5.57) 1 + R* ( p ) G* ( p )
∇l tROB
2
ROB 2
(
0.5 e 2 n ( 1−l ) − 1 )
, va log
∇l = ∇st
n s e 2 n ( 1−l )
t , va log
(5.27)
∇a t
ROB
= c0 (d ( y t ) d (l t ) ) −1
∗
∇a t
ROB
(5.30)
systèmes en boucle fermée (avec modèle du procédé perturbé à la limite supérieure G ) et les
caractéristiques fréquentielles W ROB ( j ω ) des systèmes en boucle ouverte ROB 2 (5.27),
2
η −1
ROB 2 ROB 2
lm ( ω ) < η (ω ) −1
, ∀ω η (ω ) lm ( ω ) ∞
< 1 , ∀ω
lm ( ω ) η ( ω ) lm ( ω ) + e( ω ) v( ω ) < 1 , ∀ω
Fig.5.39.a Fig.5.39.b
y ROB 2 ( G ) ( t ) W ROB 2 ( G ) ( j ω )
Fig.5.40.a Fig.5.40.b
W ROB 2 ( G ) ( j ω )
W ROB 2 ( G ) ( j ω )
(
arg W ROB 2 ( G ) ( j ω ))
Fig.5.40.c Fig.5.40.b
bleau 5.5).
Les Δ -estimations intégrales de 2nd niveau comparant ROB 2 et ROB 1 -
[Δ [ ] ] [Δ [ ] ] [Δ [ ] ]
2 2 2
) ROB
) ROB
) ROB
selon [ e ] 1 , selon [ e ] 2 , selon [ e ] 3 et
) 1
) ) 1
) ) 1
)
e ROB e ROB e ROB
1 2 3
[ Δ) [ ] ]
2
ROB
selon [ e ] 4 , sont significatives.
) 1
)
e ROB
4
Tableau 5.5
système estime par rap-
port du système
[ e) ] 1 [ e) ] 2 [ e) ] 3 [ e) ] 4
l i 1 25 % 25 % 80 % 50 fois
ROB
2
ROB 35 % 66 % 90 % 62 fois
[Δ [ ] ] [Δ [ ] ] [Δ [ ] ] [Δ [ ] ]
2 2 2
ROB 2
1 ) ROB
) ROB
) ) ROB
ROB )
e ROB 1
)
e ROB
1
)
e ROB 1
)
e ROB
1
1 2 3 4
estimation comparative
de la supériorité du 40.0 % 164.0 % 12.5 % 24.0 %
ROB 2 par rapport du
ROB 1
y [ ê ] Δ1 1
système ε f3 [ ê ] Δ2
nominal 1
f5
[ ê ] Δ3
système f1 1
classique f2 f4 [ ê ] Δ4 1
f6
système f1
estime 1 [ ê ] 1Δ
f2 f3 2
f5
[ ê ] Δ2 2 f7
système f1
[Δ) ]
2
)
e2
estime 2 f2 f4
[ ê ] 3
Δ
2
f6
[ ê ] Δ4 2
f8
système
estime n
[Δ) ]
2
)
e4
système paramétriquement
système nonperturbe
perturbe avec émission de
paramétriquement
bruit, avec même type de:
ξ =0 ξ =la ,s
I- er niveau II- ème niveau
même type de: G *, y , ν
0 Δ- estimations Δ- estimations
Fig.5.41
Fig.5.42
ynominal
yo
Band-Limited
White Noise NOM
εnominal
yclassique
perturbation généralisée
algorithme d'estimation
estimation intégrale
s CLASS
εclassique
de la déviation diminuée
Band-Limited
White Noise
estimation intégrale
yROB1 de la précision
ξ dynamique
Band-Limited ROB 1 augmentée
White Noise
εROb1
ROB 2
yROB2 εROB2
y( t ) y( t )
Fig.5.43.a Fig.5.43.a
[ e) ] 1 [ e) ] 3
[ e) ] 3ROB
2
[ e) ] 1ROB [ e) ] 1ROB
2 1
[ e) ] 3ROB
1
Fig.5.43.b Fig.5.43.b
[ e) ] 2 [ e) ] 4
[ e) ] 2ROB
2
[ e) ] 4ROB
1
[ e) ] 4ROB
2
[ e) ] 2ROB
1
Fig.5.43.c Fig.5.43.c
5.10. Conclusion.
Dans ce chapitre sont considérées les solutions des problèmes de synthèse et d’analyse
comparative des systèmes à compensation paramétrique avec stabilisation en série, additive et
combinée et des systèmes robustes avec déviation minimale de la trajectoire nominale stabili-
sée. On a recours à:
- l’introduction des variables de compensation en série et additive pour l’action paramé-
trique correspondante;
- des algorithmes pour la conception de systèmes à compensation paramétrique en
conditions d’incertitude;
- la description analytique et la représentation du mécanisme de compensation paramé-
trique;
- l’analyse des domaines d’application des méthodes et de la convergence des algorith-
mes pour la conception;
- la confirmation et l’estimation de l’efficacité des solutions par simulation de problèmes
d’application et d’exemples industriels.
Les solutions des problèmes sont analysées et comparées à travers la simulation paral-
lèle des modèles et des actions généralisées en milieu industriel. Un schéma d’estimation de
performance selon des indices généralisés est introduit et utilisé. Les simulations [99,100]
confirment la supériorité de PCS par rapport à CLASS , qui est exprimée par les indices de per-
formance améliorés. Elles fournissent également les estimations quantitatives de la précision
dynamique et de la stabilité robuste améliorées.
Des réalisations originales de la contre-réaction aux perturbations en conditions d’incer-
titude sont donnés en [99,100]:
dans la classe Gain Scheduled Control Systems - systèmes avec variation planifiée des para-
mètres de l’organe de régulation. Ces méthodes différent de celles des inégalités aux dérivées
partielles et aux contre-réactions élargies linéarisantes, connues dans la littérature [10,13,52,68,
83,85,103,107,109 ÷ 112,114,115], par l’utilisation des modèles des caractéristiques d’exploita-
tion des VA . Les résultats sont destinés à la commande de procédés en conditions d’incerti-
tude avec vecteur de la perturbation mesurable qui génère une modulation lente des paramè-
tres dans les caractéristiques et qui permettent la réalisation de la grandeur de commande par
une régulation uniforme dans la VA .
Chapitre 6
SYSTÈMES ABSORBANTS LES PERTURBATIONS
Les systèmes absorbants les perturbations DAS (Disturbance Absorbing System) sont
conçus pour la commande de procédés dans les conditions d’incertitude structurelle. La biblio-
graphie [21,22,66,70 ÷ 81,124,125] concernant la théorie et les applications de cette classe de
systèmes est restreinte. L’essentiel consiste en l’utilisation d’une compensation de signaux se-
lon le principe d’absorbation des perturbations à structure d’onde, proposé en 1975 par
Johnson C.D. [80].
Ce principe est réalisé à l’aide d’une composante additionnelle dans la commande, en
satisfaisant aux conditions imposées par l’équation de balance pour la compensation (absorp-
tion) intégrale ou partielle de toutes les composantes de la perturbation à structure d’onde sur
l’état et/ou la grandeur réglable (sans considération si l’action perturbatrice est paramétrique
ou de signal).
En comparaison avec le principe de la composante de commande additionnelle (utilisé
dans les systèmes avec retour conditionnel et dans les systèmes robustes, synthétisés sous
critère déviation minimale de la trajectoire prédéfinie), le principe d’absorption consiste en la
comparaison des réactions du procédé commandé et de son modèle "nominal". Ce principe
n’exige pas que la structure des systèmes avec absorption comprenne un modèle du procédé à
commander.
Il existe une différence considérable entre la “technologie” du principe d’absorption et
du principe de bi-chaîne (utilisé lors de la conception des systèmes invariantes et autonomes
en présence de disturbances). Le premier de ces deux principes est pour la compensation des
perturbations et des disturbances non-mesurables, tandis que le deuxième suppose que les
disturbances dans le système sont de points d’application connus.
Le trait caractéristique des DAS est l’utilisation dans le dispositif de commande d’un
modèle d’état des perturbations à structure d’onde, élaboré lors de la conception du système. Il
existe différentes approches de synthèse de régulateurs pour la contre-réaction (compensation)
optimale des perturbations à structure d’onde.
• L’exigence pour l’exclusion complète de toutes les actions perturbatrices est accom-
plie lors de la synthèse des régulateurs absorbants les perturbations.
• Dans les cas où il est impossible d’accomplir cette exclusion complète, il faut cher-
cher des solutions pour la compensation optimale par la synthèse des régulateurs minimi-
sants les perturbations (minimisants leurs manifestations).
• Si la perturbation est d’un tel type qu’elle possède une influence positive sur le com-
portement du système (si elle “aide” le régulateur d’amener le système dans un état désiré), la
solution est d’utiliser des régulateurs s’adaptant aux perturbations.
⎧ξ ( t )= z 1
⎪
⎪ z& 1 = z 2 + σ 1 ( t )
⎪ z& = z + σ ( t )
⎪
(6.5.a) ⎨ 2 3 2
,
⎪ .
⎪ .
⎪
⎩⎪ z& ρ −1 = z ρ −1 + σ ρ −1 (t )
(6.5.b) z& ρ = − q 1 z 1 − q 2 z 2 − . . . . . − q ρ z ρ + σ ρ ( t ) ,
où l’action de ν ( t ) est représentée de manière symbolique par (6.4) équivalent à (6.5) à l’aide
de σ i ( t ) , ( i = 1,2, , , , ρ ) . Les éléments σ i ( t ) de (6.5) en effet sont une suite de δ -fonctions
de Dirac complètement inconnues, générées de façon arbitraire, avec intensité arbitraire. Des
exemples typiques sont donnés (6.6) ÷ (6.9) (Tableau 1.1)
⎧ d 2ξ ( t ) ⎛ z1 ⎞
⎪⎪ = ν ( t ) ⇔ ξ ( t ) = ( 1 , 0 ) ⎜
⎜z ⎟
⎟
(6.6) ⎨ d t 2 ⎝ 2 ⎠ ,
⎪
⎪⎩ z& 1 = z 2 + σ 1 ( t ) , z& 2 = 0 + σ 2 ( t )
⎧ d 2ξ ( t ) dξ ( t ) ⎛ z1 ⎞
⎪ + α = ν ( t ) ⇔ ξ ( t ) = ( 1 , 0 ) ⎜⎜ ⎟⎟
(6.7) ⎨ d t 2 dt ⎝ z2 ⎠ ,
⎪
⎩ z& 1 = z 2 + σ 1 ( t ) , z& 2 = − α z 2 + σ 2 ( t )
⎧ ⎛ z1 ⎞
⎪ ⎜ ⎟
⎪ d 5ξ ( t ) ⎜ z2 ⎟
d ξ(t ) dξ (t )
3
⎪
⎪ dt5
+ α( 2
+ β 2
) 3
+ α 2
β 2
=ν ( t ) ⇔ ξ ( t = ( 1 ,0 ,0 ,0 ,0 ⎜
) ( ) ⎜
z3 ⎟
⎟
dt dt
⎪ ⎜ z4 ⎟
(6.8) ⎨ ,
⎪
⎜
⎝ z 5 ⎟⎠
⎪ z& 1 = z 2 + σ 1 ( t ) , z& 2 = z 3 + σ 2 ( t )
⎪
⎪ z& 3 = z 4 + σ 3 ( t ) , z& 4 = z 5 + σ 4 ( t )
⎪&
⎩ z 5 = −α β z 2 − α + β
2 2
( 2 2
)
z 4 +σ 5 ( t )
⎧ ⎛ z1 ⎞
⎪ d 4ξ ( t ) ⎜ ⎟
d ξ (t ) d ξ (t ) dξ (t )
3 2
⎪ ⎜z ⎟
⎪ dt 4
+k1 3
+k2 2
+k3 +k4ξ ( t ) =ν ( t ) ⇔ ξ ( t ) = (1 ,0 ,0 ,0 ) ⎜ 2 ⎟
dt dt dt z
(6.9) ⎪ ⎜ 3 ⎟.
⎜z ⎟
⎨ ⎝ 4 ⎠
⎪ z& = z + σ ( t ) , z& = z + σ ( t ) ,
⎪ 1 2 1 2 3 2
⎪ z& 3 = z 4 + σ 3 ( t ) ,
⎪
⎩ z& 4 = − k 4 z 1 − k 3 z 2 − k 2 z 3 − k 1 z 4 + σ 4 ( t )
La matrice D ( t ) (6.3) est l’élément primordial dans les considérations et reflète la di-
versité des mouvements ondulatoires. La matrice H ( t ) (6.3) définit la combinaison linéaire
des fonctions de base { f i ( t ) } du modèle à structure d’onde, pour composer le système des
perturbations réelles ξ 1 ( t ) , ξ 2 ( t ) , ξ 3 ( t ) , . . . . , ξ ρ ( t ) . Le modèle d’état de la perturbation
ξ ( t ) (6.3) ÷ (6.4) peut être décrit de façon efficace et applicable par n’importe quel modèle à
structure d’onde de ξ ( t ) .
pourquoi les systèmes absorbants les perturbations supposent la présence de deux composan-
tes dans le vecteur de commande u ( t ) (6.10)
(6.10) u ( t ) = u d ( t ) + u p ( t ) ,
où u d ( t) réalise la tâche d’absorption (de compensation) de la perturbation ξ ( t ) et u p ( t )
est la composante pour la commande de x ( t ) et/ou de la grandeur réglable y ( t ) , conformé-
ment au but et aux critères de performance imposés au système considéré.
Pour ce cas de présence de deux composantes dans le vecteur de commande u ( t )
(6.10), la description correcte du système (6.1) est (6.11)
(6.11.a) x& = A x + B u d + B u p + F ξ ( t ) ,
(6.11.b) y = C x + E u d + E u p + G ξ ( t ) .
De (6.11) s’ensuit que l’absorption complète (la compensation) de ξ ( t ) peut être effec-
tuée si et seulement si les conditions imposées par l’équation de balance (6.12) sont accom-
plies pour tous les vecteurs possibles de la perturbation à structure d’onde ξ ( t )
(6.12.a) B u d ( t ) = − F ξ ( t ) ,
(6.12.b) E u d ( t ) = − G ξ ( t ) .
L’intervalle de valeurs possibles pour ξ ( t ) est donné par (6.3), où z et x ( t ) sont des
vecteurs arbitraires de dimensions ρ et n respectivement. En utilisant le modèle d’état (6.3),
les conditions pour la conception du système absorbant complètement les perturbations, sont
définies par (6.13) ou en forme matricielle (6.13.b), où la matrice [ z x ] est arbitraire.
⎧⎪ B u d ( t ) = − F H z − F L x
(6.13.a) ⎨ ,
⎪⎩ E u d ( t ) = − G H z − G L x
T
⎡B⎤ ⎡F H F L⎤ ⎡z⎤
(6.13.b) ⎢ ⎥ u d ( t ) = − ⎢ .
⎣E⎦ ⎣G H G L ⎥⎦ ⎢⎣ x ⎥⎦
⎡Γ 1 ⎤ ⎡ z ⎤ ⎡Γ1 ⎤
T T
⎡z⎤
(6.16) u d = −Γ ⎢ ⎥ = ⎢ ⎥ ⎢ ⎥ = −Γ1 z−Γ2 x , Γ = ⎢ ⎥ ,
⎣x⎦ ⎣Γ 2 ⎦ ⎣ x ⎦ ⎣Γ 2 ⎦
⎡B⎤
+
⎡F ⎤ ⎡H ⎤ ⎛ +
⎞
(6.17) Γ = ⎢ ⎥ + ⎜ I − ⎡B⎤ ⎡B⎤ ⎟ Q ,
⎢G ⎥ ⎢ L ⎥ ⎜ ⎢E⎥ ⎢E⎥ ⎟ Γ
⎣E⎦ ⎣ ⎦ ⎣ ⎦ ⎝ ⎣ ⎦ ⎣ ⎦ ⎠
qui exprime l’essentiel de la synthèse de DAS , où pour matrice Γ peut être choisie n’importe
quelle des matrices de la famille (6.17).
Dans (6.17) la matrice Q Γ еst absolument arbitraire, avec des paramètres réels. Le sym-
bole [ . ] + utilisé désigne la matrice inverse [ . ] selon Moore-Penrose. D’habitude la matrice Γ
est choisie de manière que sa norme euclidienne Γ soit minimale dans un certain sens. Le
∗
choix éventuel de Q Γ en tant que Q Γ = 0 mène à une solution particulière Γ =Γ de (6.17),
∗
où chaque colonne de la matrice Γ possède la norme minimale. Si le rang de la matrice
[ B E ] T est désigné par r (6.18)
⎡B⎤
(6.18) r a n k ⎢ ⎥ ≡ r ,
⎣E⎦
−1
⎡B⎤
+
⎡ ⎡B⎤
T
⎡ B⎤⎤ ⎡B⎤
T
(6.19) ⎢ ⎥ = ⎢ ⎢E⎥ ⋅ ⎢ ⎥⎥ ⋅ ⎢ ⎥ ,
⎣E⎦ ⎢⎣ ⎣ ⎦ ⎣ E ⎦ ⎥⎦ ⎣E⎦
(6.21.a) x& = A ( t ) x + B ( t ) u ( t ) ,
(6.21.b) y = C ( t ) x + E ( t ) u ( t ) ,
est estimé en temps réel à l’aide d’un dispositif (algorithme) qui utilise la variable de y ( t ) et la
variable de commande à l’entrée u ( t ) . Ce dispositif (algorithme) pour le traitement de don-
nées est appelé observateur ou constructeur d’état. Dans la théorie des systèmes absorbants
les perturbations, par différences des systèmes linéaires, le terme utilisé est “constructeur” au
lieu d’“observateur”.
Si les perturbations indéterminées ξ ( t ) dans l’équation (6.1) possèdent une structure
d’onde, dans le sens des équations semi-déterminées et si ces modèles peuvent être décrits à
l’aide de modèles d’état linéaires du type (6.5) ÷ (6.9), il est possible de former un constructeur
d’état, qui, dans certaines conditions techniques, fournit en temps réel des estimations préci-
)
ses z ( t ) de l’état courant de la perturbation z ( t ) . Un tel constructeur d’état n’utilise que les
données mesurées pour les variables de sortie y ( t ) et d’entrée u ( t ) . Il peut être modifié,
)
pour réaliser de même, en échelle réelle du temps, une estimation x ( t ) de l’état x ( t ) . Cette
forme du constructeur est appelée constructeur combiné d’état et elle est utilisée pour la réali-
sation physique des régulateurs absorbants les perturbations (6.22)
(6.22-1) u ( t ) = ϕ [ x ( t ) , z ( t ) , t ] ,
) )
(6.22-2) u ( t ) = ϕ [ x ( t ) , z ( t ) , t ] ,
) )
où x ( t ) et z ( t ) sont les estimations courantes pour x ( t ) et z ( t ) , obtenues à l’aide du
constructeur combiné d’état qui fonctionne à la base des données pour y ( t ) (6.1), la com-
mande u ( t ) et des composantes mesurables du vecteur des perturbations ξ ( t ) (si elles exis-
) )
tent). Si les erreurs dans les estimations ε x = x ( t ) − x ( t ) et ε z = z ( t ) − z ( t ) tendent plus
vite vers zéro que les processus dans le système en boucle fermée convergent vers la consi-
gne, alors le régulateur physiquement réalisé (6.22) est une meilleure approximation de la loi de
régulation généralisée par (6.22).
u )
B x
E L
F k 12 ∫ C
y
k 11 A M
G
k 21 D
ξ J
k 22 ∫ H
)
z
Fig.6.1
⎡ε x ⎤
À partir des équations (6.1) et (6.2) il s’ensuit directement que la matrice colonne ⎢ ⎥
⎣ε z ⎦
est décrite par un système de ( n + ρ ) équations différentielles de premier ordre du type (6.27)
⎡ ⎡ K 11 ⎤ ~ ⎛ ⎡ K 11 ⎤ ~ ⎞ ⎤
⎢ A + F L + K 11 C + ⎢ ⎥ GL ⎜F+
⎜ ⎢ ⎥ G ⎟⎟ H ⎥
⎡ ε& x ⎤ ⎢ ⎣ K 12 ⎦ ⎝ ⎣ K 12 ⎦ ⎠ ⎥ ⎡ε x ⎤ ⎡ 0 ⎤
(6.27) ⎢ ⎥ = ⎢ ⎥ ⎢ ⎥ + ⎢σ ( )⎥ .
⎣ ε& z ⎦ ⎢ ⎡ K 21 ⎤ ~ ⎡ K 21 ⎤ ~ ⎥ ε
⎣ z⎦ ⎣ t ⎦
M + K 21 C + ⎢ ⎥ GL D+⎢ ⎥ GH
⎢ ⎥
⎣ ⎣ K 22 ⎦ ⎣ K 22 ⎦ ⎦
)
De cette manière, pour assurer la convergence vite de x ( t ) → x ( t ) et de
)
z ( t ) → z ( t ) il еst nécessaire de choisir quatre matrices K 11 , K 12 , K 21 , K 22 , telles que toutes
les solutions de l’équation soient asymptotiquement stables par rapport au point ε x = ε z = 0 .
La supposition (6.28) signifie que y i et ξ mi ont une dépendance fonctionnelle par rap-
port à t .
La description du constructeur combiné d’état de la perturbation (6.29) ÷ (6.30) d’ordre
) )
diminué, est basée sur les relations suivantes. Les estimations x ( t ) et z ( t ) sont déterminées
)
conformément aux dépendances algébriques (6.29) et (6.30), où ξ est le vecteur de dimension
( n + ρ − m − s ) , décrit par l’équation différentielle (en échelle réelle du temps) (6.31)
)
(6.29) x = (T 11 , 1 − T 12 Σ 1 ) ( y − E u ) + (T − T 12 Σ 2 ) ξ m + T 12 ξ ,
)
11 , 2
)
(6.30) z = (T 21 , 1 − T 22 Σ 1 ) ( y − E u ) + (T − T 22 Σ 2 )ξ m + T 22 ξ ,
)
21 , 2
) ) ⎛ ⎡Σ1 ⎤⎞
(6.31) ξ& = ( D + Σ H ) ξ +Ψ 1 ( y − E u ) +Ψ 2 ξ m + Ω u , ⎜ Σ = ⎢ ⎥ ⎟⎟ .
⎜ Σ
⎝ ⎣ 2 ⎦⎠
Les matrices T i j , k , T si , Σ , D , H , Ψ i , Ω dans les équations (6.29) et (6.30) sont com-
posées conformément à certaines exigences de système. Les erreurs dans les estimations
( x − x) ) et ( z − z) ) et dans le constructeur combiné d’état d’ordre diminué (6.29) et (6.30) sont
déterminées conformément aux dépendances (6.32) et (6.33), où ε ( t ) est représenté par
l’équation (6.34)
)
(6.32) ( x − x ) = T 12 ε ( t ) ,
)
(6.33) ( z − z ) = T 22 ε ( t ) ,
(6.34) ε& = ( D + Σ H ) ε + T 22 σ ( t ) .
La comparaison entre (6.28) ÷ (6.31) et (6.25) démontre que le constructeur combiné
d’état de la perturbation d’ordre diminué possède une structure plus compliquée.
⎪y
⎪
⎪
(t ; x 0 ,t0,ξ)= C (t )Φ ( t , t )x
0 0 + C(t
∫
) Φ ( t , τ ) B ( τ ) u~ p ( τ ) d τ +
t0
⎪
(6.36) ⎨ + E ( t ) u~ p ( t ) + E ( t ) u d ( t )+ G ( t ) ξ ( t )+ ,
⎪ t
⎪
) Φ (t , τ ) [ B ( τ ) u d ( τ ) + F ( τ ) ξ ( τ ) ] d τ
⎪
⎪
+C(t
∫
⎩ t0
) Φ (t , τ ) [ B ( τ ) u d ( τ ) + F ( τ ) ξ ( τ ) ] d τ ≡ 0 ,
(6.37) E ( t ) u d ( t ) + G ( t ) ξ ( t ) + C ( t
∫
t0
pour toutes les valeurs de t et pour tout ξ ( t ) . Cette condition est déterminée de manière ana-
lytique en tant que (6.38)
(6.38) u d ( τ ) = Λ 1 ( τ ) z ( τ ) + Λ 2 ( τ ) x ( τ ) ,
⎡ Λ1 (τ )⎤
(6.39) Λ ( τ ) = ⎢ ⎥ .
⎣ Λ 2 ( τ )⎦
La possibilité de remplacer (6.38) en (6.37) démontre que (6.37) peut être réalisé si et
seulement si la matrice Λ ( τ ) (6.39) est choisie telle que le couple d’égalités (6.40) soit satis-
fait pour tout t 0 ≤ τ ≤ t et pour tout t 0 ≤ t
Λ1 ( τ ) ⎤ H ( τ )⎤
(6.40.a) E ( τ ) ⎡⎢ ⎥+G(τ ) ⎡⎢ ⎥ ≡0 ,
⎣ Λ2 ( τ ) ⎦ ⎣ L(τ ) ⎦
⎧ ⎡ Λ1 ( τ ) ⎤ H ( τ )⎤ ⎫
(6.40.b) C ( t ) Φ ( t , τ ) ⎨ B ( τ )⎢ ⎥ + F (τ ) ⎡⎢ ⎥⎬ ≡ 0 .
⎩ ⎣ Λ2 ( τ ) ⎦ ⎣ L(τ ) ⎦ ⎭
Si la matrice Λ ( τ ) (6.39) satisfait à l’équation (6.40.a) ou bien à l’équation (6.40.b), les
conditions d’existence de Λ ( τ ) (6.39) sont, respectivement: (6.41) ou bien (6.42), pour tout
t 0 ≤ τ ≤ t et pour tout t 0 ≤ t , où Ψ ( t , τ ) est n’importe quelle matrice de rang maximal, dont
les colonnes forment la base de l’espace [ C ( t ) Φ ( t , τ ) ]
(6.41) r a n k [ E G H L] ≡ r ank
T
[E ] ,
⎧ ⎡ Λ1 (τ )⎤ H ( τ )⎤ ⎫
(6.42) r a n k Ψ ( t , τ ) ⎨ B (τ ) ⎢ ⎥ + F (τ ) ⎡⎢ ⎥ ⎬ ≡ r a n k [Ψ ( t ,τ )] .
⎩ ⎣ Λ2 ( τ ) ⎦ ⎣ L (τ ) ⎦ ⎭
) ) )
(6.43.a) ( z − z ) = ε z ⇔ z = z − ε z , − z = − z + ε z ,
) ) )
(6.43.b) ( x − x ) = ε x ⇔ x = x − ε x , − x = − x + ε x ,
c’est-à-dire, la commande va être u ( t ) = u p ( t ) − Γ 1 ẑ − Γ 2 x̂ . Dans ce cas, la description du
système perturbé (6.11) devient (6.44) et après – (6.45), tandis que la description du système
perturbé avec un constructeur est donnée par (6.46)
(6.44.a) x& = A ( t ) x + B ( t ) u p − B ( t ) Γ 1 ( t ) ẑ − B ( t ) Γ 2 ( t ) x̂ + F H z + F L x ,
(6.44.b) y = C ( t ) x + E ( t ) u p − E ( t ) Γ 1 ( t ) ẑ − E ( t ) Γ 2 ( t ) x̂ + G H z + G L x ,
x& = A ( t ) x + B ( t ) u p − B ( t )Γ 1 ( t ) z − B ( t ) Γ 2 ( t ) x+
(6.45.a) ,
+ B ( t )Γ 1 ( t ) ε z + B ( t ) Γ 2 ( t ) ε x + FH z + FL x
y =C(t ) x + E ( t ) u p − E ( t ) Γ 1 ( t ) ẑ − E ( t )Γ 2 ( t ) x̂ +
(6.45.b) ,
+ E ( t ) Γ 1 ( t ) ε z + E ( t )Γ 2 ( t ) ε x + G H z + G L x
(6.46.a) x& = A ( t ) x + B ( t ) u p + B ( t ) Γ 1 ( t ) ε z + B ( t ) Γ 2 ( t ) ε x ,
(6.46.b) y = C ( t ) x + E ( t ) u p + E ( t ) Γ 1 ( t ) ε z + E ( t )Γ 2 ( t ) ε x .
Le sens des équations (6.46) reflète l’essentiel des systèmes absorbants les perturba-
tions qui est formulé de la façon suivante.
La convergence des erreurs dans les estimations vers zéro ( ε z → 0 et ε x → 0 )
élimine complètement (6.46) l’influence de ξ ( t ) sur x ( t ) et y ( t ) .
Dans ce cas le système perturbé avec constructeur est décrit par (6.47)
(6.47.a) x& = A( t ) x + B ( t ) u p ,
{ε z → 0, ε x → 0 }
(6.47.b) y = C ( t )x + E ( t ) u ,
{ε z → 0, ε x → 0 } p
⎡ H ( t )⎤ ⎡ z ⎤
(6.52) ℑ = B ( t ) u d + F ( t ) ⎢ ⎥ ⎢ ⎥ ,
⎣ L( t ) ⎦ ⎣ x ⎦
d’où u d doit être déterminé en tant que (6.53), où Q m est une matrice arbitraire des paramètres
⎡ z ⎤
(6.53.a) u o
d = −B F+⎢
⎢
H ⎥ ⎡ z⎤ +
(
x ⎥ ⎢ ⎥ + I − B B Qm , )
⎣ x⎦
⎢⎣ L ( t ) ⎥⎦
⎡ H ( t )⎤ ⎡ z ⎤
(6.53.b) u do = − B + F ⎢ ⎥ ⎢ ⎥ , (Q m = 0 ) .
⎣ L( t ) ⎦ ⎣x⎦
Si la perturbation est principale selon x ( t ) et selon y ( t ) , alors la condition pour
l’absorption complète peut être approximée par un critère du type (6.54)
⎡ B( t )⎤
ud
⎡F H F L⎤ ⎡z⎤
(6.54) ℑ = ⎢ ⎥ + ⎢ ,
⎣ E ( t )⎦ ⎣G H G L ⎥⎦ ⎢⎣ x ⎥⎦
⎡H ⎤
+
⎡B⎤ ⎡F⎤ ⎣
⎢ L ⎥⎦ ⎡z ⎤ ⎛ +
⎡B⎤ ⎡F⎤ ⎞
(6.55) u =− ⎢ ⎥ ⎢ ⎥ ⎜ ⎟ Q ,
⎢x ⎥ + ⎜ I − ⎢ E ⎥ ⎢G ⎥
o
d
⎣ E ⎦ ⎣G ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎟ m
⎝ ⎠
qui est réalisé par la composante minimisant les perturbations u d du type (6.55).
Pour le cas de minimisation de l’influence de la perturbation ξ ( t ) seulement sur la va-
riable d’entrée mesurable y ( t ) , on peut chercher une solution pour u d , minimisant une des
normes euclidiennes des matrices, données par (6.56)
(6.56.a) ℑ = E u d + G ξ ,
(6.57) F = [f 1
f
2
f
3
... f
p
] ,
(6.58) x& = A x + B u p + B u d + ξ 1 ( t ) f 1
+ξ 2 ( t ) f 2
+ ... + ξ p (t ) f p ,
Si en pratique ce n’est pas valable, on peut assembler les composantes dépendantes ξ i (t )
en groupes pour obtenir des perturbations indépendantes.
De l’analyse de (6.58), il s’ensuit que la composante u d pourrait éliminer (absorber)
complètement l’influence de chacun des éléments de la perturbation [par exemple de ξ i ( t )
sur x ( t ) ] si et seulement s’il existe un tel vecteur γ i ( t ) , qui satisfait à la condition (6.59). La
condition pour l’existence du vecteur γ i ( t ) (6.59) est donnée par (6.60). Dans ce cas la com-
posante u d de la commande (6.10) est choisie en tant que (6.11), où h i ( t ) et l i ( t ) sont,
respectivement, les i − emes lignes des matrices H ( t ) et L ( t ) en (6.3)
(6.59) f i
( t )= B( t ) γ i ( t ) ,
(6.60) r a n k B [ f
i
] T
= r ank [ B ],
(6.61) u d = − γ i
(t ) ξi (t )=− γ i (t ) h i (t ) z −γ i (t ) l i (t )x .
L’impossibilité de satisfaire à (6.59) suivant toutes les colonnes f i de la matrice F si-
gnifie que l’absorption complète de l’influence de ξ ( t ) n’est pas réalisable. Si ξ i ( t ) en
(6.58) est une composante de la perturbation ξ ( t ) dépendante, pour le cas où l’absorption
complète n’est pas réalisable, la condition généralisée (6.14) n’est pas satisfaite. Dans ce cas
on suppose que la base fonctionnelle f
i
f {
i i
f ... 1
f
i
représente l’ensemble
2 3 q
}
de colonnes dans l’équation (6.57), satisfaisante aux conditions de la relation (6.59) et il est
possible que la composante u d en (6.58) soit formée suivant (6.62):
(6.62) u d = − γ[ i1
h
i1
+ ... + γ
iq
h
iq
] z − [γ i1
l
i1
+ ... + γ
iq
l
iq
]x+u d .
(6.64) F = f [ i q +1
f
i q+2
f
i q +3
... f
i p
],
⎡ h i q +1 ⎤ ⎡ l i q +1 ⎤
⎢ i q+2 ⎥ ⎢ i q+2 ⎥
⎢h ⎥ ⎢l ⎥
(6.65) H = ⎢ . ⎥ L= ⎢ . ⎥ ,
⎢ ⎥ ⎢ ⎥
⎢ . ⎥ ⎢ . ⎥
⎢ hip ⎥ ⎢ lip ⎥
⎣ ⎦ ⎣ ⎦
⎡ H ( t )⎤ ⎡ z ⎤
(6.66) u do = − B + F ⎢ ⎥ ⎢ ⎥ + (I − B + B )Q m .
⎣ L( t ) ⎦ ⎣x⎦
Les solutions u do , minimisant le critère de performance (6.63), sont déterminées à partir
des relations du type (6.66). En particulier, le vecteur de la norme minimale u do , qui minimise
(6.63), est déterminé par (6.67)
⎡ H ( t )⎤ ⎡ z ⎤
(6.67) u do = − B + ( t ) F ( t )⎢ ⎥ ⎢ ⎥ .
⎣ L ( t ) ⎦ ⎣x⎦
Dans le cas de la dernière condition (6.69) le vecteur f est colinéaire avec le vecteur b ,
ce qui garantit:
• l’existence d’une constante scalaire nonnulle α , pour laquelle f = b α ;
• l’existence d’une correspondance avec l’équation (6.16), qui peut être exprimée en
tant que (6.70) ;
• la détermination de la composante u d dans la commande (6.10) (u = u p + u d ) , ab-
sorbant la perturbation ξ et correspondant à la commande, exprimée par (6.20), en tant que
(6.71)
) ) )
(6.71) u d = − Γ 1 z − Γ 2 x ⇔ u d = − α ( h , z ) ; γ 1 = α h ; b γ 1 = f h .
La forme de la composante u p dépend de la tâche principale que la commande u doit
accomplir. Soit elle donnée par une relation concrète, décrivant le problème de stabilisation de
l’état x = 0 , qui dans le cas est (6.72), où (6.72.b) est l’équation de la dynamique désirée du sys-
tème après l’absorption de la perturbation ξ , qui coïncide avec l’équation du système “nonper-
turbé”
)
(6.72.a) u p = k , x ,
(6.72.b) x& = ( A + b k ) x .
La prise en considération de (6.71) et de (6.72) permet de réduire le constructeur d’état
combiné (6.25) à la forme (6.73), ce qui permet de représenter la commande u par (6.74)
) )
x& ⎞ ⎡ A + b k + k 11 c
y
⎛ 0⎤ ⎛ x ⎞ ⎛ k 11 ⎞
(6.73) ⎜⎜ )⎟=⎢ ⎥ ⎜⎜ ) ⎟⎟ − ⎜⎜ ⎟ ,
⎝ z& ⎟⎠ ⎣ k 21 c D⎦ ⎝ z ⎠ ⎝ k 21
⎟
⎠
)
⎛ k ⎞ ⎛x⎞
(6.74) u = ⎜⎜ ⎟⎟ ⎜⎜ ) ⎟⎟ .
⎝−αh⎠ ⎝z⎠
Les transformations de Laplace des relations (6.73) et (6.74) qui sont, respectivement,
(6.75) et (6.76), déterminent la fonction de transfert du régulateur G DAS
R ( p ) , absorbant ξ , en
tant que (6.77)
) ( )
⎛ x ( p )⎞ ⎛ ⎡ A + b k + k 11 c ⎞
y p
⎛ k 11 ⎞ 0⎤
⎟⎟ = − [ I p − ℜ ] ⎜ , ⎜ℜ= ⎢
⎟ ⎟ ,
−1
(6.75) ⎜⎜ ) ⎥
⎝ z( p ) ⎠
⎜ k 21 ⎟ ⎜ k 21 c D⎦ ⎟
⎝ ⎠ ⎝ ⎣ ⎠
)
⎛ k ⎞ ⎛ x( p ) ⎞
(6.76) u ( p ) = ⎜⎜ ⎟⎟ ⎜⎜ ) ⎟⎟ ,
⎝−α h ⎠ ⎝ z( p )⎠
⎧ ⎛ k ⎞ k 11
⎪ − ⎜⎜ ⎟⎟ a d j [ I p − ℜ ]
⎪ u( p ) ⎝α h ⎠ (p)
(6.77) ⎪⎨ G DAS
k 21 Pc
( p ) = = = .
⎪
R
[ ]
y ( p ) d e t I p − ( A + b k + k 11 c ) d e t [ I p − D ] Q C 1 ( p ) Q CDAS
2 ( p )
⎪
[ ]
⎪⎩ Q C 1 ( p ) = d e t I p − ( A + b k + k 11 c ) , Q C 2 ( p ) = d e t [ I p − D ]
DAS
En prenant en considération (6.78), qui est la suite logique de (6.77), la fonction de trans-
fert du procédé G H ( p ) , décrit par (6.68.a) et (6.68.b) prend la forme (6.79)
⎧⎪ y ( p ) = c , [ I p − A ] −1 b u ( p ) + c , [ I p − A ] −1 f ξ (p) , (f = bα )
(6.78) ⎨ ,
⎪⎩ y ( p ) = G H ( p ) ( u ( p ) + α ξ ( p ) )
c , ad j [ I p − A ]b PH (p)
(6.79) G H ( p )= = .
d et [ I p − A ] QH ( p )
ξ ( p )
α
y
o
( p ) y( p )
PC (p) PH (p)
GR ( p )= GH ( p )=
Q C1 ( p ) Q C2 ( p ) QH (p)
- u( p )
Fig.6.2
Le schéma structurel, correspondant aux relations (6.68) ÷ (6.73) dans le contexte des
fonctions de transfert du régulateur G DAS R ( p ) et du procédé G H ( p ) dans le système
(6.77) ÷ (6.79), est donné à la Fig.6.2. En comparant cette structure à celle d’un système linéaire,
on remarque que:
● Le terme Q CDAS2 ( p ) dans le dénominateur de la fonction de transfert du régulateur
( p ) Q C 1 ( p ) Q CDAS
α PH 2 ( p ) h , ad j [ I p − D ] σ ( p )
(6.81) y ( p ) = ,
Q H Q C 1 ( p ) Q C2 ( p ) + P H ( p ) PC ( p ) (p)
DAS DAS
Q C2
où
h , ad j [ I p − D ] σ (p)
(6.82) ξ ( p )= ,
Q CDAS
2 (p)
(6.83) ξ ( t ) = t k , ξ ( t ) = e α t , ( k > 0 , α > 0 ) .
Le polynôme Q CDAS 2 ( p ) est instable si la perturbation ξ ( t ) en (6.68) comprend dans
la base fonctionnelle des fonctions de puissance ou exponentielles du type (6.83). Dans ces cas
[décrits par (6.83)], la relation Q CDAS
2 ( p ) Q CDAS2 ( p ) (6.81) mène à une élimination de pô-
les et de zéros dans le polynôme droit. Cette élimination est inacceptable par la synthèse de ré-
gulateurs faisant partie du contour interne de la commande [par exemple entre G H ( p ) et
G RDAS( p ) ], elle est tolérée si elle concerne le système avec ces actions externes [par exemple
entre G ξ y ( p ) et ξ ( p ) ].
C’est à la base de ce mécanisme que la classe de régulateurs considérée réalise l’ab-
sorption de l’influence des perturbations.
De cette manière, après l’élimination des polynômes Q CDAS
2 ( p ) dans le numérateur et
dans le dénominateur (6.81), la réaction du système en boucle fermée, déterminée par le poly-
nôme caractéristique du système “nonperturbé”, est décrite par l’équation (6.84)
α PH ( p ) Q C1 ( p ) h , a d j [ I p − D ] σ ( p )
(6.84) y ( p ) = .
Q H Q C 1 ( p )Q CDAS
2 ( p ) + P H ( p ) PC ( p )
Ce polynôme peut être décomposé en éléments, si la commande u en (6.68.a) est ex-
primée par (6.85)
(6.85) u = k x − α h z = k ( x − ε x ) − α h ( z − ε z ) ,
) )
⎡c⎤
⎢ ⎥
~ ⎡A f h ⎤ ⎡ k 11 ⎤ ⎣0⎦ ⎡ A + k 21 c f h⎤
(6.89) D = ⎢ + ⎢ ⎥ = ⎢ ⎥ .
⎣0 D ⎥⎦ ⎣ k 21 ⎦ ⎣ k 21 c D ⎦
Soient donnés:
les modèles nominal G * ( p ) (5.53) et perturbé à la limite supérieure G ( p )
(5.54) à un procédé linéaire à minimum de phase G ( p ) (Tableau 5.4, Tableau 6.1),
fonctionnant en conditions d’incertitude a priori avec des fluctuations paramétri-
[ ]
ques de G ( p ) autour de G * ( p ) dans l’ensemble Π ∈ G * , G , le critère local
de performance et les intervalles (6.90) de variations des grandeurs d’action princi-
paux y o , ν , l a en conditions d’exploitation
(6.90) { 10% ≤ ν ( t ) ≤ 90% d' echelle ; 10% ≤ y o ( t ) ≤ 90% d' echelle ; ξ = l a = G − G ∗ } .
Il faut:
I. Synthétiser un système partiellement absorbant les perturbations DAS (Disturbance
Absorbing System) pour la commande (stabilisation) du procédé donné.
II. Étudier les indices de performance de DAS , en les comparant à ceux du système
classique correspondant pour G * ( p ) .
Les dépendances principales, décrivant les étapes des algorithmes, sont les suivantes:
ν (p) ξ (p)
G* ( p ) (5.53) G * ( p ) = 1 , 239 e − 2 p ( 10 p + 1 ) − 1
(5 p + 1) (2 p + 1) 0.00065
DAS
(p) (6.132) R DAS ( p ) = 0 ,13
( 5 p ) ( 0 ,4 p + 1 ) ( p 3 + 2 p 2 + p )
R
Fig.6.4.a
Les formes à structure d’onde sont évidentes dans le trend (Fig.6.4), elles sont générées
par l’action généralisée ϑ ( t ) (6.91) sur le système et sont typiques pour les systèmes de com-
mande (stabilisation) de procédés industriels. Après la résolution préliminaire du problème
inverse et des simulations d’un nombre important de trends réelles, typiques pour de différen-
tes procédés industriels continus (systématisées par le Tableau 6.2), on a recours à
la méthode [99] pour la détermination de la base approximante de fonctions
pour la formation du modèle à structure d’onde de la perturbation illustrée
dans le Tableau 6.2.
Fig.6.4.b
20 20
15 15
10 10
5 5
0 0
-5 -5
-10 -10
-15 -15
c1
-20 c2 -20
-25 c3 -25
-30 -30
0 100 200 0 100 200
ξ ( t ) = c1 + ξ ( t ) = c1 +
(
+ c 2 1 + ( α − 1 ) e −t + ) (
+ c 2 1 + ( α − 1 ) e −t +)
+ c3 ((1 −α ) t + α ) e −t
+ c 3 (( 1 −α ) t + α ) e −t (
ε = ε t , y o ,ν , l )
Fig.6.5.a Fig.6.5.b Fig.6.5.c
Tableau 6.2.
№ f ( t ) ⇒ modèle { f ( t )}
i Q ( D )ξ ( t ) = ν ( t )⇒ état DAS
QC 2 ( jω )
100
ξ( t) = c1 + c 2 t
80
60
d 2ξ
{1 , t }
40
=ν ( t )
20
(6.92) 0
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
2
-20
-40 ξ
dt
-60 ξ
-80 ξ
ξ
-100
ξ( t) = c1 + c 2 t + c 3 t 2
100
80
{1 , t , t }
60
d 3ξ
40
2
=ν ( t )
20
(6.93) 0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
dt3
-20
-40
-60
-80
-100
ξ( t) = c1 + c 2 t + c 3 t 2 + c 4 t 3
100
80
{1 , t , t }
60
d 4ξ
40
2
,t3 =ν ( t )
20
(6.94) 0
-20
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 8 1 2
4
-40
dt
-60
-80
-100
ξ( t ) = c 1 + c 2 e − α t
100
80
{1, e }
60
d ξ dξ
40
2
−α t
+α =ν ( t )
20
(6.95) 0
-20
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
2
-40
dt dt
-60
-80
-100
{ 1, e
ξ( t ) = c 1 + c 2 e − α t + c 3 e − β t + c 4 e − γ t
100
d ξ d ξ
4 3
−α t
80
+ (α + β + γ ) +
60
40
, dt
4
dt
3
}
(6.96)
20
−β t −γ t d ξ dξ
0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 2
+ (αβ +αγ + βγ ) =ν ( t )
-20
-40
e ,e 2
+α β γ
-60
dt dt
-80
-100
ξ( t ) = c 1 + c 2 t + c 3 t 2 + c 4 t 3 +
{ 1, t , t
100
80
+ c 5 e − α t + c 6 e −β t + c 7 e − γ t d 7ξ d 6ξ
2 3 + (α + β + γ )
60
+
40
,t , dt7 dt6
}
20
(6.97) 0
d ξ d 4ξ
e − α t , e −β t , e − γ t
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-20
5
-40
+ (αβ + βγ +αγ ) 5
+α β γ =ν ( t )
-60
-80
dt dt 4
-100
{e
100
ξ( t ) = ( c 1 + c 2 t ) e − α t + ( c 3 + c 4 t )e − β t
d 4ξ d 3ξ d 2ξ
80
60
−α t −α t +α 2 β + α ( +β ) +
40
,t e , dt 4
2
dt 3
2 2
dt2
}
20
(6.98) 0
dξ
e −β t , t e −β t
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
+ (α + β ) ξ ( t ) = ν ( t )
-20
-40
ξ +α β
-60
-80 ξ
dt
-100 ξ
ξ( t) = c1 + c 2 ( 1 − e − t )
100
80
{1 , (1 − e )}
60
d 2ξ dξ
40
−t
=ν ( t )
20
(6.99) 0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 8 1 2
2
+
dt dt
-20
-40
-60
-80
-100
ξ( t ) = c 1 + c 2 ( 1 − e − t ) + c 3 t e − t
100
80
60
{1 , (1 − e ) , t e } d ξ d ξ dξ
40
3 2
−t −t
=ν ( t )
20
(6.100) 0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
3
+2 2
+
dt dt dt
-20
-40
-60
-80
-100
ξ( t) = c1 + c 2 ( 1 + ( α − 1) e − t ) +
100
{1 , 1 + ( α − 1 ) e − t ,
80
60
+ c 3 ( ( 1 − α) t + α) e −t
d ξ d ξ dξ
40
3 2
(t )
( ( 1 − α ) t + α ) e −t }
=ν
20
(6.101) 0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
3
+2 2
+
dt dt dt
-20
-40
-60
-80
-100
ξ ( t ) = c1 + c 2 t e − α t + c 3 t e − t +
100
d ξ d ξ
5 4
{1 , 2 , t e ,
80
+ c 4 e − α t + c 5 ( t − 2 + ( t + 2) e − t ) −α t + (2 +α ) +
60
40
5 4
dt dt
( t + 2 ) e − t , e −α t }
20
(6.102) 0
d ξ d ξ
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-20 3 2
+ ( 1 + 2α ) +α =ν ( t )
-40
-60
3 2
-80
-100
dt dt
ξ( t ) = c1 + c 2 sin ( α t) + c 3 cos ( α t) +
100
d ξ d ξ
5 3
( )
80
+ c 4 sin ( β t) + c 5 cos ( β t)
{1, sin (α t ) , cos (α t ) , + α +β +
60 2 2
40
5 3
20
dt dt
(6.103)
sin ( β t ) , cos ( β t ) }
0
dξ
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
-20
-40
-60
ξ
+α β
2 2
=ν (t )
-80
-100
ξ
dt
C’est une raison de choisir, lors de la formation du modèle à structure d’onde de la per-
turbation, la base fonctionnelle { f i ( t ) } de l’équation-modèle du type (6.104) avec paramètres:
M = 3 , ρ = 4 , (6.101) dans le Tableau 6.2.
(6.101) { f i ( t ) } = {1,1 + (α − 1 ) e −t , ( ( 1 − α ) t + α ) e − t } ,
[
⎧ ℜ f 1 ( t ) , f 2 ( t ) , f 3 ( t ) ,. . . , f M ( t ) ; c 1 , c 2 , c 3 , . . . , c L ]⎫
⎪⎪ ⎪⎪
(6.104) ξ ( t ) = ⎨ [
ℜ 1,1 + ( α − 1 ) e , ( ( 1 − α ) t + α ) e ; c 1 , c 2 , c 3
−t −t
] ⎬ .
⎪
⎩⎪ ( )
c 1 + c 2 1 + (α − 1 ) e −t + c 3 ( ( 1 − α ) t + α ) e − t
⎪
⎭⎪
P( p)
(6.105) ξ ( p )= ,
Q( p)
1 1
(6.106) G ( p ) = = .
Q( p ) (p)
DAS
Q C2
(6.107) Q ( p ) = p ρ + q ρ p ρ −1 + . . . + q 2 p + q 1 = p 3 + 2 p 2 + p = Q CDAS
2 (p) ,
Ou ρ = 4 ; q 4 = 1 , q 3 = 2 , q 2 = 1 , q 1 = 0 .
Cela signifie que l’équation semi-déterminée (6.104) considérée est une solution possi-
ble de l’équation différentielle du type (6.108)
d ξ d ξ dξ
3 2
(6.108) 3
+2 2
+ =ν (t ) .
dt dt dt
La fonction générante externe ν ( t ) en (6.108) relève les variations des coefficients de
poids continus par intervalles c i de l’équation (6.105) du modèle à structure d’onde. Elle est
formée en tant qu’une série de fonctions de Dirac (unitaires, doubles, triples etc.), com-
plètement inconnues, d’intensité aléatoire, générées de manière aléatoire par un intervalle
positif minimal.
(6.109) [ Q ( p ) ] −1 [
= Q CDAS
2 ( p )]
−1
= A DAS (p) .
⎛ 1 ⎞
(6.110) R DAS ( p ) = R * ( p ) A DAS ( p ) , ⎜ A DAS ( p )= ⎟ ,
⎜ Q CDAS2 (p) ⎟
⎝ ⎠
où les paramètres dynamiques de réglage du régulateur de base R * ( p ) sont ceux qui partici-
pent à la conception du R * ( p ) dans le système classique optimal (Tableau 6.1).
Les charactéristiques R * ( j ω ) , A DAS ( j ω ) , R DAS ( j ω ) sont données à la Fig.6.6, tan-
dis que
A DAS ( j ω), A DAS ( j ω ) , a r g A
DAS
( ( jω))
démontre les possibilités de l’absorbateur d’effectuer un déphasage de − π 2 à − 3 π 2 .
Ces propriétés de A ADS ( j ω ) se manifestent aussi bien dans la structure du régulateur
avec absorption des perturbations, où il est inclus.
Le régulateur partiellement absorbant les perturbations R DAS ( j ω ) effectue un dépha-
sage de − π à − 3 π 4 et de − 3 π 4 à − 3 π 2 . C’est pourquoi, a r g ( R DAS ( j ω ) ) est
déplacée parallèlement à − π 2 de phase par rapport à a r g ( R * ( j ω ) ) , de manière que
a r g ( R DAS ( j ω ) ) conserve complètement le caractère de a r g ( R * ( j ω ) ) , qui démontre les
propriétés de R * ( j ω ) d’effectuer un déphasage de − π 2 à 0 π et de 0 π à − 1 π 4 .
A
DAS
( jω )
R* ( j ω )
R
DAS
( jω )
Fig.6.6.a
ar g ( R* ( j ω ))
(
ar g A
DAS
( jω ))
ar g R( DAS
( jω ))
Fig.6.6.b
R DAS
( jω )
R* ( j ω )
A DAS ( jω )
Fig.6.6.c
R* ( j ω ) G* ( j ω ) R DAS ( j ω ) G* ( j ω )
Fig.6.7.a
a r g R DAS( ( j ω ) G* ( j ω ) )
ar g ( R* ( j ω ) G* ( j ω ) )
Fig.6.7.b
R* ( j ω ) G* ( j ω )
R
DAS
( j ω ) G* ( j ω )
Fig.6.7.c
Φ DAS
y y
0 ( jω )
Φ CLASS
y0 y
( jω )
Φ CLASS
( jω )
( jω )
0
Φ
y y DAS
0
y y
Fig.6.8.a Fig.6.8.d
Φ DAS
y ε
0 ( jω )
Φ CLASS
y0ε
( jω )
Φ CLASS
y ε
0 ( jω )
Φ DAS
y ε
0 ( jω )
Fig.6.8.b Fig.6.8.e
Φ νCLASS
y ( jω )
Φ νCLASS
y ( jω )
Φ νDAS
y ( jω )
Φ νDAS
y ( jω )
Fig.6.8.c Fig.6.8.f
CLASS
ν
ν
CLASS
0
y
DAS
DAS
ξ
Fig.6.9.a Fig.6.9.b
En comparaison avec le système classique, DA S est caractérisé par des marges de sta-
bilité (6.111) de gain B mDAS > B mCLASS et (6.112) de phase Φ mDAS > Φ mCLASS élargies, temps de ré-
glage des processus transitoires apériodiques réduit, sensibilité aux disturbances diminuée
(6.113), (6.114).
⎧ Φ DAS ( j ω ) = R DAS ( j ω ) G * ( j ω
⎪ 0
y ε
( ) ) −1
,
(6.113) ⎨ ,
⎪ Φ CLASS ( j ω ) = ( R* ( j ω ) G* ( j ω )) −1
⎩
0
y ε
⎛ ⎞ ⎛ ⎞
(6.114) ⎜ Φ DAS
y ε
0 ( jω ) ⎟ << ⎜ Φ
CLAS
y ε
0 ( jω ) ⎟ ,
⎝ y ,ν ⎠ max ⎝ y ,ν ⎠ max
0 0
⎛ ⎞ ⎛ ⎞
( jω ) ( jω )
(6.115) ⎜ Φ DAS
y ε
0 ⎟ > ⎜ Φ
CLAS
y ε
0 ⎟ .
⎝ ξ ⎠ max ⎝ ξ ⎠ max
( )
1
(6.116) R DAS k , j ω = R* ( j ω ) k .
DAS DAS
QC
DAS
2 ( jω )
⎛ ⎞ ⎛ ⎞
( jω ) ( jω )
(6.117) ⎜ Φ DAS
y0ε
⎟ << ⎜ Φ
CLAS
y0ε
⎟ ,
⎝ ξ ⎠ max ⎝ ξ ⎠ max
⎧ 1
= Φ y0ε ( j ω ) ≤ 1 , ∀ω
DAS
⎪
⎪ ( jω ) G ( jω )
(6.118) ⎨ 1 + R
DAS
,
⎪
⎪⎩ Φ y0ε ( j ω ) ≡ Φ y0ε ( j ω ) ≤ 1 , ∀ω
DAS DAS
⎧ 1
⎪ ≡
⎪⎪ 1+ R DAS
(k DAS
, jω G ) ( jω )
(6.119) ⎨ .
⎪ 1
⎪≡ ≤ 1 , ∀ω
⎪⎩ 1+ R
DAS
(k DAS
)
, j ω G* ( jω )
Les modules des DAS non-perturbé et perturbé (6.118), (6.119) démontrent que la fré-
quence de résonance du système diminue, et dans le cas d’exigence pour un processus tran-
sitoire apériodique, les marges de stabilité B mDAS et Φ mDAS augmentent. De cette manière, l’inva-
riance de DAS par rapport aux fluctuations paramétriques dans le modèle du procédé devient
prédominante.
⎛ k
DAS
⎞
(6.120) R ( j ω ) = R* ( j ω ) ( jω ) , ⎜ A ( jω )= ⎟ .
DAS DAS DAS
A
⎜ Q CDAS2 ( jω ) ⎟
⎝ ⎠
La valeur de k DAS
agit sur B mDAS et surtout sur Φ DAS
m .
À la Fig.6.12 et Fig.6.13 sont données les charactéristiques de systèmes classiques non-
perturbé et perturbé à la limite supérieure et celles de DAS pour régulateur partiellement ab-
sorbant les perturbations R DAS ( k DAS , j ω ).
Le coefficient k DAS est utilisé pour la correction des charactéristiques et sa valeur est
choisie de telle manière, que les marges de stabilité B mDAS et Φ mDAS augmentent.
R* ( jω )
R DAS
(k DAS
, jω )
A
DAS
( jω )
ar g ( R* ( j ω ) )
ar g A ( DAS
( jω ))
a r g R DAS( ( jω ))
Fig.6.10.b
R DAS
(k DAS
, jω )
k
DAS
=1 R* ( j ω )
= 0.1
DAS
k
= 0.01
DAS
k
= 0.001
DAS
k
k DAS
= 0.0001
A
DAS
( jω )
Fig.6.10.c
R* ( j ω ) G* ( j ω )
R
DAS
(k DAS
)
, j ω G* ( j ω )
Fig.6.11.a k DAS
= 0.0001 ; k DAS
= 0.001 ; k DAS
= 0 .01 ; k DAS
= 0 .1 ; k DAS
=1
ar g R ( DAS
( j ω ) G* ( j ω ) )
ar g ( R* ( j ω ) G* ( j ω ) )
Fig.6.11.b
k DAS
= 0 .0001 ; k DAS
= 0 .001 ; k DAS
= 0.01 ; k DAS
= 0 .1 ; k DAS
=1 Φ yCLASS
ε 0 ( jω )
Φ DAS
y0ε
(k DAS
, jω )
Fig.6.11.c
( ) ( jω )=
DAS
( ) ( )
DAS
k opt DAS
(6.124) R * j ω G R * j ω πCLASS G * j ω πCLASS ,
π
Q DAS
C 2 ( jω DAS
π
) π
(
R * jω πCLASS ) G* ( j ω CLASS
π )Q DAS
C 2 ( jω DAS
π
)
(6.125) k DAS
= .
( ) G ( jω )
opt
B mDAS = B mCLASS
DAS DAS
R* j ω π π
Pour les données concrètes (Tableau 5.1), l’algorithme (6.125) de la première méthode
détermine la valeur optimale de k DAS en tant que k opt
DAS
= 0.0008735 .
B mDAS = B mCLASS
Avec le deuxième méthode, le choix de la valeur de k DAS est effectuée sous critère °mo-
dule optimal° (ou bien °sensibilité minimale°). L’expression analytique pour la notion °module
optimal°, est de satisfaire à l’exigence (6.126), (6.127) où ω est la fréquence, pour laquelle le
système classique perturbé à la limite supérieure possède un extrêmum du module de la sen-
sibilité ⎛⎜ Φ CLAAS
( jω ) = m a x ⎞⎟
⎝ y0ε ⎠
1
(6.126) 20 l o g 10 ≤ 0 , ∀ ω ≥ 0 .1 ω ,
1+ R DAS
(k DAS
, jω G )
( jω )
1
( jω )
(6.127) = Φ yDAS ≤ 1 , ∀ ω ≥ 0 .1 ω .
(k ) ( jω )
0
ε
1+ R
DAS DAS
, jω G
R* ( jω ) G ( jω )
R
DAS
(k DAS
, jω G ) ( jω )
Fig.6.12.a k
DAS
= 0.0001 ; k
DAS
= 0.001 ; k
DAS
= 0.01 ; k
DAS
= 0.1
(
a r g R DAS ( j ω ) G* ( j ω ) )
ar g R ( DAS
( jω ) G ( jω ))
ar g ( R* ( j ω ) G* ( j ω ) )
ar g ( R * ( j ω )G
( jω ))
Fig.6.12.b
( jω )
Φ CLASS
y ε
0
Φ yCLASS
ε0 ( jω )
0 (
Φ yDASε k DAS , j ω ) ≡ Φ y ε
DAS
0 (k DAS
, jω )
ω
Fig.6.13
k DAS
= 0 .0001 ; k DAS
= 0 . 001 ; k DAS
= 0 . 01 ; k DAS
= 0 .1
Pour le cas concret (Tableau 6.1), la valeur de ω (Fig.6.13) est ω =0.01 rad s .
L’algorithme (6.129) de la deuxième méthode détermine la valeur optimale de k DA S en
tant que k opt
DAS
=0.00065 .
ω = 0.01 rad s
⎧ ⎛ ⎞ ⎫
⎪ ⎜ DAS ⎟ ⎪
⎪ ⎜
( ( ⎟
))⎪
d −3
k
(6.132) k opt
DAS
⇔⎨ ⎜ 20 l o g 10 R* j 10 ω* ⎟ =0 ⎬ .
⎪dk
⎜
DAS
⎛ ⎛ −3 ∗ ⎞ ⎞ ⎟ ⎪
⎜ 2 ⎜ j ⎜ 10
Q CDAS ω ⎟⎟ ⎟
⎪ ⎝ ⎝ ⎠ ⎠ ⎠ ⎪
⎩ ⎝ ⎭
Pour le cas concret, ω * = 0.275 rad s , la valeur du coefficient de poids conformément
au principe de la ressemblance maximale est k opt
DAS
= 0.0005 . Les résultats définitifs pour la so-
lution de la tâche de synthèse de DAS (Tableau 6.1) sont donnés par (6.133)
(5 p + 1 ) (2 p + 1 ) 0.00065
(6.133) R DAS ( p ) = 0 ,13 ⋅ .
( 5 p ) ( 0 ,4 p + 1 ) (p 3
+ 2p + p
2
)
R* ( jω )
R DAS
(k DAS
opt , jω )
10 −3 ω * ω*
Fig.6.14.a
ar g ( R* ( j ω ) )
( (
a r g R DAS k opt
DAS
, jω )) ω*
Fig.6.14.b
R* ( j ω )
ω*
ω*
R
DAS
(k DAS
opt , jω )
Fig.6.14.c
0 0
( j ω ) ⇒ Φ yCLASS ( jω ) ( j ω ) ⇒ Φ νCLASS ( jω )
Φ CLASS Φ νCLASS
y y
y0 y y 0
Fig.6.15.a Fig.6.15.b
système classique système avec absorption
système classique système avec absorption
Φ CLASS
y0ε
( p )⇒ Φ
CLASS
y0ε
( p ) Φ CLASS
y0 y
( jω ) Φ DAS
( jω )
0
y y
Φ CLASS
y0 y
( jω ) Φ DAS
0
( jω )
y y
( p )⇒ Φ ( )
Φ DAS
y ε
0
DAS
y ε
0 p
Fig.6.15.c Fig.6.15.d
6.6.7. Performance de systèmes partiellement absorbants les perturba-
tions lors de la commande d’un procédé nonlinéaire.
Pour l’analyse de la performance et de l’efficacité de DAS pour la commande d’un pro-
cédé nonlinéaire sont donnés :
1. Le modèle nominal G (∗ μ ( p )= y ( p ) / μ ( p ) (5.53) dans un voisinage délimité
25% )
La synthèse de DA S pour la commande du modèle donné est effectuée suivant les éta-
pes I .1 ÷ I .4 , de manière analogique au cas de la synthèse de DAS avec modèle linéaire. On
prend en considération G (∗ μ ) ( p ) et G ( μ ) ( p ) . Le résultat de la synthèse est donné par
25% 95%
(6.133), les estimations de performance de DAS sont données dans le Tableau 6.4 et à la
Fig.6.18.
Tableau 6.3
s 1.00 0.6
μ ,% 25 % 95 %
l 0.25 0.95
k ob ( l , s ) 1.239 1.960
T ob 10, s 10, s
τ ob ( l , s ) 2, s 4, s
critère processus transitoire apériodique-critique processus transitoire apériodique-critique
−2 p
1 , 239 e
G ( μ 25% ) ( p ) =
∗ ∗
G ( μ 25% ) (5.53)
10 p + 1
−4 p
1.96 e
G ( μ 95% )
(5.54) G ( μ ) ( p )=
10 p + 1
95%
(5 p + 1) (2 p + 1)
R* (5.55) 0 ,13
( 5 p ) (0 ,4 p + 1 )
( 12 , 89 p + 1 ) ( 5 p + 1 )
R
(5.56) R ( p ) = 0 , 35
( 12 , 8 p ) ( p + 1 )
R ( p ) − R* ( p )
DF (5.57) DF ( p )= −
1 + R* ( p ) G* ( p )
2
(5.27) ∇ l ROB =
2 (
0.5 e 2 n ( 1− l ) − 1 )
∇l ROB
t ,VALOG t ,VALOG 2 n ( 1−l )
∇s t
nse
( p ) = 0.00065 ( p 3 + 2 p 2 ) −1
A DAS A DAS +p
(5 p + 1 ) (2 p + 1 ) 0.00065
DAS
(6.132)
DAS
( p ) = 0 ,13
R
(p )
R
( 5 p ) ( 0 ,4 p + 1 ) 3
+ 2p
2
+p
DAS ( ω )
−1
η
lm ( ω ) < η DAS ( ω )
−1
,∀ ω
stabilité robuste
lm (ω )
Fig.6.16.a
performance robuste
stabilité robuste
Fig.6.16.b
s (p)
vanne processus
automatique technologique
y 0
(p) ε (p) u (p) y (p)
R* (p) ∗
G TOTAL PLANT ( p , st , ξ t , u )
- kp ⇔
∗
G TOTAL ( p ) k ( p )= k
{ l =l }
opt ∗
PLANT TOTAL PLANT TOTAL PLANT 1
0 , s = s ∗0
système nominal
Fig.6.17.a
s (p) ξ (p)
vanne processus
automatique technologique
y 0
(p) ε (p) u (p) y (p)
R* (p) G TOTAL PLANT ( p , st , ξt , u )
- kp ⇔
∗
G TOTAL ( p )
{ l =l }
opt ∗
PLANT
0 , s = s ∗0
- kp ⇔ ∗
G TOTAL ( p )
(p)
( p, s )
{ l =l }
opt PLANT
∗
0 , s=s 0
∗
u
R
DAS
(p) k TOTAL PLANT t , ξ t , y t0
∇ll = u 2
∇ (p)
P0 (p) ks
(p)
∇l ( p )= ∇s (p) u2
kl vanne processus
y
0
(p) ε (p) u1 (p)
automatique technologique
y (p)
kp R* (p) G1 ( p , st ) G2 ( p,ξt )
- X
= ⎜
P1 P2 ⎛ P 0 − P3 ⎞ ⎛ Δ P2 lin ⎞
+1 A2 s2 = ⎜
⎜ P −P
+1⎟
⎟
= ⎜
⎜ ΔP
+1⎟
⎟
⎜ P ( t )− P ( t ) ⎟ ⎜ ΔP (t ) ⎟⎠
⎝ 3 ⎠ ⎝ ⎠
Fig.6.17.d
4 2
⎝ 1 2 ⎠ ⎝ VA P3 P4 ⎛ P 0 − P5 ⎞
−1
⎛ Δ P3 lin ⎞
−1
s3 = ⎜ +1⎟ = ⎜ +1⎟
Δ PVA ( t )
A3 ⎜ P −P ⎟ ⎜ ΔP ⎟
⎝ 5 6 ⎠ ⎝ 3 ⎠
st = P5 P6 ⎛ P 0 − P7
s4 = ⎜
⎞
+1⎟
−1
⎛ Δ P4 lin
= ⎜
⎞
+1⎟
−1
Δ PVA max A4 ⎜
⎝ P7 − P8
⎟
⎠
⎜
⎝ Δ P4
⎟
⎠
P7 P8
s (p) ξ (p)
y 0
(p) ε (p) u1 (p) y (p)
R* (p) A
DAS
(p) G1 ( p , st ) G2 ( p,ξt )
- R DAS (p) u ( p )= l ( p ) q (p)
(p) u2 (p)
G*
ε* (p) (
k TOTAL PLANT p , s t , ξ t , y t0 )
DF (p)
( p , st , ξ t )
- G
s (p) ξ (p)
∇l = u 2 (p)
P
0
(p)
∇l ( p )=
ks
∇s (p) u2 (p)
kl vanne processus
automatique technologique
y
0
( p )ε ( p ) u1 (p) y (p)
kp R* (p) G1 ( p , st ) G2 ( p,ξt )
- u0 (p)
X
u (p) q (p)
f ( Ti , Td ) A DAS (p) u ( p ) = u1 ( p , ∇a ) + u 2 ( p )+ u 3 ( p )
R
DAS
(p) kl k PLANT
(p) k TOTAL = k ob
G* u3 (p) PLANT
DF (p)
G ( p , st , ξ t )
( p ) ⎞⎟ − 1
⎛ y
∇a ( p ) = c o∗ ⎜⎜ ⎟
∇a (p) ⎝u( p)⎠
⎞
st = ⎜ ⎟
−1 −1
= ⎜
P1 P2 ⎛ P − P3 0
⎞ ⎛ Δ P2 lin ⎞
+1 A2 s2 = ⎜
⎜ P −P
+1⎟
⎟
= ⎜
⎜
+1⎟
⎟
⎜ P ( t )− P ( t ) ⎟ ⎜ ΔP (t ) ⎟⎠
⎝ 3 4 ⎠ ⎝ Δ P2 ⎠
⎝ 1 2 ⎠ ⎝ VA P3 P4 ⎛ P 0 − P5 ⎞
−1
⎛ Δ P3 lin ⎞
−1
s3 = ⎜ +1⎟ = ⎜ +1⎟
Δ PVA ( t )
A3 ⎜ ⎟ ⎜ ⎟
⎝ P5 − P6 ⎠ ⎝ Δ P3 ⎠
st = P5 P6 ⎛ P 0 − P7
s4 = ⎜
⎞
+1⎟
−1
⎛ Δ P4 lin
= ⎜
⎞
+1⎟
−1
Δ PVA max A4 ⎜
⎝ P7 − P8
⎟
⎠
⎜
⎝ Δ P4
⎟
⎠
P7 P8
Les conditions initiales pour la synthèse suivant la méthode proposée sont de connaître
a priori:
(6.120) ÷ (6.131).
Pour l’analyse des propriétés et l’estimation de l’effet des systèmes partiellement absor-
bants les perturbations pour la commande (la stabilisation) du modèle non-linéaire donné
(Tableau 5.4), sont conçus et modelés DAS , ROB 3 , ROB 4 , PCS 3 et les correspondants sys-
tèmes classique CLASS et nominal NOM (Fig.6.17) avec les données de Tableau 6.3.
L’analyse comparative (Tableau 6.4) est effectuée sur les résultats (Fig.6.18) de la simu-
lation parallèle des modèles de ces systèmes sous l’action généralisée ϑ ( t ) (6.134) et les es-
timations quantitatives sont données dans le Tableau 6.4
⎧
⎪⎪ ϑ ( t ) =
⎧⎪
⎨
[s ( t ) ξ (t ) yo (t ) ] − pour des systèmes analyses ⎫⎪
T
⎬
(6.134) ⎨ ⎪⎩ [s ( t ) 0(t ) y o ( t ) ] − pour des systèmes nominales ⎪⎭ .
T
⎪
(
⎩⎪ 0 ≤ s ( t ) ≤ 1 , 10% ≤ y o ( t ) ≤ 90% d' echelle , ξ = l a = G − G ∗ )
Les estimations intégrales de DAS , ROB 3 , ROB 4 et de PCS 3 pour la déviation dimi-
nuée de la trajectoire nominale et pour la précision dynamique augmentée sous l’effet de
ϑ ( t ) (6.134), confirment les avantages en performance des systèmes partiellement absor-
bants les perturbations devant le système classique.
La comparaison des résultats, généralisés en Tableau 6.4 et ceux de Tableau 5.4, fait
preuve de la supériorité en performance des systèmes robustes partiellement absorbants les
perturbations ROB 3 , ROB 4 par rapport aux systèmes robustes avec déviation minimale
ROB , ROB .
1 2
Tableau 6.4
systèmes, estimés par la dévia- estimation de déviation estimation de précision
tion de la trajectoire nominale diminuée augmentée
DAS ≤ 35 % ≤ 20 fois
ROB
3
≤ 45 % ≤ 34 fois
PCS
3
≤ 73 % ≤ 45 fois
3 4 3
NOM CLASS DAS ROB ROB PCS
y ,y ,y ,y ,y ,y
y0 , ξ, s
Fig.6.18.a
[ e) ] 2
ROB 4
3
PCS
3
ROB
DAS
Fig.6.18.b
[ e) ] 4 ROB
4
3
PCS
3
ROB
Fig.6.18.c
DAS
commande (Fig.5.34) est le débit Q d’eau d’alimentation entre le 1er et le 2nd point d’injection de
l’installation. La détermination des paramètres du procédé généralisé de commande est don-
née à Fig.5.35. La Fig.6.19 relève un trend typique de la température, commandée par un sys-
tème classique (Tableau 6.5). Les résultats de l’approximation par l’équation semi-déterminée,
ainsi que la caractéristique de l’absorbateur (Tableau 6.5) sont donnés à Fig.6.20. La Fig.6.21
représente le trend de la température stabilisée par le système classique et les résultats de la
simulation des modèles synthétisés de CLASS et DAS pour la commande de Θ en conditions
le plus proches possible à celles de production. Les avantages de DAS par rapport au système
classique sont évidents Fig.6.21.
360 mm/h
360 mm
Fig.6.19.a
450 o C
360 mm/h
500 o C
CL A S S
Θ vapeur
surchauffée
Fig.6.19.b
2
+α =ν ( t )
dt dt
500
A DAS
( jω )
550
Fig.6.20
Tableau 6.5
conditions initiales pour la synthèse
−70 , 70 sec p −1 , 178 min p
1 , 2133e 1 , 2133e
G* ( p ) с VALOG G* ( p ) = = O
C/%
102 ,074 sec p + 1 1 ,70 min p + 1
−90 , 70 sec p −1 , 52 min p
1 , 812e 1 , 812e
G
( p ) с VALOG G
( p )= = O
C/%
102 ,074 sec p + 1 1 ,70 min p + 1
paramètres du systeme synthétisé DAS
algorithme (77 ,0077 p + 1 ) ( 127 , 2293 p + 1 )
R* ( p ) R * ( p ) = 0 ,143755
de base
(77 ,0077 p ) ( 25 , 44 p + 1 )
( p ) = 0.000332 (12 p 2 + p )
−1
A
DAS
(p) A DAS
( 77 ,0077 p + 1 ) ( 127 , 2293 p + 1 ) 0.000332
(p)
DAS
( p ) = 0 ,143755
(12 p )
DAS R
R ( 77 ,0077 p ) ( 25 ,44 p + 1 ) 2
+p
Fig.6.21.a
450 o C
Θ vapeur
surchauffée
o
500 C
550 o C
1800 sec 3 6 0 0 sec 5 4 0 0 sec 7 2 0 0 se c
Θ , % d ' echelle
vapeur
surchauffée
CLASS
DAS
Fig.6.21.b
6.8. Conclusions.
Les problèmes considérés sont ceux de: spécification des applications possibles de la
théorie d’absorption des perturbations; synthèse robuste et analyse comparative de: systèmes,
absorbant les perturbations; systèmes à compensation paramétrique, partiellement absorbants
les perturbations; systèmes robustes avec déviation minimale de la trajectoire nominale, par-
tiellement absorbants les perturbations; systèmes robustes avec déviation stabilisée de la
trajectoire nominale, partiellement absorbants les perturbations. Les solutions de ces problè-
mes représentent une originalité en termes de contre-réaction efficace aux perturbations en
conditions d'incertitude.
Pour la synthèse analytique de DAS pour la commande de procédés à minimum de
phase en [99,100], sont utilisées:
- la méthode de l’équation de balance d’absorption de la perturbation (6.12) sous critère
°égalité des les marges de stabilité° (6.124) avec algorithme (6.125) pour la cor-
rection fréquentielle des caractéristiques du système en boucle ouverte DAS ;
- la méthode de l’équation de balance d’absorption de la perturbation (6.12) sous critère
°module optimal° (6.126) avec algorithme (6.129) pour la correction fréquentielle
selon les caractéristiques du système en boucle fermée DAS ;
- la méthode de l’équation de balance d’absorption de la perturbation (6.12) sous critère
°ressemblance maximale° avec algorithme (6.131) pour la correction fréquen-
tielle selon les caractéristiques du système en boucle fermée DAS ;
- la méthode et l’algorithme pour la détermination d’une base fonctionnelle
d’approximation pour la conception du modèle à structure d’onde de la perturba-
tion, illustrée dans le Tableau 6.2.
BIBLIOGRAPHIE
34. Costa E. F., Vilma A. Oliveira (2002), Gain scheduled controllers for dynamic sys-
tems using sector nonlinearities, Automatica, Volume 38, Issue 7, July 2002, pp.
1247-1250
35. Curtain R. F. (1991), State space approaches to H ∞ -control for infinite-dimensional
linear systems, In: Proc. Conf. Robust Control System Design Using H ∞ and Re-
lated Methods, 21-22 March, Cambridge, U. K.
36. Cutler C., B. Ramaker (1979), Dynamic matrix control - A computer control algo-
rithm, AIChE National Mtg., Houston, TX
37. D'Azzo J. J., C. H. Houpis (1988), Linear Control System Analysis and Design:
Conventional and Modern, (3rd ed.), © McGrow-Hill, New York.
38. Desoer C. A., A. N. Gundes (1986), Decoupling Linear Multi-Input Multi-Output
Plants by Dynamic Output Feedback, IEEE Trans. Autom. Control, AC-31, 744-750
39. Desoer C. A., C. A. Lin (1985), A Comparative Study of Linear and Nonlinear
MIMO Feedback Configurations, Intl. J. Syst. Sci., 16, 789-813
40. Desoer C. A., J. D. Schuiman (1974), Zeros and Poles of Matrix Transfer Func-
tions and Their Dynamical Interpretation, IEEE Trans. Circuits and Systems, CAS-
21, 3
41. Desoer C. A., M. Vidyasagar (1975), Feedback System: Input-Output Properties,
© Academic Press, New York.
42. Doyle III F. J., H. S. Kwatra, J. S. Schwabert (1998), Dynamic gain scheduled
process control, Chemical Engineering Science, Vol. 53, No. 15, 1998, 2675-
2690
43. Doyle J. C. (1979), Robustness of multiloop linear feedback systems, Proc. 17th
IEEE Conf. Decision and Control, pp. 12-18
44. Doyle J. C. (1982), Analysis of feedback systems with structured uncertainties,
IEEE Proc., 129, 242-250
45. Doyle J. C. (1984), Lecture Notes, ONR/Honeywell workshop on advances on multi-
variable control, Minneapolis, MN
46. Doyle J. C. (1985), Structured Uncertainty in Control System Design, In: Proc.
IEEE Conf. on Decision and Control, Ft. Lauerdale, FL
47. Doyle J. C., B. A. Francis, A. Tannenbaum (1991), Feedback Control Theory,
©Macmillan, New York.
48. Doyle J. C., G. Stein (1981), Multivariable Feedback Design: Concepts for a Clas-
sical/Modern Synthesis, IEEE Trans. Autom. Control, AC-26, 4
49. Doyle J. C., J. E. Wall (1982), Performance and Robustness Analysis for Structured
Uncertainty, In: Proc. IEEE Conf. on Decision and Control, Orlando, FL
50. Doyle J. C., K. Glover, P. P. Khargonekar, B. A. Francis (1989), State space so-
lutions to standard H 2 and H ∞ - control problems, IEEE Trans. Aut. Control, 34,
831-847
51. Doyle J. C., R. S. Smith, D. F. Enns (1987), Control of Plants with Saturation
Nonlinearities, In: Proc. American Control Conf., Minneapolis, MN, 1034-1039
52. Dumont G., J. Marten-Sanchez, C. Zervos (1989), Comparison of an auto-tuned
PID regulator and an adaptive predictive control system on an industrial bleach plant,
Automatica, Vol. 25, No 1, 33-40
53. Economou C., M. Morari (1986), Internal Model Control - 6. Multiloop Design,
Ind. Eng. Chem. Proc. Des. & Dev., 25, 411-419
54. Francis B. A. (1987), A course in H ∞ - control. Lecture Notes in Control and Infor-
mation Sciences, Vol. 88. ©Springer-Verlag, Berlin
55. Francis B. A. (1990), Lectures on H ∞ -control and sampled data systems, In E. Mo-
sca and L. Pandolfi (Eds), H ∞ -Control Theory, Como 1990, Lecture Notes in
Mathematics, 1496, ©Springer-Verlag, Berlin
56. Francis, B. A., J. C. Doyle (1987), Linear control theory with an H ∞ optimality cri-
terion, SIAM J. Control Opt., 25, 815-844
57. Freudenberg J. S., D. J. Looze (1988), Frequency domain properties of scalar and
multivariable feedback systems, Lecture Notes in Control and Information Sci-
ences. 104. ©Springer- Verlag, Berlin.
58. Garcia C., A. Morshedi (1986), Quadratic programming solution of dynamic ma-
trix control (QDMC), Chemical Engineering Communications, 46, 73-87
59. Garcia C., M. Morari (1982), Internal model control - 1. A unifying revew and
some new results, Ind. Eng. Chem. Process Des. & Dev., 21, 308-323
60. Garcia C., M. Morari (1985), Internal Model Control - 2. Design Procedure for
Multivariable Systems, Ind. Eng. Chem. Process Des. & Dev., 24, 472-484
61. Garcıa-Sanz M., J. C. Guillien, J. J. Ibarrola (2004), Robust controller design
for uncertain systems with variable time delay, Control Engineering Practice 9
(2001) 961-972
62. Glover K., D. J. Limebeer, J. C. Doyle, E. M. Kasenally, M. G. Safonov
(1991), A characterization of all solutions to the four block general distance problem,
SIAM J. Control and Optimization, 29, 283-324
63. Glover K., J. C. Doyle (1989), A state space approach to H ∞ optimal control, In H.
Nijmeijer and J. M. Schumacher (Eds), Three Decades of Mathematical System
Theory, Lecture Notes in Control and Information Sciences, 135. ©Springer-Ver-
lag, Berlin.
64. Green M. (1989), H ∞ - controller synthesis by J -lossless coprime factorization, De-
partment of Electrical Engineering, Imperial College, London. SIAM J. Control
and Optimization
65. Hagiwara T. (2002), Nyquist stability criterion and positive-realness of sampled-data
systems, Systems & Control Letters 45 (2002) 283-291
69. Jaimoukha I. M., D. J. Limbeer (1991), State-space algorithm for the solution of
the two-block super-optimal distance problem, Preprints 30th IEEE Conference on
Decision and Control, Brighton, U.K.
70. Johnson C. D. (1999), On the Complete “Discretization” of an nth-Order Linear
Differential Equation Model, Journal of Mathematical and Computer Modeling of
Dynamical Systems, Vol. 5, No. 1, 1999, pp. 74-84
71. Johnson C. D. (1996), Accommodation of Zero-Valued Characteristic Roots in the
Solution Expression for Linear, Constant-Coefficient, Difference Equations, Journal
of Mathematical Problems in Engineering, Vol. 2, p. 393
72. Johnson C. D. (1996), Sensor-Imperfection Compensation; A New Tool for Low-
Cost Performance Enhancements in Guidance and Control Implementations, In:
Proc. 1996 Congress of the International Federation of Automatic Control
(IFAC), San Francisco, CA, 1996, Vol. P, p. 121.
73. Johnson C. D. (1998), Identification of Unknown, Time-Varying Forces/Moments
in Dynamics and Vibration Problems Using a New Approach to Deconvolution, In:
Proc. 67th Shock and Vibration Symposium, Monterey, Calif., Nov. 1996, p. 141;
also, Shock and Vibration Journal, Vol. 5, p. 181
74. Johnson C. D. (1967), Optimal Control of the Disturbed Linear Regulator, Convair
Division of General Dynamics, Huntsville Operation, GDC Rpt., Chapter 3
75. Johnson C. D. (1968), IEEE Trans. Auto. Cont., AC 13, 416
76. Johnson C. D. (1970), IEEE Trans. Auto. Cont., AC 15, 222
77. Johnson C. D. (1970), IEEE Trans. Auto. Cont., AC 15, 516
78. Johnson C. D. (1971), IEEE Trans. Auto. Cont., AC 16, 635
79. Johnson C. D. (1972), IEEE Trans. Auto. Cont., AC 17, 836
80. Johnson C. D. (1975), A Preliminary Study of Disturbance Absorbing Controllers,
©Redstone, Alabama
81. Johnson, C. D., B. Morgan (1998), Some Little-Known Results of Bob Bass in Ma-
thematical System Theory, In: Proc. of the 1998 American Control Conf.,
Philadelphia, PA, June 1998, p. 424.
82. Juang, Y. T., T. S. Kuo, C. F. Hsu (1987), Stability robustness analysis of digital
control systems in state-space models, Int. J. Control, 46, 1547-1556
83. Kamen E., P. Khargonekar (1984), On the control of linear systems whose coeffi-
cients are functions of parameters, IEEE Trans. Aut. Control, vol. AC-29, No 1, 25-
33
84. Kaya I. (2004), IMC based automatic tuning method for PID controllers in a Smith
predictor configuration, Computers and Chemical Engineering 28 (2004) 281-290
85. Kellett M. (1991). Continuous scheduling of H ∞ -controllers for a MS760 Paris air-
craft, In: Proc. Conf. Robust Control System Design Using H ∞ and Related
Methods, 21-22 March, Cambridge, U. K.
86. Kwakernaak H. (1985), Minimax frequency domain performance and robustness
optimization of linear feedback systems, IEEE Trans. Aut. Control, AC-30, 994-
1004
87. Kwakernaak H. (1986), A polynomial approach to minimax frequency domain op-
timization of multivariable systems, Int. J. Control, 44, 117-156
88. Kwakernaak H. (1990), MATLAB macros for polynomial H ∞ control system opti-
mization, Memorandum No. 881, Department of Applied Mathematics, University
of Twente, Ensvhede, The Netherlands.
89. Kwakernaak H. (1993). Robust Control and H ∞ -Optimization - Tutorial Paper,
Automatica, 255-273
90. Kwakernaak, H. (1983), Robustness optimization of linear feedback systems, Pre-
prints 22nd IEEE Conference on Decision and Control, San Antonio, TX.
91. Kwakernaak, H. (1990), The polynomial approach to H ∞ -optimal regulation, In:
E. Mosca and L. Pandolfi (Eds), H ∞ -Control, Como 1990, Lecture Notes in
Mathematics, 1496. ©Springer-Verlag, Heidelberg
92. Landau I., L. Dugard (1986), Commande adaptative - aspect pratiques et théori-
ques, Paris, ©Masson, 468 p.
93. Lee C. H., M. Ho Shin, M. Jin Chung (2001), A design of gain-scheduled control
for a linear parameter varying system: an application to flight control, Control Engi-
neering Practice, Volume 9, Issue 1, January 2001, 11-2
94. McFarlane D. C., K. Glover (1990), Robust controller design using normalized co-
prime factor plant descriptions, Lecture Notes in Control and Information Sci-
ences, Vol. 138. ©Springer-Verlag, Berlin.
95. Mehra R., R. Rouhani (1980), Theoretical considerations on model algorithmic con-
trol for non-minimum phase systems, Joint American Control Conference, San
Francisco
96. Mehra R., R. Rouhani, J. Eterno, J. Richalet, A. Rault (1982), Model algorithmic
control: Revew and recent developments, Engineering Foundation Conference on
Chemical Processes
97. Morari M., E. Zafiriou (1988), Robust Process Control, ©Prentice-Hall Int., Inc,
Englewood Cliffs, NJ
98. Nichols R. A., R. T. Reichert, W. J. Rugh (1993), Gain scheduling for H-infinity
controllers: A flight control example, IEEE Transactions on Control Systems
Technology, 1, 69-79
99. Nikolov E. (2003), Applied Methods for Process Control - I, © 2003 Еd. of Technical
University Sofia, Sofia, ISBN 954-438-334-4, 2003, 358 p.
100. Nikolov E. (2003), Control Instrumentations - II, © 2003 Еd. of Technical Univer-
sity Sofia, Sofia, ISBN 954-438-336-6, 2003, 296 p.
101. Oustaloup A. (1994), La robustesse (analyse et synthèse de commandes robustes),
©Hermès (Traité des Nouvelles Technologies - Série Automatique), Paris, 530
p.
102. Palm R., D. Driankov (1997), Stability of fuzzy gain-schedulers: sliding mode ba-
sed analysis, FUZZ-IEEE’97, Barcelona, July 1-5, 1997, 177-183
103. Peczkowski J., M. Sain (1985), Synthesis of system responses: A nonlinear multi-
variable control design approach, In: Proceed. American. Contr. Conf., 1322-132
104. Prett D., C. Garcia (1989), Fundamental process control, ©Butterworth-Heine-
mann
105. Richalet J., A. Rault, J. Testud, J. Papon (1978), Model predictive heuristic
control: Applications to industrial processes, Automatica, 14, 413
106. Ricker N. (1985), Use of quadritic programming for constrained internal model
control, Ind. Eng. Chem. Process Des. Dev., 24, 925-936
107. Rugh W. (1990), Analytical framework for gain scheduling, Proceed. American
Contr. Conf., 1688-1694
108. Rugh W. J., J. S. Shamma (2000), Research on gain scheduling, Automatica,
36(10), 1401-1425
109. Sain M., J. Peczkoszki (1982), Nonlinear multivariable design by total synthesis,
In: Proceed. American. Contr. Conf., 252-260
110. Sain M., S. Yurkovich (1982), Controller scheduling: A possible algebraic view-
point, In: Proceed. American Contr. Conf., 261-269
111. Shahrudz S., S. Bentash (1990), Design of controllers for linear parameter-vary-
ing systems by the gain scheduling technique, In: Proceedings of the 29th Confer-
ence on Decision and Control, 2490-2491
112. Shamma J., M. Athans (1987), Stability and robustness of slowly time-varying li-
near systems, In: Proceedings of the 26th Conference on Decision and Control,
434-439
113. Shamma J., M. Athans (1988), Guaranteed properties for nonlinear gain sched-
uled control systems, In: Proceedings of the 27th Conference on Decision and
Control, 2202-2208
114. Shamma J., M. Athans (1990), Analysis of gain scheduled control for nonlinear
plants, IEEE Trans. Aut. Control, vol. 35, No 8, 898-907
115. Shamma J., M. Athans (1991), Gain scheduling: Potential hazards and possible
remedies, In: Proceed. American Contr. Conf., 516-521
116. Smith H., E. Davison (1972), Design of industrial regulators - Integral feedback
and feedforward control, In: Proc. IEEE, vol 119, No 8, 1210-1216
117. Vidyasagar M. (1985), Control Systems Synthesis -A Factorization Approach,
©MIT Press, Cambridge, MA
118. Vidyasagar M., H. Schneider, B. A. Francis (1982), Algebraic and topological
aspects of feedback stabilization, IEEE Trans. Aut. Control, AC-27, 880-894
119. Wang J., W. Rugh (1987), Feedback linearization families for nonlinear systems,
IEEE Trans. Aut. Control, vol. AC-32, No 10, 935-940
120. Youla D.C., H. Jabr, J. Bonjiorno (1976), Modern Winer-Hopf Design of Optimal
Controllers Part II: The Multivariable Case, IEEE Trans. Autom. Control, AC-21,
319-338
121. Youla D.C., J. Bonjiorno, H. Jabr (1976), Modern Winer-Hopf Design of Optimal
Controllers Part I: The Single-Input-Output Case, IEEE Trans. Autom. Control, AC-
21, 3-13
122. Zames G. (1979), Feedback and optimal sensivity: Model reference transforma-
tions, weighted seminorms, and approximate inverses, In: Proc. 17th Allerton Conf.,
pp. 744-752
123. Zames G. (1981), Feedback and optimal sensitivity : Model reference transoforma-
tions, multiplicative seminorms, and approximate inverses, IEEE Trans. Aut. Control,
AC-26, 301-320
124. Zhu J., C. D. Johnson (1990), A Unified Eigenvalue Theory for Time-Varying
Linear Circuits and Systems, (Invited Paper) In: Proc. IEEE 1990 International
Symposium on Circuits and Systems, New Orleans, LA, May 1990
125. Zhu J., C. D. Johnson (1991), Unified Canonical Forms for Matrices Over a Dif-
ferential Ring, Journal of Linear Algebra and Its Applications, Vol. 147, 1991, pp.
201-248
126. Дончев А. (1987), Системы оптимального управления - возмущения, приб-
лижения и анализ чувствительности, М., ©Мир, 1987, 278 стр.
127. Йорданов В. (1997), Синтез чрез J -спектрална факторизация на H ∞ -суб-
оптимален динамичен компенсатор, сп. Автоматика и Информатика, кн.1,
30-32
128. Николова Н. (2004), Изследване на робастни системи за управление.- Авто
реферат на дисертация за присъждане на научната и образователна сте-
пен “доктор”, ТУ- София, 2004, 40 стр.
129. Петков П., М. Константинов (2002), Робастни системи за управление. Ана-
лиз и синтез с MATLAB, София, ABC Техника, ISBN 954-8873-51-6, 418 стр.
130. Томов И. (1990), Системи за оптимално и адаптивно управление (II част),
© Изд. на ТУ София, С., 352 с.
131. Хаджийски М. (1989), Автоматизация на технологичните процеси в хими-
ческата и металургичната промишленост, С., ©Техника, 518 с.
132. Хаджийски М., К. Велев, Г. Сотиров, И. Калайков (1992), Автоматиза-
ция на технологични процеси, методи и алгоритми за управление, С., ©Тех-
ника, 352 с.