Analyse Matrices
Analyse Matrices
Analyse Matrices
Analyse matricielle
Lionel Magnis
1 Introduction et pré-requis
1.1 Notations
— K désigne le corps R ou C. h·, ·i est le produit hermitien (ou scalaire) usuel sur Kn .
— Si A est une matrice à coefficients dans K, A∗ est sa conjuguée, (ou sa transposée
A> si K = R). I désigne la matrice identité, sa taille est donnée par le contexte.
— T Sn (K) (respectivement T In (K)) est l’ensemble des matrices triangulaires supé-
rieures (respectivement inférieures) de taille n.
— T Sn++ (K) (respectivement T In++ (K)) désignent les matrices triangulaires dont les
éléments diagonaux sont des réels strictement positifs. T In1 (K) désigne les matrices
triangulaires inférieures dont les éléments diagonaux valent tous 1.
— Un (K) désigne les matrices unitaires (ou orthogonales si K = R) de taille n, carac-
térisées par O∗ O = I.
— Hn++ (K) désigne l’ensemble des matrices hermitiennes (i.e. A∗ = A) définies positives.
Si K = R, ce sont les matrices symétriques définies positives, on le note aussi Sn++ (R).
— |x|p désigne la norme p de x ∈ Kn
— , indique un objet défini par une égalité.
Proposition 1. T Sn++ (K), T In++ (K) et T In1 (K) sont des groupes pour la multiplication.
1.2 Complexité
La complexité d’un calcul est le nombre d’opérations élémentaires qu’il met en œuvre.
Pour simplifier, on ne considère que les multiplications et les divisions, qui sont plus longues
que les additions.
a1,1 x1 + . . . + a1,n xn = b1
... .. ..
. .
an,n xn = bn
1
est résolu directement en
1
xn = bn
an,n
n
1 X
xn−i = (bi − ai,j xj ), 1≤i≤n−1
an−i,n−i j=n−i+1
Exemple 2.
1.3 Pré-requis
A désigne une matrice de Mn (K).
Définition 1. Le rayon spectral de A est défini par ρ(A) , max {|λ|, λ ∈ spC A}.
Exemple 3. !! !!
1 i 0 −1
ρ = 2, ρ = ...
0 2 1 0
Définition 2. Considérons une norme |·| sur Kn . La norme induite par |·| sur Mn (K) est
|Ax|
kAk , max |Ax| = max
|x|=1 x6=0 |x|
2
Exercice 1. On définit la norme de Frobenius sur Mn (K) par
q sX
kAkF , Tr (A∗ A) = |ai,j |2
i,j
Montrer que k·kF est une norme matricielle mais n’est pas une norme induite.
Exemple 4. (Quelques normes induites à connaître) On note k·kp la norme induite par la
norme p. On a
q
|ai,j | = kA∗ k1 , ρ(A∗ A) = kA∗ k2
X X
kAk1 = max |ai,j |, kAk∞ = max kAk2 =
j i
i j
i=1
2. Démontrer le Théorème 1.
Application 1. Montrer que la suite (Am ) converge vers 0 si et seulement si ρ(A) < 1, et
que cette condition suffit pour que I − A soit inversible.
Application 2. Montrer que pour toute norme induite k·k
1
lim kAm k m
ρ(A) = m→∞
A
On pourra considérer la matrice ρ(A)+δ
, pour δ > 0.
3
2 Résolution de systèmes linéaires
On s’intéresse à la résolution d’un système
Ax = b (2)
2.1 Exemples
2.1.1 Minimisation d’une fonction quadratique convexe
Soit A ∈ Sn++ (R), b ∈ Rn et c ∈ R. On considère la fonction f définie sur Rn par
1
f (x) = hAx, xi − hb, xi + c
2
1. Montrer que f est convexe et que son gradient est
∇f (x) = Ax − b
Ax = b
4
2. Donner une CNS portant sur A pour que (P) admette une unique solution.
3. (P) équivaut à trouver x0 minimisant la fonction f : x 7→ 12 |Ax − b|22 . Montrer que
1D > E D E 1
f (x) = A Ax, x − A> b, x + hb, bi
2 2
et retrouver ainsi l’équation normale.
Remarque 1. On a ainsi montré que pour A ∈ Mn,m (R) quelconque, le système linéaire
A> Ax = A> b
qui modélise par exemple la position d’une corde dans un plan vertical (x, u), fixée en ses
extrémités x = 0, x = 1 (on parle de problème aux limites) et soumise à une force verticale
de densité continue f . C’est aussi une version stationnaire de l’équation de la chaleur avec
terme source.
Ce problème admet une unique solution u, ce que l’on ne démontre pas ici, et que l’on
suppose de classe C 4 . On ne cherche pas à la calculer explicitement mais on va en donner
une expression approchée par la méthode des différences finies. On fixe n ≥ 1 et on note
u(x1 ) f (x1 )
i .. ∈ Rn−1 ,
.. ∈ Rn−1
xi , , 0 ≤ i ≤ n, U , . b, .
n
u(xn−1 ) f (xn−1 )
Montrer que
AU = b + δb
avec δb = O( n12 ).
5
2. Montrer que les valeurs propres de A sont les
αk kπ
λk = 4n2 sin2 , αk = , 1≤k ≤n−1
2 n
avec pour vecteur propre associé vk = (sin jαk )1≤j≤n−1 . Pouvait-on voir autrement
++
que A ∈ Sn−1 (R) ?
3. On note Uapprox la solution du système linéaire AX = b. Montrer que
1
|U − Uapprox |2 = O( )
n2
On construit ainsi, en résolvant un système linéaire, une approximation de la solution u
aux points xi , avec une erreur d’approximation en 1/n2 .
∂u ∂ 2u
(x, t) − 2 (x, t) = f (x, t), 0 < x < 1, t>0
∂t ∂x
u(0, t) = 0, u(1, t) = 0
u(x, 0) = u0 (x), 0 ≤ x ≤ 1
qui modélise l’évolution dans le temps de la température u(x, t) le long d’une barre main-
tenue à température 0 en ses extrémités x = 0, x = 1. f représente la densité de source
de chaleur. u0 représente la température initiale le long de la barre, supposée connue. On
admet qu’il existe une unique solution est qu’elle est de classe C 4 . On ne sait en général
pas la calculer. On fixe encore n ≥ 1 et un pas de temps ∆t > 0. On définit les xi comme
à la section précédente et, pour tout entier j ≥ 0
u(x1 , tj ) f (x1 , tj )
tj , j∆t , j
U , .. ∈ Rn−1 ,
j
b , .. ∈ Rn−1
. .
u(xn−1 , tj ) f (xn−1 , tj )
6
2. Montrer qu’on a aussi
1 1 j
( I + A)U j+1 = U + bj+1 + O(∆t ) + O(∆2x )
∆t ∆t
Ce schéma de discrétisation est dit implicite.
j
Dans les deux cas, on va calculer des approximations Uapprox de U j en négligeant les termes
0
en O, et en partant de U = (u0 (xi ))1≤i≤n−1 connu. Le but étant d’avoir
lim |U j − Uapprox
j
|=0 (5)
∆x ,∆t →0
7
Exemple 5. Appliquer la méthode d’élimination de Gauss à
0 2 3 1
A = 1 4 1 , b= 8
2 1 −1 5
2.2.2 Décomposition LU
Si qk n’est jamais nul, il n’y a pas de matrice de transposition donc G = Tn−1 . . . T1 ∈
T In (K) et en notant
−1
L , G−1 = T1−1 . . . Tn−1 ∈ T In (K)
on a
A = LU
La décomposition LU de A n’est donc rien d’autre que la mise en œuvre de la méthode
de Gauss dans ce cas. Comme on va le voir, le fait que qk n’est jamais nul se lit sur les
mineurs principaux de A.
Théorème 2. On suppose que les mineurs principaux de A sont tous non nuls. Il existe
alors un unique couple de matrices (L, U ) avec L ∈ T In1 (K) et U ∈ T Sn (K) inversible
telles que A = LU .
8
Remarque 5. Les notations L et U se rapportent aux termes anglais lower et upper.
−3 0 1 3 0 1 0 4 1
Ax = b
Ly = b, Ux = y
pour un coût en n2 . C’est le cas par exemple pour la résolution approchée d’EDP (Sec-
tion 2.1.4) ou bien du calcul de A−1 présenté dans l’exercice qui suit.
Exercice 6. On suppose que les mineurs principaux de A sont tous non-nuls. Proposer
une méthode de calcul de A−1 en 4n3 /3. (En fait, on peut réduire la complexité à n3 ).
9
2.2.3 Factorisation de Cholesky [AK]
C’est une sorte de décomposition LU pour les matrices hermitiennes définies positives.
Théorème 3. On suppose A ∈ Hn++ (K). Il existe une unique B ∈ T In++ (K) telle que
A = BB ∗
1 2 2
Algorithmique 5. On retiendra que Cholesky est deux fois plus rapide que LU (donc
en n3 /6) tout en offrant le même avantage de ramener à une cascade de deux systèmes
triangulaires
By = b, B ∗ x = y
Aussi, on la préférera toujours à la décomposition LU lorsque A ∈ Hn++ (K), ce qui est le
cas dans beaucoup d’applications (Cf. Section 2.1).
Notons que cette factorisation permet un calcul du déterminant dans Hn++ (K) en n3 /6.
Exercice 8. On revient sur le problème aux moindres carrés (Section 2.1.2). On suppose
n ≥ m et A de rang m. Donner le coût de la résolution du problème à l’aide de l’équation
normale.
10
2.3 Méthodes itératives
Ces méthodes ne permettent qu’un calcul approché de la solution x# , mais sont rapides
comparées aux méthodes directes. Le principe de base est de décomposer A en
A=M −N
Ax = b ⇔ Mx = Nx + b ⇔ x = M −1 (N x + b)
M xk+1 = (N xk + b)
1 1 2 0 0 2 −1 −1 0
Exercice 10. On suppose que A est à diagonale strictement dominante. Montrer que la
méthode de Jacobi est convergente.
11
2.3.2 Méthode de Gauss-Seidel
Dans cette méthode M est la partie triangulaire inférieure de A, par exemple
1 2 0 1 0 0 0 −2 0
A = 2 13 2 , M = 2 13 0 , N = 0 0 −2
1 1 2 1 1 2 0 0 0
3. Conclure
Remarque 10. On vient en fait de montrer que, de manière générale, la méthode est
convergente si A ∈ Hn++ (K) et M ∗ + N ∈ Hn++ (K).
Remarque 11. Un raffinement de la méthode de Gauss-Seidel consiste à pondérer la
diagonale de A dans M par un facteur ω1 . Par exemple pour ω = 13
1 2 0 3 0 0 2 −2 0
A = 2 13 2
, M = 2 39 0
, N = 0 26 −2
1 1 2 1 1 6 0 0 4
xk+1 = xk − α(Axk − b)
12
2
2. Montrer que la méthode du gradient converge si et seulement si 0 < α < .
ρ(A)
3. Montrer que la valeur
2
α=
λ1 + λn
minimise ρ(M −1 N ) qui vaut alors
λn − λ1
ρ(M −1 N ) =
λn + λ1
Exercice 13. On suppose A ∈ Sn++ (R). Une variante de la méthode du gradient consiste
à faire varier α à chaque pas, en choisissant αk qui minimise la fonction
Remarque 12. Ces deux méthodes sont délaissées au profit de l’algorithme beaucoup
plus efficace du gradient conjugué, dans lequel les directions de descente sont itérativement
orthonormées pour le produit scalaire induit par A sur Rn . Voir [AK, Chapitre 9] pour un
exposé détaillé.
2.4 Conditionnement
En pratique, la précision de A et b est limitée par la représentation des nombres en
machine qui induit d’inévitables erreurs d’arrondi. Il se peut aussi que A et b ne soient pas
connus parfaitement. C’est typiquement le cas s’ils représentent des mesures de quantité
physique par des capteurs, nécessairement corrompues par du bruit, ou bien si on a fait
une approximation par rapport à un autre système comme aux Sections 2.1.3 et 2.1.4. Ceci
peut avoir des conséquences significatives sur la solution du système.
8 6 4 1 8 0
1 4 5 1 10 0
A= , b= ⇒ x# =
8 4 1 1 2 2
1 4 3 6 6 0
13
En modifiant légèrement le second membre, on obtient une solution très différente
8 6 4 1 8.05 2
1 4 5 1 10 −5.225
A= , b= ⇒ x# =
8 4 1 1 2 5.5
1 4 3 6 6 1.4
On va voir que l’impact de ces erreurs d’arrondi sur la solution est liée au conditionne-
ment de la matrice A.
Définition 3. Soit |·| une norme sur Kn . Le conditionnement de A associé à la norme
induite k·k est
condA = kAk A−1 ≥ 1
Lorsqu’on considère la norme p, on note condp A.
Proposition 5. v
u λmax (A∗ A)
u
cond2 (A) = t
λmin (A∗ A)
Si A est normale
|λmax (A)|
cond2 (A) =
|λmin (A)|
Si O ∈ Un (K)
cond2 (O) = 1, cond2 (AO) = cond2 (OA) = cond2 (A)
Exercice 14.
1. Soit δb une perturbation du second membre et δx tel que A(x# + δx) = b + δb.
Montrer que
|δx| |δb|
≤ condA
|x# | |b|
2. Montrer qu’il existe b et δb tels que l’égalité ait lieu. En ce sens, l’inégalité est opti-
male.
3. Soit δA une perturbation de la matrice et δx tel que (A + δA)(x# + δx) = b. Montrer
que
|δx| kδAk
≤ condA
|x# + δx| kAk
et que cette inégalité est optimale pour un certain choix de b et δA.
Remarque 13. Ainsi, il est préférable que le conditionnement de A soit proche de 1.
Ceci est d’autant plus vrai pour les méthodes itératives où les erreurs sont propagées et
amplifiées à chaque itération. La technique du préconditionnement consiste à considérer un
système linéaire équivalent
CAx = Cb
où cond(CA) < condA. Il existe plusieurs méthodes pour choisir C. Certaines reposent sur
des outils de factorisation de type LU . On pourra consulter à ce sujet [AK, Chapitre 5].
14
Remarque 14. Les inégalités de l’Exercice 14 sont certes optimales, mais elles sont en
général très pessimistes (on dit aussi conservatives). Ainsi dans l’Exemple 7 on a
|δx|2 |δb|2
' 964
|x# |2 |b|2
Exercice 15. [AK, page 95] On va analyser la matrice A du Laplacien discrétisé (Sec-
tion 2.1.3) à la lumière de la Remarque 14.
1. Montrer que
4n2
cond2 A ∼
n→∞ π 2
de sorte que, quand n est grand, la matrice est très mal conditionnée.
2. En notant x# = Uapprox , montrer que
1 #2 Z1 2 1 2 Z1 2
lim
n→∞ n
x = u (x)dx, lim |b|2 =
n→∞ n
f (x)dx
2 0 0
3. Montrer enfin qu’il existe une constante c > 0 indépendante de n telle que
|δx|2 |δb|2
≤c
|x |2
# |b|2
3.1 Exemples
3.1.1 Racines d’un polynôme
Calculer les valeurs propres d’une matrice revient à chercher les racines de son polynôme
caractéristique. Inversement, les racines d’un polynôme
n−1
n
ck X k ∈ Kn [X]
X
P =X +
k=0
15
sont les valeurs propres de la matrice compagnon associée dans
0 . . . 0 −c0
. . ..
1 . . ..
.
C(P ) = ∈ Mn (K)
.. ..
. 0 .
1 −cn−1
Aussi, il est illusoire d’espérer des méthodes générales de calcul exact de valeur propre.
Il n’est pas aisé de manipuler des données que l’on ne sait pas visualiser. Aussi, on cherche
à représenter ce nuage de points dans un espace de petite dimension d (typiquement d = 2
ou 3) en perdant “peu” d’information. Quitte à centrer les X k , on considère que
m
Xk = 0
X
k=1
16
Γ (on dit aussi les composantes principales). λi est la variance (ou dispersion) du nuage de
points dans la direction Vi .
Si λi est petit, les points sont peu dispersés dans la direction Vi et on ne perd pas grand
chose à considérer que le nuage est contenu dans le plan orthogonal à Vi . On sélectionne
alors les d plus grandes valeurs propres λ1 ≥ · · · ≥ λd et on projette le nuage de points
dans l’espace engendré par V1 , . . . , Vd :
d D E
Yk = Vi , X k Vi
X
i=1
k1 k2 k3
m m m
17
3.2 Etude qualitative du spectre
3.2.1 Domaine de Gershgörin [Ser]
Définition 4. Pour 1 ≤ i ≤ n on note Di le disque fermé de centre ai,i et de rayon
j6=i |ai,j |. On appelle domaine de Gershgörin de A
P
n
[
G(A) , Di
i=1
Sur cet exemple, les seuls disques qui contiennent deux valeurs propres sont ceux qui
s’intersectent. Les autres en contiennent une et une seule. Ce phénomène, qui n’est pas
anodin, est l’objet de l’exercice suivant.
Exercice 17. On note E une composante connexe de G(A) et p le nombre de disques Di
inclus dans E. Ainsi, dans l’Exemple 8, G(A) a 3 composantes connexes
D1 (p = 1), D2 (p = 1), D3 ∪ D4 (p = 2)
Le but de l’exercice est de montrer que E contient exactement p valeurs propres de A
(comptées avec leur ordre de multiplicité algébrique).
A cet effet, on note D la diagonale de A et, pour tout 0 ≤ r ≤ 1
Ar , rA + (1 − r)D
On note enfin m(r) le nombre de valeurs propres de Ar dans E. On cherche donc à montrer :
m(1) = p.
18
1. Montrer que m(0) = p.
2. Montrer que G(Ar ) ⊂ G(A).
3. On suppose qu’il existe γ une arc simple C 1 par morceaux orienté positivement sé-
parant E (à l’intérieur) de G(A)\E (à l’extérieur). Montrer que
Z
χ0r (z)
m(r) = dz
γ χr (z)
où χr est le polynôme caractéristique de Ar .
4. En déduire que m est continue et conclure.
5. Application. On suppose que les disques Di sont deux-à-deux disjoints. Montrer
que A est diagonalisable.
6. Proposer une configuration où un tel arc γ n’existe pas. Comment peut-on conclure
dans ce cas ?
Citons pour finir un résultat de [Ser] sur le domaine de Gershgörin d’une matrice A irré-
ductible : si une valeur propre est sur la frontière de G(A), c’est un point d’intersection de
tous les cercles.
Axk
x 0 ∈ Kn , xk+1 =
|Axk |2
19
Exercice 19. On suppose que A est diagonalisable à valeurs propres réelles
|λ1 | ≤ · · · ≤ |λn−1 | < |λn |, avec λn > 0
On note e1 , . . . , en une base de vecteurs propres normés associés, et on décompose
n
x0 =
X
βi ei
i=1
βn
On suppose βn 6= 0. Quitte à changer en en e ,
|βn | n
on peut supposer βn > 0.
1. Montrer que
|λn−1 |
xk = en + O(τ k ), τ=
|λn |
k
Ainsi, x converge (au moins) linéairement vers un vecteur propre de A pour λn , au
taux de convergence τ .
2. Montrer que
Axk = λn + O(τ k )
2
3. On suppose e1 , . . . en orthonormée. Montrer que
Axk = λn + O(τ 2k )
2
20
3.3.3 Méthode QR [Ser]
Théorème 5. Soit A ∈ GLn (K). Il existe un unique couple de matrices (Q, R) avec
Q ∈ Un (K) et R ∈ T Sn++ (K) telles que
A = QR
Ceci définit un homéomorphisme de GLn (K) sur Un (K) × T Sn++ (K).
Exercice 21. On va prouver le Théorème 5.
1. Sous réserve d’existence, montrer l’unicité
2. Montrer l’existence. On pourra par exemple s’intéresser à la matrice A∗ A.
3. Montrer que la factorisation QR définit bien un homéomorphisme.
Remarque 17. C’est une version matricielle du procédé d’orthonormalisation de Gram-
Schmidt appliqué aux colonnes de A.
21
3. Montrer que
Dk LD−k = I + O σ k
où
λj+1
σ = max
j λj
En déduire
Qk Rk = QBk RDk U
avec Bk = I + o(1)
4. On note Bk = Ok Tk la factorisation QR de Bk . Montrer que
Qk = QOk , Rk = Tk RDk U
5. Montrer enfin
(Qk ) → I, (Rk ) → RDR−1
et conclure.
Remarque 18. Attention, dans l’exercice précédent la partie supérieure stricte de Ak
converge. Ce n’est pas le cas en général. Ceci est du au fait qu’on a supposé les valeurs
propres de A et les éléments diagonaux de U strictement positifs.
Algorithmique 7. En pratique, le taux de convergence σ peut être proche de 1, surtout
pour des matrices de grande taille. Pour accélérer la convergence, on peut faire une approxi-
mation des valeurs propres par la méthode QR puis utiliser la puissance inverse comme
présenté à l’Exercice 20 pour les dernières itérations. Ceci permet en outre de calculer des
vecteurs propres.
Algorithmique 8. 1. Le calcul de la factorisation QR par le procédé de Gram-Schmidt
est en n3 mais cet algorithme a tendance à propager des erreurs d’arrondi. En pra-
tique, on la calcule plutôt par l’algorithme de Householder [AK, Chapitre 7], qui
consiste à multiplier A par n − 1 matrices de symétrie orthogonale par rapport à des
hyperplans bien choisis. Cette méthode est plus stable numériquement et plus rapide,
en 2n3 /3.
2. On pourrait penser à utiliser la factorisation A = QR pour résoudre un système
linéaire Ax = b. En effet, on est ramené au système triangulaire
Rx = Q∗ b
Elle n’est jamais utilisée dans ce but car, même avec l’algorithme de Householder, la
factorisation QR est deux fois plus lente que la méthode d’élimination de Gauss.
3. Dans le cadre du calcul de valeur propres, où on itère des factorisation QR, il est
préférable de mettre A sous une forme réduite (dite de Hessenberg) pour un coût
en 5n3 /3. Le calcul de la factorisation à chaque étape est alors en 4n2 . On pourra
consulter à ce sujet [Ser, Chapitre 10].
4. On peut étendre la factorisation QR à des matrices non-carrées. C’est une des mé-
thodes de résolution d’un problème aux moindres carrés présentées dans [AK, Cha-
pitre 7].
22
3.3.4 Autres méthodes
Citons enfin deux méthodes qui s’appliquent à des matrices symétriques réelles [Cia,
Chapitre 6].
— Jacobi, qui permet de calculer les valeurs propres et vecteurs propres
— Givens-Householder, qui s’appuie sur les suites de Sturm.
Références
[AK] G. Allaire and S. M. Kaber. Algèbre linéaire numérique. Ellipses, 2002.
23
ENS Cachan Mathématiques
Préparation à l’agrégation Année 2015/2016
Exercice 7.
A = B1 B1∗ = B2 B2∗
On a −1 ∗
B1−1 B2 = B1−1 B2
Donc
B1−1 B2 ∈ T In++ (K) ∩ Un (K) = {I}
et B1 = B2 .
2. A ∈ Hn++ (K) donc par le critère de Sylvester, les mineurs principaux de A sont
strictement positifs. On conclut immédiatement.
3. On a
A = LU = LD2 D−2 U
et ∗
A = A∗ = D−2 U D 2 L∗
avec ∗
D−2 U ∈ T In1 (K), D2 L∗ ∈ T Sn (K)
Par unicité de la décomposition LU de A, D−2 U = L∗ et finalement
Exemple 6.
1 2 1 1 0 0 1 2 1
2 13 2 = 2 3 0 0 3 0
1 2 2 1 0 1 0 0 1
1
Exercice 8. L’équation normale est
A> Ax = A> b
Exercice 11.
M = −N ∗ + D
De plus, A est définie positive donc ses coefficients diagonaux sont strictement positifs
(pour le vérifier il suffit de calculer x∗ Ax pour x vecteur de la base canonique). Bref
M ∗ + N = D∗ = D ∈ Hn++ (K)
2.
2 D E
M −1 N x = AM −1 N x, M −1 N x
A
D E
= AM −1 (M − A) x, M −1 (M − A) x
D E D E D E
= hAx, xi − AM −1 Ax, x − Ax, M −1 Ax + AM −1 Ax, M −1 Ax
D E D E D E
= |x|2A − M −1 Ax, Ax + Ax, M −1 Ax − AM −1 Ax, M −1 Ax
Notons alors y = M −1 Ax 6= 0. On a
D E D E D E
M −1 Ax, Ax + Ax, M −1 Ax − AM −1 Ax, M −1 Ax = hy, M yi + hM y, yi − hAy, yi
= h(M ∗ + M − A) y, yi
= h(M ∗ + N ) y, yi > 0
d’où la conclusion.
M −1 N <1
A
D’après l’Exercice 2, on a donc ρ(A) < 1 et par la Proposition 3, la méthode est convergente.
2
Exercice 13. Il s’agit de minimiser la fonction
α 7→ f (x − α(Ax − b))
pour x 6= A−1 b fixé. Pour simplifier on note r = Ax − b 6= 0. On a, pour α ∈ R.
1
f (x − αr) = hA (x − αr) , x − αri − hb, x − αri
2
1
= hAr, ri α2 − |r|22 α + hAx, xi − hb, xi
2
où on a utilisé le fait que A> = A. Ce polynôme de degré 2 en α admet un minimum global
en
|r|22
α=
hAr, ri
Exercice 15.
2. On a
1 2 1 n−1 i
f ( )2
X
|b|2 =
n n i=1 n
1 n−1 i f (0)2
f ( )2 −
X
=
n i=0 n n
P
On reconnait dans le terme la méthode des rectangles à gauche pour le calcul approché
de Z 1
f (t)2 dt
0
La méthode converge en supposant par exemple f de classe C 1 . On a alors
1 2 Z1
lim |b|2 = f (t)2 dt
n→∞ n 0
De même
1 Z 1
lim |U |22 = u(t)2 dt
n→∞ n 0
Par ailleurs
1
x# = U + O( )
n2
On en déduit
1 #2 Z1
lim x = u(t)2 dt
n→∞ n 2 0
3
3. On suppose que f n’est pas la fonction nulle (sinon la solution de l’équation du
Laplacien est triviale.) u n’est donc pas non plus la fonction nulle. On a déjà vu dans la
Section 2.1.3
1 1
|δx|2 ≤ |δb|2 = 2 2 π |δb|2
λ1 4n sin 2n
On a alors
|δx|2 |δb|2
≤ c n
|x# |2 |b|2
avec v
1 2
|b|2
uR
1 1u t R 0 b (t)dt
cn = 2 2 π ∼ 1 2
4n sin 2n
|x# |2 π2 0 u (t)dt
d’où le résultat.
x ∈ conv(λ1 , . . . , λp )
d’où le résultat.
Exercice 22.
1. On remarque déjà
4
Montrons alors par récurrence
Ak = Qk Rk
Pour k = 1 c’est évident. Supposons le résultat vrai pour k ≥ 1. On a
Ak+1 = AAk
= AQk Rk
= Qk Ak+1 Rk
= Qk Qk+1 Rk+1 Rk
= Qk+1 Rk+1
2.
Qk Rk = Ak
= Y −1 Dk Y
= QRDk LU
3. En conjuguant L par Dk , le coefficient d’indice (i, j) est multiplié par (λi /λj )k .
Ainsi
— les termes diagonaux restent égaux à 1
— les termes sur-diagonaux restent nuls
— les termes sous-diagonaux (i > j) sont multipliés par un coefficient ≤ σ k
d’où le résultat. Notons Bk = RDk LD−k R−1 . On a alors
Bk = R I + O(σ k ) R−1 = I + O(σ k )
et
Qk Rk = QRDk LD−k R−1 RDk U = QBk RDk U
4. On a
Qk Rk = QOk Tk RDk U
avec
QOk ∈ Un (K), Tk RDk U ∈ T Sn++ (K)
Par unicité de la factorisation QR, il vient
Qk = QOk , Rk = Tk RDk U
5
5. (Bk ) converge vers I. La factorisation QR étant un homéomorphisme, (Ok ) et (Tk )
convergent également vers I. Ainsi
Qk = Q∗k−1 Qk = Ok−1
∗
Q∗ QOk = Ok−1
∗
Ok → I
Rk = Rk R−1 k
k−1 = Tk RD U U
−1 −(k−1) −1 −1
D R Tk−1 → RDR−1
R étant triangulaire, la diagonale de RDR−1 est D. On trouve bien les valeurs propres de
A, asymptotiquement.