02 Reduction PDF
02 Reduction PDF
02 Reduction PDF
carrées
Dans tout ce chapitre K désigne R ou C.
Théorème 1. La relation « A est semblable à B » est une relation d’équivalence sur Mn (K).
Démonstration.
Réflexivité. Soit A ∈ Mn (K). La matrice In est inversible et A = I−1
n AIn . Donc, il existe P ∈ GLn (K) telle que
A = P−1 AP ce qui montre que A est semblable à A.
2
Symétrie. Soit (A, B) ∈ (Mn (K)) . Supposons A semblable à B. Alors, il existe P ∈ GLn (K) telle que B = P−1 AP.
−1 −1
On en déduit que A = PBP−1 ou encore A = P−1 BP . La matrice P ′ = P−1 est une matrice inversible telle que
′−1 ′
A = P BP et donc B est semblable à A.
3
Transitivité. Soit (A, B, C) ∈ (Mn (K)) . Supposons A semblable à B et B semblable à C. Alors, il existe (P, P ′ ) ∈
2 −1
(GLn (K)) telle que B = P−1 AP et C = P ′−1 BP ′ . On en déduit que C = P ′−1 P−1 APP ′ = (PP ′ ) A(PP ′ ). La matrice
′′ ′ ′′−1 ′′
P = PP est une matrice inversible telle que C = P AP et donc A est semblable à C.
Si deux matrices ont même trace et/ou même déterminant et/oumême rang, ces deux matrices
ne sont pas
1 1 1 0
nécessairement semblables. Par exemple, la matrice A = et la matrice I2 = ont toutes deux une
0 1 0 1
trace égale à 2, un déterminant égal à 1 et un rang égal à 2. Pourtant, ces deux matrices ne sont pas semblables car une
matrice semblable à I2 est nécessairement égale à I2 . De manière générale, une matrice semblable à λIn , λ ∈ K,
est égale à λIn ou encore la classe de similitude d’une matrice scalaire est un singleton.
2
Théorème 4. Soit (A, B) ∈ (Mn (K)) . On suppose que A et B sont semblables. Alors, A est inversible si et seulement
si B est inversible.
Démonstration. • Si B = P−1 AP où P ∈ GLn (K), alors det(A) = det(B) et donc A est inversible si et seulement si B est
inversible.
∀p ∈ N, Bp = P−1 Ap P.
Si de plus, A est inversible, alors
∀k ∈ Z, Bk = P−1 Ak P.
Démonstration. Soit f l’endomorphisme de Kn canoniquement associé à A et soit B la base canonique de Kn . Soit B ′
B′
la base de Kn de matrice P dans la base B. Donc, P = PB . D’après les formules de changement de base,
Théorème 6. Soit (A, B, P) ∈ Mn (K) × Mn (K) × GLn (K) tel que B = P−1 AP. Alors, A est nilpotente si et seulement
si B est nilpotente et dans ce cas, A et B ont même indice de nilpotence.
Démonstration. Pour k ∈ N∗ , Bk = P−1 Ak P. Puisque P et P−1 sont inversibles, P et P−1 sont simplifiables. Par suite,
Bk = 0 ⇔ P−1 Ak P = 0 ⇔ Ak = 0,
ce qui démontre le résultat.
De plus,
Théorème 8.
diag (λi )16i6n ∈ GLn (K) ⇔ ∀i ∈ J1, nK, λi 6= 0.
−1
1
Dans ce cas, diag (λi )16i6n = diag et plus généralement,
λi 16i6n
p
∀p ∈ Z, diag (λi )16i6n = diag (λp i )16i6n .
Théorème 9.
• Dn (K) est un sous-espace vectoriel de (Mn (K), +, .) de dimension n. Une base de Dn (K) est (Ei,i )16i6n .
• Dn (K) est une sous-algèbre commutative de (Mn (K), +, . , ×).
Théorème 11.
n(n + 1)
• Tn,s (K) (resp. Tn,i (K)) est un sous-espace vectoriel de (Mn (K), +, .) de dimension . Une base de Tn,s (K)
2
(resp. Tn,i (K)) est (Ei,j )16i6j6n (resp. (Ei,j )16j6i6n ).
• Tn,s (K) (resp. Tn,i (K)) est une sous-algèbre de (Mn (K), +, . , ×).
Le théorème précédent signifie en particulier qu’une combinaison linéaire de matrices triangulaires supérieures (resp.
inférieures) est une matrice triangulaire supérieure (resp. inférieure) et un produit de matrices triangulaires supérieures
(resp. inférieures) est une matrice triangulaire supérieure (resp. inférieure). Contentons-nous de revérifier qu’un produit
de deux matrices triangulaires supérieures est une matrice triangulaire supérieure.
Soient A = (ai,j )16i,j6n et B = (bi,j )16i,j6n deux matrices triangulaires supérieures.
Soit (i, j) ∈ J1, nK2 tel que i > j. Le coefficient ligne i, colonne j de la matrice AB est
n
X
ci,j = ai,k bk,j .
k=1
Dans cette somme, si k < i, ai,k = 0 et donc ai,k bk,j = 0 et si k > i, alors k > j et donc bk,j = 0 puis ai,k bk,j = 0.
Finalement, pour tout k ∈ J1, nK, ai,k bk,j = 0 puis ci,j = 0.
n
X
Notons qu’avec un raisonnement analogue, si i = j, ci,i = ai,k bk,i = 0 + . . . + 0 + ai,i bi,i + 0 + . . . + 0 = ai,i bi,i et
k=1
donc
p
X
Théorème 13. Fk est un sous-espace vectoriel de (E, +, .).
k=1
p
X
Définition 4. La somme Fk est directe si et seulement si tout vecteur x de cette somme peut s’écrire de manière
k=1
unique sous la forme x = . . . + xp où x1 ∈ F1 , . . . , xp ∈ Fp . Dit autrement,
x1 +
!2 !
p
X Yp Xp Xp
′ ′ ′
Fk directe ⇔ ∀ (xi )16i6p , (xi )16i6p ∈ Fi , xi = xi ⇒ ∀i ∈ J1, pK, xi = xi .
k=1 i=1 i=1 i=1
Ceci peut encore s’énoncer sous la forme
p
X p
Y
Fk directe ⇔ l’application ϕ : Fi → E est injective.
k=1 i=1
p
X
(xi )16i6p 7→ xi
i=1
p
X M
Dans ce cas, la somme Fi se note F1 ⊕ . . . ⊕ Fp ou aussi Fi .
i=1 16i6p
Ainsi, si F, G et H sont trois sous-espaces d’un espace E, la somme F + G + H est directe si et seulement si F ∩ (G + H) = {0}
et G ∩ (F + H) = {0} et H ∩ (F + G) = {0} mais aussi
Si la somme est directe, il est nécessaire que l’on ait ∀i 6= j, Fi ∩ Fj = {0} mais cette condition n’est pas suffisante.
Par exemple, notons (e1 , e2 ) la base canonique de R2 puis posons D1 = Vect (e1 ), D2 = Vect (e2 ) et
D3 = Vect (e1 + e2 ). On a D1 ∩ D2 = D1 ∩ D3 = D2 ∩ D3 = {0}. Pourtant, la somme D1 + D2 + D3 n’est pas directe car
le vecteur e1 + e2 est un vecteur de D1 + D2 + D3 pouvant se décomposer de plusieurs manières distinctes comme somme
d’un vecteur de D1 , d’un vecteur de D2 et d’un vecteur de D3 :
1 1 1
e1 + e2 = 0.e1 + 0.e2 + 1. (e1 + e2 ) = 1.e1 + 1.e2 + 0. (e1 + e2 ) = .e1 + .e2 + . (e1 + e2 ) .
2 2 2
Démonstration du théorème 14.
p
X X Y
1) • Supposons la somme Fi directe. Soit i ∈ J1, pK. Soit xi ∈ Fi ∩ Fj . Alors, il existe (xj )j6=i ∈ Fj tel que
k=1 j6=i j6=i
X
xi = xj . Cette égalité s’écrit plus explicitement
j6=i
0 + . . . + |{z}
|{z} 0 + xi + |{z} 0 = x1 + . . . + xi−1 + |{z}
0 + . . . + |{z} 0 + xi+1 + . . . + xp .
|{z} |{z} |{z} |{z} |{z}
∈F1 ∈Fi−1 ∈Fi ∈Fi+1 ∈Fp ∈F1 ∈Fi−1 ∈Fi ∈Fi+1 ∈Fp
L’unicité d’une telle décomposition nous permet d’identifier terme à terme ce qui fournit en particulier xi = 0.
X
On a montré que ∀i ∈ J1, pK, Fi ∩ Fj = {0}.
j6=i
!2
X p
Y p
X p
X
• Supposons que ∀i ∈ J1, pK, Fi ∩ Fj = {0}. Soit (xi )16i6p , (xi′ )16i6p ∈ Fi tel que xj = xj′ . Soit
j6=i i=1 j=1 j=1
i ∈ J1, pK. On a
X
xi − xi′ = xj′ − xj .
j6=i
X X X
Le vecteur xj′ − xj est un élément de Fj et donc le vecteur xi − xi′ est dans Fi ∩ Fj . Par suite, le vecteur xi − xi′
j6=i j6=i j6=i
est nul et donc xi = xi′ .
p
X
Ceci montre que la somme Fi est directe.
i=1
p
X X X X
2) • Supposons la somme Fi directe. Soit i ∈ J2, pK. D’après 1), Fi ∩ Fj ⊂ Fi ∩ Fj = {0} et donc Fi ∩ Fj = {0}.
k=1 j<i j6=i j<i
M
Définition 5. Les sous-espaces F1 , . . . , Fp sont supplémentaires dans E si et seulement si Fi = E.
16i6p
Il revient au même de dire que les sous-espaces F1 , . . . , Fp sont supplémentaires dans E si et seulement si tout vecteur
x de E peut s’écrire de manière unique sous la forme x = x1 + . . . + xp où x1 ∈ F1 , . . . , xp ∈ Fp ou encore si et
Yp
seulement si l’application ϕ : Fi → E est bijective.
i=1
p
X
(xi )16i6p 7→ xi
i=1
Commentaire. L’application ϕ de la définition précédente est clairement linéaire et donc les sous-espaces F1 , . . . , Fp
sont supplémentaires dans E si et seulement si ϕ est un isomorphisme.
Théorème 15. On suppose de plus que dim(E) < +∞.
M Xp
1) dim
Fi = dim (Fi )
16i6p i=1
p
! p p
X X X
2) dim Fi 6 dim (Fi ) avec égalité si et seulement si la somme Fi est directe.
i=1 i=1 i=1
M p
X
3) E = Fi ⇔ dim(E) = dim (Fi ).
16i6p i=1
Démonstration.
p
X p
X p
Y
1) Si la somme Fi est directe, Fi est isomorphe à Fi et donc
i=1 i=1 ! i=1 !
p
X p
Y p
X
dim Fi = dim Fi = dim (Fi ) .
i=1 i=1 i=1
p+1
! p
!
X X
dim Fi = dim Fi + Fp+1
i=1 i=1
p
! p
! !
X X
= dim Fi + dim (Fp+1 ) − dim Fi ∩ Fp+1
i=1 i=1
p
!
X
6 dim Fi + dim (Fp+1 )
i=1
p
X
6 dim (Fi ) + dim (Fp+1 ) (par hypothèse de récurrence)
i=1
p+1
X
= dim (Fi ) .
i=1
Donnons maintenant un résultat qui fait le lien entre bases et sous-espaces supplémentaires. On se donne E un K-espace
vectoriel de dimension finie n non nulle. On se donne ensuite F1 , . . . , Fp , p sous-espaces vectoriels de E de dimensions
toutes non nulles, où p ∈ N∗ . Pour i ∈ J1, pK, on note ni la dimension de Fi .
Pour i ∈ J1, pK, on définit Bi = (e1,i , e2,i , . . . , eni ,i ) une base de Fi puis on note B la famille de vecteurs de E obtenue
par concaténation des bases Bi :
B = e1,1 , e2,1 , . . . , en1 ,1 , e1,2 , e2,2 , . . . , en2 ,2 , . . . , e1,p , e2,p , . . . , enp ,p .
Alors,
Théorème 16.
M
E= Fi ⇔ B est une base de E.
16i6p
M M
Quand la somme E = Fi , on dit alors que la base B est une base adaptée à la décomposition E = Fi .
16i6p 16i6p
M p
X
E= Fi ⇔ ni
16i6p i=1
Pour en finir avec les résultats préparatoires au cours sur la réduction, donnons le résultat qui dit qu’un endomorphisme
est uniquement déterminé par ses restrictions à des sous-espaces supplémentaires. On revient au cas général où E est de
dimension quelconque.
Théorème 17. Soient F1 , . . . , Fp , p sous-espaces d’un K-espace vectoriel E. Soit (f, g) ∈ L (E). Alors
1) f = 0 ⇔ ∀i ∈ J1, pK, f/Fi = 0.
2) f = g ⇔ ∀i ∈ J1, pK, f/Fi = g/Fi .
Démonstration.
1) Si f = 0, alors ses restrictions aux Fi sont nulles et si les restrictions de f aux Fi sont nulles, par linéarité, f est nulle.
2) On applique le 1) à g − f.
II - Sous-espaces stables
1) Cas général
1-a) Définition
Définition 6. Soient E un K-espace vectoriel puis f un endomorphisme de E. Soit F un sous-espace vectoriel de E
F est stable par f si et seulement si f(F) ⊂ F ou encore
Commentaire. Si F est stable par f, alors pour tout x ∈ F, f(x) ∈ F. On peut alors définir l’application fe : F → F .
x 7 → f(x)
fe est linéaire et donc fe ∈ L (F). fe n’est pas tout à fait la restriction f/F de f à F car cette restriction est f/F : F → E .
x 7 → f(x)
D’où le vocabulaire « f/F induit un endomorphisme de F » et non pas « f/F est un endomorphisme de F ». ❏
On décrit maintenant une situation importante où des sous-espaces sont stables par un certain endomorphisme. C’est la
situation où deux endomorphismes commutent. Nous reviendrons sur cette situation dans le paragraphe « commutant
d’un endomorphisme ».
Théorème 19. Soient E un K-espace vectoriel puis f et g deux endomorphismes de E tels que g ◦ f = f ◦ g.
Alors, g laisse stable Im(f), Ker(f) et plus généralement Ker (f − λIdE ) pour tout λ ∈ K.
Démonstration. Supposons que f et g commutent.
• Montrons que Im(f) est stable par g. Pour tout x ∈ E,
g ◦ (f − λIdE ) = g ◦ f − λg = f ◦ g − λg = (f − λIdE ) ◦ g.
Puisque les endomorphismes f − λIdE et g commutent, Ker (f − λIdE ) est stable par g d’après le paragraphe précédent.
Commentaire. On peut montrer directement que Ker (f − λIdE ) est stable par g de la façon suivante. Tout d’abord,
pour x ∈ E,
Un vecteur x non nul tel que f(x) soit colinéaire à x sera appelé plus loin vecteur propre de f.
λx
=
x)
f(
x
Un tout premier résultat est le fait qu’un vecteur propre est associé à une unique valeur propre :
Théorème 20. Soient E un K-espace vectoriel non nul puis f un endomorphisme de E.
Soit x un vecteur non nul. Si il existe (λ, µ) ∈ K2 tel que f(x) = λx et f(x) = µx, alors λ = µ.
Commentaire. Pour tout λ ∈ K, on a f(0) = 0 = λ.0. Pourtant, le vecteur nul n’est pas un vecteur propre de f car par
définition, un vecteur propre est non nul.
−1 4 −2 1
Exemple 1. Si A = 0 3 −2 et U = 1 , alors
−1 1 1 1
−1 4 −2 1 1
AU = 0 3 −2 1 = 1 = 1.U
−1 1 1 1 1
Donc, 1 est une valeur propre de A et U est un vecteur propre associé. ❏
Exemple 2. Soient F et G deux sous-espaces non nuls d’un espace E de dimension quelconque. On suppose que E = F ⊕ G
et on note p la projection sur F parallèlement à G.
On sait que pour tout vecteur x de F, p(x) = x = 1.x et donc 1 est valeur propre de la projection p et tout vecteur non
nul de F est un vecteur propre associé.
De même, on sait que pour tout vecteur x de G, p(x) = 0 = 0.x et donc 0 est valeur propre de la projection p et tout
vecteur non nul de G est un vecteur propre associé. ❏
Exemple 3. Soit f : K[X] → K[X] . On sait que f ∈ L (K[X]).
P 7→ P′
• Si P est un polynôme tel que deg(P) = 0 (et donc P 6= 0), alors f(P) = 0 = 0.P et donc P est un vecteur propre de f
associé à la valeur propre 0.
• Si d’autre part deg(P) > 1 et λ 6= 0, alors deg(λP) = deg(P) > deg (P ′ ) et en particulier, P ′ = f(P) 6= λP. Donc, si λ 6= 0,
λ n’est pas valeur propre de f.
Ainsi, f admet une valeur propre et une seule à savoir le nombre 0. ❏
Exemple 4. Un endomorphisme (ou une matrice) n’admet pas nécessairement de valeur propre. Par exemple, considérons
f : K[X] → K[X] . Il est clair que f ∈ L (K[X]).
P 7→ XP
Si P est un polynôme non nul et λ ∈ K, deg(f(P)) = deg(XP) = 1 + deg(P) > deg(P) > deg(λP) et en particulier, f(P) 6= λP.
Donc, il n’existe pas λ ∈ K et P ∈ K[X] \ {0} tels que f(P) = λP ou encore f n’admet ni valeur propre, ni vecteur propre.❏
Exemple 5. On peut donner un autre exemple où E est un R-espace de dimension finie. Dans E = R2 muni de sa structure
π
euclidienne canonique et de son orientation canonique, notons r la rotation d’angle . Si x est un vecteur non nul de E, r(x)
2
n’est bien sûr pas colinéaire à x et donc x n’est pas un vecteur propre de r. De nouveau, on a un exemple d’endomorphisme
n’admettant ni valeur propre, ni vecteur propre.
Le problème est plus ambigu si on analyse la matrice de r dans la base canonique orthonormée directe de R2 . Cette matrice
est
0 −1
A= .
1 0
D’après ce qui précède, cette matrice n’a pas de valeur propre
réelle.
Mais on peut penser A comme une matrice à
1 2
coefficients dans C. Si c’est le cas, on remarque que si U = (où i = −1), alors
−i
0 −1 1 i 1
AU = = =i = iU.
1 0 −i 1 −i
Donc, si on conçoit A comme un élément de M2 (C), alors A admet i pour valeur propre (complexe non réelle). ❏
Définition 9. L’ensemble des valeurs propres d’un endomorphisme f s’appelle le spectre de f et se note Sp(f).
L’ensemble des valeurs propres d’une matrice A s’appelle le spectre de A et se note Sp(A).
Commentaire 1. Pour une matrice A à coefficients réels, la notation Sp(A) peut se révéler ambigüe. Suivant que l’on
conçoive A comme une matrice à coefficients réels ou complexes, on ne cherchera que des valeurs propres réelles ou des
Dans l’exercice précédent, deux idées ont été utilisées qui méritent d’être énoncées explicitement. Ce sont les trois théorèmes
qui suivent.
Théorème 21. Soient E un K-espace vectoriel non nul puis f un endomorphisme de E.
• 0 est valeur propre de f si et seulement si f n’est pas injectif.
• ∀λ ∈ K, λ valeur propre de f ⇔ f − λIdE n’est pas injectif.
Si de plus, dim(E) < +∞, alors
• 0 ∈ Sp(f) ⇔ f ∈
/ GL(E)
• ∀λ ∈ K, λ ∈ Sp(f) ⇔ f − λIdE ∈
/ GL(E).
Démonstration. 0 ∈ Sp(f) ⇔ ∃x 6= 0/ f(x) = 0 ⇔ Ker(f) 6= {0} ⇔ f non injectif.
Plus généralement, pour λ ∈ K,
λ ∈ Sp(f) ⇔ ∃x 6= 0/ f(x) = λx ⇔ ∃x 6= 0/ (f − λIdE ) (x) = 0 ⇔ Ker (f − λIdE ) 6= {0} ⇔ f − λIdE non injectif.
Enfin, si de plus dim(E) < +∞, on sait que f − λIdE non injectif ⇔ f − λIdE ∈
/ GL(E).
x2 = x1
x2 = x1
..
..
AX = λX ⇔ . ⇔ . .
x n = x 1
x n = x 1
x1 + . . . + x1 = λx1 (n − λ)x1 = 0
Si λ 6= n, alors (S) ⇔ x1 = 0 = x2 = . . . = xn . Dans ce cas, (S) n’admet pas de solution non nulle et donc λ n’est pas
valeur propre de A.
Si λ = n, (S) ⇔ x1 = x2 = . . . = xn . Dans ce cas, (S) admet une solution non nulle comme (1, . . . , 1) par exemple. On en
déduit que λ = n est valeur propre de A.
2 ème solution.
1−λ 1 ... 1
.. .. ..
1 . . .
rg (A − λIn ) = rg
..
.. ..
. . . 1
1 ... 1 1 − λ
n−λ 1 1 ... 1
.. ..
n−λ 1−λ . .
.. .. .. ..
= rg . 1 . . . (C1 ← C1 + . . . + Cn ).
.. .. .. ..
. . . . 1
n−λ 1 ... 1 1 − λ
Si λ = n, rg (A − λIn ) < n (car la première colonne de la dernière matrice est nulle). Donc, A − nIn ∈
/ GLn (C) puis n est
valeur propre de A.
Si λ 6= n,
1 1 1 ... 1
.. ..
1 1−λ . .
rg (A − λIn ) = rg .. .. .. .. (C ← 1 C )
. 1 . . .
1
n−λ
1
.. .. .. .
. . . .. 1
1 1 ... 1 1 − λ
1 1 1 ... 1
.. ..
0 −λ 0 . .
.. .. .. .. .. (∀i ∈ J2, nK, L ← L − L ).
= rg . . . . . i i 1
.. .. .. ..
. . . . 0
0 . . . . . . 0 −λ
Si λ 6= 0 (et λ 6= n), rg (A − λIn ) = n et donc λ n’est pas valeur propre de A. Si λ = 0, rg (A − λIn ) < n et donc 0 est
valeur propre de A.
Théorème 23.
• Soient E un K-espace vectoriel non nul puis f un endomorphisme de E.
Soit (x, λ) ∈ E × K. On suppose que f(x) = λx. Alors, ∀k ∈ N, fk (x) = λk x.
• Soient A ∈ Mn (K).
Soit (X, λ) ∈ Mn,1 (K) × K. On suppose que AX = λX. Alors, ∀k ∈ N, Ak X = λk X.
Démonstration. On montre le résultat par récurrence sur k.
• Puisque f0 = IdE et que λ0 = 1, le résultat est vrai quand k = 0.
• Soit k > 0. Supposons que fk (x) = λk x. Alors, fk+1 (x) = f fk (x) = λk f(x) = λk+1 x.
Le résultat est démontré par récurrence.
On a vu (page 11) des exemples d’endomorphismes n’admettant pas de valeur propres. Dans les deux cas, f était un
endomorphisme d’un R-espace vectoriel, une fois de dimension infinie et une fois de dimension finie. Il existe pourtant une
situation où on sait à l’avance que f a au moins une valeur propre :
Théorème 24.
• Tout endomorphisme d’un C-espace vectoriel de dimension finie non nulle admet au moins une valeur propre.
• Toute élément A ∈ Mn (C) admet au moins une valeur propre.
Démonstration. Soient E un C-espace de dimension finie non nulle puis f un endomorphisme de E. D’après le théorème
22, page 12, λ ∈ Sp(f) ⇔ f − λIdE ∈ / GL(E) ⇔ det (f − λIdE ) = 0.
a1,1 − z a1,2 ... a1,n
.. ..
a2,1 a2,2 − z . .
Maintenant, z 7→ det (f − zIdE ) = ..
est une fonction polynomiale (à partir de
.. ..
. . . an−1,n
an,1 ... an,n−1 an,n − z
l’expression développée de ce déterminant). De plus, dans l’expression développée de ce déterminant, tous les termes sont
des polynômes en z sont de degré inférieur ou égal à n et un et un seul terme de ce développement est de degré n à savoir
(a1,1 − z) . . . (an,n − z). Donc det (f − zIdE ) est un polynôme de degré n(> 1).
D’après le théorème de d’Alembert-Gauss, il existe λ ∈ C tel que det (f − λIdE ) = 0. λ est une valeur propre de f.
Exercice 3. Pour a ∈ R et x ∈ R, on pose fa (x) = eax . Montrer que la famille (fa )a∈R est libre.
Solution 3. Soit E = C∞ (R, R). Soit ϕ : E → E . ϕ est un endomorphisme de l’espace vectoriel E. De plus, pour
f 7→ f ′
tout a ∈ R, ϕ (fa ) = afa . Puisque fa =
6 0, a est valeur propre de ϕ et fa est un vecteur propre de ϕ associé à la valeur
propre a.
Ainsi, la famille (fa )a∈R est une famille de vecteurs propres de ϕ associés à des valeurs propres deux à deux distinctes.
On en déduit que famille (fa )a∈R est libre.
Exercice 4. Soit E un K-espace vectoriel de dimension finie n non nulle. Soient f et g deux endomorphismes de E
vérifiant fg − gf = f.
1) Montrer que pour tout k ∈ N, fk g − gfk = kfk .
2) Soit ϕ : L (E) → L (E) . Montrer que ϕ est un endomorphisme de L (E).
h 7→ fh − hf
3) Déduire de ce qui précède que f est nilpotent.
Solution 4.
1) Le résultat est clair pour k = 0 ou k = 1. Soit k > 2.
X
k−1
fk g − gfk = fk−i gfi − fk−(i+1) gfi+1 (somme télescopique)
i=0
k−1
X k−1
X k−1
X
= fk−i−1 (fg − gf) fi = fk−i−1 ◦ f ◦ fi = fk
i=0 i=0 i=0
= kfk .
ϕ (α1 P1 + α2 P2 ) = X2 − 1 (α1 P1′ + α2 P2′ ) − 2nX (α1 P1 + α2 P2 )
= α1 X2 − 1 P1′ − 2nXP1 + α2 X2 − 1 P2′ − 2nXP2
= α1 ϕ (P1 ) + α2 ϕ (P2 ) .
On a montré que ϕ ∈ L (R2n [X]).
2) Soit λ ∈ R une éventuelle valeur propre de ϕ. Il existe P ∈ R2n [X] \ {0} tel que ϕ(P) = λP.
ϕ(P) = λP ⇔ X2 − 1 P ′ − 2nXP = λP ⇔ X2 − 1 P ′ = (2nX + λ) P
P′ 2nX + λ
⇔ = 2 (car P 6= 0)
P X −1
′
P (2n + λ)/2 (2n − λ)/2
⇔ = + .
P X−1 X+1
P′ α α
En identifiant à la décomposition en éléments simples usuelles de (si P = K (X − z1 ) 1 . . . (X − zk ) k où les K 6= 0,
P
P′ α1 αk
leszi sont des complexes deux à deux distincts et α1 + . . . + αk = n, alors = + ... + ), on voit que P
P X − z1 X − zk
2n + λ 2n − λ
est nécessairement de degré + = 2n puis que P est nécessairement de la forme K(X − 1)k (X + 1)2n−k où
∗
2 2
K ∈ R puis k ∈ J0, 2nK.
Réciproquement, pour k ∈ J0, 2nK, posons Pk = (X − 1)k (X + 1)2n−k . D’après ce qui précède, un vecteur propre de ϕ est
nécessairement de la forme KPk où k ∈ J0, 2nK et K ∈ R∗ . Or,
• ϕ (P0 ) = (2n) X2 − 1 (X + 1)2n−1 − 2nX(X + 1)2n = (2n(X − 1) − 2nX)(X + 1)2n = −2nP0 ;
• ϕ (P2n ) = (2n)(X2 − 1)(X − 1)2n−1 − 2nX(X − 1)2n = (2n(X + 1) − 2nX)(X − 1)2n = 2nP2n ;
• Pour k ∈ J1, 2n − 1K,
ϕ (Pk ) = X2 − 1 k(X − 1)k−1 (X + 1)2n−k + (2n − k)(X − 1)k (X + 1)2n−k−1 − 2nX(X − 1)k (X + 1)2n−k
= (k(X + 1) + (2n − k)(X − 1) − 2nX) (X − 1)k (X + 1)2n−k = 2(k − n)Pk ,
ce qui reste vrai pour k = 0 ou 2n. Puisque chaque Pk est non nul, ceci montre que les nombres 2(k − n), k ∈ J0, 2nK,
sont valeurs propres de ϕ.
En résumé, une valeur propre de ϕ est nécessairement de la forme λk = 2(k − n) pour k ∈ J0, 2nK et réciproquement,
chaque λk , k ∈ J0, 2nK, est valeur propre de ϕ. On a montré que
2) Sous-espaces propres
Théorème 27.
• Soit E un K-espace vectoriel et f un endomorphisme de E.
Pour λ ∈ K, l’ensemble des vecteurs x de E tels que f(x) = λx est un sous-espace vectoriel de E.
• Soit A ∈ Mn (K).
Pour λ ∈ K, l’ensemble des vecteurs colonnes X tels que AX = λX est un sous-espace vectoriel de Mn,1 (K).
Démonstration. On démontre le résultat pour une endomorphisme f. Soient λ ∈ K et x ∈ E.
Définition 10.
• Soit E un K-espace vectoriel non nul puis f un endomorphisme de E.
Soit λ ∈ K une valeur propre éventuelle de f. Le sous-espace propre de f associé à la valeur propre λ est
Eλ (f) = Ker (f − λIdE ) (ou plus simplement Eλ = Ker (f − λIdE )).
• Soit A ∈ Mn (K).
Soit λ ∈ K une valeur propre éventuelle de A. Le sous-espace propre de A associé à la valeur propre λ est
Eλ (A) = Ker (A − λIn ) (ou plus simplement Eλ = Ker (A − λIn )).
Par définition d’une valeur propre,
Théorème 28.
• λ est valeur propre de f ∈ L (E) si et seulement si Ker (f − λIdE ) 6= {0}.
• λ est valeur propre de A ∈ K si et seulement si Ker (A − λIn ) 6= {0}.
Commentaire 1. Quand λ n’est pas une valeur propre de f, Ker (f − λIdE ) = {0}. Dans ce cas, Ker (f − λIdE ) n’est pas
un sous-espace propre de f.
Commentaire 2. Quand λ est une valeur propre de f, par définition, le sous-espace propre Eλ (f) = Ker (f − λIdE ) associé
à λ n’est pas réduit à {0}. Dans ce cas, on trouve dans Eλ deux types de vecteurs : d’une part le vecteur nul et d’autre
part les vecteurs propres de f associés à la valeur propres λ (vecteurs propres qui sont par définition non nuls).
Commentaire 3. Pour tout x de Eλ (f), f(x) = λx. Donc, la restriction de f à Eλ (f) « est » l’homothétie de rapport λ.
Exercice 6. Soient f et g deux endomorphismes d’un C-espace vectoriel E de dimension finie non nulle. On suppose
que g ◦ f = f ◦ g. Montrer que f et g ont un vecteur propre en commun.
Solution 6. Puisque E est un C-espace vectoriel de dimension finie non nulle, f admet au moins une valeur propre λ. Par
définition, Eλ = Ker (f − λIdE ) n’est pas réduit à {0}.
Eλ → Eλ est un endomorphisme
Puisque g ◦ f = f ◦ g, on sait que g laisse stable Eλ . Par suite, l’application g̃ :
x 7→ g(x)
de Eλ . Puisque Eλ est un C-espace vectoriel de dimension finie non nulle, g̃ admet au moins une valeur propre et donc au
moins un vecteur propre x0 (associé à cette valeur propre).
x0 est par construction un vecteur propre de g. D’autre part, x0 est un vecteur non nul de Ker (f − λIdE ) et donc x0 est
un vecteur propre de f.
On a trouvé un vecteur propre commun à f et à g.
x = x1 + . . . + xp (I).
En prenant l’image des deux membres par f, on obtient
λp+1 x = λ1 x1 + λp xp (II).
Puis (II) − λp+1 (I) fournit
p
X
Puisque la somme Eλi est directe, on en déduit que ∀i ∈ J1, pK, (λi − λp+1 ) xi = 0 et donc ∀i ∈ J1, pK, xi = 0
i=1
car λi − λp+1 6= 0. Mais alors, (I) fournit x = 0.
p
X X
Ceci montre que Eλp+1 ∩ Eλi = {0} puis que ∀i ∈ J2, p + 1K, Eλi ∩ Eλj = {0} et finalement que la somme
i=1 j<i
p+1
X
Eλi est directe.
i=1
M p
X
f est diagonalisable ⇔ E = Eλi ⇔ n = ni .
16i6p i=1
p
X
Ceci montre tout à la fois que ni = n et donc que f est diagonalisable et aussi que ∀i ∈ J1, nK, ni = 1.
i=1
V - Polynôme caractéristique
1) Polynôme caractéristique d’une matrice
Dans la démonstration du théorème 24, page 14, on a écrit : λ ∈ Sp(f) ⇔ det (f − λIdE ) = 0. Ce faisant, nous avons fait
apparaître un polynôme (le polynôme z 7→ det (f − zIdE )) dont les racines sont les valeurs propres de f. Ce polynôme a
un défaut : son coefficient dominant est (−1)n et il n’est pas unitaire. On adopte donc la définition suivante :
λ ∈ Sp(A) ⇔ χA (λ) = 0.
Commentaire. Les racines du polynôme caractéristique de la matrice A sont les valeurs propres de A. En particulier, les
valeurs propres d’une matrice diagonale sont ses coefficients diagonaux. ❏
3 −1 −4 −3 1 4
Exemple. Soit A = 4 −2 1 . Alors −A = −4 2 −1 puis, en développant suivant la dernière ligne,
0 0 2 0 0 −2
χA = (X − λ1 )α1 . . . (X − λp )αp ,
où cette fois-ci, λ1 , . . . , λp , sont les valeurs propres deux à deux distinctes de A et α1 , . . . , αp , les ordres de multiplicité
respectifs de ces valeurs propres. ❏
Continuons à analyser les coefficients du polynôme caractéristique.
Théorème 36. Soit A ∈ Mn (K).
χA = X2 − (Tr(A)) X + det(A).
Démonstration du théorème 36. Le coefficient constant de χA est sa valeur en 0. Puisque χA = det (XIn − A), le
coefficient constant de χA est det(−A) ou encore (−1)n det(A).
Pour le coefficient de Xn−1 , reprenons la démonstration du théorème 34. Quand σ 6= IdJ1,nK , il existe i ∈ J1, nK tel que
σ(i) 6= i. Posons j = σ−1 (i) de sorte que i = σ(j). j n’est pas i car sinon i = σ(i) ce qui est faux. On ne peut pas non plus
avoir σ(j) = j car alors j = σ(j) = i ce qui est faux. Mais alors, ασ(i),i = −aσ(i),i et ασ(j),j = −aσ(j),j (toujours avec les
notations de la démonstration du théorème 34). Le terme
On fait maintenant le lien entre les coefficients du polynôme caractéristique et les valeurs propres de la matrice. Dans le
théorème qui suit A est une matrice à coefficients dans C (étant entendu qu’une matrice à coefficients réels est un élément
de Mn (C)) de sorte que son polynôme caractéristique est scindé sur C d’après le théorème de d’Alembert-Gauss :
n
Y
χA = (X − λk ) .
k=1
n
X n
Y
On pose σ1 = λk , σn = λk et plus généralement, pour k ∈ J1, nK,
k=1 k=1
X
σk = λi1 . . . λik .
16i1 <i2 <...<ik 6n
Les relations entre coefficients et racines d’un polynôme scindé fournissent immédiatement :
Théorème 38. Soit A ∈ Mn (C).
Tr(A) = λ1 + . . . + λn et det(A) = λ1 × . . . × λn .
Ainsi,
et
le déterminant d’une matrice est le produit de ses valeurs propres, chacune comptée un nombre de fois
égal à son ordre de multiplicité.
2 1 1
Exemple. Soit A = 1 2 1 . 1 est valeur propre de A car rg (A − I3 ) = 1 < 3 et 4 est valeur propre de A car
1 1 2
−2 1 1
rg (A − 4I3 ) = rg 1 −2 1 = 2, la somme des colonnes de la matrice A − 4I3 étant nulle. On a donc deviné
1 1 −2
deux valeurs propres de A dans C. La dernière valeur propre λ de A est fournie par la trace de A :
1 + 4 + λ = Tr(A) = 6
et donc λ = 1. Ainsi, Sp(A) = (1, 1, 4) ou encore χA = (X − 1)2 (X − 4). ❏
Exercice 7. Soit A ∈ GLn (K). Soit λ ∈ K \ {0}. Montrer que
1
λ valeur propre de A ⇔ valeur propre de A−1 .
λ
Solution 7. Puisque A ∈ GLn (K), on sait que 0 n’est pas valeur propre de A.
Soit λ ∈ K \ {0}. Si λ est une valeur propre de A, alors il existe X ∈ Mn (K) \ {0} tel que AX = λX. En multipliant les
1 1 1
deux membres de cette égalité par A−1 à gauche, on obtient X = A−1 X. Puisque X 6= 0, ceci montre que est valeur
λ λ λ
propre de A−1 .
1 −1
Réciproquement, si λ est une valeur propre de A−1 , alors est valeur propre de A−1 = A. On a montré que
λ
1
λ valeur propre de A ⇔ valeur propre de A−1 .
λ
1 −1 1 1
AX = λX ⇔ A × AX = A−1 × λX ⇔ A−1 X = X.
λ λ λ
1
Ceci redémontre que λ est valeur propre de A si et seulement si est valeur propre de A−1 mais établit un résultat plus
λ
1
précis : si λ est valeur propre de A (et donc est valeur propre de A−1 ), alors
λ
Eλ (A) = E 1 A−1
λ
où Eλ (A) est le sous-espace propre de A associé à la valeur propre λ et E 1 A−1 est le sous-espace propre de A−1 associé
λ
1
à la valeur propre . ❏
λ
1
Commentaire 2. L’exercice 7 montre que Sp A−1 = , λ ∈ Sp(A) ou encore l’exercice 7 fournit l’ensemble des
λ
valeurs propres de A−1 . Mais cet exercice ne dit rien de l’ordre multiplicité de chaque valeur propre. L’exercice suivant
précise le résultat en fournissant la famille des valeurs propres de A−1 . ❏
Exercice 8. Soit A ∈ GLn (C). Exprimer le polynôme caractéristique de A−1 en fonction du polynôme caractéristique
de A. En déduire que
−1
1 1
si Sp(A) = (λ1 , . . . , λn ), alors Sp A = ,..., .
λ1 λn
−1
−1 1 (−X)n 1
χA−1 = det XIn − A = det −XA In − A = χA .
X det(A) X
Supposons de plus que Sp(A) = (λ1 , . . . , λn ), alors
(−X)n 1 1 X 1 X 1
χA−1 = − λ1 . . . − λn = − − λ1 ... − − λn
λ1 . . . λn X X λ1 X λn X
1 1
= X− ... X − .
λ1 λn
−1
1 1
Ceci montre que Sp A = ,..., .
λ1 λn
2
Théorème 40. ∀(A, B) ∈ (Mn (K)) , χAB = χBA .
χAB = det (XIn − AB) = det A−1 (XIn − AB) A = det (XIn − BA)
χBA .
• Supposons maintenant A non inversible. La matrice A − xIn est inversible sauf peut-être pour un nombre fini de valeurs
de x à savoir quand x est une valeur propre de A. Donc, pour tout x sauf peut-être un nombre fini,
Démonstration. Soit (A, B, P) ∈ Mn (K) × Mn (K) × GLn (K) tel que B = P−1 AP.
Commentaire. Dire que deux matrices ont même polynôme caractéristique revient à dire que ces deux matrices ont
même famille de valeurs propres ou encore ont mêmes valeurs propres avec les mêmes ordres de multiplicité. ❏
Deux matrices qui ontle mêmepolynôme caractéristique
ne sont pas nécessairement semblables.
1 1 1 0
Par exemple, si A = et B = = I2 , alors A et B ont même polynôme caractéristique à savoir
0 1 0 1
(X − 1)2 . Pourtant, ces deux matrices ne sont pas semblables car une matrice semblable à I2 est égale à I2 (et A n’est pas
égale à I2 ).
❏
Exercice 9. Trouver le polynôme caractéristique d’un endomorphisme nilpotent d’un K-espace vectoriel de dimension
finie non nulle.
Solution 9. Soit f un endomorphisme nilpotent d’un K-espace vectoriel de dimension finie n non nulle. On a vu dans
l’exercice 1, page 12, que 0 est l’unique valeur propre de f ou encore la famille des valeurs propres de f est (0, . . . , 0). On
en déduit que
χf = Xn .
Exercice 10. Soit E un K-espace vectoriel de dimension finie non nulle. Soient F et G deux sous-espaces de E
supplémentaires dans E. Soient p la projection sur F parallèlement à G et s la symétrie par rapport à F parallèlement
à G.
Déterminer χp et χs .
Solution 10. Notons r la dimension de F (et donc dim(G) = n−r). Soit B une base adaptée à la décomposition E = F⊕ G.
VI - Diagonalisation
1) Une condition nécessaire et suffisante de diagonalisabilité
Dans ce qui suit suit, l’ordre de multiplicité d’une valeur propre λ sera noté o(λ).
Théorème 42.
• Soit f un endomorphisme d’un K-espace vectoriel de dimension finie non nulle. Soit λ une (éventuelle) valeur propre
de f. Alors,
Démonstration. Notons p la dimension de Eλ (f). Par définition d’une valeur propre, Eλ (f) 6= {0} et donc p > 1. Soit
(e1 , . . . , ep ) une base de Eλ que l’on complète éventuellement en B = (e1 , . . . , en ) base de E. La matrice de f dans B est
de la forme
λIp C
A= .
0 B
Un calcul par blocs fournit alors
Commentaire 1. On peut se demander si la démonstration précédente n’a pas en fait permis d’établir que
o(λ) = p. Ce
1 1 1
n’est pas le cas car λ peut encore être racine de χB . Considérons par exemple la matrice A = 0 1 0 . Le polynôme
0 0 2
caractéristique de A est χA = (X − 1)2 (X − 2). 1 est donc valeur propre d’ordre 2. Maintenant, d’après le théorème du
rang
0 1 1
dim (Ker (A − I3 )) = 3 − rg (A − I3 ) = 3 − rg 0 0 0 = 3 − 2 = 1.
0 0 1
x
Donc, dim (E1 (A)) = 1 < 2. Si on n’est toujours pas convaincu, on peut déterminer explicitement E1 (A). Soit X = y .
z
x+y+z= x
z=0
AX = X ⇔ y=y ⇔
y=0
2z = z
1
Donc, E1 (A) est la droite vectorielle engendrée par le vecteur 0 . ❏
0
Commentaire 2. Le théorème 42 fournit un encadrement de la dimension d’un sous-espace propre. Par exemple, si
χA = (X − 1)2 (X − 2), la dimension du sous-espace propre associé à la valeur propre 1 est 1 ou 2. Mais lu en sens inverse,
le théorème 42 fournit une minoration de l’ordre de multiplicité d’une valeur propre :
na = Tr(A) = (a − b) + . . . + (a − b) +λ
| {z }
n−1
et donc λ = na − (n − 1)(a − b) = a + (n − 1)b. Ainsi, Sp(A) = (a − b), . . . , (a − b), a + (n − 1)b puis
| {z }
n−1
En particulier,
E = Eλ1 ⊕ . . . ⊕ Eλp ,
où λ1 , . . . , λp sont les valeurs propres
M deux à deux distinctes de f. Pour i ∈ J1, pK, posons ni = dim (Eλi ). Dans une base
B adaptée à la décomposition E = Eλi , la matrice de f est
16i6p
D = diag λ1 , . . . , λ1 , . . . , λp , . . . , λp .
| {z } | {z }
n1 np
p
Y
Mais alors, χf = χD = (X − λi )ni . En particulier, χf est scindé sur K et l’ordre de multiplicité de chaque valeur propre
i=1
est égal à la dimension du sous-espace propre correspondant.
3 −1 0
Exemple 1. Soit A = 9 −3 0 . χA = X2 (X − 4). χ est scindé sur R. A admet 4 pour valeur propre simple et 0
0 0 4
pour valeur propre double. Le sous-espace propre associé à la valeur propre 4 est obligatoirement une droite vectorielle.
Le sous-espace propre associé à la valeur propre 0 est de dimension 1 ou 2.
rg(A) = 2 et donc dim (E0 ) = dim (Ker(A)) = 1 < 2. La matrice A n’est pas diagonalisable. ❏
0 −1
Exemple 2. Soit A = . χA = X2 + 1. χA n’est pas scindé sur R. Donc, la matrice A n’est pas diagonalisable
1 0
dans R. Par contre, χA = (X − i)(X + i) est scindé sur C à racines simples. Donc, la matrice A est diagonalisable dans C.❏
1 a b c
0 1 d e
Exercice 12. La matrice A =
0 0 2 f ∈ M4 (R) est-elle diagonalisable (dans R) ?
0 0 0 2
A est diagonalisable ⇔ a = f = 0.
2) Diagonalisation explicite
Soit A ∈ Mn (K). Dire que A est diagonalisable équivaut à dire qu’il existe D = diag (λ1 , . . . , λn ) ∈ Dn (K) et P ∈ GLn (K)
telles que A = P × D × P−1 .
A = P × D × P−1 .
Les colonnes de P « sont » donc les vecteurs e1′ , . . . ,en′ . Si on s’exprime uniquement avec un vocabulaire matriciel, alors
les colonnes C1 , . . . , Cn de P forment une base de Mn,1 (K) constituée de vecteurs propres de A. Plus précisément, si
D = diag (λ1 , . . . , λn ), C1 est un vecteur propre de A associé à la valeur propre λ1 , . . . , Cn est un vecteur propre de A
associé à la valeur propre λn .
6 2 0
Exemple. Soit A = 2 3 0 . En développant suivant la dernière colonne, on obtient
−10 −5 1
X−6 −2 0
χA = −2 X−3 0 = (X − 1) [(X − 6)(X − 3) − 4] = (X − 1) X2 − 9X + 14
10 5 X−1
= (X − 1)(X − 2)(X − 7).
χA est scindé sur R à racines simples et donc A est diagonalisable dans R. Notons (e1 , e2 , e3 ) la base canonique de
M3,1 (R).
x
Détermination de E2 (A). Soit X = y .
z
4 2 0 x 0
X ∈ E2 (A) ⇔ (A − 2I3 ) X = 0 ⇔ 2 1 0 y = 0
−10 −5 −1 z 0
4x + 2y = 0
y = −2x y = −2x
⇔ 2x + y = 0 ⇔ ⇔
z = −10x − 5(−2x) z=0
−10x − 5y − z = 0
1
Donc, E2 (A) = Vect (e1′ ) où e1′ = −2 .
0
x
Détermination de E7 (A). Soit X = y .
z
−1 2 0 x 0
X ∈ E7 (A) ⇔ (A − 7I3 ) X = 0 ⇔ 2 −4 0 y = 0
−10 −5 −6 z 0
−x + 2y = 0 x = 2y
⇔ 2x − 4y = 0 ⇔ 25
−10x − 5y − 6z = 0 z=− y
6
12
Donc, E7 (A) = Vect (e2′ ) où e2′ = 6 .
−25
Détermination de E1 (A). E1 (A) est unedroite vectorielle. La troisième colonne de A nous donne Ae3 = e3 et donc
0
immédiatement E1 (A) = Vect (e3′ ) où e3′ = 0 = e3 .
1
On peut alors utiliser cette décomposition par exemple pour calculer les puissances successives de A car An = P×Dn ×P−1
... ❏
VII - Endomorphismes ou matrices trigonalisables
On a vu dans les paragraphes précédents qu’une matrice prise au hasard n’est pas nécessairement diagonalisable. On va
voir dans cette section que par contre, toute matrice est semblable à une matrice triangulaire.
1) Définition
Définition 15.
• Soit E un K-espace vectoriel de dimension finie non nulle puis f un endomorphisme de E.
f est trigonalisable (ou triangulable) si et seulement si il existe une base de E dans laquelle la matrice de f est
triangulaire supérieure.
• Soit A ∈ Mn (K).
A est trigonalisable (ou triangulable) si et seulement si A est semblable à une matrice triangulaire supérieure.
Commentaire 1. Il est clair que f est trigonalisable si et seulement si sa matrice dans une base est trigonalisable. ❏
Commentaire 2. D’après le théorème 10, page 3, toute matrice triangulaire inférieure est semblable à une matrice
triangulaire inférieure. Dans la définition précédente, on aurait pu remplacer « triangulaire supérieure » par « triangulaire
inférieure ». ❏
Commentaire 3. Une matrice triangulaire, inférieure ou supérieure, est trigonalisable. ❏
2) Une condition nécessaire et suffisante de trigonalisabilité
Théorème 46. (une condition nécessaire et suffisante de trigonalisablité)
• Soit f un endomorphisme d’un K-espace vectoriel de dimension finie n non nulle. f est trigonalisable si et seulement
si χf est scindé sur K.
• Soit A ∈ Mn (K). A est trigonalisable si et seulement si χA est scindé sur K.
En particulier,
Théorème 47.
• Tout endomorphisme d’un C-espace de dimension finie non nulle est trigonalisable.
• Toute matrice à coefficients dans C est trigonalisable.
Puisque les λi , 1 6 i 6 n, sont dans K, ceci montre que χA est scindé sur K.
• Montrons la réciproque du résultat précédent par récurrence sur n > 1.
• Si n = 1, tout élément de Mn (K) est triangulaire et donc trigonalisable.
• Soit n > 1. Supposons que tout élément de Mn (K) dont le polynôme caractéristique est scindé sur K soit trigonalisable
(dans K).
Soit A ∈ Mn+1 (K) tel que χA soit scindé sur K. Soit f l’endomorphisme de Kn+1 canoniquement associé à A. On note
B0 la base canonique de Kn+1 .
χA est scindé sur K. En particulier, A admet au moins une valeur propre λ1 dans K. λ1 est encore une valeur propre
de f. On note e1 un vecteur propre associé.
e1 est un vecteur non nul et donc la famille (e1 ) est libre. On peut compléter cette famille en une base B1 de Kn+1 .
La matrice de f dans la base B1 s’écrit sous la forme
λ1 L
0
A′ = . ∈ Mn+1 (K),
.. A1
0
où L est un élément de M1,n (K). Les formules de changement de base fournissent P ′ ∈ GLn+1 (K) telle que
A = P ′ A ′ P ′−1 . Puisque les matrices A et A ′ sont semblables, χA = χA ′ . Un calcul par blocs fournit
χA1 = (X − λ2 ) . . . (X − λn+1 ) .
Ainsi, A1 est un élément de Mn (K) dont le polynôme caractéristique est scindé sur K. Par hypothèse
de récurrence,
1 0 ... 0
0
il existe P1 ∈ GLn (K) et T1 ∈ Tn,s (K) telles que A1 = P1 T1 P−1 . Soit P ′′ = . .
.. P1
0
1 0 ... 0
0
Puisque det(P ′′ ) = 1×det (P1 ) 6= 0, la matrice P ′′ est inversible. Un calcul par blocs montre que P ′′−1 = . .
.. P1−1
0
Un calcul par blocs fournit encore
Commentaire. Quand on a triangulé et donc écrit A sous la forme A = PTP−1 , on retrouve sur la diagonale de T la
famille des valeurs propres de A (puisque T et A ont même polynôme caractéristique). ❏
6 −6 5
Exemple. Soit A = 14 −13 10 . En développant suivant la première colonne, on obtient
7 −6 4
X−6 6 −5
χA = −14 X + 13 = (X − 6)(X2 + 9X + 8) + 14(6X + 6) − 7(5X + 5)
−10
−7 6 X−4
= (X − 6)(X + 1)(X + 8) + 49(X + 1) = (X + 1) X2 + 2X + 1
= (X + 1)3 .
Démonstration. Soit A ∈ Mn (C). A est semblable à une matrice triangulaire supérieure T dont les coefficients diagonaux
sont λ1 , . . . , λn . Mais alors, pour tout k ∈ N∗ , Ak est semblable à T k . Le théorème 12, page 4, fournit alors
Sp Ak = Sp T k = λk1 , . . . , λkn .
Si de plus, A ∈ GLn (K), alors 0 n’est pas valeur propre de A et ce qui reste précède est vrai quand k ∈ Z.
Solution 13. Les colonnes C2 , . . . , Cn−1 , de la matrice A sont colinéaires à la colonne C1 . Donc, rg (A) 6 2 puis, grâce
au théorème du rang, dim (Ker(A)) > n − 2 > 0. 0 est donc une valeur propre de A et son ordre de multiplicité est au
moins dim (Ker(A)) et donc au moins n − 2. Il manque deux valeurs propres λ et µ.
On obtient une première équation avec la trace de A :
0 + . . . + 0 + λ + µ = Tr(A) = n
Commentaire. Dans l’exercice précédent, il nous manquait deux valeurs propres λ et µ. Il nous fallait donc deux équations.
Une fois écrit λ + µ = Tr(A) = n, on pouvait avoir envie d’utiliser le déterminant de A. Malheureusement, ce déterminant
ne sert à rien car il est nul (l’équation obtenue est 0 × λ × µ = 0). ❏
Théorème 50.
• Soit E un K -espace vectoriel puis f ∈ L (E).
∀(P, Q) ∈ (K[X])2 , (P + Q)(f) = P(f) + Q(f) ;
∀P ∈ K[X], ∀λ ∈ K, (λP)(f) = λP(f) ;
∀(P, Q) ∈ (K[X])2 , (P × Q)(f) = P(f) ◦ Q(f).
• Soit A ∈ Mn (K ).
∀(P, Q) ∈ (K[X])2 , (P + Q)(A) = P(A) + Q(A) ;
∀P ∈ K[X], ∀λ ∈ K, (λP)(A) = λP(A) ;
∀(P, Q) ∈ (K[X])2 , (P × Q)(A) = P(A) ◦ Q(A).
Démonstration. On montre les différents résultats pour un endomorphisme f.
Démonstration. On fait la démonstration pour un endomorphisme f d’un K-espace vectoriel E. Soit f ∈ L (E).
• Si P est le polynôme nul, alors P(f) = 0. Donc, l’endomorphisme nul de E est dans K[f].
• Soient (P, Q) ∈ (K[X])2 et (λ, µ) ∈ K2 .
M × A = M × M2 = M3 = M2 × M = A × M.
Définition 16.
• Soient E un K-espace vectoriel puis f un endomorphisme de E.
Le commutant de f, noté C(f), est l’ensemble des endomorphismes de E qui commutent avec f.
C(f) = {g ∈ L (E)/ g ◦ f = f ◦ g} .
• Soit A ∈ Mn (K).
Le commutant de A est l’ensemble des matrices carrées qui commutent avec A.
C(A) = {B ∈ Mn (K)/ B × A = A × B} .
Exemple. Si f = λIdE , λ ∈ K, alors pour tout g de L (E),
g ◦ f = f ◦ g = λg.
Donc le commutant d’une homothétie est L (E) tout entier. De même, le commutant d’une matrice scalaire de format n
est Mn (K). L’exercice suivant montre que les matrices scalaires sont les seules matrices commutant avec toute matrice.❏
Exercice 14. Déterminer les éléments de Mn (K) qui commutent avec tous les éléments de Mn (K).
Solution 14. Soit A = (ai,j )16i,j6n ∈ Mn (K). Si A commutent avec toute matrice, alors A commute en particulier avec
les matrices élémentaires Ei,j , 1 6 i, j 6 n. Or, pour (i, j) ∈ J1, nK2 ,
X X n
X
AEi,j = ak,l Ek,l Ei,j = ak,l δl,i Ek,j = ak,i Ek,j
16k,l6n 16k,l6n k=1
0 ... 0 a1,i 0 ... 0
.. .. .. .. ..
. . . . .
=
0 0 ai,i 0 0 i-ème ligne
. .. .. .. ..
.. . . . .
0 ... 0 an,i 0 ... 0
j-ème colonne
c Jean-Louis Rouget, 2015. Tous droits réservés.
36 http ://www.maths-france.fr
et
X X n
X
Ei,j A = ak,l Ei,j Ek,l = ak,l δj,k Ei,l = aj,l Ei,l
16k,l6n 16k,l6n l=1
0 ... 0 ... 0
.. ..
. .
0 ... 0 ... 0
=
aj,1 aj,j aj,n
i-ème ligne
0 ... 0 ... 0
. ..
.. .
0 ... 0 ... 0
j-ème colonne
Si de plus, ∀ (i, j) ∈ J1, nK2 , AEi,j = Ei,j A, alors ∀k 6= l, ak,l = 0 et ∀i 6= j, ai,i = aj,j . Donc, A est nécessairement de la
forme λIn , λ ∈ K.
Réciproquement, les matrices scalaires commutent avec toute matrice.
Théorème 51.
• Soit E un K-espace vectoriel puis f ∈ L (E). C(f) est une sous-algèbre de l’algèbre (L (E), +, ., ◦).
• Soit A ∈ Mn (K). C(A) est une sous-algèbre de l’algèbre (Mn (K), +, ., ×).
Démonstration.
3) Montrer que dim(C(f)) > n avec égalité si et seulement si f a n valeurs propres simples.
Solution 15.
1) Puisque f est diagonalisable, on a E = Eλ1 (f) ⊕ . . . ⊕ Eλp (f).
Soit g ∈ L (E).
Si g ∈ C(f), on sait que ∀i ∈ J1, pK, g (Eλi ) ⊂ g (Eλi ) (théorème 19, page 8).
Réciproquement, supposons que ∀i ∈ J1, pK, g (Eλi ) ⊂ g (Eλi ). Pour i ∈ J1, pK, notons fi (resp. gi ) l’endomorphisme de
Eλi (f)) induit par f (resp. g). Pour chaque i ∈ J1, pK, fi est l’homothétie de rapport λi . Mais alors, pour tout i ∈ J1, pK,
fi et gi commutent.
3) Chaque ni est un entier supérieur ou égal à 1. Donc, ∀i ∈ J1, pK, n2i > ni . On en déduit que
p
X p
X
dim(C(f)) = n2i > ni = n (car f est diagonalisable).
i=1 i=1
De plus, on a l’égalité si et seulement si chaque inégalité écrite est une égalité. Ceci équivaut à ∀i ∈ J1, pK, n2i = ni ou
encore ∀i ∈ J1, pK, ni = 1.
Puisque f est diagonalisable, pour chaque i, ni est l’ordre de multiplicité de λi . Donc,
Exercice 16. (racines carrées d’une matrice de format 3 ayant 3 valeurs propres simples)
3 0 0
Soit A = 8 4 0 . Résoudre dans M3 (R) l’équation X2 = A.
5 0 1
√ √
2 0 0 3ε1 0 0 1/2 0 0 2 √3ε1 0 0 1/2 0 0
−16 1 0 0 2ε 0 8 1 0 = −16 8 1 0
√ 3ε1 2ε2 0
5 0 1 0 0 ε3 −5/2 0 1 5 3ε1 0 ε3 −5/2 0 1
√
√ 3ε1 0 0
= −8√ 3ε1 + 16ε2 2ε2 0 .
5( 3ε1 − ε3 )/2 0 ε3
Commentaire. Le théorème précédent fournit un polynôme non nul de degré au plus n2 et annulateur de f. Nous
améliorons plus loin ce résultat en fournissant un polynôme de degré n exactement et annulateur de f : le polynôme
caractéristique de f. ❏
Théorème 55.
• Soit E un K-espace vectoriel de dimension finie puis f ∈ L (E). Il existe un polynôme unitaire P0 et un seul tel que
Commentaire. L’hypothèse de dimension est essentielle. Considérons par exemple f : K[X] → K[X] . f est un
P 7 → P′
n
X
endomorphisme de K[X]. Supposons par l’absurde qu’il existe des nombres ak , 0 6 k 6 n, tels que ak fk = 0 et an 6= 0.
k=0
si p = 0, µp = X, si p = IdE , µp = X − 1 et si p 6= 0 et p 6= IdE , µp = X2 − X.
❏
5) Polynôme minimal et polynôme caractéristique d’un endomorphisme induit
Théorème 56.
Soient E un K-espace vectoriel de dimension finie puis f ∈ L (E). Soient F un sous-espace vectoriel de E stable par f
puis fF l’endomorphisme de F induit par f. Alors
• χfF divise χf ;
• µfF divise µf .
6) Le théorème de Cayley-Hamilton
Théorème 57. (théorème de Cayley-Hamilton)
• Soient E un K-espace vectoriel de dimension finie non nulle puis f ∈ L (E). Alors χf (f) = 0.
• Soit A ∈ Mn (K). Alors χA (A) = 0.
Démonstration. On démontre le théorème pour un endomorphisme f d’un K-espace vectoriel E de dimension finie non
nulle n. Soit x0 un vecteur non nul de E. On va démontrer que χf (f) (x0 ) = 0.
Etape 1. Soit E = k ∈ N∗ / fi (x0 ) 06i6k−1 libre . E est une partie de N. Puisque x0 6= 0, 1 ∈ E et en particulier E
n’est pas vide. Puisque le cardinal d’une famille libre de E est majoré par la dimension de E, E est majoré par n.
En résumé, E est une partie non vide et majorée de N (et même de N∗ ). E admet donc un plus grand élément que l’on
note p.
Etape 2. Par définition de p, la famille x0, f (x0 ) , . . . , fp−1 (x0 ) est libre. On la complète (éventuellement) en
B = x0 , f (x0 ) , . . . , fp−1 (x0 ) , ep+1 , . . . , en base de E.
Par définition de p, la famille x0 , f (x0 ) , . . ., fp−1 (x0 ) est libre et la famille (x0 , f (x0 ) , . . . , fp (x0 )) est liée. On en déduit
que fp (x0 ) ∈ Vect x0 , f (x0 ) , . . . , fp−1 (x0 ) et on peut donc poser
p−1
X
p
f (x0 ) = ak fk (x0 ) (∗).
k=0
X 0 ... 0 −a0
.. ..
−1 . . −a1
.. .. ..
χB = 0 . . 0 .
.. .. ..
. . . X −ap−2
0 ... 0 −1 X − ap−1
p−2
X
p−1
=X (X − ap−1 ) + (−1)p+k−1 (−ak ) ∆k ,
k=0
p−2
X p−2
X
χB = Xp−1 (X − ap−1 ) + (−1)p+k−1 (−ak ) Xk (−1)p−1−k = Xp − ap−1 Xp−1 − ak Xk
k=0 k=0
p−1
X
= Xp − ak Xk .
k=0
p−1
!
X
p k
Etape 4. Par suite, χf = f − ak f ◦ Q(f) où Q = χC . Puisque deux polynôme en f commutent, on en déduit que
k=0
p−1
! p−1
!
X X
p k p k
χf (x0 ) = Q(f) ◦ f − ak f (x0 ) = Q(f) f (x0 ) − ak f (x0 ) = Q(f)(0) = 0.
k=0 k=0
On a ainsi montré que pour tout x non nul, χf (f)(x) = 0. Ceci reste vrai pour x = 0 et finalement, on a montré que
χf (f) = 0.
Commentaire. Dans la démonstration précédente, on a implicitement cherché le plus petit sous-espace vectoriel de E,
contenant x0 et stable par f. Ce sous-espace se révèle être Ef (x0 ) = Vect fk (x0 ) k∈N = Vect fk (x0 ) 06k6p−1 . Dans
la base fk (x0 ) 06k6p−1 de Ef (x0 ) choisie, la matrice de l’endomorphisme induit par f sur Ef (x0 ) est une matrice
compagnon. L’endomorphisme induit par f sur Ef (x0 ) est alors dit cyclique. On aurait pu poursuivre ce processus
« jusqu’au bout de l’espace » et décomposer l’espace en sous-espaces supplémentaires sur lesquels l’endomorphisme induit
est cyclique.
D’autre part, quand nous avons calculé χf par blocs à la fin de l’étape 2, on aurait pu aussi utiliser le théorème 56 qui
prouvait directement que le polynôme caractéristique de l’endomorphisme induit par f sur Ef (x0 ) divise χf . ❏
Ainsi, le polynôme caractéristique de f (ou de A) est un polynôme annulateur de f. Puisque les polynômes annotateurs
d’un endomorphisme sont les multiples du polynôme minimal de cet endomorphisme, on aurait pu énoncer le théorème
de Cayley-Hamilton sous la forme :
Théorème 58. (théorème de Cayley-Hamilton)
• Soient E un K-espace vectoriel de dimension finie non nulle puis f ∈ L (E). Alors µf divise χf .
• Soit A ∈ Mn (K). Alors µA divise χA .
P = Q × χf + R et deg(R) 6 n − 1.
En évaluant en f, on obtient P(f) = Q(f) ◦ χf (f) + R(f) = R(f) et donc P(f) ∈ Kn−1 [f]. Ceci montre que K[f] ⊂ Kn−1 [f] et
finalement que
Le déterminant du système linéaire (S) d’inconnues a1 , . . . , an ci-dessus est Van (λ1 , . . . , λn ). Ce déterminant est non
nul car les λj sont deux à deux distincts. Le système (S) est un système de Cramer homogène. (S) admet donc l’unique
solution (a0 , . . . , an−1 ) = (0, . . . , 0). On a montré que la famille IdE , f, . . . , fn−1 est libre.
n−1
c) D’après la question a), K[f] = Vect Id E , f, . . . , f ou encore IdE , f, .. . , fn−1 est une famille génératrice de K[f].
D’après la question b), IdE , f, . . . , fn−1 est libre et donc IdE , f, . . . , fn−1 est une base de K[f]. On en déduit que
dim (K[f]) = n.
minant de A est Van (λ1, . . . , λn ). Ce déterminant n’est pas nul car les λi sont deux à deux distincts. Donc, la famille
x0 , f (x0 ) , . . . , fn−1 (x0 ) est une base de E.
b) On sait que Kn−1 [f] = K[f] ⊂ C(f). Réciproquement, soit g ∈ C(f). Puisque x0 , f (x0 ) , . . . , fn−1 (x0 ) est une base de
E, on peut poser
n−1
X
g (x0 ) = ak fk (x0 ) .
k=0
p−1
X
Montrons alors que g = P(f) où P = ak Xk . Pour tout j ∈ J0, n − 1K, puisque g ∈ C(f) et que d’autre part deux
k=0
polynômes en f commutent,
g fj (x0 ) = fj (g (x0 )) = fj (P(f) (x0 )) = P(f) fj (x0 ) .
Ainsi, les endomorphismes g et P(f) coïncident sur une base de E. On en déduit que g = P(f).
Commentaire. On avait établi autrement le résultat dim(C(f)) = n quand f a n valeurs propres simples dans l’exercice
15, page 37. ❏
7) Polynômes annulateurs et valeurs propres
Théorème 59.
• Soient E un K-espace vectoriel puis f ∈ L (E). Soient x ∈ E et λ ∈ K tels que f(x) = λx. Alors, pour tout P ∈ K[X],
P(f)(x) = P(λ)x.
• Soit A ∈ Mn (K). Soient X ∈ Mn (K) et λ ∈ K tels que AX = λX. Alors, pour tout P ∈ K[X], P(A)X = P(λ)X.
Démonstration. On démontre le résultat pour un endomorphisme f d’un K-espace vectoriel E. Soient x ∈ E et λ ∈ K
p
X
k k
tels que f(x) = λx. Le théorème 23, page 14, permet déjà d’affirmer que ∀k ∈ N, f (x) = λ x. Mais alors, si P = ak Xk
k=0
est un polynôme,
p p
!
X X
k k
P(f)(x) = ak f (x) = ak λ x = P(λ)x.
k=0 k=0
On en déduit le théorème suivant qui montre que la connaissance d’un polynôme annulateur peut permettre de déterminer
les valeurs propres d’un endomorphisme ou d’une matrice.
Théorème 60.
• Soient E un K-espace vectoriel puis f ∈ L (E). Soit P ∈ K[X] un polynôme annulateur de f. Alors, pour toute valeur
propre λ de f, on a P(λ) = 0.
• Soit A ∈ Mn (K). Soit P ∈ K[X] un polynôme annulateur de A. Alors, pour toute valeur propre λ de A, on a P(λ) = 0.
Démonstration. On démontre le résultat pour un endomorphisme f d’un K-espace vectoriel E.
Soit P un polynôme annulateur de f. Soit λ une (éventuelle) valeur propre de f. Il existe un vecteur x non nul tel que
f(x) = λx. D’après le théorème 59, 0 = P(f)(x) = P(λ)x. Puisque x n’est pas nul, on obtient P(λ) = 0.
Ainsi, toute valeur propre est automatiquement racine d’un polynôme annulateur. Il ne faut cependant pas croire
que toute racine d’un polynôme annulateur est valeur propre. Par exemple, une projection vérifie
p ◦ (p − IdE ) ◦ (p − 2IdE ) = p2 − p ◦ (p − 2IdE ) = 0 ◦ (p − 2IdE ) = 0.
Donc le polynôme X(X − 1)(X − 2) est un polynôme annulateur de p. Le théorème précédent affirme que le spectre de p
(c’est-à-dire ici l’ensemble des valeurs propres de p) est contenu dans {0, 1, 2} :
les valeurs propres d’un endomorphisme ou d’une matrice sont à choisir parmi les racines d’un polynôme
annulateur.
Un cas particulier de polynôme annulateur est le polynôme minimal µf (ou µA ). On sait que µf est un diviseur de χf .
Donc, si χf est scindé sur K et s’écrit donc
p
Y
χf = (X − λi )αi
i=1
où les λi sont les valeurs propres deux à deux distinctes de f et les αi sont des entiers naturels non nuls, alors µf s’écrit
où pour tout i ∈ J1, pK, 0 6 βi 6 αi . Mais toute valeur propre de f doit être racine du polynôme annulateur µf et on peut
donc améliorer le résultat précèdent sous la forme
Théorème 61.
• Soient E un K-espace vectoriel de dimension finie non nulle puis f ∈ L (E). On suppose que χf est scindé sur K et
s’écrit donc
p
Y αi
χf = (X − λi )
i=1
où les λi sont les valeurs propres deux à deux distinctes de f et les αi sont des entiers naturels non nuls. Alors µf
s’écrit
p
Y
µf = (X − λi )βi
i=1
où les λi sont les valeurs propres deux à deux distinctes de A et les αi sont des entiers naturels non nuls. Alors µA
s’écrit
p
Y
µA = (X − λi )βi
i=1
µA = (X − 1)2 (X + 2).
U × P + V × Q = 1.
En évaluant en f, on obtient U(f) ◦ P(f) + V(f) ◦ Q(f) = IdE . Soit alors x ∈ Ker((P × Q)(f)) = Ker(P(f) ◦ Q(f)). En évaluant
en x, on obtient
Commentaire. On rappelle qu’il y a d’autres manières de constater que deux polynômes sont premiers entre eux. Par
exemple, deux polynômes sont nus sont premiers entre eux si et seulement si ces deux polynômes n’ont pas de racine
commune dans C. ❏
Le théorème précédent se généralise immédiatement par récurrence :
Théorème 63.
• Soient E un K-espace vectoriel puis f ∈ L (E). Soient P1 , . . . ,Pk des polynômes deux à deux premiers entre eux.
• Soit A ∈ Mn (K). Soient P1 , . . . ,Pk des polynômes deux à deux premiers entre eux.
• Soit A ∈ Mn (K). Soient P1 , . . . ,Pk des polynômes deux à deux premiers entre eux puis P = P1 × . . . × Pk . On
suppose de plus que P est annulateur de A.
Ainsi, la restriction de l’endomorphisme P(f) à chaque Eλi (f) est nulle. Puisque ces sous-espaces sont supplémentaires, on
en déduit que P(f) = 0. P est donc un polynôme non nul, scindé sur K à racines simples et annulateur de f.
k
Y
• Supposons qu’il existe un polynôme P non nul, scindé sur K à racines simples et annulateur de f. Posons P = (X − µi )
i=1
où les µi sont des éléments de K deux à deux distincts. Les polynômes (X − µi ) sont deux à deux premiers entre eux et
le polynôme P est annulateur de f. Le théorème de décomposition des noyaux permet d’écrire
M
E= Ker (f − µi IdE ) .
16i6k
Soit B une base de E adaptée à cette décomposition (on rappelle que si un Ker (f − µi IdE ) est nul, une base de ce noyau
est ∅). B est une base de E constituée de vecteurs propres de f et donc f est diagonalisable.
Exercice 18.
Soit A ∈ Mn (C). On suppose qu’il existe p > 2 tel que Mp = In . Montrer que M est diagonalisable.
Solution 18. Soit P = Xp − 1. P est un polynôme annulateur de A. P ′ = pXp−1 admet 0 pour unique racine. Puisque 0
n’est pas racine de P, les polynômes P et P ′ sont sans racine commune dans C. On en déduit que P et P ′ sont premiers
entre eux puis que P est à racines simples.
On a trouvé un polynôme P (scindé) à racines simples tel que P(A) = 0 et donc A est diagonalisable.
Exercice 19.
Soit A ∈ Mn (R) telle que A3 + A2 + A = 0. Montrer que le rang de A est pair.
Solution 19.
Soit P = X3 + X2 + X = X(X − j)(X − j2 ). P est à racines simples dans C et annulateur de A. Donc A est diagonalisable dansγ
C et ses valeurs propres sont éléments de {0, j, j2 }. Le polynôme caractéristique de A est de la forme Xα (X − j)β X − j2
avec α + β + γ = n. De plus, A est réelle et on sait que j et j2 = j ont même ordre de multiplicité ou encore γ = β.
Puisque A est diagonalisable, l’ordre de multiplicité de chaque valeur propre est égale à la dimension du sous-espace propre
correspondant et donc
On peut maintenant résumer les différentes conditions nécessaires et suffisantes ou simplement suffisantes de diagonali-
sabilité ou de trigonalisabilité pour un endomorphisme d’un K-espace vectoriel de dimension finie non nulle. Dans ce qui
suit, n est la dimension de E, les αi sont les ordres de multiplicité des valeurs propres et les ni sont les dimensions des
sous-espaces propres associés.
αi −1
x ∈ Eλi (f) ⇒ (f − λi IdE ) (x) = 0 ⇒ (f − λi IdE ) ((f − λi IdE ) (x)) = 0
αi αi
⇒ (f − λi IdE ) (x) = 0 ⇒ x ∈ Ker (f − λi IdE ) .
α α
• (f − λi IdE ) i est un polynôme en f et donc commute avec f. On sait alors que Ker (f − λi IdE ) i est un sous-espace
α
vectoriel de E stable par f ou encore f induit un endomorphisme de Ker (f − λi IdE ) i que l’on note fi .
Que f soit diagonalisable ou pas, l’espace E a été décomposé en somme de sous-espaces supplémentaires stables par f.
Dans une base adaptée à la décomposition (∗), la matrice de f est diagonale par blocs.
α
• Pour i ∈ J1, pK, posons di = λi IdE et ni = fi − di = fi − λi IdE . Par définition de Ker (f − λi IdE ) i , ni est un
endomorphisme de Ker (f − λi IdE )αi , nilpotent, d’indice de nilpotence inférieur ou égal à αi . De plus,
fi = di + ni .
Ainsi, chaque fi est somme d’une homothétie qui est un endomorphisme diagonalisable di et d’un endomorphisme nilpotent
ni . De plus, di ◦ ni = ni ◦ di .
α
• Le polynôme (X − λi ) i est annulateur de fi . Donc, fi admet au plus une valeur propre à savoir λi . Comme d’autre
α
part, λi est effectivement valeur propre de fi puisque Ker (f − λi IdE ) i contient le sous-espace propre Eλi (f), on a montré
que
IX - Applications de la réduction
1) Calculs de puissances de matrices (ou d’endomorphismes)
On se donne une matrice A ∈ Mp (K) et on veut calculer les puissances positives de A. On fait ici la synthèse de quelques
méthodes apparaissant en classes préparatoires.
1ère méthode. Utilisation d’un polynôme annulateur.
Si on connaît un polynôme non nul P annulateur de A et de degré d, la division euclidienne de Xn par P s’écrit :
(n) (n) (n)
Xn = P × Qn + ad−1 Xd−1 + . . . + a1 X + a0 .
En évaluant en A, on obtient
(n) (n) (n) (n) (n) (n)
An = P(A) × Q(A) + ad−1 Ad−1 + . . . + a1 A + a0 Ip = ad−1 Ad−1 + . . . + a1 A + a0 Ip .
(n) (n)
Il n’y a donc qu’à calculer A0 , . . . , Ap−1 et les coefficients a0 , . . . , ad−1 .
0 3 2
Exemple. Soit A = −2 5 2 . Un polynôme annulateur de A est χA d’après le théorème de Cayley-Hamilton.
2 −3 0
En développant suivant la première colonne, on obtient
An = an A2 + bn A + cn I3 .
Déterminons an , bn et cn . On évalue les deux membres de (∗) en 1 et 2 (en tenant compte de χA (1) = χA (2) = 0) puis
′
on dérive les deux membres de (∗) et on évalue de nouveau en 2 (en se rappelant que χA (2) = χA (2) = 0 puisque 2 est
racine double de χA ). On obtient :
n−1
an + bn + cn = 1 bn = −4an + n2n−1 bn = −4an + n2 n
4an + 2bn + cn = 2n
⇔ an + −4an + n2 n−1
+ cn = 1 ⇔ −3an + cn = 1 − 2n
n−1 n−1 n
2
4an + bn = n2 4an + 2 −4an + n2 + cn = 2 −4an + cn = (1 − n)2n
n n
a n = 1 + − 1 2n a = 1 + − 1 2n
2
n
2
n n
− 1 2n + 2n 3n
⇔
bn = −4 1 +
2 2
⇔
bn = −4 + − + 4 2n .
2
n n
cn = 3 1 + − 1 2n + 1 − 2n cn = 4 + (n − 3) 2n
2 2
0 3 2 0 3 2 −2 9 6
De plus, A2 = −2 5 2 −2 5 2 = −6 13 6 et donc
2 −3 0 2 −3 0 6 −9 −2
n −2 9 6 0 3 2 1 0 0
3n
An = 1 + − 1 2n −6 13 6 + −4 + − + 4 2n −2 5 2 + (4 + (n − 3) 2n ) 0 1 0
2 2
6 −9 −2 2 −3 0 0 0 1
n n n
2−2 −3 + 3 × 2 −2 + 2 × 2
= 2 − 2 × 2n −3 + 4 × 2n −2 + 2 × 2n .
−2 + 2 × 2n 3 − 3 × 2n 2 − 2n
Xn = Qn × µA + an X + bn
avec
a n + bn = 1
2an + bn = 2n
et donc an = 2n − 1 et bn = 2 − 2n puis
0 3 2 1 0 0
An = an A + bn I3 = (2n − 1) −2 5 2 + (2 − 2n ) 0 1 0
2 −3 0 0 0 1
n n n
2−2 −3 + 3 × 2 −2 + 2 × 2
= 2 − 2 × 2n −3 + 4 × 2n −2 + 2 × 2n .
−2 + 2 × 2n 3 − 3 × 2n 2 − 2n
1 1 1 1 0 1 −1 1 1 3n 1 −1
An = P × Dn × P−1 = =
2 −1 1 0 3n 1 1 2 −1 3n 1 1
3n + 1 3n − 1
= n2 2
.
3 −1 3n + 1
2 2
T n = (D + N)n = Dn + nDn−1 N = diag ((−1)n , (−1)n , 2n , 2n ) + n diag (−1)n−1 , (−1)n−1 , 2n−1 , 2n−1 (3E1,2 + E3,4 )
(−1)n 3(−1)n−1 n 0 0
0 (−1)n 0 0
= diag ((−1)n , (−1)n , 2n , 2n ) + 3(−1)n−1 nE1,2 + n2n−1 E3,4 =
,
0 0 2n n2n−1
0 0 0 2n
ce qui reste vrai pour n = 0.
2) Calculs d’inverses de matrices inversibles (ou de réciproques d’automorphismes)
On se donne une matrice A ∈ GLn (K) et on veut calculer l’inverse de A et plus généralement Ak , k ∈ Z. On fait ici un
bilan des quelques méthodes apparaissant en classes préparatoires.
1ère méthode. Utilisation d’un polynôme annulateur.
d
X
On suppose qu’il existe un polynôme de degré d > 1 tel que P(A) = 0. En posant P = ak Xk , on a donc
k=0
d
X
ak Ak = 0.
k=0
d
X d
X
a k Ak = 0 ⇒ a 0 I n = − a k Ak
k=0 k=1
1 d−1
1 d−1
⇒ − a 1 In + . . . + a d A ×A=A× − a 1 In + . . . + a d A = In .
a0 a0
1
On en déduit que la matrice A est inversible et que A−1 = − a1 In + . . . + ad Ad−1 .
a0
a b ... b
.. .
b a . ..
Exemple. Soit M(a, b) =
..
∈ Mn (C), n > 2. Soit J = M(1, 1). On a M(a, b) = (a − b)In + bJ.
.. ..
. . . b
b ... b a
La matrice J vérifie J2 = nJ et donc
2
(M(a, b) − (a − b)In ) = b2 J2 = nb2 J = nb (M(a, b) − (a − b)In ) ,
et donc
e1 = i − j + k j = i − e2 i = e1 − e2 + e3
e2 = i − j ⇔ k = i − e3 ⇔ j = e1 − 2e2 + e3 ,
e3 = i − k e1 = i − (i − e2 ) + (i − e3 ) k = e1 − e2
1 1 1
et donc A−1 = −1 −2 −1 . ❏
1 1 0
3 ème méthode. Utilisation de la définition de l’inverse.
Soit A ∈ Mn (K). Si on découvre B telle que A × B = B × A = In , alors A est inversible et B = A−1 .
Xj
j i j
(X + 1) = X.
i
i=0
A est donc la matrice dans la base canonique B0 = Xj 06j6n de Rn [X] de l’endomorphisme f : Rn [X] → Rn [X] .
P 7→ P(X + 1)
f est un automorphisme de Rn [X] de réciproque f−1 : Rn [X] → Rn [X] . On en déduit que A est inversible et que
P 7→ P(X − 1)
0 1 2 n−1 n
0 − . . . (−1)n−1 (−1)n
0 0
0 0
1 2 n−2 n − 1 n−1 n
0 − . . . (−1) (−1)
1
1 1 1
.. . .. 2 .. ..
. . .
j−i j
A−1 = MatB0 f −1
= 2 = (−1) .
.. .. .. i 06i,j6n
.
. . .
.. .. n−1 n
. −
n−1 −
n 1
n
0 ... ... 0
n
❏
1 t −1
Dans la liste des techniques de calculs d’inverses, on peut encore rappeler la formule A = (comA) ou aussi la
detA
méthode du pivot de Gauss. Ces deux techniques ne sont pas utilisées dans la pratique des exercices et problèmes de
classes préparatoires. Rappelons enfin une dernière technique : l’utilisation de la calculatrice.