Algebre Lineaire PDF
Algebre Lineaire PDF
Partie I
ALGEBRE LINEAIRE
Mohamed HOUIMDI
2 Mohamed HOUIMDI
Table des matières
2 Applications linéaires-Matrices 29
2.1 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1.1 Définition et propriètés élémentaires . . . . . . . . . . . . . . . . . . . 29
2.1.2 Image et Noyau d’une application linéaire . . . . . . . . . . . . . . . . 31
2.2 Calcul matriciel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.1 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.2 Trace d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3 Applications linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . 37
2.3.2 Matrice de passage - Changement de base . . . . . . . . . . . . . . . . 38
2.3.3 Rang - Matrices équivalentes . . . . . . . . . . . . . . . . . . . . . . . 40
2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3
TABLE DES MATIÈRES 4
3 Formes linéaires-Dualité 57
3.1 Définition et Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3 prolongement des formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . 61
3.4 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.5 Bidual - Base préduale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.6 Transposée d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . 64
3.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4 Mohamed HOUIMDI
TABLE DES MATIÈRES 5
5 Mohamed HOUIMDI
TABLE DES MATIÈRES 6
6 Mohamed HOUIMDI
Chapitre 1
Compléments sur les espaces vectoriels
Remarque 1.1.1
Si E est un K-espace vectoriel, les éléments de E s’appellent des vecteurs et se notent x , y , z . . .
et les éléments de K s’appellent des scalaires et se notent α , β , γ , λ , . . .
7
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 8
Par exemple :
– L = C et K = R
– L = C et K = Q
– L = R et K = Q
En particulier, tout corps commutatif K peut-être considéré comme un K-espace vectoriel
sur lui-même
2. Soit K un corps commutatif, alors pour tout entier n ≥ 1 , K n est un K-espace vectoriel
pour la loi externe :
K × K n −→ K n
(λ, x) 7−→ λ.x
Où x = (x1 , x2 , . . . , xn ) et λ.x = (λx1 , λx2 , . . . , λxn )
3. Soient K un corps commutatif, on désigne par K N l’ensemble de toutes les suites d’élé-
ments de K. Alors K N est un K-espace vectoriel pour la loi externe :
K × K N −→ K N
(λ, x) 7−→ λ.x
K × K A −→ K A
(λ, f ) 7−→ λ. f
Rappelons aussi que si f et g sont deux éléments de RA , alors f + g est définie par :
8 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 9
Proposition 1.1.1
Soient E un K-espace vectoriel et F une partie de E. Alors F est un sous-espace vectoriel de E,
si et seulement si
i) F 6= ∅
ii) ∀x ∈ F, ∀y ∈ F, x + y ∈ F
iii) ∀λ ∈ K, ∀x ∈ F, λ.x ∈ F
Preuve 1.1.1
La démonstration est laissée à titre d’exercice
Remarque 1.1.2
Soit K un corps commutatif. Pour montrer qu’un ensemble F est K-espace vectoriel, il suffit,
dans la plupart des cas, de montrer que F est un sous-espace vectoriel d’un K-espace vectoriel
connu.
9 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 10
Exemple 1.1.1
1. Pour tout K-espace vectoriel E, les parties {0E } et E sont des sous-espaces vectoriels de
E
2. Soient K un corps commutatif et K[X] le K-espace vectoriel des polynômes à coëfficients
dans K. Alors pour tout entier n ≥ 1,
En = {P ∈ K[X] : deg(P) ≤ n}
deg(λ.P) ≤ deg(P)
Preuve 1.1.2
La démonstration est laissée à titre d’exercice
Remarque 1.1.3
En particulier, l’intersection d’un nombre fini de sous-espaces vectoriels de E est un sous-espace
vectoriel de E
10 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 11
Reunion
La reunion de deux sous-espaces vectoriels de E n’est pas toujours un sous-espace vectoriel de
E. Cependant on a la proposition suivante :
Proposition 1.1.3
Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels de E, alors F ∪ G est un
sous-espace vectoriel de E, si et seulement si :
F ⊆ G ou G ⊆ F
Preuve 1.1.3
(=⇒) Supposons que F ∪ G est un sous-espace vectoriel de E et montrons que F ⊆ G ou G ⊆ F.
Pour cela supposons par absurde que F * G et G * F
F * G, donc il existe x ∈ E, tel que x ∈ F et x ∈
/G
G * F, donc il existe y ∈ E, tel que y ∈ G et y ∈
/F
Or F ∪ G est un sous-espace vectoriel de E, donc x + y ∈ F ∪ G
=⇒ x + y ∈ F ou x + y ∈ G
Si x + y ∈ F, puisque x ∈ F et F est un sous-espace vectoriel de E, alors (x + y) − x ∈ F, et par
suite y ∈ F. Contradiction
Si x + y ∈ G, alors de la même manière on voit que x ∈ G. Ce qui est encore contradictoire avec
le fait que x ∈
/G
D’où le résultat
(⇐=) Trivial
Somme
Soient E un K-espace vectoriel, F1 , F2 , . . . , Fn une famille finie de sous-espaces vectoriels de E
et F1 × F2 × · · · × Fn le produit cartésien de F1 , F2 , . . . , Fn .
On définit l’ensemble F1 + F2 + · · · + Fn par :
z ∈ F1 + F2 + · · · + Fn si seulement si , il existe (x1 , x2 , . . . , xn ) ∈ F1 × F2 × · · · × Fn tel que z =
x1 + x2 + · · · + xn
L’ensemble F1 + F2 + · · · + Fn ainsi défini est une partie de E qui forme un sous-espace vectoriel
appelé sous-espace vectoriel somme de F1 , F2 , . . . , Fn
Somme directe
Définition 1.1.3
Soient E un K-espace vectoriel, F1 , F2 , . . . , Fn , des sous-espaces vectoriels de E. On dit que la
somme F1 + F2 + · · · + Fn est directe si pour tout z ∈ F1 + F2 + · · · + Fn , il existe un unique
(x1 , x2 , . . . , xn ) ∈ F1 × F2 × · · · × Fn tel que z = x1 + x2 + · · · + xn
Notations 1.1.1
Dans le cas où la somme de F1 , F2 , . . . , Fn est directe on la note
n
M
F1 ⊕ F2 ⊕ · · · ⊕ Fn ou encore Fi
i=1
11 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 12
Lemme 1.1.1
La somme de F1 , F2 , . . . , Fn est directe, si et seulement si,
∀(x1 , x2 , . . . , xn ) ∈ F1 × F2 × · · · × Fn , x1 + x2 + · · · + xn = 0 =⇒ x1 = x2 = · · · = xn = 0
Preuve 1.1.4
(=⇒) Supposons que x1 + x2 + · · · + xn = 0
Donc 0 = x1 + x2 + · · · + xn et 0 = 0 + 0 + . . . + 0
Or la somme est directe, donc d’après l’unicité on a :
x1 = x2 = · · · = xn = 0
(⇐=) Montrons que F1 + F2 + · · · + Fn est une somme directe. Pour cela , soit z ∈ F1 + F2 +
· · · + Fn tel que :
z = x1 + x2 + · · · + xn et z = y1 + y2 + · · · + yn
A-t-on x1 = y1 , x2 = y2 , . . . , xn = yn ?
On a (x1 − y1 , x2 − y2 , . . . , xn − yn ) ∈ F1 × F2 × . . . × Fn et on a aussi
(x1 − y1 ) + (x2 − y2 ) + · · · + (xn − yn ) = 0
Donc (x1 − y1 ) = (x2 − y2 ) = · · · = (xn − yn ) = 0
D’où le résultat
Théorème 1.1.1
Soient E un K-espace vectoriel et F1 , F2 , . . . , Fn des sous-espaces vectoriels de E. alors la somme
F1 + F2 + · · · + Fn est directe, si et seulement si,
Preuve 1.1.5
(=⇒) Supposons que F1 + F2 + · · · + Fn est directe
Soit xi ∈ Fi ∩ (Fi+1 + · · · + Fn )
=⇒ xi = xi+1 + · · · + xn , où xi+1 ∈ Fi+1 , . . . , xn ∈ Fn
Donc xi − xi+1 − · · · − xn = 0
Donc d’après le lemme précédent, on a xi = xi+1 = · · · = xn = 0
D’où le résultat.
(⇐=) Supposons que ∀i, 1 ≤ i ≤ n, Fi ∩ (Fi+1 + · · · + Fn ) = {0}
Soient (x1 , x2 , . . . , xn ) ∈ F1 × F2 × · · · × Fn tel que x1 + x2 + · · · + xn = 0
D’après le lemme précédent , il suffit de montrer que x1 = x2 = · · · = xn = 0
Pour cela on procède par récurrence sur i , 1 ≤ i ≤ n
Pour i=1 on a x1 + x2 + · · · + xn = 0
=⇒ x1 ∈ F1 ∩ (F2 + · · · + Fn )
=⇒ x1 = 0
Supposons que i > 1 et x1 = · · · = xi−1 = 0 et montrons que xi = 0
x1 = · · · = xi−1 = 0 =⇒ xi + xi+1 + · · · + xn = 0
Donc xi ∈ Fi ∩ (Fi+1 + · · · + Fn ) et par suite xi = 0
D’où le résultat
12 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 13
Remarque 1.1.4
D’après le théorème précédent, la somme de deux sous-espaces vectoriels F et G de E est
directe, si et seulement si
F ∩ G = {0}
Remarques 1.1.1
1. F et G sont supplémentaires dans E , si et seulement si :
E = F + G
et
∀x ∈ F , ∀y ∈ G , x + y = 0 =⇒ x = y = 0
Exemple 1.1.2
Soit E = RR le R-espace vectoriel de toutes les applications de R vers R F = { f ∈ E :
f est paire}
G = { f ∈ E : f est impaire}
Alors F et G sont deux sous-espaces vectoriels de E qui sont supplémentaires dans E.
En effet, le fait que F et G sont deux sous-espaces vectoriels est un exercice facile
Si f ∈ F ∩ G alors f est à fois une fonction paire et impaire, donc f est nulle et par suite
F ∩ G = {0}
Pour montrer que E = F + G il suffit de remarquer que pour tout f ∈ E, les fonctions g et h
définies sur R par :
f (x) + f (−x)
∀x ∈ R , g(x) =
2
f (x) − f (−x)
∀x ∈ R , h(x) =
2
sont respectivement paire et impaire et que f = g + h
Autrement dit, toute fonction réelle est la somme, d’une manière unique, d’une fonction paire
et d’une fonction impaire.
13 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 14
Théorème 1.1.2
Soit E un K-espace vectoriel quelconque, alors tout sous-espace vectoriel de E admet au moins
un supplémentaire dans E
Preuve 1.1.6
Soit F un sous-espace vectoriel de E. Montrons qu’il existe au moins un sous-espace vectoriel
G de E tel que E = F ⊕ G.
Pour cela nous allons appliquer le fameux lemme de Zorn (Voir Annexe) à l’ensemble défini
par :
∀M ∈ A , M ∩ F = {0}
K × E/F −→ E/F
(λ, x) 7−→ λ.x = λ.x
Preuve 1.1.7
Exercice
14 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 15
n
x = α1 .x1 + α2 .x2 + · · · + αn .xn = ∑ αi .xi
i=1
Proposition 1.2.1
Soient E un K-espace vectoriel et A une partie non vide de E . Alors l’ensemble de toutes les
combinaisons linéaires d’éléments de A est un sous-espace vectotiel de E, appelé sous-espace
vectoriel engendré par A et se note Vect(A).
Preuve 1.2.1
Soient x ∈ Vect(A) et y ∈ Vect(A) , alors par définition on a :
n m
x = ∑ αi xi et y = ∑ βiyi
i=1 j=1
0E = ∑ αi.xi
i∈∅
Définition 1.2.2
Soient E un K-espace vectoriel, une partie A de E est dite génératrice si
E = Vect(A)
15 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 16
Exemple 1.2.1
1. A = ∅ est une partie génératrice de l’espace vectoriel nul {0E }, car on a vu que {0E } =
Vect(∅)
2. E est une partie génératrice de E
3. A = {e1 , e2 , . . . , en } est une partie génératrice du K-espace vectoriel K n , où :
– Si L est infinie, on dit que L est libre, si toute partie finie de L est libre
– Une partie de E qui n’est pas libre est dite liée
Exemple 1.2.2
1. L = ∅ est, par convention, une partie libre du K-espace vectoriel nul E = {0E }
2. L = {x} où x ∈ E avec x 6= 0, est une partie libre de E
3. L = {e1 , e2 , . . . , en }, où e1 = (1K , 0, . . . , 0), e2 = (0, 1K , 0, . . . , 0),
. . . , en = (0, . . . , 0, 1K ), est une partie libre du K-espace vectoriel K n
4. L = {x(m) : m ∈ N}, où ∀m ∈ N , x(m) = (xm,n )n∈N
(
1 Si n = m
où ∀m, ∀n, xm,n =
0 Si n 6= m
1.2.3 Base
Définition 1.2.4
Soit E un K-espace vectoriel, on dit qu’une partie B de E forme une base de E si B est à la fois
libre et génératrice
16 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 17
Remarques 1.2.2
– En fait, une base de E est une famille (xi )i∈I d’éléments de E tels que :
i) ∀i ∈ I, ∀ j ∈ I, i 6= j =⇒ xi 6= x j
ii) B = {xi : i ∈ I} est une partie de E qui est à la fois libre et génératrice
– Donc si B est une partie de E qui forme une base de E, alors "le nombre" de bases qu’on
peut former à partir de B est égal au "nombre" de permutations qu’on peut faire sur les
éléments de B
Exemple 1.2.3
1. Par convention B = ∅ est une base de l’espace vectoriel nul E = {0}
2. B = {e1 , e2 , . . . , en } , où e1 = (1K , 0, . . . , 0), e2 = (0, 1K , 0, . . . , 0), . . . , en = (0, . . . , 0, 1K ) ,
forme une base du K-espace vectoriel K n , donc ∀σ ∈ Sn , (eσ(1) , eσ(2) , . . . , eσ(n) ) est une
base de K n
3. B = {1, X, X 2 , . . . , X n , . . .} forme une base de K[X]. Si donc on pose pour tout n, en = X n ,
alors (en )n∈N est une base de E et pour toute permutation σ : N → N, (eσ(n) )n∈N est aussi
une base de E
Lemme 1.2.1
Soient E un K-space vectoriel, L une partie libre de E et x ∈ E avec x ∈
/ L. Alors
x∈
/ Vect(L) ⇐⇒ L ∪ {x} est libre
Preuve 1.2.2
Par contraposée, il suffit de montrer que
(=⇒) Trivial
(⇐=) Supposons que L ∪ {x} est liée, donc, par définition, il existe x1 , x2 , . . . , xn éléments de
L ∪ {x} et il existe α1 , α2 , . . . , αn éléments de K non tous nuls, tels que
n
∑ αixi = 0
i=1
Puisque L est libre, alors il existe un i0 , 1 ≤ i0 ≤ n, tel que xi0 = x et pour la même raison,
puisque (α1 , α2 , . . . , αn ) 6= (0, 0, . . . , 0), on aura αi0 6= 0. Donc
n
x= ∑ αixi
i=1
i6=i0
17 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 18
Preuve 1.2.3
i) =⇒ ii) Supposons que B forme une base de E et soit A l’ensemble de toutes les parties
génératrice de E.
On doit montrer que B est un élément minimal de (A , ⊆)
Soit A un élément de A tel que A ⊆ B, a-t-on A = B ? Supposons par absurde que A 6= B, donc
il existe x tel que x ∈ A et x ∈ / B. Or A est une partie génératrice de E et x ∈ E donc il existe
x1 , x2 , . . . , xn ∈ A et il existe α1 , α2 , . . . , αn ∈ K tels que :
n
x = ∑ αi .xi
i=1
=⇒ {x, x1 , x2 , . . . , xn } est lié et {x, x1 , x2 , . . . , xn } ⊆ B, ce qui est absurde car B est libre. D’où le
résultat.
ii) =⇒ iii) Supposons que B est une partie génératrice minimale de E et soit L l’ensemble de
toutes les parties libres de E. On doit montrer que B est un élément maximal de (L , ⊆). Pour
cela, montrons d’abord que B est libre.
Supposons par absurde que B n’est pas libre, donc il existe x1 , x2 , . . . , xn ∈ B et il existe α1 , α2 , . . . , αn ∈
K tels que
n
∑ αi.xi = 0 et (α1 , α2 , . . . , αn ) 6= (0, 0, . . . , 0)
i=1
Ce qui contredit le fait que B est génératrice minimale. Donc B est libre
Montrons maintenant que B est libre maximale. Pour cela soit L ∈ L tel que B ⊆ L, a-t-on
B = L?
Supposons par absurde que B 6= L, donc il existe x tel que x ∈ L et x ∈ / B. Or E = Vect(B) donc
il existe x1 , x2 , . . . , xm ∈ B et il existe α1 , α2 , . . . , αm ∈ K tel que
m
x = ∑ αi .xi
i=1
[x ∈
/ Vect(B) et B libre] =⇒ B ∪ {x} libre
Or B B ∪ {x}, ce qui est absurde, car B est libre maximale.
18 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 19
Remarque 1.2.1
Le théorème précédent nous permet, en utilisant le lemme de Zorn (Voir Annexe), de montrer
que tout espace vectoriel sur un corps commutatif quelconque admet au moins une base.
Théorème 1.2.2
Tout espace vectoriel admet au moins une base
Preuve 1.2.4
Soit E un K-espace vectoriel quelconque
Si E = {0}, alors B = ∅ est une base de E
Si E 6= {0}, considèrons l’ensemble L de toutes les parties libres de E. D’après le théorème
précédent il suffit de montrer que (L , ⊆) admet un élément maximal.
– L 6= ∅, car si x ∈ E avec x 6= 0, alors L = {x} est libre
– (L , ⊆) est innductif (à vérifier)
Donc d’après le lemme de Zorn, L admet au moins un élément maximal.
Exemple 1.2.4
1. B = ∅ est une base de E = {0}
2. B = (e1 , e2 , . . . , en ) où e1 = (1K , 0, . . . , 0), e2 = (0, 1K , 0, . . . , 0), . . . ,
en = (0, . . . , 0, 1K ) , est une base du K-espace vectoriel K n
3. B = (1, X, X 2 , . . . , X n , . . .) est une base du K-espace vectoriel K[X]
4. D’après le theorème précédent, R considèré comme espace vectoriel sur Q admet au
moins une base. Cependant personne n’a jamais pu construire une telle base ! ! !
19 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 20
Preuve 1.3.1
On va procèder par récurrence sur n ≥ 0
Pour n = 0, on a A = ∅ et B = {y}, or par hypothèse on a y ∈ Vect(∅) donc y = 0 et par suite
B = {0} est liée
Pour n = 1, on a A = {x1 } et B = {y1 , y2 } et par hypothèse on a
y1 ∈ Vect(A) et y2 ∈ Vect(A)
=⇒ y1 = α.x1 et y2 = β.x1
=⇒ β.y1 − α.y2 = 0
Avec (α, β) 6= (0, 0) car sinon on aura y1 = y2 = 0 , ce qui est impossible, car Cardinal(B) = 2.
=⇒ B = {y1 , y2 } est liée
Supposons n ≥ 1 et le lemme vrai pour tout entier m < n
Posons A = {x1 , x2 , . . . , xn } et B = {y1 , y2 , . . . , yn , yn+1 }. On sait, par hypothèse, que pour tout
i, i = 1, 2, . . . , n, n + 1, on a
n
yi = ∑ αi, j .x j
j=1
Donc d’après l’hypothèse de récurrence, {y1 , y2 , . . . , yn } est liée et par suite B est liée.
Si maintenant, il existe un i0 tel que αi0 6= 0 alors quitte à reordonner les éléments de B, on peut
supposer que αn+1,n 6= 0
n
αn+1,n 6= 0 =⇒ yn+1 = ∑ αn+1, j .x j
j=1
n−1
1
=⇒ xn = (yn+1 − ∑ αn+1, j .x j )
αn+1,n j=1
n−1 n−1
αi,n
=⇒ ∀i, i = 1, 2, . . . , n, yi = ∑ αi, j .x j + (yn+1 − ∑ αn+1, j .x j )
j=1 αn+1,n j=1
n−1 αn+1, j
αi,n
=⇒ yi − .yn+1 = ∑ (αi, j − ).x j
αn+1,n j=1 αn+1,n
i,n α
Pour chaque i, i = 1, 2, . . . , n, posons zi = yi − αn+1,n yn+1
Donc tout élément de {z1 , z2 , . . . , zn } est combinaison linéaire d’éléments de {x1 , x2 , . . . , xn−1 }
20 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 21
et par suite, d’après l’hypothèse de récurrence, {z1 , z2 , . . . , zn } est liée, donc il existe
γ1 , γ2 , . . . , γn ∈ K tels que
n
∑ γi.zi = 0 et (γ1 , γ2 , . . . , γn ) 6= (0, 0, . . . , 0)
i=1
n n
αi,n
∑ γi.zi = 0 =⇒ ∑ γi.(yi − αn+1,n .yn+1) = 0
i=1 i=1
n
1
∀i, i = 1, 2, . . . , n, posons λi = γi et λn+1 = − αn+1,n ∑ γiαi,n
i=1
n+1
(γ1 , γ2 , . . . , γn ) 6= (0, 0, . . . , 0) =⇒ (λ1 , λ2 , . . . , λn , λn+1 ) 6= (0, 0 . . . , 0) (avec ∑ λi.yi = 0)
i=1
=⇒ B = {y1 , y2 , . . . , yn , yn+1 } est liée
D’où le résultat.
Corollaire 1.3.1
Soient E un K-espace vectoriel de dimension finie et A une partie génératrice finie de E. Alors
pour toute partie libre L de E on a :
Cardinal(L) ≤ Cardinal(A)
Preuve 1.3.2
Posons A = {x1 , x2 , . . . , xn } et supposons, par absurde, que L est une partie libre de E telle que
Cardinal(L) > n. Soient y1 , y2 , . . . , yn , yn+1 , n + 1 éléments deux à deux dintints de L , puisque
E = Vect(A) alors
{y1 , y2 , . . . , yn , yn+1 } ⊆ Vect(A)
donc d’après le lemme précèdent, {y1 , y2 , . . . , yn , yn+1 } est liée et par suite L est liée, ce qui est
absurde.
Corollaire 1.3.2
Soit E un K-espace vectoriel. Alors E est de dimension infinie, si et seulement si, E admet au
moins une partie libre infini.
Preuve 1.3.3
(=⇒) Supposons que E est de dimension infinie. Soit x1 ∈ E avec x1 6= 0. E est de dimension
infinie, donc Vect(x1 ) 6= E, soit x2 ∈ E tel que x2 ∈
/ Vect(x1 ), alors {x1 , x2 } est libre. Puisque
E est de dimension infinie, il existe x3 ∈ E tel que x3 ∈/ Vect(x1 , x2 ), donc {x1 , x2 , x3 } est libre.
Ainsi, par récurrence, on construit une suite (xn )n≥1 telle que pour tout n ≥ 1, {x1 , x2 , . . . , xn }
soit libre. Donc {xn : n ≥ 1} est une partie libre infinie de E.
(⇐=) Supposons que E possède une partie libre infinie L et supposons, par absurde, que E est
de dimension finie. Soit A une partie génératrice finie de E. D’après le corollaire précédent, on
aura Cardinal(L) ≤ Cardinal(A), ce qui est absurde.
21 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 22
Exemple 1.3.2
1. Pour tout corps commutatif K, K[X] est de dimension infinie, car
L = {1, X, X 2 , . . . , X n , . . .} est une partie libre infinie de K[X]
2. RN le R-espace vectoriel de toutes les suites réelles est de dimension infinie :
Pour chaque n ∈ N, soit e(n) la suite réelle définie par :
(n) 1 si m = n
∀n ∈ N , ∀m ∈ N , em =
0 si m 6= n
Alors L = {e(1) , e(2) , . . . , e(n) , . . .} est une partie libre infinie de RN
3. Si E admet un sous-espace vectoriel de dimension infinie alors E est de dimension infinie
4. RN est un sous-espace vectoriel de RR , l’espace vectoriel de toutes les applications de R
vers R, donc RR est de dimension infinie.
5. Un élément α ∈ R est dit algèbrique, s’il existe un polynôme non nul P ∈ Q[X], tel que
P(α) = 0. Si α n’est pas algèbrique, on dit que α est transcendant.
Il est facile de montrer, en utilisant le fait que Q est dénombrable, que l’enseble des élé-
ments algèbriques est dénombrable et puisque R n’est pas dénombrable, alors l’ensemble
des nombres transcendants est non vide et possède le même cardinal que R. Soit α ∈ R
un nombre transcendant, alors par définition,
L = {1, α, α2 , . . . , αn , . . .}
est une partie libre infinie de R considéré comme espace vectoriel sur Q. Donc R est un
Q-espace vectoriel de dimension infinie.
Exercice 1.3.1 (de recherche)
Montrer que π et e sont des nombres transcendants.
Théorème 1.3.1 (de la dimension finie)
Soit E un K-espace vectoriel de dimension finie, alors :
i) Toute base de E est de cardinal fini
ii) Toutes les bases de E ont le même cardinal.
Ce cardinal s’appelle la dimension de E sur K et se note dimK (E)
Preuve 1.3.4
i) Soient A une partie génératrice finie de E et B une base quelconque de E. B est libre donc
d’après les corollaires précèdents on a Cardinal(B) ≤ Cardinal(A), A est finie donc B est finie
ii) Soient B1 et B2 deux bases de E, donc d’après i) B1 et B2 sont finies .
B1 est libre et B2 est une partie génératrice finie de E donc d’après ce qui précède Cardinal(B1 ) ≤
Cardinal(B2 ). Et de la même manière on montre que Cardinal(B2 ) ≤ Cardinal(B1 )
D’où le résultat
Corollaire 1.3.3
Soit E un K-espace vectoriel de dimension finie = n. Alors :
i) Toute partie libre de E est de cardinal ≤ n
ii) Toute partie génératrice de E est de cardinal ≥ n
iii) Toute base de E est de cardinal = n
iv) Toute partie libre de cardinal = n est une base de E
v) Toute partie génératrice de cardinal = n est une base de E
22 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 23
Preuve 1.3.5
Exercice
Remarque 1.3.1
1. Le corrollaire précédent est très utile en pratique, pour montrer qu’une partie libre ou
génératrice d’un espace vectoriel E de dimension finie, forme une base de E. Nous allons
rappeler ce corollaire sous une autre forme :
Soit A une partie d’un K-espace vectoriel de dimension finie = n. Alors,
A libre =⇒ Cardinal(A) ≤ n
A génératrice =⇒ Cardinal(A) ≥ n
Proposition 1.3.1
Soit E un K-espace vectoriel de dimension finie :
i) Si F et G sont deux sous-espaces tel que E = F ⊕ G alors
Preuve 1.3.6
i) Soient B1 une base de F et B2 une base de G, alors il est facile de vérifier que B = B1 ∪ B2
est une base de E et que B1 ∩ B2 = ∅ car une base ne contient jamais le vecteur nul, donc
Cardinal(B) = Cardinal(B1 ) +Cardinal(B2 )
ii) Soit H un supplémentaire de F ∩ G dans G, alors on a G = (F ∩ G) ⊕ H, et par suite
23 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 24
m m
∑ αi.xi = 0 =⇒ ∑ αi.xi = 0
i=1 i=1
m
=⇒ ∑ αi.xi ∈ F
i=1
m
=⇒ ∑ αi.xi = 0 car F ∩ G = {0}
i=1
=⇒ α1 = α2 = · · · = αm = 0 car {x1 , x2 , . . . , xm } est libre
Donc B = {x1 , x2 , . . . , xm } est une base de E/F et par suite on a :
dimK (E/F) = Cardinal(B) = Cardinal(B) = dimK (G)
avec dimK (G) = dimK (E) − dimK (F)
D’où le résultat
iv) Exercice
Remarque 1.3.2
Soient E un K-espace vectoriel de dimension finie, F1 , F2 , . . . , Fn des sous-espaces vectoriels de
E. Alors
dimK (F1 + F2 + · · · + Fn ) ≤ dimK (F1 ) + dimK (F2 ) + · · · + dimK (Fn )
Corollaire 1.3.4
Soient E un K-espace vectoriel de dimension finie, F1 , F2 , . . . , Fn des sous-espaces vectoriels de
E. Alors on vérifie facilement par récurrence sur n que
(
E = F1 + F2 + · · · + Fn
E = F1 ⊕ F2 ⊕ · · · ⊕ Fn ⇐⇒
dimK (E) = dimK (F1 ) + dimK (F2 ) + · · · + dimK (Fn )
24 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 25
Preuve 1.3.7
(=⇒) Trivial
(⇐=) On sait que la somme F1 + F2 + · · · + Fn est directe, si et seulement si,
Fi ∩ (Fi+1 + · · · + Fn ) 6= {0}
Or dimK (Fi +Fi+1 +· · ·+Fn ) = dim(Fi )+dimK (Fi+1 +· · ·+Fn )−dimK (Fi ∩(Fi+1 +· · ·+Fn ) 6= {0})
Donc dimK (Fi + Fi+1 + · · · + Fn ) < dim(Fi ) + dimK (Fi+1 + · · · + Fn )
D’autre part, on a
1.4 Exercices
Exercice 1.4.1
On muni R∗+ de la loi interne notée ⊕ et définie par :
∀x ∈ R∗+ , ∀y ∈ R∗+ , x ⊕ y = xy
∀λ ∈ R, ∀x ∈ R∗+ , λ · x = xλ
Exercice 1.4.2
Soient (E, +) un groupe commutatif et p un nombre premier
Trouver une condition necessaire et suffisante pour que E soit un Z/pZ-espace vectoriel
Exercice 1.4.3
Parmi les ensembles suivants lequel est un R-espace vectoriel ?
i) { f ∈ RR : f est croissante}
ii) { f ∈ RR : f (0) = 1}
iii) { f ∈ RR : f (1) = 0}
iv) { f ∈ RR : f continue et f (1) = 0 ou f (5) = 0}
v) { f ∈ RR : ∃(A, ϕ) ∈ R2 : ∀x ∈ R, f (x) = A cos(x + ϕ)}
Exercice 1.4.4
Soit E un K-espace vectoriel, où K est un corps commutatif quelconque
25 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 26
Exercice 1.4.5
Dans chacune des cas suivants, montrer que E est un espace vectoriel et déterminer une base de
E.
a) E = {P ∈ R3 [X] : P(X 2 ) = X 2 P(X)}
b) E = {P ∈ R3 [X] : P(−1) = P(0)}
c) E = {P ∈ R2 [X] : P( 21 ) = 2P(1)}
d) E = {(x, y, z,t) ∈ R4 : x + y + z + t = 0 et x + 2y − z − t = 0}
n
e) E = {(x1 , x2 , . . . , xn ) ∈ Rn : ∑ xi = 0}
i=1
f) Soit n ∈ N∗ et soit E est l’ensemble des fonctions f : [0, 1] −→ R telles que pour chaque
k ∈ {0, 1, . . . , n − 1}, f est constante sur ] nk , k+1
n [.
Exercice 1.4.6
Soient E un K-espace vectoriel de dimension finie, H1 et H2 deux hyperplans de E. Déterminer
la dimension de H1 ∩ H2 .
Exercice 1.4.7
Soient E un K-espace vectoriel F, G et H trois sous-espaces vectoriels de E tels que H ⊆ F ∪ G.
Montrer que H ⊆ F ou H ⊆ G
Exercice 1.4.8
On note F l’ensemble des (x, y, z) ∈ K3 , (où K = R ou C), tels que :
G ⊆ F =⇒ [F ∩ (G + H) = G + (F ∩ H)]
Exercice 1.4.10
Soit E le R-espace vectoriel de toutes les applications continues de R vers R
a) Pour a ∈ R on note fa , l’élément de E défini par :
∀x ∈ R , fa (x) = |x − a|
26 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 27
∀x ∈ R , gk (x) = (sin(x))k
Exercice 1.4.11
Soient E un K-espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels de E de
même dimension. Montrer que F et G possède au moins un supplémentaire commun dans E
Exercice 1.4.12
Soient E un K-espace vectoriel de dimension finie, H1 et H2 deux hyperplans distincts de E.
Déterminer la dimension de H1 ∩ H2 .
Exercice 1.4.13
Soient E un K-espace vectoriel, (Fn )n≥0 une suite décroissante de sous-espaces vectoriels de E
et G un sous-espace vectoriel de E
a) On suppose G de dimension finie. Montrer que :
\ \
( Fn ) + G = (Fn + G)
n≥0 n≥0
b) Montrer, par un contre-exemple, que la proprièté précédente ne subsiste plus dans le cas
où G est de dimension infinie
Exercice 1.4.14
Soient E un K-espace vectoriel de dimension finie = n, F1 , F2 , . . . , Fk des sous-espaces vectoriels
de E. Montrer que
k k
\
∑ dim(Fj ) > n(k − 1) =⇒ Fj 6= {0}
j=1 j=1
Exercice 1.4.15
Soient K un corps commutatif, P un polynôme non nul de K[X] et (P) l’ideal engendré par P.
Montrer que K[X]/(P) est un K-espace vectoriel de dimension finie et déterminer sa dimension
Exercice 1.4.16
Soit K un corps commutatif, pour chaque a ∈ K, soit
Ea = {P ∈ K[X] : P(a) = 0}. Montrer que
∀a ∈ K, ∀b ∈ K, a 6= b =⇒ K[X] = Ea + Eb
27 Mohamed HOUIMDI
CHAPITRE 1. COMPLÉMENTS SUR LES ESPACES VECTORIELS 28
Exercice 1.4.18
Soient E un K-espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels de E
avec dimK (F) = dimK (G). Montrer que F et G possède un supplémentaire commun dans E.
Exercice 1.4.19
Soit E le C-espace vectoriel des fonction dérivables de R dans C. Pour f ∈ E et a ∈ R, on définit
la fonction fa par
∀x ∈ R, fa (x) = f (x + a)
Puis on pose Ff = Vect({ fa : a ∈ R}) et on note V l’ensemble des fonction f ∈ E telles que Ff
soit de dimension finie.
1. Montrer que V est un sous-espace vectoriel de E.
2. Pour f ∈ V et λ ∈ C on définit la fonction g( f ,λ) par
28 Mohamed HOUIMDI
Chapitre 2
Applications linéaires-Matrices
Notations 2.1.1
– LK (E, F) désigne l’ensemble de toutes les applications linéaires de E vers F
– LK (E) désigne l’ensemble de tous les endomorphismes de E
– GLK (E) désigne l’ensemble de tous les automorphismes de E
Exemple 2.1.1
1. Soient E un K-espace vectoriel et F un sous-espace vectoriel de E alors :
s : E −→ E/F
x 7−→ s(x) = x
est linéaire
2. Soit E un K-espace vectoriel de dimension finie = n et (e1 , e2 , . . . , en ) une base de E, alors
l’application :
u : K n −→ E
(α1 , α2 , . . . , αn ) 7−→ ∑ni=1 αi .ei
29
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 30
K × A −→ A
(λ, x) 7−→ λ.x
telle que,
i) (A , +, .) soit un K-espace vectoriel.
ii) ∀λ ∈ K, ∀x ∈ A , ∀y ∈ A , λ.(x × y) = (λ.x) × y = x × (λ.y).
Proposition 2.1.1
Soient E et F deux K-espaces vectoriels. Pour u et v deux éléments de LK (E, F) et pour α ∈ K
on définit les applications u + v et α.u par :
∀x ∈ E, (u ◦ v)(x) = u(v(x))
Alors
i) (LK (E, F), +, .) est un K-espace vectoriel
ii) (LK (E), +, ◦) est un anneau unitaire, non intègre et non commutatif,
(si dimK (E) > 1).
iii) (LK (E), +, ◦, .) est une K-algèbre.
iv) (GLK (E), ◦) est un groupe, c’est le groupe des éléments inversibles de l’anneau
(LK (E), +, ◦).
Preuve 2.1.1
Exercice
Théorème 2.1.1
Soient E et F deux K-espaces vectoriels de dimension finie sur K. Alors LK (E, F) est de dimen-
sion finie sur K et on a :
Preuve 2.1.2
0 0 0
Soient (e1 , e2 , . . . , em ) une base de E , (e1 , e2 , . . . , en ) une base de F et
B = {ui, j : 1 ≤ i ≤ n , 1 ≤ j ≤ m} la partie de LK (E, F) définie par :
0 si k 6= j
ui, j (ek ) = 0
ui, j (e j ) = ei
30 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 31
Théorème 2.1.2
Soient E et F deux K-espaces vectoriels et u : E → F une application linéaire, alors
i) u est injective, si et seulement si, Ker(u) = {0E }.
ii) u est surjective, si et seulement si, Im(u) = E.
iii) E/Ker(u) est isomorphe à Im(u).
Preuve 2.1.4
Soit u : E/Ker(u) −→ Im(u) la relation définie par :
∀x ∈ E, u(x) = u(x)
=⇒ Ker(u) = {0}
=⇒ u est injective
31 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 32
Preuve 2.1.5
i) Si A = {x1 , x2 , . . . , xm } est une partie génératrice finie de E alors u(A) = {u(x1 ), u(x2 ), . . . , u(xm )}
est une partie génératrice finie de Im(u).
ii) E/Ker(u) est isomorphe à Im(u) donc dimK (E/Ker(u)) = dimK (Im(u)).
Or dimK (E/Ker(u)) = dimK (E) − dimK (Ker(u)), d’où le résultat.
Corollaire 2.1.2
Soient E et F deux K-espaces vectoriels de dimension finie avec
dimK (E) = dimK (F) et u une application linéaire de E vers F, alors les propositions suivantes
sont equivalentes :
i) u est injectif
ii) u est surjective
iii) u est bijective
Preuve 2.1.6
i) =⇒ ii) Si u est injectif alors Ker(u) = {0}, donc d’après le corollaire précèdent dimK (E) =
dimK (Im(u)) donc dimK (Im(u)) = dimK (F) et par suite
Im(u) = F car Im(u) est un sous-espace vectoriel de F
ii) =⇒ iii) Si u est surjectif alors Im(u) = F donc dimK (Im(u)) = dimK (F) = dimK (E) et
d’après le corollaire précèdent, dimK (Ker(u)) = 0 et par suite Ker(u) = {0}
iii) =⇒ i) Trivial
Remarque 2.1.2
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E, alors on a
toujours :
dimK (E) = dimK (Ker(u)) + dimK (Im(u))
Par contre on a pas toujours :
E = Ker(u) ⊕ Im(u)
Néanmoins, on a la proposition suivante :
Proposition 2.1.3
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E, alors les pro-
positions suivantes sont equivalentes :
i) E = Ker(u) ⊕ Im(u)
ii) Im(u) = Im(u2 )
iii) Ker(u) = Ker(u2 )
iv) Ker(u) ∩ Im(u) = {0}
32 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 33
Preuve 2.1.7
i) =⇒ ii) Pour tout endomorphisme u on a toujours Im(u2 ) ⊆ Im(u), donc il suffit de montrer
que Im(u) ⊆ Im(u2 )
Pour cela soit y ∈ Im(u) donc y = u(x) où x ∈ E, or E = Ker(u) + Im(u) donc x = x1 + u(x2 )
avec x1 ∈ Ker(u)
=⇒ y = u(x) = u2 (x2 )
=⇒ y ∈ Im(u2 )
dimK (E) = dimK (Ker(u)) + dimK (Im(u)) = dimK (Ker(u2 )) + dimK (Im(u2 ))
Or dimK (Im(u)) = dimK (Im(u2 )) donc dimK (Ker(u2 )) = dimK (Ker(u)) et par suite on a Ker(u2 ) =
Ker(u), car Ker(u) ⊆ Ker(u2 )
iii) =⇒ iv) Soit y ∈ Ker(u) ∩ Im(u) alors u(y) = 0 et y = u(x) donc u2 (x) = 0 et par suite
x ∈ Ker(u2 ) donc x ∈ Ker(u). D’où y = u(x) = 0
Remarque 2.2.1
1. Une matrice A = (ai j )1≤i≤m , 1≤ j≤n est représentée par un tableau de la manière suivante :
a11 a12 . . . a1n
a21 a22 . . . a2n
A = ..
.. ..
. . .
am1 am2 . . . amn
33 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 34
2. Pour tout corps commutatif K et pour tout entier n ≥ 1, les éléments de K n peuvent être
considérés comme des (n, 1)-matrices ou des (1, n)-matrices, ainsi si X ∈ K n , alors, sui-
vant les besoins, X peut s’écrire sous l’une des formes suivantes :
x1
x2
X = .. ou X = x1 , x2 , . . . , xn
.
xn
alors,
A + B = (ci j )1≤i≤m , 1≤ j≤n , où ∀i, ∀ j, ci j = ai j + bi j
Si λ ∈ K, alors λ.A = (ci j )1≤i≤m , 1≤ j≤n , où ∀i, ∀ j, ci j = λai j
2. Pour A ∈ Mm,n (K) et B ∈ Mn,p (K), on définit le produit de A par B, qu’on note A × B ou
AB, par
n
AB = (ci j )1≤i≤n, 1≤ j≤p , où ∀i, ∀ j, ci j = ∑ aik bk j
k=1
Donc on aura
A ∈ Mm,n (K) et B ∈ Mn,p (K) =⇒ AB ∈ Mm,p (K)
3. On désigne par Mn (K) l’ensemble de toutes les matrices carrées d’ordre n à coefficients
dans K. Donc si A ∈ Mn (K) et B ∈ Mn (K) alors AB ∈ Mn (K).
La multiplication des matrices définit donc une loi interne sur Mn (K)
Proposition 2.2.1
Soit K un corps commutatif quelconque et n un entier ≥ 2. Alors,
i) (Mm,n (K), +, ·) est un K-espace vectoriel.
ii) (Mn (K), +, ×) est une K-algèbre unitaire, non commutatif et non intègre.
Preuve 2.2.1
i) Il est facile de vérifier que (Mm,n (K), +, ·) est un K-espace vectoriel, l’élément neutre de
l’addition est la matrice nulle dont tous les coefficients sont nuls.
ii) Il suffit de vérifier que la multiplication est associative. Soient A, B et C trois éléments
de (Mn (K), posons :
34 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 35
Alors on a :
n n
αi j = ∑ ( ∑ aik bkl )cl j )
l=1 k=1
n n
= ∑ ∑ aik bkl cl j
k=1 l=1
n n
βi j = ∑ aik ( ∑ bkl cl j )
k=1 l=1
n n
= ∑ ∑ aik bkl cl j
k=1 l=1
0 0 ... 0 1
Proposition 2.2.2
Pour chaque i, 1 ≤ i ≤ m et pour chaque j, 1 ≤ j ≤ n, on considère la matrice Ei j de Mm,n (K)
dont tous les coefficients sont nuls, sauf celui de la iieme ligne et la jieme colonne qui est égal à
1. Alors {Ei j : 1 ≤ i ≤ m j, 1 ≤ j ≤ n} forme une base de Mm,n (K), appelée base canonique de
Mm,n (K).
Preuve 2.2.2
Exercice
Définition 2.2.2
Les matrices Ei j , 1 ≤ i ≤ m, 1 ≤ j ≤ n, sont appelées les matrices élémentaires de Mm,n (K).
Remarque 2.2.2
Soit Mn (K) l’algèbre des matrices carrées à coëfficients dans un corps commutatif K. Alors on
vérifie facilement qu’on a
(
0 si j 6= k
∀ i, j, k, l ∈ {1, 2, . . . , n}, Ei j Ekl =
Eil si j = k
35 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 36
n
Tr(A) = ∑ aii
i=1
Proposition 2.2.3
Soient K un corps commutatif et Mn (K) l’algèbre des matrices carrées à coëfficients dans K.
Alors
i) ∀A ∈ Mn (K), ∀B ∈ Mn (K), Tr(A + B) = Tr(A) + Tr(B)
ii) ∀λ ∈ K, ∀A ∈ Mn (K), Tr(λA) = λTr(A)
iii) ∀A ∈ Mn (K), ∀B ∈ Mn (K), Tr(AB) = Tr(BA).
Preuve 2.2.3
i) Exercice
ii) Exercice
ii) Posons A = (ai j )1≤i, j≤n , B = (bi j )1≤i, j≤n , AB = (ci j )1≤i, j≤n et
BA = (di j )1≤i, j≤n , alors on a
n n n
Tr(AB) = ∑ cii = ∑ ( ∑ ai j b ji)
i=1 i=1 j=1
n n n n
= ∑ ( ∑ ai j b ji) = ∑ ( ∑ b jiai j )
j=1 i=1 j=1 i=1
n
= ∑ djj = Tr(BA)
j=1
Définition 2.2.4
Soient K un corps commutatif et Mn (K) l’algèbre des matrices carrées à coëfficients dans K.
Deux matrices A et B de Mn (K) sont dites semblables, s’il existe une P ∈ Mn (K) inversible telle
que B = P−1 AP.
Corollaire 2.2.1
Soient K un corps commutatif et Mn (K) l’algèbre des matrices carrées à coëfficients dans K.
Alors deux matrices semblables de Mn (K) ont même trace.
Preuve 2.2.4
Soient A et B deux matrices semblables, donc B = P−1 AP, où P est une matrice inversible de
Mn (K). Donc on aura
36 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 37
Autrement dit,
y1
y2 n
Si Y = .. alors ∀i, 1 ≤ i ≤ m, yi = ∑ ai j x j
. j=1
ym
Soient maintenant E et F deux K-espaces vectoriels de dimension finie et u : E −→ F une
application linéaire. Soient β = (e1 , e2 , . . . , em ) une base de E et β0 = (e01 , e02 , . . . , e0n ) une base de
F. Pour chaque j, 1 ≤ j ≤ m, on a u(e j ) ∈ F, donc on aura :
n
∀ j, 1 ≤ j ≤ m, u(e j ) = ∑ ai j e0i
i=1
Définition 2.3.1
La matrice A = (ai j )1≤i≤n , 1≤ j≤m s’appelle la matrice de u par rapport aux bases β et β0 et se note
A = Mat(u, β, β0 )
Remarque 2.3.1
1. Si dimK (E) = m et dimK (F) = n et si β et β0 sont respectivement des bases de E et F,
alors la matrice d’une application linéaire de E vers F est une (n, m)-matrice.
2. E un K-espace vectoriel de dimension finie = n. Si u : E −→ E est un endomorphisme et
si β est une base de E alors la matrice de u par rapport à β est une matrice carrée d’ordre
n:
a11 a12 . . . a1n
a21 a22 . . . ann
Mat(u, β) = ..
.. . . ..
. . . .
an1 an2 . . . ann
37 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 38
Remarque 2.3.2
1. Par définition, la matrice de passage P de la base (e1 , e2 , . . . , en ) à la base (e01 , e02 , . . . , e0n )
est la matrice de l’endomorphisme p de E défini par
∀ j, 1 ≤ j ≤ n, p(e j ) = e0j
x10
x1
x2 x0
0 2
Posons X = .. et X = ..
. .
xn xn0
Nous avons
n
x = ∑ x0j e0j
j=1
n n
= ∑ x0j ( ∑ pi, j ei)
j=1 i=1
n n
= ∑ ( ∑ pi, j x0j )ei
i=1 j=1
Par suite on a
X = PX 0
38 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 39
B = Q−1 AP
Preuve 2.3.1
β et γ sont deux bases de E, donc tout x ∈ E, sécrit
n n
x = ∑ xi ei et x = ∑ yi vi
i=1 i=1
Posons
x10 y01
x1 y1
x2 x0 y2 y0
2 2
X = .. , X 0 = .. , Y = .. et Y 0 = ..
. . . .
xn xn 0 yn y0n
Alors on sait que
X = PY, X 0 = QY 0 , X 0 = AX et Y 0 = BY
On en déduit que, d’une pat, ona ∀Y ∈ Mn,1 (K), BY = (Q−1 AP)Y . Or ceci n’est possible que si
B = Q−1 AP.
Corollaire 2.3.1
Soient E un K-espace vectoriel de dimension finie n et u un endomorphisme de E.
β = (e1 , e2 , . . . , en ) et β0 = (e01 , e02 , . . . , e0n ) deux bases de E.
A = Mat(u, β), B = Mat(u, β0 ) et P la matrice de passage de β à β0 . Alors on a
B = P−1 AP
Preuve 2.3.2
Exercice
39 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 40
.
Définition 2.3.3
i) Soient E, F deux K-espaces vectoriels de dimension finie et u : E −→ F une application
linéaire de E vers F. On définit le rang de u, qu’on note rg(u), par
ii) Soit A une matrice de Mm,n (K), alors par définition, le rang de A est égal au rang de
l’application linéaire définie par A :
Remarque 2.3.3
1. E et F deux espaces vectoriels de dimension finie, n et m respectivement. u : E −→ F une
application linéaire et (e1 , e2 , . . . , en ) une base de E. Alors
∀ j ∈ {1, 2, . . . , n}, Ae j = v j
Donc, on en déduit que le rang d’une matrice est égal à la dimension du sous-espace
vectoriel de Mm,1 (K) engendré par les vecteurs colonnes de A.
3. E et F deux espaces vectoriels de dimension finie, n et m respectivement.
u : E −→ F une application linéaire .
β = (e1 , e2 , . . . , en ) une base de E, β0 = (e01 , e02 , . . . , e0m ) une base de F et A = Mat(u, β, β0 ).
Alors
rg(u) = rg(A)
40 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 41
Alors il est facile de vérifier que ϕ(Im(A)) = Im(u), donc dimK (Im(A)) = dimK (Im(u)).
Définition 2.3.4
Soit K un corps commutatif, deux matrices A et B de Mm,n (K) sont dites équivalentes, s’il existe
deux matrices inversibles P ∈ Mn (K) et Q ∈ Mm (K) tel que
B = QAP
Remarque 2.3.4
Deux matrices équivalentes ont même rang.
Soient A et B deux matrices équivalenyes de Mm,n (K), alors il existe P ∈ GLn (K) et il existe
Q ∈ GLm (K), telles que B = QAP. Posons E = Mn,1 (K) et F = Mm,1 (K) et soit u : E −→ F
l’application linéaire de matrice A par rapport aux bases canoniques β et β0 de E et F respecti-
vement. Soient, d’autre part, γ la base de E dont P est la matrice de passage de β à γ et γ0 la base
de F dont Q est la matrice de passage de β0 à γ0 , alors d’après le théorème de changement de
base, B = Mat(u, γ, γ0 ). Or, d’après la remarque précédente, on a rg(u) = rg(A) et rg(u) = rg(B),
d’où le résultat.
Dans la suite, nous allons montré que la réciproque est aussi vraie.
Lemme 2.3.1
Soit K un corps commutatif, A une matrice non nul de Mm,n (K) et r un entier ≥ 1. Alors A est de
rang r, si et seulement si, A est équivalente à la matrice en blocs I(n, r), définie par
Ir 0
I(n, r) =
0 0
Preuve 2.3.3
(=⇒) Supposons que A est de rang r.
Soient β = (e1 , e2 , . . . , en ) et β0 = (e01 , e02 , . . . , e0m ) les bases canoniques de E = Mn,1 (K) et de
F = Mm,1 (K) respectivement. Soit u : E −→ F l’application linéaire de matrice A par rapport
aux bases β et β0 . rg(A) = r, donc dimK (Im(u)) = r, soit (v01 , v02 , . . . , v0r ) une base de Im(u) et
soient v0r+1 , . . . , v0m des vecteurs de F tels que γ0 = (v01 , v02 , . . . , v0r , v0r+1 , . . . , v0m ) soit une base de F.
Pour chaque i, 1 ≤ i ≤ r, soit vi ∈ E tel que v0i = u(vi ), alors il est facile de voir que (v1 , v2 , . . . , vr )
est libre et que Vect({v1 , v2 , . . . , vr }) ∩ ker(u) = {0}. Puisque r + dimK (ker(u)) = n = dimK (E)
alors
E = Vect({v1 , v2 , . . . , vr }) ⊕ ker(u)
41 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 42
Soit (vr+1 , . . . , vn ) une base de ker(u), alors γ = (v1 , v2 , . . . , vr , vr+1 , . . . , vn ) est une base de E et
on voit facilement que Mat(u, γ, γ0 ) = I(n, r). Soient P et R les matrices de passage de β à β0 et
de γ à γ0 respectivement, alors on sait, d’après le théorème de changement de bases que
Théorème 2.3.2
Soient K un corps commutatif, A et B deux matrices de Mm,n (K). Alors A et B sont équivalentes,
si et seulement si, rg(A) = rg(B).
Preuve 2.3.4
(=⇒) Si A et B sont équivalentes, alors, d’après la remarque précédente, rg(A) = rg(B).
(⇐=) Si maintenant rg(A) = rg(B) = r, alors, d’après le lemme précédent, A et B sont équiva-
lentes à la matrice I(n, r), puisque la relation d’équivalence entre matrices est transitive, alors A
et B sont équivalentes.
2.4 Exercices
Exercice 2.4.1
On considère le corps C comme un R-espace vectoriel.
a) Trouver une base de C.
b) Montrer que pour tout endomorphisme f de C , il existe (a, b) ∈ C2 tel que
∀z ∈ C, f (z) = az + bz
c) Trouver une condition necessaire et suffisante sur a et b pour que f soit un isomorphisme
de C.
Exercice 2.4.2
Soit E = M2 (R) muni de sa base canonique (e1 , e2 , e3 , e4 ). Rappelons que
1 0 0 1 0 0 0 0
e1 = , e2 = , e3 = , e4 =
0 0 0 0 1 0 0 1
42 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 43
Exercice 2.4.3
Soient E un K-espace vectoriel de dimension finie, F un K-espace vectoriel quelconque et
u : E −→ F une application linéaire.
a) Montrer que si H est un sous-espace de E, alors
43 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 44
Exercice 2.4.9
Soient E et F deux K-espaces vectoriels avec Ede dimension finie. u et v deux applications
linéaires de E vers F. Montrer que les deux propositions suivantes sont équivalentes :
i) rg(u + v) = rg(u) + rg(v).
ii) Im(u) ∩ Im(v) = {0} et E = ker(u) + ker(v).
Exercice 2.4.10
Soient E un K-espace vectoriel de dimension finie = n, u et v deux endomorphismes de E. On
suppose que u + v inversible et uov = 0
Montrer que rg( f ) + rg(g) = n
Exercice 2.4.11
Soient E un K-espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels de E.
1. A quelle condition existe-t-il un endomorphisme u de E tel que
Im(u) = F et Ker(u) = G ?
2. On pose E = {u ∈ L(E) : Im(u) = F et Ker(u) = G}. Montrer que E muni de la loi ◦ est
un groupe, si et seulement si, E = F ⊕ G.
Exercice 2.4.12
Soient E un K-espace vectoriel de dimension finie = n, u et v deux endomorphismes de E tels
que :
E = Im(u) + Im(v) = Ker(u) + Ker(v)
Montrer que :
a) Les sommes Im(u) + Im(v) et Ker(u) + Ker(v) sont directes
b) E = Im(u + v) et rg(u + v) = rg(u) + rg(v) = n
Exercice 2.4.13
Soient K un coprs commutatif et A ∈ Mn (K) avec rg(A) = 1.
1. Montrer qu’il existe X ∈ Mn,1 (K) et Y ∈ Mn,1 (K), tels que A = X tY .
2. Montrer que Tr(A) = tXY .
3. Pour chaque entier naturel p, exprimer une relation entre A p , A et Tr(A).
4. Pour α ∈ K, calculer (I + A)(I + αA) et en déduire une condition necessaire et suffisante
sur Tr(A) pour que I + A soit inversible.
Exercice 2.4.14
Soient n ∈ N et a0 , a1 , . . . , an des réels deux à deux distincts. On considère l’application :
ϕ : Rn [X] −→ Rn+1
P 7−→ (P(a0 ), P(a1 ), . . . , P(an ))
44 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 45
0 0 ... 0 0
3. Montrer que u2 = tr(u)u.
4. Montrer que si ϕ : L(E) −→ K est une application telle que pour tout endomorphisme u
de rang 1 on a u2 = ϕ(u)u, alors ϕ = tr.
Exercice 2.4.16
Soient K un corps commutatif, Mn (K) l’algèbre des matrices carrées à coëfficients dans K et A
une matrice non nulle de Mn (K). On définit l’application u : M par
u : Mn (K) −→ Mn (K)
M 7−→ u(M) = M + Tr(M)A
a) Déterminer, en fonction de A, le noyau et l’image de u.
b) Soit B ∈ Mn (K), résoudre l’équation M + Tr(M)A = B.
Exercice 2.4.17
Soient E un K-espace vectoriel de dimension finie = n, où K est un corps de caractéristique
nulle, et G un sous-groupe fini de GL(E) de cardinal r. Pour u ∈ L(E), on pose :
1
ũ = ∑ v ◦ u ◦ v−1
r v∈G
Montrer que :
45 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 46
a) ∀v ∈ G , ũ ◦ v = v ◦ ũ
b) ∀v ∈ G , u = ũ ⇐⇒ v ◦ u = u ◦ v
c) Tout sous-espace G-stable de E possède un supplémentaire G-stable
d)
\ 1
dimK ( Ker(v − IdE )) = ∑ tr(v)
v∈G
r v∈G
Exercice 2.4.18
Soient n un entier ≥ 1 et p un nombre premier. Montrer que :
Exercice 2.4.19
Soient Mn (K) le K-espace vectoriel des matrices carrées à coëfficients dans K, A ∈ Mn (K) et u
l’endomorphisme de Mn (K) défini par
∀M ∈ Mn (K), u(M) = AM + MA
Exercice 2.4.20
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme nilpotent d’indice
p
a) montrer que p ≤ n
b) Montrer que si Ker(ui ) 6= E, alors Ker(ui ) 6= Ker(ui+1 )
c) Montrer que les conditions suivantes sont equivalentes :
i) p = n
ii) ∀k ∈ {0, 1, 2, . . . , n} , dimK (Ker(uk ) = k
iii) Il existe k ∈ {0, 1, 2, . . . , n − 1} tel que dimK (Ker(uk ) = k
d) On suppose p = n et soit F un sous-espace vectotiel de E stable par u. Montrer qu’il
existe k ∈ {0, 1, 2, . . . , n} tel que F = Ker(uk )
Exercice 2.4.21
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme nilpotent d’indice
p
a) Montrer que p ≤ n
b) Montrer que si Ker(ui ) 6= E, alors Ker(ui ) 6= Ker(ui+1 )
c) Montrer que les conditions suivantes sont equivalentes :
i) p = n
ii) ∀k ∈ {0, 1, 2, . . . , n} , dimK (Ker(uk ) = k
iii) Il existe k ∈ {0, 1, 2, . . . , n − 1} tel que dimK (Ker(uk ) = k
d) On suppose p = n et soit F un sous-espace vectotiel de E stable par u. Montrer qu’il
existe k ∈ {0, 1, 2, . . . , n} tel que F = Ker(uk )
Exercice 2.4.22
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E.
a) Montrer que les propositions suivantes sont equivalentes :
46 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 47
i) u est nilpotent
ii) ∀m ∈ N , tr(um ) = 0
b) Soient u et v deux endomorphismes de E vérifiant u ◦ v − v ◦ u = v. Montrer que v est
nilpotent
Exercice 2.4.23
Soient E un K-espace vectoriel de dimension finie = n, avec n ≥ 2, et u1 , u2 , . . . , un des endo-
morphismes nilpotents de E deux à deux commutant. Montrer que u1 ◦ u2 ◦ · · · ◦ un = 0
Exercice 2.4.24
Soit K un corps de caractéristique nulle . Pour A, B ∈ Mn (K), on pose [A, B] = AB − BA et on
suppose que [A, [A, B]] = 0
a) Montrer que [A, B] est nilpotente
b) On suppose de de plus que A est nilpotente. Montrer que AB est nilpotente
Exercice 2.4.25
Soient E un K-espace vectoriel de dimension finie, u et v deux endomorphismes nilpotents de
E d’indice 2 tels que :
Ker(u) ∩ Ker(v) = {0}
a) Montrer que dimK (Ker(u)) = dimK (Ker(v))
b) Montrer que u + v, u − v, u ◦ v + v ◦ u et u ◦ v − v ◦ u sont inversibles
c) Montrer que E = Ker(u) ⊕ Ker(v)
d) Montrer que u et v sont semblables
Exercice 2.4.26
Soit E un K-espace vectoriel quelconque.
1. Soient F un sous-espace vectoriel de E et G un supplémentaire de F dans E. On appelle
projection sur F parallèlement à G, qu’on note pF , l’endomorphisme de E défini par :
pF : E = F ⊕ G −→ E
x = x1 + x2 7−→ x1
∀x ∈ E, x = pF (x) + pG (x)
2. On dit qu’un endomorphisme de E est un projecteur de E, si u2 = u. On suppose que u
est un projecteur de E. Montrer que
a) IdE − u est un projecteur de E.
b) Im(u) = {x ∈ E : u(x) = x}.
c) E = Ker(u) ⊕ Im(u).
d) u est la projection sur Im(u) parallèlement à ker(u).
e) rg(u) = Tr(u).
3. Soient F un sous-espace vectoriel de E et p un projecteur de E. Montrer que :
a) p−1 (F) = ker(p) ⊕ (F ∩ Im(p))
47 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 48
Exercice 2.4.27
Soit N un entier naturel et soit F = { f ∈ C ∞ (R) : f (0) = f 0 (0) = . . . f (N) (0) = 0}.
a) Montrer que F est un sous-espace vectoriel de C ∞ (R).
b) Trouver un supplémentaire G de F dans C ∞ (R) et déterminer la projection de C ∞ (R) sur
G parallèlement à F.
Exercice 2.4.28
Soient E un R-espace vectoriel et u un endomorphisme de E.
1. On suppose qu’il existe un projecteur p de E tel que p ◦ u − u ◦ p = u.
a) montrer que u ◦ p = 0.
b) En déduire que u ◦ u = 0.
2. Réciproquement, on suppose que u ◦ u = 0.
a) Montrer que Im(u) ⊂ Ker(u).
b) Soit F un sous-espace vectoriel de E tel que Im(u) ⊂ F ⊂ Ker(u) et soit G un sup-
plémentaire de F dans E. Soit q la projection de E sur F parallèlement à G. Calculer
q ◦ u − u ◦ q.
3. Donner une condition necessaire et suffisante pour qu’il existe un projecteur p de E tel
que
p◦u−u◦ p = u
Cette condition etant supposée remplie, y-a-t-il toujours unicité du projecteur p ?
4. On prend E = R2 et u l’endomorphisme de E défini par :
a) Vérifier que u ◦ u = 0.
b) Déterminer un projecteur p de E tel que p ◦ u − u ◦ p = u.
Exercice 2.4.29
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E. Montrer que
48 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 49
Exercice 2.4.31
Soient E un R-espace vectoriel de dimension finie, P l’ensemble de tous les projecteurs de E et
γ un chemin de P . Montrer qu’il existe e1 , e2 , . . . , em des fonctions continues de R vers E telles
que ∀t, (e1 (t), e2 (t), . . . , em (t)) soit une base de Im(γ(t)).
Exercice 2.4.32
Soient E un K-espace vectoriel et f un endomorphisme non nul de E.
On pose E f = {u ◦ f : u ∈ LK (E)}.
a) Montrer que E f est un sous-espace vectoriel de LK (E).
b) Soit g un endomorphisme de E. Montrer que
g ∈ E f ⇐⇒ ker( f ) ⊆ ker(g)
Exercice 2.4.33
Soit u un endomorphisme de E tel que u2 = −IdE . Pour chaque x ∈ E, on pose Ex = Vect({x, u(x)}).
1. Calculer dim(Ex ).
2. Soit F un sous-espace stable par u. Montrer que
i) Ex ∩ F 6= {0} =⇒ Ex ⊂ F
ii) Si x ∈
/ F alors la somme Ex + F est directe.
3. Montrer qu’il existe x1 , x2 , . . . , xm dans E tels que
Exercice 2.4.34
Soient A une matrice de Mn (K) et k un entier ≥ 1 tel que Ak = I. On pose B = I + A + · · · + Ak−1
et soient u et v les endomorphismes de Kn de matrices respectivement A et B dans la base
canonique de Kn .
1. Montrer que
i) Ker(u − Id) = Im(v).
ii) Im(u − Id) = Ker(v).
iii) Kn = Ker(v) ⊕ Im(v).
2. En déduire que tr(B) = k.rg(B).
Exercice 2.4.35
Soient E, F deux K-espaces vectoriels de dimension finie et f , g deux éléments de L(E, F)
1. Montrer que les conditions suivantes sont equivalentes :
i) Im(g) ⊆ Im( f )
49 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 50
Exercice 2.4.36
Soient n un entier ≥ 2, E = Mn (C) et G = GLn (C)
1. Pour A ∈ E, montrer l’equivalence des conditions suivantes :
i) A est non inversible
ii) Il existe P ∈ G tel que pour tout λ ∈ C, P − λ.A ∈ G
2. Soient A ∈ E, r ≤ n et (C) la condition suivante :
(C) : Il existe P ∈ G tel que pour exactement r valeurs de λ, P − λ.A est non inversible.
Montrer que :
a) Si rang(A) = r alors (C) est vérifiée
b) Si (C) est vérifiée alors rang(A) ≥ r
3. Soit f ∈ L(E) tel que f (G) ⊆ G. Montrer que :
a) ∀A ∈ E , f (A) ∈ G =⇒ A ∈ G
b) ∀A ∈ E , rang( f (A)) ≥ rang(A)
c) Montrer que f conserve le rang et que f est un automorphisme de E
Exercice 2.4.37
Soit E le C-espace vectoriel des polynômes P de C[X,Y ] tels que
degX (P) ≤ 2 et degY (P) ≤ 2
1. Quel est la dimension de E ?
2. Soit u l’application défini sur E par :
∂2 P
∀P ∈ E , u(P) =
∂X∂Y
Montrer que u est un endomorphisme de E et déterminer la dimension de Ker(u) puis
celle de Im(u)
Exercice 2.4.38
Soient E, F, G trois K-espaces vectoriels, f ∈ L(E, F) et g ∈ L(F, G). On suppose que F/Im( f )
et G/Im(g) sont de dimension finie. Montrer que G/Im(g ◦ f ) est de dimension finie
Exercice 2.4.39
Soient E un K-espace vectoriel de dimension finie, u un endomorphisme de E F et G les parties
de E définies par : [ \
F= Ker(u p ) , G = Im(u p )
p≥0 p≥0
50 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 51
H = {g ∈ L(F, E) : f ◦ g ◦ f = 0}
a) Montrer que si H = {0} alors f est bijective
b) On suppose que dimK (E) = n, dimK (F) = p et rang( f ) = r. Déterminer la dimension
de H sur K.
Exercice 2.4.41
Soient K un corps de caractéristique nulle et Mn (K) le K-espace vectoriel des matrices carrées
d’ordre n à coëfficients dans K. On dit qu’une partie G de Mn (K) est un S-groupe, si G muni
de la multiplication matricielle est un groupe (Attention : G n’est pas necessairement un sous-
groupe de GLn (K)). Dans ce cas on appelle l’élément neutre de G , qu’on note J, la S-unité de
G et l’inverse d’un élément A de G , qu’on note à le S-inverse de A.
1. Pour tout λ ∈ K ∗ , A(λ) est l’élément de Mn (K) dont tous les coëfficients sont égaux à λ.
Montrer que G = {A(λ) : λ ∈ K ∗ } est un S-groupe dont on déterminera la S-unité et le
S-inverse d’un élément
2. Soit G un S-groupe quelconque de Mn (K)
a) Montrer que tous les éléments de G ont même image et même noyau
b) En déduire que si G ∩ GLn (K) est non vide alors G est un sous-groupe, au sens ordi-
naire, de GLn (K)
c) Montrer que pour tout A ∈ G , on a :
Ker(A) ⊕ Im(A) = K n
3. Réciproquement, soient F et G deux sous-espaces supplémentaires de K n et soit G la
partie de Mn (K) formée des matrices A ∈ Mn (K) telles que F et G soient stables par A,
A|F est inversible et A|G = 0
Montrer que G est un S-groupe
Exercice 2.4.42
Soit f : Mn (K) → K une application non constante vérifiant :
∀A ∈ Mn (K) , ∀B ∈ Mn (K) , f (A.B) = f (A) f (B)
a) Montrer que f (0) = 0 et f(I)=1
b) Montrer que
∀A ∈ Mn (K) , f (A) 6= 0 ⇐⇒ A ∈ GLn (K)
Problème 2.4.1
Soit E un K-espace vectoriel quelconque. Pour tout endomorphisme u de E on pose ∀k , Nk =
Ker(uk )
51 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 52
Problème 2.4.2
Dans toute la suite E désigne un R-espace vectoriel de dimension finie et u un endomorphisme
de E tel que u2 = −IdE
1. a) Montrer que E est necessairement de dimension paire
b) i) Montrer que s’il existe e1 , e2 , . . . , er ∈ E tels que
(e1 , e2 , . . . , er , u(e1 ), u(e2 ), . . . , u(er−1 )) soit libre, alors
(e1 , e2 , . . . , er , u(e1 ), u(e2 ), . . . , u(er )) est aussi libre
ii) En déduire qu’il existe un entier p tel que (e1 , e2 , . . . , e p , u(e1 ), u(e2 ), . . . , u(e p )) soit
une base de E
c) Montrer que si la dimension de E est paire, alors il existe au moins un endomorphisme
u de E tel que u2 = −IdE
2. On suppose dans la suite que la dimension de E est paire
a) Montrer qu’il existe un sous-espace vectoriel F de E tel que :
E = F ⊕ u(F)
b) Soit K = {P(u) : P ∈ R[X]}. Montrer que K est un corps commutatif et que pour tout
v ∈ K, il existe a, b ∈ R tels que v = a.IdE + b.u
c) On munit E de la loi externe suivante :
K×E → E
(v,x)7→v.x=v(x)
Montrer que E muni de cette loi externe est un K-espace vectoriel que l’on note Ê
d) Montrer que dimR (E) = 2dimK (Ê)
Problème 2.4.3
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme non injectif de
E. Pour tout entier k ≥ 0, on pose Nk = Ker(uk ) et Ik = Im(uk )
1. Vérifier que pour tout k ≥ 0, Nk ⊆ Nk+1 et Ik ⊆ Ik+1
2. Montrer que :
a) ∀k ≥ 0 , Nk = Nk+1 =⇒ Nk+1 = Nk+2
52 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 53
Problème 2.4.4
Soit E un K-espace vectoriel de dimension finie, où K est un corps de caractéristique différente
de 2. Dans ce problème on se propose de montrer que tout endomorphisme f de E vérifie la
proprièté (P) suivante :
(P) : f est la différence de deux automorphismes de E
1. Montrer que que si f est un automorphisme de E , alors 2K . f est un automorphisme de
E. En déduire que tout automorphisme de E possède la proprièté (P)
2. On suppose que f est un endomorphisme de E non nul et non injectif et que E = Ker( f )⊕
Im( f )
a) Soit f˜ : Im( f ) → Im( f ) l’application qui à x fait correspondre f (x) . Montrer que f˜
est un automorphisme de Im( f ) . En déduire qu’il existe deux automorphismes f1 et f2
de Im( f ) tels que f˜ = f1 − f2
b) Montrer que l’on peut prolonger f1 et f2 en deux automorphismes de E , g1 et g2
respectivement, tels que les restrictions de g1 et g2 à Ker( f ) coincident
c) En déduire que f possède la proprièté (P)
3. Soit maintenant f un endomorphisme de E, non nul et non inversible. Soit F un supplé-
mentaire de Im( f ) dans E
a) Justifier que F 6= {0}
b) Montrer qu’il existe un isomorphisme h1 de F sur Ker( f )
c) Montrer que l’on peut prolonger h1 en un automorphisme h de E
d) Montrer que Ker( f oh) = F et Im( f oh) = Im( f )
e) En déduire que l’endomorphisme f oh vérifie la proprièté (P)
f) Déduire de ce qui précède que f possède la proprièté (P)
Problème 2.4.5
Soient E un K-espace vectoriel quelconque
1. On suppose que E de dimension finie. Soient u un endomorphisme non nul de E, D une
droite vectoriel de E et H un hyperplan de E. Montrer qu’il existe deux endomorphismes
de E, v et w tels que :
D = Im(v ◦ u ◦ w) et H = Ker(v ◦ u ◦ w)
53 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 54
Problème 2.4.6
2 a 1−a
I) Pour tout (a, b) ∈ [0, 1] , on pose Ma,b =
b 1−b
1. Etudier l’inversibilité de Ma,b et calculer son inverse lorsqu’elle existe.
2. La matrice Ma,b est-elle diagonalisable ?
II) On désigbe par Sn l’enseble des matrices A = (ai j ) de Mn (R) telles que
n
∀i, 1 ≤ i ≤ n, ∑ ai j = 1
j=1
Un élément de Sn s’appelle une matrice stochastique. On désigne aussi par Sn+ les élé-
ments de Sn dont tous les coefficients sont positifs ou nuls et par Jn la matrice de Mn (R)
dont tous les coefficients valent 1.
1. a) Montrer que
∀A ∈ Mn (R), A ∈ Sn ⇐⇒ AJn = Jn
b) Montrer que Sn est stable pour la multiplication des matrices.
c) Montere que si A ∈ Sn est inversible, alors A−1 ∈ Sn .
d) Montrer que Sn+ est stable pour la multiplication des matrices.
e) Si A ∈ Sn+ est inversible, a-t-on A−1 ∈ Sn+ ?
2. Soient β = (e1 , e2 , . . . , en ) la base canonique de Rn , σ une permutation de Sn et fσ
l’endomorphisme de Rn défini par :
54 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 55
Problème 2.4.7
Une matrice A = (ai j ) de Mn (K) est dite magique, si la somme des coefficients d’une ligne ou
d’une colonne quelconque de A est la même, c’est à dire, il esiste une constante, notée s(A),
telle que
n n
∀i, 1 ≤ i ≤ n, ∑ aik = s(A) et ∀ j, 1 ≤ j ≤ n, ∑ ak j = s(A)
k=1 k=1
On note M l’ensemble de toutes les matrices mgiques de Mn (K) et on désigne par U la matrice
de Mn (K) définie par
1 ... ... 1
...
1 1 1
U = . .
.. . . . . ...
.
1 ... ... 1
1. Montrer que M est une sous-algèbre de Mn (K) et que l’application :
s : M −→ K
A 7−→ s(A)
est un homomorphisme d’algèbres.
2. Montrer que si A est magique inversible, alors A−1 est aussi magique.
3. Montrer que M est la somme directe du sous-espace vectoriel des matrices symétriques
magiques et du sous-espace vectoriel des matrices antisymétriques magiques.
4. Pour chaque A ∈ Mn (K) on note fM l’endomorphisme de Kn de matrice A dans la base
canonique de Kn . On pose
G = Vect((1, 1, . . . , 1)) et H = {(x1 , x2 , . . . , xn ) ∈ Kn : x1 + x2 + · · · + xn = 0}
a) Montrer que A ∈ M ⇐⇒ G et H sont stables par fM
b) En déduire la dimension de M .
Problème 2.4.8
Soient K un corps commutatif et M2 (K) l’algèbre des matrices carrées d’ordre 2 à coëfficients
dans K.
1. Pour tout T ∈ M2 (K), Montrer que les P.S.S.E :
i) T 2 = T
ii) Il existe P ∈ GL2 (K) tel que T = PJP−1
1 0
où J = )
0 0
iii) tr(T ) = 1 et det(T ) = 0
2. On suppose que K est un corps fini de cardinal q
a) Soit β l’ensemble de toutes les bases du K-espace vectoriel K 2 et soit (e1 , e2 ) la base
canonique de K 2 . Montrer que l’application :
Φ : GL2 (K) −→ β
T 7−→ (Te1 , Te2 )
est bijective
55 Mohamed HOUIMDI
CHAPITRE 2. APPLICATIONS LINÉAIRES-MATRICES 56
56 Mohamed HOUIMDI
Chapitre 3
Formes linéaires-Dualité
Définition 3.1.1
Soit E un K-espace vectoriel. On appelle espace vectoriel dual de E, qu’on note E ∗ , l’espace
vectoriel de toutes les formes linéaires sur E
E ∗ = LK (E, K)
Notations 3.1.1
Pour toute forme linéaire φ ∈ E ∗ et pour tout x ∈ E on pose :
Remarque 3.1.1
Si E est de dimension finie sur K alors E ∗ est aussi de dimension finie et on a
dimK (E) = dimK (E ∗ ), donc dans ce cas E et E ∗ sont isomorphes. Cependant, si E n’est pas de
dimension finie alors E peut ne pas être isomorphe à E ∗ , (Voir exemple ci-dessous)
Exemple 3.1.1
1. Soient K un corps commutatif et (e1 , e2 , · · · , en ) la base canonique de K n . Alors pour tout
y ∈ K n , l’application φy définie par :
n n n
n
∀x ∈ K , < x, φy >= ∑ xi yi où x = ∑ xi ei et y = ∑ yi ei
i=1 i=1 i=1
57
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 58
Alors (e∗1 , e∗2 , · · · , e∗n ) est une base de E ∗ appelée base duale de (e1 , e2 , · · · , en )
58 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 59
Preuve 3.2.1
Exercice
Proposition 3.2.2
Soient E un K-espace vectoriel de dimension finie = n, (e1 , e2 , · · · , en ) une base de E et
(e∗1 , e∗2 , · · · , e∗n ) sa base duale, alors on a :
i)
n
∀x ∈ E , x = ∑ < x, e∗i > ei
i=1
ii)
n
∀φ ∈ E ∗ , φ = ∑ < ei , φ > e∗i
i=1
Preuve 3.2.2 n
i) Soit x ∈ E, alors x = ∑ xk ek , donc pour tout i , i = 1, 1, · · · , n :
k=1
n
< x, e∗i >= ∑ xk < ek , e∗i >
k=1
n
< ei , φ >= ∑ αk < ei, e∗k >
k=1
Remarque 3.2.1
Soient E un K-espace vectoriel de dimension finie = n, (e1 , e2 , . . . , en ) une base de E et (e∗1 , e∗2 , . . . , e∗n )
sa base duale.
Pour chaque i , 1 ≤ i ≤ n et chaque j , 1 ≤ j ≤ n , on désigne par ei ⊗ e∗j , l’endomorphisme de
E défini par :
∀x ∈ E , (ei ⊗ e∗j )(x) =< x, e∗j > ei
Alors la famille (ei ⊗ e∗j )1≤i, j≤n forme une base de L(E)
Pour chaque i et chaque j, on a
59 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 60
Exemple 3.2.1
1. E = K n et (e1 , e2 , · · · , en ) la base canonique de K n alors (e∗1 , e∗2 , · · · , e∗n ), sa base duale, est
définie par :
∂f 0
Donc on en déduit que ∀i, i = 1, 2, · · · , n , ∂xi (x0 ) =< ei , f (x0 ) >
Proposition 3.2.3
Soiet E un K-espace vectoriel de dimension finie, (e1 , e2 , · · · , en ) une base de E et (e∗1 , e∗2 , · · · , e∗n )
sa base duale . Soit u un endomorphisme de E et
A = (ai, j )1≤i, j≤n la matrice de u dans la base (e1 , e2 , · · · , en ), alors :
60 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 61
Preuve 3.2.3
Pour tout j, j = 1, 2, · · · , n , on a :
n
u(e j ) = ∑ ak, j ek
k=1
n
=⇒< u(e j ), e∗i >= ∑ ak, j < ek , e∗i >
k=1
Or < ek , e∗i >= 0 pour k 6= i et < ei , e∗i >= 1 d’où :
∀i, ∀ j, 1 ≤ i, j ≤ n, ai, j =< u(e j ), e∗i >
3.4 Orthogonalité
Définition 3.4.1
Soit E un K-espace vectoriel
i) Pour toute partie A de E, l’orthogonal de A dans E ∗ , qu’on note A⊥ , est la partie de E ∗
définie par :
A⊥ = {φ ∈ E ∗ : ∀x ∈ A, < x, φ >= 0}
ii) Pour toute partie B de E ∗ , l’orthogonal de B dans E, qu’on note ⊥B , est la partie de E
définie par :
⊥B = {x ∈ E : ∀φ ∈ B, < x, φ >= 0}
61 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 62
Proposition 3.4.1
i) Pour toute partie A de E, A⊥ est un sous-espace vectoriel de E ∗
ii) Pour toute partie A de E, A⊥ = (Vect(A))⊥
(=⇒ ∅⊥ = {0E ∗ }⊥ = E)
iii) Pour toute partie B de E ∗ , ⊥B est un sous-espace vectoriel de E
iv) Pour toute partie B de E ∗ , ⊥B = ⊥(Vect(B)
(=⇒ ⊥∅ = ⊥{0E } = E ∗ )
v) E ⊥ = {0E ∗ } et ⊥E ∗ = {0E }
Preuve 3.4.1
i) Pour chaque x ∈ A soit x̃ la forme linéaire définie sur E ∗ par :
Donc A⊥ = ∩ Ker(x̃)
x∈A
A⊥ est une intersection de sous-espaces vectoriels de E ∗ , donc A⊥ est un sous-espace vectoriel
de E ∗
iv) Exercice
v)
φ ∈ E ⊥ ⇐⇒ ∀x ∈ E , < x, φ >= 0
Donc φ ∈ E ⊥ si et seulement si, φ = 0E ∗
Si maintenant x ∈ ⊥E ∗ alors pour tout φ ∈ E ∗ , < x, φ >= 0 donc x = 0E , car si x 6= 0, d’après
le théorm̀e de prolongement, il existe φ ∈ E ∗ tel que < x, φ >6= 0
Théorème 3.4.1
Soient E un K-espace vectoriel et F un sous-espace vectoriel de E Alors :
– F ∗ est isomorphe à E ∗ /F ⊥
– (E/F)∗ est isomorphe à F ⊥
Preuve 3.4.2
i) Soit l : E ∗ −→ F ∗ l’application qui à φ ∈ E ∗ fait correspondre la restriction de φ à F. Alors
il est clair que l est linéaire et que, d’après le théorème de prolongement des formes linéaires, l
est surjective et on a :
φ ∈ Ker(l) ⇐⇒ φ|F = 0F ∗
⇐⇒ ∀x ∈ F, < x, φ >= 0
⇐⇒ φ ∈ F ⊥
62 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 63
Si s(x) = s(y) alors x − y ∈ F donc < x − y, ψ >= 0 et par suite φ définit bien une application et
on a φ ∈ (E/F)∗ avec l(φ) = ψ
D’où lerésultat
Corollaire 3.4.1
Soit E un K-espace vectoriel de dimension finie. Alors pour tout sous-espace vectoriel F de E,
on a :
dimK (E) = dimK (F) + dimK (F ⊥ )
Preuve 3.4.3
On sait que (E/F)∗ est isomorphe à F ⊥ , donc dimK ((E/F)∗ ) = dimK (F ⊥ ) avec dimK ((E/F)∗ ) =
dimK (E/F) = dimK (E) − dimK (F). D’où le résultat
Remarque 3.5.1
Considèrons l’application
j : E −→ E ∗∗
x 7−→ j(x) = xe
où xe : E ∗ −→ K est définie par :
63 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 64
Proposition 3.5.1
Soient E un K-espace vectoriel de dimension finie = n.
i) Pour toute base (ϕ1 , ϕ2 , . . . , ϕn ) de E ∗ , il existe une base (v1 , v2 , . . . , vn ) de E, appelée base
préduale de (ϕ1 , ϕ2 , . . . , ϕn ), telle que
∀ j, 1 ≤ j ≤ n, v∗j = ϕ j
Preuve 3.5.1
i) Soit (ϕ1 , ϕ2 , . . . , ϕn ) une base de E ∗ et soit (ϕ∗1 , ϕ∗2 , . . . , ϕ∗n ) sa base duale dans (E ∗ )∗ =
E ∗∗ . Puisque E est de dimension finie, alors l’application
j : E −→ E ∗∗
x 7−→ x̂
est bijective. Donc l’image réciproque (v1 , v2 , . . . , vn ) de (ϕ∗1 , ϕ∗2 , . . . , ϕ∗n ) par j est une
base de E et on a ∀ j, 1 ≤ j ≤ n, vˆj = ϕ∗j . Par suite pour tout i, 1 ≤ i ≤ n et pour tout j,
1 ≤ j ≤ n, on aura
< vi , ϕ j >=< ϕ j , v̂i >=< ϕ j , ϕi >= δi j
D’où ∀ j, 1 ≤ j ≤ n, ϕ j = v∗j .
ii) Psons Q−1 = (αi j )1≤i, j≤n et P = (pi j )1≤i, j≤n . Alors
n n
∀ j, 1 ≤ j ≤ n, e∗j = ∑ αk j ϕk et v j = ∑ pk j ek
k=1 k=1
∀φ ∈ F ∗ , tu(φ) = φ ◦ u
64 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 65
Remarque 3.6.1
D’après la définition de t u on a :
Proposition 3.6.1
Soient E, F deux K-espaces vectoriels et u : E −→ F une application linéaire. Si v : F ∗ −→ E ∗
est une application linéaire vérifiant :
Preuve 3.6.1
Exercice
Proposition 3.6.2
i) a)
∀u ∈ LK (E, F), ∀v ∈ LK (E, F), t (u + v) = tu + tv
b)
∀λ ∈ K, ∀u ∈ LK (E, F), t (λ.u) = λ.t u
ii)
∀u ∈ LK (E, F), ∀v ∈ Lk (F, G), t (v ◦ u) = tu ◦ tv
Preuve 3.6.2
Exercice
Théorème 3.6.1
Soient E et F deux K-espaces vectoriels, u une application linéaire de E vers F, alors :
i) Ker(t u) = (Im(u))⊥
ii) Im(t u) = (Ker(u))⊥
Preuve 3.6.3
i)
φ ∈ Ker(t u) ⇐⇒ t u(φ) = 0E ∗
⇐⇒ ∀x ∈ E , < x, t u(φ) >=< u(x), φ >= 0
⇐⇒ φ ∈ (Im(u))⊥
D’où Ker(t u) = (Im(u))⊥
65 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 66
Donc ψ = t u(φ)
Théorème 3.6.2
Soient E un K-espace vectoriel de dimension finie, u un endomorphisme de E,
β = (e1 , e2 , · · · , en ) une base de E et A = (ai, j )1≤i, j≤n = Mat(u, β), alors
Mat(tu, β∗ ) = tA
Preuve 3.6.4
Rappelons que ai, j =< u(e j ), e∗i >
Soit B = (bi, j )1≤i, j≤n la matrice de tu dans la base (e∗1 , e∗2 , · · · , e∗n ) alors on a :
n
∀ j, j = 1, 2, . . . , n, tu (e∗j ) = ∑ bk, j e∗k
k=1
3.7 Exercices
Exercice 3.7.1
Soient E = R3 [X] l’espace vectoriel des polynômes réels de degré ≤ 3, β = (e0 , e1 , e2 , e3 ) la
base canonique de E et F la partie de E définie par :
Rappelons que e0 = 1, e1 = X, e2 = X 2 et e3 = X 3 .
1. Vérifier que F est un sous-espace vectoriel de E et déterminer une base de F.
2. a) Quelle est la dimension de F ⊥ ?
66 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 67
b) Montrer que
ϕ ∈ F ⊥ ⇐⇒ ϕ(e0 ) = ϕ(e1 ) = ϕ(e3 )
.
c) Soient ϕ0 , ϕ1 , ϕ2 , et ϕ3 les formes linéaires définies par :
ϕ0 = e∗2
ϕ1 = e∗0 + e∗1 + e∗3
ϕ2 = e∗1 − e∗2
ϕ3 = e∗2 − e∗3
Vérifier que (ϕ0 , ϕ1 , ϕ2 , ϕ3 ) est une base de E et déterminer sa base préduale (v0 , v1 , v2 , v3 ).
Exercice 3.7.2
Soient n un entier ≥ 1 et Rn [X] l’ensemble des polynômes à coëfficients réels de degré ≤ n et
soit l’application
ϕ : Rn [X] −→ R
P 7−→ ϕ(P) = 01 P(t)dt
R
ϕi : Rn [X] −→ R
P 7−→ P( ni )
Montrer que ∀i ∈ {0, 1, . . . , n}, ϕi est une forme linéaire sur Rn [X] et que (ϕ0 , ϕ1 , . . . , ϕn )
est une base de (Rn [X])∗ .
d) En déduire qu’il existe des scalaires a0 , a1 , . . . , an tel que
Z 1 n
i
∀P ∈ Rn [X], P(t)dt = ∑ ai P( )
0 i=0 n
Exercice 3.7.3
Soit E l’espace vectoriel des polynômes de degré ≤ 3 à coëfficients réels. On considère les
formes linéaires ϕ1 , ϕ2 , ϕ3 , ϕ4 définies sur E par :
67 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 68
Exercice 3.7.4
Soit E = Kn [X], dans chacune des cas suivants, montrer que β est une base de E et d‘’eterminer
sa base duale
i) β = (ϕ0 , ϕ1 , . . . , ϕn ), où chaque ϕi , 0 ≤ i ≤ n, est définie par :
∀P ∈ E, ϕi (P) = P(xi )
Exercice 3.7.6
1. Montrer que si F est un sous-espace vectoriel de E de dimension finie et si l’espace
quotient E/F est de dimension finie, alors E est de dimension finie.
2. Soient ϕ1 , ϕ2 , . . . , ϕn des formes linéaires sur E. Montrer que si E est de dimension infinie
alors ∩ni=1 Ker(ϕi ) 6= {0} et que ∩ni=1 Ker(ϕi ) est de codimension finie.
Exercice 3.7.7
Soit E un K-espace vectoriel quelconque et p un entier ≥ 1. On suppose qu’il existe p formes
linéaires ϕ1 , ϕ2 , . . . , ϕ p , telles que
68 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 69
Exercice 3.7.8
Soient f1 , f2 , . . . , fn des fonctions de R vers R, telle que ( f1 , f2 , . . . , fn ) soit libre dans RR .
Montrer qu’il existe des nombres réels x1 , x2 , . . . , xn , telle que
det ( fi (x j ))1≤i, j≤n 6= 0
Exercice 3.7.9
Soient K un corps commutatif et E = Kn [X]. Soient Q ∈ E et pour chaque i, 1 ≤ i ≤ n, Qi =
Q(X + i).
1. Montrer que (Q, Q0 , Q00 , . . . , Q(n) ) est une base de E.
2. Montrer que si ϕ est une forme linéaire sur E, alors il existe (α0 , α1 , . . . , αn ) ∈ K n+1 , tel
que
∀P ∈ E, ϕ(P) = α0 P(0) + α1 P0 (0) + α2 P00 (0) + · · · + αn P(n) (0)
3. Soit ϕ ∈ E ∗ , telle que ϕ(Q0 ) = ϕ(Q1 ) = . . . = ϕ(Qn ) = 0. Montrer que ϕ est nulle.
4. En déduire que (Q0 , Q1 , . . . , Qn ) est une base de E.
Exercice 3.7.10
Soient K un corps commutatif, A = (ai, j )1≤i, j≤n un élément de Mn (K). Rappelons que la trace
de A est df́inie par :
n
tr(A) = ∑ ai,i
i=1
a) Montrer que pour tout A, B ∈ Mn (K), tr(A.B) = tr(B.A) et en déduire que deux matrices
semblables ont même trace
b) Montrer que si pour tout A ∈ Mn (K) , tr(A.B) = 0 alors B = 0
c) Montrer que l’application Φ : Mn (K) → (Mn (K))∗ qui à A fait correspondre φA qui est
défini par :
∀B ∈ Mn (K) , < B, φA >= tr(A.B)
est un isomorphisme d’espaces vectoriels
d) Soit A ∈ Mn (K) tel que pour tout B ∈ Mn (K), A.B = B.A. Montrer qu’il existe λ ∈ K tel
que A = λ.I
e) Soit φ une forme linéaire sur Mn (K) tel que :
Exercice 3.7.12
Soient E = {P ∈ C[X] : deg(P) ≤ 2}, (e1 , e2 , e3 ) la base canonique de E. Rappelons que
e1 = 1, e2 = X et e3 = X 2
69 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 70
Déterminer t u
Exercice 3.7.13
Soient B1 et B2 deux bases d’un K-espace vectoriel E et soit P la matrice de passage de B1 à
B2 . Déterminer la matrice de passage Q de B1∗ à B2∗ .
Exercice 3.7.14
Soient En l’espace vectoriel des polynômes de de degré ≤ n à coëfficients réels, a0 , a1 , . . . , an
des réels deux à deux distincts et f0 , f1 , . . . , fn les formes linéaires sur En définies par :
∀ j, 1 ≤ j ≤ n, ∀P ∈ En , f j (P) = P(a j )
Exercice 3.7.15
Soient a et b deux nombres réels quelconques et ϕ1 , ϕ2 , ϕ3 les formes linéaires définies sur R3
par
ϕ1 (x, y, z) = x + ay + bz
ϕ2 (x, y, z) = ax + a2 y + z
ϕ3 (x, y, z) = bx + y + a2 z
a) Trouver une condition necessaire et suffisante sur a et b pour que (ϕ1 , ϕ2 , ϕ3 ) soit une
base de (R3 )∗ .
b) Dans le cas où a = 1 et b = 2 déterminer, dans R3 , la base préduale de (ϕ1 , ϕ2 , ϕ3 ).
Exercice 3.7.16
Soient K un corps commutatif, ϕ1 , ϕ2 , . . . , ϕn les formes linéaires sur K n définies par :
70 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 71
Exercice 3.7.17
Soient E un K-espace vectoriel et φ, φ1 , φ2 , . . . , φm des formes linéaires sur E. (m ≥ 2). Montrer
que les propositions suivantes sont equivalentes :
m
Ker(φi ) ⊆ Ker(φ)
T
i)
i=1
m
ii) Il existe α1 , α2 , . . . , αm ∈ K tel que φ = ∑ αi φi
i=1
Exercice 3.7.18
a) Soit K un corps commutatif. Montrer que (K[X])∗ est isomorphe à KN , le K-espace
vectoriel de toutes les suites de K
b) Montrer que QN n’est pas dénombrable
c) En déduire que Q[X] n’est pas isomorphe à (Q)∗
71 Mohamed HOUIMDI
CHAPITRE 3. FORMES LINÉAIRES-DUALITÉ 72
72 Mohamed HOUIMDI
Chapitre 4
Formes multilinéaires - Déterminants
f : E p −→ K
(x1 , x2 , . . . , x p ) 7−→ f (x1 , x2 , . . . , x p )
73
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 74
Règles de calcul
1. Si f est une forme bilinéaire sur E, alors
i)
∀x1 , x2 , y1 , y2 ∈ E, ∀α1 , α2 , β1 , β2 ∈ K, f (α1 x1 + α2 x2 , β1 y1 + β2 y2 )
= α1 β1 f (x1 , y1 ) + α1 β2 f (x1 , y2 ) + α2 β1 f (x2 , y1 ) + α2 β2 f (x2 , y2 )
ii)
Donc on aura
n n n
f (x1 , x2 , . . . , x p ) = f ( ∑ ai1 1 ei1 , ∑ ai22ei2 , . . . , ∑ ai p pei p )
i1 =1 i2 =1 i p =1
p
Pour chaque (i1 , i2 , . . . , i p ) ∈ Nn , soit ϕ ∈ F (N p , Nn ) définie par :
alors on aura
74 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 75
Remarque 4.1.2
Soit f une forme bilinéaire sur E, alors
i) f est symétrique, si et seulement si
∀x ∈ E, f (x, x) = 0
Théorème 4.1.1
Soient E un K-espace vectoriel, où K est un corps de caractéristique 6= 2, et f une p-forme sur
E, alors f est antisymétrique, si et seulement si, f est alternée.
Preuve 4.1.1
(=⇒) Supposons que f est antisymétrique et soit (x1 , x2 , . . . , x p ) ∈ E p , tel qu’il existe i et j avec
i 6= j et xi = x j . Montrons que f (x1 , x2 , . . . , x p ) = 0, pour cela, supposons par exeple que i < j,
et soit τ la transposition de S p qui échange i et j, rappelons que τ est définie par :
75 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 76
D’autre part, on a
Donc on aura
2K . f (x1 , x2 , . . . , xi , . . . , x j , . . . , x p ) = 0
Puisque K est de caractéristique 6= 2, alors
f (x1 , x2 , . . . , xi , . . . , x j , . . . , x p ) = 0 et par suite f est alternée.
(⇐=) Supposons que f est alternée et montrons que f est antisymétrique. Pour cela et puisque
S p est engendré par les transpositions, il suffit de montrer que si τ est une transposition de S p ,
alors
f (xτ(1) , xτ(2) , . . . , xτ(p) ) = ε(τ) f (x1 , x2 , . . . , x p ) = − f (x1 , x2 , . . . , x p )
Posons τ = (i, j) avec i < j, puisque f est alternée, alors on a
f (x1 , x2 , . . . , xi + x j , . . . , xi + x j , . . . , x p ) = 0
f (x1 , x2 , . . . , xi + x j , . . . , xi + x j , . . . , x p ) =
f (x1 , x2 , . . . , xi , . . . , x j , . . . , x p ) + f (x1 , x2 , . . . , x j , . . . , xi , . . . , x p )
D’où f (x1 , x2 , . . . , x j , . . . , xi , . . . , x p ) = − f (x1 , x2 , . . . , xi , . . . , x j , . . . , x p )
Remarque 4.1.3
1. D’après la démonstration précédente, si K est de caractéristique 2, alors toute forme al-
ternée sur E est antisymétrique, cependant, dans ce cas, la réciproque n’est pas toujours
vraie. Par exemple, soit K = Z/2Z, E = K n et f la forme bilinéaire définie par :
n
Si x = (x1 , x2 , . . . , xn ), et y = (y1 , y2 , . . . , yn ), alors f (x, y) = ∑ xi yi
i=1
Théorème 4.1.2
Soit E un K-espace vectoriel de dimension finie = n, alors on a
i) Pour tout p > n, A p (E) = {0}.
ii) A n (E) est de dimension 1.
76 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 77
Preuve 4.1.2
i) Soit (e1 , e2 , . . . , en ) une base de E et f une p-forme alternée sur E avec p > n. On doit
montrer que f est nulle. Pour cela, rappelons que si (x1 , x2 , . . . , x p ) ∈ E p tel que
n
∀ j, 1 ≤ j ≤ p, x j = ∑ ai j ei
i=1
77 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 78
Dans le deuxième membre de cette somme faisons le changement d’indice ϕ = τσ, donc
on aura, ε(σ) = −ε(ϕ) et lorsque σ décrit Sn \ An , ϕ décrit An , et par suite on a :
Or xi = x j , donc pour tout k, 1 ≤ k ≤ n, ak,i = ak, j et par conséquent on aura aϕ( j),i = aϕ( j), j
et aϕ(i), j = aϕ(i),i , donc
∆(x1 , . . . , xi , . . . , x j , . . . , xn ) =
∑ ε(σ)aσ(1),1 . . . aσ(i),i . . . aσ( j), j . . . aσ(n),n − ∑ ε(ϕ)aϕ(1),1 . . . aϕ(i),i . . . aϕ( j), j . . . aϕ(n),n = 0
σ∈An ϕ∈An
D’où le résultat.
Exemple 4.1.1
1. Si dimK (E) = 2, si f est une forme bilinéaire alternée sur E et si (e1 , e2 ) est une base de
E, alors pour x = x1 e1 + x2 e2 et y = y1 e1 + y2 e2 , on a
x1 y1
f (x, y) = f (x1 e1 + x2 e2 , y1 e1 + y2 e2 ) = (x1 y2 − x2 y1 ) f (e1 , e2 ) = f (e1 , e2 )
x2 y2
Donc
x1 y1
∆(x, y) =
x2 y2
2. Si dimK (E) = 3, si f est une forme trilinéaire alternée sur E et si (e1 , e2 , e3 ) est une base
de E, alors pour x = x1 e1 + x2 e2 + x3 e3 , y = y1 e1 + y2 e2 + y3 e3 et z = z1 e1 + z2 e2 + z3 e3 ,
on a
f (x, y, z) = f (x1 e1 + x2 e2 + x3 e3 , y1 e1 + y2 e2 + y3 e3 , z1 e1 + z2 e2 + z3 e3 )
= (x1 y2 z3 − x1 y3 z2 − x2 y1 z3 + x3 y1 z1 + x2 y3 z1 − x3 y2 z1 ) f (e1 , e2 , e3 )
x1 y1 z1
= x2 y2 z3 f (e1 , e2 , e3 )
x3 y3 z3
78 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 79
4.2 Déterminants
4.2.1 Déterminant d’un système de vecteurs
Définition 4.2.1
Soient E un K-espace vectoriel de dimension finie = n, B = (e1 , e2 , . . . , en ) une base de E et
(x1 , x2 , . . . , xn ) ∈ E n tel que :
n
∀ j, 1 ≤ j ≤ n, x j = ∑ ai, j ei
i=1
On définit le déterminant de (x1 , x2 , . . . , xn ) par rapport à la base (e1 , e2 , . . . , en ), par :
Remarque 4.2.1
Soient E un K-espace vectoriel de dimension finie = n, B = (e1 , e2 , . . . , en ) une base de E et
(x1 , x2 , . . . , xn ) ∈ E n , alors d’après ce qui précéde, l’application :
detB : E n −→ K
(x1 , x2 , . . . , xn ) 7−→ detB (x1 , x2 , . . . , xn )
est une forme n-linéaire alternée sur E telle que pour toute forme n-linéaire alternée f sur E, on
a
f (x1 , x2 , . . . , xn ) = detB (x1 , x2 , . . . , xn ) f (e1 , e2 , . . . , en )
En particulier, si B0 = (e01 , e02 , . . . , e0n ) est une autre base de E, alors f = detB0 est une forme
n-linéaire sur E, donc on aura
∀(x1 , x2 , . . . , xn ) ∈ E n , detB0 (x1 , x2 , . . . , xn ) = detB (x1 , x2 , . . . , xn )detB0 (B)
Donc nous obtenons le résultat suivant :
Théorème 4.2.1
E un K-espace vectoriel de dimension finie = n,
B = (e1 , e2 , . . . , en ) et B0 = (e01 , e02 , . . . , e0n ) deux bases de E. Alors,
Preuve 4.2.1
D’après la remarque précédente, on a
1 = detB0 (B0 ) = detB (B0 )detB0 (B)
Théorème 4.2.2
Soient E un espace vectoriel de dimension finie = n et (x1 , x2 , . . . , xn ) ∈ E n . Alors (x1 , x2 , . . . , xn )
est une base de E, si et seulement si, il existe une base B = (e1 , e2 , . . . , en ) tel que
detB (x1 , x2 , . . . , xn ) 6= 0
Preuve 4.2.2 (Exercice)
79 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 80
Proposition 4.2.1
Soient E un K-espace vectoriel de dimension finie = n, B = (e1 , e2 , . . . , en ), et u un endomorpisme
de E. Alors la quantité :
detB (u(e1 ), u(e2 ), . . . , u(en ))
ne dépend pas de la base B.
Preuve 4.2.3
Soit B0 = (e01 , e02 , . . . , e0n ) une autre base de E. On doit démontrer que
Alors il est clair que f est une forme n-linéaire alternée sur E, donc d’après ce qui précéde, on
aura :
∀(x1 , x2 , . . . , xn ) ∈ E n , detB (u(x1 ), u(x2 ), . . . , u(xn ))
= detB (x1 , x2 , . . . , xn )detB (u(e1 ), u(e2 ), . . . , , u(en ))
En paticulier, on a :
detB (u(e01 ), u(e02 ), . . . , u(e0n )) = detB (B0 )detB (u(e1 ), u(e2 ), . . . , u(en )) (1)
detB0 (u(e01 ), u(e02 ), . . . , u(e0n )) = detB0 (B)detB (u(e01 ), u(e02 ), . . . , u(e0n )) (2)
detB0 (u(e01 ), u(e02 ), . . . , u(e0n )) = detB0 (B)detB (B0 )detB (u(e1 ), u(e2 ), . . . , u(en ))
Définition 4.2.2
Soient E un K-espace vectoriel de dimension finie = n, B = (e1 , e2 , . . . , en ) une base de E et u un
endomorpisme de E. On définit le déterminant de u par :
80 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 81
Remarque 4.2.2
1. D’après la proposition précédente, la définition a un sens, car det(u) ne dépend pas de la
base choisie.
2. Supposons que
n
∀ j, 1 ≤ j ≤ n, u(e j ) = ∑ ai, j ei
i=1
Alors on a
det(u) = ∑ ε(σ)aσ(1),1aσ(2),2 . . . aσ(n),n
σ∈Sn
Théorème 4.2.3
Soit E un K-espace vectoriel de dimension finie. Alors
i) det(IdE ) = 1
ii) ∀u ∈ LK (E), ∀v ∈ LK (E), det(v ◦ u) = det(v) det(u)
iii) Un endomorphisme u est inversible, si et seulement si, det(u) 6= 0.
Preuve 4.2.4
Fixons une base B = (e1 , e2 , . . . , en ) de E. Alors
i)
det(IdE ) = detB (e1 , e2 , . . . , en ) = 1
ii) On sait que pour tout (x1 , x2 , . . . , xn ) ∈ E n , on a
detB (v(x1 ), v(x2 ), . . . , v(xn )) = detB (x1 , x2 , . . . , xn )detB (v(e1 ), v(e2 ), . . . , v(en ))
81 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 82
Remarque 4.2.3
1. Soit A = (ai, j )1≤i, j≤n une matrice carrée d’ordre n à coëfficients dans K, B = (e1 , e2 , . . . , en )
la base canonique de K n . Pour chaque j, 1 ≤ j ≤ n, posons
n
v j = ∑ ai, j ei
i=1
det(u) = det(A)
En effet, on a :
∀ j, 1 ≤ j ≤ n, u(e j ) = ∑ ai, j ei
i=1
Théorème 4.2.4
Soient K un corps commutatif, A et B deux matrices carrée d’ordre n à coëfficients dans A et In
la matrice identité. Alors
i) det(In ) = 1
ii) det(AB) = det(A) det(B)
iii) A est inversible, si et seulement si, det(A) 6= 0
Preuve 4.2.5
i) Trivial
ii) Soient u et v les endomorphismes de K n de matrices respectivement A et B dans la base
canonique de K n , donc u ◦ v est de matrice AB dans la base canonique de K n . Par suite on
a:
det(AB) = det(u ◦ v) = det(u) det(v) = det(A) det(B)
82 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 83
iii) Exercice
Proposition 4.2.2
Soient A une matrice carrée, alors det(tA) = det(A), où tA désigne la matrice transposée de A.
Preuve 4.2.6
Posons A = (ai, j )1≤i, j≤n et tA = (bi, j )1≤i, j≤n alors ∀i, ∀ j, bi, j = a j,i , donc
Puis posons ϕ = σ−1 et remarquons que ε(ϕ) = ε(σ−1 ) = ε(σ), donc on aura :
Notations 4.2.1
On note ∆i, j le mineur relativement au terme ai, j
Preuve 4.2.7
Pour la démonstration de ce théorème, on a besoin du lemme suivant
Lemme 4.2.1
Soit M une matrice carrée d’ordre n. On suppose que
A C
M=
O B
83 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 84
D’autre part, on a
∏1≤i< j≤n (σ(i) − σ( j))
ε(σ) =
∏1≤i< j≤n (i − j)
∏1≤i< j≤p (σ(i) − σ( j)) ∏1≤i< j≤q (σ(i + p) − σ( j + p))
= ×
∏1≤i< j≤p (i − j) ∏1≤i< j≤q (i − j)
∏1≤i< j≤p (σ1 (i) − σ1 ( j)) ∏1≤i< j≤q (σ2 (i) − σ2 ( j))
= ×
∏1≤i< j≤p (i − j) ∏1≤i< j≤q (i − j)
= ε(σ1 )ε(σ2 )
84 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 85
D’où
det(M) = ∑ ε(σ1 )ε(σ2 )aσ1 (1),1 . . . aσ1 (p),p bσ2 (1),1 . . . bσ2 (q),q
(σ1 ,σ2 )∈S p ×Sq
= ∑ ε(σ1 )aσ1 (1),1 . . . aσ1 (p),p × ∑ ε(σ2 )bσ2 (1),1 . . . bσ2 (q),q
σ1 ∈S p σ2 ∈Sq
= det(A) det(B)
85 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 86
Soit Ai, j la matrice d’ordre n − 1 obtenue en supprimant la iieme ligne et la jieme colonne de la
matrice A et C = ai,1 . . . ai, j−1 ai, j+1 . . . ai,n , alors d’après le lemme précédent, on a
i−1 1 C
= (−1)i−1 det(Ai, j ) = (−1)i−1 ∆i, j
detB (ei , v1 , . . . , v j−1 , v j+1 , . . . , vn ) = (−1)
0 Ai, j
D’où
n n
det(A) = ∑ (−1)i+ j−2 ai, j ∆i, j = ∑ (−1)i+ j ai, j ∆i, j
i=1 i=1
Remarque 4.2.4
Puisque det(tA) = det(A), alors on peut développer une matrice A par rapport à une ligne quel-
conque, c’est à dire
n
∀i, det(A) = ∑ (−1)i+ j ai, j ∆i, j
j=1
Définition 4.2.5
i) Le terme (−1)i+ j ∆i, j s’appelle le cofacteur de ai, j
ii) La matrice dont les coëfficients sont les cofacteurs des ai, j s’appelle la comatrice de la
matrice A et se note co(A).
e = t(co(A))
A
Théorème 4.2.6
Pour toute matrice carrée A d’ordre n on a
e = AA
AA e = det(A)In
Preuve 4.2.10
Posons A = (ai, j )1≤i, j≤n , AA
e = (ci, j )1≤i, j≤n , alors on a
n
∀i, ∀ j, 1 ≤ i, j ≤ n, ci, j = ∑ ai,k (−1)k+ j ∆ j,k
k=1
86 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 87
est l’expression d’un déterminant dont la iieme et la jieme ligne sont identiques, donc pour i 6= j,
ci, j = 0. D’où le résultat.
Remarque 4.2.5
Pour toute matrice inversible A, on a
1 e
A−1 = A
det(A)
Exemple 4.2.1
1.
a c
A=
b d
Alors
d −b
co(A) =
−c a
Et par suite
e= d −c
A
−b a
2.
a d g
A = b e h
c f i
Donc
e h b h b e
f −
i c i c f
d g a g a d
− f
co(A) = −
i c i c f
d g a g a d
e −
h b h b e
Et par suite
e h d g d g
f −
i f i e h
e = − b h a g
a g
A c −
i c i b h
b e a d a d
c −
f c f b e
87 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 88
4.3 Exercices
Exercice 4.3.1
Calculer le déterminant des matrices suivantes :
a b c d a+b+c b b b
b
a d c
,
c a+b+c b b
,
c d a b c c a+b+c b
d c b a c c c a+b+c
1 a a ... a
a 0 ... 0 b
..
a 1 a . a 0 a ... b 0
.. . . . . ... .. .
a , . 0 .. ... 0
. . .
...
0 b ... a 0
a a 1 a
a a ... a 1 b 0 ... 0 a
0 0 ... 0 α1
0 ... 0 α2 0
.. .. .. ..
.. , A = (a ) 1
i, j 1≤i, j≤n , où ai, j =
. . . . .
ai + b j
0 αn−1 0 ... 0
αn 0 0 ... 0
Exercice 4.3.2
Soit An la matrice définie par
a + b ab 0 ... 0
1 a + b ab ... 0
An =
0 1 a+b ab ...
.. ... ...
. 0 ...
0 0 ... 1 a+b
a) Vérifier que
b) Montrer que
an+1 − bn+1
det(An ) =
a−b
Exercice 4.3.3
Montrer que
cos(a) cos(b) cos(c)
sin(a) sin(b) sin(c) = sin(a−c)+sin(b−a)+sin(c−b) = 4 sin( a − c ) sin( b − a ) sin( c − b )
1
2 2 2
1 1
88 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 89
Exercice 4.3.4
a) Calculer le déterminant de la matrice suivante
1 + x2 −x 0 ... 0
−x 1 + x2 −x ... 0
A= 0
−x 1 + x2 −x ...
.. ... ... ...
. 0
0 0 ... −x 1 + x2
Exercice 4.3.5
Soit A la matrice défini par :
a 0 0 ... b
b a 0 ... 0
A=
0 b a 0 ...
.. .. ..
0 0 . . .
0 ... 0 b a
Calculer le déterminant de A et dans le cas où A est inversible , déterminer son inverse
Exercice 4.3.6
a
x ... x
y 0 ... 0
Soit ∆n = ..
.. . .
. . . 0
y 0 ... 0
a) Montrer que
∀n ≥ 3, ∆n = a∆n−1 − xyan−2
b) En déduire une expression de ∆n en fonction de n, a, x et y.
Exercice 4.3.7
m 0 1 2m
1 m 0 0
Soit A =
0 2m + 2
m 1
m 0 0 m
a) Calculer det(A)
89 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 90
Exercice 4.3.9
Soient A et B deux matrices semblables de Mn (C) et soit P ∈ Mn (C) une matrice inversibletelle
que B = P−1 AP.
1. Montrer qu’il existe deux matrices U et V de Mn (R) telles que
P = U + iV .
2. Montrer que pour tout t ∈ R, (U + tV )B = A(U + tV ).
3. Montrer qu’il existe t ∈ R tel que det(U + tV ) 6= 0.
4. En déduire que A et B sont deux matrices semblables de Mn (R).
Exercice 4.3.10
Soient A et B deux matrices de Mn (K) et M la matrice en bloc définie par
A B
M=
B A
Exercice 4.3.11
Soient A, B,C, D des matrices de Mn (K) avec A inversible et AC = CA. Soit M la matrice en
bloc définie par
A B
M=
C D
Montrer que det(M) = det(AD −CB)
Exercice 4.3.12
Soient A = (ai j ) une matrices quelconque de Mn (K). Montrer que
n n
| det(A)| ≤ ∏ ∑ |ai j |
i=1 j=1
90 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 91
Exercice 4.3.14
Soient p un nombre premier et a0 , a1 , . . . , a p−1 des éléments de Z. Pour m ∈ Z, on note m la
classe de m modulo p. Soit A la matrice de Mn (Z/pZ) définie par
Exercice 4.3.15
Soit q une forme quadratique non nulle sur M2 (C), telle que
91 Mohamed HOUIMDI
CHAPITRE 4. FORMES MULTILINÉAIRES - DÉTERMINANTS 92
92 Mohamed HOUIMDI
Chapitre 5
Réduction des endomorphismes
Proposition 5.1.1
i) P = 1 =⇒ P(u) = IdE
ii)
∀P ∈ K[X] , ∀Q ∈ K[X] , ∀u ∈ LK (E) , (PQ)(u) = P(u) ◦ Q(u) = Q(u) ◦ P(u)
iii)
∀P ∈ K[X] , ∀Q ∈ K[X] , ∀u ∈ LK (E) , (P + Q)(u) = P(u) + Q(u)
Preuve 5.1.1
Exercice
Théorème 5.1.1
Soit E un K-espace vectoriel de dimension finie. Alors pour tout endomorphisme u de E, il
existe un unique polynôme unitaire et non constant, P ∈ K[X] tel que :
i)P(u) = 0
ii)∀Q ∈ K[X] , Q(u) = 0 =⇒ P divise Q
93
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 94
Preuve 5.1.2
Si u = 0 alors il est facile de voir que Mu = X. Donc, dans la suite, on suppose que u 6= 0.
Méthode 1 Soit n = dimK (E) , alors on sait que dimK (LK (E)) = n2 , par suite, le système
2
(IdE , u, u2 , . . . , un ), qui contient n2 + 1 vecteurs est lié, donc il existe
2
(a0 , a1 , . . . , an2 ) ∈ K n +1 avec (a0 , a1 , . . . , an2 ) 6= (0, 0, . . . , 0) tel que :
n2
∑ ai ui = 0
i=1
n2
donc si P = ∑ ai X i alors P(u) = 0 et deg(P) ≥ 1 (Car u 6= 0)
i=1
Soit A = {deg(Q) : Q ∈ K[X], deg(Q) ≥ 1 et Q(u) = 0}, alors A est une partie non vide
de N, car deg(P) ∈ A . Donc A admet un plus petit élément noté p.
p ∈ A , donc il existe Q ∈ K[X], tel que deg(Q) = p. Soit P un polynôme quelconque, tel
que P(u) = 0. Effectuant la division euclidienne de P par Q, on aura :
P = AQ + B avec deg(B) < deg(Q)
P(u) = Q(u) = 0, donc B(u) = 0, par suite, si B 6= 0 alors deg(B) ≥ deg(Q), ce qui est
absurde, donc B = 0 et par conséquent, Q divise P.
Méthode 2 On considère l’application :
φu : K[X] −→ LK (E)
P 7−→ φu (P) = P(u)
Alors φu est un homomorphisme d’algèbres, c’est à dire, φu est un homomorphisme d’es-
paces vectoriels et φu est un homomorphisme d’anneaux :
i) φu (P + Q) = φu (P) + φu (Q)
ii) φu (λ.P) = λ.φu (P)
iii) φu (PQ) = φu (P) ◦ φu (Q)
LK (E) est de dimension finie, car E est de dimension finie, et K[X] est de dimension
infinie, donc φu qui est un homomorphisme d’espaces vectoriels ne peut pas être injective,
car sinon K[X] serait isomorphe à un sous-espace vectoriel de LK (E) et par suite K[X]
serait de dimension finie, ce qui est absurde. Donc ker(φu ) 6= {0}
Or φu est un homomorphisme d’anneaux, donc ker(φu ) est un ideal de K[X] et on sait que
K[X] est un anneau principal, donc il existe un unique polynôme unitaire P ∈ K[X] tel que
ker(φu ) = (P) où (P) est l’ideal engendré par P
– ker(φu ) 6= {0} =⇒ P 6= 0
– φu (1) = IdE donc φu 6= 0 et par suite ker(φu ) 6= K[X] ce qui prouve que P n’est pas
constant
– Si Q ∈ K[X] est tel que Q(u) = 0 alors Q ∈ ker(φu ) et par suite Q ∈ (P), donc P divise Q
D’où le résultat.
Remarques 5.1.1
1. Le polynôme minimal Mu est caractérisé par :
Mu (u) = 0
Si Q est un autre polynôme vérifiant Q(u) = 0 alors Mu divise Q
94 Mohamed HOUIMDI
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 95
2. ∀u ∈ LK (E) , deg(Mu ) ≥ 1
Exemple 5.1.1
1. u = 0 =⇒ Mu = X
2. u = IdE =⇒ Mu = X − 1
3. On dit qu’un endomorphisme u est un projecteur, si u 6= 0, u 6= IdE et u2 = u.
Soient u un projecteur et P = X 2 − X, alors P(u) = 0 et par suite Mu divise P. Puisque
deg(Mu ) ≥ 1 alors Mu = X, Mu = X − 1 ou Mu = X 2 − X.
u 6= 0 =⇒ Mu 6= X et u 6= IdE =⇒ Mu 6= X − 1
D’où Mu = X 2 − X
χA = det(XI − A)
Proposition 5.1.2
Soit A une matrice carrée d’ordre n.
Alors χA est un polynôme unitaire de degré n.
Preuve 5.1.3
Posons A = (ai, j )1≤i, j≤n donc XI − A = (bi, j )1≤i, j≤n , où :
bi, j = −ai, j si i 6= j
∀i , ∀ j , 1 ≤ i, j ≤ n ,
bi,i = X − ai,i
D’autre part on sait que :
det(XI − A) = ∑ ε(σ)b1σ(1)b2σ(2) · · · bnσ(n)
σ∈Sn
n
Or Π (X − aii ) est un polynôme unitaire de degré n, donc χA est unitaire de degré n
i=1
95 Mohamed HOUIMDI
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 96
Lemme 5.1.1
Deux matrices semblables ont même polynôme caractéristique
Preuve 5.1.4
Soient A et B deux matrices semblables, donc il existe une matrice inversible P, telle que B =
P−1 AP. Donc XI − B = XP−1 P − P−1 AP = P−1 (XI − A)P
Donc XI − A et XI − B sont deux matrices semblables à coefficients dans K[X] et par suite,
det(XI − A) = det(XI − B)
Définition 5.1.2
Soient E un K-espace vectoriel de dimension finie, u un endomorphisme de E et A la matrice de
u dans une base quelconque de E. Alors le polynôme caractéristique de A s’appelle le polynôme
caractéristique de u et se note χu
χu = det(XI − A)
Remarques 5.1.2
1. La définition précèdente a un sens, car si A et B sont deux matrices de u dans deux bases
différentes de E, alors A et B sont semblables, donc χA = χB
2. Si dimK (E) = n alors pour tout u ∈ LK (E), deg(χu ) = n
3. Le polynôme minimal d’un endomorphisme est loin d’être son polynôme caractéristique
Exemple 5.1.2
Soit E un K-espace vectoriel de dimension finie= n et soit u un endomorphisme de E :
1. u = 0 =⇒ Mu = X et χu = X n
2. u = IdE =⇒ Mu = X − 1 et χu = (X − 1)n
3. Si u est un projecteur de E (c.à.d : u2 = u , u 6= 0 et u 6= IdE ). Soit p = dimK (ker(u))
alors :
Mu = X 2 − X = X(X − 1) et χu = X p (X − 1)n−p
4. On dit que u ∈ LK (E) est une symétrie vectorielle, si u2 = IdE . On supose que u 6= ±IdE ,
alos on a
Mu = (X − 1)(X + 1) et χu = (X − 1) p (X + 1)n−p
où p = dimK (ker(u − IdE )).
Preuve 5.1.5
Pour la démonstration de ce théorème, nous avons besoin des lemmes suivants :
96 Mohamed HOUIMDI
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 97
Lemme 5.1.2
Soient E un K-espace vectoriel de dimension finie, u un endomorphisme de E, F un sous-espace
vectoriel de E stable par u et v la restriction de u à F. Alors χv divise χu
Preuve 5.1.6
Soient p = dimK (F), G un supplémentaire de F dans E, (e1 , e2 , . . . , e p ) une base de F et
(e01 , e02 , . . . , e0n−p ) une base de G. Alors (e1 , e2 , . . . , e p , e01 , e02 , . . . , e0n−p ) est une base de E.
Posons A = Mat(u; (e1 , e2 , . . . , e p , e01 , e02 , . . . , e0n−p )) et B = Mat(v; (e1 , e2 , . . . , e p ))
Alors χu = det(XI − A) et χv = det(XI − B). Or on a :
B C
A=
0 D
Donc on aura
XI − B −C
det(XI − A) = = det(XI − B) det(XI − D)
0 XI − D
Par suite,
χu = χv det(XI − D)
D’où le résultat
Lemme 5.1.3
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E. Alors pour tout
x 6= 0, il existe un unique polynôme unitaire non constant Mx de K[X], tel que
i) Mx (u)(x) = 0.
ii) ∀P ∈ K[X], P(u)(x) = 0 =⇒ Mx divise P
Preuve 5.1.7
On considère la partie J de K[X] définie par
P ∈ J ⇐⇒ p(u)(x) = 0
Alors il est facile de vérifier que J est un idéal de K[X] et que Mu ∈ J. Puisque K[X] est principal
et puisque J est un idéal non nul, alors il existe un unique polynôme unitaire Q de K[X], tel que
J = (Q), où (Q) est l’idéal engendré par Q. x 6= 0, donc Q est non constant. Il suffit alors de
prendre Mx = Q.
Lemme 5.1.4
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E. Pour chaque
x 6= 0, on suppose que Mx = a0 + a1 X + · · · + a p−1 X p−1 + X p puis on pose
Alors on aura :
i) dim(Fx ) = deg(Mx ) = p.
ii) Fx est stable par u.
iii) Si v est la réstriction de u à Fx , alors χv = Mx .
97 Mohamed HOUIMDI
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 98
Preuve 5.1.8
i) Il suffit de montrer que le système (x, u(x), . . . , u p−1 (x)) est libre. Pour cela, on sup-
pose, par absurde, que ce système est lié ; donc il existe (α0 , α1 , . . . , α p−1 ) ∈ K p avec.
(α0 , α1 , . . . , α p−1 ) 6= (0, 0, . . . , 0), tel que
p−1
∑ αiui(x) = 0
i=0
Si i ∈ {0, 1, , . . . , p − 2}, u(ui (x)) = ui+1 (x) avec i + 1 ≤ p − 1, donc u(ui (x)) ∈ Fx .
Si i = p − 1, puisque Mx (u)(x) = 0, alors a0 x + a1 u(x) + · · · + a p−1 u p−1 (x) + u p (x) = 0,
donc u(u p−1 (x)) = −(a0 x + a1 u(x) + · · · + a p−1 u p−1 (x)) et par suite u(u p−1 (x)) ∈ Fx .
iii On a vu que (x, u(x), . . . , u p−1 (x)) est une base de Fx , soit v la restriction de u à Fx et soit
A = Mat(v, (x, u(x), . . . , u p−1 (x)), alors on aura :
0 0 . . . 0 −a0
1 0 . . . 0 −a1
. . . . . . .. ..
A=0 . .
. . . . . . 1 0 −a p−2
0 . . . 0 1 −a p−1
Remarque 5.1.1
Pour tout x ∈ E, avec x 6= 0, Fx = {P(u)(x) : P ∈ K[X]}.
∀x ∈ E, x 6= 0 =⇒ χu (u)(x) = 0
98 Mohamed HOUIMDI
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 99
Preuve 5.1.10
Pour x ∈ ker(u) on a u(v(x)) = v(u(x)) = v(0) = 0 donc v(x) ∈ ker(u) et par suite ker(u) est
stable par v
ii) Pour y ∈ Im(u) on a y = u(x) , x ∈ E et v(y) = v(u(x)) = u(v(x)) donc v(y) ∈ Im(u) et
par suite Im(u) est stable par v
Théorème 5.1.3
Soient E un K-espace vectoriel de dimension finie, u un endomorphisme de E, P et Q deux
polynômes de K[X] qui sont premiers entre eux, tels que (PQ)(u) = 0. Alors :
i) ker(P(u)) et ker(Q(u)) sont stables par u
ii) E = ker(P(u)) ⊕ ker(Q(u))
Preuve 5.1.11
i) P(u) ◦ u = u ◦ P(u) et u ◦ Q(u) = Q(u) ◦ u donc d’après le lemme précèdent on a le résultat
ii)
E = ker(P(u)) + ker(Q(u))
E = ker(P(u)) ⊕ ker(Q(u)) ⇐⇒
ker(P(u)) ∩ ker(Q(u)) = {0}
P et Q sont premiers entre eux, donc d’après le théorème de Bezout, il existe A , B ∈ K[X] tel
que AP + BQ = 1
Corollaire 5.1.1
Soient E un K-espace vectoriel, u un endomorphisme de E et P1 , P2 , . . . , Pm des polynômes de
K[X] qui sont deux à deux premiers entre eux, tels que (P1 P2 · · · Pm )(u) = 0. Alors :
i) Pour tout i , i = 1, 2, . . . , m, ker(Pi (u)) est stable par u
n
L
ii) E = ker(Pi (u))
i=1
Preuve 5.1.12
On procède par récurrence sur m ≥ 2
Exemple 5.1.3
Soient E un K-espace vectoriel de dimension finie, où K est un corps algèbriquement clos, u
un endomorphisme de E et Mu le polynôme minimal de u. Puisque K est algèbriquement clos,
99 Mohamed HOUIMDI
CHAPITRE 5. RÉDUCTION DES ENDOMORPHISMES 100
5.2 Diagonalisation
5.2.1 Valeurs propres-Vecteurs propres
Définition 5.2.1
Soient E un K-espace vectoriel quelconque et u un endomorphisme de E. On dit que λ ∈ K est
une valeur propre de u, s’il existe x ∈ E avec x 6= 0, tel que :
u(x) = λ.x
Remarque 5.2.1
Si λ est une valeur propre de u, alors il existe x 6= 0 tel que (u−λ)(x) = 0, donc ker(u−λ) 6= {0}
et par suite u − λ n’est pas injectif
Donc λ est valeur propre de u, si et seulement si, λ − u n’est pas injectif
Proposition 5.2.1
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E, alors les pro-
positions suivantes sont équivalentes :
i) λ ∈ K est une valeur propre de u
ii) ker(λ − u) 6= {0}
iii) λ − u n’est pas injectif
iv) λ − u n’est pas inversible
v) det(λ − u) = 0
Preuve 5.2.1
D’après la remarque précèdente on a i) =⇒ ii)
ii) =⇒ iii) et iii) =⇒ iv) sont triviaux
Nous savons qu’un endomorphisme sur un espace vectoriel de dimension finie est inversible, si
et seulement si, son déterminant est non nul, donc
Définition 5.2.2
Soient E un K-espace vectoriel, u un endomorphisme de E et λ une valeur propre de u. On
appelle sous-espace propre associé à la valeur propre λ, le sous-espace de E défini par :
Eλ = ker(λ − u)
Remarques 5.2.1
1. x est un vecteur propre associé à la valeur propre λ, si et seulement si, x ∈ Eλ et x 6= 0.
2. Pour toute valeur propre λ de u, le sous-espace propre Eλ est stable par u.
3. Si λ1 et λ2 sont deux valeurs propres distinctes de u, alors
Théorème 5.2.1
Soient E un K-espace vectoriel de dimension finie, u un endomorphisme de E et λ un élément
de K. Alors les propositions suivantes sont équivalentes :
i) λ est une valeur propre de u
ii) λ est une racine du polynôme minimal Mu
iii) λ est racine du polynôme caractéristique χu
Preuve 5.2.2
i) =⇒ ii) Supposons que λ est une valeur propre de u, donc il existe x 6= 0 tel que u(x) = λ.x
Posons Mu = X m + am−1 X m−1 + · · · + a1 X + a0
Donc Mu (u) = um + am−1 um−1 + · · · + a1 u + a0 IdE
Donc Mu (u)(x) = um (x) + am−1 um−1 (x) + · · · + a1 u(x) + a0 x
Or u(x) = λ.x donc pour tout entier i ≥ 1, ui (x) = λi .x
D’où Mu (u)(x) = Mu (λ).x avec Mu (u) = 0 et x 6= 0, donc Mu (λ) = 0
ii) =⇒ iii) D’après Cayley-Hammilton, Mu divise χu , donc toute racine de Mu est racine de χu .
iii) =⇒ i) Supposons que χu (λ) = 0. Donc det(λ − u) = 0 et par conséquent λ − u n’est pas
inversible et comme E est de dimension finie, alors λ − u n’est pas injectif. D’où le résultat
Remarque 5.2.2
Soit E un K-espace vectoriel de dimension finie, alors pour tout endomorphisme u de E, le
polynôme minimal Mu et le polynôme caractéristique χu ont les mêmes racines dans K
∀λ ∈ K, Mu (λ) = 0 ⇐⇒ χu (λ) = 0
Définition 5.2.3
Un corps commutatif K est dit algèbriquement clos, si tout polynôme non constant de K[X],
possède au moins une racine dans K.
Remarque 5.2.3
1. K est algèbriquement clos, si et seulement si, les seuls polynômes irréductibles de K[X],
sont les polynômes de degré 1.
2. Si K est algèbriquement clos, alors tout polynôme unitaire non constant de K[X], se dé-
compose en un produit de polynômes de degré 1, donc P s’écrit sous la forme :
P = (X − λ1 )m1 (X − λ2 )m2 · · · (X − λr )mr
où λ1 , λ2 , . . . , λr sont, donc, les racines deux à deux distinctes de P dans K.
Théorème 5.2.2 (de d’Alembert)
Le corps C des nombres complexes est algèbriquement clos.
Preuve 5.2.3
Voir la partie exercices
Corollaire 5.2.1
Soit E un K-espace vectoriel de dimension finie, où K est un corps algèbriquement clos. Alors
tout endomorphisme de E possède au moins une valeur propre.
Preuve 5.2.4
Si K est algèbriquement clos alors par définition tout polynôme non constant à coefficients dans
K possède au moins une racine, donc si u est un endomorphisme de E, alors Mu possède au
moins une racine λ ∈ K, donc λ est une valeur propre de u.
Remarques 5.2.2
Lorsque E n’est pas de dimension finie ou lorsque K n’est pas algèbriquement clos, le corollaire
précèdent peut ne pas être vérifié :
1. E = R2 est un R-espace vectoriel de dimension finie = 2 et R n’est pas algèbriquement
clos.
Soient (e1 , e2 ) une base de E et u l’endomorphisme de E défini par :
u(e1 ) = −e2
u(e2 ) = e1
0 1
=⇒ Mat(u; (e1 , e2 )) =
−1 0
X −1
=⇒ χu = = X2 + 1
1 X
χu n’a aucune racine dans R donc u n’a aucune valeur propre. Cependant si on considère
le même endomorphisme u sur le C-espace vectoriel C2 alors χu possède deux racines
i et − i donc u possède deux valeurs propres.
2. E = C[X] est un C-espace vectoriel de dimension infinie et C est un corps algèbriquement
clos
Soit u l’endomorphisme défini sur E par :
∀n ≥ 0 , u(X n ) = X n+1
Alors u n’a aucune valeur propre
dimK (Eλ ) ≤ m
Preuve 5.2.5
Soient p = dimK (Eλ ) et v la restriction de u à Eλ . Puisque Eλ est stable par u, alors χv divise χu
On a pour tout x ∈ Eλ , v(x) = u(x) = λ.x donc v = λ.IdEλ et par suite χv = (X − λ) p
Donc (X − λ) p divise (X − λ)m .Q
Q(λ) 6= 0 donc Q et (X − λ) p sont premiers entre eux, donc d’après le théorème de Gauss
(X − λ) p divise (X − λ)m et par suite p ≤ m
Définition 5.2.4
Soient E un K-espace vectoriel et u un endomorphisme de E. On dit que u est diagonalisable s’il
existe une base de E formée uniquement de vecteurs propres de u.
Remarque 5.2.4
On suppose que E est de dimension finie = n et u un endomorphisme de E qui est diagonali-
sable. Soit (e1 , e2 , . . . , en ) une base de E formée de vecteurs propres de u. Donc la matrice A de
u dans cette base s’écrit :
λ1 0 . . . 0
. .
0 λ2 . . ..
A= .
.. 0 . . . 0
0 . . . 0 λn
où λ1 , λ2 , . . . , λn sont les valeurs propres de u non necessairement distinctes ; chaque valeur
propre apparaît sur la diagonale de la matrice A autant de fois que sa multiplicité.
Lemme 5.2.2
soient E un K-espace vectoriel de dimension finie = n , u un endomorphisme de E et
λ1 , λ2 , . . . , λm des valeurs propres deux à deux distinctes de u. Alors la somme
est directe.
Preuve 5.2.6
On sait que la somme Eλ1 + Eλ2 + · · · + Eλm est une somme directe , si et seulement si :
n
∀(x1 , x2 , . . . , xm ) ∈ ∏ Eλi , x1 + x2 + · · · + xm = 0 =⇒ x1 = x2 = · · · = xm = 0
i=1
x1 + x2 + · · · + xm = 0 =⇒ u(x1 + x2 + · · · + xm ) = 0
=⇒ λ1 .x1 + λ2 .x2 + · · · + λm .xm = 0
=⇒ u(λ1 .x1 + λ2 .x2 + · · · + λm .xm ) = 0
=⇒ λ21 .x1 + λ22 .x2 + · · · + λ2m .xm = 0
1 1 ··· 1
λ1 λ2 ··· λm
∆= λ21 λ22 ··· λ2m
.. .. .. ..
. . . .
λm−1
1 λm−1
2 · · · λm−1
m
∆= Π (λ j − λi )
1≤i< j≤m
Les λi sont deux à deux distinctes donc ∆ 6= 0 et par suite le système S est un système de Cramer
qui admet pour unique solution x1 = x2 = · · · = xm = 0. D’où le résultat
Définition 5.2.5
Soit K un corps commutatif, on dit qu’un polyôme P de K[X] a toutes ses racines dans K si P
s’écrit sous la forme :
P = a(X − λ1 )m1 (X − λ2 )m2 · · · (X − λr )mr
où a est une constante et λ1 , λ2 , . . . , λr sont les racines de P deux à deux distinctes de multiplicités
respectives m1 , m2 , . . . , mr
Remarque 5.2.5
Si K est un corps algèbriquement clos, alors tout polynôme P à coefficients dans K, a toutes ses
racines dans K.
Théorème 5.2.3
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme de E. On suppose
que χu a toutes ses racines dans K et soient λ1 , λ2 , . . . , λr les racines deux à deux distinctes de χu
de multiplicités respectives m1 , m2 , . . . , mr , c’est à dire :
r
χu = (X − λ1 )m1 (X − λ2 )m2 · · · (X − λr )mr avec ∑ mi = n
k=1
Preuve 5.2.7
i) =⇒ ii) Supposons que u est diagonalisable et montrons que Mu = (X − λ1 )(X − λ2 ) · · · (X −
λr ). λ1 , λ2 , . . . , λr sont des valeurs propres de u donc se sont des racines de Mu et puisque les
λi , i = 1, 2, . . . , r, sont deux à deux distinctes alors (X − λ1 )(X − λ2 ) · · · (X − λr ) divise Mu
Pour conclure montrons que Mu divise (X − λ1 )(X − λ2 ) · · · (X − λr ). Pour cela posons
Q = (X − λ1 )(X − λ2 ) · · · (X − λr ) et montrons que Q(u) = 0.
Soit (e1 , e2 , . . . , en ) une base de E formée de vecteurs propres de u. Donc pour tout i,
i = 1, 2, . . . , n, il existe j , 1 ≤ j ≤ r tel que u(ei ) = λ j .ei .
Or Q = [ Π (X − λk )](X − λ j ), donc on en déduit que Q(u)(ei ) = 0, car (u − λ j )(ei ) = 0. Ceci
k6= j
est vrai pour tout i , 1 ≤ i ≤ n, donc Q(u) = 0
0 . . . . . . 0 λr
Où chaque λi apparait sur la diagonale autant de fois que sa multiplicité.
Corollaire 5.2.2
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphosme de E. On suppose
que u admet n valeurs propres deux à deux distinctes. Alors u est diagonalisable
Preuve 5.2.8
Soient λ1 , λ2 , . . . , λn les valeurs propres deux à deux distinctes de u , donc elles sont toutes des
racines de χu avec deg(χu ) = dimK (E) = n donc on a :
χu = (X − λ1 )(X − λ2 ) · · · (X − λn )
Et par suite pour tout i, i = 1, 2, . . . , n , λi est de multiplicié mi = 1. Donc pour tout i,
i = 1, 2, . . . , n, on a 1 ≤ dimK (Eλi ) ≤ 1
=⇒ ∀i, i = 1, 2, . . . , n, dimK (Eλi ) = mi = 1
D’après le théorème précèdent u est diagonalisable
Exemple 5.2.1
1. E un K-espace vectoriel de dimension finie et u un projecteur de E alors u est diagonali-
sable. En effet u est un projecteur donc u2 = u ,
u 6= 0 et u 6= IdE donc Mu = X(X − 1) n’a que des racines simples, donc u est diagonali-
sable
2. E un C-espace vectoriel de dimension finie et u un endomorphisme de E vérifiant
um = IdE , où m est un entier ≥ 1. Alors u est diagonalisable
En effet soit P = X m − 1 alors P(u) = 0 donc Mu divise P. Or P n’a que des racines
simples , car si α est une racine double alors on aura P(α) = P0 (α) = 0 avec P0 = mX m−1
donc α = 0 ce qui est absurde car 0 n’est pas une racine de P, donc Mu n’a aussi que des
racines simples et par suite u est diagonalisable
3. E = R3 et (e1 , e2 , e3 ) sa base canonique. Soit u l’endomorphisme de R3 dont la matrice
dans la base canonique est définie par :
m 1 1
A= 1 m 1 m∈R
1 1 m
On a alors :
X − m −1 −1
χu = −1 X − m −1
−1 −1 X − m
1 −1 0
2
= (X − m + 1) 0 1 −1
−1 −1 X − m
1 0 0
2
= (X − m + 1) 0 1 −1 (colonne2 + colonne1)
−1 −2 X − m
=⇒ χu = (X − m + 1)2 (X − m − 2)
Et on a B = P−1 AP et A = PBP−1
X − 2 −1 0 0
0 X −2 0 0
χu =
−1 0 X − 1 −1
1 1 0 X −1
X − 2 −1 0 0
0 X −2 0 0
= (X − 1)
−1 0 1 −1
1 1 0 X −1
X − 2 −1 0 0
0 X −2 0 0
= (X − 2)2 (colonne4 + colonne3)
−1 0 1 0
1 1 0 1
=⇒ χu = (X − 1)2 (X − 2)2
Théorème 5.3.1
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme de E. Alors u est
trigonalisable, si et seulement si, le polynôme caractéristique de u, χu , a toutes ses racines dans
K.
Preuve 5.3.1
(=⇒) Supposons que u est trigonalisable, donc il existe une base de E dans laquelle la matrice
A de u s’écrit :
a11 a12 · · · a1n
. .
0 a22 . . ..
A= . . . . . . . .. ∀i, j , ai j ∈ K
.. .
0 · · · 0 ann
X − a11 −a12 ··· −a1n
... ..
0 X − a22 .
=⇒ χu = det(XI − A) = .. ... .. ..
. . .
0 ··· 0 X − ann
=⇒ χu = (X − a11 )(X − a22 ) · · · (X − ann )
Donc χu a toutes ses racines dans K.
(⇐=) Supposons que χu a toutes ses racines dans K et montrons par récurrence sur n = dimK (E)
que u est trigonalisable
Pour n = 1 il n’y a rien à démontrer.
Supposons que n > 1 et que la proprièté est vraie pour tout K-espace vectoriel de dimension
m<n
Soit E un K-espace vectoriel de dimension n et soit λ une- racine de χu . Soit tu l’endomorphisme
transposé de u, alors on sait que χtu = χu , donc λ est racine de χtu et par suite λ est une valeur
propre de tu . Soit φ ∈ E ∗ un vecteur propre associé à λ
Remarques 5.3.1
1. Tout endomorphisme diagonalisable est trigonalisable
2. Si K est un corps algèbriquement clos et si E est un K-espace vectoriel de dimension finie
alors tout endomorphisme de E est trigonalisable
3. Si u est un endomorphisme trigonalisable et si A est une matrice triangulaire qui repré-
sente u dans une base de E, alors les éléments diagonaux de A sont les valeurs propres de
u, c’est à dire :
λ1 a12 · · · a1n
.. ..
0 λ
. .
A= . . 2 .
.. . . . . an−1n
0 ··· 0 λn
Où λ1 , λ2 , . . . , λn sont les valeurs propres non necessairement deux à deux distinctes de u.
Donc le déterminant et la trace de u sont exprimés uniquement en fonction des valeurs
propres de u :
n n
det(u) = Π λi et trace(u) = ∑ λi
i=1 i=1
Proposition 5.3.1
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme quelconque de
E. On suppose que :
χu = X n + an−1 X n−1 + · · · + a1 X + a0
Alors det(u) = (−1)n a0 et trace(u) = −an−1 .
En particulier, si dimK (E) = 2 alors pour tout endomorphisme u de E on a :
χu = X 2 − trace(u)X + det(u)
Preuve 5.3.2
Si χu a toutes ses racines dans K, alors on aura :
Proposition 5.3.2
Soit u un endomorphisme nilpotent, alors il existe un entier q ≥ 1 tel que uq = 0 et uq−1 6= 0
q s’appelle l’indice de nilpotence de u.
Preuve 5.3.3
Soit A = {m ∈ N : m ≥ 1 et um = 0}, alors par définition A est une partie non vide de N, donc
A admet un plus petit élément noté q et on a q ∈ A et q − 1 ∈
/ A.
Théorème 5.3.2
Soient E un K-espace vectoriel de dimension finie = n . Alors les propositions suivantes sont
equivalentes :
i) u est nilpotent
ii) Mu = X q , où q est l’indice de nilpotence de u
iii) χu = X n , où n = dimK (E)
Preuve 5.3.4
i) =⇒ ii) Supposons que u est nilpotent d’indice q, alors uq = 0 donc Mu divise X q et par suite
Mu = X r avec r ≤ q. Puisque uq−1 6= 0 alors r = q
ii) =⇒ iii) Supposons que Mu = X q , puisque Mu et χu ont les mêmes racines, donc 0 est l’unique
racine de χu et puisque χu est unitaire de degré = n alors χu = X n
Notations 5.3.1
Dans la suite E désigne un K-espace vectoriel de dimension finie = n et u un endomorphosme
nilpotent non nul d’indice q.
Pour chaque i , i = 0, 1, 2, . . . , q on pose Ei = ker(ui )
=⇒ E0 = {0} et Eq = E
Lemme 5.3.1
i) {0} = E0 ( E1 ( · · · ( Eq = E
ii) ∀i , i = 0, 1, 2, . . . , q − 1 , u(Ei+1 ) ⊆ Ei
Preuve 5.3.5
i) Pour tout endomorphisme u, on a toujours :
∀i ∈ N , ker(ui ) ⊆ ker(ui+1 )
Donc on doit montrer que ∀i , i = 0, 1, 2, . . . , q − 1 , Ei+1 6= Ei
Pour cela , supposons par absurde qu’il existe i tel que Ei+1 = Ei et montrons que uq−1 = 0
Pour tout x ∈ E on a uq (x) = 0
=⇒ ui+1 (uq−i−1 (x)) = 0
=⇒ uq−i−1 (x) ∈ Ei+1
=⇒ ui (uq−i−1 (x)) = 0
=⇒ uq−1 (x) = 0 et ceci ∀x ∈ E
Ce qui est absurde.
ii)Trivial
Lemme 5.3.2
Soit F un sous-espace vectoriel de E. On suppose qu’il existe i , 1 ≤ i ≤ q tel que F ∩ Ei = {0},
alors on a :
i) u(F) ∩ Ei−1 = {0}
ii) u|F : F → u(F) est un isomorphisme
Preuve 5.3.6
i) Soit x ∈ F tel que u(x) ∈ Ei−1 , a-t-on x = 0 ?
u(x) ∈ Ei−1 =⇒ ui−1 (u(x)) = 0
Donc ui (x) = 0 et par suite x ∈ Ei
Or F ∩ Ei = {0} donc x = 0
Lemme 5.3.3
Il existe des sous-espaces vectoriels F1 , F2 , . . . , Fq de E tels que :
i) ∀i , i = 1, 2, . . . , q , Ei = Ei−1 ⊕ Fi
ii) ∀i , i = 1, 2, . . . , q , u(Fi ) ⊆ Fi−1
iii) ∀i , i = 1, 2, . . . , q , u|Fi : Fi → Fi−1 est injective
q
L
iv) E = Fi
i=1
Preuve 5.3.7
On sait que Eq−1 ( Eq donc on peut choisir un supplémentaire de Eq−1 dans Eq qu’on note Fq
=⇒ E = Eq = Eq−1 ⊕ Fq
On a donc Eq−1 ∩ Fq = {0}, par suite, d’après le lemme prècèdent , Eq−2 ∩ u(Fq ) = {0}. Or
u(Fq ) ⊆ u(Eq ) ⊆ Eq−1 , donc on peut choisir un supplémentaire de Eq−2 dans Eq−1 qui contient
u(Fq ), ce supplémentaire sera noté Fq−1
donc on peut choisir un supplémentaire de Eq−2 dans Eq−1 qui contient u(Fq ), ce supplémentaire
sera noté Fq−1
=⇒ Eq−2 = Eq−3 ⊕ Fq−2 avec u(Fq−1 ) ⊆ Fq−2
Ainsi par récurrence on aura :
E = Eq = Eq−1 ⊕ Fq
Eq−1 = Eq−2 ⊕ Fq−1 avec u(Fq ) ⊆ Fq−1
Eq−2 = Eq−3 ⊕ Fq−2 avec u(Fq−1 ) ⊆ Fq−2
..
.
E2 = E1 ⊕ F2 avec u(F3 ) ⊆ F2
E1 = E0 ⊕ F1 avec u(F2 ) ⊆ F1
=⇒ E = F1 ⊕ F2 ⊕ · · · ⊕ Fq
D’où le résultat.
Définition 5.3.3
On appelle matrice nilpotente de Jordan toute martice carrée qui s’écrit sous la forme :
N1 0 0 ... 0
0
N2 0 ... 0
N= 0
...
0 0
0 0 ... 0 Nr
Où pour chaque i , i = 1, 2, . . . , r , on a :
0 1 0 ... 0
0 0 1 ... 0
. . ...
Ni = 0 . . . . 0
. .
.. . . . . . ...
1
0 0 ... 0 0
Théorème 5.3.3
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme non nul de E ,
nilpotent d’indice q. Alors il existe une base de E, appelée base de Jordan de u, dans laquelle
la matrice de u est une matrice nilpotente de Jordan.
Preuve 5.3.8
Soient F1 , F2 , . . . , Fq les sous-espaces du lemme précèdent, alors on a :
i) ∀i , 1 ≤ i ≤ q , Ei = Ei−1 ⊕ Fi
ii) ∀i , 1 ≤ i ≤ q , u(Fi ) ⊆ Fi−1
iii) ∀i , 1 ≤ i ≤ q , u|Fi : Fi → Fi−1 est in jective
q
L
iv) E = Fi
i=1
Soit (xq,1 , xq,2 , . . . , xq,mq ) une base de Fq . Puisque u|Fq : Fq → Fq−1 est in jective alors (u(xq,1 ), u(xq,2 ), . . . , u(xq,m
est une partie libre de Fq−1 et par suite on peut la compléter en une base de Fq−1
Soit (xq−1,1 , xq−1,2 , . . . , xq−1,mq−1 ) cette base , où pour chaque i , i = 1, 2, . . . , mq xq−1,i = u(xq,i )
Ainsi par récurrence sur j , 2 ≤ j ≤ q , à partir d’une base (x j,1 , x j,2 , . . . , x j,m j ) de Fj on obtient
une base (x j−1,1 , x j−1,2 , . . . , x j−1,m j−1 ) de Fj−1 tel que :
Dans ce tableau, pour chaque i , 1 ≤ i ≤ m1 , Gi est le sous-espace de E engendré par les vec-
teurs de la iieme colonne qui forment un système libre, donc ce système constitue une base de Gi
Ecrivons les éléments de cette base en commançant du bas vers le haut donc on aura (ei,1 , ei,2 , . . . , ei,ri ),
où :
u(ei,1 ) = 0
u(ei, j ) = ei, j−1 , ∀ j , 2 ≤ j ≤ ri
Soit ui la restriction de u à Gi , donc ui est un endomorphisme de Gi et la matrice de ui dans la
base ci-dessus s’écrit :
0 1 0 ··· 0
..
. 0 1 ··· 0
. .
Ai = .. . . . . . . . . 0
0 0 ··· 0 1
0 0 ··· 0 0
D’où le résultat
Remarques 5.3.2
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme de E nilpotent
et non nul, d’ndice q
1. on a toujours 2 ≤ q ≤ n
2. Soient F1 , F2 , . . . , Fq les sous-espaces associés à u alors on a toujours :
i) F1 = ker(u)
ii) dimK (F1 ) ≥ dimK (F2 ) ≥ · · · ≥ dimK (Fq )
3. Si q = n = dimK (E), alors un = 0 et un−1 6= 0. Soit x ∈ E tel que un−1 (x) 6= 0, alors
(un−1 (x), un−2 (x), . . . , u(x), x) est une base de Jordan de u, dans laquelle la matrice A de
u s’écrit :
0 1 0 ... 0
0 0 1 ... 0
A = ... . . . . . . . . . ...
0 0 ... 0 1
0 0 ... 0 0
4. Si q = n − 1 où n = dimK (E), alors d’après ce qui précède on aura :
dimK (F1 ) = 2
dimK (F2 ) = · · · = dimK (Fq ) = 1
Soit x ∈ E tel que un−2 (x) 6= 0 et soit y ∈ ker(u) tel que (un−2 (x), y) forme une base
de ker(u), (ker(u) = F1 ), alors (un−2 (x), . . . , u(x), x, y) est une base de Jordan de u dans
laquelle la matrice de A de u s’écrit :
0 1 0 ... 0 0
0 0 1 0 ... 0
.. . . . . . . . . ..
A= .
. . . . .
0 0 0 ... 1 0
0 0 0 ... 0 0
0 0 0 ... 0 0
5. Si q = n − 2 où n = dimK (E), alors d’après ce qui précède, deux cas sont possibles :
Alors (un−3 (x), . . . , u(x), x, y, u(y)) est une base de Jordan de u dans laquelle la matrice
A de u s’ècrit :
0 1 0 ··· 0
0 0 1 ··· 0
.. . . . . . . ..
. . . . .
A = 0 0 ··· 0 1
0 0 ··· 0 0
0 1
0 0
Soit x ∈ E tel que un−3 (x) 6= 0 et soient y et z deux éléments de ker(u) tels que
(un−3 (x), y, z) forme une base de ker(u).
Alors (un−3 (x), · · · , u(x), x, y, z) est une base de Jordan de u dans laquelle la matrice A
de u s’écrit :
0 1 0 ··· 0
0 0 1 ··· 0
.. . . . . . . ..
. . . . .
A= 0 0 ··· 0 1
0 0 ··· 0 0
0 0
0 0
Exemple 5.3.1
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme nilpotent non nul
d’indice q
1. dimK (E) = 2 alors on a q = 2 = dimK (E). Soit x ∈ E tel que u(x) 6= 0, alors (u(x), x) est
une base de Jordan de u et on a :
0 1
A=
0 0
0 0 0 0
0 0 0 0
Si q = 2 = dimK (E) − 2, alors d’après la remarque précèdente, deux cas sont possibles :
– dimK (ker(u)) = 2, dans ce cas on choisit x ∈ E et y ∈ E tels que u(x) 6= 0, u(y) 6= 0 et
(x, y) libre. Alors (u(x), x, u(y), y) est une base de Jordan de u et on a :
0 1 0 0
0 0 0 0
A= 0 0 0 1
0 0 0 0
– dimK (ker(u)) = 3, dans ce cas on choisit x ∈ E tel que u(x) 6= 0 et on choisit y , z ∈
ker(u) tels que (u(x), y, z) forme une base de ker(u). Alors (u(x), x, y, z) est une base de
Jordan de u et on a :
0 1 0 0
0 0 0 0
A= 0 0 0 0
0 0 0 0
Lemme 5.3.4
i) ∀ j , j = 1, 2, . . . , r , N j est stable par u
r
L
ii) E = Nj
j=1
iii) ∀ j , j = 1, 2, . . . , r , dimK (N j ) = m j
Preuve 5.3.9
i) Trivial
ii) D’après le théorème de Cayley-Hammilton, χu (u) = 0, donc d’après le théorème de
décomposition on a le résultat.
iii) Soit v j la restriction de u à N j , alors v j est un endomorphisme de N j , car N j est stable
par u, et on a (v j − λ j )m j = 0 .
Posons n j = dimK (N j ), alors χv j = (X − λ j )m j Or on sait que χv j divise χu et par suite on
aura n j ≤ m j . D’autre part , on a :
m1 + m2 + · · · + mr = n1 + n2 + · · · + nr = n
D’où ∀ j , n j = m j
Remarque 5.3.2
1. ∀ j , j = 1, 2, . . . , r, Eλ j ⊆ Nλ j
2. ∀ j , j = 1, 2, . . . , r, (v j − λ j )m j = 0 , donc v j − λ j est un endomorphisme nilpotent de N j
3. ∀ j , j = 1, 2, . . . , r, soit q j l’indice de nilpotence de v j − λ j , alors on a :
Théorème 5.3.4
Soit E un K-espace vectoriel de dimension finie, où K est un corps algèbriquement clos. Alors
pour tout endomorphisme u de E, il existe deux endomorphismes de E, v et w, tels que :
i) v est diagonalisable
ii) w est nilpotent
iii) vow = wov
iv) u = v + w
Preuve 5.3.10
K est algèbriquement clos, donc χu a toutes ses racines dans K. Soient λ1 , λ2 , . . . , λr les racines
deux à deux distinctes de χu et soitent N1 , N2 , . . . , Nr les sous-espaces caractéristiques associés
r
Ni , donc pour x ∈ E, x = x1 + x2 + · · · + xr on pose :
L
On sait que E =
i=1
v(x) = λ1 .x1 + λ2 .x2 + · · · + λr .xr
w(x) = u1 (x1 ) − x1 + u2 (x2 ) − x2 + · · · + ur (xr ) − xr
Corollaire 5.3.1
Soit K un corps algèbriquement clos. alors pour toute matrice carrée A d’ordre n à coëfficients
dans K, il existe deux matrices carrées D et N d’ordre n à coëfficients dans K tels que :
i) D est diagonalisable
ii) N est nilpotente
iii) D.N = N.D
iv) A = D + N
Preuve 5.3.11
Exercice
Théorème 5.3.5
Soient E un K-espace vectoriel de dimension finie = n et u un endomorphisme de E. On suppose
que χu a toutes ses racines dans K et que
χu = (X − λ1 )m1 (X − λ2 )m2 · · · (X − λr )mr , où λ1 , λ2 , . . . , λr sont les racines deux à deux distinctes
de χu . Alors il existe une base de E, appelée base de Jordan de u, dans laquelle la matrice J de u
s’écrit :
J1
J2
...
J=
. . .
Jr
Où ∀i , i = 1, 2, . . . r , on a :
Ji,1
Ji,2
Ji = ..
.
Ji,ri
Et où ∀ j , j = 1, 2, . . . , ri , on a :
λi 1 0 · · · 0
0 λi 1 · · · 0
.. . . . . . . .
Ji, j = . ..
. . .
0 0 · · · λi 1
0 0 · · · 0 λi
Où ∀i , i = 1, 2, . . . , n − 1 , εi ∈ {0, 1}
Et où ∀ j , 1 ≤ j ≤ r , λ j apparait m j fois sur la diagonale de la matrice J.
Preuve 5.3.12
Pour chaque i , i = 1, 2, . . . , r, soit vi la restriction de u au sous-espace caractéristique Ni associé
à la valeur propre λi , alors vi − λi est un endomorphisme nilpotent de Ni , donc il existe une base
v1 = (A − λI)(v), v2 = v et v3 = y
v1 = (A − λ)(x), v2 = x, v3 = (A − λ)(y) et v4 = y
v1 = (A − λ)(x), v2 = x, v3 = y, et v4 = z
kA.Xk
N(A) = sup({ , kXk = 1})
kXk
Proposition 5.4.1
i) L’application N : Mn (C) → R+ définit une norme sur C
ii) ∀A ∈ Mn (C) , ∀B ∈ Mn (C) , N(A.B) = N(A)N(B)
iii) N(I) = 1, (où I est la matrice identité)
Preuve 5.4.1
Exercice
Remarque 5.4.1
1. (Mn (C), N) est un espace normé
2. Rappelons qu’une suite (An )n≥0 d’éléments de (Mn (C), N) est dite de Cauchy si :
Et qu’un espace normé E est dit complet, si toute suite de Cauchy d’éléments de E
converge vers un élément de E
3. Rappelons aussi que tout espace normé de dimension finie est complet et que toutes les
normes sur un tel espace sont equivalente (Voir Cours d’Analyse de MPII)
4. Mn (C) est de dimension finie = n2 , donc (Mn (C), N) est un espace normé complet
Preuve 5.4.2
Il suffit de vérifier que (u p ) p≥0 est une suite de Cauchy
Définition 5.4.1
Pour toute matrice A de Mn (C), on définit l’exponentiel de A par la formule :
∞
An
exp(A) = lim u p = ∑
n=0 n!
p→∞
Lemme 5.4.2
Si A et B sont deux matrices de Mn (C) qui commutent, alors :
Preuve 5.4.3
∞
Ap ∞
Bq
exp(A). exp(B) = ( ∑ ).( ∑ )
p=0 p! q=0 q!
C’est le produit de Cauchy de deux séries :
∞ ∞ ∞ ∞ n
( ∑ u p ).( ∑ vq ) = ∑( ∑ u p vq ) = ∑ ( ∑ u pvn−p)
p=0 q=0 n=0 p+q=n n=0 p=0
Or on sait que :
n
A p B(n−p)
∑
p=0 p! (n − p)!
1 n n!
= (∑ A p B(n−p) )
n! p=0 (n − p)!p!
1
= (A + B)n car A et B commutent
n!
∞
(A + B)n
=⇒ exp(A). exp(B) = ∑ n! = exp(A + B)
n=0
D’où le résultat.
3. Si J est une matrice de Jordan, alors J = D + N, où D est une martice diagonale et N une
matrice nilpotente qui commute avec D, donc on aura
4. Si maintenant A est une matrice quelconque à coëfficients dans C, alors on sait qu’il existe
une matrice de Jordan J et il existe une matrice inversible P tels que A = P−1 JP, donc il
est facile de vérifier que :
exp(A) = P−1 exp(J)P
Remarque 5.4.2
Soit A une matrice complexe. Supposons que Cn = E1 ⊕ E2 ⊕ · · · ⊕ Er , où pour chaque i , i =
1, 2, . . . , r, Ei est stable par A. Alors
r
n
∀X ∈ C , exp(A).X = ∑ exp(Ai ).Xi
i=1
Remarque 5.4.3
Posons X(t) = (x1 (t), x2 (t), . . . , xn (t)), alors X(t) est une fonction inconnue de R vers Cn et le
système précédent est equivalent à l’equation différentielle suivante :
dX(t)
= AX(t)
dt
Par analogie au cas de dimension 1, ce système admet pour solution :
X(t) = PY (t)
5.5 Exercices
Exercice 5.5.1
Trouver les valeurs propres et les vecteurs propres des matrices suivantes :
1 3 0 0 −4 1 0 1 1 2 3 4
4 2 0 0 −2 −1 0 1 0 1 0 7
1 −1 5 3 −12 6 3 1 0 0 2 7
2 0 4 −2 −2 1 0 −1 0 0 0 2
Exercice 5.5.2
A A A A
2 1 A 0 0 A
A= et B=
1 2 A 0 0 A
A A A A
Déterminer les valeurs propres et les vecteurs propres de B
Exercice 5.5.3
Soient u, v, w les suites définies par
3un + 2
∀n ≥ 0, un+1 = , vn+1 = 3vn + 2wn et wn+1 = vn + 2wn
un + 2
On suppose que u0 ≥ 0, v0 = u0 et w0 = 1.
vn
1. Montrer que ∀n ≥ 0, un = wn .
2. a) Trouver une matrice A, tel que
vn+1 v
∀n ≥ 0, =A n
wn+1 wn
b) Trouver une matrice inversible P et une matrice diagonale D, telle que A = PDP−1 .
c) Calculer An et en déduire vn , wn et lim un .
n→∞
Exercice 5.5.4
Soit u l’endomorphisme de R4 défini par sa matrice A dans la base canonique (e1 , e2 , e3 , e4 ) :
1 1 1 1
0 0 1 0
A= 0 1 0 0
1 1 1 1
Exercice 5.5.5
Soit u un endomorphisme d’un K-espace vectoriel E de dimension finie, tel que :
u4 = u2 + u
a) Montrer que
E = Ker(u) ⊕ Ker(u3 − u − IdE )
b) Montrer que Im(u) ⊆ Ker(u3 − u − IdE )
c) En déduire que Im(u) = Ker(u3 − u − IdE )
Exercice 5.5.6
−1 1 1 3a
2 0 −2 −2
A=
−2
une matrice de M4 (R)
1 2 3a
0 0 1 0
1. Montrer que 1 est valeur propre de A. Quelle est la dimension de l’espace propre associé
à la valeur propre 1 ?
2. Pour quelles valeurs de a, A est diagonalisable ?
3. Soit H le sous-espace de R4 d’équation 2x − y − 3z − t = 0
– Montrer que A(H) = H.
– Soit B la restriction de la matrice A à H. B est-elle diagonalisable ?
Exercice 5.5.7
Soient A et B deux matrices non nulles de Mn (R).
1. Montrer que rgR (A) = rgC (A).
2. Montrer que A et B sont R-semblables, si et seulement si, A et B sont C-semblables.
(On pourra étudier det(P1 + xP2 ) avec P1 + iP2 matrice inversible).
3. Dans la suite, on suppose que A3 + 2A2 + 2A = 0. A est-elle diagonalisable dans R ?
dans C ?
4. Montrer que A est de rang pair.
Exercice 5.5.8
Soient E = M2 (R) le R-espace vectoriel des matrices carrées d’ordre 2 à coifficients dans R et
(J1 , J2 , J3 , J4 ) la base canonique de E.
1 0 0 1 0 0 0 0
Rappelons que J1 = , J2 = , J3 = et J4 =
0 0 0 0 1 0 0 1
On considère l’endomorphisme u de E défini par :
u : E−→ E
a b d −b
M= 7−→ u(M) =
c d −c a
a) Calculer u2 .
b) Montrer que u est diagonalisable.
c) Ecrire la matrice A de u dans la base (J1 , J2 , J3 , J4 ).
d) Déterminer le polynôme caractéristique de u.
e) Trouver une base formée de vecteurs propres de u.
Exercice 5.5.9
Soient E un C-espace vectoriel de dimension finie = n et u un endomorphisme de E dont la
matrice dans une base de E s’écrit :
1 0 ... 0 0
0 0 ... 0 1
...
A= 0 0 1 0
. . .. . . ..
.. ..
. . .
0 1 0 ... 0
a) Vérifier que u2 = IdE et en déduire que u est diagonalisable
b) Déterminer la dimension de ker(u − IdE )
(Discuter suivant les cas où n est pair et n impair)
c) Quel est le polynôme caractéristique de u ?
d) Trouver une base de E formée de vecteurs propres de u
Exercice 5.5.10
Soit B la matrice de M2n (C) définie par :
A 4A
B=
A A
Montrer que f est de rang 1 et que f est diagonalisable, si et seulement si, Tr(AB) 6= 0.
Exercice 5.5.16
Soient A une matrice de Mn (K) et P ∈ K[X].
1. Montrer que si λ ∈ K est une valeur propre de A alors P(λ) est valeur propre de P(A).
∀x ∈ E , u(x) − α.x ∈ H
b) Caractériser u lorsque α = 0
c) Discuter, suivant les valeurs de α, la possibilité de diagonaliser u
Exercice 5.5.19
Soient E un K-espace vectoriel de dimension finie, où K est un corps algèbriquement clos, et A
un ensemble d’endomorphismes de E deux à deux commutants
a) Soient u ∈ A et λ ∈ K une valeur propre de u. Montrer que Eλ , le sous-espace propre
associé à λ, est stable par A, (c.à.d : ∀u ∈ A, Eλ est stable par u)
b) Montrer que les éléments de A ont un vecteur propre commun
c) Montrer que A est trigonalisable, c’est à dire, il existe une base de E dans laquelle la
matrice de tout élément de A est une matrice triangulaire
d) On suppose de plus que chaque u ∈ A est diagonalisable. Montrer que A est diagonali-
sable
Exercice 5.5.20
Soient E un K-espace vectoriel de dimension finie, où K est un corps de caractéristique nulle, u
et v deux endomorphismes de E tels que :
u ◦ v − v ◦ u = IdE
a) Montrer que pour tout entier n ≥ 1 , u ◦ vn − vn ◦ u = nvn−1
0
b) Montrer que pour tout P ∈ K[X], u ◦ P(v) − P(v) ◦ u = P (v)
c) En déduire, par un choix convenable de P ∈ K[X] qu’il n’existe pas de couple d’endo-
morphismes (u, v) tel que u ◦ v − v ◦ u = IdE
Exercice 5.5.21
Soient E un C-espace vectoriel de dimension finie et u un endomorphisme de E. Montrer que u
est diagonalisable, si et seulement si :
∀λ ∈ C , ker(u − λ) = ker((u − λ)2 )
Exercice 5.5.22
Soient E un C-espace vectoriel de dimension finie = n et u un endomorphisme de E.
a) On suppose que u2 est diagonalisable. Montrer que u est diagonalisable, si et seulement
si ker(u) = ker(u2 )
b) A quelle condition, la matrice A suivante est diagonalisable ?
0 0 ... 0 αn
0 0 . . . αn−1 0
.. .
. .
. .
. .
.
A= .
. . . .
0 α2 0 ... 0
α1 0 . . . 0 0
Exercice 5.5.23
Soient E un R-espace vectoriel de dimension finie et u un endomorphisme de E. Dans chacun
des cas suivants, etudier la diagonalisation de u
a) u2 − u − 2 = 0
b) (u2 − u + 3)(u − 2)2 = 0 avec u2 − u + 3 6= 0 et (u − 2)2 6= 0
c) Ici on suppose que le corps de base est C et que um = 1 où m est un
entier ≥ 1
Exercice 5.5.24
Soient E un K-espace vectoriel de dimension finie et u un endomorphisme de E. montrer que
les P.S.S.E :
i) u est diagonalisable
ii) Tout sous-espace vectoriel de E possède un supplémentaire stable par u
Exercice 5.5.25
Soit u l’endomorphisme de R3 défini par sa matrice A dans la base canonique de R3 :
1 0 1
A = −1 2 1 , où m est un réel quelconque
2−m m−2 m
i) Montrer que Mu = χu
ii) Montrer que u est irréductible
Exercice 5.5.30
Soit u l’endomorphisme de R4 défini par sa matrice A dans la base canonique (e1 , e2 , e3 , e4 ) :
0 −1 1 3
0 3 0 −1
A=
−1 −1 2 2
0 1 0 1
Problème 5.5.1
Soient E un K-espace vectoriel de dimension finie = n ≥ 1 et u un endomorphisme de E. Pour
x ∈ E, on pose :
Ix = {P ∈ K[X] : P(u)(x) = 0}
1. a) Montrer que Ix est un idéal de K[X]
b) En déduire qu’il existe un polynôme unitaire Qx unique tel que
Ix = (Qx ) , (où (Qx ) est l’idéal engendré par Qx )
2. Soit Mu le polynôme minimal de u. Montrer que :
Mu = ppcm(Qx : x ∈ E)
E = {P(u)(x) : P ∈ K[X]}
Problème 5.5.2
Soient E un C-espace vectoriel de dimension finie = n ≥ 3, (e1 , e2 , . . . , en ) une base de E et u
l’endomorphisme de E défini par :
u(ei ) = ien , 1 ≤ i ≤ n − 1
u(en ) = ∑ni=1 iei
P = X n−2 (X 2 + aX + b)
Où a, b ∈ R avec b 6= 0
7. a) Déterminer a et b
b) Quel est le polynôme minimal de u ?
Problème 5.5.3
Soient E un R-espace vectoriel de dimension finie = n et u un endomorphisme de E de poly-
nôme minimal :
Mu = a0 + a1 X + · · · + am−1 X m−1 + am X m
1. a) Montrer que u est inversible, si et seulement si, a0 6= 0
b) Dans le cas où u est inversible, montrer qu’il existe un polynôme P ∈ R[X] tel que
u−1 = P(u)
2. On suppose que n ≥ 2 et que la matrice A de u dans une base
(e1 , e2 , . . . , en ) de E s’écrit sous la forme
0 1 1 ... 1
1 0 1 ... 1
A = ... . . . . . . . . . ...
1 1 ... 0 1
1 1 ... 1 0
Posons x0 = e1 + e2 + · · · + en
a) Exprimer u(x0 ) et (u + IdE )(ei ) pour i = 1, 2, . . . , n, en fonction de x0 , et en déduire
que u est diagonalisable
b) Trouver le polynôme minimal et le polynôme caractéristique de u
c) Montrer que u est inversible et déterminer la matrice de u−1 dans la base (e1 , e2 , . . . , en )
d) Trouver une base de E formée de vecteurs propres de u
Problème 5.5.4
Soit B la matrice en blocs, à coëfficients dans un corps K de caractéristique nulle, définie par :
A 0
B=
A A
Am
0
Bm =
mAm Am
0 0 ... 0 Ar
Où D est une matrice diagonale et pour tout i , i = 1, 2, . . . , r, Ai est une matrice carrée d’ordre
2 de la forme :
ai −bi
Ai =
bi ai
Où ai ∈ R et bi ∈ R \ {0}
1. Soit u un endomorphisme quelconque de E
a) Montrer l’existence d’un polynôme irréductible Q ∈ R[X] tel que ker(Q(u)) 6= {0}
b) En déduire qu’il existe un sous-espace de E de dimension 1 ou 2 stable par u
2. Dans cette partie on se propose de démontrer léquivalence des trois propriétés suivantes :
i) u est semi-simple
ii) Il existe une base de E dans laquelle la matrice de u est semi-diagonale
iii) Il existe un polynôme simple P tel que P(u) = 0
A) On suppose que la proprièté i) est vérifiée
a) Montrer que la proprièté ii) est vérifiée dans le cas n = 2
b) Dans le cas général, montrer que, pour tout sous-espace F de E stable par u, la
restriction de u à F est un endomorphisme semi-simple de F
c) Montrer, dans le cas général, la proprièté ii)
B) Montrer que ii) implique iii)
C) On suppose que la proprièté iii) est vérifiée
a) Soit F un sous-espace de E stable par u, avec F 6= E, montrer qu’il existe x ∈ E avec
x∈ / F et il existe un polynôme irréductible Q ∈ R[X] tels que Q(u)(x) = 0
b) Montrer que la proprièté i) est vérifiée
3. Soit A la matrice de Mn (R) définie par :
1 −1 1
A= 1 0 0
0 1 0
A = T −1 .B.T
Problème 5.5.6
Soient E un K-espace vectoriel de dimension 4 et u un endomorphisme de E . (K=R ou C)
1. On suppose que u4 = 0 et u3 6= 0. Montrer qu’il existe une base de E dans laquelle la
matrice A de u s’écrit :
0 1 0 0
0 0 1 0
A= 0 0 0
1
0 0 0 0
2. On suppose que u3 = 0 et u2 6= 0
a) Montrer que dim(Ker(u2 )) = 3
b) Montrer que dim(Ker(u)) = 2
c) Montrer qu’il existe une base de E dans laquelle la matrice A de u s’écrit sous la
forme :
0 1 0 0
0 0 1 0
A= 0 0 0 0
0 0 0 0
3. On suppose que u2 = 0 et u 6= 0
a) Montrer que Im(u) ⊆ Ker(u)
b) On suppose que Im(u) = Ker(u)
i) Montrer que dim(Ker(u)) = 2
ii) Montrer qu’il existe une base de E dans laquelle la matrice A de u s’écrit sous la
forme :
0 1 0 0
0 0 0 0
A= 0 0 0 1
0 0 0 0
c) On suppose que Im(u) 6= Ker(u)
i) Montrer que dim(Ker(u)) = 3
ii) Montrer qu’il existe une base de E dans laquelle la matrice A de u s’écrit sous la
forme :
0 1 0 0
0 0 0 0
A= 0 0 0 0
0 0 0 0
Problème 5.5.7
Soient E un K-espace vectoriel de dimension finie = n, (e1 , e2 , . . . , en ) une base de E et (e∗1 , e∗2 , . . . , e∗n )
sa base duale.
Pour x élément de E et φ élément de E ∗ , x ⊗ φ est l’endomorphisme de E défini par :
Définition 5.5.1
Un corps commutatif K est dit algèbriquement clos, si tout polynôme non constant de K[X]
possède au moins une racine dans K.
Notations 5.5.1
Dans toute la suite, K désigne le corps R des nombres réels ou C celui des nombres complexes et
Mn (K) l’algèbre des matrices carrées à coefficients dans K. Pour chaque (k, l) ∈ {1, 2, . . . , n}2 ,
on désigne par Ekl = (ai j )1≤i, j≤n la matrice de Mn (K) définie par :
(
1 si i = k et j = l
∀(i, j) ∈ {1, 2, . . . , n}2 , ai j =
0 si i 6= k ou j 6= l
Ekl est donc la matrice dont tous les coefficients sont nuls sauf celui de la kieme ligne et la l ieme
colonne qui est égal à 1.
Rappelons que {Ekl : (k, l) ∈ {1, 2, . . . , n}2 } forme une base de Mn (K), c’est la base canonique
de Mn (K) : Si A = (ai j ), A s’écrit d’une manière unique sous la forme :
n n
A= ∑ ∑ ai j Ei j = ∑ ai j Ei j
i=1 j=1 1≤i, j≤n
Rappelons aussi que les matrices Ekl vérifient les règles de calcul suivantes :
(
Eil si j = k
∀(i, j) ∈ {1, 2, . . . , n}2 , ∀(k, l) ∈ {1, 2, . . . , n}2 , Ei j Ekl =
0 6 k
si j =
Donc en particulier, on a
i) ∀i ∈ {1, 2, . . . , n}, Eii2 = Eii , donc pour tout i, Eii est une matrice de projection.
ii) ∀(i, j) ∈ {1, 2, . . . , n}2 , i 6= j =⇒ Ei2j = 0, donc pour i 6= j, Ei j est nilpotente d’indice de
nilpotence = 2.
Résultats préliminaires
1. a) Montrer que tout polynôme de R[X] de degré impair possède au moins une racine
réelle. (On pourra utiliser le théorème des valeurs intemidiaires).
b) En déduire que tout endomorphisme d’un R-espace vectoriel E de dimension impaire,
admet au moins une valeur propre.
c) Application : Existe-t-il une matrice A ∈ M3 (R), telle que A2 + A + I = 0 ?
F = {M ∈ Mn (C) : t M = M}
On suppose de plus que n est impair.
1. Vérifier que F est un espace vectoriel réel.
2. Vérifier que la famille constituée des éléments E11 , E22 , . . . , Enn , Ekl + Elk , i(Ekl − Elk )
avec (k, l) ∈ {1, 2, . . . , n} et k < l, est une base de F . Quelle est alors la dimension de F ?
Quelle est sa parité ?
3. Soit A une matrice de Mn (C) ; on considère les deux applcations u et v définies sur F
par :
1 1
∀M ∈ F , u(M) = (AM + Mt A) et v(M) = (AM − Mt A)
2 2i
a) Montrer que u et v sont des endomorphismes de E.
b) Vérifier que u et v commutent puis justifier qu’ils possèdent au moins un vecteur
propre commun.
c) Soit M0 ∈ F un vecteur propre commun aux endomorphismes u et v ; on suppose que
u(M0 ) = λM0 et v(M0 ) = µM0 avec (λ, µ) ∈ R2 .
Exprimer la matrice AM0 en fontion de M0 et montrer soigneusement que λ + iµ est
une valeur propre de la matrice A.
4. a) Justifier que tout endomorphisme d’un espace vectoriel complexe de dimension im-
paire possède au moins une valeur propre.
b) Montrer par récurrence sur la dimension que deux endomorphismes commutables
d’un C-espace vectoriel de dimension impaire, possèdent au moins un vecteur propre
commun.
0 . . . 0 1 −an−1
1. Calculer le polynôme caractéristique de f .
2. En déduire que le polynôme P possède au moins une racine complexe.
3. Déduire de ce qui précède le théorème de d’Alembert.
Exercice 5.5.36
a) Soit A une matrice de Mn (C) telle que ||A|| < 1. Montrer que I − A est une matrice
inversible
b) En déduire que GLn (C) est un ouvert de Mn (C)
c) Montrer que l’application de GLn (C) → GLn (C), qui à A fait
correspondre A−1 , est continue
Soient A et B deux matrices diagonalisables réelles telles que
exp(A) = exp(B)
Montrer que A = B.
Exercice 5.5.37
Montrer que pour toute matrice A ∈ Mn (C), on a :
det(exp(A)) = exp(tr(A))
Exercice 5.5.38
Soit A ∈ Mn (C). Montrer que les deux propriètés suivates sont équivalentes :
i) A est nilpotente
ii) Il existe une suite (Bn )n≥0 de matrices semblables à A telles que :
lim ||Bn || = 0
Exercice 5.5.39
Soient a un nombre complexe non nul et J la matrice de Jordan :
0 1 0 ... 0
0 0 1 ... 0
.. . . . . . . ..
J= . . . . .
0 0 ... 0 1
0 0 ... 0 0
dX(t)
Résoudre dt = AX(t) , où A = I + aJ + a2 J 2 + · · · + an−1 J n−1
Exercice 5.5.40
Rn est muni de sa norme euclidienne. On considère le système différentiel :
dX(t)
(S) : = AX(t) où A ∈ Mn (R)
dt
Montrer que les propositions suivantes sont équivalentes :
i) Pour toute solution X(t) de (S), la fonction t 7→ ||X(t)|| est constante
ii) La matrice A est antisymétrique
∀x , x ∈ E =⇒ x ≤ a
ii) On dit que a est un élément minimum (ou un plus petit élément) de E, si :
∀x , x ∈ E =⇒ a ≤ x
Remarque A.1.1
1. a est un élément maximum de E, si et seulement si,
{x ∈ E : x ≤ a} = E
{x ∈ E : a ≤ x} = E
a ≤ b et b ≤ a
149
ANNEXE A. LEMME DE ZORN - AXIOME DU CHOIX 150
a = qb + r et 0 ≤ r < b
∀a ∈ A , a ≤ x
∀a ∈ A , x ≤ a
Définition A.2.2
Soient (E, ≤) un ensemble ordonné et A une partie de E.
i) Le plus petit élément de M(A), s’il existe, s’appelle la borne supérieure de A et se note
sup(A)
ii) Le plus grand élément de m(A), s’il existe, s’appelle la borne inférieure de A et se note
inf(A)
Remarque A.2.1
Soient (E, ≤) un ensemble ordonné et A une partie de E
1. Un élément maximum appartient toujours à A, tandis qu’une borne supérieure peut ne pas
appartenir à A
2. Un élément minimum appartient toujours à A, tandis qu’une borne inférieure peut ne pas
appartenir à A
3. Une borne supérieure ou une borne inférieure, s’il existe, est toujours unique. (Exercice)
4. Si A possède un élément maximum (resp. minimum), alors cet élément coincide avec sa
borne supérieure (resp. inférieure)
Exemple A.2.1
On prend E = R
a) A = [0, 1] alors 0 est un élément minimum de A donc aussi c’est la borne inférieure de A.
1 est un élément maximum de A donc aussi c’est une borne supérieure de A.
b) A =]0, 1[ dans ce cas A n’admet ni élément maximum ni élément minimum. Par contre 0
est la borne supérieure de A et 1 est la borne inférieure de A.
c) A =] − ∞, 0] ∪ [1, +∞[ alors A n’admet ni élément maximum, ni élément minimum, ni
borne supérieure, ni borne inférieure.
Définition A.2.3
Un treillis est un ensemble ordonné (E, ≤) tel que pour tout a ∈ E et tout b ∈ E, A = {a, b}
possède une borne supérieure et une borne inférieure, notées respectivement sup(a, b) et inf(a, b)
Exemple A.2.2
1. Soient X un ensemble quelconque et E = P (X) ordonné par inclusion. Alors (E, ⊆) est
un treillis. En effet pour A ∈ E et B ∈ E on a
sup(A, B) = A ∪ B et inf(A, B) = A ∩ B.
2. Soit E = N \ {0, 1} ordonné par la division :
∀n ∈ E, ∀m ∈ E, n ≤ m ⇐⇒ n divise m
Théorème A.2.1
Soient (E, ≤) un ensemble ordonné et A une partie de E.
i) x ∈ E est la borne supérieure de A, si et seulement si :
Preuve A.2.1
i) ( =⇒ ) Supposons que x est une borne supérieure de A, donc par définition on a ∀a ∈
A, a ≤ x. Soit y ∈ E tel que y < x, supposons par absurde que ∀a ∈ E, a ≤ y, donc
y ∈ M(A) et par suite x ≤ y, car x est, par définition, le plus petit élément de M(A), ce qui
est absurde car par hypothèse y < x.
( ⇐= ) Il suffit de montrer que x est le plus petit élément de M(A), pour cela on suppose
par absurde qu’il existe y ∈ M(A) tel que y < x, donc par hypothèse il existe a ∈ A tel que
y < a ≤ x. Or y ∈ M(A) donc a ≤ y, ce qui est absurde.
ii) Se démontre de la même manière que i).
∀x ∈ E , a ≤ x =⇒ x = a
∀x ∈ E , x ≤ a =⇒ x = a
Remarque A.3.1
Soit (E, ≤) un ensemble ordonné.
{x ∈ E : a ≤ x} = {a}
C’est à dire qu’il n’existe pas d’élément de E qui est supérieur ou égal à a autre que a.
2. a ∈ E est un un élément minimal de E, si et seulement si :
{x ∈ E : x ≤ a} = {a}
C’est à dire qu’il n’existe pas d’élément de E qui est inférieur ou égal à a autre que a.
3. Un élément maximal (resp. minimal), s’il existe, n’est pas toujours unique
4. Si E possède un plus grand élément a, alors a est un élément maximal de E et c’est
l’unique élément maximal de E.
5. Si (E, ≤) est totalement ordonné et si E possède un élément maximal a, alors a est unique.
Exemple A.3.1
1. E = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12} muni de la relation d’ordre :
x ≤ y ⇐⇒ x divise y
E = {{a}, {b}, {c}, {d}, {a, b}, {a, c}, {a, d}, {b, c}, {b, d}, {c, d}, {a, b, c}, {a, b, d}, {a, c, d}, {b, c, d}}
Alors {a}, {b}, {c}, {d} sont des éléments minimaux de E et {a, b, c}, {a, b, d}, {a, c, d}, {b, c, d}
sont des éléments maximaux de E.
3. Soient X un ensemble quelconque non vide et E = P (X) \ {0,
/ X} ordonné par inclusion.
Alors ∀x ∈ X, {x} est minimal et X \ {x} est maximal
4. E = N \ {0, 1} muni de la relation d’ordre :
x ≤ y ⇐⇒ x divise y
f : P (X) \ {0}
/ → X telle que : ∀A ∈ P (X) \ 0,
/ f (A) ∈ A
f : P (R) \ {0}
/ →R
E = {(X, f ) : X ⊆ E et f : E → F injective}
(g |X est la restriction de g à X). Nous laissons le soin au lecteur de vérifier que ≤ définit
bien une relation d’ordre sur E
Montrons que (E , ≤) est inductif, pour cela soit A une chaîne de E . On doit montrer
donc que A possède un majorant dans E . Pour simplifier nous allons d’abord écrire A
sous forme d’une famille :
A = {(Xi , fi ) : i ∈ I}
Posons maintenant X = ∪ Xi et f : X → F définie par :
i∈I
∀x ∈ X, f (x) = fi (x) si x ∈ Xi
Alors f est bien définie, car A est totalement ordonné, et f est injective, car pour tout
i ∈ I, fi est injective. Donc (X, f ) ∈ E et par construction, (X, f ) est un majorant de
A dans E . (E , ≤) est inductif, donc d’après le lemme de Zorn, E admet au moins un
élément maximal qu’on note (M, ϕ). Pour conclure nous allons montrer que M = E ou
f (M) = F. Fn effet, supposons par absurde le contraire, c’est à dire M 6= E et f (M) 6= F,
donc il existe x ∈ E tel que x ∈
/ M et il existe y ∈ F tel que y ∈
/ f (M). Posons W = M ∪ {x}
et soit g : Y → F l’application définie par :
(
f (w) si w ∈ M,
∀w ∈ W, g(w) =
y si w = x
Alors il est facile de vérifier que g est injective, donc (W, g) ∈ E avec (M, f ) ≤ (W, g) et
(M, f ) 6= (W, g), ce qui contredit le fait que (M, f ) est un élément maximal de E . Donc
on a bien M = E ou f (M) = F.
i) Si M = E alors f : E → F est une injection, d’où le résultat.
ii) Si f (M) = F, puisque f : M → F est injective et f (M) = F, alors f est bijective. Soit
h : F → E définie par :
∀y ∈ F, h(y) = f −1 (y)
Alors h est une injection de F vers E, d’où le résultat.
Le logiciel Maple est un outil très puissant de calcul numérique et formel. Il fournit un très
grand nombre de commandes qui permettent d’une part d’effectuer des calculs avec des pré-
cisions quelconques, et d’autre part de manipuler, d’une manière formelle, des expressions
mathématiques : développement, factorisation, simplification, dérivation, intégration, limites,
résolution d’équations algèbriques et différentielles, etc... Sans oublier l’aspet graphique : tra-
cage de courbes et de surfaces
Dans cette section nous allons présenter les principales commandes concernant l’Algèbre li-
néaire.
Cas général
Dans le cas général,pour déclarer une matrice carrée A d’ordre n, on applique l’une des com-
mandes suivantes :
– > A := matrix(n, n, [L1 , L2 , . . . , Ln ]);
– > A := matrix([[L1 ], [L2 ], . . . , [Ln ]]);
– > A := array(1..n, 1..n, [[L1 ], [L2 ], . . . , [Ln ]]);
– > A := array([[L1 ], [L2 ], . . . , [Ln ]]);
où L1 , L2 , . . . , Ln sont les lignes de la matrice A
Remarque
La commande matrix est un cas particulier de la commande array qui a une utilisation plus
étendue et plus générale (Voir le Help de Maple pour plus d’informations sur le sujet)
157
ANNEXE A. MAPLE ET ALGÈBRE LINÉAIRE 158
A=
...
b1 b2 . . . bk a c1 c2 ...
0
b1 b2 . . . bk a c1 . . . ck−1
. . . .
. . . .
.
. . . bk−1 bk a c1 . . .
0 . . . 0 b1 b2 ... bk a c1
0 0 ... 0 b1 b2 ... bk a
où k est un entier ≤ n − 1
exemples
exemple1 >A:=band([1],n); retourne la matrice identitï¿ 21 d’ordre n
exemple2 >A:=band([b,a,c],5);
a c 0 0 0
b
a c 0 0
A= 0 b a c 0
0 0 b a c
0 0 0 b a
1 x1 x12 . . . x1n−1
1 x x2 . . . xn−1
2
A = . . .2 . 2
.
. . .. . . ..
. .
2
1 xn xn . . . xn n−1
Exemple
A := vandermonde([a, b, c, d]); produit la matrice suivante :
1 a a2 a3
1 b b2 b3
A= 1 c c2 c3
1 d d2 d3
A.4 Vecteurs
A.4.1 Déclaration d’un vecteur
– v := vector([v1 , v2 , . . . , vn ]);
Retourne le vecteur v = [v1 , v2 , . . . , vn ]
– Soit f une fonction quelconque d’une variable quelconque, alors :
> v := vector(n, f );
Retourne le vecteur v = [ f (1), f (2), . . . , f (n)]