L1 Alg
L1 Alg
L1 Alg
1 Introduction et bibliographie 5
3
Table des matières Table des matières
6 Applications linéaires 89
6.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.1.1 Application linéaire de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.1.2 Image, noyau et rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.2 Applications linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2.2 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.3 Applications linéaires remarquables : formes linéaires, projecteurs . . . . . . . . . . . . . . . . . 97
6.3.1 Homothéties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.2 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.3 Projecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.4 Symétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7 Déterminants 101
7.1 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.1.1 Les trois propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.1.2 Les autres propriétés principales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.3 Construction du déterminant dans le cas 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . 103
7.1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.2 Définition par des formules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2.1 Formule des pivots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2.2 Formule des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2.3 Formule des cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.3 Applications du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.3.1 Résolution de systèmes linéaires et formules de Cramer . . . . . . . . . . . . . . . . . . . 108
7.3.2 Inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.3.3 Calculs d’aires et de volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.3.4 Le produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.3.5 Produit mixte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.3.6 Le polynôme caratéristique d’une matrice : calcul des valeurs propres . . . . . . . . . . . 110
7.3.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.4 Quelques calculs de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.4.1 Matrice de Froebenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
Appendices 119
Introduction et bibliographie
Algèbre...
Le mot “algèbre” vient du terme arabe Q.m.Ì '@ ”al-jabr” signifiant littéralement ”restauration”. Ce terme fut pour
la première fois employé à propos des mathématiques par le savant ú× PP@ ñm Ì '@, Al-Khwarizmi 1 , dans son livre
. A®ÖÏ @ ð Q.m.Ì '@ H. Ak ú¯ QåJjÖÏ @ H. AJ», Abrégé du calcul par la restauration et la comparaison, où il procède à
IÊK
l’étude systématique des équations du second degré et se ramène à six cas de base, en utilisant ce qu’il nomme
“restauration” (al-jabr). Cette restauration se traduit essentiellement par l’ajout d’une même quantité dans les deux
membres de l’équation afin d’éliminer les termes apparaissant en soustraction. Cette idée de modifier une égalité
pour la rendre plus simple à résoudre est fondamentale. Il faut se rendre compte qu’à l’époque d’Al-Khwarizmi, le
seul fait de penser un problème en termes d’égalité avec une grandeur inconnue était déjà une avancée considérable.
. . . linéaire
Voyons maintenant ce qu’est un phénomène linéaire. Le prix de détail des marchandises, par exemple : quand le
marchand affiche 2 euros le prix d’un kilo de pommes, il est implicite que x kilos de pommes coûteront 2x euros.
Le prix des pommes est donc donné par la fonction de R dans R définie par x 7→ 2x. Le prix que vous payez est
une fonction linéaire du poids. De manière plus générale, une application linéaire de R dans R est une application
qui s’écrit sous la forme x 7→ αx, où α ∈ R est donné. Finalement, dans R, l’algèbre linéaire se réduit plus ou
moins à la règle de trois. . . Le concept de linéarité peut alors s’étendre pour désigner un rapport de dépendance
très simple entre plusieurs variables : la variable y dépend linéairement des variables x1 , ..., xN s’il existe des
constantes α1 , . . . , αN telles que y = α1 x1 + . . . + αN xN . On dit encore que y s’exprime comme combinaison
linéaire de x1 , . . . , xN . Par exemple, si vous achetez x1 kilos de pommes à 2 euros le kilo et x2 kilos de poires à 3
euros le kilo, le prix total y que vous payez est la combinaison linéaire y = 2x1 + 3x2 . La notion de combinaison
linéaire sera fondamentale dans la suite de ce cours.
Finalement, l’algèbre linéaire est le domaine des mathématiques qui étudie de façon systématique les propriétés
associées à la dépendance linéaire. Les concepts de base sont celui de combinaison linéaire dont on vient de
parler, et les notions d’espace vectoriel et d’application linéaire. Les espaces vectoriels les plus simples sont les
ensembles R, R2 et R3 lorsqu’ils sont munis de deux opérations très simples : l’addition et la multiplication par
un réel, qui présentent un certain nombre de propriétés que nous verrons plus tard.
Bibliographie
– Des livres en français.
– D.-C. Lay Algèbre linéaire : Théorie, exercices et applications, 2004, De Boeck.
1. Al-Khwarizmi né vers 783, originaire de Khiva dans la région du Khwarezm qui lui a donné son nom, mort vers 850 à Bagdad, est un
savant musulman perse dont les écrits, rédigés en langue arabe, ont permis l’introduction de l’algèbre en Europe. Il est à l’origine des mots
algorithme (qui n’est autre que son nom latinisé) et algèbre ou encore de l’utilisation des chiffres arabes dont la diffusion dans le Moyen-Orient
et en Europe provient d’un autre de ces livres (qui lui-même traite des mathématiques indiennes) et de l’habitude de désigner l’inconnue par
la lettre x dans une équation. Il a d’ailleurs participé à la traduction de nombreux manuscrits scientifiques grecs et indiens. Son apport en
mathématiques fut tel qu’il est également surnommé “le père de l’algèbre”, avec Diophante dont il reprendra les travaux.
7
1. Introduction et bibliographie
– R. Dalang- et A Chaabouni Algèbre linéaire : Aide mémoire, exercices et applications, 2005, PPUR.
– A. Denmat et F. Héaulme Algèbre linéaire : Travaux Dirigés, 1995, Dunod.
– F. Liret, D. Martinais Algèbre 1ère année. Cours et exercices avec solutions, 2003, Dunod.
– Si vous voulez en savoir plus....
J.-M. Monnier Algèbre MPSI : Cours, méthodes et exercices corrigés, 2006, Dunod.
– Des livres en anglais.
– G. Strang Introduction to Linear Algebra, fourth edition , 2009, Wellesley-Cambridge Press U.S. La lecture
de ce livre st fortement conseillé. Le premier chapitre est très largement inspiré de ce livre.
– J. H Hubbard, B. Burke Hubbard Vector Calculus, Linear Algebra, and Differential Forms : A Unified Ap-
proach, 2005, Prentice Hall.
– Quelques sites utiles (cours, exercices corrigés etc...)
http://www.cmi.univ-mrs.fr/˜herbin/L1
http://wims.unice.fr
http://wims.auto.u-psud.fr/wims/wims.cgi?module=U1/algebra/docsyslin.fr
http://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010
http://home.scarlet.be/˜ping1339
http://rutherglen.science.mq.edu.au/wchen/lnlafolder/lnla.html
https://intranet.insa-toulouse.fr/displayContent.do?courseId=168
http://www.sciences.ch/htmlfr/algebre/algebrelineaire01.php
. . . et beaucoup d’autres. . .
Nous allons dans ce chapitre introduire quelques notions nouvelles dans un cadre concret, celui de la droite, du plan
et de l’espace, ce qui nous permettra aussi de réviser quelques connaissances que vous avez acquises en secondaire
et au premier semestre.
2.1 Vecteurs de R2 et R3
2.1.1 Vecteurs et combinaisons linéaires
Dans ce premier chapitre, nous noterons en gras un vecteur u de R2 ou de R3 que vous avez peut être noté − →u
dans vos classes précédentes. On s’affranchira de la notation en gras ou avec flèche au fur et à mesure de ce cours,
en particulier lorsqu’on introduira les vecteurs comme des “éléments d’un espace vectoriel”, dont nous donnerons
une définition précise plus tard.
Soient u et v des vecteurs de R2 qui sont définis (pour l’instant) par des paires de réels (u1 , u2 ) et (v1 , v2 ). On
notera aussi les vecteurs sous forme de colonnes contenant les composantes :
u1 v
u= , v= 1 .
u2 v2
Définition 2.1 On appelle combinaison linéaire de u et v ∈ R2 tout vecteur w de la forme w = αu + βv, où α
et β sont des réels, c.à.d. :
w1 αu1 + βv1
w= = .
w2 αu2 + βv2
Ces propriétés s’appliquent bien sûr aussi aux vecteurs de R3 . Un vecteur u de R3 est donné par ses trois compo-
santes (u1 , u2 , u3 ), et le vecteur s’écrit alors :
u1
u = u2 .
u3
La combinaison linéaire de u et v dans R3 avec les coefficients α et β s’écrit
w1 αu1 + βv1
w = w2 = αu2 + βv2 .
w3 αu3 + βv3
9
2.1. Vecteurs de R2 et R3 2. Algèbre linéaire dans R2 et R3
Remarque 2.2 (Notations · · · et (· · · )) On a identifié des couples ou des triplets de réels avec des vecteurs
écrits sous forme de colonnes. Toutefois, il faudra bien faire attention de ne pas confondre
le vecteur
(u1 , u2 , u3 ),
qui est le vecteur colonne dont les composantes sont u1 , u2 et u3 , avec le vecteur u1 u2 u3 qui est un vecteur
ligne dont les composantes sont les mêmes que celles du vecteur u mais qui n’est pas du tout le même objet
mathématique. Ce vecteur ligne s’appelle “vecteur transposé” du vecteur u.
Dans la définition précédente, on a défini une combinaison linéaire de deux vecteurs. Cette définition contient le
cas d’une combinaison linéaire d’un seul vecteur, en prenant le deuxième égal au vecteur nul. Mais on peut aussi
bien sûr généraliser la définition de combinaison linéaire pour trois, quatre, ..., n vecteurs. Une question importante
qui reviendra souvent pendant ce cours est justement de déterminer l’ensemble de toutes les combinaisons linéaires
d’un vecteur, de deux vecteurs, de trois vecteurs ? Evidemment, le résultat dépend des vecteurs... Si par exemple on
cherche toutes les combinaisons linéaires αu et que le vecteur u est le vecteur nul, on obtient que l’ensemble des
combinaisons linéaires est réduit au vecteur nul. Si par contre le vecteur u est non nul, l’ensemble des combinaisons
linéaires est la droite de vecteur directeur u. Par exemple, l’ensemble des combinaisons linéaires des deux vecteurs
1 1
0 et 1
0 1
est un plan, tandis que l’ensemble des combinaisons linéaires des deux vecteurs :
1 −1
0 et 0
0 0
est une droite.
Exemple 2.3 On cherche à écrire les deux équations que vérifient les inconnues (réelles) α et β pour que la
combinaison linéaire αu + βv soit égale à b, avec :
1 −1 1
u= , v= , et b = .
3 2 5
Pour ce faire, on écrit la combinaison linéaire et l’égalité avec le vecteur b ; on écrit ensuite l’égalité compo-
sante par composante. On obtient ainsi le système suivant, qui est un système linéaire à deux équations et deux
inconnues :
α−β =1
3α + 2β = 5.
2.1.3 Exercices
Les exercices de cette section sont tirés de ou inspirés par quelques uns des nombreux exercices du livre de G.
Strang dont nous conseillons vivement la lecture. . .
Exercice
1 Justifier si les assertionssuivantes
sont vraies ou fausses :
0 1 0
1. 0 est combinaison linéaire de 0 et 1.
0 0 0
2. Soient u un vecteur de R2 et α ∈ R. Si αu = 0, alors α = 0 ou u = 0.
3. Soient u et v deux vecteurs de R2 . Si u · v = 0, alors u = 0 ou v = 0.
4. Soient u et v deux vecteurs de R3 . On suppose qu’il existe deux réels α et β tels que αu + βv = 0. Alors
l’ensemble des combinaisons linéaires de u et v est une droite.
5. Il existe 2 vecteurs u et v de R2 tel que tout vecteur de R2 est combinaison linéaire de u et v.
6. Il existe 2 vecteurs u et v de R3 tel que tout vecteur de R3 est combinaison linéaire de u et v.
Exercice 2 Décrire géométriquement (droite, plan ou R3 tout entier) l’ensemble des combinaisons linéaires des
vecteurs suivants :
1 2 1 0 1 0 1
(a) 2 et 4 (b) 0 et 1 (c) 0 , 1 et 1
3 6 0 2 0 1 1
Exercice 4 On se donne trois points dans R3 de coordonnées (0, 0, 0), (1, 0, 0), (0, 1, 0). Combien y-a-t’il de cubes
pouvant avoir pour sommets ces 3 points ? Pour l’un de ces cubes, donner les coordonnées des autres sommets
ainsi que des centres des faces.
Exercice 5 Trouver deux vecteurs v et w non nuls qui sont orthogonaux à u = (1, 1, 0) et orthogonaux entre eux.
Exercice 7 Soient u et v deux vecteurs de R3 dont les normes sont kuk = 3 et kvk = 4. Quelles sont les valeurs
maximale et minimale de ku − vk et u · v ?
Grâce à cette matrice, on réécrit la combinaison linéaire 3u + 2v comme le produit de la matrice A avec le vecteur
(3, 2) :
2 −1 2 −1 3 4
3u + 2v = 3 +2 = = .
1 2 1 2 2 7
Notons x le vecteur de composantes (3, 2). Le produit Ax de la matrice A par le vecteur x est la combinaison
linéaire 3u + 2v. Plus généralement si x est un vecteur de composantes (x1 , x2 ), le produit Ax est la combinaison
linéaire x1 u + x2 v, c.à.d première composante du vecteur fois première colonne de la matrice plus deuxième
composante du vecteur fois deuxième colonne de la matrice. Plus qu’une définition du produit matrice vecteur
(qu’on verra plus en détail au chapitre suivant), ceci est le véritable concept : au départ ce sont les coefficients x1
x2 qui multiplient les vecteurs, maintenant c’est la matrice formée par ces vecteurs qui multiplie le vecteur x dont
les composantes sont x1 et x2 .
A retenir :
Le résultat d’un produit matrice vecteur est toujours une combinaison linéaire des colonnes de la matrice.
On peut alors aussi remarquer que le vecteur Ax s’écrit
2 −1 2x1 − x2 (2, −1) · (x1 , x2 ) ℓ (A) · x
Ax = x1 u + x2 v = x1 + x2 = = = 1 .
1 2 x1 + 2x2 (1, 2) · (x1 , x2 ) ℓ2 (A) · x
La première composante de Ax est le produit scalaire de la première ligne de A, ℓ1 (A), avec le vecteur x, et la
deuxième composante de Ax est le produit scalaire de la deuxième ligne de A, ℓ2 (A), avec le vecteur x. C’est un
autre moyen, très couramment utilisé, de calculer le produit matrice vecteur.
Considérons comme deuxième exemple 2 les trois vecteurs de R3 suivants :
1 0 0
u = −1 , v = 1 , w = 0 . (2.2.1)
0 −1 1
On écrit maintenant cette combinaison linéaire sous forme matricielle, c.à.d. à l’aide d’un tableau de nombres,
qu’on note A ; le vecteur u est la première colonne du tableau, le vecteur v la seconde, et le vecteur w la troisième :
1 0 0 α α
−1 1 0 β = β − α .
0 −1 1 γ γ−β
Les scalaires α, β, γ sont les composantes d’un vecteur x de R3 . Le produit de la matrice A par le vecteur x est la
combinaison linéaire αu + βv + γw des trois colonnes de A.
1 0 0 α α
Ax = −1 1 0 β = u v w β = αu + βv + γw.
0 −1 1 γ γ
Revenons sur le concept du produit matrice vecteur exposé plus haut pour un vecteur de R2 : au départ ce sont les
coefficients α β γ qui multiplient les vecteurs, maintenant c’est la matrice formée par ces vecteurs qui multiplie le
vecteur x dont les composantes sont α, β et γ. Du coup on va maintenant renommer les composantes α, β et γ de
x en x1 , x2 , x3 . En notant b1 , b2 , b3 les composantes de Ax = b, on obtient :
1 0 0 x1 x1 b1
Ax = −1 1 0 x2 = x2 − x1 = b2 = b.
0 −1 1 x3 x3 − x2 b3
Comme dans le cas de l’exemple précédent, on peut alors introduire une autre vision (qui est la plus habituelle
dans la plupart des ouvrages) du produit matrice vecteur Ax : les composantes du vecteur b = Ax sont obtenues
2. Cet exemple est tiré du livre de Gilbert Strang, Introduction to Linear Algebra, Wellesley-Cambridge
en effectuant le produit scalaire de chaque ligne de la matrice avec le vecteur x. Sur l’exemple qu’on vient de voir,
ceci donne :
1 0 0 x1 (1, 0, 0) · (x1 , x2 , x3 ) x1 b1
Ax = −1 1 0 x2 = (−1, 1, 0) · (x1 , x2 , x3 ) = x2 − x1 = b2 = b.
0 −1 1 x3 (0, −1, 1) · (x1 , x2 , x3 ) x3 − x2 b3
En général, quand on fait des calculs à la main de matrice (on aimerait que ce soit le moins souvent possible, les
ordinateurs sont là pour ça !) c’est cette façon là qu’on emploie.
Les deux premiers vecteurs u et v sont les mêmes que précédemment, mais le vecteur w̃ a un -1 en première
composante au lieu d’un zéro. La matrice C formée par ces trois vecteurs s’appelle la matrice des différences
cycliques. Elle s’écrit :
1 0 −1
C = u v w̃ = −1 1 0 ,
0 −1 1
Ce système est nettement moins facile à résoudre que le précédent, et même, en fait il est impossible de trouver la
solution du système, vu que le système admet une infinité de solutions, ou au contraire pas de solution du tout. Par
exemple,
1
le système Cx = 0 admet comme solution x = 1 ,
1
mais aussi tous les vecteurs de la forme αx, α ∈ R. Mais par contre,
1
le système Cx = b = 0 n’admet aucune solution,
0
car la somme des trois composantes de Cx vaut zéro alors que la somme des trois composantes du second membre
b vaut 1. Géométriquement, ceci revient à dire qu’il n’existe pas de combinaison linéaire des trois vecteurs u, v
et w̃ qui donne le vecteur b = (1, 0, 0). Donc l’ensemble des combinaisons linéaires des trois vecteurs u, v et
w̃ ne remplit pas tout l’espace R3 . Pour que le système Cx = b ait une solution, il faut que la somme des trois
composantes du second membre soit nulle, puisque la somme des trois composantes de Cx est toujours nulle. En
d’autres termes, toutes les combinaisons linéaires x1 u + x2 v + x3 w̃ sont dans le plan d’équation b1 + b2 + b3 = 0.
On voit ici la différence cruciale entre les combinaisons linéaires de u, v et w, qui remplissaient tout l’espace, et
celles de u, v et w̃, qui ne remplissent qu’un plan.
Le vecteur w n’est pas dans le plan de u et v ; les vecteurs sont “indépendants” ou “libres”.
La seule combinaison qui donne b = 0 est 0u + 0v + 0w.
Les notions de dépendance et d’indépendance sont fondamentales, et nous y reviendrons plus en détail par la
suite. On peut déjà remarquer sur cet exemple les liens entre la notion d’indépendance des vecteurs colonnes de la
matrice et la résolution des systèmes :
2.2.4 Exercices
Exercice 9 (On commence tout doucement.)
1. Soit
1 2 2
A= et x = .
−1 1 3
Construire géométriquement le vecteur Ax, et calculer ses composantes.
3. Effectuer maintenant les produits Ax à l’aide des produits scalaires des lignes de la matrice par le vecteur x.
Exercice 10 (On continue doucement.)
1. Soient u et v deux vecteurs de R2 . Soit A la matrice dont la première colonne est u et la seconde v.
1 0
(a) Ecrire A pour u = et v = . Cette matrice s’appelle la matrice identité et se note Id2 (l’indice
0 1
2 signifiant qu’il s’agit d’une matrice carrée d’ordre 2). Calculer Id2 x pour x ∈ R2 .
(b) On suppose maintenant u et v quelconques. Soit x = (2, −1). Le produit Ax est une combinaison des
colonnes de A. Exprimer cette combinaison linéaire.
1 2
Donner les composantes du vecteur résultant pour u = et v = .
2 −1
2. Soient u, v et w trois vecteurs de R3 . La multiplication d’une matrice A = u v w par le vecteur
colonne x = (2, −1, 3) donne une combinaison descolonnes
de A.Exprimercette
combinaison linéaire.
1 2 0
Donner les composantes du vecteur Ax pour u = 2 , v = −1 et w = 1 .
0 1 2
3. Exprimer la matrice identité Id3 , c.à.d. la matrice telle que Id3 x = x pour tout x ∈ R3 .
Exercice 11 (Produit matrice vecteur pour une matrice n × p) Si A est une matrice de n lignes et p colonnes,
on la multiplie par un vecteur x pour obtenir un vecteur b qui est combinaison linéaire des colonnes de A. Quel
est le nombre de composantes des vecteurs x et b ?
Exercice 12 (Combinaisons linéaires de deux vecteurs dans R3 .) Soient u et v deux vecteurs de R3 . On note
E l’ensemble de leurs combinaisons linéaires. Discuter en fonction de u et v si les situations suivantes peuvent
avoir lieu ?
1. E = ∅,
2. E est réduit au vecteur nul,
3. E est une droite,
4. E est un plan,
5. E est l’espace tout entier.
a b 1 0
Exercice 13 (Matrice et linéarité) Soit A = une matrice 2 × 2. Soient u = et v = .
c d 0 1
1. Calculer Au et Av.
2. Soient α et β des réels. Calculer A(αu + βv) et αAu + βAv. Comparer. Montrer que cette propriété est
encore vraie pour n’importe quels vecteurs u, v de R2 . C’est cette propriété qu’on appelle linéarité : on
verra plus loin (chapitre 6) que l’application x 7→ Ax est une application linéaire.
Exercice 14 (Matrice d’élimination) Soient ℓ ∈ R, x = (x1 , x2 ) ∈ R2 et soit E la matrice 2 × 2 définie par
1 0
E= .
−ℓ 1
1. Calculer b = Ex. Quelle est l’opération effectuée sur les lignes de x lorsque l’on effectue le produit Ex ?
1 0
2. Soit F = . Calculer c = F b. Décrire (en Français...) l’opération effectuée sur les lignes de b lorsque
ℓ 1
la matrice F multiplie le vecteur b.
Exercice 15 (Une propriété surprenante, à première vue) Soient (a, b) et (c, d) ∈ R2 .
1. On suppose que (a, c) et (b, d) sont colinéaires. Montrer qu’alors (a, b) et (c, d) sont colinéaires.
a b
2. Soit A = ; montrer que les vecteurs colonnes de A sont liés si et seulement si les vecteurs lignes de
c d
A le sont.
Regardons ce qui se passe ligne par ligne. Chaque ligne donne l’équation d’une droite, qu’on représente dans la
figure 2.1. Pour que le couple (x, y) vérifie les deux équations, il faut donc que le point de coordonnées x et y soit
l’intersection des deux droites. C’est ce qu’on appelle la vision “par lignes” du système : la solution du système
(2.3.4) est l’intersection de deux droites. Voyons maintenant un peu ce qui se passe si on regarde les choses “par
2x − 3y = 1
x + 2y = 4
x = 2, y = 1
F IGURE 2.1 – Vision par lignes : la solution du système est l’intersection des droites
colonnes”. On va maintenant lire le système (2.3.4) comme une équation vectorielle faisant intervernir les vecteurs :
1 2 4
u= ,v = et b = .
2 −3 1
Avec ces vecteurs, on peut réécrire le système (2.3.4) comme une seule équation vectorielle
xu + yv = b.
On cherche la “bonne” combinaison linéaire de u et v (c.à.d. les bons coefficients x et y) qui va donner b, comme
on le voit sur la figure 2.2 ; ceci s’écrit aussi avec les vecteurs colonnes :
1 2 4
x +y = = b.
2 −3 1
Avec le choix x = 2 et y = 1, on retrouve bien b : on va donc multiplier le vecteur u par x = 2 et le vecteur v par
y = 1 puis additionner les vecteurs 2u et v pour trouver b.
1 2 4
2 + = = b.
2 −3 1
On réécrit maintenant l’équation vectorielle sous forme matricielle. La matrice A est un tableau de 2 × 2 nombres,
dont la première colonne est le vecteur u et la deuxième colonne le vecteur v :
1 2
A= .
2 −3
y
2
··· 2u =
✕ ··· 4
···
···
···
·
····
1 ···
u= ···
✕ 2 ···
···
··· 4
✿···· b = 1
··
··
···
· x
··
··
···
·
··
··
···
·
··
··
···
·
··
··
··· 2
·
·
❫·· v =
−3
Dans la vision par colonnes, le produit de la matrice A par le vecteur x = (x, y) est égal à la combinaison linéaire
xu + yv :
1 2 x 1 2
Ax = =x +y .
2 −3 y 2 −3
Dans la vision par lignes, le produit de la matrice A par le vecteur x = (x, y) est un vecteur b dont la première
composante est le produit scalaire de la première ligne de la matrice avec le vecteur x et la deuxième composante
le produit scalaire de la deuxième ligne de la matrice avec le vecteur x. Lorsqu’on regarde les lignes de A, on a la
vision “par lignes”, et lorsqu’on regarde les colonnes, on a la vision “par colonnes”. Le système d’équations sous
forme matricielle s’écrit alors :
1 2 x 4
= .
2 −3 y 1
On effectue la multiplication matrice vecteur soit en effectuant le produit scalaire des lignes avec le vecteur de
composantes (x, y) soit par combinaison linéaire des colonnes de A. On a vu que la solution de ce système est
x = 2 et y = 1.
Dans le chapitre suivant, on va résoudre des systèmes de n équations à n inconnues, et la matrice du système
sera donc un tableau de n × n nombres. Mais donnons maintenant un exemple dans R3 . On considère le système
linéaire :
x +y +z =3
x +2y +3z = 9 (2.3.5)
x −2y +4z = 12
qui s’écrit sous forme matricielle :
1 1 1 x 3
1 2 3 y = 9 .
1 −2 4 z 12
Donnons les visions “par lignes” et “par colonnes” pour cet exemple.
Vision “lignes” Chaque ligne du système est l’équation d’un plan dans R3 . Le système (2.3.5) possède une
unique solution si les plans se coupent en un point. Le produit Ax s’effectue par lignes en prenant les produits
scalaires :
x (ligne1) · x
Ax = A y = (ligne 2) · x
z (ligne 3) · x
Vision “colonnes” Résoudre le système revient à trouver les bons coefficients x, y et z d’une combinaison
linéaire xu + yv + zw des vecteurs u, v et w pour que xu + yv + zw = b, avec :
1 1 1
u = 1 , v = 2 et w = 3 .
1 −2 4
Avec la matrice A ci-dessus, on remarque que b = 3(colonne 3). On en déduit que la solution du système est
(x, y, z) = (0, 0, 3) (mais les choses ne sont évidemment pas toujours aussi simples !).
2.3.2 Elimination
Un exemple 2 × 2
Vous avez vu en secondaire comment résoudre un système par élimination et substitution. On va étudier cette
année une procédure systématique d’élimination, celle qui est utilisée dans les programmes informatiques pour la
résolution des systèmes linéaires, et qui est connue sous le nom de méthode de Gauss 3 . Sur le système précédent,
x + 2y = 4 x + 2y = 4 (multiplier la première équation par 2)
devient (2.3.6)
2x − 3y = 1 −7y = −7 (puis soustraire à la deuxième)
La deuxième équation donne alors y = 1, puis en substituant cette valeur dans la première x = 2. L’étape
d’élimination produit un système dont la matrice est triangulaire supérieure (les coefficients sous la diagonale sont
nuls). Une fois que la matrice du système est sous forme triangulaire supérieure, il est très facile de le résoudre par
substitution.
La solution du système d’origine et du système après élimination est la même, comme on peut le voir sur la vision
“en ligne” des figures 2.1 et 2.3.
y
x + 2y = 4
x = 2, y = 1
−7y = −7
F IGURE 2.3 – le système après élimination dans la deuxième équation : Vision par lignes : la solution du système
est l’intersection des droites, elle n’a pas changé.
Même si ce système est très simple à résoudre et que vous auriez très certainement réussi à le faire sans ce cours
d’algèbre linéaire, cela vaut le coup d’analyser les opérations qu’on a effectuées pour comprendre la méthode et
l’appliquer dans des cas plus compliqués.
Pour éliminer x dans la deuxième équation, on a multiplié la première équation par 2 et on l’a soustraite à la
deuxième. On a utilisé pour cela le fait que le premier coefficient de la première ligne est 1, et en particulier non
3. Johann Carl Friedrich Gauss (30 avril 1777 – 23 février 1855) est un mathématicien, astronome et physicien allemand. Il est considéré
comme l’un des plus grands mathématiciens de tous les temps.
nul : on dit que c’est le pivot. Comme le coefficient devant x dans la deuxième équation est 2, le multiplicateur
pour l’élimination est donc aussi 2.
Prenons le même système, mais où on a multiplié la première ligne par 5 : l’élimination va se faire maintenant de
la manière suivante :
5x + 10y = 20 5x + 10y = 20 (multiplier la première équation par 52
devient (2.3.7)
2x − 3y =1 − 7y = −7 (puis soustraire à la deuxième)
La solution reste évidemment la même, mais maintenant, le premier coefficient de la première ligne est 5. Comme
le coefficient devant x dans la deuxième équation reste égal 2, le multiplicateur est maintenant 52 .
La deuxième équation a elle aussi un pivot, qui est égal à -7, et qui permet d’obtenir la solution (on l’utiliserait
pour éliminer y dans la troisème équation s’il y en avait une). Pour résoudre un système de deux équations à deux
inconnues, on a utilisé 2 pivots. Pour résoudre un système de n équations à n inconnues, on aura besoin de n
pivots. Notez qu’à la fin de l’élimination, le système obtenu a une forme triangulaire, et que les pivots sont sur la
diagonale du “triangle”.
Voyons maintenant si les choses peuvent se passer plus mal (et oui... elles le peuvent !)
l’élimination ne marche pas parce qu’arpès élimination de x, la deuxième équation a un zéro devant le y, et on ne
peut pas diviser par 0 (comme votre ordinateur vous le fera savoir si vous essayez. . . ) ; on dit aussi qu’on a “un
zéro en position pivotale”, mais il est absolument interdit de dire “un pivot nul”, parce qu’un pivot n’est jamais
nul.
Cet échec peut être interprété géométriquement (vision “lignes”) par le fait que les deux équations du sytème sont
les équations de deux droites parallèles et non confondues, et donc ont une intersection vide.
On peut aussi l’interpréter vectoriellement (vision “colonnes”) par le fait qu’on ne peut pas atteindre le vecteur
(4, 1) par une combinaison linéaire des vecteurs (1, 2) et (−2, −4)
Exemple 2.7 (Echec de l’élimination, mais infinité de solution) Dans l’exemple précédent, on remplace le se-
cond membre (4, 1) par (4, 8) :
x + 2y = 4 x + 2y = 4 (multiplier la première équation par 2)
devient (2.3.9)
2x + 4y = 8 0y = 0 (puis soustraire à la deuxième)
Là encore on a un zéro en position pivotale, et votre ordinateur risque de ne pas aimer si vous n’avez pas mis
de test dans votre programme. . . . Mais contrairement à l’exemple précédent, on a maintenant une solution au
système, et même une infinité de solutions : en effet, tout y ∈ R satisfait la deuxième équation et une fois qu’on a
choisi un y, on obtient x par la première. Dans la vision “lignes”, les droites qui étaient parallèles dans l’exemple
précédent sont maintenant confondues. Dans la vision “colonnes”, le second membre b = (4, 8) est maintenant
sur la même droite que les vecteurs colonnes (1, 2) et (2, 4) de la matrice du système.
Exemple 2.8 (Echec temporaire de l’élimination : deux pivots obtenus par échange de ligne)
Supposons qu’on ait un zéro en position pivotale de la première ligne :
0x + 2y = 4 2x − 3y = 1
(devient, après échange) (des deux lignes) (2.3.10)
2x − 3y = 1 0x + 2y = 4
Le nouveau système est sous forme triangulaire, et il est donc prêt pour l’étape de substitution, dite aussi étape de
remontée. La deuxième équation donne y = 2 puis la première x = 27 . Les pivots du système sont 2 et 2, mais pour
les obtenir on a dû échanger les lignes.
Les deux premiers exemples sont des systèmes non inversibles (ou singuliers) : dans les deux cas on n’a pas de
pivot pour la seconde équation (zéro en position pivotale). Les systèmes singuliers ont soit 0 solution, soit une
infinité de solutions. Le deuxième exemple fait apparaı̂tre un système inversible (ou régulier). On obtient les deux
pivots souhaités (parce qu’on a deux équations et deux inconnues) et on a une solution unique.
Démonstration : Soit (x, y) ∈ R2 . Si (x, y) est solution du premier système, alors dans ce premier système, on
multiplie la première équation par −c/a (on a le droit car a 6= 0) et on l’additionne à la seconde équation. On
vérifie ainsi que (x, y) est solution du second système. Réciproquement, si (x, y) est solution du second système,
alors dans ce second système, on multiplie la première équation par c/a et on l’ additionne à la seconde équation.
On vérifie ainsi que (x, y) est solution du premier système. On conclut que les deux systèmes ont même ensemble
de solution. Ils sont donc équivalents.
a b
Théorème 2.10 Soient a, b, c, d des réels et A = . Le système Ax = b admet une solution unique pour
c d
tout b ∈ R2 si et seulement si la matrice A admet deux pivots lors de l’élimination de Gauss.
Démonstration : Dire que la matrice A admet deux pivots lors de l’élimination de Gauss signifie que, quitte à
échanger les deux lignes de A,
• le premier coefficient de la première ligne de A est non nul, et que
• après avoir fait apparaı̂tre un 0 en première position de la seconde ligne de A, le coefficient en deuxième position
est non nul.
Par le Lemme 2.9, on peut résumer cela en
• soit a 6= 0 et d − bc/a 6= 0,
• soit a = 0, et dans ce cas on intervertit les deux lignes et on a c 6= 0 et b − da/c 6= 0.
Dans chacun de ces deux cas, l’étape de remontée montre par son procédé constructif qu’il existe une unique
solution au système. On a ainsi montré que l’existence de deux pivots entraı̂ne l’existence et unicité de la solution
du système.
Montrons maintenant que si on n’a pas deux pivots alors on n’a pas existence et unicité. Si on n’a pas deux pivots
en sortie de l’élimination, on n’est donc dans aucun des cas ci-dessus, et alors on est dans l’une des situations
suivantes :
• a = 0 = c : on est ramené au système
by = α
dy = β
qui a 0 ou une infinité de solution,
• a 6= 0 et d − bc/a = 0 : on est ramené au système
ax+ by =α
0y = β − ac α
a b
Définition 2.11 Soient a, b, c, d des réels. On appelle déterminant de la matrice A = et on note det(A)
c d
le réel défini par det(A) = ad − bc.
a b
Proposition 2.12 Si la matrice A = a deux pivots lors de l’élimination de Gauss, le déterminant de la
c d
matrice A est égal au produit des pivots. Si le nombre de pivots est strictement inférieur à 2, det(A) = 0.
Le système Ax = b admet donc une solution unique pour tout b ∈ R2 si et seulement si det(A) 6= 0.
2.3.3 Un système 3 × 3
On va maintenant effectuer l’élimination de Gauss sur le système 3 × 3 suivant :
2x1 + 4x2 − 2x3 = 2
4x1 + 9x2 − 3x3 = 8 (2.3.11)
−2x1 − 3x2 + 7x3 = 10
Le premier pivot est le premier coefficient non nul de la première ligne, c.à.d. 2. On utilise ce pivot pour annuler
les coefficients de x1 dans les lignes 2 et 3. On soustrait 2 fois la ligne 1 à la ligne 2, et on soustrait (-1) fois la
ligne 1 à la ligne 3 :
2x1 + 4x2 − 2x3 = 2 −→ 2x1 + 4x2 − 2x3 = 2
ℓ2 ℓ2 −2ℓ1
4x1 + 9x2 − 3x3 = 8 ℓ3 ℓ3 −(−1)ℓ1 x2 + x3 = 4
−2x1 − 3x2 + 7x3 = 10 x2 + 5x3 = 12
Dans les formules ci-dessus la phrase ℓ2 ℓ2 − 2ℓ1 est à comprendre par “la ligne 2 est remplacée par la la ligne 2
- deux fois la ligne 1”. On cherche maintenant le pivot de la deuxième équation, il se trouve que c’est le coefficient
de x2 , égal à 1. On utilise ce pivot pour annuler le coefficient de x2 dans la ligne 3 :
2x1 + 4x2 − 2x3 = 2 −→ 2x1 + 4x2 − 2x3 = 2
1x2 + x3 = 4 ℓ3 ℓ3 −ℓ2 1x2 + x3 = 4
x2 + 5x3 = 12 4x3 = 8
La troisième ligne comporte un pivot égal à 4 devant x3 et donc le système est transformé par l’élimination de
Gauss en un système triangulaire supérieur :
2x1 + 4x2 − 2x3 = 2 2x1 + 4x2 − 2x3 = 2
devient, après
4x1 + 9x2 − 3x3 = 8 1x2 + 1x3 = 4 (2.3.12)
élimination de Gauss
−2x1 − 3x2 + 7x3 = 10 4x3 = 8.
où les pivots sont écrits en gras. Ceci peut encore s’écrire
Ax = b ⇐⇒ U x = c,
2 4 −2 2 2 4 −2 2
avec A = 4 9 −3 , b = 8 , C = 0 1 1 , et c = 4 .
−2 −3 7 10 0 0 4 8
On effectue ensuite une remontée pour trouver la solution x du système :
La troisième équation 4x3 = 8 donne x3 = 2
La deuxième équation x2 + x3 = 4 donne x2 = 2
La première équation 2x1 + 4x2 − 2x3 = 2 donne x1 = −1.
Dans la vision en lignes, ceci veut dire que l’intersection des trois plans dont les équations sont celles du système
(2.3.12). est le point (−1, 2, 2). Dans la vision en colonnes, ceci veut dire qu’une combinaison linéaire de vecteurs
colonnes donne le second membre b :
2 4 −2 2
Ax = (−1) 4 + 2 9 + 2 −3 = 8 = b
−2 −3 7 10
Dans le cas d’un système 4 × 4 ou n× n, la méthode d’élimination de Gauss fonctionne selon les mêmes principes ;
on part d’une matrice, et de colonne en colonne, on transforme A en une matrice triangulaire U , si l’élimination
marche jusqu’au bout, selon le schéma suivant :
Etape 1 Utiliser la première équation pour créer des zéros sous le premier pivot dans la colonne 1.
Etape 2 Utiliser la nouvelle équation 2 pour créer des zéros sous le deuxième pivot dans la colonne 2.
Etape 3 à n. Continuer à chercher les n pivots et la matrice triangulaire U pour les colonnes 3 à n.
∗ ∗ ∗ ∗
0 ∗ ∗ ∗
Après l’étape 2, on a une matrice de la forme
0 0 ∗ ∗
0 0 ∗ ∗
∗ ∗ ∗ ∗
0 ∗ ∗ ∗
et on cherche une matrice de la forme 0 0 ∗ ∗
0 0 0 ∗
OA = xA i + yA j.
Vous saurez généraliser à l’espace. Le mot “droite” peut désigner 2 objets différents : lorsque c’est un ensemble de
points alignés, on parle de droite affine. Lorsque c’est un ensemble de vecteurs tous colinéaires à un vecteur fixé
u, on parle de droite vectorielle. Comme 0u = 0, on voit que toute droite vectorielle contient le vecteur nul.
On distingue de même les plans affines et les plans vectoriels (un plan vectoriel est l’ensemble des combinaisons
linéaires de 2 vecteurs non colinéaires).
Et là, s’agit-il de points ou de vecteurs ? Comme c’est écrit en gras, vous aurez deviné : x est un vecteur de R2 . On
est en train de chercher les x = (x, y) qui vérifient Ax = b. La matrice A agit sur un vecteur de R2 et le résultat
est un vecteur de R2 .
Mais (x, y) désigne aussi les coordonnées d’un point M qui (étant donné un repère) appartient aux deux droites
dont les équations sont ax + by = α et cx + dy = β. Dans la lecture en ligne du système (S), on a donc des
équations de droites affines du plan.
Encore une fois, ce qui est un peu perturbant, c’est que (x, y) désigne à la fois un vecteur x et les coordonnées
d’un point M tel que OM = x.
Dans la lecture en ligne d’un système de 3 équations à 3 inconnues, chaque équation est l’équation d’un plan affine
(constitué de points donc !). Dans ce cas, les inconnues (x, y, z) sont les coordonnées d’un point (s’il en existe )
qui appartient à ces 3 plans. Mais (x, y, z) est aussi un vecteur x = (x, y, z) élement de R3 .
Une pause pour voir si on a compris Dans le plan muni d’un repère, l’équation ax + by + c = 0 désigne
(lorsque (a, b) 6= (0, 0) ) une droite affine : l’ensemble des points M de coordonnées (x, y) tels que (x, y) vérifie
cette équation.
Mais rien n’empêche de se demander quel est l’ensemble des vecteurs x = (x, y), éléments de R2 , qui vérifient
l’équation ax + by + c = 0. Ce n’est pas une droite vectorielle sauf si c = 0 (souvenez-vous que 0 appartient
toujours à une droite vectorielle !). C’est tout simplement l’ensemble des vecteurs OM lorsque M décrit la droite
affine d’équation ax + by + c = 0.
Passer des droites affines aux droites vectorielles Si D est une droite affine, on définit la droite vectorielle D
associée comme l’ensemble
D := {AB : A, B ∈ D}.
Notez que D est l’ensemble des vecteurs directeurs de D auquel on a ajouté 0.
La même définition vaut pour passer des plans affines aux plans vectoriels.
Par exemple, dans l’espace muni d’un repère, considérons le plan affine P d’équation ax + by + cz + d = 0
(avec (a, b, c) 6= (0, 0, 0)). Prenons 2 points A et B de P. On note (xA , yA , zA ) et (xB , yB , zB ) leurs coordonnées
respectives. Alors le vecteur AB associé aux points A et B, qui est dans le plan vectoriel P est (xB − xA , yB −
yA , zB − zA ). On vérifie que
Réciproquement, soit u = (x, y, z) un vecteur tel que ax + by + cz = 0. Fixons un point C dans P de coordonnées
(xC , yC , zC ). On définit alors le point D par ses coordonnées (xD , yD , zD ) = (x, y, z) + (xC , yC , zC ). On vérifie
que
axD + bxD + cxD + d = 0.
Donc D est dans P. De plus,
u = (xD − xC , yD − yC , zD − zC ) = CD.
Ainsi u s’écrit bien sous la forme CD où les 2 points C et D appartiennent à P.
Conclusion : Le plan vectoriel P associé à P admet pour équation : ax + by + cz = 0. Pour trouver des vecteurs
directeurs de P, il suffit donc de prendre n’importe quel vecteur (non nul) (x, y, z) qui vérifie ax + by + cz = 0.
2.3.5 Exercices
Elimination par Gauss
Exercice 16 (Pivots)
21
1. Si A est la matrice , quels sont ses pivots lors de l’élimination par Gauss ?
66
0 1
2. Même question pour A = .
6 6
1 2 3
3. Même question pour A = 1 4 5
2 4 6
Exercice 17 (Un système particulier) Soient a, α et β des réels. On considère le système suivant :
ax + y = α
x + ay = β
Exercice 18 (Un petit peu de réflexion) Montrer qu’ un système linéaire 2 × 2 (ou 3 × 3) ne peut pas avoir
exactement deux solutions.
a 1 2
Exercice 19 Soit A = a a 3. Pour quelles valeurs de a l’élimination de Gauss va-t-elle échouer ?
a a a
Exercice 20 (Matrices A et U dans l’algorithme de Gauss) On suppose que l’élimination de Gauss sur Ax = b
a produit le système triangulaire supérieur (équivalent) U x = c sans permutation de ligne.
1. De quelles lignes de A la ligne i de U est-elle une combinaison linéaire ?
2. Si Ax = 0, a-t-on U x = 0 ?
3. Si Ax = b, a-t-on U x = b ?
4. Si A est triangulaire inférieure, comment est la matrice U ?
3.1.1 Définitions
Définition 3.1 Pour tous entiers strictement positifs n et p, on appelle matrice de taille n × p à coefficients
dans K un tableau à n lignes et p colonnes :
a1,1 · · · a1,p
.. .. .
. .
an,1 · · · an,p
Les ai,j s’appellent les coefficients de la matrice. Le premier indice est celui de la ligne et le second celui de la
colonne.
On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes. Lorsque n = p, on note simplement Mn (K) =
Mn,n (K) et on parle alors de matrice carrée. Pour n 6= p, les matrices seront dites “rectangulaires”. Si n > p,
la forme de la matrice sera celle d’un rectangle “debout” (plus haut que large), alors que si n < p, ce sera un
rectangle “couché” (plus large que haut).
27
3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices
⋆ ⋆ ··· ⋆ ⋆ 0 ··· 0
.. .. .. ..
0 ⋆ . ., et inférieures L = ⋆
⋆ . .
– les matrices triangulaires supérieures U =
. .
.
.. .. ..
.. .. ..
. . ⋆ . . 0
0 ··· 0 ⋆ ⋆ ··· ⋆ ⋆
Définition 3.2
– On appelle ième ligne de la matrice A = (ai,j ) ∈ Mn,p (K) la matrice ligne ai,1 · · · ai,p notée ℓi (A).
C’est un élement de M1,p (K).
a1,j
– On appelle j ème colonne de la matrice A = (ai,j ) ∈ Mn,p (K) la matrice colonne ... notée cj (A). C’est
an,j
un élement de Mn,1 (K).
Remarque 3.4 (Attention aux tailles des matrices pour la somme !) On ne peut pas définir la somme de deux
matrices de tailles différentes.
Produit de matrices Au premier chapitre, on a défini le produit d’une matrice A par un vecteur x comme la
combinaison linéaire des colonnes de A avec comme coefficients les composantes de x. Par exemple, soit A une
matrice 3×3 de coefficients ai,j , i = 1, . . . , 3, j = 1, . . . , 3 ; l’indice i représente la ligne, et l’indice j représente la
colonne. On note c1 (A), c2 (A), c3 (A) les colonnes de la matrice A. Soit x ∈ R3 , et (x1 , x2 , x3 ) les composantes
de x, alors Ax = x1 c1 (A) + x2 c2 (A) + x3 c3 (A). On peut à partir de là définir facilement le produit de deux
matrices. Soit la matrice B = (bi,j ) i=1,...,3 ∈ M3 (K) dont les colonnes sont
j=1,...,3
b1,1 b1,2 b1,3
c1 (B) = b2,1 , c2 (B) = b2,2 , et c3 (B) = b2,3 .
b3,1 b3,2 b3,3
On peut alors considérer chaque colonne cj (B) , j = 1, 2, 3, comme un vecteur et effectuer le produit matrice
vecteur Acj (B) :
Acj (B) = b1,j c1 (A) + b2,j c2 (A) + b3,j c3 (A).
Chaque produit donne un vecteur colonne, qu’il est naturel de définir comme la j-ème colonne de la matrice AB.
Chaque colonne de la matrice AB est donc une combinaison linéaire des colonnes de la matrice A. Calculons
le coefficient (i, j) c.à.d de la i-ème ligne et j-ème colonne de la matrice AB, qu’on va noter (AB)i,j . Il s’agit
donc de la i-ème composante du vecteur colonne Acj (B) = b1,j c1 (A) + b2,j c2 (A) + b3,j c3 (A) On a donc
(AB)i,j = b1,j ai,1 + b2,j ai,2 + b3,j ai,3 . Ceci peut encore s’écrire :
3
X
(AB)i,j = ai,1 b1,j + ai,2 b2,j + ai,3 b3,j = ai,k bk,j .
k=1
De manière plus générale, on définit donc le produit de deux matrices quelconques de la maniére suivante :
Définition 3.5 Le produit de deux matrices A = (ai,j ) ∈ Mn,p (K) et B = (bi,j ) ∈ Mp,q (K) est la matrice
C = (ci,j ) ∈ Mn,q (K) avec
p
X
ci,j = ai,1 b1,j + · · · + ai,p bp,j = ai,k bk,j
k=1
De la même façon qu’on a remarqué que les colonnes de la matrice AB sont des combinaisons linéaires des
colonnes de la matrice A, on peut aussi remarquer maintenant que les lignes de la matrice AB sont des combi-
naisons linéaires des lignes de la matrice B. C’est cette propriété qu’on utilise dans les procédures d’élimination
du style de la méthode de Gauss, qu’on verra prochainement. Par exemple, pour le produit des deux matrices 3 × 3
A et B vues précédemment, on a (AB)i,j = ai,1 b1,j + ai,2 b2,j + ai,3 b3,j , et donc, en notant ℓi (AB) et ℓi (B) les
lignes respectives de AB et B, on a :
ce qui montre bien que la ligne i de AB est une combinaison linéaire des lignes de B.
En résumé, la multiplication de A à droite par une matrice opère sur les colonnes de la matrice A, tandis qu’une
multiplication de A à gauche par une matrice opère sur les lignes de A.
Une quatrième façon de voir le produit de deux matrices A et B est de dire que le produit de A et B est la somme
des produits des colonnes de A par les lignes de B, voir à ce sujet l’exercice 28.
yn
p
X
yi = ai,k xk , i = 1, . . . , n.
k=1
• Si A = (ai,j ) ∈ M x · · · xn ∈ M1,n (K) est un vecteur ligne, le produit XA est un
n,p (K) et X = 1
vecteur ligne Y = y1 · · · yp ∈ M1,p (K) avec
n
X
yj = xk ak,j , j = 1, . . . , p.
k=1
y1
∈ M1,n (K) est un vecteur ligne et Y = ... ∈ Mn,1 (K) est un vecteur colonne
• Si X = x1 ··· xn
yn
alors le produit XY ∈ M1,1 (K) est un nombre donné par
n
X
x1 y1 + · · · + xn yn = xi yi .
i=1
On reconnaı̂t le produit
scalaire
des 2 vecteurs x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ).
x1
• Si maintenant X = ... ∈ Mn,1 (K) est un vecteur colonne et Y = y1 · · · yp ∈ M1,p (K) est un
xn
vecteur colonne alors le produit XY ∈ Mn,p (K) est une matrice dont le coefficient (XY )i,j est égal à xi yj .
La matrice XY ainsi obtenue est une matrice très spéciale, dont toutes les colonnes sont des multiples de X et
toutes les lignes
des multiplesde Y !
1 4 5
Par exemple : 2 4 5 = 8 10 .
3 12 15
• Soit A = (ai,j ) ∈ Mn,p (K), on note Ej ∈ Mp,1 (K), Fi ∈ M1,n (K) les matrices
0
..
.
0
ème
1 ← j
Ej = ligne, Fi = 0 ··· 0 1 0 ··· 0 .
0 ↑
ième colonne
.
..
0
Alors on a AEj = cj (A), c’est-à-dire la j ème colonne de la matrice A et Fi A = ℓi (A), c’est-à-dire la ième
ligne de la matrice A.
Définition 3.9 (Puissance d’une matrice carrée) Soit A une matrice de Mn (K) et k ∈ N. On définit les puis-
sances de la matrice A de la façon suivante :
AB = BA = Idn .
Si B existe, elle est unique et on note B = A−1 et A−1 est appelé l’inverse de A. On notera GLn (K) a l’ensemble
des matrices inversibles de taille n × n.
a. La notation GL veut dire “groupe linéaire”, et provient du fait que l’ensemble des matrices inversibles muni de la multiplication des
matrices est un groupe b non commutatif dont l’élément neutre est Idn ; voir l’exercice 57 à ce sujet.
Démonstration : Il y a un point à montrer : l’unicité de l’inverse. Soient B1 , B2 ∈ Mn (K) telles que AB1 =
B2 A = Idn . On multiplie à droite l’égalité B2 A = Idn par B1 . Il vient (B2 A)B1 = Idn B1 = B1 . Par associativité
de la multiplication dans le membre de gauche, on a B2 (AB1 ) = B1 et donc B2 = B1 . D’où l’unicité (on a en fait
montré un peu mieux : s’il existe un inverse à gauche et un inverse à droite, alors ces deux matrices sont égales).
Remarque 3.11 (Groupe linéaire) La notation GL veut dire “groupe linéaire”, et provient du fait que l’ensemble
des matrices inversibles muni de la multiplication des matrices est un groupe 1 non commutatif dont l’élément
neutre est Idn ; voir l’exercice 57 à ce sujet.
Remarque 3.12 (Inverse à gauche et à droite) En fait on peut montrer que si A est une matrice carrée et s’il
existe une matrice “inverse à gauche” A−1 telle que A−1 A = Id, alors A−1 est aussi une “inverse à droite”,c.à..d
AA−1 = Id. La démonstration de ce résultat nécessite des outils qu’on ne verra qu’un peu plus tard. Il est
cependant bien pratique car il permet, lorsqu’on veut calculer l’inverse d’une matrice, de ne calculer que l’inverse
à gauche (par l’algorithme de Gauss-Jordan qu’on verra prochainement) sans vérifier que c’est aussi un inverse
à droite.
(AB)−1 = B −1 A−1 .
Définition 3.14 (Matrice transposée) On appelle transposée d’une matrice A ∈ Mn,p (K), la matrice de
Mp,n (K) que l’on note At = (αi,j )i,j=1,...,n dont les coefficients sont définis par αi,j = aj,i .
Enfin, si A est inversible alors AA−1 = Id. Donc (AA−1 )t = (Id)t = Id. Par le point précédent, (AA−1 )t =
(A−1 )t At . Donc At est inversible et (At )−1 = (A−1 )t .
Définition 3.16 (Matrices symétrique et antisymétrique) Soit A ∈ Mn,n (K), on dit que A est symétrique si
At = A et antisymétrique si At = −A.
Définition 3.17 (Matrice de permutation) Soit P ∈ Mn (R). On dit que P est une matrice de permutation si P
a exactement un coefficient égal à 1 dans chaque ligne et chaque colonne, et que tous ses autres coefficients sont
nuls. Une matrice de permutation a donc les mêmes lignes que la matrice identité mais dans un ordre qui peut être
différent.
1. Rappel : un groupe est un ensemble non vide muni d’une loi de composition interne (ou opération) associative, qui admet un élément
neutre et telle que chaque élément de l’ensemble admet un inverse relativement à cette loi. Le groupe est dit commutatif si la loi est commutative.
3.1.4 Exercices
Opérations sur les matrices
Exercice 25 (Peut-on le faire ? si oui, on le fait !)
Soient A une matrice 3 × 7, B une matrice 7 × 3, C une matrice 7 × 1, et D une matrice 3 × 1, dont tous
les coefficients sont égaux à 1 (On les appelle matrices d’Attila. . . , voir aussi exercice 47). Parmi les opérations
suivantes, dire lesquelles sont autorisées, et dans ce cas, calculer la matrice résultante.
AB BA ABD DBA A(B + C)
Exercice 26 (Produits de matrices particulières)
Calculer P A et EA avec
0 1 a b 1 0
P = , A= et E = .
1 0 c d −2 1
Quelles sont les actions de P et E sur les lignes de A lorsqu’on effectue ces produits ?
Calculer maintenant AP et AE. Quelles sont les actions de P et E sur les colonnes de A lorsqu’on effectue ces
produits ?
Exercice 27 (Matrice d’élimination) Soit A une matrice carrée d’ordre 3. Ecrire la matrice T2,1 (−3) qui, lors-
qu’on effectue le produit T2,1 (−3)A, soustrait 3 fois la ligne 1 de la ligne 2 ? Ecrire ensuite la matrice P3,2 qui
permute les lignes 2 et 3.
Effectuer ensuite les produits AT2,1 (−3) et AP3,2 et décrire la matrice résultante.
On considère le système Ax = b avec
1 1 1 2
A = 3 3 1 b = 8
0 2 1 1
Ecrire le système T2,1 (−3)Ax = T2,1 (−3)b puis le système P3,2 T2,1 (−3)Ax = P3,2 T2,1 (−3)b. Calculer le
produit C = P3,2 T2,1 (−3) puis écrire le système CAx = Cb.
Exercice 28 (Une autre façon de calculer le produit de matrices)
Un exemple Soient C1 , C2 ∈ M3,1 (R) des matrices colonnes et L1 et L2 ∈ M1,2 (R) des matrices lignes définies
par
1 3
C1 = 0 , C2 = 4 , L1 = 2 1 , L2 = 3 2 .
2 5
Calculer C1 L1 , C2 L2 , C1 L1 + C2 L2.
L
Soit A = C1 C2 ∈ M3,2 et B = 1 ∈ M2,2 . Calculer AB.
L2
Comparer.
Pp
Le cas général. Soient A ∈ Mn,p (R) et B ∈ Mp,q (R). Montrer que AB = k=1 ck (A)ℓk (B), où ck (A) ∈
Mn,1 (R) est la k-ième colonne de A et ℓk (B) ∈ M1,q (R) la k-ième ligne de B.
Exercice 29 (Matrices qui commutent) Soient a et b deux nombres réels non nuls. Trouver les matrices qui com-
mutent avec la matrice
a b
A= .
0 a
Exercice 30 (Produits de grosses matrices !) Calculer les produits de matrices suivants :
1 0 −3 8 3 2 −1 4
0 0 1 3 2 4 0 0
2 −5 −1 3 0 −1 2 3
0 0 1 0 1 1 1 1
−3 1 −3 1
1 1 −3 7 12 0 12 0
1 1 −3 7
−2 0 4 −3 2 0 2 0 −2 0 4 −3
−1 3 −1 3
Exercice 33 (Un modèle de prédation à deux niveaux) Dans la chaı̂ne alimentaire, sur une période, le lion con-
somme 4 gazelles, 5 gnous et 2 antilopes. Le guépard, plus agile, consomme 7 gazelles et 1 antilope. Pour ne pas
se laisser abattre, les gazelles, gnous et antilopes consomment quelques végétaux : arbres, pelouses, herbes hautes
et racines. Une gazelle consomme 100g de feuilles d’arbres, 300g de pelouse, 150g d’herbes hautes et 50g de
racines. Un gnou consomme 500g de feuilles d’arbres, 100g de pelouse, 750g d’herbes hautes et pas de racines.
Une antilope consomme 200g de feuilles d’arbres, 400g de pelouse, 250g d’herbes hautes et 150g de racines.
Malheureusement la pollution a affecté les arbres et la pelouse. La concentration de pesticide est de c1 = 30 par
gramme de feuille d’arbre et de c2 = 50 par gramme de pelouse. Bien heureusement les racines et les herbes
hautes sont préservées. Calculer la masse totale de pesticide ingérée par le lion et le guépard en effectuant le
produit de trois matrices que l’on explicitera.
où α, β et γ sont des nombres réels. Etablir une relation simple entre M et M 3 .
Exercice 35 (Identités remarquables ?) Quelles sont parmi les matrices suivantes celles qui sont égales à (A −
B)2 , pour toutes les matrices A et B carrées d’ordre n ?
Exercice 36 (Matrices nilpotentes) On dit qu’une matrice A ∈ Mn (K) est nilpotente 2 d’ordre q si Aq−1 6= 0 et
Aq = 0. Donner un exemple de matrices carrées 2 × 2 et 3 × 3 nilpotentes d’ordre 2. Donner ensuite un exemple
de matrice carrée nilpotente d’ordre 3.
Exercice 38 Montrer que toute matrice carrée est la somme d’une matrice symétrique et d’une matrice anti-
symétrique.
Exercice 39 (Matrice d’adjacence d’un graphe) Un graphe est un ensemble de points, dont certaines paires
sont directement reliées par un “lien”. Ces liens peuvent être orientés, c’est-à-dire qu’un lien entre deux points u
et v relie soit u vers v, soit v vers u : dans ce cas, le graphe est dit orienté. Sinon, les liens sont symétriques, et le
graphe est non-orienté. Les points sont généralement appelés sommets, et les liens “arêtes”. On peut représenter
le graphe par une matrice, qu’on appelle matrice d’adjacence : le coefficient de la i-ème ligne et j-ème colonne est
1 s’il existe une arête entre les sommets i et j, et 0 sinon. Remarquer que si le graphe est non orienté, sa matrice
d’adjacence est symétrique.
1 1 0
On considère un graphe à trois sommets, dont la matrice d’adjacence est A = 1 0 0.
1 0 1
Dessiner le graphe. Calculer A2 . Expliquer pourquoi le coefficient i, j de de A2 donne le nombre de chemins à
deux arêtes entre i et j. Que donnent les coefficients de A3 ?
2. nilpotente : du latin nihil : rien et potere pouvoir
Matrices inverses
Exercice 40 Justifier si les assertions suivantes sont vraies ou fausses (dans cet exercice, A et B sont 2 matrices
de Mn,p (K)) :
1. Si AX = BX pour toute matrice X ∈ Mp,1 (K), alors A = B.
2. La matrice Idn est inversible mais la matrice 0n ne l’est pas.
3. Si A et B sont inversibles, alors A + B est inversible. Et réciproquement.
Exercice 41 (Inverse d’une matrice d’élimination) Soit E la matrice 3 × 3 qui lorsqu’on effectue le produit EA
soustrait la première ligne à la deuxième, et P la matrice qui échange les lignes 2 et 3 . Quelle est l’opération qui
va ramener la matrice à son état initial ? Ecrire E et E −1 . Vérifier que EE −1 = E −1 E = Id3 .
Exercice 42 (système linéaire et matrice inverse) Soit A une matrice 3 × 3. Supposons qu’on sache trouver x,
y et z tels que
1 0 0
Ax = 0 Ay = 1 Az = 0
0 0 1
Soit X = x y z . Calculer AX.
Exercice 43 (CNS d’inversibilité d’une matrice 2 × 2) Soit
a b
A=
c d
avec a, b, c, d ∈ K. On suppose que cette matrice est inversible. Calculer la matrice A−1 en fonction de a, b, c, et
d par identification. Exprimer la condition sur a, b, c, et d pour que la matrice soit inversible.
Exercice 44 Soit A ∈ Mn (K).
1) On suppose qu’il existe un vecteur colonne X ∈ Mn,1 (K) non nul tel que AX = 0. Montrer que A n’est pas
inversible.
2) On suppose qu’il existe un vecteur colonne Y ∈ Mn,1 (K) qui n’est pas combinaison linéaire des colonnes de
A. Montrer que A n’est pas inversible (on pourra raisonner par l’absurde et écrire Y = A(A−1 Y )).
Exercice 45 (Calcul de l’inverse d’une matrice par une puissance) Soit
−3 −2
A=
2 2
Calculer A2 et montrer que A2 = 2Id2 − A, en déduire que A est inversible et calculer A−1 .
Exercice 46 (Calcul de l’inverse d’une matrice par produit de matrice et produit scalaire) Soit A une matrice
carrée d’ordre n. On appelle trace de A, qu’on note Tr(A), la somme de ses éléments diagonaux. Soit A la matrice
carrée d’ordre 3 suivante :
1 2 3
A = 4 3 1
2 1 1
1. Calculer B0 = A − Tr(A)Id3 .
2. Calculer B1 = B0 A
3. Calculer B2 = B1 − Tr(B 2
1)
Id3
4. Calculer B3 = B2 A
5. En déduire A−1
Cet algorithme 3 de calcul de l’inverse dû à Jean-Marie Souriau 4 ne nécessite donc qu’un seul produit matrice
vecteur et deux calculs de trace. Il peut se généraliser à une matrice n × n et on peut démontrer qu’il donne
effectivement l’inverse d’une matrice si celle-ci est inversible 5 .
3. On appelle algorithme de calcul une méthode constructive de calcul d’un objet mathématique, utilisant un nombre fini d’instructions.
4. Jean-Marie Souriau est un mathématicien marseillais, né en 1922. Il est principalement connu pour ses travaux sur la géométrie sym-
plectique dont il a été l’un des pionniers. Il a été professeur à l’université d’Aix Marseille 1 depuis 1958 jusqu’à sa retraite.
5. Voir Calcul linéaire, de J.-M. Souriau, Tome 1, deuxième édition, “Euclide”, Introduction aux études scientifiques, Presses Universitaires
de France, Paris, 1964, ou http://www.cmi.univ-mrs.fr/˜herbin/L1/algo-souriau.pdf pour un texte introductif.
Exercice 47 (Puissance et inverse) Soit A une matrice carrée d’ordre n ; on suppose que A2 est une combinaison
linéaire de A et Idn : A2 = αA + βIdn .
1. Montrer que Ap est également une combinaison linéaire de A et Idn pour tout p ∈ N∗ .
2. Montrer que si β est non nul, alors A est inversible et que A−1 est encore combinaison linéaire de A et Idn .
3. Application 1 : soit A = Jn − Idn , où Jn est la matrice Attila (envahie par les uns...), avec n ≥ 1. Montrer
que A2 = (n − 2) A + (n − 1) Idn ; en déduire que A est inversible, et déterminer son inverse.
4. Application 2 : montrer que si n = 2, A2 est toujours une combinaison linéaire de A et Id2 , et retrouver la
formule donnant A−1 en utilisant 2.
Exercice 48 On rappelle que la trace T r A d’une matrice A ∈ Mn (K) est la somme de ses éléments diagonaux.
Soient A, B ∈ Mn (K).
1. Montrer que T r A = T r At .
2. Montrer que ∀λ ∈ R, T r λA = λT r A et T r (A + B) = T r A + T r B.
3. Montrer que T r AB = T r BA. A-t-on T r AB = (T r A)(T r B) ?
4. Soit P ∈ GLn (K). Montrer que T r (P AP −1 ) = T r A.
5. On suppose dans cette question n = 2. Montrer que A2 − (T r A)A + (det A)Id = 0.
Transposition, permutation
Exercice 49 (Sans calcul...) Effectuer le produit matriciel
0 0 1 1 2 3 0 0 1
0 1 0 4 5 6 0 1 0
1 0 0 7 8 9 1 0 0
Exercice 50 (Décomposition symétrique-antisymétrique d’une matrice carrée) Montrer que toute matrice carrée
est la somme d’une matrice symétrique et d’une matrice antisymétrique.
Exercice 51 Verifier par le calcul sur les matrices suivantes que (AB)t = B t At mais 6= At B t .
3 6 1 −6
A= B=
−1 −2 3 4
Exercice 53 (Opérations sur les matrices symétriques) Soient A et B deux matrices carrées symétriques. Les
matrices A2 , AB, A2 − B 2 , (A + B)(A − B), BAB et BABA sont elles symétriques ? (si oui, justifier, sinon,
contreexemple).
Exercice 56 (Permutations et matrices) Soit n ≥ 1. On note Σn l’ensemble des bijections de {1, . . . , n} dans
lui-même. A tout élément σ ∈ Σn , on associe la matrice Pσ ∈ Mn (K) dont les colonnes sont Eσ(1) , . . . , Eσ(n) .
(On rappelle que Ei est la matrice de Mn,1 (K) donc tous les coefficients sont tous nuls, sauf le i-ème, qui est égal
à 1.)
1) Dans cette question seulement, on suppose n = 2. Ecrire toutes les matrices de la forme Pσ .
2) Même question avec n = 3.
3) Montrer que ∀σ ∈ Σn , Pσ est une matrice de permutation.
4) Montrer que si P est une matrice de permutation, alors il existe σ ∈ Σn tel que P = Pσ .
5) Montrer que
x1 xσ−1 (1)
Pσ ... = ... .
xn xσ−1 (n)
6) Montrer que si σ1 , σ2 ∈ Σn , alors Pσ1 Pσ2 = Pσ2 ◦σ1 . En déduire que le produit de 2 matrices de permutation
est une matrice de permutation.
7) Montrer que Pσ−1 = (Pσ )t . En déduire que toute matrice de permutation est inversible, d’inverse sa trans-
posée.
Exercice 57 (Groupe linéaire et sous groupes) Montrer que l’ensemble des matrices inversibles GLn (R) muni
de la multiplication des matrices est un groupe. Quel est son élément neutre ? Ce groupe est-il commutatif ?
Parmi les sous ensembles suivants de Mn (R), dire quels sont ceux qui sont des sous-groupes 6 de GLn (R) :
– les matrices triangulaires supérieures,
– les matrices triangulaires inférieures dont tous les coefficient sont égaux à 1,
– les matrices diagonales dont tous les coefficients sont non nuls,
– les matrices symétriques inversibles,
– les matrices inversibles Q telles que Q−1 = Qt .
Pour les ensembles qui sont des sous-groupes, dire ceux qui sont commutatifs.
Trouver d’autres ensembles de matrice qui sont des sous-groupes de GLn (R).
Exercice 58 On note On (R) l’ensemble des matrices A de GLn (R) telles que A−1 = At .
1. Montrer que c’est un sous-groupe de GLn (R).
2. Soit A ∈ GLn (R). Montrer que ci (A) · cj (A) = δi,j , 1 ≤ i, j ≤ n.
3. On suppose dans cette question n = 2. Montrer qu’il existe θ ∈ R tel que
cosθ − sin θ cosθ sin θ
A= ou A = .
sin θ cos θ sin θ − cos θ
6. Un sous-groupe de GLn (R) est un sous-ensemble non vide de GLn (R) qui est stable par multiplication et inverse.
Factorisation LU Tout va donc très bien pour ce système, mais supposons maintenant qu’on ait à résoudre
3089 systèmes avec la même matrice A mais 3089 seconds membres b différents 8 . Il serait un peu dommage
de recommencer les opérations ci-dessus 3089 fois, alors qu’on peut en éviter une bonne partie. Comment faire ?
L’idée est de “factoriser” la matrice A, c.à.d de l’écrire comme un produit A = LU , où L est triangulaire inférieure
(lower triangular) et U triangulaire supérieure (upper triangular). On reformule alors le système Ax = b sous la
forme LU x = b et on résout maintenant deux systèmes faciles à résoudre car triangulaires : Ly = b et U x = y.
La factorisation LU de la matrice découle immédiatement de l’algorithme de Gauss. Voyons comment sur l’exemple
précédent.
1/ On remarque que U = T32 (− 21 )T31 (1)A peut aussi s’écrire A = LU , avec L = (T32 (− 12 )T31 (1))−1 .
2/ On sait que (T32 (− 12 )T31 (1))−1 = (T31 (1))−1 (T32 (− 21 )−1 .
3/ Les matrices inverses T31 (1)−1 et T32 (− 21 )−1 sont faciles à déterminer : comme T32 (− 12 )−1 consiste à retran-
cher 1/2 fois la ligne 2 à la ligne 3, l’opération inverse est d’ajouter 1/2 fois la ligne 2 à la ligne 3, et donc
1 0 0
1 −1 1
T32 (− ) = T32 ( ) = 0 1 0 .
2 2
0 12 1
1 0 0 1 0 0
De même T31 (1)−1 = T31 (−1) = 0 1 0 et donc L = T31 (1)−1 T32 (− 21 )−1 = 0 1 0 .
−1 0 1 −1 12 1
7. Bien sûr, ceci revient à ajouter la première ligne ! il est cependant préférable de parler systématiquement de retrancher car c’est ce qu’on
fait conceptuellement : pour l’élimination on enlève un multiple de la ligne du pivot à la ligne courante.
8. Ceci est courant dans les applications. Par exemple on peut vouloir calculer la réponse d’une structure de génie civil à 3089 chargements
différents.
La matrice L est une matrice triangulaire inférieure (et c’est d’ailleurs pour cela qu’on l’appelle L, pour “lowe” in
English...) dont les coefficients sont particulièrement simplesà trouver : les termes diagonaux sont tous égaux à un,
et chaque terme non nul sous-diagonal Li,j est égal au coefficient par lequel on a multiplié la ligne pivot i avant de
la retrancher à la ligne j.
4/ On a bien donc A = LU avec L triangulaire inférieure (lower triangular) et U triangulaire supérieure (upper
triangular).
La procédure qu’on vient d’expliquer s’appelle méthode LU pour la résolution des systèmes linéaires, et elle
est d’une importance considérable dans les sciences de l’ingénieur, puisqu’elle est utilisée dans les programmes
informatiques pour la résolution des systèmes linéaires.
Dans l’exemple que nous avons étudié, tout se passait très bien car on n’a pas eu de zéro en position pivotale.
Si on a un zéro en position pivotale, la factorisation peut quand même se faire, mais au prix d’une permutation.
Le résultat général que l’on peut démontrer est que si la matrice A est inversible, alors il existe une matrice de
permutation P , une matrice triangulaire inférieure L et une matrice triangulaire supérieure U telles que P A = LU
Théorème 3.18 (Factorisation LU) Soit A une matrice inversible, alors il existe une matrice P de permutation,
une matrice L triangulaire inférieure et U une matrice triangulaire supérieure telle que P A = LU .
Le petit miracle de la décomposition LU est que la permutation P n’a pas besoin d’être connue avant de mettre
en oeuvre la factorisation ; elle est calculée au cours de l’algorithme, voir les algorithmes en annexe à la fin du
polycopié.
Factorisation LDU On peut aussi procéder à une factorisation dite LDU en remarquant que si on divise chaque
ligne de la matrice U obtenue par la décomposition LU par son coefficient diagonal (qui est non nul puisque la
matrice est inversible) alors on obtient une matrice triangulaire supérieure Ũ avec que des 1 sur la diagonale, et on
peut écrire U = DŨ , où D est la matrice diagonale contenant les pivots.
Lorsqu’on parle de factorisation LDU on sous entend donc toujours que la matrice U a des 1 sur la diagonale. Sur
l’exemple précédent, cette nouvelle décomposition s’écrit
1 0 1 1 0 0 1 0 0 1 0 1
A= 0 2 −1 = LDU = 0 1 0 0 2 0 0 1 − 21 .
1
−1 1 −2 −1 2 1 0 0 − 21 0 0 1
– Soient i, j deux entiers distincts de {1, . . . , n} (i 6= j), on définit la matrice Ei,j comme la matrice dont tous les
coefficients sont nuls sauf le coefficient i, j qui est egal à 1.
– Soient i, j deux entiers distincts de {1, . . . , n} (i 6= j), pour tout λ ∈ K la matrice Ti,j (λ) = Idn + λEi,j :
1 0 ··· ··· ··· ··· 0
.. .. ..
0 . . .
.. . . .. .. ..
.
. . . . ème
Ti,j (λ) =
0 λ 0 1 0 0 −i ligne
.. .. .. .. ..
.
. . . .
. .. ..
.. . . 0
0 ··· ··· ··· ··· 0 1
|
j ème colonne
Proposition 3.20 On a
1. (Di (a))t = Di (a), (Ti,j (λ))t = Tj,i (λ).
2. Si a 6= 0, (Di (a))−1 = Di a1 , (Ti,j (λ))−1 = Ti,j (−λ).
Démonstration : Le premier point est immédiat. Montrons le deuxième point. Pour les dilatations, on remarque
que le produit de deux matrices diagonales D1 et D2 est une matrice diagonale dont les coefficients diagonaux
sont les produits des coefficients diagonaux de D1 et D2 . Effectuons le produit des matrices Ti,j (λ)Ti,j (−λ). On
a
Ti,j (λ)Ti,j (−λ) = (Idn + λEi,j )(Idn − λEi,j ) = Idn − λ2 Ei,j Ei,j = Idn
car lorsque i 6= j, Ei,j Ei,j = 0.
Lemme 3.21 Si E ∈ Mn (K) est le produit de matrices élémentaires, alors E est inversible et son inverse est
encore un produit de matrices élémentaires.
Démonstration : On montre le résultat par récurrence sur le nombre de facteurs du produit, en utilisant la Pro-
position 3.13 et le fait que chaque matrice élémentaire est inversible et son inverse est une matrice élémentaire.
Théorème 3.22 (Opérations élémentaires sur les lignes d’une matrice) Soit A ∈ Mn,p (K).
1. La matrice Di (a)A est la matrice obtenue à partir de A en multipliant la ième ligne de A par a.
2. La matrice Ti,j (λ)A est la matrice obtenue à partir de A en ajoutant à la ième ligne de A, λ fois la j ème
ligne.
Démonstration : On rappelle que la multiplication des matrices peut s’effectuer parPlignes. Si on note ℓk (A) les
n
lignes d’une matrice A, chaque ligne du produit de matrices M A s’écrit ℓi (M A) = k=1 Mi,k ℓk (A), où n est le
nombre de colonnes de M (et de lignes de A). Avec M = Di0 (a) qui est diagonale, on a donc :
n
(
X aℓi0 (A) si i = i0 ,
ℓi (Di0 (a)A) = (Di0 (a))i,k ℓk (A) = Di0 (a))i,i ℓi (A) =
k=1
ℓi (A) sinon.
Autrement dit, une matrice n × p est sous forme échelonnée si les deux conditions suivantes sont vérifiées :
1. s’il existe des lignes de zéros, alors elles sont toutes en bas de la matrice ;
2. si deux lignes successives sont non nulles, alors la seconde a plus de zéros à gauche que la première.
Voici à quoi ressemblent des matrices échelonnées :
0 ... coefficients
coefficients
0 quelconques 0 ... 0 quelconques
.. ..
. .
0 ...... 0
0 ... 0 0 ... 0 ... ... ... 0
0 ... 0 ... ... ... 0
ou encore :
coefficients
0 quelconques
..
.. 0 ... 0
. .
... .. .. coefficients
0 0 . . quelconques
.. . . . 0
. .. 0 ... ... 0
0
. 0
Exemple 3.24 (Matrices échelonnées) Dans toutes les matrices ci dessous ⋆ désigne n’importe quel réel.
– Dans M2 (K)
2 ⋆ 1 ⋆ 0 3 0 0
, , , .
0 1 0 0 0 0 0 0
– Dans M3 (K)
1 ⋆ ⋆ 5 ⋆ ⋆ 0 3 ⋆ 0 2 ⋆ 0 0 1 0 0 0
0 1 ⋆ , 0 0 4 , 0 0 2 , 0 0 0 , 0 0 0 , 0 0 0 .
0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
– Dans M4 (K)
1 ⋆ ⋆ ⋆ 0 8 ⋆ ⋆ 0 2 ⋆ ⋆ 0 0 2 ⋆ 0 0 0 5 0 0 0 0
0 3 ⋆ ⋆ 0 0 1 ⋆ , 0 0 0 4 , 0 0 0 0
0 0 0 0 0 0 0 0
, , , .
0 0 4 ⋆ 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
1 0 0
– En revanche, la matrice 0 1 2 n’est pas échelonnée.
0 1 2
Dans le cas des matrices carrées, une matrice échelonnée est triangulaire supérieure :
Démonstration : Soit donc A = (ai,j ) ∈ Mn (K) une matrice échelonnée. On montre par récurrence sur 2 ≤ i ≤
n que ai,j = 0 si j < i.
Pour i = 2, si la ligne 2 est nulle, la propriété est trivialement vraie. Si la ligne 2 n’est pas nulle, le point 2. de
la définition des matrices échelonnées montre que sur la ligne 2 le premier coefficient non nul se trouve sur une
colonne k > 1, autrement dit a21 = 0. La propriété est donc vraie pour i = 2.
Supposons la propriété vraie pour 2 ≤ i ≤ n − 1 et montrons-la pour i + 1. Si la ligne i + 1 est nulle, la propriété
est trivialement vraie. Si la ligne i + 1 n’est pas nulle, la ligne i n’est pas nulle (par le point 1. de la définition des
matrices échelonnées). Alors, comme ai,j = 0 si j < i par hypothèse de récurrence, le premier terme non nul de
la ligne i se trouve sur une colonne j0 ≥ i. D’après le point 2., le premier terme non nul de la ligne i + 1 se trouve
donc sur une colonne j ≥ j0 + 1 ≥ i + 1. Ainsi, ai+1 j = 0 pour tout j < i + 1.
La propriété est donc vraie pour tout i : la matrice A est donc triangulaire supérieure.
Pour démontrer le théorème, on décrit un algorithme qui donne explicitement la matrice E. Avant de traiter le cas
général, on va décrire l’algorithme sur un exemple.
On veut échelonner la matrice
1 2 −2 4 1 1
0 1 3 −4 2 1
A := 1 0 −8 0 0 1 .
1 1 −5 0 0 1
L’idée est de procéder colonne par colonne. A l’étape i de l’algorithme, la matrice formée des i premières colonnes
est échelonnée. Lorsqu’on arrive à l’étape 6 (= le nombre de colonnes de A), la matrice obtenue est échelonnée.
On commence par l’étape 1. Il s’agit d’échelonner le premier vecteur colonne :
1
0
C1 = 1 .
Comme il est non nul, cela signifie qu’on veut, par des manipulations de lignes (c’est-à-dire en multipliant A à
gauche par des matrices élémentaires), se ramener au vecteur :
1
0
0 .
(Si le premier vecteur colonne était nul, en particulier il serait échelonné, on ne le modifierait pas et on passerait
au vecteur colonne suivant). La première ligne de C1 est un 1 donc on ne la change pas. Ensuite, en se servant de
ce 1, on fait apparaı̂tre des 0 sur les lignes suivantes de C1 . On commence par retrancher à la troisième ligne 1 fois
la première. Pour cela, on multiplie la matrice A par T31 (−1) avec
1 0 0 0
0 1 0 0
T31 (−1) = −1 0 1 0 .
0 0 0 1
On obtient la matrice A1 = T31 (−1)A, c’est-à-dire :
1 2 −2 4 1 1
0 1 3 −4 2 1
A1 = 0 −2 −6 −4 −1
0
1 1 −5 0 0 1
(pour obtenir A1 à partir de A, on a effectivement ajouté à la troisième ligne −1 fois la première). On a obtenu ce
qu’on voulait : un 0 sur la troisième ligne du premier vecteur colonne. Pour obtenir un zéro sur la quatrième ligne
du premier vecteur colonne, on ajoute à la quatrième ligne −1 fois la première, c’est-à-dire on multiplie la matrice
A1 par T41 (−1) :
1 0 0 0
0 1 0 0
T41 (−1) =
0 0 1 0 .
−1 0 0 1
On obtient la matrice A2 = T41 (−1)A1 = T41 (−1)T31 (−1)A :
1 2 −2 4 1 1
0 1 3 −4 2 1
A2 =
0 −2 −6 −4 −1 0
.
0 −1 −3 −4 −1 0
La première colonne de A2 est de la forme
1
0
0
0
et donc on en a fini avec la première colonne, car celle-ci est échelonnée. De plus, on note qu’elle a 3 lignes nulles.
La deuxième étape consiste à échelonner la matrice formée des deux premières colonnes de A2 . Pour cela, on va
échelonner le deuxième vecteur colonne de A2 à partir de la deuxième ligne (noter que la deuxième ligne est la
première ligne nulle de la première colonne). On verra que ça ne modifie pas la première colonne. La deuxième
colonne de A2 est
2
1
−2 .
−1
Echelonner ce vecteur colonne à partir de la deuxième ligne veut dire qu’on se ramène par des combinaisons
linéaires de lignes à une deuxième colonne du type
∗
1
0
0
où ∗ représente un nombre quelconque. Cette opération revient à multiplier A2 à gauche par des matrices élémentaires).
Il y a déjà un 1 sur la deuxième ligne. Pour faire apparaı̂tre un 0 sur la troisième ligne, on retranche à la troisième
ligne −2 fois la seconde (on se sert ainsi du 1 qui est sur la deuxième ligne). On obtient
1 2 −2 4 1 1
0 1 3 −4 2 1
A3 = T32 (2)A2 = T32 (2)T41 (−1)T31 (−1)A = .
0 0 0 −12 3 2
0 −1 −3 −4 −1 0
Noter qu’on n’a pas modifié la première colonne. Ceci est dû au fait qu’il y a un 0 sur la deuxième ligne de la
première colonne.
On poursuit le travail sur la deuxième colonne, en gagnant un 0 sur la quatrième ligne. Pour cela, on retranche à la
quatrième ligne −1 fois la deuxième, autrement dit, on multiplie A3 par T42 (1) pour obtenir
1 2 −2 4 1 1
0 1 3 −4 2 1
A4 := T42 (1)T32 (2)T41 (−1)T31 (−1)A = 0 0 0 −12 3 2 .
0 0 0 −8 1 1
La deuxième colonne a bien la forme qu’on attendait. La première colonne n’a pas été modifiée. La matrice formée
des deux premières colonnes de A4 est échelonnée, et on note qu’elle a deux lignes nulles.
Passons à la troisième étape : on travaille sur la troisième colonne. Il s’agit de l’échelonner à partir de la troisième
ligne (qui est la première ligne nulle de la matrice formée des deux premières colonnes de A4 ). La matrice formée
des trois premières colonnes de A4 sera ainsi échelonnée. Comme le vecteur colonne constitué des 2 dernières
lignes de la troisième colonne est nul, on n’a rien à faire sur la troisième colonne : elle est déjà échelonnée à partir
de la troisième ligne. On remarque que la matrice formée des trois premières colonnes de A4 a encore deux lignes
nulles.
On passe à la quatrième colonne, qu’on veut échelonner à partir de la troisième ligne car c’est la première ligne
nulle de la matrice formée des trois premières colonnes de A4 . Ainsi, on veut ramener le quatrième vecteur colonne
à un vecteur colonne de la forme :
∗
∗
a .
0
avec a non nul. On voit que pour cela, il suffit de retrancher à la quatrième ligne 2/3 fois la troisième, autrement
dit de multiplier A4 par T43 (−2/3). On obtient
1 2 −2 4 1 1
0 1 3 −4 2 1
A5 := T43 (2)T42 (1)T32 (2)T41 (−1)T31 (−1)A = 0 0 0 −12 3
.
2
0 0 0 0 −1 −1/3
Ceci achève le travail sur la quatrième colonne : la matrice formée des 4 premières colonnes est échelonnée. De
plus, elle a 1 ligne nulle. Pour la cinquième étape : le cinquième vecteur colonne est échelonné à partir de la
quatrième ligne. Donc on n’y touche pas. La matrice formée des 5 premières colonnes est échelonnée et n’a pas de
ligne nulle. L’algorithme s’arrête donc ici : la matrice A5 elle-même est échelonnée.
De plus, on a A5 = EA avec
E := T43 (−2/3)T42 (1)T32 (2)T41 (−1)T31 (−1).
Pour calculer simplement E, on part de la matrice T31 (−1),
1 0 0 0
0 1 0 0
T31 (−1) = −1
.
0 1 0
0 0 0 1
On sait que T41 (−1)T31 (−1) est obtenue à partir de T31 (−1) en retranchant à la quatrième ligne 1 fois la première
(parce que c’est l’effet de la multiplication à gauche par T41 (−1)). On obtient donc :
1 0 0 0
0 1 0 0
T41 (−1)T31 (−1) = −1 0 1 0 .
−1 0 0 1
De même, T32 (2)T41 (−1)T31 (−1) est obtenue à partir de T41 (−1)T31 (−1) en retranchant à la troisième ligne −2
fois la deuxième (parce que c’est l’effet de la multiplication à gauche par T32 (2)). On obtient donc :
1 0 0 0
0 1 0 0
T32 (2)T41 (−1)T31 (−1) = −1 2 1 0 .
−1 0 0 1
Pour obtenir E en même temps qu’une matrice échelonnée à partir de A, on peut aussi échelonner directement
la matrice augmentée A Id4 jusqu’à la dernière colonne de A. Mais ceci n’est jamais effectué en pratique.
D’abord la matrice E n’est pas très intéressante en soi ; c’est la matrice L = E −1 qui est utile en pratique : dans
le cas où on n’a pas besoin de permutation de lignes, on obtient la factorisation A = LU de la matrice avec une
matrice L = E −1 triangulaire inférieure et une matrice U triangulaire supérieure. Dans le cas de l’exemple ci-
dessus, la matrice L s’écrit : L = E −1 = (T32 (2)T41 (−1)T31 (−1))−1 = T31 (1)T41 (1)T32 (−2). Les coefficients
de la matrice L s’obtiennent donc très facilement à partir des coefficients utilisés lors de l’échelonnement pour la
construction de la matrice U .
On va maintenant démontrer le Théorème 3.26 en décrivant l’algorithme d’échelonnement dans le cas général. On
commence par considérer le cas d’une matrice colonne (c’est-à-dire p = 1).
◮ Si a1 6= 0 alors on utilise a1 pour éliminer les coefficients qui sont en-dessous, à l’aide des matrices élémentaires.
On commence par retrancher à la deuxième ligne a2 /a1 fois la première :
a1
0
T2,1 (−a2 /a1 ) A = a3 .
..
.
an
◮ Si a1 = 0, il existe i ≥ 2 tel que ai 6= 0 car on a supposé A 6= 0. Auquel cas, si on ajoute à la première ligne 1
fois la iième ligne, on obtient
ai
a2
T1,i (1) A = . .
..
an
On est alors ramené au cas précédent.
ai
0
Tn,1 (−an /ai ) · · · T2,1 (−a2 /ai )T1,i (1) A = . .
..
0
Dans le cas où a1 est nul, on aurait aussi pu intervertir les lignes 1 et i au lieu d’ajouter à la première ligne la iième .
Pour passer au cas général, on a besoin de la généralisation suivante. On dit qu’un vecteur X ∈ Mn,1 (K) est
échelonné à partir de la ligne 1 ≤ i ≤ n si le vecteur A′ ∈ Mn−i+1,1 constitué des lignes i, . . . , n du vecteur X
est échelonné (au sens de la Définition 3.23). En particulier, un vecteur est échelonné s’il est échelonné à partir de
la ligne 1.
L’algorithme d’échelonnement d’un vecteur colonne peut être généralisé pour obtenir un vecteur échelonné à partir
d’une ligne quelconque 1 ≤ i ≤ n − 1. Pour cela, il suffit d’éliminer les lignes qui sont au-dessous de i en utilisant
le coefficient qui est sur la ligne i. Plus précisément,
Lemme 3.28 Soit A = (ak )k=1,...,n ∈ Mn,1 (K) et 1 ≤ i ≤ n − 1. On suppose que l’une des lignes i, . . . , n de
A n’est pasnulle.Alors il existe une matrice E ∈ Mn (K) produit de matrices élémentaires et a ∈ K, a 6= 0, tels
a1
..
.
ai−1
que EA = a .
0
..
.
0
Démonstration : C’est la même preuve que pour le lemme précédent sauf qu’on ne regarde que les lignes qui
sont au-dessous de la iième .
◮ Si ai 6= 0 alors en retranchant à la (i + 1)ième ligne ai+1 /ai fois la iième ligne, on obtient
a1
..
.
ai−1
−ai+1 ai
Ti+1,i A=
.
ai 0
ai+2
..
.
an
◮ Si ai = 0, il existe j ≥ i + 1 tel que aj 6= 0. Auquel cas, si on ajoute la j ième ligne à la iième ligne, on obtient
a1
..
.
ai−1
aj .
Ti,j (1)A =
ai+1
.
..
an
On observe que dans cet algorithme, on modifie seulement les lignes i, . . . , n de A. En effet, les matrices élémentaires
par lesquelles on multiplie A n’agissent que sur ces lignes : les coefficients non diagonaux et non nuls étant tous
placés sur ces lignes-là.
est bien une matrice échelonnée. Dans ce cas, on pose donc Ek+1 = Fk+1 Ek .
◮ La propriété est vraie pour tout k, en particulier pour k = p. Le Théorème 3.26 est démontré.
Remarque 3.29 Lorsque l’on rencontre un zéro en position pivotale (et non pas un “pivot nul”, car, par définition,
un pivot n’est jamais nul) durant l’échelonnement de la matrice on peut, au lieu de transformer la ligne en question,
permuter la ligne où se trouve ce zéro avec une des lignes qui se trouve en dessous de celle où se trouve ce zéro.
C’est d’ailleurs ce qui est effectué en pratique dans les programmes informatiques qui effectuent la méthode de
Gauss, ou qui effectuent la décomposition LU d’une matrice telle qu’on l’a introduite dans la première partie de
ce chapitre.
La matrice de permutation Pi,j des lignes i et j est la matrice identité, sauf pour les lignes i et j : la ligne i a des
zéros partout sauf en colonne j où il y a un 1 ; la ligne j a des zéros partout sauf en colonne i où il y a un 1. Elle
peut encore s’écrire : Pi,j = Idn − Ei,i − Ej,j + Ei,j + Ej,i . Par exemple pour n = 2 :
0 1
P12 =
1 0
et pour n = 6 :
1 0 0 0 0 0 1 0 0 0 0 0
0 0 1 0 0 0 0 0 0 0 1 0
0 1 0 0 0 0 0 0 1 0 0 0
P23 =
0
P25 =
0 0 1 0 0
0
0 0 1 0 0
0 0 0 0 1 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0 0 0 0 1
On peut vérifier facilement que multiplier une matrice A ∈ Mn,p (K) par la matrice Pi,j revient à intervertir
les lignes i et j. Evidemment lorsqu’on permute les lignes de la matrice du système linéaire, on doit également
permuter les lignes correspondantes du vecteur second membre lorsqu’on résout un système linéaire. Ceci se fait
de manière automatique lorsqu’on travaille sur la matrice augmentée.
Dans la suite, il sera utile de repérer quelles sont les colonnes pivotales d’une matrice échelonnée, dont on a déjà
parlé lors de l’élimination de Gauss. En voici une définition pour une matrice échelonnée rectangulaire n × p.
Définition 3.30 (Pivots, colonnes pivotales, rang) On note r le nombre de lignes non nulles d’une matrice n × p
échelonnée. On appelle pivot le premier terme non nul de chaque ligne non nulle de la matrice échelonnée. On
appelle colonnes pivotales d’une matrice échelonnée les colonnes dans lesquelles apparaissent les pivots des
lignes non nulles (attention ce ne sont pas forcément les r premières colonnes de la matrice). On note k1 , . . . , kr
les indices de ces colonnes. On appelle colonnes non pivotales les autres colonnes, dont les indices sont notés
kr+1 , . . . , kp .
Les colonnes pivotales sont donc les colonnes cj (A) telles que j ∈ J, où J = {k1 , . . . , kr } est l’ensemble des
indices des colonnes dans lesquelles apparaissent les pivots.
On définit le rang de la matrice comme le nombre de lignes non nulles (ou de colonnes pivotales).
3.2.5 Exercices
Exercice 59 (Des petits systèmes gentils) Résoudre les systèmes linéaires suivants en utilisant l’échelonnement :
x + y = 2 3x − 2y = 1
x − y = 0 6x + y = 1/2
Exercice 60 (Echelonnement et factorisation LU et LDU ) Echelonner les matrices suivantes, et lorsqu’elle existe,
donner leur décomposition LU et LDU
1 3 1
2 1 2 0 4
1 3
−1 −3 −3
Exercice 61 (Des systèmes un peu plus gros) Résoudre en utilisant l’algorithme du pivot de Gauss ( ou l’échelonnement)
les systèmes suivants :
x +y +z = 2 x +2y −2z = 1
5x +4y +3z = 2 −x +3y = 0
6x +3y +2z = −4 −2y +z = −3
x +2y −2z +4t +u = 0
x +2y −2z +4t = 2
y +3z −4t +2u = 0
y +3z −4t = −2
x +z −2t +3u = 0
z −2t = 0
x
+y +4z −6t +5u = 0
x +y −z +2t = 2
3y +2t = 0
A ci (A−1 ) = ei , i = 1, . . . , n.
Le calcul de A−1 peut donc s’effectuer en résolvant les n systèmes linéaires avec matrice A, inconnue ci (A−1 ) et
second membre ei .
Remarquons donc tout de suite que l’inversion d’une matrice est beaucoup plus chère que la résolution d’un
système linéaire (n fois, très précisément...). Il est donc idiot d’inverser une matrice pour résoudre un système
linéaire. Par contre, il est intéressant de savoir comment on peut trouver l’inverse d’une matrice par la méthode de
Gauss-Jordan, en s’inspirant de celle effectuée pour résoudre le système linéaire.
Au lieu d’introduire une matrice augmentée avec la matrice de départ et un vecteur second membre, on introduit
maintenant une matrice augmentée avec la matrice de départ et n vecteurs second membre (les vecteurs ei ) ; ceci
revient à considérer la matrice augmentée n × 2n constituée de la matrice A et la matrice Idn :
à = A Idn .
Si la matrice A est inversible, en appliquant l’algorithme de Gauss-Jordan qu’on décrit si dessous, on obtient alors
l’inverse de la matrice dans la partie droite (où se trouveait auparavant la matrice identité) de la forme “totalement
échelonné” de la matrice augmentée.
A Idn =
A est inversible,sa forme totalement échelonnée R est Idn , et l’algorithme de Gauss-Jordan sur à =
Si
A e1 . . . en donne :
R̃ = R c1 (A−1 ) . . . cn (A−1 ) = Idn A−1 .
Notons que dans une forme totalement échelonnée, les pivots sont toujours égaux à 1, ce qu’on n’a pas demandé
pour les matrices échelonnées.
Elle a deux colonnes pivotales : la première, k1 = 1, et la troisième : k2 = 3, et une colonne non pivotale, la
seconde : k3 = 2.
– La matrice 4 × 6 :
0 1 2 0 0 2
0 0 0 1 0 1
0 0 0 0 1 3
0 0 0 0 0 0
est sous forme totalement échelonnée, et a trois colonnes pivotales k1 = 2, k2 = 4, k3 = 5, et trois colonnes
non pivotales : k4 = 1, k5 = 3, k6 = 6.
– La matrice suivante est échelonnée, mais pas totalement échelonnée :
1 0 0
0 1 2 .
0 0 1
Théorème 3.35 (Echelonnement total) Soit A ∈ Mn,p (K). Il existe une matrice E produit de matrices
élémentaires telle que la matrice EA est totalement échelonnée.
Encore une fois, la preuve du théorème donne un algorithme qui permet de calculer explicitement E. D’après le
Théorème 3.26, on peut supposer que A est une matrice échelonnée.
Algorithme d’échelonnement total On commence par le cas d’une matrice colonne (p = 1).
a1
..
.
ai
0 ∈ Mn,1 (K) un vecteur échelonné avec ai 6= 0. Alors il existe une matrice E ∈
Lemme 3.36 Soit A =
..
.
0
0
..
.
0
Mn (K) produit de matrices élémentaires telle que EA =
1, le 1 étant sur la ligne i.
0
..
.
0
3.3.4 Exercices
Exercice 64 (Matrices 2 × 2 totalement échelonnées) Donner toutes les matrices 2 × 2 de coefficients égaux à
0 ou 1 et qui soient totalement échelonnées.
Exercice 65 (Inverse de matrices par échelonnement total) Echelonner les matrices suivantes et dire si elles
sont inversibles ; le cas échéant calculer leurs inverses par échelonnement total :
3 1 1 3 0 1 1 1 1
2 −1 1 , 2 −1 1 , 5 4 3
−1 1 −2 1 1 −2 6 3 2
et pour ceux qui en veulent encore...
1 2 −2 4 1
1 2 −2 4
1 2 −2 0 1 3 −4 2
0 1 3 −4
, −1
3 0 ,
1 0 1 −2 3
0 0 1 −2
0 −2 1 1 1 4 −6 5
1 1 −1 2
0 3 0 2 0
Exercice 66 (Matrices 2 × 2 totalement échelonnées) Soit A ∈ GL2 (R). Montrer que les formes totalement
échelonnées de A et A−1 sont identiques.
Exercice
67 (Une matrice
connue en géométrie) Soit θ un nombre réel dans [0, 2π[. On considère la matrice
cos θ − sin θ
Rθ = pour θ ∈ R.
sin θ cos θ
1. Montrer que Rθ est inversible et calculer son inverse.
2. Calculer Rθn pour n ∈ Z.
3. On considère la matrice
cos(θ) −sin(θ) 0
A = sin(θ) cos(θ) 0
0 0 1
Vérifier que A est inversible et que son inverse A−1 s’écrit
(Rθ )−1 012
A−1 =
021 1
Exercice 68 Soit A une matrice carrée échelonnée (et donc triangulaire supérieure) qui n’a que des colonnes
pivotales.
1. Montrer que les éléments diagonaux de A sont non nuls.
2. On applique l’algorithme d’échelonnement total à A. Quelle matrice obtient-on ?
3. En déduire que A est inversible.
4.1.1 Définitions
Définition 4.1 (Espace vectoriel) Soit K un corps, K = R ou C. On dit que E est un espace vectoriel sur K si
1. E muni d’une loi de composition interne + appelée addition (c.à.d. une application de E × E → E) est un
groupe commutatif, i.e. les propriétés suivantes sont vérifiées :
(a) Il existe un élément appelé élément neutre pour l’addition 0E ∈ E tel que pour tout u ∈ E, 0E +u =
u + 0E = u.
(b) Pour tous u, v ∈ E, on a u + v = v + u ∈ E.
(c) Pour tous u, v, w ∈ E, (u + v) + w = u + (v + w).
(d) Pour tout u ∈ E, il existe un v ∈ E tel que u + v = v + u = 0E . Un tel v est unique et on le note
v = −u.
2. E est muni d’une loi de composition externe appelée multiplication, c.à.d. une application de E × K → E
(λx ∈ E, ∀λ ∈ K, ∀x ∈ E) telle que pour tous u, v ∈ E, λ, µ ∈ K,
(a) Il existe un élément appelé élément neutre pour la multiplication 1K ∈ K tel que 1K u = u1K = u,
(b) λ(u + v) = λu + λv,
(c) (λ + µ)u = λu + µu,
(d) λ(µu) = (λµ)u.
On dira plus brièvement que E est un K-espace vectoriel ou K-ev. Cette définition paraı̂t longue et compliquée...
en fait il suffit de retenir qu’un espace vectoriel est un ensemble sur lequel on a défini 2 opérations : l’addition
entre 2 éléments de cet ensemble et la multiplication entre 1 élément et 1 nombre (réel ou complexe selon le cas).
Il y a 8 propriétés à vérifier, 4 liées à l’addition (les propriétés de groupe commutatif) et 4 liées à la multiplication
par un scalaire (élément neutre, distributivité “dans les deux sens”, associativité).
Exemple 4.2
– Quelques exemples typiques d’ espaces vectoriels :
• R, R2 et plus généralement Rn , n ≥ 1 sont des R-ev lorsqu’on les munit de l’addition habituelle de 2 vecteurs,
et de la multiplication d’un vecteur par un nombre.
• De même, Cn , n ≥ 1 est un C-ev et un R-ev.
• M2 (K), M2,1 (K), M1,2 (K), Mn,p (K) munis de l’addition des matrices et de la multiplication par un scalaire
(de K = R ou C) sont des K-ev.
• L’ensemble des polynômes à coefficients dans K est un espace vectoriel sur K (pour l’addition et la multipli-
cation habituelles).
53
4.1. Espaces et sous-espaces 4. Espaces et sous espaces vectoriels
• L’ensemble des fonctions continues sur un intervalle [a, b] est un espace vectoriel sur R (l’addition de 2
fonctions f et g continues sur [a, b] étant la fonction h : [a, b] → R définie par h(x) = f (x) + g(x) pour tout
x ∈ [a, b]. On définit similairement la multiplication d’une fonction par un nombre).
• L’ensemble des fonctions u : R → R solutions de l’équation u′′ + u′ + u = 0 (pour les mêmes opérations que
dans l’exemple ci-dessus).
– Ensembles qui ne sont pas des espaces vectoriels :
• Z muni de l’addition est un groupe, mais n’est pas un R-ev lorsqu’on rajoute la multiplication par les nombres
réels. • (R+ )2 n’est pas un R-ev pour les opérations habituelles,
• L’ensemble des fonctions de R dans R qui valent 1 en 0 pour les opérations habituelles,
• L’ensemble des fonctions u : R → R solutions de l’équation u′′ + u′ + u = 1 pour les opérations habituelles.
Définition 4.3 (Sous-espace vectoriel) Soit E un K-espace vectoriel. On dit que F ⊂ E est un sous-espace
vectoriel de E si 0 ∈ F et si F est stable par combinaison linéaire, c.à.d pour tous u, v ∈ F , λ, µ ∈ K,
λu + µv ∈ F .
Proposition 4.4 Un sous-espace vectoriel d’un espace vectoriel est un espace vectoriel.
Cette proposition est facile à démontrer et laissée à titre d’exercice, mais elle est extrêmement utile : dans la plupart
des cas, lorsqu’on vous demandera de montrer qu’un ensemble est un espace vectoriel, il suffira de montrer que
c’est un sous-espace vectoriel d’un espace vectoriel que vous aurez bien choisi et dans lequel cet ensemble est
inclus. Par exemple, si on vous demande de montrer que l’ensemble des couples (x, y) de R2 vérifiant x + y = 0
est un R-espace vectoriel, il vous suffira de montrer que c’est un sous-espace vectoriel de R2 .
Définition 4.5 (Espace vectoriel engendré) Soient u1 , . . . , uk k éléments d’un K-espace vectoriel E. On appelle
espace vectoriel engendré par la famille (ui )i=1,...,k la partie de E constituée des combinaisons linéaires des
éléments ui :
( k
)
def X
Vect(u1 , . . . uk ) = x ∈ E, x = α1 u1 + · · · + αk uk = αi ui , α1 , . . . , αk ∈ R .
i=1
Soit P une partie de E, on appelle sous-espace vectoriel engendré par P l’ensemble des combinaisons linéaires
des éléments de P .
La terminologie et la notation suggèrent que l’ensemble des combinaisons linéaires d’une famille de vecteurs est
un sous-espace vectoriel : c’est effectivement le cas (exercice !).
Définition 4.7 (Image d’une matrice) Soit une matrice A d’ordre n × p. On appelle image de A ∈ Mn,p (K),
noté Im(A), l’ensemble des y ∈ Kn tels qu’il existe x ∈ Kp vérifiant Ax = y.
Proposition 4.8 Soit A ∈ Mn,p (K). Alors l’image Im(A) de la matrice A est un sous-espace vectoriel de
Mn,1 (K).
xp
le vecteur colonne Ax est la combinaison linéaire des vecteurs colonnes de la matrice A associée aux coefficients
x1 , . . . , xp .
Proposition 4.9 Soit une matrice de taille n × p. L’image de A ∈ Mn,p (K) est égal à l’espace des colonnes
C(A).
Démonstration : Pour montrer que les ensembles Im(A) et C(A) sont égaux, il faut montrer que C(A) ⊂ Im(A)
et Im(A) ⊂ C(A). Soit ci (A) la i-ème colonne de A. Alors ci (A) = Aei , où ei est le vecteur de Kp dont
les composantes sont toutes nulles sauf la i-ème qui est égale à 1. On a donc bien ci (A) ∈ Im(A) pour tout
i = 1, . . . , p. Toutes les colonnes de A sont donc dans Im(A) et comme Im(A) est un sous-espace vectoriel, toutes
les combinaisons linéaires de ces colonnes aussi. On a donc bien C(A) ⊂ Im(A).
Réciproquement, si y ∈ Im(A), alors il existe x ∈ Kp tel que y = Ax, et donc y est une combinaison linéaire
des colonnes de A, ce qui prouve que y ∈ C(A). On a donc bien montré Im(A) ⊂ C(A) et donc Im(A) = C(A).
L’image Im(A) de la matrice A est l’ensemble C(A) des combinaisons linéaires des vecteurs colonnes de A. C’est
donc aussi le sous-espace vectoriel engendré par les colonnes de la matrice A.
Exemple
Déterminons
l’image
des
matrices suivantes :
1 0 1 2 1 2 3
Id2 = ,A= ,B = .
0 1 3 6 0 0 3
1
Im(Id2 ) = R2 , Im(A) est la droite passant par l’origine et de vecteur directeur .
3
1
Im(A) = λ ,λ ∈ R .
3
1 1
Im(B) = λ +µ , λ, µ ∈ R = R2 .
0 1
4.1.3 Exercices
Espaces et sous-espaces
Exercice 69 (Le R-espace vectoriel C.) Montrer que l’espace C muni de l’addition de 2 complexes, et de la mul-
tiplication d’un complexe par un réel, est un R-espace vectoriel.
Exercice 70 (Espace vectoriel : oui ou non ?) Pour les ensembles E et F suivants, préciser si F est un sous
espace vectoriel de E (qui est muni des opérations d’addition et de multiplication usuelles)
– E = R3 et F := {x = (x1 , x2 , x3 ) ∈ R3 tels que x3 ≥ 0}.
– E = R2 et F = R2 \ {(0, 0)}.
– Un cercle F dans le plan E, une sphère F dans l’espace E, un rectangle F dans le plan E.
– L’union F de deux droites du plan E.
– Un plan F passant par l’origine dans E = R3 .
Exercice 72 (Sous espaces vectoriels : oui ou non ?) Les ensembles suivants sont-ils des sous-espaces vectoriels
(préciser de quel espace vectoriel) ?
– {(x, y, z) ∈ R3 ; x + y + z = 0}
– {(x, y, z) ∈ R3 ; 4x + y − z = 0}
– {(x, y, z, t) ∈ R4 ; x2 − y + z = 0}
– {(x, y, z, t) ∈ R4 ; x + y + z = 0, t − x = 1}
– {(x, y, z, t) ∈ R4 ; x + y + z = 0, t − y = 0}
– {(x, y, z) ∈ R3 ; 4x + y − z = 0, x − 4y + z = 0}
– Le sous ensemble des matrices inversibles de Mn (R).
– Le sous ensemble des matrices non inversibles de Mn (R).
– Le sous ensemble des matrices symétriques de Mn (R).
– Le sous ensemble des matrices anti-symétriques de Mn (R).
– Le sous ensemble des matrices non symétriques de Mn (R).
Exercice 73 (Construction de sous-espaces) Pour chacun des espaces vectoriels E suivants, trouver un sous-
espace F de E puis un sous-espace G de F .
1 1 1
1 1 1
1. E est l’ensemble des combinaisons linéaires des vecteurs
0 , 1 et 1 .
0 0 1
2. E est l’ensemble des matrices symétriques 2 × 2 (rappel, une matrice n × n est symétrique si ses coefficients
sont tels que ai,j = aj,i pour i, j = 1, . . . , n)
3. E est l’ensemble des fonctions y de R dans R dont la dérivée troisième est nulle.
Décrire chacun des espaces E précédents de deux manières différentes : “E est l’ensemble de toutes les combi-
naisons linéaires de .... ”et “E est l’ensemble de toutes les solutions de l’équation ... ”
Exercice 74 (Droite dans R2 ) Donner une équation cartésienne et une équation paramétrique de la droite D de
R2 qui passe par 0 et qui a pour vecteur directeur (1, −3). Montrer que D est un sous-espace vectoriel de R2 .
Exercice 75 (Espace vectoriel des polynômes) Soit E l’ensemble des polynômes réels de degré inférieur ou égal
à 4. Montrer que E est un espace vectoriel. Montrer que l’ensemble des polynômes admettant les racines x = a et
x = b 6= a est un sous-espace vectoriel F de E.
Exercice 76 (Commutant d’une matrice) Soit A ∈ M2 (R). On nomme commutant de A et on note Com(A)
l’ensemble des B ∈ M2 (R) telles que AB = BA.
1. Montrer que Com(A) est un sous-espace vectoriel de M2 (R).
2. Montrer que, pour tout k ∈ N, Ak ∈ Com(A).
3. Déterminer Com(A) pour
1 0 0
A= 0 1 1 .
3 1 2
Exercice 77 (Sous-espaces engendrés) Dans R3 montrer que les vecteurs V1 = (1, 2, 3) et V2 = (2, −1, 1)
engendrent le même sous-espace vectoriel que les vecteurs U1 = (1, 0, 1) et U2 = (0, 1, 1).
Exercice 78 (Espace engendré dans C) On note E le R-espace vectoriel des nombres complexes. On considère
les parties H1 , H2 , H3 , H4 ci-dessous, et pour i = 1, . . . 4, on note Fi le sous-espace vectoriel de E engendré par
Hi .
H1 = z ∈ C, |z| = 3
H2 = z ∈ C, Arg(z) = π/3 ou Arg(z) = −2π/3
H3 = z ∈ C, z = iz
H4 = z ∈ C, z + z ∈ R
Exercice 79 (Espace des colonnes de matrices 3×2) Décrire l’espace des colonnes (droite ou plan) pour les ma-
trices suivantes :
1 −1 1 0 1 0
A = 0 0 A = 0 −1 C = −1 0
0 0 0 0 0 0
Exercice 80 (Systèmes linéaires) Pour quels seconds membres (trouver une condition sur a, b, c) ces systèmes
linéaires admettent ils au moins une solution ?
1 4 2 x a 1 4 a
2 x
8 4 y = b 2 9 = b
y
−1 −4 −2 z c −1 −4 c
Exercice 81 (Ajout de colonne) Si on ajoute une colonne b a une matriceA, dans quel cas l’espace des colonnes
devient-il plus grand ? Donner un exemple pour lequel il devient plus grand, et un exemple où ce n’est pas le cas.
Exercice 83 (Sous espace vectoriel) Soit A ∈ Mn,p (R). L’ensemble {x ∈ Rn ; x 6∈ C(A)} est il un sous-espace
vectoriel ?
Exercice 85 (Somme de deux sous-espaces vectoriels) Soient E un espace vectoriel, F et G des sous-espaces
vectoriels de E. On note F + G l’ensemble des vecteurs de E qui s’écrivent comme la somme d’un vecteur de F
et d’un vecteur de G.
1. Montrer que F + G est un sous-espace vectoriel de E.
2. Montrer par un contre exemple (dans R2 ) que l’ensemble F ∪ G n’est pas forcément un sous-espace vectoriel.
3. Montrer que l’ensemble des combinaisons linéaires des vecteurs de F ∪G qu’on notera Vect(F ∪G) (pourquoi ?)
est égal à F + G (rappel : pour montrer l’égalité de deux ensembles il faut montrer l’inclusion dans les deux sens).
4. Soient A et B ∈ Mn,p (R), E = C(A) et F = C(B). De quelle matrice E + F est il l’espace des colonnes ?
Proposition 4.11 Soit une matrice de taille n × p. Le noyau de A ∈ Mn,p (K) est un sous-espace vectoriel de Kp .
Remarquez que le noyau d’une matrice A ∈ Mn,p (K) est un sous-espace vectoriel de Kp alors que son image (ou
espace des colonnes) est un sous-espace vectoriel de Kn . Par contre, si b 6= 0, l’ensemble des solutions du système
linéaire Ax = b, qui est donc l’ensemble {x ∈ Rp tels que Ax = b} n’est pas un sous-espace vectoriel, car 0
n’est pas solution du sysème Ax = b.
Déterminer le noyau de A revient à résoudre le système linéaire Ax = 0. On appelle système linéaire homogène
un tel système linéaire, dont le second membre est nul. Un système linéaire homogène admet toujours au moins
une solution, le vecteur nul (de Kp ) puisque A0p = 0n . D’autre part, lorsqu’on multiplie une matrice n × p par
un vecteur colonne p × 1, on obtient un vecteur n × 1 qui est une combinaison linéaire des colonnes de A. Donc,
résoudre Ax = 0, c’est trouver les combinaisons linéaires des colonnes de A qui donnent un vecteur nul ; les
composantes xi des solutions x sont les coefficients des combinaisons linéaires qui conviennent.
Il sera très utile, pour trouver le noyau d’une matrice, d’utiliser sa forme totalement échelonnée que nous avons
introduite au chapitre précédent. A ce propos, on rappelle que le rang d’une matrice échelonnée est le nombre r de
colonnes pivotales de la matrice. Une matrice à n lignes et p colonnes a donc r colonnes pivotales et p − r colonnes
non pivotales.
Remarquons que les noyaux de A et de sa forme totalement échelonnée R sont identiques. En effet, les lignes de
R sont obtenues par combinaisons linéaires des lignes de A et les systèmes linéaires Ax = 0 et Rx = 0 sont
équivalents. Plus précisément :
Proposition 4.12 Soit A ∈ Mn,p (K) et R sa forme totalement échelonnée. Alors KerA = KerR.
Démonstration : Par le théorème 3.35, R = EA où E est une matrice inversible et donc dire que Ax = 0 est
équivalent à dire que Rx = 0.
On verra plus loin (Proposition 4.18) que si on connaı̂t les dimensions n et p d’une matrice A et son noyau KerA,
alors on peut déterminer complètement la forme totalement échelonnée de A. En particulier, la forme totalement
échelonnée d’une matrice est unique.
Cas d’une matrice A carrée (n = p) inversible On a déjà vu dans le chapitre précédent que si A est inversible,
la seule solution du système Ax = 0 est x = 0. En effet, en mutipliant les deux membres du système par A−1 ,
on obtient immédiatement x = 0. On verra que la matrice A est inversible si et seulement si la forme totalement
échelonnée de A est R = Idn (voir Lemme 4.28 et Corollaire 4.29). Dans ce cas, la matrice R a donc r = n
colonnes pivotales et aucune colonne non pivotale, et donc son rang est r = n.
Le système Ax = 0 est équivalent au système Rx = 0, ce qui donne encore que x = 0 est l’unique solution du
système linéaire Ax = 0. On a donc Ker(A) = {0} .
Cas d’une matrice A carrée (n = p) non inversible Dans ce cas, la forme totalement échelonnée de A est
R 6= Idn , et son rang (le nombre de colonnes pivotales) r < n : la matrice R possède au moins une ligne de 0 (en
bas), et la matrice augmentée R̃ également (puisque le second membre est nul).
1 2
Exemple 4.13 Considérons par exemple la matrice A = , et cherchons à déterminer le noyau de A. C’est
2 4
l’ensemble des x tels que Ax = 0, c.à.d. les solutions du système :
x1 + 2x2 = 0
2x1 + 4x2 = 0
La deuxième équation est toujours satisfaite, et donc il n’y a en fait qu’une seule équation. Le noyau de A est la
droite d’équation x1 + 2x2 = 0.
Un moyen simple de décrire cette droite de solutions est de choisir un point de la droite : si on connaı̂t un tel
point, on connaı̂t donc une solution de Ax = 0, qu’on appelle solution spéciale. Alors les points de la droite sont
Choisissons par exemple x2 = 1, dans ce cas
0).
tous des multiples de ce point (parce que la droite passe par
−2
on a x1 = −2, et donc une solution particulière est s = . Le noyau de A contient tous les multiples de
1
−2
s= .
1
−2
Ker(A) = t ,t ∈ R .
1
Cas d’une matrice rectangulaire quelconque Si on connait une solution spéciale s de Ax = 0, alors tous les
multiples de s (c.à.d. les vecteurs de la forme λs avec λ ∈ R) sont solutions de Ax = 0.
grâce au fait que −x2 − x3 = x1 . Les vecteurs s1 et s2 “engendrent” le plan, au sens où le sous-espace vectoriel
engendré par s1 et s2 est le plan P d’équation x1 + x2 + x3 = 0.
On peut donc décrire KerA (le plan P) comme l’ensemble des combinaisons linéaires des solutions spéciales
qu’on vient de calculer :
−1 −1
KerA = λ 0 + µ 1 , λ ∈ R, µ ∈ R .
1 0
Les solutions spéciales de Ax = 0 peuvent en fait se calculer très simplement à partir de la forme totalement
échelonnée R de A : Si on regarde comment sont faites les colonnes de R, on se rend compte qu’une colonne non
pivotale peut s’écrire comme combinaison linéaire des colonnes pivotales précédentes comme on va le démontrer
dans la proposition suivante. Et ce sont justement les coefficients de cette combinaison linéaire qui donnent une
solution de Ax = 0 (qu’on appelle solution spéciale), puisque (rappel) le produit Ax est une combinaison linéaire
des colonnes de A !
Proposition 4.15 Soit A ∈ Mn,p (K) une matrice échelonnée. Alors toute colonne non pivotale est
1) nulle si elle est située à gauche de la première colonne pivotale,
2) combinaison linéaire des colonnes pivotales qui la précèdent sinon.
Démonstration : On commence par le cas où A est totalement échelonnée. On note r le nombre de lignes non
nulles. Soit J = (j1 , . . . , jr ) les indices de ses colonnes pivotales (plus précisément, la colonne ji est celle qui
contient le premier terme non nul de la ligne i). Le point 2. de la définition des matrices échelonnées dit que
j1 < · · · < jr . Alors
0
..
.
0
1
cji (A) = (4.2.1)
0
.
..
0
où le 1 est sur la i ème ligne. En effet,
1) il y a des 0 en dessous du 1, car le premier terme non nul de la ligne i + 1 est sur la colonne ji+1 > ji , le
premier terme non nul de la ligne i + 2 est sur la colonne ji+2 > ji , etc...
2) il y a des 0 en-dessus du 1 car dans une matrice totalement échelonnée, il y a des 0 au-dessus d’un pivot (= le
premier terme non nul d’une ligne).
a1,j
..
.
ar,j
Soit j ∈/ J. Si j < j1 , cj (A) = 0 et le résultat est trivial. Si j > jr , cj (A) est de la forme
(car seules les r
0
.
..
0
premières lignes sont non nulles). On peut écrire cj (A) = a1,j cj1 (A) + · · · + ar,j cjr (A), d’où le résultat dans ce
cas.
a1,j
..
.
ai,j
Enfin, dans le cas où j vérifie ji < j < ji+1 , cj (A) est de la forme . En effet, toutes les lignes à partir de
0
.
..
0
i + 1 sont nulles puisque le premier terme non nul de la ligne i + 1 est sur la colonne ji+1 > j, le premier terme
non nul de la ligne i + 2 est sur la colonne ji+2 > j, etc. . . . On peut écrire cj (A) = a1,j cj1 (A) + · · · + ai,ji cji (A).
Dans ce cas aussi, cj (A) s’écrit comme combinaison linéaire des colonnes qui la précèdent.
On considère maintenant le cas où A est simplement (et pas forcément totalement) échelonnée. Alors l’algorithme
d’échelonnement total montre qu’il existe une matrice inversible E telle que EA soit totalement échelonnée et de
plus A et EA ont les mêmes indices de colonnes pivotales (puisque l’échelonnement total consiste simplement
à faire apparaı̂tre des 0 au-dessus des premiers termes non nuls de chaque ligne de A : les colonnes contenant
le premier terme non nul d’une ligne restent donc les mêmes). On note J l’ensemble des indices des colonnes
pivotales et soit j ∈/ J. Si j < j1 , alors cj (EA) = 0 et donc cj (A) = E −1 cj (EA) = 0. Sinon soient j1 , . . . , jk
l’ensemble des indices de J qui sont inférieurs à j. Par le cas précédent, il existe α1 , . . . , αk tels que cj (EA) =
α1 cj1 (EA) + · · · + αk cjk (EA). Donc
cj (A) = cj (E −1 EA) = E −1 cj (EA) = E −1 (α1 cj1 (EA) + · · · + αk cjk (EA)) .
= α1 E −1 cj1 (EA) + · · · + αk E −1 cjk (EA) = α1 cj1 (A) + · · · + αk cjk (A).
Exemple 4.16 Prenons par exemple la matrice 3 × 4 sous forme totalement échelonnée
1 2 0 3
R = 0 0 1 −1
0 0 0 0
où on a écrit en gras les colonnes non pivotales. Notons cj (R), j = 1, . . . , 4 les 4 colonnes de R.
Les deux colonnes pivotales sont c1 (R) et c3 (R), et les deux non pivotales c2 (R) et c4 (R).
P4
Chercher x tel que Rx = 0 revient à chercher x1 , . . . , x4 tels que i=1 xi ci (R) = 0. Or la lecture de la matrice
totalement échelonnée R donne
ce qui s’écrit aussi (pour bien faire apparaı̂tre le produit matrice vecteur) :
0 1
Ici encore, on peut remarquer que tout vecteur x qui vérifie Ax = 0 peut s’écrire comme combinaison linéaire de
s1 et s2 . En effet, pour n’importe quel vecteur x = (x1 , x2 , x3 , x4 ) vérifiant Ax = 0, on a : x1 = −2x2 − 3x4 et
x3 = x4 ; on peut donc écrire
x1 −2 −3
x2
= x2 1 + x4 0 = x2 s1 + x4 s2 .
x= x3 0 1
x4 0 1
Rappelons que si R est la forme totalement échelonnée de A, les systèmes Ax = 0 et Rx = 0 sont équivalents.
Les noyaux de A et de R sont donc identiques (voir proposition 4.12) et égaux à l’ensemble des combinaisons
linéaires des solutions spéciales obtenues comme expliqué dans l’exemple précédent à partir des colonnes non
pivotales de la matrice R.
Il y a autant de solutions spéciales à Ax = 0 que de colonnes non pivotales, c.à.d. p−r. Dans l’exemple ci-dessus :
p = 4, r = 2, donc il y a 2 solutions spéciales.
Cas d’une matrice n × p avec p > n Remarquons que dans le dernier exemple ci-dessus, on a une matrice
rectangulaire “couchée”, c.à.d. avec plus d’inconnues que de lignes : p > n. Dans ce cas, le noyau de la matrice
est forcément non réduit à 0. En effet le nombre r de pivots (ou de lignes non nulles) est forcément inférieur
aux nombres de lignes, n. Comme p > n, il existe au moins une colonne non pivotale, et cette colonne est une
combinaison linéaire d’autres colonnes de A. Ce qui montre qu’il existe s non nul (ses composantes sont les
coefficients de la combinaison linéaire écrite sous la forme “combinaison = 0”) tel que Ax = 0. Il y a donc une
infinité de solutions au système Ax = 0 (tous les multiples de s), comme dans l’exemple 4.16 ci-dessus.
Unicité de la forme totalement échelonnée Question : la forme totalement échelonnée d’une matrice A est elle
unique ? La réponse est oui, et on a même un résultat plus fort que cela : une matrice totalement échelonnée est
entièrement déterminée par ses dimensions et son noyau.
Exemple 4.17 Soit A une matrice 3 × 4 dont le noyau est l’ensemble {x ∈ R2 ; x1 = x4 = 0, x2 − 2x3 = 0}.
de R est donc non nulle, sinon le vecteur
Construisons sa forme totalement échelonnée. La première colonne
1
(1, 0, 0, 0) serait dans KerS. On a donc forcément c1 (R) = 0 . Pour la même raison, la deuxième colonne
0
0
est aussi non nulle. De plus, le vecteur (1, −1, 0, 0) n’est pas dans le noyau. Donc forcément c2 (R) = 1 . La
0
troisième colonne est entièrement déterminée par l’équation du noyau : c3 (R) = 2c2 (R). Enfin, la quatrième
colonne ne dépend pas des trois premières puisque x4 n’est pas lié aux autres variables dans les équations du
noyau de A. On a donc un seul choix possible pour R :
1 0 0 0
R = 0 1 2 0
0 0 0 1
La construction qu’on vient de faire dans cet exemple peut se généraliser à n’importe quelle matrice.
Proposition 4.18 Soient A, B ∈ Mn,p (K) deux matrices de même noyau et R, S des matrices totalement
échelonnées à partir de A et B respectivement. Alors R = S.
Démonstration : Dans la suite, on note Ei ∈ Mp,1 (K) le vecteur colonne qui a des 0 partout sauf un 1 sur la
ligne i. Comme KerA = KerR et KerB = KerS, il suffit de montrer que si deux matrices totalement échelonnées
R et S ont même noyau, alors elles sont égales. On montre par récurrence sur 1 ≤ j ≤ p que pour tout 1 ≤ k ≤ j,
ck (R) = ck (S).
1) Pour j = 1, si c1 (R) = 0, alors le vecteur E1 est dans le noyau de R, donc dans le noyau de S, donc
c1 (S) = 0. Même observation en échangeant les rôles de R et S. Donc c1 (R) et c1 (S) sont simultanément nuls
ou simultanément non nuls. Dans les 2 cas, ils sont égaux.
2) Supposons la propriété vraie jusqu’à l’ordre j ≤ p − 1 et montrons-la pour j + 1. Par hypothèse de récurrence,
ck (R) = ck (S) pour tout k ≤ j. Notons l le nombre de colonnes pivotales à droite de j + 1 et k1 < · · · < kl
les indices de ces colonnes (pour R et pour S). Si cj+1 (R) est non pivotale, alors c’est une combinaison linéaire
des colonnes pivotales précédentes :
l
X
cj+1 (R) = Ri,j+1 cki (R).
i=1
Pl
On en déduit que le vecteur sj+1 := i=1 Ri,j+1 Eki − Ej+1 est dans le noyau de R (on utilise que REi =
ci (R)). Donc sj+1 est dans le noyau de S. Donc (en faisant le calcul dans le sens contraire),
l
X
cj+1 (S) = Ri,j+1 cki (S).
i=1
Donc cj+1 (S) = cj+1 (R). Même observation en échangeant R et S. Donc cj+1 (R) et cj+1 (S) sont simul-
tanément non pivotales ou simulatnément pivotales. Dans le premier cas, le calcul précédent montre qu’elles
sont égales. Dans le second cas, elles sont aussi égales puisque c’est la colonne pivotale l + 1 (qui a des 0 partout
sauf un 1 sur la ligne l + 1).
3) Conclusion : pour tout 1 ≤ j ≤ p, cj (R) = cj (S). Autrement dit, R = S.
On déduit immédiatement de la Proposition 4.18 que pour toute matrice A, il existe une unique matrice totalement
échelonnée R telle qu’il existe E ∈ GLn (K) vérifiant EA = R.
Cette proposition permet également de définir le rang d’une matrice quelconque A (qu’on n’a défini jusqu’à présent
que pour des matrices échelonnées).
Définition 4.19 Le rang de A est le rang de la matrice totalement échelonnée R associée à A (c.à.d. le nombre de
lignes non nulles ou de colonnes pivotales de la matrice R).
α1 x1 + · · · + αp xp = 0 =⇒ α1 = · · · = αp = 0.
Autrement dit, une famille de vecteurs est libre si la seule manière d’écrire une combinaison linéaire nulle de ces
vecteurs est de prendre tous les coefficients égaux à 0. Il revient au même de dire qu’aucun des vecteurs de la
famille ne peut s’écrire comme combinaison linéaire des autres vecteurs de la famille.
Exemples
1) Les vecteurs colonnes Ei ∈ Mn,1 (K) (composés de 0 à l’exception d’un 1 sur la ième ligne) sont linéairement
indépendants dans Mn,1 (K).
2) Les matrices élémentaires Ei,j ∈ Mn,p (K) forment une famille libre de Mn,p (K).
3) La famille {X i }0≤i≤n est libre dans l’ensemble des polynômes de degré ≤ n.
Proposition 4.21 Soit A ∈ Mn,p (K). Alors les vecteurs colonnes de A forment une famille libre si et seulement
si Ker(A) = 0.
x1
..
Démonstration : Pour tout X = . dans Mp,1 (K), on a X ∈ Ker(A) ssi AX = 0 ssi x1 c1 (A) + · · · +
xp
xp cp (A) = 0. Donc Ker(A) = {0} ssi la seule combinaison linéaire de c1 (A), . . . , cp (A) égale à 0 est celle où
tous les coefficients sont nuls, autrement dit ssi les vecteurs colonnes c1 (A), . . . , cp (A) sont indépendants.
Proposition 4.22 Soit A ∈ Mn,p (K) une matrice échelonnée non nulle. Alors les colonnes pivotales de A forment
une famille libre.
Démonstration : Soit 1 ≤ r ≤ n le nombre de lignes non nulles de A. Pour 1 ≤ i ≤ r, on note ji l’indice de la
colonne qui contient le premier terme non nul de la ligne i. Par le point 2. de la définition
d’une matrice échelonnée,
a1,ji
..
.
ai,ji
j1 < · · · < jr . Pour 1 ≤ i ≤ r, la colonne d’indice ji est de la forme cji (A) = avec ai,ji 6= 0. Soient
0
..
.
0
α1 , . . . , αr ∈ K tels que le vecteur colonne X := α1 cj1 (A) + · · · + αr cjr (A) soit nul. La ligne r de X est αr ar,jr .
Donc αr = 0. On montre de même (par récurrence) que αr−1 = · · · = α1 = 0. Donc la famille des colonnes
pivotales est libre.
Démonstration : Il existe E ∈ GLn (K) telle que R := EA soit totalement échelonnée. On a vu à la proposition
4.12 que Ker(A) = Ker(R).
Maintenant, on note r le nombre de colonnes pivotales (ou rang) de R et J = (j1 , . . . , jr ) les indices des colonnes
pivotales, J ′ les indices des colonnes non pivotales. On note également Ej ∈ Mp,1 (K) le vecteur colonne (qui a
donc p lignes) dont tous les coefficients sont nuls sauf le j ème qui est égal à 1. On note enfin Ri,j les coefficients
de R.
Etape 1 - Construction de la famille des solutions spéciales (Sj )j∈J ′ . On reproduit ici dans le cas général la
construction effectuée dans les exemples 4.13, 4.14 et 4.16. Pour chaque colonne non pivotale j ∈ J ′ , on va
construire une solution spéciale Sj du système linéaire homogène AX = 0. Soit donc j ∈ J ′ .
1. Considérons d’abord le cas où j < j1 ; comme la matrice est totalement échelonnée, et que j1 est la première
colonne pivotale, la colonne cj (A) est donc nulle. En posant Sj = Ej , on obtient : ASj = cj (A) = 0.
2. Supposons maintenant que j est tel qu’il existe 1 ≤ i ≤ r − 1 tel que ji < j < ji+1 ; alors on sait que cj (R)
peut s’écrire comme combinaison linéaire des colonnes pivotales précédentes : cj (R) = R1,j cj1 (R) + · · · +
Ri,j cji (R). On définit Sj = −R1,j Ej1 + · · · − Ri,j Eji + Ej . Alors
RSj = −a1,j cj1 (R) − · · · − ai,j cji (R) + cj (R) = 0.
3. Enfin, si j > jr , on définit Sj = −R1,j Ej1 − · · · − Rr,j Ejr + Ej et on vérifie de même que RSj = 0.
Etape 2 - La famille des solutions spéciales (Sj )j∈J ′ est libre. Comme Ker(A) = Ker(R), la famille (Sj )j ∈J / est
une famille de vecteurs de Ker(A). Montrons que la famille {S1 , . . . , Sp } est libre. Soient αj ∈ K, j ∈ J ′ tels que
X
αj Sj = 0.
j∈J ′
Fixons i ∈ J ′ . La ligne i de Si est 1 alors que pour tout j 6= i, la ligne i de Sj est 0. On obtient donc en calculant
la ligne i dans l’égalité précédente que αi = 0. Comme cela est vrai pour tout i, on a bien montré que la famille
(Si )i∈J ′ est libre.
Etape 3 - La famille des solutions spéciales (Sj )j∈J ′ engendre KerA. Montrons que la famille {S1 , . . . , Sp } vérifie
la condition (1). Soit X ∈ Mp,1 (K). On va d’abord montrer qu’il existe α1 , . . . , αp ∈ K tels que
X X
X= αj Sj + αj Ej (4.2.2)
j∈J ′ j∈J
x1
.. Pp P
En effet, notons X = . = j=1 xj Ej . Pour chaque j ∈ J ′ , Sj est de la forme Ej + l∈J βl El . Donc il
xp
existe des nombres γj pour j ∈ J tels que
X X X
xj Sj = xj Ej + γj Ej .
j∈J ′ j∈J ′ j∈J
On en déduit que
p
X X X X X X
X= xj Ej = xj Ej + xj Ej = ( xj Sj − γj Ej ) + xj Ej
j=1 j∈J ′ j∈J j∈J ′ j∈J j∈J
4.2.5 Exercices
Résolution de systèmes linéaires homogènes et noyau
Exercice 86 (Solutions spéciales et noyau) Pour les trois matrices suivantes,
0 0 0 0
2 4
A = 0 0 0 0 B= C= B B
1 2
0 0 0 0
Exercice 88 (Résolution de systèmes homogènes) Résoudre les systèmes linéaires suivants, en procédant de la
même façon que dans l’exercice 87 :
x − z = 0
2x + y − z = 0
y + 2z − w = 0
4x − y = 0
x + 2y + 3z − w = 0
x − y + z = 0
y + w = 0 a − b + 3c + d − e = 0
3x − 2y + 3z + w = 0 2a − b + c + d + e = 0
−y − w = 0
Exercice 89 (Noyau et matrice totalement échelonnée) Construire la matrice totalement échelonnée R des ma-
trices suivantes, donc on connaı̂t les dimensions et le noyau.
1. A ∈ M3 (R), Ker(A) = {0}
1
2. A ∈ M3 (R), Ker(A) = {t 2 , t ∈ R}
3
3. A ∈ M3 (R), Ker(A) = {x = (x1 , x2 , x3 ) ∈ R3 ; x1 + x2 + x3 = 0}
4. A ∈ M3,5 (R), Ker(A) = {x = (x1 , x2 , x3 , x4 , x5 ) ∈ R5 ; x1 + x2 + x3 + x4 + x5 = 0}
1 0
5. A ∈ M4,3 (R), Ker(A) = {λ 1 + µ 0 , λ, µ ∈ R}
0 1
Exercice 90 (Construction de matrices) Construire une matrice dont le noyau contient le vecteur de compo-
santes (1, 2, 0) et l’image les vecteurs de composantes (1, 0, 1) et (0, 0, 1)
a1,1 a1,2 . . . a1,p
a2,1 a2,2 . . . a2,p
On met le système sous forme matricielle : Ax = b, avec A = , A ∈ Mn,p (K).
···
an,1 an,2 . . . an,p
Rappelons que résoudre Ax = b revient également à demander que b soit une combinaison linéaire des colonnes
de A ; en effet, le produit Ax s’écrit aussi x1 c1 (A) + x2 c2 (A) + · · · + xp cp (A) où ci (A) désigne la i-ème colonne
de A.
Donc le système Ax = b admet une solution si et seulement si le second membre b est dans Im(A).
1 0 1 0 1 0
x1
Exemple 4.24 Soit A = 2 1 . Alors Ax = 2 1 = x1 2 + x2 1 .
x2
3 2 3 2 3 2
3
Donc Im(A) est un plan dans R . Pour un b quelconque, il n’y pas de raison qu’il y ait une solution au système
Ax = b, sauf si b est dans le plan Im(A). Par contre si b = 0, alors il y a une solution, car 0 ∈ Im(A) car
(rappel) A0 = 0. On rappelle d’ailleurs en passant que Im(A) est un sous-espace vectoriel et à ce titre, doit
contenir le vecteur nul.
ATTENTION : ne pas confondre Im(A) avec l’ensemble des solutions de Ax = b, Im(A) est un sous-espace
vectoriel de Rn , alors que l’ensemble des solutions de Ax = b est un sous ensemble de Rp qui n’est un sous-espace
vectoriel de Rp que si b = 0.
L’étude du noyau de la matrice nous permet d’énoncer le résultat suivant :
Proposition 4.25 (Solutions du système général Ax = b) Soit A ∈ Mn,p (R) une matrice réelle à n lignes et p
colonnes. Soit b ∈ Rn . Alors :
1. Si b ∈ Im(A), le système linéaire admet au moins une solution.
2. Si b 6∈ Im(A), le système linéaire n’admet aucune solution.
3. Si Ker(A) = {0}, toutes les colonnes sont pivotales, r = p et le système linéaire admet au plus une solution.
4. Si b ∈ Im(A) et Ker(A) = {0}, toutes les colonnes sont pivotales, r = p et le système linéaire admet une
solution unique.
5. Si b ∈ Im(A) et Ker(A) 6= {0}, le système linéaire admet une infinité de solutions.
Démonstration : Dire qu’il existe x ∈ Rp tel que Ax = b est équivalent à dire que b est une combinaison linéaire
des colonnes de A, et donc que b ∈ C(A) ou b ∈ Im(A). Ceci démontre les points 1 et 2.
Supposons que x et y sont des solutions de Ax = b. Alors A(x − y) = 0, c.à.d. x − y ∈ Ker(A) On en déduit
le point 3.
Le point 4 découle des points 1 et 3.
Supposons maintenant que b ∈ Im(A) et Ker(A) 6= {0}. Donc par le point 1, il existe xp qu’on va appeler
solution particulière, telle que Axp = b. Par hypothèse, il existe xn 6= 0 tel que Axn = 0. Il est alors facile de
voir que xp + sxn est solution de Ax = b pour tout s ∈ R.
Pour résoudre pratiquement le système Ax = b dans le cas général, on va procéder comme dans le cas où A était
inversible, c.à.d. par élimination (ou échelonnement), grâce au résultat suivant :
Proposition 4.26 Soit A ∈ Mn,p (K), E ∈ GLn (K) et b ∈ Mn,1 (K) (c.à.d. Rn dans le cas K = R). Alors x ∈
Mp,1 (K) (c.à.d. Rp dans le cas K = R)est solution du système linéaire Ax = b si et seulement si X ∈ Mp,1 (K)
est solution du système linéaire EAx = Eb.
p−r
X
S = {xp + xn , xn ∈ Ker(A)} = {xp + αk sk },
k=1
où les vecteurs sk sont les solutions spéciales du système homogène Ax = 0 construites au paragraphe précédent.
Nous allons maintenant étudier quelques exemples pour illustrer cette démarche.
Dans le cas où b est dans l’image de A, on sait qu’on a au moins une solution au système linéaire. Pour trouver
les solutions d’un système linéaire AX = b, l’idée est de chercher une solution particulière xp par l’algorithme
d’échelonnement total. Une fois cette solution calculée, on remarque ensuite que si on a une autre solution b du
même système Ax = b, alors A(x − xp ) = Ax − Axp = b − b = 0. La différence x − xp est donc dans le noyau
de A.
On obtient donc toutes les solutions du système linéaire Ax = b sous la forme xp + xn , xn ∈ Ker(A). En
particulier, il existe une unique solution lorsque Ker(A) = {0} (et b ∈ Im(A)).
Il est facile de trouver une solution particulière xp du système Ax = b à partir de sa forme totalement échelonnée :
on met toutes les variables correspondant aux colonnes non pivotales à 0, et on résout (si c’est possible) le système
des variables pivotales : on obtient ainsi une solution particulière xp .
Soit à la matrice augmentée du système, d’ordre n × (p + 1) (n lignes, p + 1 colonnes), définie par
a1,1 a1,2
b1 ... a1,p
a2,1 a2,2
b2 ... a2,p
à = A b =
···
an,1
an,2 . . . an,p bn
On effectue l’algorithme d’échelonnement total sur la matrice à = A b pour arriver à la forme totalement
échelonnée R̃ = R d .
Examinons les différents cas possibles selon les valeurs de n, p et r, où r est le rang de la matrice A (c.à.d. le
nombre de lignes non nulles de R et donc aussi de colonnes pivotales) .
1. Cas d’une matrice carrée : n = p, avec R = Idn , i.e. r = n, alors la matrice A est inversible et le système
admet une solution unique x = d.
Exemple
x1 + 2x2 = 4
3x1 + 7x2 = 13
1 2 4 1 2 4
Forme matricielle : Ax = b avec A = et b = . Matrice augmentée : Ã = . Forme
3 7 13 3 7 13
1 0 2
totalement échelonnée (exo) : R̃ =
0 1 1
On a donc R = Idn (R est la forme totalement échelonnée de A, R̃ est la forme totalement échelonnée de
Ã) et on “lit” donc une solution xp du système dans la matrice R̃ qui représente le système linéaire :
x1 = 2
x2 = 1
est inversible et que son noyau est réduit à {0}. La solution unique du système
Remarquons que la matrice
2
est donc X = xp + 0 = .
1
2. Cas d’une matrice carrée telle que R 6= Idn , r < n alors R a au moins une ligne nulle. Si toutes les
composantes de d correspondantes aux lignes nulles de R sont nulles, les équations sont compatibles et le
système admet une infinité de solutions (parce que le noyau de A n’est pas réduit à {0}). S’il existe une
composante de d non nulle et qui correspond à une ligne nulle de R, alors le système n’a pas de solution
(parce que d 6∈ Im(A)).
Exemple
x1 + 2x3 = b1
x1 + x3 = b2
x3 = b3
1 0 2 b1
Le système s’écrit sous forme matricielle AX = b, avec A = 1 0 1 et b = b2 . La matrice
0 0 1 b3
1 0 2 b1
augmentée du système s’écrit à = 1 0 1 b2 . L’algorithme d’échelonnement total donne :
0 0 1 b3
1 0 2 b1 1 0 2 b1 1 0 2 b1
1 0 1 b2 T21 (−1)
−→ 0 0
T32 (1)
−1 b2 − b1 −→ 0 0 −1 b2 − b1 .
0 0 1 b3 0 0 1 b3 0 0 0 b3 + b2 − b1
On “lit” alors une solution dans les deux premières lignes de la matrice totalement échelonnée qu’on
a ainsi obtenue : x1 = 2b2 − b1 , x3 = b1 − b2 . Notons que l’onpeut choisir x2 de manière arbitraire.
2b2 − b1
Si on choisit x2 = 0, on obtient une solution particulière xp = 0 du système Ax = b, à la-
b1 − b2
quelle on peut ajouter n’importe quel élément xn de Ker(A). On détermine alors la solution spéciale du
système homogène (c’est-à-dire avec second membre nul) en remarquant qu’il n’y a qu’une seule co-
écrire la combinaison linéaire 0c1 (R) + c2 (R) + 0c3 (R) =
lonne non pivotale, la deuxième, et on peut
0
0. Une solution spéciale est donc s = 1 . Le système admet une infinité de solutions, qui sont de la
0
forme :
2b2 − b1
xp + λs = λ , λ ∈ R.
b1 − b2
0
−1
1
Ker(A) = λ , λ ∈ R .
0
0
3. Cas n > p et r = p. On a dans ce cas une matrice rectangulaire “debout”, plus haute que large, et aucune
ligne nulle. Donc on n’a aucune colonne non pivotale (puisque r = p). Le noyau de la matrice est réduit à
{0}. Prenons un exemple :
1 1 b1
A = 1 0 et b = b2 .
2 3 b3
Cherchons pour quel b le système Ax = b admet une solution. L’échelonnement total de la matrice aug-
mentée s’écrit :
1 1 b1 1 1 b1 1 1 b1
T21 (−1) T31 (−2)
1 0 b2 −→ 0 −1 b2 − b1 −→ 0 −1 b2 − b1
2 3 b3 2 3 b3 0 1 b3 − 2b1
1 1 b1 1 0 b2 1 0 b2
T32 (1) T12 (1) D2 (−1)
−→ 0 −1 b2 − b1 −→ 0 −1 b2 − b1 −→ 0 1 b1 − b2
0 0 b3 − 3b1 + b2 0 0 b3 − 3b1 + b2 0 0 b3 − 3b1 + b2
1 0 1 2 1 0 1 2
La matrice augmentée du système est alors : . L’échelonnement total donne .
1 1 1 4 0 1 0 2
On lit alors dans la matrice totalement échelonnée :
est donné par le second membre (l’inconnue arbitraire est x3 ,
(a) Une solution particulière du système
2
qu’on prend égale à 0) : xp = 2 .
0
(b) Le noyau de la matrice du système s’obtient en remarquant que la troisième colonne est non
pivotale
−1
et égale à la première. On a donc comme solution spéciale du système homogène S = 0 .
1
(c) On a donc une infinité de solutions, qui sont de la forme
2 −1
x = xp + λs = 2 + λ 0 , λ ∈ R.
0 1
En résumé, il y a quatre possiblités pour les solutions d’un système linéaire, selon le rang r de la matrice :
r =n et r =p matrice carrée inversible Ax = b a une solution unique
r =n et r <p matrice rectangulaire “couchée” Ax = b a une infinité de solutions
r <n et r =p matrice rectangulaire “debout” Ax = b a 0 ou 1 solution (unique)
r <n et r <p matrice quelconque Ax = b a 0 ou une infinité de solutions
Démonstration : Par la proposition 4.23, A n’a pas de colonne non pivotale. Donc l’ensemble des indices Jdes
0
..
.
0
colonnes pivotales est J = (1, . . . , n) (autrement dit, ji = i pour tout i). De plus, on a (voir (4.2.1)) cj (A) =
1
0
.
..
0
où le 1 est sur la j ème ligne. Donc A = Idn .
Démonstration : Supposons A inversible. Montrons que Ker(A) = {0}. Soit X ∈ Ker(A). Alors AX = 0, donc
A−1 AX = 0, d’où X = 0.
Montrons qu’on a aussi Im(A) = Mn,1 (K). Notons B l’inverse de A. Soit Y ∈ Mn,1 (K). Alors Y = A(BY )
ce qui montre que Y ∈ Im(A). Donc Im(A) = Mn,1 (K).
Supposons maintenant que Ker(A) = {0} et montrons que A est inversible. Soit E ∈ GLn (K) telle que EA soit
totalement échelonnée. Comme Ker(E) = {0} (car E est inversible), on a Ker(EA) = Ker(A) = {0}. On en
déduit par le Lemme 4.28 que EA = Idn , donc A = E −1 EA = E −1 est inversible.
Supposons enfin que Im(A) = Mn,1 (K) et montrons que A est inversible. Soit E ∈ GLn (K) telle que EA
soit totalement échelonnée. Comme Im(E) = Mn,1 (K) (car E est inversible), on a Im(EA) = Mn,1 (K).
Donc EA n’a pas de lignes nulles ; autrement dit, les n lignes de EA ont un premier coefficient non nul. On en
déduit, en notant comme toujours j1 < · · · < jn les indices des colonnes pivotales, que j1 = 1, . . . , jn = n
(car il y a exactement n lignes non nulles et n colonnes dans la matrice). Comme EA est totalement échelonnée,
0
..
.
0
1 où le 1 est sur la j ème ligne (voir (4.2.1) ). Donc EA = Idn , ce qui montre que A est inversible.
cj (EA) =
0
..
.
0
On déduit des deux précédents corollaires qu’une matrice carrée est inversible si et seulement si elle admet une
forme totalement échelonnée égale à l’identité.
Corollaire 4.30 Soit A ∈ GLn (K). Alors A peut s’écrire comme le produit de matrices élémentaires.
Démonstration : L’algorithme d’échelonnement total (Théorème 3.35) montre qu’il existe P produit de matrices
élémentaires telle que P A soit totalement échelonnée. Comme P A est inversible, on en déduit P A = Idn par le
Corollaire 4.28. Donc A = P −1 . On conclut par le corollaire 3.21.
4.3.3 Exercices
Exercice 92 (Ecrire une matrice et résoudre un système) Ecrire sous forme matricielle le problème suivant
Trouver deux quadruplets différents de 4 entiers a, b, c et d tels que :
Exercice 97 (Ligne Attila) Si une matrice totalement échelonnée a toute sa première ligne remplie de 1, quel est
son rang ?
2 4 6 4 b1
Exercice 98 Soit A = 2 5 7 6 et b = b2
2 3 5 2 b3
1. Echelonner la matrice augmentée A b pour la transformer en U c où U est échelonnée.
2. Trouver les conditions sur b1 , b2 et b3 pour que Ax = b ait une solution.
3. Décrire ImA (plan ? droite ? tout l’espace ?)
4. Décrire KerA. Trouver les solutions spéciales de Ax = 0.
5. Trouver une solution particulière au système Ax = b = (4, 3, 5).
6. Trouver la forme totalement échelonnée R d et y lire directement les solutions spéciales et particulière.
Exercice 100 (Solution spéciale et forme totalement échelonnée) Soit A ∈ M3,4 (R) telle que le vecteur s =
(3, 2, 1, 0) soit la seule solution spéciale du système linéaire homogène Ax = 0.
1. Quel est le rang de la matrice A ?
2. Quelle est la forme totalement échelonnée de A ?
3. Existe-t-il une solution au système Ax = b pour tout b ∈ R3 ?
Exercice 101 (Même ensemble de solutions même matrice ? ) Soient A et B des matrices telles que que les
systm̀es Ax = b et Bx = b ont le même ensemble de solutions pour tout b. Est ce que A = B ?
On s’intéresse ici à la dimension des espaces et sous espaces et aux relations entre certains sous espaces. Vous avez
déjà une idée assez claire de ce qu’on entend par 2D (deux dimensions d’espace) ou 3D (ne serait-ce que par les
jeux vidéo !) : en 2D, on est dans un plan, en 3D, on est dans l’espace. On va maintenant relier cette notion de
dimension à celle de vecteurs libres et liés (ou linéairement indépendants et linéairement dépendants). En gros, si
l’on dispose de vecteurs libres (ou linéairement indépendants) d’un espace vectoriel, cela veut dire qu’il n’y en a
pas “trop” ; si l’on dispose de vecteurs liés (ou linéairement dépendants) , cela veut dire qu’il y en a “assez”. Pas
trop ou assez pour quoi ? Pour former ce qu’on appelle une base, qui a exactement le “bon nombre” de vecteurs, et
ce bon nombre est la dimension de l’espace. Vous connaissez d’ailleurs bien la base (i, j, k) de R3 : trois vecteurs
de base pour un espace de dimension 3.
Définition 5.1 (Indépendance et dépendance linéaire) Soit E un K-espace vectoriel. Soit (e1 , . . . , en ) une fa-
mille d’éléments de E.
1. On dit que la famille (e1 , . . . , en ) est libre, ou que les vecteurs e1 , . . . , en sont linéairement indépendants,
si (α1 , . . . , αn ) ∈ Kn et α1 e1 + · · · + αn en = 0 entraı̂ne α1 = · · · = αn = 0.
2. On dit que la famille (e1 , . . . , en ) est liée si elle n’est pas libre, ou que les vecteurs e1 , . . . , en sont
linéairement dépendants s’ils ne sont pas linéairement indépendants.
Si on prend trois vecteurs dans R2 , ils sont forcément dépendants. De manière générale, si u et v ∈ E, la famille
(u, v) est liée si, et seulement si, u = 0 ou v = 0, ou il existe α ∈ K tel que v = αu : on dit aussi que u et v sont
colinéaires.
Si maintenant on prend trois vecteurs dans R3 , et si l’un d’entre eux est multiple d’un autre, alors ils sont
dépendants. Mais s’ils sont coplanaires, ils sont aussi dépendants, parce qu’on peut écrire l’un d’entre eux comme
combinaison linéaire des deux autres.
Si on prend trois vecteurs non coplanaires, la seule combinaison linéaire de ces trois vecteurs qui donne 0 est la
combinaison nulle, et donc ils sont libres.
Pour voir si une famille de p vecteurs de Rn est libre ou liée, on met chacun des vecteurs comme colonne d’une
matrice n × p, et on cherche le noyau de A, ou, de manière équivalente, on cherche à résoudre le système Ax = 0.
On a vu cela en détail au paragraphe 4.2.
73
5.1. Bases et dimension 5. Bases, dimension et sous-espaces
Dans le chapitre précédent, on a vu également que les colonnes pivotales d’une matrice échelonnée sont linéairement
indépendantes. Donc les colonnes d’une matrice échelonnée qui n’a que des colonnes pivotales sont linéairement
indépendantes. On va voir dans la suite de ce chapitre que ce résultat reste vrai pour toutes les matrices : les co-
lonnes d’une matrice A ∈ Mn,p (K) sont linéairement indépendantes lorsque toutes les colonnes d’une matrice
échelonnée à partir de A sont pivotales, autrement dit lorsque p = r, (r étant le rang de la matrice, c’est-à-dire le
nombre de colonnes pivotales ou encore le nombre de lignes non nulles).
Dans le cas où p > n, alors forcément les vecteurs sont linéairement dépendants. En effet, dans ce cas le rang de
la matrice r, i.e. le nombre de lignes non nulles, est forcément inférieur strictement à p, puisque r ≤ n < p. Donc
il existe des colonnes non pivotales qui permettent de définir les solutions spéciales associées du système Ax = 0.
En particulier, le noyau de A n’est pas réduit à {0} et il existe une combinaison linéaire des colonnes qui donne 0.
La famille est liée.
Définition 5.2 (Famille génératrice) On dit que la famille (e1 , . . . , en ) est génératrice si Vect(e1 , . . . , en ) = E.
Ceci revient à dire que pour tout x ∈ E, il existe α1 , . . . , αn ∈ K tels que
n
X
x = α1 e1 + · · · + αn en = αk ek .
k=1
On a vu au chapitre précédent que les colonnes d’une matrice A engendrent l’espace des colonnes de A (c’est la
définition de C(A)), et donc engendrent l’image de A (car Im(A) = C(A)).
On définit maintenant un nouvel espace associé à la matrice A, qui est l’espace des lignes de la matrice A.
Définition 5.3 (Espace des lignes d’une matrice) Soit une matrice A d’ordre n×p. On appelle espace des lignes
de A ∈ Mn,p (K), noté L(A), le sous-espace vectoriel de Kn engendré par les vecteurs lignes de A.
Attention, l’ensemble C(A) (= Im(A)) est un sous-espace vectoriel de Rn , alors que l’ensemble L(A) (=
C(At ) = Im(At )) est un sous-espace vectoriel de Rp .
Exemple 5.4 (Espace des colonnes et espace des lignes) Cherchons C(A) et L(A) pour la matrice A ∈ M3,2 (R)
1 0
t 1 0 0
définie par A = 0 1 . La matrice transposée de A est donc A =
. L’espace C(A) = Im(A) =
0 1 0
0 0
L(At ) est un sous-espace vectoriel de R3 qui est engendré par les colonnes de A, c.à.d. les vecteurs (1, 0, 0) et
(0, 1, 0). C’est un plan de R3 .
L’espace L(A) = C(At ) = Im(At ) est un sous-espace vectoriel de R2 qui est engendré par les lignes de A, c.à.d.
les vecteurs (1, 0), (0, 1) et (0, 0). C’est R2 tout entier.
Les familles génératrices sont utiles pour décrire un espace vectoriel comme l’ensemble des combinaisons linéaires
des vecteurs de cette famille. Par exemple, le plan horizontal dans R3 est engendré par la famille {(1, 0, 0),
(0, 1, 0)}. En fait, il est aussi engendré par la famille {(1, 0, 0), (0, 1, 0), (1, 1, 0)} ; et aussi par la famille {(1, 0, 0),
(0, 1, 0), (1, 1, 0), (2, 6, 0)}... d’où la question naturelle : peut-on trouver des familles génératrices les plus petites
possibles ? On aura alors le “bon nombre” de vecteurs qui permettent d’obtenir tous les vecteurs de l’espace par
combinaison linéaire. Pour cet exemple, on se convainc facilement qu’on a besoin au minimum de 2 vecteurs pour
engendrer le plan horizontal. Pour traiter le cas général, on utilise la notion suivante.
Définition 5.5 (Base) On dit que la famille (e1 , . . . , en ) est une base si elle libre et génératrice.
Exemple 5.6 (Base canonique de Rn ) Les vecteurs i = (1, 0) et j = (0, 1) forment une base de R2 . De même,
les vecteurs i = (1, 0, 0), j = (0, 1, 0) et k = (0, 0, 1) forment une base de R3 . Plus géneralement, on appelle
base canonique de Rn la famille de vecteurs (ei )i=1,...,n , avec ei = (0, . . . , 0, 1, 0, . . . , 0), où le 1 est placé en
i-ème position. Les vecteurs de la base canonique sont les vecteurs colonnes de la matrice identité Idn .
La base canonique est une base de Rn , mais ce n’est pas la seule ! En fait, on peut observer que
Exemple 5.7 (Base de Rn et matrice inversible) Les colonnes d’une matrice n × n forment une base de Rn si et
seulement si la matrice est inversible (exercice : voir corollaire 4.29). On voit donc que Rn a un nombre de bases
infini.
Exemple 5.8 (Base de Ker(A)) Soit A ∈ Mn,p (R). La proposition 4.23 dit exactement que les solutions spéciales
de Ax = 0 forment une famille libre et génératrice de l’espace des solutions de Ax = 0. Les solutions spéciales
sont donc une base de KerA. Comptons le nombre de vecteurs dans cette base ; soit r le rang de la matrice, c.à.d.
le nombre de lignes non nulles de la matrice R totalement échelonnée à partir de A. Le rang r est aussi le nombre
de colonnes pivotales de R. On a donc donc p − r colonnes non pivotales, p − r solutions spéciales, p − r vecteurs
de base pour Ker(A).
Dans le cas d’une matrice échelonnée, ce sont les colonnes pivotales de la matrice qui forment une base de C(A) :
Proposition 5.9 Soit A ∈ Mn,p (K) une matrice échelonnée. Alors les colonnes pivotales de A forment une base
de Im(A).
Démonstration : On se souvient (proposition 4.22) que les colonnes pivotales cj1 (A), . . . , cjr (A) forment une
famille libre. De plus (proposition 4.15), les colonnes non pivotales sont soit nulles soit combinaison linéaire
des colonnes pivotales. Donc toutes les colonnes appartiennent à Vect(cj1 (A), . . . , cjr (A)). Donc l’espace des
colonnes est égal à Vect(cj1 (A), . . . , cjr (A)). Autrement dit, {cj1 (A), . . . , cjr (A)} est une famille génératrice de
Im(A). En résumé, c’est une base de Im(A).
En fait, cette propriété est “conservée” par échelonnement, c.à.d. que les colonnes de la matrice A dont les indices
sont ceux des colonnes pivotales de sa forme échelonnée forment également une base de C(A) ou Im(A). On
démontre ce résultat grâce au petit lemme suivant, qu’on va d’ailleurs utiliser plusieurs fois par la suite.
Lemme 5.10 Soient A ∈ Mn,p (K), P ∈ GLn (K) et 1 ≤ i1 < · · · < ik ≤ p. Si (ci1 (A), . . . , cik (A))
est une famille libre, resp. génératrice, resp. une base de Im(A), alors (ci1 (P A), . . . , cik (P A)) est une famille
libre, resp. génératrice, resp. une base de Im(P A).
Démonstration : Il suffit de remarquer que ci (P A) = P ci (A) puis d’appliquer les définitions de famille libre,
génératrice, base.
Proposition 5.11 Soient A ∈ Mn,p (K) et P ∈ GLn (K) telle que P A soit échelonnée. Notons 1 ≤ i1 < · · · < ir
les indices des colonnes pivotales de P A. Alors (ci1 (A), . . . , cir (A)) est une base de Im(A).
Démonstration : Par le lemme 5.10, il suffit d’observer que (ci1 (P A), . . . , cir (P A)) est une base de Im(P A),
ce qui est le cas puisque dans une matrice échelonnée, les colonnes pivotales forment une base de l’espace des
colonnes.
L’intérêt principal de trouver une base d’un espace vectoriel est que l’on peut décrire précisément tout élément de
l’espace vectoriel grâce à la base. On écrit le vecteur comme combinaison linéaire des vecteurs de la base. Cette
combinaison linéaire donne les composantes du vecteur dans la base, de manière unique, comme on le montre
maintenant.
Proposition 5.12 (Composantes d’un vecteur dans une base) Soient E un K-espace vectoriel et B = (e1 , . . . ,
en ) une base de E. Pour tout x ∈ E, il existe un unique n−uplet (α1 , . . . , αn ) ∈ Kn appelé les composantes de
x dans la base B tel que
Xn
x = α1 e1 + · · · + αn en = αk ek .
k=1
On a
n
X
(α1 − β1 )e1 + · · · + (αn − βn )en = (αk − βk )ek = 0.
k=1
Or la famille (e1 , . . . , en ) est libre. Donc αk − βk = 0 pour tout k = 1, . . . , n. On en déduit l’unicité du n−uplet
α.
Remarque 5.13 (Famille génératrice et espace engendré) Par définition, toute famille (f i )1≤i≤p de vecteurs
est une famille génératrice de l’espace vectoriel engendré Vect(f 1 , . . . , f p ) (qui est l’ensemble des combinai-
sons linéaires de f 1 , . . . , f p ). C’est une base de Vect(f 1 , . . . , f p ) si et seulement si la famille est libre.
Soit (u1 , . . . , un ) une base de Rn , et v 1 , . . . , v p p vecteurs de Rn . Puisque (u1 , . . . , un ) est une base, on peut
écrire chaque vecteur v i comme combinaison linéaire des vecteurs ui :
n
X
vj = ak,j uj ou encore V = v 1 . . . v p = u1 . . . un A = U A.
k=1
Définition 5.14 (Matrice d’une famille de vecteurs dans une base) Soit (e1 , . . . , en ) une base d’un K-espace
vectoriel E.
– Soient f 1 , . . . , f p p éléments de E. La matrice A ∈ Mn,p (K) de la famille (f 1 , . . . , f p ) dans la base
(e1 , . . . , en ) est la matrice dont la i P
ème colonne est constituée des coordonnées du vecteur f i dans la base
n
(e1 , . . . , en ). Explicitement, si f j = k=1 ak,j ei pour tout 1 ≤ j ≤ p, alors A = (ak,j ).
– Réciproquement, si on se donne une matrice A ∈ Mn,p (K), on peut lui associer une famille de vecteurs
(f 1 , . . . f p ) dont les composantes dans la base (e1 , . . . , en ) sont les vecteurs colonnes de la matrice A.
Exemple 5.15 (Matrice d’une familles de polynômes) Considérons l’espace vectoriel des polynômes de degré
≤ 3. La famille {1, X, X 2, X 3 } en est une base. Soient P (X) = X 3 + 2X − 1, Q(X) = X 2 − 1 et R =
3X 3 + 2X 2 + X + 1. Alors la matrice A associée à la famille {P, Q, R} dans la base {1, X, X 2, X 3 } est
−1 −1 1
2 0 1
A :=
0
.
1 2
1 0 3
La proposition suivante est très importante en pratique : supposons donnée une famille de vecteurs. On se demande
si elle est libre ou génératrice. On est ramené à la détermination du noyau ou de l’image d’une matrice construite
à partir de cette famille de vecteurs :
Proposition 5.16 Soit (e1 , . . . , en ) une base d’un K-espace vectoriel E. Soient f 1 , . . . , f p p éléments de E et
A ∈ Mn,p (K) la matrice de la famille (f 1 , . . . , f p ) dans la base (e1 , . . . , en ). Alors
1. la famille (f 1 , . . . , f p ) est libre ssi Ker(A) = {0} ssi (c1 (A), · · · , cp (A)) est libre.
2. la famille (f 1 , . . . , f p ) est génératrice ssi Im(A) = Kn ssi (c1 (A), · · · , cp (A)) est génératrice de Kn .
Démonstration : Pour le point 1., le fait que la famille des vecteurs colonnes (c1 (A), . . . , cp (A)) est libre ssi
Ker(A) = {0} résulte de la proposition P voir que (cP
4.21. Il reste donc à P 1 (A), . . . , cp (A)) est P P(f 1 , . . . , f p )
libre ssi
est libre. Soit (α1 , . . . , αp ) ∈ Kp . Alors pj=1 αj fj = 0 ⇔ pj=1 αj ( ni=1 ai,j ei ) = 0 ⇔ ni=1 ( pj=1 αj ai,j )ei =
Pp Pp
0 ⇔ pour tout 1 ≤ i ≤ n, j=1 αj ai,j = 0 (car la famille (ei ) est libre) ⇔ j=1 αj cj (A) = 0. Ainsi,
(c1 (A), . . . , cp (A)) est libre ssi (f 1 , . . . , f p ) est libre.
Montrons le point 2. On a vu au chapitre précédent que Im(A) est l’ensemble des combinaisons linéaires des
y1
c1 (A), . . . , cp (A). Donc Im(A) = Kn ssi la famille (c1 (A), . . . , cp (A)) est génératrice de Kn . Soit Y := ...
yn
Pp
dans Kn et y = y1 e1 + · · · + yn en ∈ E. Alors il existe (α1 , . . . , αp ) ∈ Kp tel que y = j=1 αj fj ⇔ y =
Pp Pn Pn Pp Pp
j=1 αj ( i=1 ai,j ei ) ⇔ i=1 ( j=1 αj ai,j )ei = y ⇔ pour tout 1 ≤ i ≤ n, yi = j=1 αj ai,j ⇔ Y =
Pp n
α
j=1 j j c (A). Donc (c 1 (A), . . . , c p (A)) est génératrice dans K ssi (f 1 , . . . , f p ) est génératrice dans E. Le
point 2. est démontré.
Ainsi, pour savoir si la famille (P, Q, R) donnée dans l’exemple précédant la proposition est libre ou génératrice, on
calcule le noyau et l’image de la matrice A, par exemple en l’échelonnant. Ici, on trouve (exercice) que le noyau
est nul donc les colonnes de la matrice sont linéairement indépendantes, donc la famille (P, Q, R) est libre. En
revanche, l’image de la matrice n’est pas tout R4 (par exemple, (1, 0, 0, 0) n’ y est pas). Donc la famille (P, Q, R)
n’est pas génératrice de l’ensemble des polynômes de degré ≤ 3 (les polynômes constants ne peuvent s’écrire
comme combinaison linéaire de P, Q et R).
Théorème 5.19 (Dimension et bases) Soit E un K-espace vectoriel de dimension finie. Toutes les bases ont même
nombre d’éléments. Ce nombre est appelé dimension de l’espace vectoriel E.
Exemples :
– Kn est un K-espace vectoriel de dimension n (penser à la base canonique !).
1 0
– L’espace M2 (R) est un R-espace vectoriel de dimension 4 dont une base est formée des matrices E11 = ,
0 0
0 1 0 0 0 0
E12 = , E21 = , E22 = . Cette base (E11 , E12 , E21 , E22 ) est appelée base canonique.
0 0 1 0 0 1
– Kn [X] est l’espace des polynômes de degré ≤ n. Une base est formée par les polynômes 1, X, . . . , X n . La
dimension de Kn [X] est donc n + 1.
Remarque 5.20 Un sous espace vectoriel d’un K-espace vectoriel est un K-espace vectoriel. On peut donc parler
de dimension d’un sous espace vectoriel.
Démonstration : Toutes les familles libres de F ont un cardinal ≤ n, d’après le corollaire précédent. Soit p le
nombre maximal d’éléments que peut contenir une famille libre de F. On a donc p ≤ n et en particulier, toute
famille de F qui a p+1 éléments est nécessairement liée. Soit (f 1 , . . . , f p ) une famille libre de F à p éléments. On
va montrer qu’elle est génératrice de F , c’est-à-dire que tout élément de F est combinaison linéaire de f 1 , . . . , f p .
Soit x ∈ F et considérons la famille (f 1 , . . . , f p , x). Elle est liée car elle a p + 1 éléments. Donc il existe
λ1 , . . . , λp , µ non tous nuls tels que
λ1 f 1 + . . . + λp f p + µx = 0.
P
Nécessairement µ 6= 0 car sinon i λi f i = 0 avec les λi non tous nuls, ce qui contredit que la famille
(f 1 , . . . , f p ) est libre. On peut donc écrire
−1
x= (λ1 f 1 + . . . + λp f p ).
µ
Donc la famille (f 1 , . . . , f p ) est génératrice. Comme elle est libre, c’est donc une base de F. Donc F est de
dimension finie p, avec p ≤ n. Si p = n, alors (f 1 , . . . , f n ) est une famille libre de E qui a n éléments, donc est
une base de E par le corollaire précédent. Donc tout élément de E peut s’écrire comme combinaison linéaire des
f i qui sont des éléments de F. Donc tout élément de E est dans F. Donc E = F.
Remarque 5.28 Le rang de la famille (f 1 , . . . , f p ) est au plus égal à p (car (f 1 , . . . , f p ) est une famille génératrice
de Vect(f 1 , . . . , f p )). Une famille de p vecteurs est libre si le rang de cette famille est égal à p.
Comment déterminer en pratique le rang d’une famille de vecteurs ? Si on connaı̂t les coordonnées de ces vecteurs
dans une base, il suffit d’écrire la matrice de cette famille de vecteurs dans cette base, et de calculer le rang de cette
matrice en l’échelonnant. C’est ce que dit la proposition suivante :
Proposition 5.29 Soit B une base de E. Le rang de la famille (f 1 , . . . , f p ) est égal au rang de la matrice des
composantes des vecteurs f i dans la base B.
Démonstration : On rappelle (proposition 5.16) qu’une famille de vecteurs est libre ssi les colonnes de la matrice
de cette famille dans une base sont linéairement indépendantes.
On note Xi le vecteur colonne des composantes de f i dans la base B et A la matrice [X1 . . . Xp ]. Soit r le
rang de A. Il existe 1 ≤ j1 < · · · < jr ≤ p tels que Xj1 , . . . , Xjr soit une base de Im(A). En particulier,
c’est une famille libre. Alors les vecteurs (f j1 , . . . , f jr ) forment une famille libre. Soit j ∈ / {j1 , . . . , jr }. Alors
(Xj1 , . . . , Xjr , Xj ) n’est pas libre, donc les vecteurs (f j1 , . . . , f jr , f j ) forment une famille liée. On en déduit
que f j ∈ Vect(f j1 , . . . , f jr ) et finalement que (f j1 , . . . , f jr ) est génératrice. Donc (f j1 , . . . , f jr ) est une base
de Vect(f 1 , . . . , f p ) et finalement rg(X1 , . . . , Xp ) = rg(f 1 , . . . , f p ).
La preuve précédente donne en plus un moyen de trouver une base de Vect(f 1 , . . . , f p ). On écrit la matrice A de
{f 1 , . . . , f p } dans une base. On l’échelonne. On repère les indices des colonnes pivotales j1 < · · · < jr . Alors la
famille {f j1 , . . . , f jr } est une base de Vect(f 1 , . . . , f p ).
Proposition 5.30 Le rang de A ∈ Mn,p (K) est égal au rang de At ∈ Mp,n (K). Le rang de A est aussi égal à la
dimension de l’espace vectoriel L(A) engendré par les vecteurs lignes de A.
Démonstration : On peut supposer que A est totalement échelonnée. En effet, si A n’est pas totalement échelonnée,
soit P ∈ Mn (K) telle que P A soit totalement échelonnée. Alors rg(P A) = rg(A) et rg(At P t ) = rg(At ). On
suppose donc désormais A totalement échelonnée.
Montrons que la famille des lignes non nulles de A forment une base de l’ensemble des vecteurs lignes de A.
Notons r le nombre de lignes non nulles de A et 1 ≤ j1 < · · · < jr ≤ p les indices des colonnes pivotales. Alors
pour k ∈ {1, . . . , r}, la k-ième ligne ℓk (A) est de la forme ℓk (A) = 0 · · · 0 1 ∗ · · · ∗ où le 1 est
placé sur la colonne jk . De plus, les nombres à droite du 1 sont nuls lorsqu’ils sont sur une colonne pivotale (car
la matrice est totalement échelonnée). Soient α1 , . . . , αr ∈ K tels que α1 ℓ1 (A) + · · · + αr ℓr (A) = 0. Montrons
que α1 = · · · = αr = 0. Le vecteur ligne α1 ℓ1 (A) + · · · + αr ℓr (A) a dans sa colonne d’indice j1 le nombre α1 ,
dans sa colonne d’indice j2 le nombre α2 , etc. . . Donc on a bien α1 = · · · = αr = 0.
Comme les lignes non nulles de A donnent par transposition une base des colonnes de At , r = rg(At ). Mais r est
aussi le nombre de colonnes pivotales de A, et donc r = rg(A). Donc rg(A) = rg(At ).
5.1.5 Exercices
Exercice 102 Les familles de vecteurs suivantes sont-elles libres ou liées ?
1. {(1, 1), (1, −1), (0, 1)} dans R2 .
2. {(1, 1), (1, 3)} dans R2 .
3. {(1, 2, −1), (−2, 1, 1), (1, −1, 2)} dans R3 .
4. {(1, 2, −1), (−2, 1, 1)} dans R3 .
5. {0, u1 , . . . un }, ui ∈ Rn .
6. {u1 , u1 , . . . un }, ui ∈ Rn .
7. {e1 , . . . en } avec ei les vecteurs canoniques de Rn .
v 1 = u1 + u2
v 2 = u1 + 2u2 + u3
v 3 = u2 + αu3
Exercice 104 Trouver le plus grand nombre possible de vecteurs linéairement indépendants parmi les vecteurs
suivants :
1 1 1 0 0 0
−1 0 0 1 1
u6 = 0
u1 =
0 −1 u3 = 0
u2 =
−1 u5 = 0
u4 =
1
0 0 −1 0 −1 −1
Exercice 106 Dans R3 vérifier que les vecteurs {a, b, c} forment une base :
1. a = (2, 1, −3), b = (3, 2, −5), c = (1, −1, 1)
2. a = (1, 1, 1), b = (1, 1, 2), c = (1, 2, 3)
Exprimer les vecteurs (6, 2, −7) et (6, 9, 14) dans ces bases.
Exercice 107 Dans l’espace vectoriel R3 , les vecteurs suivants constituent-ils une base ? (On pourra utiliser la
méthode de l’échelonnement)
1. u1 = (1, −1, 0), u2 = (1, 0, 1), u3 = (1, 2, 3).
2. u1 = (1, 0, −1), u2 = (0, 1, 0), u3 = (1, 1, 0).
3. u1 = (1, 2, 3), u2 = (2, 3, 1), u3 = (0, 0, 0).
4. u1 = (1, 0, 0), u2 = (1, 1, 0), u3 = (1, 1, 1).
5. u1 = (1, 1, −1), u2 = (1, −1, 1), u3 = (−1, 1, 1).
Exercice 108 Montrer que si (u1 , . . . , un ) est une base de Rn et A est une matrice inversible, alors (Au1 , . . . , Aun )
est aussi une base Rn .
forment une base de R4 . Dans cette base, calculer les composantes des vecteurs
Exercice 111 Quel est le rang des systèmes de vecteurs suivants ? (On pourra utiliser la méthode de l’échelonnement).
Dire si les vecteurs sont linéairement indépendants et s’ils forment une base.
1. u1 = (1, 0, 1), u2 = (1, 1, 0), u3 = (0, 1, 1).
2. u1 = (1, 0, 0, 1), u2 = (1, 1, 0, 0), u3 = (0, 1, 1, 0), u4 = (0, 0, 1, 1).
3. u1 = (1, 1, 0, 1), u2 = (−1, 1, 1, 0), u3 = (0, −1, 1, 1), u4 = (1, 1, 1, 0).
4. u1 = (1, −1, 0, 1), u2 = (1, 1, −1, 1), u3 = (0, 1, 1, 1), u4 = (1, 0, 1, 0).
5. u1 = (1, 0, 0, 2, 5), u2 = (0, 1, 0, 3, 4), u3 = (0, 0, 1, 4, 7), u4 = (2, −3, 4, 11, 12).
Exercice 112 Déterminer la dimension des sous-espaces vectoriels engendrés par chacune des 4 familles de vec-
teurs ci-dessous. Donnez en une base et exprimer les coordonnées de chacun des vecteurs de la famille dans la
base trouvée.
1. la famille {u1 , u2 , u3 , u4 , u5 } avec :
1 2 3 4 5
2 3 4 5 6
u1 = , u2 = , u3 =
5 ,
u4 =
6 ,
u5 =
7 ,
3 4
4 5 6 7 8
2. la famille {v 1 , v 2 , v 3 , v 4 } avec :
1 1 0 1
3 2 −1 0
v1 = 0 ,
3 ,
v2 =
0 ,
v3 = v4 = ,
0
−1 0 −4 −13
3 −1 5 1 0
4. la famille {z 1 , z 2 , z 3 , z 4 } avec :
1 1 −1 2
8 1 1 1
z1 = 1 , z 2 = −1
,
z3 =
3 ,
−3 .
z4 =
4 2 0 8
Exercice 114 (Familles de fonctions) Soit E l’espace vectoriel des fonctions de R dans R . Dire parmi les fa-
milles suivantes celles qui sont libres et celles qui sont liées. Ici les vecteurs (au sens éléments d’un espace vecto-
riel) sont donc des fonctions...
1. {f, g, h}, avec f (x) = 2, g(x) = 4 sin2 (x), h(x) = cos2 (x)
2. {f, g, h}, avec f (x) = 1, g(x) = sin(x),h(x) = sin(2x).
3. {f, g}, avec f (x) = x , g(x) = cos(x).
4. {f, g, h, k}, avec f (x) = (1 + x)2 , g(x) = x2 + 2x, h(x) = 3 et k(x) = x.
5. {f, g, h}, avec f (x) = cos(2x) , g(x) = sin2 (x) ; h(x) = cos2 (x).
6. {f, g, h}, avec f (x) = 0 , g(x) = x, h(x) = x2 .
Exercice 115 (Sous espaces vectoriels et bases) Soient E un espace vectoriel, F et G des sous espaces vecto-
riels.
1. Montrer que F ∩ G est un sous espace vectoriel de E.
2. On prend ici E = R3 , F = Vect (u, v) et G = Vect (w, z) avec :
1 1 0 0
u = 1 , v = 1 , w = 1 , etz = 1 .
0 1 0 1
(a) Trouver des bases de F et G.
(b) Déterminer le sous espace F ∩ G et en donner une base.
1 2
3. On prend toujours E = R3 , F = Vect (u, v) et G = Vect (w, z) mais avec : u = 0 , v = 0 ,
0 0
0 0
w = 1 , et z = 0 .
1 1
(a) Trouver des bases de F et G
(b) Déterminer le sous espace F ∩ G. Ce sous espace admet-il une base ?
Exercice 116 (Sous espace vectoriel de polynômes) Soit E l’ensemble des polynômes réels de degré inférieur
ou égal à 4. On a montré dans l’exercice 75 que E est un espace vectoriel.
1. Donner une base de E.
Soit F l’ensemble des polynômes admettant les racines x = a et x = b 6= a. On a montré dans l’exercice 75 que
F est un sous espace vectoriel de E.
2. Donner une base de E.
3. Etudier le cas a = b.
Exercice 117 Quelle partie du plan décrivent les points (x, y) ∈ R2 tels que les vecteurs (1, 1 + x) et (1 − x, y)
forment une base de l’espace vectoriel R2 ?
Exercice 118 Soit E un espace vectoriel et P, P ′ deux familles finies de E. On suppose que P ′ ⊂ P.
Montrez que si P est libre alors P ′ est libre. Montrer que si P ′ est génératrice alors P est génératrice.
Peut-on avoir une réciproque ? Donner une démonstration ou un contre exemple.
Exercice 119 Proposer une preuve du théorème 5.22 inspirée de celle du théorème 5.18.
y ′′ (t) = y(t), t ∈ R+
y(0) = 0, y ′ (0) = 0.
y ′′ (t) = y(t), t ∈ R+
y(0) = a, y ′ (0) = b.
y ′′ (t) = y(t) + 1, t ∈ R+
y(0) = 1, y ′ (0) = 1.
Exercice 121 (Sous espace de matrices) 1. Quelle est la dimension de l’espace vectoriel M3 (R) ?
2. Donner les six matrices de permutation de M3 (R) .
3. Montrer que Id3 est une combinaison linéaire des cinq autres matrices de permutation, qu’on note P1 , . . . , P5 .
3. Montrer que {P1 , . . . , P5 } est une famille libre de l’espace vectoriel M3 (R).
4. Montrer que {P1 , . . . , P5 } engendre le sous-espace S des matrices dont toutes les sommes de coefficients par
ligne et colonne sont égales.
5. En déduire la dimension de S.
Exercice 122 (Intersection de deux sous espaces) Soient E et F deux sous espaces vectoriels de Rn . On suppose
que dim(E) + dim(F ) > n. Montrer que E ∩ F n’est pas réduit au vecteur nul.
1. En analyse, un problème de Cauchy est un problème constitué d’une équation différentielle avec condition initiale.
Augustin Louis Cauchy, mathématicien français 1789–1857. On lui doit en particulier la notion de fonction holomorphe et des critères de
convergence des suites et des séries entières. Ses travaux sur les permutations furent précurseurs de la théorie des groupes. Il a également
travaillé sur la propagation des ondes électromagnétiques.
Définition 5.32 (Somme de sous espaces vectoriels) Soient F et G deux sous espaces vectoriels d’un K-espace
vectoriel E. On note
Proposition 5.33 (Famille génératrice de F + G) Soient F et G deux sous espaces vectoriels d’un K-espace
vectoriel E. Si (f 1 , . . . , f p ) est une famille génératrice de F et (g 1 , . . . , g q ) est une famille génératrice de G
alors la famille (f 1 , . . . , f p , g 1 , . . . , g q ) est une famille génératrice de H = F + G.
x = α1 f 1 + · · · + αp f p et y = β1 g 1 + · · · + βq g q .
Définition 5.34 (Somme directe) Soient F et G deux sous espaces vectoriels d’un K-espace vectoriel E. On dit
que F et G sont en somme directe si F ∩ G = {0}.
Définition 5.35 (Sous-espaces supplémentaires) Soient F et G deux sous espaces vectoriels d’un K-espace vec-
toriel E. On dit que F et G sont supplémentaires dans E, et on note E = F ⊕ G, si E = F + G et si F et G sont
en somme directe.
Proposition 5.36 (Première CNS pour les sous-espaces supplémentaires) Soient F et G deux sous espaces
vectoriels d’un K-espace vectoriel E. Les espaces F et G sont supplémentaires si et seulement si tout vecteur
x ∈ E s’écrit de façon unique comme somme d’un vecteur de F et d’un vecteur de G.
Démonstration : Supposons que tout vecteur x ∈ E s’écrit de façon unique comme somme d’un vecteur de F
et d’un vecteur de G et montrons que F et G sont supplémentaires. On a bien E = F + G. De plus, supposons
par l’absurde qu’il existe z ∈ F ∩ G 6= {0E }. Alors on peut écrire z de deux façons différentes z = |{z}
z + 0E
|{z}
∈F ∈G
Proposition 5.37 (Sous espaces supplémentaires et dimension) Soient F et G deux sous espaces vectoriels
supplémentaires d’un K-espace vectoriel E de dimension finie. On a
α1 f 1 + · · · + αn f n + β1 g 1 + · · · + βp g p = 0E .
Par conséquent,
α1 f + · · · + αn f n = −β1 g 1 − · · · − βp g p ∈ F ∩ G = {0E }.
| 1 {z } | {z }
∈F ∈G
Par suite
α1 f 1 + · · · + αn f n = 0E et β1 g 1 + · · · + βp g p = 0E .
Comme (f 1 , . . . , f n ) est une base de F et (g 1 , . . . , g p ) est une base de G, ce sont des familles libres et par
conséquent,
α1 = · · · = αn = β1 = · · · = βp = 0.
On conclut que dim(E) = n + p = dim(F ) + dim(G).
Proposition 5.38 (Existence d’un supplémentaire) Soit E un K-espace vectoriel de dimension finie et F un
sous-espace vectoriel de E. Alors il existe un sous-espace vectoriel G de E tel que F et G soient supplémentaires.
Proposition 5.39 (Sous espaces et dimension) Soient F et G deux sous espaces vectoriels d’un K-espace vecto-
riel E. On a
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
F + G = F1 ⊕ G1 ⊕ (F ∩ G).
Par conséquent,
dim(F + G) = dim(F1 ) + dim(G1 ) + dim(F ∩ G)
= (dim(F ) − dim(F ∩ G)) + (dim(G) − dim(F ∩ G)) + dim(F ∩ G) = dim(F ) + dim(G) − dim(F ∩ G).
Proposition 5.40 (Deuxième CNS pour les sous espaces supplémentaires) Soient F et G des sous espaces vec-
toriels de E. Alors E = F ⊕ G si et seulement si F ∩ G = {0E } et dim F + dim G = dim E.
Démonstration : On a déjà démontré le sens direct (proposition 5.37). Il reste à démontrer la réciproque. Suppo-
sons que F ∩ G = {0E } et dim F + dim G = dim E. Il reste à voir que E = F + G. Par la proposition 5.39, on
a dim(F + G) = dim F + dim G = dim E. Donc F + G est un sous espace de E qui a même dimension que E.
Cela montre que E = F + G (voir Proposition 5.24).
Théorème 5.41 (Théorème du rang, version matricielle) Soit A ∈ Mn,p (K). Alors
dim(Ker(A)) + dim(Im(A)) = p.
Démonstration : Ce résultat est une conséquence du fait que les solutions spéciales forment une base de Ker(A),
ce qu’on a démontré à la proposition 4.23 (sans utiliser le mot “base” car à l’époque on n’avait pas introduit les
bases).
En effet, on sait que si r est le rang de A, il existe p − r solutions spéciales formant une base de Ker A. On
rappelle que les r colonnes pivotales de A forment une base de Im(A) et qu’on a dim Im(A) = r. On a donc
dim Ker A + dim Im(A) = p − r + r = p.
Définition 5.42 (Orthogonalité) On dit que deux sous espaces F et G de Rp sont orthogonaux si pour tout u ∈ F
et v ∈ G, u · v = 0.
Un vecteur x de Ker(A) est orthogonal à n’importe quelle ligne de A car Ax = 0, ce qui est équivalent à dire que
ℓi (A) · x = 0 pour i = 1, . . . , n.
Proposition 5.43 (Somme de sous espaces orthogonaux) Soient F et G de Rn des sous espaces orthogonaux de
Rp , alors ils sont en somme directe. On parle dans ce cas de somme directe orthogonale.
Théorème 5.44 (Orthogonalité de Ker(A) et Im(At )) Soit A ∈ Mn,p (R). Alors les ensembles Ker(A) et
Im(At ) sont des sous espaces vectoriels supplémentaires orthogonaux de Rp .
De plus, les ensembles Ker(At ) et Im(A) sont des sous espaces vectoriels supplémentaires orthogonaux de Rn .
Démonstration : On a déjà vu que tout vecteur x ∈ Ker(A) est orthogonal à n’importe quelle ligne de A car
Ax = 0. Donc les sous espaces Ker(A) et L(A) = Im(At ) sont orthogonaux, et leur intersection réduite à {0E }.
De plus dim Im(At ) = dim Im(A) = r, et donc par le théorème du rang, dim Ker(A) + dim Im(At ) = p. On en
déduit par la proposition 5.40 que Ker(A) et Im(At ) sont des sous espaces vectoriels supplémentaires dans Rp .
Par transposition, on obtient immédiatement que les ensembles Ker(At ) et Im(A) sont des sous espaces vectoriels
supplémentaires orthogonaux de Rn .
Les applications de ce théorème sont multiples. Pour l’instant, nous remarquerons simplement que si x ∈ Rn ,
alors x se décompose de manière unique en x = xK + xL , où xK ∈ Ker(A) et xL ∈ L(A). On a donc
Ax = AxK + AxL = AxL . Donc tout vecteur b ∈ Im(A) peut s’écrire comme AxL où xL ∈ L(A) On a
même unicité : tout vecteur b ∈ Im(A) peut s’écrire de manière unique comme AxL où xL ∈ L(A) ; en effet si
b = AxL = Ax′L , alors xL − x′L ∈ Ker(A). Or on sait que Ker(A) ∩ L(A) = {0E }. On en déduit xL − x′L = 0.
Exemple 5.45 (Exemple dans R3 ) Les équations cartésiennes d’une droite sont données par
′
a a
ax + by + cz = 0
′ ′ ′ , avec b ∧ b′ 6= 0.
ax + b y + c z = 0
c c′
Notons qu’une droite vectorielle est l’intersection de deux plans vectoriels distincts.
a b c
Les équations ci dessus peuvent être écrites sous la forme Ax = 0 avec A = ′ ′ ′ . La droite en question
a b c
est donc bien le noyau de A. Un vecteur directeur de cette droite est un vecteur qui est orthogonal aux deux lignes
de la matrice A ; il peut être obtenu en prenant par exemple le produit vectoriel
′ ′
a a bc − cb′
e = b ∧ b′ = ca′ − ac′ .
c c′ ab′ − ba′
x
Réciproquement on obtient facilement les équations cartésiennes à partir de l’équation paramétrique x = y =
z
α
λe = λ β : il suffit d’éliminer λ pour obtenir des équations cartésiennes de la droite.
γ
x ∈ F ⇔ x = λ1 f 1 + · · · + λp−1 f p−1 .
Proposition 5.47 (Droite et plan supplémentaires) Si F est un sous-espace vectoriel de Rp , alors F est un hy-
perplan si et seulement si il existe une droite D telle que F et D soient supplémentaires.
Exemple 5.48 (Le cas particulier d’un plan de R3 ) On consid ère le plan (P) dans R3 d’équation : x − 2y −
3z = 0. Ceci peut encore s’écrire Ax = 0, où A = 1 −2 −3 . Cette matrice est sous forme totalement
échelonée (on l’a fait exprès...) Les solutions spéciales de Ax = 0 sont s1 = (2, 1, 0) et s2 = (3, 0, 1). Le plan
(P) est engendré par les vecteurs s1 et s2 L’équation paramétrique du plan est donc
x 2λ1 + 3λ2
x = λ1 s1 + λ2 s2 c.à. d. y = λ1 .
z λ2
Notons que si l’on connaı̂t les vecteurs s1 et s2 qui engendrent le plan, on retrouve facilement l’équation du plan
en posant (a, b, c) = s1 ∧ s2 qui est orthogonal à s1 et s2 (le vérifier avec notre exemple).
5.2.4 Exercices
Exercice 123 (Suite de l’exercice 87 ) Soit la matrice :
1 1 2 −1
−1 0 1 0
A=
0 0 1 −1
0 1 0 1
Exercice 124 Donner un système d’équations pour caractériser la droite de R3 qui passe par 0 et qui a pour
vecteur directeur (2, −1, 4).
Même question avec le plan de R3 qui passe par 0 et qui a pour vecteurs directeurs (2, −1, 4) et (1, 2, 1).
Exercice 125 Soit F le sous-espace vectoriel de R3 engendré par les vecteurs (1, 1, 1), (1, 0, −1) et (4, 2, 0).
Quelle est la dimension de F ? Faire un dessin.
Trouver un supplémentaire de F dans R3 .
Exercice 127 Dans l’espace vectoriel R4 on considère le sous-espace vectoriel F engendré par les vecteurs f 1 =
(1, 0, 1, 0), f 2 = (1, 1, 0, 1) et f 3 = (1, 2, 0, 1). On considère aussi le sous-espace vectoriel G engendré par
g 1 = (1, 2, −1, 2), g 2 = (0, 0, 1, 0), g 3 = (1, 3, −2, 3) et g 4 = (0, 1, 0, 1). Vérifier que
Exercice 128 Déterminer si les sous-espaces vectoriels de R3 suivants sont supplémentaires, en somme directe :
F = {(x, y, z) tels que x + 2y + z = 0, x − z = 0} et G = Vect{(1, a, b)}, selon le choix de a, b ∈ R.
F = Vect{(1, 2, −1), (1, 0, 1)} et G = Vect{(0, 1, 2)}.
F = {(x, y, z) tels que x + 2y + z = 0} et G = Vect{(1, 0, −1)}.
F = {(x, y, z) tels que x + 2y + z = 0} et G = Vect{(1, 2, 1)}.
Exercice 129 Soient x, y, u, v des éléments de R4 . On note F et G les sous-espaces vectoriels engendrés respec-
tivement par {x, y} et {u, v}. Dans quels cas a-t-on F ⊕ G = R4 ?
1. x = (1, 1, 0, 0), y = (1, 0, 1, 0), u = (0, 1, 0, 1), v = (0, 0, 1, 1)
2. x = (−1, 1, 1, 0), y = (0, 1, −1, 1), u = (1, 0, 0, 0), v = (0, 0, 0, 1)
3. x = (1, 0, 0, 1), y = (0, 1, 1, 0), u = (1, 0, 1, 0), v = (0, 1, 0, 1)
Exercice 132 (Noyau de At A) Soit A ∈ Mn,p (R). Montrer que Ker(At A) = Ker(A).
Exercice 133 (Base d’un hyperplan) Soit P l’hyperplan de R4 déquation x1 + x2 + x3 + x4 = 0. Donner une
base de P et une base de la droite orthogonale à P .
Applications linéaires
On remarque tout de suite que si T est une application linéaire, alors T (0E ) = 0F ; en effet, T (0E ) = T (0K x) =
0K T (x) = 0F .
L’application (
E →E
IdE :
x 7→ x
Exemple 6.2 (Produit scalaire et norme) Soit a ∈ R2 fixé, alors l’application de R2 dans R définie par u 7→
u · a est une application linéaire. Par contre, l’application u 7→ kuk ne l’est pas.
Exemple 6.3 (Transposition) L’application de M2 (R) dans M2 (R) définie par A 7→ At est une application
linéaire.
Exemple 6.4 (Dérivation et intégration) L’application “dérivation” de C 1 ([0, 1]) dans C([0, 1]) définie par f 7→
f ′ estR une application linéaire. De même l’application “intégration” de C([0, 1]) dans C 1 ([0, 1]) définie par
x
f 7→ 0 f (y)dy est une application linéaire.
Proposition 6.5 (Propriétés de linéarité) Soient E et F deux K-espaces vectoriels et T : E → F une application
de E dans F . Alors T est une application linéaire de E dans F si et seulement si, pour tous λ, µ ∈ K, et x, y ∈ E,
T (λx + µy) = λT (x) + µT (y).
De plus, si E est de dimension finie, (e1 , . . . , en ) une base de E et T une application linéaire de E dans F ,
alors pour tout x ∈ E, on a T (x) = x1 T (e1 ) + . . . xn T (en ) où les xi sont les composantes de x dans la base
(e1 , . . . , en ).
91
6.1. Définitions et exemples 6. Applications linéaires
Proposition 6.6 (L’espace vectoriel L(E, F )) Soient E, F des K-espaces vectoriels. L’ensemble L(E, F ) est un
espace vectoriel. En particulier,
– la somme de deux applications linéaires est une application linéaire :
si S, T ∈ L(E, F ), alors S + T ∈ L(E, F ),
– Le produit d’une application linéaire par un scalaire est une application linéaire :
si T ∈ L(E, F ) et α ∈ K, alors αT ∈ L(E, F ).
Démonstration : On va montrer que L(E, F ) est un sous espace vectoriel de l’ensemble des applications de E
dans F . On remarque que l’application nulle (x ∈ E 7→ 0F ) est bien un élément de L(E, F ).
– Soient x, y ∈ E et λ, µ ∈ K et S, T ∈ L(E, F ). On a
(S+T )(λx+µy) = S(λx+µy)+T (λx+µy) = λS(x)+µS(y)+λT (x)+µT (y) = λ(S+T )(x)+µ(S+T )(y).
(αT )(λx + µy) = αT (λx + µy) = α (λT (x) + µT (y)) = λ(αT )(x) + µ(αT )(y).
Proposition 6.7 (Composée de deux applications linéaires) Soient E, F, G trois K-espaces vectoriels. La com-
posée de deux applications linéaires est une application linéaire : si S ∈ L(F, G), T ∈ L(E, F ), alors
S ◦ T ∈ L(E, G) avec S ◦ T (x) = S(T (x)), ∀x ∈ E.
Proposition 6.9 Soient E et F deux K-espaces vectoriels. Soit T une application linéaire de E dans F . L’espace
KerT est un sous-espace vectoriel de E et l’espace ImT est sous-espace vectoriel de F .
Démonstration :
– On sait que T (0E ) = 0F . Donc 0E ∈ KerT . Pour montrer que KerT est un sous-espace vectoriel de E, il reste
donc à montrer que pour tous x, y ∈ KerT , λ, µ ∈ K, on a λx + y ∈ KerT .
Donc λy 1 + µy 2 ∈ ImT .
Définition 6.10 Soit E et F deux K-espaces vectoriels. Soit T une application linéaire de E sur F . On appelle
rang de T la dimension de l’espace vectoriel Im(T ) et on le note rg(T ).
On donne maintenant le théorème du rang pour les applications linéaires. Il peut se démontrer à partir de celui
sur les matrices (voir remarque 6.18 plus loin) mais on donne ici une démonstration directe, sans passer par les
matrices.
Théorème 6.11 (Théorème du rang) Soient E, F deux K-espaces vectoriels de dimension finie et T ∈ L(E, F ),
on a
dim(E) = dim(Ker(T )) + dim(Im(T )).
Démonstration : Soient (u1 , . . . , up ) une base de ker T et (w 1 , . . . , w q ) une base de Im(T ). On veut montrer
que p + q = dim(E). Soient v 1 , . . . , v q ∈ E des antécédents de w1 , . . . , wq par T : T (v i ) = wi . Montrons que
la famille (u1 , . . . , up , v 1 , . . . , v q ) est une base de E. Si c’est le cas on aura bien montré que p + q = dim(E).
– Montrons que la famille (u1 , . . . , up , v 1 , . . . , v q ) est libre. Supposons α1 u1 +. . .+αp up +β1 v 1 +. . .+βq v q =
0E . On a alors !
X p Xq Xp Xq
T αi ui + βi v i = αi T (ui ) + βi T (v i ) = 0F ,
i=1 i=1 i=1 i=1
Mais (w 1 , . . . , wq ) est une base de Im(T ), c’est donc une famille libre. On en déduit βi = 0 pour tout i =
1, . . . , q. On écrit alors que α1 u1 + . . . + αp up = 0E , et comme la famille (u1 , . . . , up ) est libre, on a aussi
α1 = . . . = αp = 0. Conclusion : (u1 , . . . , up , v 1 , . . . , v q ) est libre.
– Montrons maintenant quePla famille (u1 , . . . , up , v 1 , . . . , v q ) est génératrice. Soit x ∈ E. Notons y = T (x) ∈
q
Im(T ). On a donc y = i=1 γi w i , où les sont les γi sont les composantes de y dans la base (w 1 , . . . , wq ).
Posons alors
Xq
xI = γi v i et xK = x − xI .
i=1
Par linéarité, on a
q
X q
X
T (xK ) = T (x) − T (xI ) = y − γi T (v i ) = y − γi w i = 0 F ,
i=1 i=1
et comme xK peut s’écrire comme combinaison linéaire des u1 , . . . , up , la famille (u1 , . . . , up , v 1 , . . . , v q ) est
génératrice.
Proposition 6.12 Soit E et F deux K-espaces vectoriels. Soit T une application linéaire de E dans F .
– L’application T est injective si et seulement si KerT = {0E }.
– L’application T est surjective si et seulement si ImT = F .
– L’application T est bijective si et seulement si KerT = {0E } et ImT = F . On parle alors d’ isomorphisme,
et d’ automorphisme si F = E.
Démonstration :
– L’application T est injective si et seulement si pour tous x, y ∈ E tels que T (x) = T (y) alors x = y, c.à.d.
si et seulement si T (x − y) = 0F implique x − y = 0E , soit encore si et seulement si T (z) = 0F implique
z = 0E , ce qui équivaut à KerT = {0E }.
– L’application T est surjective si et seulement si pour tout y ∈ F , il existe x ∈ E tel que T (x) = y, c.à.d. si et
seulement si F = ImT .
– Par conséquent, T est bijective si et seulement si KerT = {0E } et ImT = F .
6.1.3 Exercices
Exercice 134 (Applications linéaires ou non ?) 1. Déterminer parmi les applications définies de R2 → R sui-
vantes, celles qui sont linéaires :
1. Π1 (x, y) = x, Π2 (x, y) = y,
2. T1 (x, y) = xy, T2 (x, y) = x + y, T3 (x, y) = x + y + 1, T4 (x, y) = x2 − y 2 ,
3. T5 (x, y) = |x + y|, T6 (x, y) = sin x, T7 (x, y) = x − 3y.
2. Déterminer parmi les applications définies de R2 → R2 suivantes, celles qui sont linéaires : S1 (x, y) = (y, x),
S2 (x, y) = (x, y 2 ) , S3 (x, y) = (1, x).
Exercice 135 (Applications R2 dans R2 ) Parmi les applications T de R2 dans R2 ou dans R suivantes, quelles
sont celles qui satisfont T (λx) = λT (x), et quelles sont celles qui satisfont T (x + y) = T (x) + T (y) ?
x
T (x) = , T (x) = x1 + x2 , T (x) = (2x1 , 3x2 ), T (x) = max(x1 , x2 ).
kxk
Exercice 136 (Application linéaire dans R2 ) Soit T une application linéaire de R2 dans R2 telle que T (1, 1) =
(2, 2), T (2, 0) = (0, 0). Déterminer T (u) pour les vecteurs u suivants :
Exercice 137 Dans R3 , vérifier que les vecteurs suivants forment une base :
Trouver les images de la base canonique par l’application linéaire T : R3 → R définie par :
Exercice 138 (Composition d’applications linéaires) Soient S et T les deux applications linéaires de R2 dans
R2 définies par :
S(x, y) = (4x − y, x − y) et T (x, y) = (x + y, 2x − y).
Calculer S ◦ T et T ◦ S. Et vérifier (rapidement !) que ces applications sont linéaires.
Exercice 139 Soient S et T les deux applications linéaires de R2 dans R2 définies par :
Montrer que ce sont des automorphismes de R2 (c.à.d. des applications linéaires bijectives de R2 dans R2 ).
Exercice 140 (Linéarité et continuité) Vérifier qu’une application linéaire de R dans R est continue.
Soit T une application continue de R dans R telle que :
Exercice 141 (Noyau et image d’applications linéaires) Pour chacune des applications linéaires T suivantes,
répondre aux questions suivantes :
1. Vérifier que l’application T est linéaire.
2. Déterminer le noyau et l’image de T . Donner la dimension et une base de chacun des sous-espaces.
La première colonne de la matrice M est donc la colonne constituée des coefficients α1,1 , . . . , αn,1 . De même, la
j-ième colonne de M se trouve en calculant T (ej ) dans la base (f 1 , . . . , f n ) :
Définition 6.13 Soient E et F deux K-espaces vectoriels de dimension p et n. On se donne B = (e1 , . . . , ep ) une
base de E et B ′ = (f 1 , . . . , f n ) une base de F . Soit T ∈ L(E, F ). On appelle matrice de T dans les bases B, B ′
la matrice notée MB,B′ (T ) ∈ Mn,p (K) dont les coefficients de la j ème colonne sont les composantes de T (ej )
dans la base B ′ :
MB,B′ (T ) = (ai,j ), avec T (ej ) = a1,j f 1 + · · · + an,j f n .
Si E = F et B = B ′ on notera simplement MB (T ).
Calculons cette matrice sur un exemple. Considérons l’espace des polynômes de degré inférieur ou égal à 3, noté
R3 [X] et l’application T qui à un polynôme P associe sa dérivée, P ′ . Cette application est évidemment linéaire
(le vérifier). Si on considère la base canonique de R3 [X] , constituée des polynômes
Proposition 6.15 Soient E, F , G trois K-espaces vectoriels de dimension finie. On se donne B = (e1 , . . . , ep )
une base de E, B ′ = (f 1 , . . . , f n ) une base de F et B ′′ = (g 1 , . . . , g q ) une base de G. Soit R ∈ L(E, F ),
S ∈ L(E, F ), T ∈ L(F, G) et λ ∈ K. On a
1. MB,B′ (R + S) = MB,B′ (R) + MB,B′ (S).
2. MB,B′ (λR) = λMB,B′ (R).
3. MB,B′′ (T ◦ R) = MB′ ,B′′ (T ) · MB,B′ (R).
Corollaire 6.16 Soient E, F deux K-espaces vectoriels de même dimension n, B une base de E, B ′ une base de
F, et T ∈ L(E, F ) inversible. Alors
−1
MB′ ,B (T −1 ) = (MB,B′ (T )) .
Lemme 6.17 Soient E et F des espaces vectoriels de dimensions respectives p et n, et T une application linéaire
de E dans F . Soient B = (e1 , . . . , ep ) une base de E, B ′ = (f 1 , . . . , f n ) une base de F et A la matrice de T
dans les bases B et B ′ . Alors dim(Ker(A)) = dim(Ker(T )) et rg(A) = rg(T ).
Démonstration : La matrice A a p colonnes et n lignes. Montrons par exemple la première égalité. Notons
q = dim(Ker(A)) et soit (s1 , . . . , sq ) une base de Ker(A). Pp Notons si,j les composantes de sj dans la base
canonique de Rp : sj = (s1,j , . . . , sp,j ). On définit aj := i=1 si,j ei pour 1 ≤ j ≤ q.
Alors pour tout x = (x1 , . . . , xp ) ∈ Rp , on a
p
X n X
X p
Ax = 0 ⇔ ∀i = 1, . . . , n, ai,j xj = 0 ⇔ ( ai,j xj )f i = 0
j=1 i=1 j=1
p X
X n p
X Xp
⇔ ( ai,j f i )xj = 0 ⇔ xj T (ej ) = 0 ⇔ T ( xj ej ) = 0. (6.2.2)
j=1 i=1 j=1 j=1
Pp
Donc x = (x1 , . . . , xp ) ∈ Ker(A) ssi T (a) = 0 avec a = j=1 xj ej . En particulier, la famille (a1 , . . . , aq ) est
Pq Pq
contenue dans Ker(T ). On vérifie comme ci-dessus que si λ1 , . . . , λq ∈ K, alors i=1 λi si = 0 ssi i=1 λi ai =
0. Donc la famille (a1 , . . . , aq ) est libre. Par le
Pmême argument, pour tout x = (x1 , . . . xp ) ∈ Rp , (s1 , . . . , sq , x)
p
est libre ssi (a1 , . . . , aq , a) est libre, où a = i=1 xi ei . On en déduit que la famille (a1 , . . . , aq ) est génératrice
de Ker(T ). Finalement, (a1 , . . . , aq ) est une base de Ker(T ), donc dim(Ker(T )) = q. On montre de même que
dim(Im(A)) = dim(Im(T )). Le théorème est démontré.
Remarque 6.18 (Théorèmes du rang pour les applications linéaires et pour les matrices) Par le lemme précé-
dent, on démontre facilement le théorème du rang pour les applications linéaires (théorème 6.11), à partir du
théorème du rang pour les matrices. En effet, supposons que T est une application linéaire de E dans F , et soient
B = (e1 , . . . , ep ) une base de E, B ′ = (f 1 , . . . , f n ) une base de F et A la matrice de T dans les bases B et B ′ ;
alors, par le théorème 5.41 on a : dim(E) = dim(Ker(A)) + rg(A). On en déduit par le lemme ci-dessus que
dim(E) = dim(Ker(T )) + rg(T ).
Théorème 6.21 Soit E un K-espace vectoriel, B et B ′ deux bases de E et T ∈ L(E), alors si PB,B′ désigne la
matrice de passage de la base B à la base B ′ , on a
−1
MB′ (T ) = PB,B ′ MB (T )PB,B′ = PB′ ,B MB (T )PB,B′ .
On a aussi
−1
MB,B′ (T ) = PB,B ′ MB (T ) = PB′ ,B MB (T ) et MB,B′ (T ) = MB′ (T )PB′ ,B .
T MB′ (T )
(E, B ′ ) / (E, B ′ ) ⇔ (E, B ′ ) / (E, B ′ )
O O
−1
IdE IdE PB,B′ PB,B ′ =PB′ ,B
(E, B) / (E, B) (E, B) / (E, B)
T MB (T )
T MB,B′ (T )
(E, B) / (E, B ′ ) ⇔ (E, B) / (E, B ′ )
: :
✉✉ ✉✉
T ✉✉✉ MB (T ) ✉✉✉
✉✉ ✉✉
✉✉ IdE ✉✉ PB′ ,B
(E, B) (E, B)
6.2.3 Exercices
Exercice 144 (Changement de base) Dans R3 , on considère les vecteurs
a = (1, 0, 1), b = (1, −1, 1), c = (1, 2, −1).
1. Soit T une application linéaire T telle que T (a) = (2, 3, −1), T (b) = (3, 0, −2), T (c) = (2, 7, −1). Pour
(x, y, x) ∈ R3 , exprimer T (x, y, z) en fonction de (x, y, z).
2. Même question pour l’application linéaire T̃ telle que T̃ (a) = 2a − 2b, T̃ (b) = 2c, T̃ (c) =
a − b − c.
3. Déterminer le noyau et l’image de ces deux applications linéaires ainsi que des bases de ces sous espaces.
Exercice 145 (Isomorphisme) Soit T : R3 −→ R2 l’application linéaire définie par :
T (1, 0, 0) = (1, 1), T (0, 1, 0) = (0, 1), T (0, 0, 1) = (−1, 1).
Trouver une base de Ker(T ). Déterminer un supplémentaire de Ker(T ) dans R3 et vérifier qu’il est isomorphe
à Im(T ) (c.à.d qu’il existe un isomorphisme, i.e. une application linéaire bijective du supplémentaire de Ker(T )
dans Im(T )).
Exercice 146 (Famille d’applications linéaires de R3 ) Soit m un paramètre réel. On considère l’application linéaire
Tm de R3 dans R3 définie par Tm (x, y, z) = (X, Y, Z) avec :
X = (m − 2)x + 2y − z
Y = 2x + my + 2z
Z = 2mx + 2(m + 1)y + (m + 1)z
Montrer que le rang de Tm est égal à 3 sauf pour des valeurs particulières de m que l’on déterminera. Pour ces
valeurs particulières, préciser la valeur du rang et donner les équations cartésiennes des sous espaces Ker(Tm )
et Im(Tm ) ainsi que des bases de chacun d’eux.
Exercice 147 (Application linéaire sur un espace des matrices) Soit E l’espace vectoriel des matrices réelles
2 × 2.Dans cetespace on considère le vecteur (au sens élément de l’espace vectoriel, qui est donc ici une matrice)
1 1
P = .
1 1
On va considérer l’endomorphisme S de E (application linéaire de E dans E) donné par la multiplication (à
gauche) par P . C’est à dire T (A) = P A. (Vérifier que c’est bien une application linéaire).
On rappelle que la base canonique de E est l’ensemble des matrices :
1 0 0 1 0 0 0 0
B = M1 = , M2 = , M3 = , M4 = .
0 0 0 0 1 0 0 1
Quelles sont les images des matrices Mi par l’application T ? En déduire alors la matrice de l’application T dans
la base B (qui est donc une matrice 4 × 4 ; pourquoi ?)
Faire la même chose pour l’endomorphisme T̃ de E qui est la multiplication à droite par P .
Exercice 148 (Changements de base) On considère l’application linéaire T : R2 → R2 définie par T (x1 , x2 ) =
(x2 , x1 ).
1. Ecrire la matrice A de l’application linéaire T dans la base B = (e1 , e2 ) canonique.
2. (a) Montrer que la famille de vecteurs B ′ = (e′1 , e′2 ) avec e′1 = (0, 1), e′2 = (1, 0) est une base de R2 .
(b) Ecrire la matrice de passage P de la base B à la base B ′ et calculer son inverse P −1 .
(c) Ecrire la matrice A′ de l’application linéaire T dans la base B ′ .
(d) Vérifier que A′ = P −1 AP .
3. Mêmes questions avec la famille de vecteurs B ′′ = (e′′1 , e′′2 ) avec e′′1 = (1, 1), e′′2 = (1, −1).
Proposition 6.23 Soit E un K-espace vectoriel de dimension n. Pour toute base B, la matrice d’une homothétie
Tλ de rapport λ est donnée par
MB (Tλ ) = λIdn .
Démonstration : Il suffit d’écrire que pour tout élément e de la base B, H(e) = λe.
Proposition 6.25 Soit E un K-espace vectoriel et T une forme linéaire sur E. Soit B = (e1 , . . . , en ) une base de
E, il existe (α1 , . . . αn ) ∈ Kn tel que pour tout x = x1 e1 + · · · + xn en on ait
T (x) = α1 x1 + · · · + αn xn .
Notons que si K = R, f (x) est le produit scalaire dans Rn des deux vecteurs (α1 , . . . , αn ) et (x1 , . . . , xn ).
Attention de ne pas confondre le vecteur x ∈ E et le vecteur (x1 , . . . , xn ) ∈ Rn .
Proposition 6.26 Soit E un K-espace vectoriel de dimension n et T une forme linéaire non nulle sur E. On a
dim(Im(T )) = 1 et dim(Ker(T )) = n − 1.
Démonstration : On sait que Im(T ) est un sous-espace vectoriel de K non réduit à {0}. Par conséquent Im(T ) =
K. On en déduit que dim(Im(T )) = 1 et par le théorème du rang que dim(Ker(T )) = n − 1
Ainsi, le noyau d’une forme linéaire non nulle sur E est un hyperplan de E. Réciproquement, si F est un hyperplan
de E, il existe une forme linéaire non nulle sur E dont le noyau est F .
3
Exemple 6.27 (Forme linéairede R ) La forme linéaire définie par T (x, y, z) = x + y + z peut aussi s’écrire
Ax = 0 avec A = 1 1 1 et x = (x, y, z) et on a déjà vu que le noyau de A est l’hyperplan d’équation
x + y + z = 0. La forme linéaire T a donc aussi pour noyau le plan P d’équation x + y + z = 0.
6.3.3 Projecteur
Définition 6.28 Soit E un K-espace vectoriel. On dit que p ∈ L(E) est un projecteur si p ◦ p = p.
Démonstration : Soit x ∈ E on peut écrire x = p(x)+x−p(x). Il est clair que p(x) ∈ Im(p) et x−p(x) ∈ Ker(p)
car p(x − p(x)) = p(x) − p2 (x) = 0. On en déduit que Im(p) + Ker(p) = E. Soit x ∈ Ker(p) ∩ Im(p), on a
x = p(y) et p(x) = 0 ou encore p(p(y)) = p(y) = 0 = x. On en déduit que Im(p) et Ker(p) sont supplémentaires
dans E. De plus, si x ∈ Im(p), x = p(y) et p(x) = p2 (y) = p(y) = x. Donc p|Im(p) = IdIm(p) .
Exemples dans R3
– Projection p sur une droite D de vecteur directeur f 1 : dim(Im(T )) = 1. Il existe alors deux vecteurs f 2 , f 3
linéairement indépendants de Ker(p) tel que B ′ = (f 1 , f 2 , f 3 ) soit une base de R3 . De plus
1 0 0
MB′ (p) = 0 0 0 .
0 0 0
Exemple 6.30 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par
1 −1 1
1
MB (p) = −1 1 −1 .
2
0 0 0
En effet, MB (p) = PB,B′ MB′ (p)PB′ ,B avec
1 0 1 1 −1 1
−1 1
PB,B′ = −1 1 0 et PB′ ,B = (PB,B′ ) = 1 1 1 .
0 1 −1 2 1 1 −1
– Projection p sur un plan P parallèlement à une droite D. On note (f 1 , f 2 ) une base de P et f 3 un vecteur
directeur de D. La famille B ′ = (f 1 , f 2 , f 3 ) est alors une base de R3 et
1 0 0
MB′ (p) = 0 1 0 .
0 0 0
Exemple 6.31 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par
1 −1 1
1
MB (p) = 0 2 0 .
2 1 1 1
6.3.4 Symétrie
Définition 6.32 Soit E un K-espace vectoriel. On dit que S ∈ L(E) est une symétrie si S ◦ S = Id.
Exemples dans R3
– Symétrie S par rapport à un plan P parallèlement à une droite D. On note (f 1 , f 2 ) une base de P et f 3 un
vecteur directeur de D. La famille B ′ = (f 1 , f 2 , f 3 ) est alors une base de R3 et
1 0 0
MB′ (S) = 0 1 0 .
0 0 −1
Exemple 6.33 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par
0 −1 1
MB (S) = 0 1 0 .
1 1 0
– On remarquera que −S est alors la symétrie par rapport à la droite D parallèlement au plan P.
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 100 Algèbre linéaire, Maths générales II
6.3. Applications linéaires remarquables : formes linéaires, projecteurs 6. Applications linéaires
6.3.5 Exercices
Exercice 151 (Homothétie) Soit E un K-espace vectoriel et a ∈ K donné. On considère l’homothétie de rapport
a Ha : E → E définie par Ha (x) = ax, ∀x ∈ E.
1. Vérifier que Ha ∈ L(E).
2. Montrer que Ha est un automorphisme de E si et seulement si a 6= 0. Calculer alors Ha−1 .
3. Calculer Ha ◦ Hb , avec β ∈ K.
Exercice 152 (Homothétie) Soient E un espace vectoriel et T un endomorphisme de E. Montrer que, si la famille
{x, T (x)} est liée pour tout x ∈ E alors T est une homothétie, c’est-à-dire il existe λ ∈ R tel que T (x) = λx
pour tout x ∈ E.
Exercice 153 (Endomorphisme nilpotent) Soit E un espace vectoriel et T un endomorphisme de E tel que T 2 =
0.
1. Montrer que Im(T ) ⊂ Ker(T ).
2. Montrer que IdE + T est un automorphisme de E.
Exercice 154 (CNS pour un projecteur) Soit T une application linéaire du R-espace vectoriel E sur lui-même.
Montrer que T 2 = Id si et seulement si 12 (T + IdE ) est un projecteur.
Exercice 155 (Image d’un projecteur) Soient p et q deux projecteurs de E un K-e.v. Montrer que p et q ont même
image si et seulement si p ◦ q = q et q ◦ p = p. Donner une condition nécessaire et suffisante pour que p et q aient
même direction, c.a.d. même noyau.
Exercice 156
1. Soit T une application linéaire sur E de dimension finie. Montrer que les propriétés (1) à (3) sont équivalentes.
Indications : Si vous souhaitez montrer (2) ⇒ (1) vous pourrez considérer la restriction de T au sev Im(T ).
Si vous souhaitez montrer (2) ⇒ (3) il peut être utile d’utiliser la formule du rang.
2. Donner un exemple d’application linéaire T vérifiant Im T = Im T 2 et qui ne soit pas un projecteur.
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 101 Algèbre linéaire, Maths générales II
6.3. Applications linéaires remarquables : formes linéaires, projecteurs 6. Applications linéaires
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 102 Algèbre linéaire, Maths générales II
Chapitre 7
Déterminants
Le déterminant d’une matrice carrée est un nombre réel ou complexe, selon que l’on considère les matrices réelles
ou complexes. Il n’est défini que pour les matrices carrées. C’est donc une application de Mn (K) dans K. On a
déjà défini le déterminant (définition 2.11) d’une matrice carrée d’ordre 2.
a b a b
= ad − bc.
Si A = son déterminant est det(A) =
c d c d
De plus, on a vu qu’une matrice 2 × 2 est inversible (exercice 43) si et seulement si det(A) 6= 0, et dans ce cas son
inverse est
1 d −b
A−1 = .
det(A) −c a
En fait, le déterminant est un excellent test pour l’inversibilité des matrices ; dans le cas général d’une matrice
A ∈ Mn (K), le test du déterminant permet aussi de s’assurer de l’inversibilité de la matrice. Certains d’entre vous
ont peut-être déjà vu des formules donnant le déterminant d’une matrice carrée d’ordre n, soit par une formule de
récurrence, soit par une formule portant sur les permutations.
Nous les verrons par la suite, mais, pour plus de clarté, nous allons commencer par définir le déterminant par trois
propriétés fondamentales, desquelles découlent toutes les autres.
Théorème 7.1 (Existence et unicité) Il existe une unique application de Mn,n (K) dans K qui vérifie (D1), (D2),
(D3).
103
7.1. Propriétés du déterminant 7. Déterminants
(D5) Le déterminant de A ne change pas si on ajoute à une ligne de A le produit par λ d’une autre ligne de A.
On en dd́uit que si U est une matrice triangulaire obtenue à partir de A par élimination de Gauss sans
permutation, alors det(A) = det(U ).
Démonstration : On suppose que n ≥ 2. Soit λ ∈ K et A, A′ ∈ Mn (K). On suppose qu’il existe i0 et k0
tel que i0 6= j0
ℓi = ℓ′i , ∀i 6= i0 et ℓ′i0 = ℓi0 + λℓk0 ,
on veut montrer que
det(A) = det(A′ ).
La matrice A′′ dont les lignes telles que pour tout i 6= i0 , ℓ′′i = ℓi et ℓ′′i0 = ℓk0 a deux lignes identiques (les
lignes i0 et k0 et donc par la propriété (D4), on a det(A′′ ) = 0. On multiplie maintenant cette ligne ℓ′′i0 par
λ, la matrice obtenue A′′′ est toujours de déterminant nul par la propriété (D3a). On utilise maintenant la
propriété (D3b) pour les matrices A, A′ et A′′′ et on obtient que det(A) = det(A′ ) + det(A′′′ ) = det(A′ ).
(D9) Si A et B sont deux matrices carrées d’ordre n, alors det(AB) = det(A)det(B). En particulier, si A est
1
inversible, det(A−1 ) = det(A) .
Démonstration : Dans le cas n = 2, on peut le vérifier à la main. Dans le cas général, c’est un peu
plus compliqué... une démonstration est proposée plus loin (théorème 7.6). On peut aussi s’en tirer plus
facilement en utilisant l’unicité de l’application déterminant définie par (D1)–(D2)–(D3) (qu’on n’a pas
encore démontrée, mais qui ne dépend que des propriétés (D1)–(D2)–(D3), et pas des suivantes). En effet,
supposons det(B) 6= 0 (le cas det(B) = 0 est immédiat car dans ce cas B et AB sont non inversibles et
leurs déterminants sont tous les deux égaux à 0) . On peut alors définir δ(A) = det(AB)
det(B) . On vérifie ensuite
que l’application δ satisfait bien les propriétés (D1)–(D2)–(D3) (exercice. . . ), et du coup par unicité de cette
application, δ(A) = det(A), ce qui prouve le résultat.
On déduit par la formule pour le produit que det(AA−1 ) = det(A)det(A−1 ), d’où le résultat.
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 104 Algèbre linéaire, Maths générales II
7.1. Propriétés du déterminant 7. Déterminants
(D10) det(A) = det(At ). Si A est non inversible, alors At ne l’est pas non plus, et donc les deux déterminants
sont nuls. Sinon, le théorème de décomposition LU entraı̂ne qu’il existe une matrice de permutation P , une
matrice triangulaire L avec que des uns sur la diagonale et une matrice triangulaire supérieure U telles que :
P A = LU , et donc At P t = U t Lt . On a donc det(P )det(A) = det(L)det(U ), et det(At )det(P t ) =
det(Lt )det(U t ). Les matrices P et P t sont des matrices de permutation, obtenues à partir de l’identité avec
le même nombre d’échanges de lignes. Donc leur déterminant sont égaux (et égaux à 1 ou -1). Les matrices
L et Lt sont des matrices triangulaires inférieures dont tous les éléments diagonaux sont égaux à 1. Leurs
déterminants sont donc égaux à 1 (propriété (D7). Il ne reste plus donc qu’à montrer que det(U t ) = det(U ).
Or ceci est encore vrai grâce à la propriété (D7).
a 0 a c a 0 1 0
Par les propriétés (D10) et (D6),
= = 0. Par les propriétés (D3a) et (D1), = ad
= ad.
c 0 0 0 0 d 0 1
On obtient donc finalement :
a b
c d = ad − bc.
7.1.4 Exercices
Exercice 157 (Propriétés fondamentales du déterminant)
1. Montrer que les propriétés (D1) (D2) (D3) sont bien vérifiées par le déterminant des matrices 2 × 2 .
a b
2. Soit δ l’application de M2 (R) dans R définie par δ(A) = ad + bc si A = . Montrer que δ vérifie
c d
les proprétés (D1) et (D3) mais pas (D2).
Exercice 159 (Opérations sur des matrices) Soit A = (ai,j )i,j=1,2,3 une matrice réelle 3 × 3. On note ai,j les
coefficients de A, et ℓ1 (A), ℓ2 (A), ℓ3 (A) les trois lignes de A. On note K L et M les matrices définies à partir de
A:
1. K = (ki,j )i,j=1,2,3 avec ki,j = (−1)i+j ai,j .
ℓ1 (A) − ℓ3 (A)
2. L = ℓ2 (A) − ℓ1 (A)
ℓ3 (A) − ℓ2 (A)
ℓ1 (A) + ℓ3 (A)
3. M = ℓ2 (A) + ℓ1 (A)
ℓ3 (A) + ℓ2 (A)
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 105 Algèbre linéaire, Maths générales II
7.2. Définition par des formules 7. Déterminants
Proposition 7.2 (Déterminant par la formule du pivot) Soit A une matrice inversible et detA défini par le
théorème 7.1. alors :
1. Si A est non inversible, detA = 0.
Q
2. Si A est inversible, detA = ± ni=1 di où les di sont les pivots, et le signe est le déterminant de la matrice
de permutation P telle que P A = LU .
Cette proposition est très importante. En effet, c’est de cette manière qu’est implémenté le calcul de déterminant
dans n’importe quel logiciel raisonnable. Les formules que nous allons voir par la suite, si elles ont bien sûr leur
intérêt mathématique, ne permettent pas d’aboutir à des calculs pour des déterminants de “grosses” matrices en un
temps raisonnable.
il y en a beaucoup qui sont nuls car ils ont des colonnes nulles. Plus précisément, il n’en existe que 6 qui sont non
nuls, et qui correspondent d’ailleurs au nombre de permutations d’un ensemble à 3 éléments. Ceci est dû au fait
que lorqu’on développe le déterminant, pour qu’un des déterminants développés soit non nul, il faut que chaque
ligne et chaque colonne de la matrice A y soit représenté. On peut donc écrire :
a1,1 a1,2 a1,3 a1,1 0 0 a1,1 0 0 0 a1,2 0
a2,1 a2,2 a2,3 = 0 a2,2 0 + 0 0 a2,3 + a2,1 0 0
a3,1 a3,2 a3,3 0 0 a3,3 0 a3,2 0 0 0 a3,3
0 a1,2 0 0 0 a1,3 0 0 a1,3
+ 0
0 a2,3 + a2,1
0 0 + 0 a2,2 0 . (7.2.1)
a3,1 0 0 0 a3,2 0 a3,1 0 0
Et donc
det(A) = a1,1 a2,2 a3,3 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a1,3 a2,2 a3,1 . (7.2.2)
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 106 Algèbre linéaire, Maths générales II
7.2. Définition par des formules 7. Déterminants
Pour une matrice n × n, si on calcule tous les déterminants par décomposition de toutes les lignes, on en aurait n2 .
Mais on ne veut considérer que ceux qui sont non nuls. A la première ligne on a n choix possibles de coefficients.
Une fois le premier choisi, à la deuxième ligne on n’en a plus que n−1, puisqu’on ne peut pas prendre de coefficient
dans la même que le premier (sinon on se retrouvera avec une colonne nulle dans ce déterminant particulier, qui
sera donc nul). De même, pour la troisième ligne, on n’a maintenant plus que n − 2 colonnes possibles... etc... On
a donc n! déterminants non nuls. La formule du déterminant par permutations est donnée par :
X
det(A) = ε(α, β, . . . , ω) a1,α a2,β . . . aω,n ,
(α,β,...,ω)
permutation de
(1,2,...,n)
où ε(α, β, . . . , ω) est le signe de la permutation, c.à.d. 1 si la permutation est paire (nombre pair déchanges par
rapport à l’identité) et -1 si la permutation est impaire (nombre impair déchanges par rapport à l’identité).
det(A) = a1,1 (a2,2 a3,3 − a2,3 a3,2 ) + a1,2 (−a2,1 a3,3 + a2,3 a3,1 ) + a1,3 (a2,1 a3,2 − a2,2 a3,1 ) (7.2.3)
= a1,1 det(M1,1 ) + +a1,2 (−det(M1,2 )) + a1,3 det(M1,3 ), (7.2.4)
avec
a a2,3 a a2,3 a a2,2
M1,1 = 2,2 , M1,2 = 2,1 et M1,3 = 2,1 .
a3,2 a3,3 a3,1 a3,3 a3,1 a3,2
La matrice M1,1 (resp. M1,2 ,M1,3 ) est donc une matrice 2 × 2 obtenue à partir de A en supprimant la ligne 1 et la
colonne 1 (resp. 2, 3). On écrit encore cette formule :
On veut montrer que det(A) = −det(A′ ). On note ci,j les cofacteurs de la matrice A et c′i,j les cofacteurs
de la matrice A′ . Par définition, on a :
det(A′ ) = a1,1 c′1,1 + a2,1 c′2,1 + · · · + aj0 ,1 ci0 ,1 + · · · + ai0 ,1 cj0 ,1 + · · · + an,1 cn,1 .
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 107 Algèbre linéaire, Maths générales II
7.2. Définition par des formules 7. Déterminants
Par hypothèse de récurrence, pour tout j 6= i0 , j0 , on a c′j,1 = −cj,1 . Par ailleurs, c′i0 ,1 = (−1)i0 +1 det(Mi′0 ,1 )
où Mi′0 ,1 est la matrice extraite de A′ lorsqu’on enlève la ligne i0 et la colonne 1. Mais les lignes de A′
sont égales à celles de A sauf les lignes i0 et j0 qui sont échangées. Donc Mi′0 ,1 est aussi la matrice ob-
tenue à partir de A lorsqu’ on enlève la première colonne et la i0 ème ligne et qu’on remplace la ligne
ℓj0 par la ligne ℓi0 . Pour ramener cette ligne ℓi0 à sa position il faut alors faire j0 − i0 + 1 échanges
de lignes. Par hypothèse de récurrence, on a donc det(Mi′0 ,1 ) = (−1)j0 −i0 +1 det(Mj0 ,1 ) De même on a
det(Mj′0 ,1 ) = (−1)i0 −j0 +1 det(Mi0 ,1 ). On en déduit c′i0 ,1 = −cj0 ,1 et c′j0 ,1 = −ci0 ,1 . On en déduit le
résultat.
(D3a) Soit λ ∈ K. On veut montrer que i on multiplie par λ une ligne d’une matrice de Mn (K) alors son
déterminant est multiplié par λ.
On montre le résultat par récurence sur la taille de la matrice. Pour n = 2 le résultat est immédiat. On
suppose le résultat vrai pour toute matrice de taille n − 1. Soit A une matrice de taille n et Aλ = Di (λ)A.
On utilise la définition du déterminant pour calculer det(Di (λ)A). On a
Remarquons que ∆λi,1 = ∆i,1 et que ∆λj,1 = λ∆j,1 si j 6= i en utilisant l’hypothèse de réccurence. On en
déduit que
det(Di (λ)A) = λdet(A).
(D3b) On considère trois matrices A, A′ , A′′ ∈ Mn (K). On note ℓi , ℓ′i , ℓ′′i les lignes respectives de ces matrices.
On suppose qu’il existe i0 tel que
det(A) = a1,1 ∆A A
1,1 − a2,1 ∆2,1 + · · · + (−1)
i0 +1
ai0 ,1 ∆A
i0 ,1 + · · · + (−1)
n+1
an,1 ∆A
n,1
′ ′′
Or ai0 ,1 = a′i0 ,1 + a′′i0 ,1 , ∆A A A
i0 ,1 = ∆i0 ,1 = ∆i0 ,1 . De plus si i 6= i0 , en utilisant la récurrence on a
′ ′′
∆A A A
i,1 = ∆i,1 + ∆i,1 .
Démontrons maintenant quelques autres des propriétés directement par la formule des cofacteurs :
Proposition 7.4 (Propriété (D7)) Si A ∈ Mn (K) est une matrice triangulaire supérieure ou inférieure, alors le
déterminant de A est égal au produit des coefficients diagonaux de la matrice.
Démonstration : On montre le résultat par récurrence sur la taille de la matrice. Lorsque n = 2 le résultat est
immédiat. Supposons le résultat vrai pour toute matrice triangulaire de taille n − 1.
Si A est une matrice triangulaire supérieure de taille n. Comme ai,1 = 0 pour tout i ≥ 2 on a det(A) = a1,1 ∆1,1
avec ∆1,1 déterminant d’une matrice triangulaire supérieure de taille n − 1 dont les coefficients diagonaux sont les
coefficients diagonaux de A, ai,i pour i ≥ 2. D’où le résultat.
Si la matrice A est triangulaireQinférieure, la matrice A1,1 est une matrice triangulaire inférieure, l’hypothèse de
n
récurrence assure que ∆1,1 = i=2 ai,i . Si i > 1, alors la matrice Ai,1 a une ligne identiquement nulle, par suite
son déterminant ∆i,1 est nul (proppriété (D6)). Le résultat suit immédiatement.
Corollaire 7.5 Le déterminant de la matrice Di (a) est égal à a et si i 6= j, le déterminant de Ti,j (λ) est égal à 1.
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 108 Algèbre linéaire, Maths générales II
7.2. Définition par des formules 7. Déterminants
det(AB) = det(A)det(B).
Démonstration :
– Première étape. Notons que ce résultat est démontré si A est une matrice de dilatation (propriété (D3a)) ou si
A est une matrice de transvection (propriété (D5)). Par conséquent le résultat est également démontré si A est
un produit de matrices de dilatation ou de transvection.
– Deuxième étape. Notons que si A est une matrice inversible alors A est un produit de matrices élémentaires
(Corollaire 4.30). Donc si A est inversible det(AB) = det(A)det(B).
– Troisième étape. Supposons maintenant que la matrice A soit non inversible. Il existe une matrice E inversible
telle que EA soit échelonnée, en particulier triangulaire supérieure. Or EA n’est pas inversible. Donc la dernière
ligne de la matrice EA est une ligne de zéros. On déduit de la propriété (D6) que det(EA) = 0 et d’après l’étape
précédente, comme E est inversible, det(A) = det(E −1 EA) = det(E −1 )det(A) = 0. Remarquons alors que
la dernière ligne de la matrice EAB est nulle de sorte que (propriété (D6)) det(EAB) = 0. A nouveau comme
E est inversible on sait que det(E −1 EAB) = det(E −1 )det(EAB), on en déduit que det(AB) = 0 et donc
que l’on a bien det(AB) = det(A)det(B) = 0.
Théorème 7.8 (Propriété (D10), transposée) Si A est une matrice de Mn (K) alors det(At ) = det(A).
Démonstration : On remarque que le résultat est vrai pour les matrices élémentaires et pour les matrices triangu-
laires. Pour une matrice A quelconque on utilise une forme échelonnée A′ = EA. On a det(A′ ) = det((A′ )t ) car
A′ est triangulaire supérieure et det(E −1 ) = det((E −1 )t ) car E est un produit de matrices élémentaires. On en
déduit que
det(At ) = det((A′ )t (E −1 )t ) = det((A′ )t )det((E −1 )t ) = det(A′ )det(E −1 ) = det(E −1 A′ ) = det(A).
Remarque 7.10 Soit A ∈ Mn (K). Le déterminant (−1)i+j ∆i,j est appelé cofacteur de ai,j . La comatrice de
A, notée Co (A) est la matrice de Mn (K) dont le coefficient i, j est le cofacteur (−1)i+j ∆i,j .
On a en fait pour tout i = 1, . . . , n
det(A) = (−1)i+1 ∆i,1 ai,1 + (−1)i+2 ∆i,2 ai,2 + · · · + (−1)i+n ∆i,n ai,n ,
et pour tout j = 1, . . . , n
det(A) = (−1)j+1 ∆1,j a1,j + (−1)j+2 ∆2,j a2,j + · · · + (−1)j+n ∆n,j an,j .
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 109 Algèbre linéaire, Maths générales II
7.3. Applications du déterminant 7. Déterminants
det(B1 )
det(A)x1 = det(B1 ) soit encore x1 =
det(A)
De même, pour trouver x2 , on met le vecteur x dans la seconde colonne de la matrice identité ; en notant c1 (A), c2 (A)
et c3 (A) les colonnes de A, on obtient :
1 x1 0
c1 (A) c2 (A) c3 (A) 0 x2 0 = c1 (A) b c3 (A) = B2
0 x3 1
On en déduit que
det(B2 )
det(A)x2 = det(B2 ) soit encore x2 =
det(A)
Et de même pour x3 . Dans le cas général n ≥ 2, A ∈ Mn (K) inversible et b ∈ Mn,1 (K), la solution x = (xi ) ∈
det(Bi )
xi =
det(A)
a1,1 · · · a1,i−1 b1 a1,i+1 · · · a1,n
1 .
.. .. .. ..
= .. . . . .
det(A)
an,1 · · · an,i−1 bn an,i+1 · · · an,n
1
= (−1)i+1 ∆1,i b1 + (−1)i+2 ∆2,i b2 + · · · + (−1)i+n ∆n,i bn
det(A)
7.3.2 Inversibilité
Proposition 7.11 Soit n ≥ 2 et A ∈ Mn (K). Alors on a
Démonstration : On a
((Co (A))t A)i,j = (−1)i+1 ∆1,i a1,j + (−1)i+2 ∆2,i a2,j + · · · + (−1)i+n ∆n,i an,j
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 110 Algèbre linéaire, Maths générales II
7.3. Applications du déterminant 7. Déterminants
En utilisant la formule (7.2.6), on déduit que ((Co (A))t A)i,i = det(A). De plus si i 6= j, on reconnaı̂t dans
((Co (A))t A)i,j le déterminant de la matrice obtenue en remplaçant dans A a1,i , . . . , an,i par a1,j , . . . , an,j , au-
trement dit la matrice obtenue à partir de A en remplaçant la colonne i par la colonne j. La matrice ainsi obtenue a
deux colonnes identiques, son déterminant est donc nul. Par conséquent si i 6= j ((Co (A))t A)i,j = 0. On a donc
bien montré que (Co (A))t A = A(Co (A))t = det(A)Idn .
Proposition 7.12 Soient E et F deux K-espaces vectoriels de dimension n. On se donne B = (e1 , . . . , en ) une
base de E et B ′ = (ε1 , . . . , εn ) une base de F . Soit T ∈ L(E, F ). Alors T est bijective de E dans F si et seulement
si
det(MB,B′ (f )) 6= 0.
On rappelle que dans ce cas, on dit que T est un isomorphisme de E sur F et que E et F sont isomorphes.
Démonstration : On a vu dans le Corollaire 6.16 que T est un isomorphisme si et seulement si la matrice MB,B′ (f )
est inversible. On utilise ensuite la Proposition 7.11.
Définition 7.13 (Produit vectoriel) Soient u = (u1 , u2 , u3 ) et v = (v1 , v2 , v3 ), Alors on pose u ∧ v = (u2 v3 −
u3 v2 )i + (u3 v1 − u1 v3 )j + (u1 v2 − u2 v1 )k, ce qu’on écrit aussi (de manière assez illégale il est vrai) :
i j k
u ∧ v = u1 u2 u3 .
v1 v2 v3
La formule avec le déterminant est assez illégale au sens où le déterminant a été défini pour des nombres, pas pour
des vecteurs. Mais elle représente bien la première formule, elle est très facile à retenir et permet également de
retenir facilement les propriétés suivantes :
(PV1) v × u = −u × v puisqu’on échange les deux lignes dans le déterminant.
(PV2) Le produit vectoriel u ∧ v est orthogonal aux deux vecteurs u et v/ En effet,
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 111 Algèbre linéaire, Maths générales II
7.3. Applications du déterminant 7. Déterminants
celle-ci. Si F est parallèle à u, alors u ∧ f = 0 : ça ne tourne pas. Le vecteur u ∧ F est le couple, c.à.d. la force
qui fait tourner. Sa direction est celle de l’axe de rotation, perpendiculaire à u et F . Sa longueur kukkF k sin θ est
le moment du couple (qui produit la rotation).
Attention, le produit vectoriel se note u × v en anglais (cross product).
Ce déterminant est nul lorsque les vecteurs u v et w sont coplanaires. On peut vérifier ce fait de trois manières
différentes (au moins) :
1. Le vecteur u ∧ v est orthogonal à ce plan donc son produit scalaire avec w est nul.
2. Trois vecteurs dans un même plan sont forcément liés, donc la matrice est non inversible et son déterminant
est nul.
3. Le volume est nul puisque le parallélépipède est écrasé sur un plan.
Démonstration :
Il suffit de remarquer par réccurence que le déterminant d’une matrice de taille n est une somme de produits de n
termes distincts de la matrice. Par conséquent c’est bien un polynôme en X. On montre alors par réccurence que
son terme dominant est (−1)n X n .
On verra plus loin (next year) que les valeurs propres d’une matrice A sont les racines (dans C) du polynôme ca-
ractéristique. Les valeurs propres et vecteurs propres sont des notions très importantes pour comprendre la structure
d’une matrice et de l’application linéaire qui lui est associée.
7.3.7 Exercices
Exercice 161 La famille (2, 1, 0), (1, 3, 1), (5, 2, 1) est-elle libre ?
Exercice
162
(Matrices Déterminer les valeurs du paramt̀re t ∈ R pour lesquelles matrices Mt =
inversibles)
1 t 1 1 1 t
t 1 1 et Nt = 1 t 1 sont inversibles.
1 t 1 t 1 1
1 1 1
Exercice 163 (Condition d’inversibilité) Calculer x y z et déterminer la condition d’inversibilité de la
x2 y2 z 2
matrice.
Exercice 164 (Inverses de matrice par le déterminant) En utilisant la comatrice, inverser les matrices
1 −1 0 0 1 0 1 0
2 1 0 0 0 1 0 1
0 0 1 2 et 1 0 −1 0
0 0 2 1 0 1 0 −1
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 112 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants
Exercice 165 Soit E un espace vectoriel réel de dimension finie n et ϕ ∈ L(E) telle que ϕ2 = −idE .
1. Donner des exemples de telles applications dans le cas n = 2 ou 4.
2. Montrer que de telles applications existent si et seulement si n est pair.
[ On pourra utiliser le déterminant de φ.]
Exercice 166 (Applications du déterminant aux systèmes linéaires) Combien de solutions a le système linéaire
suivant :
3x +y +z = 1
2x −y +z = 0
−x +y −2z = 2
Et ce système ?
3x +y +z = 0
2x −y +z = 0
−x +y −2z = 0
Ou bien encore ce système ?
+y +z = 0
2x +4z = 0
−x +y −z = 0
Et celui-là ?
+y +z = 1
2x +4z = 1
−x +y −z = −1
Et pour finir ce système ?
+y +z = 2
2x +4z = 2
−x +y −z = 1
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 113 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants
Pour cela on va ajouter à la première ligne une combinaison linéaire des précédentes :
On obtient
0 0 ··· ··· ··· 0 a0 + a1 X + · · · + an−1 X n−1 + (an − X)X n
.. ..
1 −X . . a1
.. .. .. ..
0
1 . . . .
.. . . .. .. .. .. ..
∆ = . . . . . . .
. .. .. .. ..
.. . . . 0 .
.
.. 0 1 −X an−1
0 · · · ··· ··· 0 1 a −X
n
En developpant ce déterminant par rapport à la première colonne on remarque que ∆(x1 , x2 , x3 , x4 ) est un po-
lynôme de degré 3 en la variable x1 . De plus si x1 = x2 ou x1 = x3 ou x1 = x4 , c’est le déterminant d’une
matrice qui a deux colonnes identiques et par conséquent ∆(xi , x2 , x3 , x4 ) = 0 pour i = 2, 3, 4. On en déduit que
x2 , x3 , x4 sont les racines de ce polynôme de degré 3 et qu’il existe une fonction δ(x2 , x3 , x4 ) telle que
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 114 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 115 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants
7.4.4 Exercices
Exercice 167 Calculer de plusieurs façons le déterminant suivant
1 2 1 3
2 −1 0 2
−1 1 −1 1
0 1 0 2
2 0 4
Exercice 168 Sans calcul, montrer que 5 2 7 est divisible par 2 et calculer le plus rapidement possible ce
2 5 5
déterminant.
2 1 14
Exercice 169 Sans calcul, montrer que 5 5 7 est divisible par 17.
7 5 5
1 2 1 4 1 2 1 4
5 5 7 0 2 4 2 8
Exercice 170 Calculer les déterminants suivants et .
0 7 5 5 0 7 5 5
1 0 2 0 1 0 2 0
a b c
Exercice 171 Calculer c a b .
b c a
a c c b c a b c a x y z x y z t
c a b c a c c b b x y z −y x −t z
, , ,
c b a c b c c a c x′ y′ z ′ −z t x −y
b c c a c b a c d x′ y′ z′ −t −z y x
1+a b a b a a a2 b+c+d 1 0 a a2
b 1+a b a a b b2
c + d + a 0 1 b b2
, ,
a b 1+a b a c c2 d + a + b 1 0 c c2
b a b 1+a a d d2 a+b+c 0 1 d d2
Exercice 173 (Déterminants de Vandermonde) On note a1 , · · · , an des réels. Calculer les déterminants n × n
suivants.
1
1 ··· 1 a1 a2 a3 · · · an
a1
a 2 · ·· an a2 a2 a3 · · · an
a21 a 2
· · · a2n , D = a3 a3 a3 · · · an
D1 = 2 2
.. .. .. ..
. . . .
n−1
a
1 a2n−1 · · · n−1
an an an an · · · an
Exercice 174 Montrer que
cos a cos b cos c
= sin (c − b) + sin (b − a) + sin (a − c) = 4 sin c − b sin b − a sin a − c
sin a sin b sin c
1 1 1
2 2 2
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 116 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants
an+1 − bn+1
∀n ∈ N, n ≥ 2, Bn = .
a−b
Exercice 176 Calculer le déterminant de la matrice tridiagonale suivante
2 −1 0 0 0
−1 2 −1 0 0
0 −1 2 −1 0
0 0 −1 2 −1
0 0 0 −1 2
Applications du déterminant
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 117 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 118 Algèbre linéaire, Maths générales II
Appendices
119
Annexe A
Corrigés d’exercices
A.1 Chapitre 1
Exercice 24 (Plans et droites de R3 )
(Corrigé par Maximilien Rigaut)
Soient P et P ′ deux plans d’équations respectives x − y − z − 2 = 0 et x − 2y − 3z − 1.
1) Un vecteur appartient au plan (vectoriel associé à) P à condition que ses composantes soient solution de
l’équation du plan x − y − z = 0.
On a donc ~a et ~b deux vecteurs du plan P non colinéaires, d’équation :
1 −1
~a = 2 et ~b = 2
−1 −3
1 −1
De même on a ~c = 12 et d~ = 1
0 −1
2. Le vecteur ~u = 41 ~a ∧ ~b est normal au plan formé par les vecteur ~a et ~b : P (car ~a et ~b ne sont pas colinéaires).
1 −1 −1
1
~u = 2 ∧ 2 = 1
4 −1 −3 1
Le vecteur ~v = 2~c ∧ d~ est normal au plan formé par ces derniers soit P ′ :
1 −1 −1
~v = 2 12 ∧ 1 = 2
0 −1 3
3. Comme ~u et ~v ne sont pas colinéaires, les plans sont sécants et se coupent en une droite D1 . Soit w
~ = (x, y, z)
un vecteur directeur de la droite. Comme D1 ⊂ P on a ~u.w ~ = 0 et comme D1 ⊂ P ′ on a ~v .w~ = 0.
−x + y + z = 0 −x + y + z = 0 x = −z
⇔ ⇔
−x + 2y + 3z = 0 2y − y + 3z − z = 0 y = −2z
On pose z = t on a donc :
x = −t
y = −2t
z = t
Le vecteur directeur de D1 a pour coefficients -1, -2 et 1 :
−1
~ = −2
w
1
121
A.2. Chapitre 2 A. Corrigés d’exercices
A.2 Chapitre 2
Exercice 30 (Grosses matrices)
(Corrigé par Maximilien Rigaut)
1 0 −3 8 3 2 −1 4 11 13 1 3
0 0 1 3 2 4 0 0 3 2 5 6
=
2 −5 −1 3 0 −1 2 3 −1 −12 −1 8
0 0 1 0 1 1 1 1 0 −1 2 3
1 −3
1 1 −3 7 = −4
0 12
22
−2 0 4 −3 0 217 −11
3 −1
−3 1 −5 −3 13 −18
12 0 1 1 −3 7 12 12 −36 84
2 0 −2 0 4 3 = 2
2 −6 14
−1 3 −7 −1 15 2
Exercice 46
−4 2 3 10 1 −7
B0 = 4 −2 1 , B1 = −2 3 11 ,
2 1 −4 −2 3 3
2 1 −7 −8 0 0 2 1 −7
1
B2 = −2 −5 11 , B2 A = 0 −8 0 ⇒ A−1 = − −2 −5 11 .
8
−2 3 −5 0 0 −8 −2 3 −5
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 122 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices
P1 P2 P3
Démontrons que les coefficients deP A2 représentent le nombre de chemin à deux arêtes entre i et j.
2 3
En effet soit C = A , on a Ci,j = k=1 Ai,k Ak,j . Or par définition de la matrice A, Ai,k Ak,j = 1 si et seulement
si il existe une arête entre i et k et une arête entre k et j ; donc Ai,k Ak,j = 1 si et seulement si il existe un
P3
chemin à deux arêtes entre i et j. Sinon, Ai,k Ak,j = 0. Comme Ci,j = k=1 Ai,k Ak,j , on en déduit que Ci,j est
exactement le nombre de chemin à deux arêtes entre i et k.
Calculons A3 :
3 2 0
A3 = 2 1 0
4 2 1
P3
Par définition, (A3 )i,j = k=1 (A2 )i,k Ak,j . Or (A2 )i,k est le nombre de chemin à deux arêtes entre i et k. Mais
Ak,j = 1 si et seulement si il existe une arête entre k et j. Donc (A2 )i,k Ak,j est le nombre de chemins à trois
P3
arêtes entre i et j passant par k. On en déduit finalement que (A3 )i,j = k=1 (A2 )i,k Ak,j est le nombre total de
chemins à trois arêtes entre i et j.
A.3 Chapitre 3
Exercice 85 (Somme de deux sous-espaces vectoriels)
1. D’abord, on a évidemment 0 ∈ F + G. Montrons que F + G est stable par combinaison linéaire. Si u et v
∈ F + G, alors on peut écrire u = uF + uG et v = v F + v G , avec uF , v F ∈ F et uG , v G ∈ G . Soient α et
β ∈ R. On a αu + βv = α(uF + uG ) + β(v F + vG ) = αuF + βv F + αuG + βv G . Or αuF + βv F ∈ F
et αuG + βv G ∈ G. Donc OK.
1
2. Dans E = R2 : on prend F la droite de vecteur directeur i = et G la droite de vecteur directeur
0
0 1
j . Le vecteur i + j = n’appartient pas à F ∪ G.
1 1
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 123 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices
0 0
1
1
G : ensemble des multiples du vecteur
0
0
2. F : ensemble des matrices diagonales
G : ensemble des matrices multiples de l’identit ?.
3. F : ensemble des fonctions y de R dans R dont la d ?riv ?e seconde est nulle
G : ensemble des fonctions constantes.
La famille est donc génératrice. Il est facile de voir qu’elle est libre : c’est donc une base (en fait, c’est la
base canonique sur l’ev des matrices carrées d’ordre 2, qu’on a vue en cours). Il y a 4 “vecteurs” (qui sont
en fait des matrices) de base, donc l’espace est de dimension 4.
2. Une base de l’ev des matrices carrées n × n est la base canonique (Eij )i=1,...,n,j=1,...,n dont les coefficients
sont tous égaux à 0, sauf celui de la i- ème ligne et j-ème colonne, qui est égal à 1. Or card ( (Eij ) i=1,...,n )
j=1,...,n
= n × n. Il y a donc n2 vecteurs de base, et donc la dimension de l’espace des matrices carrées n × n est n2 .
3. Commençons par le cas 2 × 2 : si la matrice est diagonale, elle s’écrit :
a 0 1 0 0 0
=a +d .
0 d 0 0 0 1
1 0 0 0
La famille consituée des matrices et est libre, et c’est donc une base de l’espace des
0 0 0 1
matrices diagonales. On en déduit que le sous-espace des matrices diagonales est de dimension 2.
Une matrice diagonale de dimension n s’écrit comme combinaisons linéaires des n matrices Eii définies à
la première question. Ces matrices sont libres, forment un base de l’espace des matrices diagonales, qui est
donc de dimension n.
4. Commençons par le cas 2 × 2 : si la matrice est symétrique, elle s’écrit :
a b 1 0 0 1 0 0
=a +b +d .
b d 0 0 1 0 0 1
1 0 0 1 0 0
La famille consituée des matrices , et est libre (vérifiez le), et c’est donc
0 0 1 0 0 1
une base de l’espace des matrices symétriques. On en déduit que le sous-espace des matrices diagonales est
de dimension 3.
Une matrice symétrique de dimension n s’écrit comme combinaisons linéaires des n matrices Eii , i =
1, . . . , n et des matrices Eij + Eij , j > i, où les Eij sont définies à la première question. Or le nombre des
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 124 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices
matrices Eij + Eij , j > i est le cardinal de l’ensemble des couples (i, j) vérifiant j > i. Comptons les :
pour i = 1, il y en a : n − 1. Pour i = 2, il y en a n − 2. Pour i = k, il y en a n − k (dessinez les matrices
pour n = 3 si vous ne comprenez pas...) Donc en tout, il y en a n − 1 + n − 2 + . . . + n − (n − 1), soit
Pn−1 Pn−1
encore i=1 (n − i) = n(n − 1) − i=1 i = n(n − 1) − n(n−1 2 = n(n−1)2 . Si on ajoute les n matrices
n(n−1) n(n+1)
diagonales, on a donc n + 2 = 2
Ces matrices sont libres, forment un base de l’espace des matrices diagonales, qui est donc de dimension n.
Exercice 115
1. On remarque d’abord que 0 ∈ F et 0 ∈ G ; on a donc 0 ∈ F ∩ G. Il reste à montrer que F ∩ G est stable
par combinaison linéaire. Soient u et v ∈ F ∩ G et soient λ et µ ∈ R. Comme F et G sont des s.e.v, ils ont
stables par combinaison linéaire, et donc λu+µv ∈ F et λu+µv ∈ G, ce qui montre que λu+µv ∈ F ∩G,
qui est donc bien un s.e.v..
2. (a) On vérifie facilement que les familles {u, v} et {w, z} sont libres. Elles sont donc des bases des
espaces qu’elles engendrent. Donc {u, v} est une base de F et {w, z} est une base de G.
(b) Soit x ∈ F ∩ G, alors x est de la forme : x = αu + βv. et x = α′ w + β ′ z.
α+β 0
x = α + β = α′ + β ′
β β′
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 125 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 126 Algèbre linéaire, Maths générales II
Annexe B
2. (Remontée) On calcule x
Pour i allant de n à 1,
Pn
xi = u1i,i (yi − j=i+1 ui,j xj )
127
B.1. Algorithmes de Gauss et LU B. Algorithmes et programmes informatiques
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 128 Algèbre linéaire, Maths générales II