L1 Alg

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 128

Université d’Aix-Marseille

Licence de mathématiques, première année

Mathématiques générales II - Algèbre linéaire


Pierre B OUSQUET, Raphaèle H ERBIN et Florence H UBERT
<pierre.bousquet, raphaele.herbin, florence.hubert@univ-amu.fr>

Ce document est sous licence Creative Commons 3.0 France:


– paternité;
– pas d’utilisation commerciale;
– partage des conditions initiales à l’identique;
http://creativecommons.org/licenses/by-nc-sa/3.0/deed.fr
Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 2 Algèbre linéaire, Maths générales II
Table des matières

1 Introduction et bibliographie 5

2 Algèbre linéaire dans R2 et R3 7


2.1 Vecteurs de R2 et R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.1 Vecteurs et combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1.2 Produit scalaire, norme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 La notion de matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.1 Ecriture matricielle d’une combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . 9
2.2.2 Equations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.3 Dépendance et indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3.1 Ecriture vectorielle et matricielle des systèmes linéaires . . . . . . . . . . . . . . . . . . 14
2.3.2 Elimination . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3.3 Un système 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3.4 Géométrie affine et vectorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3 Systèmes linéaires et matrices 25


3.1 Matrices et opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.1.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.1.3 Matrice inverse et matrice transposée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 Elimination par les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Echelonnement d’une matrice 3 × 3 et décomposition LU . . . . . . . . . . . . . . . . . 34
3.2.2 Matrices élémentaires de Mn (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2.3 Matrices échelonnées et pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.4 Existence de la forme échelonnée, algorithme d’échelonnement . . . . . . . . . . . . . . 39
3.2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.3 Calcul de l’inverse d’une matrice, échelonnement total . . . . . . . . . . . . . . . . . . . . . . . 46
3.3.1 Exemple de calcul de l’inverse d’une matrice 2 2 . . . . . . . . . . . . . . . . . . . . . . 47
3.3.2 Inversion d’une matrice 3 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.3.3 Echelonnement total . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.3.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4 Espaces et sous espaces vectoriels 51


4.1 Espaces et sous-espaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.1.2 Espace des colonnes ou image d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Systèmes linéaires homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2.1 Noyau d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.2.2 Détermination du noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

3
Table des matières Table des matières

4.2.3 Familles libres, Indépendance des colonnes pivotales . . . . . . . . . . . . . . . . . . . . 60


4.2.4 Construction du noyau par les solutions spéciales . . . . . . . . . . . . . . . . . . . . . . 61
4.2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.3 Résolution d’un système linéaire général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3.1 Exemples de résolution de systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.3.2 Caractérisation d’une matrice inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

5 Bases, dimension et sous-espaces 71


5.1 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1.1 Familles libres, liées, génératrices, bases . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1.2 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.1.3 Théorème de la base incomplète et conséquences . . . . . . . . . . . . . . . . . . . . . . 76
5.1.4 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.2 Sous espaces vectoriels supplémentaires, orthogonalité . . . . . . . . . . . . . . . . . . . . . . . 82
5.2.1 Somme et intersection de deux espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . 82
5.2.2 Sous espaces liés aux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2.3 Les sous-espaces de Rp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

6 Applications linéaires 89
6.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.1.1 Application linéaire de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.1.2 Image, noyau et rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.2 Applications linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.2.2 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
6.3 Applications linéaires remarquables : formes linéaires, projecteurs . . . . . . . . . . . . . . . . . 97
6.3.1 Homothéties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.2 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.3 Projecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.3.4 Symétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

7 Déterminants 101
7.1 Propriétés du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.1.1 Les trois propriétés fondamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.1.2 Les autres propriétés principales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.1.3 Construction du déterminant dans le cas 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . 103
7.1.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.2 Définition par des formules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2.1 Formule des pivots . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2.2 Formule des permutations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.2.3 Formule des cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.3 Applications du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.3.1 Résolution de systèmes linéaires et formules de Cramer . . . . . . . . . . . . . . . . . . . 108
7.3.2 Inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
7.3.3 Calculs d’aires et de volumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.3.4 Le produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
7.3.5 Produit mixte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.3.6 Le polynôme caratéristique d’une matrice : calcul des valeurs propres . . . . . . . . . . . 110
7.3.7 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.4 Quelques calculs de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
7.4.1 Matrice de Froebenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 4 Algèbre linéaire, Maths générales II


Table des matières Table des matières

7.4.2 Déterminant de Van der Monde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112


7.4.3 Déterminant d’une matrice tridiagonale . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.4.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

Appendices 119

A Corrigés d’exercices 119


A.1 Chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
A.2 Chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
A.3 Chapitre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

B Algorithmes et programmes informatiques 125


B.1 Algorithmes de Gauss et LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 5 Algèbre linéaire, Maths générales II


Table des matières Table des matières

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 6 Algèbre linéaire, Maths générales II


Chapitre 1

Introduction et bibliographie

Algèbre...
Le mot “algèbre” vient du terme arabe Q.m.Ì '@ ”al-jabr” signifiant littéralement ”restauration”. Ce terme fut pour
la première fois employé à propos des mathématiques par le savant ú× PP@ ñm Ì '@, Al-Khwarizmi 1 , dans son livre


 . A®ÖÏ @ ð Q.m.Ì '@ H. A‚k ú¯ Qå”JjÖÏ @ H. AJ», Abrégé du calcul par la restauration et la comparaison, où il procède à
IÊK

l’étude systématique des équations du second degré et se ramène à six cas de base, en utilisant ce qu’il nomme
“restauration” (al-jabr). Cette restauration se traduit essentiellement par l’ajout d’une même quantité dans les deux
membres de l’équation afin d’éliminer les termes apparaissant en soustraction. Cette idée de modifier une égalité
pour la rendre plus simple à résoudre est fondamentale. Il faut se rendre compte qu’à l’époque d’Al-Khwarizmi, le
seul fait de penser un problème en termes d’égalité avec une grandeur inconnue était déjà une avancée considérable.

. . . linéaire
Voyons maintenant ce qu’est un phénomène linéaire. Le prix de détail des marchandises, par exemple : quand le
marchand affiche 2 euros le prix d’un kilo de pommes, il est implicite que x kilos de pommes coûteront 2x euros.
Le prix des pommes est donc donné par la fonction de R dans R définie par x 7→ 2x. Le prix que vous payez est
une fonction linéaire du poids. De manière plus générale, une application linéaire de R dans R est une application
qui s’écrit sous la forme x 7→ αx, où α ∈ R est donné. Finalement, dans R, l’algèbre linéaire se réduit plus ou
moins à la règle de trois. . . Le concept de linéarité peut alors s’étendre pour désigner un rapport de dépendance
très simple entre plusieurs variables : la variable y dépend linéairement des variables x1 , ..., xN s’il existe des
constantes α1 , . . . , αN telles que y = α1 x1 + . . . + αN xN . On dit encore que y s’exprime comme combinaison
linéaire de x1 , . . . , xN . Par exemple, si vous achetez x1 kilos de pommes à 2 euros le kilo et x2 kilos de poires à 3
euros le kilo, le prix total y que vous payez est la combinaison linéaire y = 2x1 + 3x2 . La notion de combinaison
linéaire sera fondamentale dans la suite de ce cours.
Finalement, l’algèbre linéaire est le domaine des mathématiques qui étudie de façon systématique les propriétés
associées à la dépendance linéaire. Les concepts de base sont celui de combinaison linéaire dont on vient de
parler, et les notions d’espace vectoriel et d’application linéaire. Les espaces vectoriels les plus simples sont les
ensembles R, R2 et R3 lorsqu’ils sont munis de deux opérations très simples : l’addition et la multiplication par
un réel, qui présentent un certain nombre de propriétés que nous verrons plus tard.

Bibliographie
– Des livres en français.
– D.-C. Lay Algèbre linéaire : Théorie, exercices et applications, 2004, De Boeck.
1. Al-Khwarizmi né vers 783, originaire de Khiva dans la région du Khwarezm qui lui a donné son nom, mort vers 850 à Bagdad, est un
savant musulman perse dont les écrits, rédigés en langue arabe, ont permis l’introduction de l’algèbre en Europe. Il est à l’origine des mots
algorithme (qui n’est autre que son nom latinisé) et algèbre ou encore de l’utilisation des chiffres arabes dont la diffusion dans le Moyen-Orient
et en Europe provient d’un autre de ces livres (qui lui-même traite des mathématiques indiennes) et de l’habitude de désigner l’inconnue par
la lettre x dans une équation. Il a d’ailleurs participé à la traduction de nombreux manuscrits scientifiques grecs et indiens. Son apport en
mathématiques fut tel qu’il est également surnommé “le père de l’algèbre”, avec Diophante dont il reprendra les travaux.

7
1. Introduction et bibliographie

– R. Dalang- et A Chaabouni Algèbre linéaire : Aide mémoire, exercices et applications, 2005, PPUR.
– A. Denmat et F. Héaulme Algèbre linéaire : Travaux Dirigés, 1995, Dunod.
– F. Liret, D. Martinais Algèbre 1ère année. Cours et exercices avec solutions, 2003, Dunod.
– Si vous voulez en savoir plus....
J.-M. Monnier Algèbre MPSI : Cours, méthodes et exercices corrigés, 2006, Dunod.
– Des livres en anglais.
– G. Strang Introduction to Linear Algebra, fourth edition , 2009, Wellesley-Cambridge Press U.S. La lecture
de ce livre st fortement conseillé. Le premier chapitre est très largement inspiré de ce livre.
– J. H Hubbard, B. Burke Hubbard Vector Calculus, Linear Algebra, and Differential Forms : A Unified Ap-
proach, 2005, Prentice Hall.
– Quelques sites utiles (cours, exercices corrigés etc...)
http://www.cmi.univ-mrs.fr/˜herbin/L1
http://wims.unice.fr
http://wims.auto.u-psud.fr/wims/wims.cgi?module=U1/algebra/docsyslin.fr
http://ocw.mit.edu/courses/mathematics/18-06-linear-algebra-spring-2010
http://home.scarlet.be/˜ping1339
http://rutherglen.science.mq.edu.au/wchen/lnlafolder/lnla.html
https://intranet.insa-toulouse.fr/displayContent.do?courseId=168
http://www.sciences.ch/htmlfr/algebre/algebrelineaire01.php
. . . et beaucoup d’autres. . .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 8 Algèbre linéaire, Maths générales II


Chapitre 2

Algèbre linéaire dans R2 et R3

Nous allons dans ce chapitre introduire quelques notions nouvelles dans un cadre concret, celui de la droite, du plan
et de l’espace, ce qui nous permettra aussi de réviser quelques connaissances que vous avez acquises en secondaire
et au premier semestre.

2.1 Vecteurs de R2 et R3
2.1.1 Vecteurs et combinaisons linéaires
Dans ce premier chapitre, nous noterons en gras un vecteur u de R2 ou de R3 que vous avez peut être noté − →u
dans vos classes précédentes. On s’affranchira de la notation en gras ou avec flèche au fur et à mesure de ce cours,
en particulier lorsqu’on introduira les vecteurs comme des “éléments d’un espace vectoriel”, dont nous donnerons
une définition précise plus tard.
Soient u et v des vecteurs de R2 qui sont définis (pour l’instant) par des paires de réels (u1 , u2 ) et (v1 , v2 ). On
notera aussi les vecteurs sous forme de colonnes contenant les composantes :
   
u1 v
u= , v= 1 .
u2 v2

L’addition des deux vecteurs u et v s’écrit :


     
u1 v u + v1
u+v = + 1 = 1 .
u2 v2 u2 + v2

On peut multiplier un vecteur u ∈ R2 (ou R3 ) par un réel α ∈ R :


   
u αu1
αu = α 1 = .
u2 αu2

Définition 2.1 On appelle combinaison linéaire de u et v ∈ R2 tout vecteur w de la forme w = αu + βv, où α
et β sont des réels, c.à.d. :    
w1 αu1 + βv1
w= = .
w2 αu2 + βv2

Ces propriétés s’appliquent bien sûr aussi aux vecteurs de R3 . Un vecteur u de R3 est donné par ses trois compo-
santes (u1 , u2 , u3 ), et le vecteur s’écrit alors :  
u1
u =  u2  .
u3
La combinaison linéaire de u et v dans R3 avec les coefficients α et β s’écrit
   
w1 αu1 + βv1
w = w2  = αu2 + βv2  .
w3 αu3 + βv3

9
2.1. Vecteurs de R2 et R3 2. Algèbre linéaire dans R2 et R3

 
Remarque 2.2 (Notations · · · et (· · · )) On a identifié des couples ou des triplets de réels avec des vecteurs
écrits sous forme de colonnes. Toutefois, il faudra bien faire attention de ne pas confondre
 le vecteur
 (u1 , u2 , u3 ),
qui est le vecteur colonne dont les composantes sont u1 , u2 et u3 , avec le vecteur u1 u2 u3 qui est un vecteur
ligne dont les composantes sont les mêmes que celles du vecteur u mais qui n’est pas du tout le même objet
mathématique. Ce vecteur ligne s’appelle “vecteur transposé” du vecteur u.
Dans la définition précédente, on a défini une combinaison linéaire de deux vecteurs. Cette définition contient le
cas d’une combinaison linéaire d’un seul vecteur, en prenant le deuxième égal au vecteur nul. Mais on peut aussi
bien sûr généraliser la définition de combinaison linéaire pour trois, quatre, ..., n vecteurs. Une question importante
qui reviendra souvent pendant ce cours est justement de déterminer l’ensemble de toutes les combinaisons linéaires
d’un vecteur, de deux vecteurs, de trois vecteurs ? Evidemment, le résultat dépend des vecteurs... Si par exemple on
cherche toutes les combinaisons linéaires αu et que le vecteur u est le vecteur nul, on obtient que l’ensemble des
combinaisons linéaires est réduit au vecteur nul. Si par contre le vecteur u est non nul, l’ensemble des combinaisons
linéaires est la droite de vecteur directeur u. Par exemple, l’ensemble des combinaisons linéaires des deux vecteurs
   
1 1
0 et 1
0 1
est un plan, tandis que l’ensemble des combinaisons linéaires des deux vecteurs :
   
1 −1
0 et  0 
0 0
est une droite.
Exemple 2.3 On cherche à écrire les deux équations que vérifient les inconnues (réelles) α et β pour que la
combinaison linéaire αu + βv soit égale à b, avec :
     
1 −1 1
u= , v= , et b = .
3 2 5
Pour ce faire, on écrit la combinaison linéaire et l’égalité avec le vecteur b ; on écrit ensuite l’égalité compo-
sante par composante. On obtient ainsi le système suivant, qui est un système linéaire à deux équations et deux
inconnues : 
α−β =1
3α + 2β = 5.

2.1.2 Produit scalaire, norme


Définition 2.4 Le produit scalaire de deux vecteurs u = (u1 , u2 ) et v = (v1 , v2 ) de R2 est le réel : u · v =
u1 v1 + u2 v2 . De même, le produit scalaire de deux vecteurs u = (u1 , u2 , u3 ) et v = (v1 , v2 , v3 ) de R3 est le réel :
u · v = u1 v1 + u2 v2 + u3 v3 .
On rappelle que le produit scalaire de deux vecteurs orthogonaux est nul.

Définition 2.5 La norme euclidienne d’un vecteur u de R2 ou R3 est le réel positif ou nul kuk = u · u.

On appelle vecteur unitaire un vecteur u dont la norme est égale à 1 : kuk = u · u = 1. Si u et v sont deux
vecteurs unitaires, alors u · v = cos θ, où θ est l’angle entre les vecteurs u et v. On remarque donc que le produit
scalaire de deux vecteurs unitaires est toujours compris entre -1 et 1.
Pour deux vecteurs quelconques ũ et ṽ, la formule donnant le cosinus de l’angle θ entre les deux vecteurs devient :
ũ · ṽ
cos θ = ,
kũkkṽk
ce qui se démontre très facilement en posant u = kũ ũk et v = kṽk : les deux vecteurs u et v sont maintenant

unitaires et on a donc u · v = cos θ, d’où le résultat 1 .


On rappelle enfin deux inégalités absolument fondamentales : pour tous vecteurs u et v de R2 ou R3 ,

Inégalité de Cauchy-Schwarz : |u · v| ≤ kukkvk


Inégalité triangulaire : ku + vk ≤ kuk + kvk
1. Ce raisonnement s’appelle un raisonnement par homogénéité.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 10 Algèbre linéaire, Maths générales II


2.2. La notion de matrice 2. Algèbre linéaire dans R2 et R3

2.1.3 Exercices
Les exercices de cette section sont tirés de ou inspirés par quelques uns des nombreux exercices du livre de G.
Strang dont nous conseillons vivement la lecture. . .
Exercice
  1 Justifier si les assertionssuivantes
   sont vraies ou fausses :
0 1 0
1. 0 est combinaison linéaire de 0 et 1.
0 0 0
2. Soient u un vecteur de R2 et α ∈ R. Si αu = 0, alors α = 0 ou u = 0.
3. Soient u et v deux vecteurs de R2 . Si u · v = 0, alors u = 0 ou v = 0.
4. Soient u et v deux vecteurs de R3 . On suppose qu’il existe deux réels α et β tels que αu + βv = 0. Alors
l’ensemble des combinaisons linéaires de u et v est une droite.
5. Il existe 2 vecteurs u et v de R2 tel que tout vecteur de R2 est combinaison linéaire de u et v.
6. Il existe 2 vecteurs u et v de R3 tel que tout vecteur de R3 est combinaison linéaire de u et v.

Exercice 2 Décrire géométriquement (droite, plan ou R3 tout entier) l’ensemble des combinaisons linéaires des
vecteurs suivants :
             
1 2 1 0 1 0 1
(a) 2 et 4 (b) 0 et 1 (c) 0 , 1 et 1
3 6 0 2 0 1 1

Exercice 3 On considère les 12 vecteurs de R2 , uk , k = 1, . . . 12, de composantes (cos kπ kπ


6 , sin 6 ). Dessiner les
12
X 12
X
12 vecteurs, puis calculer uk , et enfin calculer uk .
k=1 k=1
k6=2

Exercice 4 On se donne trois points dans R3 de coordonnées (0, 0, 0), (1, 0, 0), (0, 1, 0). Combien y-a-t’il de cubes
pouvant avoir pour sommets ces 3 points ? Pour l’un de ces cubes, donner les coordonnées des autres sommets
ainsi que des centres des faces.

Exercice 5 Trouver deux vecteurs v et w non nuls qui sont orthogonaux à u = (1, 1, 0) et orthogonaux entre eux.

Exercice 6 Quelle est la norme euclidienne du vecteur (1, 1, . . . , 1) dans R25 ?

Exercice 7 Soient u et v deux vecteurs de R3 dont les normes sont kuk = 3 et kvk = 4. Quelles sont les valeurs
maximale et minimale de ku − vk et u · v ?

Exercice 8 Soient u = (x, y, z) un vecteur du plan de R3 d’équation x + y + z = 0, et v = (z, x, y).


1. Montrer que u · v = − 21 kukkvk.
2. Calculer l’angle entre u et v.

2.2 La notion de matrice


Nous allons maintenant introduire la notion de matrice, ou plutôt son action sur un vecteur. En gros, une matrice est
un tableau de nombres. Voyons tout de suite quelle est la définition de son action sur un vecteur, ce qu’on appelle
aussi la multiplication matrice vecteur.

2.2.1 Ecriture matricielle d’une combinaison linéaire


Commençons par un exemple dans R2 . On peut écrire l’égalité :
           
2 −1 4 2 −1 4
3 +2 = ou encore 3u + 2v = b avec u = ,v = et b = .
1 2 7 1 2 7
On introduit la matrice 2 × 2 qui est un tableau dont la première colonne est le vecteur u et la deuxième colonne
le vecteur v :  
  2 −1
A= u v = .
1 2

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 11 Algèbre linéaire, Maths générales II


2.2. La notion de matrice 2. Algèbre linéaire dans R2 et R3

Grâce à cette matrice, on réécrit la combinaison linéaire 3u + 2v comme le produit de la matrice A avec le vecteur
(3, 2) :         
2 −1 2 −1 3 4
3u + 2v = 3 +2 = = .
1 2 1 2 2 7
Notons x le vecteur de composantes (3, 2). Le produit Ax de la matrice A par le vecteur x est la combinaison
linéaire 3u + 2v. Plus généralement si x est un vecteur de composantes (x1 , x2 ), le produit Ax est la combinaison
linéaire x1 u + x2 v, c.à.d première composante du vecteur fois première colonne de la matrice plus deuxième
composante du vecteur fois deuxième colonne de la matrice. Plus qu’une définition du produit matrice vecteur
(qu’on verra plus en détail au chapitre suivant), ceci est le véritable concept : au départ ce sont les coefficients x1
x2 qui multiplient les vecteurs, maintenant c’est la matrice formée par ces vecteurs qui multiplie le vecteur x dont
les composantes sont x1 et x2 .
A retenir :
Le résultat d’un produit matrice vecteur est toujours une combinaison linéaire des colonnes de la matrice.
On peut alors aussi remarquer que le vecteur Ax s’écrit
         
2 −1 2x1 − x2 (2, −1) · (x1 , x2 ) ℓ (A) · x
Ax = x1 u + x2 v = x1 + x2 = = = 1 .
1 2 x1 + 2x2 (1, 2) · (x1 , x2 ) ℓ2 (A) · x

La première composante de Ax est le produit scalaire de la première ligne de A, ℓ1 (A), avec le vecteur x, et la
deuxième composante de Ax est le produit scalaire de la deuxième ligne de A, ℓ2 (A), avec le vecteur x. C’est un
autre moyen, très couramment utilisé, de calculer le produit matrice vecteur.
Considérons comme deuxième exemple 2 les trois vecteurs de R3 suivants :
     
1 0 0
u = −1 , v =  1  , w = 0 . (2.2.1)
0 −1 1

Ecrivons la combinaison linéaire αu + βv + γw :


       
1 0 0 α
α −1 + β  1  + γ 0 = β − α .
0 −1 1 γ−β

On écrit maintenant cette combinaison linéaire sous forme matricielle, c.à.d. à l’aide d’un tableau de nombres,
qu’on note A ; le vecteur u est la première colonne du tableau, le vecteur v la seconde, et le vecteur w la troisième :
    
1 0 0 α α
−1 1 0 β  = β − α .
0 −1 1 γ γ−β

Les scalaires α, β, γ sont les composantes d’un vecteur x de R3 . Le produit de la matrice A par le vecteur x est la
combinaison linéaire αu + βv + γw des trois colonnes de A.
    
1 0 0 α   α
Ax = −1 1 0 β  = u v w β  = αu + βv + γw.
0 −1 1 γ γ

Revenons sur le concept du produit matrice vecteur exposé plus haut pour un vecteur de R2 : au départ ce sont les
coefficients α β γ qui multiplient les vecteurs, maintenant c’est la matrice formée par ces vecteurs qui multiplie le
vecteur x dont les composantes sont α, β et γ. Du coup on va maintenant renommer les composantes α, β et γ de
x en x1 , x2 , x3 . En notant b1 , b2 , b3 les composantes de Ax = b, on obtient :
      
1 0 0 x1 x1 b1
Ax = −1 1 0 x2  = x2 − x1  = b2  = b.
0 −1 1 x3 x3 − x2 b3

Comme dans le cas de l’exemple précédent, on peut alors introduire une autre vision (qui est la plus habituelle
dans la plupart des ouvrages) du produit matrice vecteur Ax : les composantes du vecteur b = Ax sont obtenues
2. Cet exemple est tiré du livre de Gilbert Strang, Introduction to Linear Algebra, Wellesley-Cambridge

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 12 Algèbre linéaire, Maths générales II


2.2. La notion de matrice 2. Algèbre linéaire dans R2 et R3

en effectuant le produit scalaire de chaque ligne de la matrice avec le vecteur x. Sur l’exemple qu’on vient de voir,
ceci donne :
        
1 0 0 x1 (1, 0, 0) · (x1 , x2 , x3 ) x1 b1
Ax = −1 1 0 x2  = (−1, 1, 0) · (x1 , x2 , x3 ) = x2 − x1  = b2  = b.
0 −1 1 x3 (0, −1, 1) · (x1 , x2 , x3 ) x3 − x2 b3

En général, quand on fait des calculs à la main de matrice (on aimerait que ce soit le moins souvent possible, les
ordinateurs sont là pour ça !) c’est cette façon là qu’on emploie.

2.2.2 Equations linéaires


Jusqu’à présent, on a supposé que le vecteur x, dont les composantes sont les coefficients de la combinaison
linéaire, était connu, et on cherchait à calculer la combinaison linéaire b résultante. Supposons maintenant au
contraire qu’on cherche les coefficients de la combinaison linéaire des trois vecteurs u, v et w définis par (2.2.1)
de manière à ce qu’elle soit égale au vecteur b, qui lui est maintenant supposé connu. On cherche donc x1 , x2 et x3
tels que x1 u + x2 v + x3 w = b. Ceci revient à résoudre un système linéaire en x1 , x2 et x3 . La question “Trouver
les coefficients x1 , x2 , x3 tels que la combinaison linéaire x1 u + x2 v + x3 w soit égale à b” est équivalente à la
question “résoudre le système Ax = b”. Avec la matrice A définie par
 
1 0 0
A = −1 1 0 ,
0 −1 1
 
 x1 = b1  x1 = b1
le système Ax = b s’écrit −x1 + x2 = b2 et a comme solution x2 = b1 + b2 (2.2.2)
 
−x2 + x3 = b3 x3 = b1 + b2 + b3 .
Notons que ce système est particulièrement simple parce qu’on a directement x1 à partir de la première équation,
on peut ensuite substituer x1 dans la deuxième équation et trouver x2 , et enfin substituer x1 et x2 dans la troisième
équation et trouver x3 . Ceci est possible parce qu’on travaille avec une matrice “triangulaire inférieure”, c’est à
dire une matrice dont tous les coefficients au dessus de la diagonale sont nuls. Evidemment, tous les systèmes ne
sont pas aussi simples à résoudre.
Remarquons que si b = 0 (le vecteur de composantes (0, 0, 0)) la solution x du système est x = 0. Ceci est une
propriété remarquable, qui est vraie pour la matrice A de ce système, mais qui ne l’est pas pour n’importe quelle
matrice. . . Remarquons également que pour n’importe quel b = (b1 , b2 , b3 ), le calcul ci–dessus va nous fournir un
unique x = (b1 , b1 + b2 , b1 + b2 + b3 ). Cette propriété est dûe au fait que la matrice A est inversible, au sens où,
à partir de n’importe quel b, on peut récupérer un et un seul x (on verra plus loin la définition précise de matrice
inversible).
   
 x1 = b1 1 0 0 b1
Si Ax = b, alors x = x2 = b1 + b2 = 1 1 0 b2  = Sb. (2.2.3)

x3 = b1 + b2 + b3 1 1 1 b3
Donc la solution du système Ax = b est donnée par x = Sb. On dit que S est la matrice inverse de A, notée A−1 .
On obtient b à partir de x en multipliant x par A. On retrouve x en multipliant b par A−1 . La matrice A−1 défait
ce que la matrice A a fait. On peut aussi écrire A−1 Ax = x.

Considérons maintenant les trois vecteurs de R3 suivants :


     
1 0 −1
u = −1 , v =  1  , w̃ =  0  .
0 −1 1

Les deux premiers vecteurs u et v sont les mêmes que précédemment, mais le vecteur w̃ a un -1 en première
composante au lieu d’un zéro. La matrice C formée par ces trois vecteurs s’appelle la matrice des différences
cycliques. Elle s’écrit :  
  1 0 −1
C = u v w̃ = −1 1 0 ,
0 −1 1

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 13 Algèbre linéaire, Maths générales II


2.2. La notion de matrice 2. Algèbre linéaire dans R2 et R3

et les combinaisons linéaires des vecteurs x1 u + x2 v + x3 w s’écrivent de manière matricielle :


    
1 0 −1 x1 x1 − x3
Cx = −1 1 0  x2  = x2 − x1  = b.
0 −1 1 x3 x3 − x2

Ce système est nettement moins facile à résoudre que le précédent, et même, en fait il est impossible de trouver la
solution du système, vu que le système admet une infinité de solutions, ou au contraire pas de solution du tout. Par
exemple,  
1
le système Cx = 0 admet comme solution x = 1 ,
1
mais aussi tous les vecteurs de la forme αx, α ∈ R. Mais par contre,
 
1
le système Cx = b = 0 n’admet aucune solution,
0

car la somme des trois composantes de Cx vaut zéro alors que la somme des trois composantes du second membre
b vaut 1. Géométriquement, ceci revient à dire qu’il n’existe pas de combinaison linéaire des trois vecteurs u, v
et w̃ qui donne le vecteur b = (1, 0, 0). Donc l’ensemble des combinaisons linéaires des trois vecteurs u, v et
w̃ ne remplit pas tout l’espace R3 . Pour que le système Cx = b ait une solution, il faut que la somme des trois
composantes du second membre soit nulle, puisque la somme des trois composantes de Cx est toujours nulle. En
d’autres termes, toutes les combinaisons linéaires x1 u + x2 v + x3 w̃ sont dans le plan d’équation b1 + b2 + b3 = 0.
On voit ici la différence cruciale entre les combinaisons linéaires de u, v et w, qui remplissaient tout l’espace, et
celles de u, v et w̃, qui ne remplissent qu’un plan.

2.2.3 Dépendance et indépendance


On choisit les deux premiers vecteurs colonnes u et v de la matrice précédente. L’ensemble des combinaisons
linéaires de ces deux vecteurs est un plan P de R3 .
On a vu dans les paragraphes précédents deux cas possibles : pour la matrice A, le troisième vecteur colonne w
de la matrice A n’est pas dans le même plan P : les combinaisons linéaires de u, v et w remplissent l’espace
tout entier. Pour la matrice C, le troisième vecteur colonne w̃ de la matrice C est dans le même plan P : les
combinaisons linéaires de u, v et w̃ remplissent un plan, et non plus tout l’espace. On peut écrire w̃ comme
combinaison linéaire de u et v.

Le vecteur w n’est pas dans le plan de u et v ; les vecteurs sont “indépendants” ou “libres”.
La seule combinaison qui donne b = 0 est 0u + 0v + 0w.

Le vecteur w̃ est dans le plan de u et v ; les vecteurs sont “dépendants” ou “liés”.


Il y a des combinaisons à coefficients non nuls qui donnent b = 0 (car u + v + w = 0).

Les notions de dépendance et d’indépendance sont fondamentales, et nous y reviendrons plus en détail par la
suite. On peut déjà remarquer sur cet exemple les liens entre la notion d’indépendance des vecteurs colonnes de la
matrice et la résolution des systèmes :

Colonnes indépendantes . Ax = 0 a une solution unique x = 0. La matrice A est inversible.


Colonnes dépendantes . Cx = 0 a plusieurs solutions. La matrice C n’est pas inversible.

2.2.4 Exercices
Exercice 9 (On commence tout doucement.)
1. Soit    
1 2 2
A= et x = .
−1 1 3
Construire géométriquement le vecteur Ax, et calculer ses composantes.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 14 Algèbre linéaire, Maths générales II


2.2. La notion de matrice 2. Algèbre linéaire dans R2 et R3

2. Même question avec    


1 −1 2
A= et x = .
2 1 3

3. Effectuer maintenant les produits Ax à l’aide des produits scalaires des lignes de la matrice par le vecteur x.
Exercice 10 (On continue doucement.)
1. Soient u et v deux vecteurs de R2 . Soit A la matrice dont la première colonne est u et la seconde v.
   
1 0
(a) Ecrire A pour u = et v = . Cette matrice s’appelle la matrice identité et se note Id2 (l’indice
0 1
2 signifiant qu’il s’agit d’une matrice carrée d’ordre 2). Calculer Id2 x pour x ∈ R2 .
(b) On suppose maintenant u et v quelconques. Soit x = (2, −1). Le produit Ax est une combinaison des
colonnes de A. Exprimer cette combinaison linéaire.    
1 2
Donner les composantes du vecteur résultant pour u = et v = .
2 −1
 
2. Soient u, v et w trois vecteurs de R3 . La multiplication d’une matrice A = u v w par le vecteur
colonne x = (2, −1, 3) donne une combinaison descolonnes
 de A.Exprimercette
 combinaison linéaire.
1 2 0
Donner les composantes du vecteur Ax pour u = 2 , v = −1 et w = 1 .
0 1 2
3. Exprimer la matrice identité Id3 , c.à.d. la matrice telle que Id3 x = x pour tout x ∈ R3 .
Exercice 11 (Produit matrice vecteur pour une matrice n × p) Si A est une matrice de n lignes et p colonnes,
on la multiplie par un vecteur x pour obtenir un vecteur b qui est combinaison linéaire des colonnes de A. Quel
est le nombre de composantes des vecteurs x et b ?
Exercice 12 (Combinaisons linéaires de deux vecteurs dans R3 .) Soient u et v deux vecteurs de R3 . On note
E l’ensemble de leurs combinaisons linéaires. Discuter en fonction de u et v si les situations suivantes peuvent
avoir lieu ?
1. E = ∅,
2. E est réduit au vecteur nul,
3. E est une droite,
4. E est un plan,
5. E est l’espace tout entier.
     
a b 1 0
Exercice 13 (Matrice et linéarité) Soit A = une matrice 2 × 2. Soient u = et v = .
c d 0 1
1. Calculer Au et Av.
2. Soient α et β des réels. Calculer A(αu + βv) et αAu + βAv. Comparer. Montrer que cette propriété est
encore vraie pour n’importe quels vecteurs u, v de R2 . C’est cette propriété qu’on appelle linéarité : on
verra plus loin (chapitre 6) que l’application x 7→ Ax est une application linéaire.
Exercice 14 (Matrice d’élimination) Soient ℓ ∈ R, x = (x1 , x2 ) ∈ R2 et soit E la matrice 2 × 2 définie par
 
1 0
E= .
−ℓ 1
1. Calculer b = Ex. Quelle est l’opération effectuée sur les lignes de x lorsque l’on effectue le produit Ex ?
 
1 0
2. Soit F = . Calculer c = F b. Décrire (en Français...) l’opération effectuée sur les lignes de b lorsque
ℓ 1
la matrice F multiplie le vecteur b.
Exercice 15 (Une propriété surprenante, à première vue) Soient (a, b) et (c, d) ∈ R2 .
1. On suppose que (a, c) et (b, d) sont colinéaires. Montrer qu’alors (a, b) et (c, d) sont colinéaires.
 
a b
2. Soit A = ; montrer que les vecteurs colonnes de A sont liés si et seulement si les vecteurs lignes de
c d
A le sont.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 15 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

2.3 Méthode du pivot de Gauss


2.3.1 Ecriture vectorielle et matricielle des systèmes linéaires
Considérons le système de deux équations à deux inconnues :

x + 2y = 4
(2.3.4)
2x − 3y = 1

Regardons ce qui se passe ligne par ligne. Chaque ligne donne l’équation d’une droite, qu’on représente dans la
figure 2.1. Pour que le couple (x, y) vérifie les deux équations, il faut donc que le point de coordonnées x et y soit
l’intersection des deux droites. C’est ce qu’on appelle la vision “par lignes” du système : la solution du système
(2.3.4) est l’intersection de deux droites. Voyons maintenant un peu ce qui se passe si on regarde les choses “par

2x − 3y = 1
x + 2y = 4

x = 2, y = 1

F IGURE 2.1 – Vision par lignes : la solution du système est l’intersection des droites

colonnes”. On va maintenant lire le système (2.3.4) comme une équation vectorielle faisant intervernir les vecteurs :
     
1 2 4
u= ,v = et b = .
2 −3 1

Avec ces vecteurs, on peut réécrire le système (2.3.4) comme une seule équation vectorielle

xu + yv = b.

On cherche la “bonne” combinaison linéaire de u et v (c.à.d. les bons coefficients x et y) qui va donner b, comme
on le voit sur la figure 2.2 ; ceci s’écrit aussi avec les vecteurs colonnes :
     
1 2 4
x +y = = b.
2 −3 1

Avec le choix x = 2 et y = 1, on retrouve bien b : on va donc multiplier le vecteur u par x = 2 et le vecteur v par
y = 1 puis additionner les vecteurs 2u et v pour trouver b.
     
1 2 4
2 + = = b.
2 −3 1

On réécrit maintenant l’équation vectorielle sous forme matricielle. La matrice A est un tableau de 2 × 2 nombres,
dont la première colonne est le vecteur u et la deuxième colonne le vecteur v :
 
1 2
A= .
2 −3

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 16 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

y
 
2
··· 2u =
✕ ··· 4
···
···
···
·
  ····
1 ···
u= ···
✕ 2 ···
···  
··· 4
✿···· b = 1
··
··
···
· x
··
··
···
·
··
··
···
·
··
··
···
·
··
·· 
··· 2

·
·
❫·· v =
−3

F IGURE 2.2 – Vision par colonnes

Dans la vision par colonnes, le produit de la matrice A par le vecteur x = (x, y) est égal à la combinaison linéaire
xu + yv :       
1 2 x 1 2
Ax = =x +y .
2 −3 y 2 −3
Dans la vision par lignes, le produit de la matrice A par le vecteur x = (x, y) est un vecteur b dont la première
composante est le produit scalaire de la première ligne de la matrice avec le vecteur x et la deuxième composante
le produit scalaire de la deuxième ligne de la matrice avec le vecteur x. Lorsqu’on regarde les lignes de A, on a la
vision “par lignes”, et lorsqu’on regarde les colonnes, on a la vision “par colonnes”. Le système d’équations sous
forme matricielle s’écrit alors :     
1 2 x 4
= .
2 −3 y 1
On effectue la multiplication matrice vecteur soit en effectuant le produit scalaire des lignes avec le vecteur de
composantes (x, y) soit par combinaison linéaire des colonnes de A. On a vu que la solution de ce système est
x = 2 et y = 1.
Dans le chapitre suivant, on va résoudre des systèmes de n équations à n inconnues, et la matrice du système
sera donc un tableau de n × n nombres. Mais donnons maintenant un exemple dans R3 . On considère le système
linéaire : 
 x +y +z =3
x +2y +3z = 9 (2.3.5)

x −2y +4z = 12
qui s’écrit sous forme matricielle :     
1 1 1 x 3
1 2 3  y  =  9  .
1 −2 4 z 12
Donnons les visions “par lignes” et “par colonnes” pour cet exemple.

Vision “lignes” Chaque ligne du système est l’équation d’un plan dans R3 . Le système (2.3.5) possède une
unique solution si les plans se coupent en un point. Le produit Ax s’effectue par lignes en prenant les produits
scalaires :    
x (ligne1) · x
Ax = A y  = (ligne 2) · x
z (ligne 3) · x

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 17 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

Vision “colonnes” Résoudre le système revient à trouver les bons coefficients x, y et z d’une combinaison
linéaire xu + yv + zw des vecteurs u, v et w pour que xu + yv + zw = b, avec :
     
1 1 1
u = 1 , v =  2  et w = 3 .
1 −2 4

Le produit Ax s’effectue par colonnes en calculant la combinaison linéaire :

Ax = x (colonne 1) + y (colonne2) + z (colonne 3).

Avec la matrice A ci-dessus, on remarque que b = 3(colonne 3). On en déduit que la solution du système est
(x, y, z) = (0, 0, 3) (mais les choses ne sont évidemment pas toujours aussi simples !).

2.3.2 Elimination
Un exemple 2 × 2
Vous avez vu en secondaire comment résoudre un système par élimination et substitution. On va étudier cette
année une procédure systématique d’élimination, celle qui est utilisée dans les programmes informatiques pour la
résolution des systèmes linéaires, et qui est connue sous le nom de méthode de Gauss 3 . Sur le système précédent,
 
x + 2y = 4 x + 2y = 4 (multiplier la première équation par 2)
devient (2.3.6)
2x − 3y = 1 −7y = −7 (puis soustraire à la deuxième)

La deuxième équation donne alors y = 1, puis en substituant cette valeur dans la première x = 2. L’étape
d’élimination produit un système dont la matrice est triangulaire supérieure (les coefficients sous la diagonale sont
nuls). Une fois que la matrice du système est sous forme triangulaire supérieure, il est très facile de le résoudre par
substitution.
La solution du système d’origine et du système après élimination est la même, comme on peut le voir sur la vision
“en ligne” des figures 2.1 et 2.3.
y

x + 2y = 4
x = 2, y = 1
−7y = −7

F IGURE 2.3 – le système après élimination dans la deuxième équation : Vision par lignes : la solution du système
est l’intersection des droites, elle n’a pas changé.

Même si ce système est très simple à résoudre et que vous auriez très certainement réussi à le faire sans ce cours
d’algèbre linéaire, cela vaut le coup d’analyser les opérations qu’on a effectuées pour comprendre la méthode et
l’appliquer dans des cas plus compliqués.
Pour éliminer x dans la deuxième équation, on a multiplié la première équation par 2 et on l’a soustraite à la
deuxième. On a utilisé pour cela le fait que le premier coefficient de la première ligne est 1, et en particulier non
3. Johann Carl Friedrich Gauss (30 avril 1777 – 23 février 1855) est un mathématicien, astronome et physicien allemand. Il est considéré
comme l’un des plus grands mathématiciens de tous les temps.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 18 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

nul : on dit que c’est le pivot. Comme le coefficient devant x dans la deuxième équation est 2, le multiplicateur
pour l’élimination est donc aussi 2.
Prenons le même système, mais où on a multiplié la première ligne par 5 : l’élimination va se faire maintenant de
la manière suivante :
 
5x + 10y = 20 5x + 10y = 20 (multiplier la première équation par 52
devient (2.3.7)
2x − 3y =1 − 7y = −7 (puis soustraire à la deuxième)

La solution reste évidemment la même, mais maintenant, le premier coefficient de la première ligne est 5. Comme
le coefficient devant x dans la deuxième équation reste égal 2, le multiplicateur est maintenant 52 .
La deuxième équation a elle aussi un pivot, qui est égal à -7, et qui permet d’obtenir la solution (on l’utiliserait
pour éliminer y dans la troisème équation s’il y en avait une). Pour résoudre un système de deux équations à deux
inconnues, on a utilisé 2 pivots. Pour résoudre un système de n équations à n inconnues, on aura besoin de n
pivots. Notez qu’à la fin de l’élimination, le système obtenu a une forme triangulaire, et que les pivots sont sur la
diagonale du “triangle”.
Voyons maintenant si les choses peuvent se passer plus mal (et oui... elles le peuvent !)

Echecs possibles de l’élimination de Gauss


Si on programme l’algorithme de Gauss comme expliqué au paragraphe précédent et qu’on l’applique à n’importe
quelle matrice, il est possible que le résultat soit “NaN” ce qui veut dire en décodé “Not a Number” : l’ordinateur
vous répond que vous essayez de diviser par zéro et qu’il ne sait pas faire... petite explication sur trois exemples
faciles, déduits du précédent.
Exemple 2.6 (Echec total de l’élimination : pas de solution) Avec le système suivant :
 
x − 2y = 4 x − 2y = 4 (multiplier la première équation par 2)
devient (2.3.8)
2x − 4y = 1 0y = −7 (puis soustraire à la deuxième)

l’élimination ne marche pas parce qu’arpès élimination de x, la deuxième équation a un zéro devant le y, et on ne
peut pas diviser par 0 (comme votre ordinateur vous le fera savoir si vous essayez. . . ) ; on dit aussi qu’on a “un
zéro en position pivotale”, mais il est absolument interdit de dire “un pivot nul”, parce qu’un pivot n’est jamais
nul.
Cet échec peut être interprété géométriquement (vision “lignes”) par le fait que les deux équations du sytème sont
les équations de deux droites parallèles et non confondues, et donc ont une intersection vide.
On peut aussi l’interpréter vectoriellement (vision “colonnes”) par le fait qu’on ne peut pas atteindre le vecteur
(4, 1) par une combinaison linéaire des vecteurs (1, 2) et (−2, −4)

Exemple 2.7 (Echec de l’élimination, mais infinité de solution) Dans l’exemple précédent, on remplace le se-
cond membre (4, 1) par (4, 8) :
 
x + 2y = 4 x + 2y = 4 (multiplier la première équation par 2)
devient (2.3.9)
2x + 4y = 8 0y = 0 (puis soustraire à la deuxième)

Là encore on a un zéro en position pivotale, et votre ordinateur risque de ne pas aimer si vous n’avez pas mis
de test dans votre programme. . . . Mais contrairement à l’exemple précédent, on a maintenant une solution au
système, et même une infinité de solutions : en effet, tout y ∈ R satisfait la deuxième équation et une fois qu’on a
choisi un y, on obtient x par la première. Dans la vision “lignes”, les droites qui étaient parallèles dans l’exemple
précédent sont maintenant confondues. Dans la vision “colonnes”, le second membre b = (4, 8) est maintenant
sur la même droite que les vecteurs colonnes (1, 2) et (2, 4) de la matrice du système.

Exemple 2.8 (Echec temporaire de l’élimination : deux pivots obtenus par échange de ligne)
Supposons qu’on ait un zéro en position pivotale de la première ligne :
 
0x + 2y = 4 2x − 3y = 1
(devient, après échange) (des deux lignes) (2.3.10)
2x − 3y = 1 0x + 2y = 4

Le nouveau système est sous forme triangulaire, et il est donc prêt pour l’étape de substitution, dite aussi étape de
remontée. La deuxième équation donne y = 2 puis la première x = 27 . Les pivots du système sont 2 et 2, mais pour
les obtenir on a dû échanger les lignes.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 19 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

Les deux premiers exemples sont des systèmes non inversibles (ou singuliers) : dans les deux cas on n’a pas de
pivot pour la seconde équation (zéro en position pivotale). Les systèmes singuliers ont soit 0 solution, soit une
infinité de solutions. Le deuxième exemple fait apparaı̂tre un système inversible (ou régulier). On obtient les deux
pivots souhaités (parce qu’on a deux équations et deux inconnues) et on a une solution unique.

Théorie générale pour les systèmes 2 × 2


Lemme 2.9 Soient a, b, c, d, α, β des réels. On suppose a 6= 0. Alors le système

ax+ by = α
cx+ dy = β

est équivalent au système 


ax+ by =α
bc
(d − a )y = β − ac α

Démonstration : Soit (x, y) ∈ R2 . Si (x, y) est solution du premier système, alors dans ce premier système, on
multiplie la première équation par −c/a (on a le droit car a 6= 0) et on l’additionne à la seconde équation. On
vérifie ainsi que (x, y) est solution du second système. Réciproquement, si (x, y) est solution du second système,
alors dans ce second système, on multiplie la première équation par c/a et on l’ additionne à la seconde équation.
On vérifie ainsi que (x, y) est solution du premier système. On conclut que les deux systèmes ont même ensemble
de solution. Ils sont donc équivalents.

 
a b
Théorème 2.10 Soient a, b, c, d des réels et A = . Le système Ax = b admet une solution unique pour
c d
tout b ∈ R2 si et seulement si la matrice A admet deux pivots lors de l’élimination de Gauss.

Démonstration : Dire que la matrice A admet deux pivots lors de l’élimination de Gauss signifie que, quitte à
échanger les deux lignes de A,
• le premier coefficient de la première ligne de A est non nul, et que
• après avoir fait apparaı̂tre un 0 en première position de la seconde ligne de A, le coefficient en deuxième position
est non nul.
Par le Lemme 2.9, on peut résumer cela en
• soit a 6= 0 et d − bc/a 6= 0,
• soit a = 0, et dans ce cas on intervertit les deux lignes et on a c 6= 0 et b − da/c 6= 0.
Dans chacun de ces deux cas, l’étape de remontée montre par son procédé constructif qu’il existe une unique
solution au système. On a ainsi montré que l’existence de deux pivots entraı̂ne l’existence et unicité de la solution
du système.
Montrons maintenant que si on n’a pas deux pivots alors on n’a pas existence et unicité. Si on n’a pas deux pivots
en sortie de l’élimination, on n’est donc dans aucun des cas ci-dessus, et alors on est dans l’une des situations
suivantes :
• a = 0 = c : on est ramené au système 
by = α
dy = β
qui a 0 ou une infinité de solution,
• a 6= 0 et d − bc/a = 0 : on est ramené au système

ax+ by =α
0y = β − ac α

qui a 0 ou une infinité de solution,


• c 6= 0 et b − da/c = 0 : on est ramené au système

cx+ dy =β
0y = α − ac β

qui a 0 ou une infinité de solution.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 20 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

 
a b
Définition 2.11 Soient a, b, c, d des réels. On appelle déterminant de la matrice A = et on note det(A)
c d
le réel défini par det(A) = ad − bc.
 
a b
Proposition 2.12 Si la matrice A = a deux pivots lors de l’élimination de Gauss, le déterminant de la
c d
matrice A est égal au produit des pivots. Si le nombre de pivots est strictement inférieur à 2, det(A) = 0.
Le système Ax = b admet donc une solution unique pour tout b ∈ R2 si et seulement si det(A) 6= 0.

Démonstration : Voir exercice 21.

2.3.3 Un système 3 × 3
On va maintenant effectuer l’élimination de Gauss sur le système 3 × 3 suivant :

 2x1 + 4x2 − 2x3 = 2
4x1 + 9x2 − 3x3 = 8 (2.3.11)

−2x1 − 3x2 + 7x3 = 10
Le premier pivot est le premier coefficient non nul de la première ligne, c.à.d. 2. On utilise ce pivot pour annuler
les coefficients de x1 dans les lignes 2 et 3. On soustrait 2 fois la ligne 1 à la ligne 2, et on soustrait (-1) fois la
ligne 1 à la ligne 3 :
 
 2x1 + 4x2 − 2x3 = 2 −→  2x1 + 4x2 − 2x3 = 2
ℓ2 ℓ2 −2ℓ1
4x1 + 9x2 − 3x3 = 8 ℓ3 ℓ3 −(−1)ℓ1 x2 + x3 = 4
 
−2x1 − 3x2 + 7x3 = 10 x2 + 5x3 = 12

Dans les formules ci-dessus la phrase ℓ2 ℓ2 − 2ℓ1 est à comprendre par “la ligne 2 est remplacée par la la ligne 2
- deux fois la ligne 1”. On cherche maintenant le pivot de la deuxième équation, il se trouve que c’est le coefficient
de x2 , égal à 1. On utilise ce pivot pour annuler le coefficient de x2 dans la ligne 3 :
 
 2x1 + 4x2 − 2x3 = 2 −→  2x1 + 4x2 − 2x3 = 2
1x2 + x3 = 4 ℓ3 ℓ3 −ℓ2 1x2 + x3 = 4
 
x2 + 5x3 = 12 4x3 = 8
La troisième ligne comporte un pivot égal à 4 devant x3 et donc le système est transformé par l’élimination de
Gauss en un système triangulaire supérieur :
 
 2x1 + 4x2 − 2x3 = 2  2x1 + 4x2 − 2x3 = 2
devient, après
4x1 + 9x2 − 3x3 = 8 1x2 + 1x3 = 4 (2.3.12)
 élimination de Gauss 
−2x1 − 3x2 + 7x3 = 10 4x3 = 8.

où les pivots sont écrits en gras. Ceci peut encore s’écrire

Ax = b ⇐⇒ U x = c,

      
2 4 −2 2 2 4 −2 2
avec A =  4 9 −3 , b =  8  , C = 0 1 1  , et c = 4 .
−2 −3 7 10 0 0 4 8
On effectue ensuite une remontée pour trouver la solution x du système :
La troisième équation 4x3 = 8 donne x3 = 2
La deuxième équation x2 + x3 = 4 donne x2 = 2
La première équation 2x1 + 4x2 − 2x3 = 2 donne x1 = −1.
Dans la vision en lignes, ceci veut dire que l’intersection des trois plans dont les équations sont celles du système
(2.3.12). est le point (−1, 2, 2). Dans la vision en colonnes, ceci veut dire qu’une combinaison linéaire de vecteurs
colonnes donne le second membre b :
       
2 4 −2 2
Ax = (−1)  4  + 2  9  + 2 −3 =  8  = b
−2 −3 7 10

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 21 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

ce qui s’écrit sous forme matricielle :


    
2 4 −2 −1 2
Ax =  4 9 −3  2  =  8  = b.
−2 −3 7 2 10

Dans le cas d’un système 4 × 4 ou n× n, la méthode d’élimination de Gauss fonctionne selon les mêmes principes ;
on part d’une matrice, et de colonne en colonne, on transforme A en une matrice triangulaire U , si l’élimination
marche jusqu’au bout, selon le schéma suivant :
Etape 1 Utiliser la première équation pour créer des zéros sous le premier pivot dans la colonne 1.
Etape 2 Utiliser la nouvelle équation 2 pour créer des zéros sous le deuxième pivot dans la colonne 2.
Etape 3 à n. Continuer à chercher les n pivots et la matrice triangulaire U pour les colonnes 3 à n.
 
∗ ∗ ∗ ∗
 0 ∗ ∗ ∗
Après l’étape 2, on a une matrice de la forme 
 0 0 ∗ ∗

0 0 ∗ ∗
 
∗ ∗ ∗ ∗
0 ∗ ∗ ∗
et on cherche une matrice de la forme  0 0 ∗ ∗

0 0 0 ∗

2.3.4 Géométrie affine et vectorielle


Points et vecteurs Les points sont des éléments du plan ou de l’espace. Les vecteurs de R2 sont les éléments de
R2 , c’est-à dire des couples de nombres. Les vecteurs de R3 sont les triplets de nombres.
Restons pour l’instant dans le plan et donnons-nous un repère (O, i, j). Etant donnés deux points A et B de
coordonnées (xA , yA ) et (xB , yB ), on peut définir le vecteur AB = (xB − xA , yB − yA ). Notez que (xA , yA )
désigne à la fois les coordonnées de A et le vecteur OA. De plus, on a

OA = xA i + yA j.

Vous saurez généraliser à l’espace. Le mot “droite” peut désigner 2 objets différents : lorsque c’est un ensemble de
points alignés, on parle de droite affine. Lorsque c’est un ensemble de vecteurs tous colinéaires à un vecteur fixé
u, on parle de droite vectorielle. Comme 0u = 0, on voit que toute droite vectorielle contient le vecteur nul.
On distingue de même les plans affines et les plans vectoriels (un plan vectoriel est l’ensemble des combinaisons
linéaires de 2 vecteurs non colinéaires).

Dans les systèmes... Considérons le système



ax + by = α
(S)
cx + dy = β

On sait le réécrire sous la forme Ax = b avec


     
a b x α
A= , x= , b= .
c d y β

Et là, s’agit-il de points ou de vecteurs ? Comme c’est écrit en gras, vous aurez deviné : x est un vecteur de R2 . On
est en train de chercher les x = (x, y) qui vérifient Ax = b. La matrice A agit sur un vecteur de R2 et le résultat
est un vecteur de R2 .
Mais (x, y) désigne aussi les coordonnées d’un point M qui (étant donné un repère) appartient aux deux droites
dont les équations sont ax + by = α et cx + dy = β. Dans la lecture en ligne du système (S), on a donc des
équations de droites affines du plan.
Encore une fois, ce qui est un peu perturbant, c’est que (x, y) désigne à la fois un vecteur x et les coordonnées
d’un point M tel que OM = x.
Dans la lecture en ligne d’un système de 3 équations à 3 inconnues, chaque équation est l’équation d’un plan affine
(constitué de points donc !). Dans ce cas, les inconnues (x, y, z) sont les coordonnées d’un point (s’il en existe )
qui appartient à ces 3 plans. Mais (x, y, z) est aussi un vecteur x = (x, y, z) élement de R3 .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 22 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

Une pause pour voir si on a compris Dans le plan muni d’un repère, l’équation ax + by + c = 0 désigne
(lorsque (a, b) 6= (0, 0) ) une droite affine : l’ensemble des points M de coordonnées (x, y) tels que (x, y) vérifie
cette équation.
Mais rien n’empêche de se demander quel est l’ensemble des vecteurs x = (x, y), éléments de R2 , qui vérifient
l’équation ax + by + c = 0. Ce n’est pas une droite vectorielle sauf si c = 0 (souvenez-vous que 0 appartient
toujours à une droite vectorielle !). C’est tout simplement l’ensemble des vecteurs OM lorsque M décrit la droite
affine d’équation ax + by + c = 0.

Passer des droites affines aux droites vectorielles Si D est une droite affine, on définit la droite vectorielle D
associée comme l’ensemble
D := {AB : A, B ∈ D}.
Notez que D est l’ensemble des vecteurs directeurs de D auquel on a ajouté 0.
La même définition vaut pour passer des plans affines aux plans vectoriels.
Par exemple, dans l’espace muni d’un repère, considérons le plan affine P d’équation ax + by + cz + d = 0
(avec (a, b, c) 6= (0, 0, 0)). Prenons 2 points A et B de P. On note (xA , yA , zA ) et (xB , yB , zB ) leurs coordonnées
respectives. Alors le vecteur AB associé aux points A et B, qui est dans le plan vectoriel P est (xB − xA , yB −
yA , zB − zA ). On vérifie que

a(xB − xA ) + b(yB − yA ) + c(zB − zA ) = 0.

Réciproquement, soit u = (x, y, z) un vecteur tel que ax + by + cz = 0. Fixons un point C dans P de coordonnées
(xC , yC , zC ). On définit alors le point D par ses coordonnées (xD , yD , zD ) = (x, y, z) + (xC , yC , zC ). On vérifie
que
axD + bxD + cxD + d = 0.
Donc D est dans P. De plus,
u = (xD − xC , yD − yC , zD − zC ) = CD.
Ainsi u s’écrit bien sous la forme CD où les 2 points C et D appartiennent à P.
Conclusion : Le plan vectoriel P associé à P admet pour équation : ax + by + cz = 0. Pour trouver des vecteurs
directeurs de P, il suffit donc de prendre n’importe quel vecteur (non nul) (x, y, z) qui vérifie ax + by + cz = 0.

Questions à se poser face à un exercice de géométrie Demandez-vous si vous savez bien :


i) Quelle est l’équation cartésienne/paramétrique d’une droite dans le plan / dans l’espace ? Comment passer de
l’une à l’autre ?
ii) Idem pour les plans.
iii) Comment en déduire un vecteur directeur, un vecteur normal ? (Et si vous savez justifier pourquoi il s’agit bien
d’un vecteur directeur, normal ?)

2.3.5 Exercices
Elimination par Gauss
Exercice 16 (Pivots)
 
21
1. Si A est la matrice , quels sont ses pivots lors de l’élimination par Gauss ?
66
 
0 1
2. Même question pour A = .
6 6
 
1 2 3
3. Même question pour A = 1 4 5
2 4 6

Exercice 17 (Un système particulier) Soient a, α et β des réels. On considère le système suivant :

ax + y = α
x + ay = β

Donner les valeurs de a, α et β pour lesquelles le système admet :

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 23 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

1. une solution unique,


2. une infinité de solutions,
3. pas de solution.

Exercice 18 (Un petit peu de réflexion) Montrer qu’ un système linéaire 2 × 2 (ou 3 × 3) ne peut pas avoir
exactement deux solutions.
 
a 1 2
Exercice 19 Soit A = a a 3. Pour quelles valeurs de a l’élimination de Gauss va-t-elle échouer ?
a a a

Exercice 20 (Matrices A et U dans l’algorithme de Gauss) On suppose que l’élimination de Gauss sur Ax = b
a produit le système triangulaire supérieur (équivalent) U x = c sans permutation de ligne.
1. De quelles lignes de A la ligne i de U est-elle une combinaison linéaire ?
2. Si Ax = 0, a-t-on U x = 0 ?
3. Si Ax = b, a-t-on U x = b ?
4. Si A est triangulaire inférieure, comment est la matrice U ?

Pour aller plus loin


Exercice 21 (système linéaire et déterminant) Soient a, b, c, d α et β des réels. On considère le système suivant :

ax + by = α
cx + dy = β

1. Ecrire le système sous forme matricielle Ax = b.


2. Montrer que si a = 0 et c = 0, il existe des seconds membres b pour lesquels le système n’admet pas de
solution.
3. Montrer que la matrice admet deux pivots (lors de l’élimination par Gauss) si et seulement si ad − bc 6= 0.
On appelle déterminant de la matrice A le nombre ad − bc.
4. En déduire que le système admet une solution unique pour tout second membre si et seulement si le déterminant
de la matrice est non nul.

Algèbre linéaire et géométrie


Exercice 22 (Intersection de droites dans R2 ) Déterminer parmi les couples de droites suivantes, lesquelles
sont sécantes, parallèles ou confondues. Si elles sont sécantes, déterminer les coordonnées du point d’intersection,
si elles sont parallèles ou confondues donner un vecteur directeur et un vecteur normal. Ecrire pour chaque couple
de droites la vision “par colonnes”, c.à.d. en écrivant les systèmes linéaires à résoudre sous forme de combinaisons
linéaires, puis sous forme matricielle.
1. D1 : 3x + 5y − 2 = 0 et D2 : x − 2y + 3 = 0
2. D1 : 2x − 4y + 1 = 0 et D2 : −5x + 10y + 3 = 0
 
x = 3 + 4t x=5−s
3. D1 : t ∈ R et D2 : ,s ∈ R
y =2−t y = 2 + 3s
 
x = 1 + 2t x = 3 − 4s
4. D1 : , t ∈ R et D2 : ,s ∈ R
y = 2 − 3t y = −1 + 6s

x=2+t
5. D1 : x − 2y + 3 = 0 et D2 : ,t ∈ R
y = 3 − 2t

x = 1 − 4t
6. D1 : 3x − 2y + 1 = 0 et D2 : ,t ∈ R
y = 2 − 6t

Exercice 23 (Equations de droites dans R2 ) On considère les droites D : x + 2y = 5 et D′ : 3x − y = 1 et on


note A le point d’intersection des deux droites et B le point de coordonnées (5, 2).
1. Donner une équation cartésienne de la droite (AB).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 24 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

2. Donner une équation cartésienne de la droite perpendiculaire à D et passant par B.


3. Donner une équation cartésienne de la droite parallèle à D′ et passant par B.
4. Soit C le point de coordonnées (2, −7). Donner une équation cartésienne de la médiatrice (∆) du segment
[B, C]. La droite (∆) est elle parallèle à D ? et à D′ ?

Exercice 24 (Plans et droites de R3 ) On considère le plan P d’équation x−y−z−2 = 0 et le plan P ′ d’équation


x − 2y − 3z + 1 = 0.
1. Donner les composantes de deux vecteurs non colinéaires de chacun des plans vectoriels associés aux plans
P et P ′ .
2. Donner les composantes d’un vecteur normal à chacun de ces plans. En déduire que ces deux plans sont
sécants. On note D1 l’intersection de ces deux plans.
3. Donner un vecteur directeur de cette droite D1 et vérifier que le point A = (5, 3, 0) appartient à cette droite.
En déduire une équation paramétrique de cette droite.
4. Ecrire l’équation du plan orthogonal à la droite D1 et passant par le point B = (1, 1, 1).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 25 Algèbre linéaire, Maths générales II


2.3. Méthode du pivot de Gauss 2. Algèbre linéaire dans R2 et R3

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 26 Algèbre linéaire, Maths générales II


Chapitre 3

Systèmes linéaires et matrices

3.1 Matrices et opérations sur les matrices


Jusqu’à présent, on n’a introduit que des matrices réelles, c.à..d avec des coefficients dans R. Mais on peut très bien
aussi vouloir travailler avec des matrices complexes ; dans tout ce qui suit, K est un corps qui est soit l’ensemble
des nombres réels R soit l’ensemble des nombres complexes C.

3.1.1 Définitions
Définition 3.1 Pour tous entiers strictement positifs n et p, on appelle matrice de taille n × p à coefficients
dans K un tableau à n lignes et p colonnes :
 
a1,1 · · · a1,p
 .. ..  .
 . . 
an,1 · · · an,p

Les ai,j s’appellent les coefficients de la matrice. Le premier indice est celui de la ligne et le second celui de la
colonne.

On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes. Lorsque n = p, on note simplement Mn (K) =
Mn,n (K) et on parle alors de matrice carrée. Pour n 6= p, les matrices seront dites “rectangulaires”. Si n > p,
la forme de la matrice sera celle d’un rectangle “debout” (plus haut que large), alors que si n < p, ce sera un
rectangle “couché” (plus large que haut).

Quelques matrices particulières :


 
0 ··· 0
 .. ..  ∈ M (K), qui peut être rectangulaire ou carrée si n = p.
• la matrice nulle On,p =  . . n,p
0 ··· 0
• Les matrices suivantes sont toutes des matrices carrées, i.e. des éléments de Mn (K).
 
1 0 ··· 0
 .. .
0 1 . .. 
– la matrice identité Idn = 
 .. . .
,
.. 
. . . 0
0 ··· 0 1
 
a1,1 0 ··· 0
 .. .. 
 0 a2,2 . . 
– les matrices diagonales A =  . ,
 .. . .. . ..

0 
0 ··· 0 an,n

27
3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices

   
⋆ ⋆ ··· ⋆ ⋆ 0 ··· 0
 .. ..   .. .. 
0 ⋆ . ., et inférieures L = ⋆
 ⋆ . .
– les matrices triangulaires supérieures U = 
. .
.
 .. .. .. 
 .. .. .. 
. . ⋆ . . 0
0 ··· 0 ⋆ ⋆ ··· ⋆ ⋆

Des matrices “très rectangulaires” :


• les éléments de M1,p (K) sont appelés matrices lignes ou vecteurs lignes,
• les éléments de Mn,1 (K) sont appelés matrices colonnes ou vecteurs colonnes.
On peut extraire des matrices lignes ou colonnes de matrices à plusieurs lignes et colonnes :

Définition 3.2  
– On appelle ième ligne de la matrice A = (ai,j ) ∈ Mn,p (K) la matrice ligne ai,1 · · · ai,p notée ℓi (A).
C’est un élement de M1,p (K).  
a1,j
– On appelle j ème colonne de la matrice A = (ai,j ) ∈ Mn,p (K) la matrice colonne  ...  notée cj (A). C’est
 

an,j
un élement de Mn,1 (K).

3.1.2 Opérations sur les matrices


Somme de matrices
Définition 3.3 – La somme de deux matrices A = (ai,j ) ∈ Mn,p (K) et B = (bi,j ) ∈ Mn,p (K) de même taille
n × p est la matrice C = A + B = B + A = (ci,j ) ∈ Mn,p (K) avec ci,j = ai,j + bi,j .
– Le produit d’une matrice A = (ai,j ) ∈ Mn,p (K) par un scalaire λ ∈ K est la matrice B = λA = Aλ =
(bi,j ) ∈ Mn,p (K) avec bi,j = λai,j .

Remarque 3.4 (Attention aux tailles des matrices pour la somme !) On ne peut pas définir la somme de deux
matrices de tailles différentes.

Produit de matrices Au premier chapitre, on a défini le produit d’une matrice A par un vecteur x comme la
combinaison linéaire des colonnes de A avec comme coefficients les composantes de x. Par exemple, soit A une
matrice 3×3 de coefficients ai,j , i = 1, . . . , 3, j = 1, . . . , 3 ; l’indice i représente la ligne, et l’indice j représente la
colonne. On note c1 (A), c2 (A), c3 (A) les colonnes de la matrice A. Soit x ∈ R3 , et (x1 , x2 , x3 ) les composantes
de x, alors Ax = x1 c1 (A) + x2 c2 (A) + x3 c3 (A). On peut à partir de là définir facilement le produit de deux
matrices. Soit la matrice B = (bi,j ) i=1,...,3 ∈ M3 (K) dont les colonnes sont
j=1,...,3
     
b1,1 b1,2 b1,3
c1 (B) = b2,1  , c2 (B) = b2,2  , et c3 (B) = b2,3  .
b3,1 b3,2 b3,3

On peut alors considérer chaque colonne cj (B) , j = 1, 2, 3, comme un vecteur et effectuer le produit matrice
vecteur Acj (B) :
Acj (B) = b1,j c1 (A) + b2,j c2 (A) + b3,j c3 (A).
Chaque produit donne un vecteur colonne, qu’il est naturel de définir comme la j-ème colonne de la matrice AB.
Chaque colonne de la matrice AB est donc une combinaison linéaire des colonnes de la matrice A. Calculons
le coefficient (i, j) c.à.d de la i-ème ligne et j-ème colonne de la matrice AB, qu’on va noter (AB)i,j . Il s’agit
donc de la i-ème composante du vecteur colonne Acj (B) = b1,j c1 (A) + b2,j c2 (A) + b3,j c3 (A) On a donc
(AB)i,j = b1,j ai,1 + b2,j ai,2 + b3,j ai,3 . Ceci peut encore s’écrire :
3
X
(AB)i,j = ai,1 b1,j + ai,2 b2,j + ai,3 b3,j = ai,k bk,j .
k=1

De manière plus générale, on définit donc le produit de deux matrices quelconques de la maniére suivante :

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 28 Algèbre linéaire, Maths générales II


3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices

Définition 3.5 Le produit de deux matrices A = (ai,j ) ∈ Mn,p (K) et B = (bi,j ) ∈ Mp,q (K) est la matrice
C = (ci,j ) ∈ Mn,q (K) avec
p
X
ci,j = ai,1 b1,j + · · · + ai,p bp,j = ai,k bk,j
k=1

Remarque 3.6 (Attention aux tailles des matrices pour le produit !)


– Si A ∈ Mn,p (K) et B ∈ Mq,ℓ (K) on ne peut effectuer le produit AB que si p = q et le produit BA que si
ℓ = n.
– En général, même si p = n = ℓ = q, AB 6= BA.

De la même façon qu’on a remarqué que les colonnes de la matrice AB sont des combinaisons linéaires des
colonnes de la matrice A, on peut aussi remarquer maintenant que les lignes de la matrice AB sont des combi-
naisons linéaires des lignes de la matrice B. C’est cette propriété qu’on utilise dans les procédures d’élimination
du style de la méthode de Gauss, qu’on verra prochainement. Par exemple, pour le produit des deux matrices 3 × 3
A et B vues précédemment, on a (AB)i,j = ai,1 b1,j + ai,2 b2,j + ai,3 b3,j , et donc, en notant ℓi (AB) et ℓi (B) les
lignes respectives de AB et B, on a :

ℓi (AB) = ai,1 ℓ1 (B) + ai,2 ℓ2 (B) + ai,3 ℓ3 (B),

ce qui montre bien que la ligne i de AB est une combinaison linéaire des lignes de B.
En résumé, la multiplication de A à droite par une matrice opère sur les colonnes de la matrice A, tandis qu’une
multiplication de A à gauche par une matrice opère sur les lignes de A.
Une quatrième façon de voir le produit de deux matrices A et B est de dire que le produit de A et B est la somme
des produits des colonnes de A par les lignes de B, voir à ce sujet l’exercice 28.

Remarque 3.7 (Quelques produits particuliers)


 
x1
 .. 
• Si A = (ai,j ) ∈ Mn,p (K) et X =  .  ∈ Mp,1 (K) est un vecteur colonne, le produit AX est un vecteur
xp
 
y1
colonne Y =  ...  ∈ Mn,1 (K) avec
 

yn
p
X
yi = ai,k xk , i = 1, . . . , n.
k=1
 
• Si A = (ai,j ) ∈ M x · · · xn ∈ M1,n (K) est un vecteur ligne, le produit XA est un
 n,p (K) et X = 1
vecteur ligne Y = y1 · · · yp ∈ M1,p (K) avec
n
X
yj = xk ak,j , j = 1, . . . , p.
k=1
 
y1
∈ M1,n (K) est un vecteur ligne et Y =  ...  ∈ Mn,1 (K) est un vecteur colonne
   
• Si X = x1 ··· xn
yn
alors le produit XY ∈ M1,1 (K) est un nombre donné par
n
X
x1 y1 + · · · + xn yn = xi yi .
i=1

On reconnaı̂t le produit
 scalaire
 des 2 vecteurs x = (x1 , . . . , xn ) et y = (y1 , . . . , yn ).
x1
• Si maintenant X =  ...  ∈ Mn,1 (K) est un vecteur colonne et Y = y1 · · · yp ∈ M1,p (K) est un
   

xn
vecteur colonne alors le produit XY ∈ Mn,p (K) est une matrice dont le coefficient (XY )i,j est égal à xi yj .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 29 Algèbre linéaire, Maths générales II


3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices

La matrice XY ainsi obtenue est une matrice très spéciale, dont toutes les colonnes sont des multiples de X et
toutes les lignes
 des multiplesde Y ! 
1   4 5
Par exemple : 2 4 5 =  8 10 .
3 12 15
• Soit A = (ai,j ) ∈ Mn,p (K), on note Ej ∈ Mp,1 (K), Fi ∈ M1,n (K) les matrices
 
0
 .. 
.
 
0
  ème
 
1 ← j
Ej =   ligne, Fi = 0 ··· 0 1 0 ··· 0 .
0 ↑
  ième colonne
.
 .. 
0

Alors on a AEj = cj (A), c’est-à-dire la j ème colonne de la matrice A et Fi A = ℓi (A), c’est-à-dire la ième
ligne de la matrice A.

Proposition 3.8 (Propriétés de l’addition et de la multiplication) On se donne A, B, C ∈ Mn,p (K), D, E ∈


Mp,q (K), F ∈ Mq,r (K) et λ, µ ∈ K.
1. A + (B + C) = (A + B) + C,
2. A + B = B + A,
3. A + 0 = A, A − A = 0,
4. λ(A + B) = λA + λB,
5. (λµ)A = λ(µA),
6. Idn A = A, AIdp = A,
7. λ(AD) = (λA)D = A(λD),
8. (A + B)E = AE + BE et A(D + E) = AD + AE,
9. A(EF ) = (AE)F .

Définition 3.9 (Puissance d’une matrice carrée) Soit A une matrice de Mn (K) et k ∈ N. On définit les puis-
sances de la matrice A de la façon suivante :

A0 = Idn , Ak = AAk−1 pour tout entier k ≥ 1.

3.1.3 Matrice inverse et matrice transposée


Définition 3.10 On dit qu’une matrice A ∈ Mn (K) est inversible s’il existe une matrice B ∈ Mn (K) telle que

AB = BA = Idn .

Si B existe, elle est unique et on note B = A−1 et A−1 est appelé l’inverse de A. On notera GLn (K) a l’ensemble
des matrices inversibles de taille n × n.
a. La notation GL veut dire “groupe linéaire”, et provient du fait que l’ensemble des matrices inversibles muni de la multiplication des
matrices est un groupe b non commutatif dont l’élément neutre est Idn ; voir l’exercice 57 à ce sujet.

Démonstration : Il y a un point à montrer : l’unicité de l’inverse. Soient B1 , B2 ∈ Mn (K) telles que AB1 =
B2 A = Idn . On multiplie à droite l’égalité B2 A = Idn par B1 . Il vient (B2 A)B1 = Idn B1 = B1 . Par associativité
de la multiplication dans le membre de gauche, on a B2 (AB1 ) = B1 et donc B2 = B1 . D’où l’unicité (on a en fait
montré un peu mieux : s’il existe un inverse à gauche et un inverse à droite, alors ces deux matrices sont égales).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 30 Algèbre linéaire, Maths générales II


3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices

Remarque 3.11 (Groupe linéaire) La notation GL veut dire “groupe linéaire”, et provient du fait que l’ensemble
des matrices inversibles muni de la multiplication des matrices est un groupe 1 non commutatif dont l’élément
neutre est Idn ; voir l’exercice 57 à ce sujet.

Remarque 3.12 (Inverse à gauche et à droite) En fait on peut montrer que si A est une matrice carrée et s’il
existe une matrice “inverse à gauche” A−1 telle que A−1 A = Id, alors A−1 est aussi une “inverse à droite”,c.à..d
AA−1 = Id. La démonstration de ce résultat nécessite des outils qu’on ne verra qu’un peu plus tard. Il est
cependant bien pratique car il permet, lorsqu’on veut calculer l’inverse d’une matrice, de ne calculer que l’inverse
à gauche (par l’algorithme de Gauss-Jordan qu’on verra prochainement) sans vérifier que c’est aussi un inverse
à droite.

Attention. On ne parle de matrices inversibles que pour des matrices carrées ! ! !

Proposition 3.13 Soient A, B ∈ GLn (K). Alors la matrice AB est inversible et

(AB)−1 = B −1 A−1 .

Démonstration : Par associativité de la multiplication matricielle, on a : B −1 A−1 AB = B −1 IdB = Id =


ABB −1 A−1 .

Définition 3.14 (Matrice transposée) On appelle transposée d’une matrice A ∈ Mn,p (K), la matrice de
Mp,n (K) que l’on note At = (αi,j )i,j=1,...,n dont les coefficients sont définis par αi,j = aj,i .

Proposition 3.15 (Transposition et autres opérations)


1. Soient A, B ∈ Mn,p (K), alors (A + B)t ∈ Mp,n (K) et (A + B)t = At + B t .
2. Soient A ∈ Mn,p (K), B ∈ Mp,q (K). Alors (AB)t ∈ Mq,n (K) et (AB)t = B t At .
3. Si A ∈ Mn (K) est inversible, alors (A−1 )t = (At )−1 .

Démonstration : Le premier point est immédiat. Pour le deuxième point, on a


p
X p
X
[(AB)t ]i,j = (AB)j,i = aj,k bk,i = (At )k,j (B t )i,k = (B t At )i,j .
k=1 k=1

Enfin, si A est inversible alors AA−1 = Id. Donc (AA−1 )t = (Id)t = Id. Par le point précédent, (AA−1 )t =
(A−1 )t At . Donc At est inversible et (At )−1 = (A−1 )t .

Définition 3.16 (Matrices symétrique et antisymétrique) Soit A ∈ Mn,n (K), on dit que A est symétrique si
At = A et antisymétrique si At = −A.

Définition 3.17 (Matrice de permutation) Soit P ∈ Mn (R). On dit que P est une matrice de permutation si P
a exactement un coefficient égal à 1 dans chaque ligne et chaque colonne, et que tous ses autres coefficients sont
nuls. Une matrice de permutation a donc les mêmes lignes que la matrice identité mais dans un ordre qui peut être
différent.

Quelques proprétés des matrices de permutation :


1. le produit de matrices de permutation est une matrice de permutation,
2. toute matrice de permutation P est inversible et P −1 = P t .

1. Rappel : un groupe est un ensemble non vide muni d’une loi de composition interne (ou opération) associative, qui admet un élément
neutre et telle que chaque élément de l’ensemble admet un inverse relativement à cette loi. Le groupe est dit commutatif si la loi est commutative.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 31 Algèbre linéaire, Maths générales II


3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices

3.1.4 Exercices
Opérations sur les matrices
Exercice 25 (Peut-on le faire ? si oui, on le fait !)
Soient A une matrice 3 × 7, B une matrice 7 × 3, C une matrice 7 × 1, et D une matrice 3 × 1, dont tous
les coefficients sont égaux à 1 (On les appelle matrices d’Attila. . . , voir aussi exercice 47). Parmi les opérations
suivantes, dire lesquelles sont autorisées, et dans ce cas, calculer la matrice résultante.
AB BA ABD DBA A(B + C)
Exercice 26 (Produits de matrices particulières)
Calculer P A et EA avec
     
0 1 a b 1 0
P = , A= et E = .
1 0 c d −2 1
Quelles sont les actions de P et E sur les lignes de A lorsqu’on effectue ces produits ?
Calculer maintenant AP et AE. Quelles sont les actions de P et E sur les colonnes de A lorsqu’on effectue ces
produits ?
Exercice 27 (Matrice d’élimination) Soit A une matrice carrée d’ordre 3. Ecrire la matrice T2,1 (−3) qui, lors-
qu’on effectue le produit T2,1 (−3)A, soustrait 3 fois la ligne 1 de la ligne 2 ? Ecrire ensuite la matrice P3,2 qui
permute les lignes 2 et 3.
Effectuer ensuite les produits AT2,1 (−3) et AP3,2 et décrire la matrice résultante.
On considère le système Ax = b avec
   
1 1 1 2
A = 3 3 1 b = 8
0 2 1 1
Ecrire le système T2,1 (−3)Ax = T2,1 (−3)b puis le système P3,2 T2,1 (−3)Ax = P3,2 T2,1 (−3)b. Calculer le
produit C = P3,2 T2,1 (−3) puis écrire le système CAx = Cb.
Exercice 28 (Une autre façon de calculer le produit de matrices)
Un exemple Soient C1 , C2 ∈ M3,1 (R) des matrices colonnes et L1 et L2 ∈ M1,2 (R) des matrices lignes définies
par    
1 3    
C1 = 0 , C2 = 4 , L1 = 2 1 , L2 = 3 2 .
2 5
Calculer C1 L1 , C2 L2 , C1 L1 + C2 L2. 
  L
Soit A = C1 C2 ∈ M3,2 et B = 1 ∈ M2,2 . Calculer AB.
L2
Comparer.
Pp
Le cas général. Soient A ∈ Mn,p (R) et B ∈ Mp,q (R). Montrer que AB = k=1 ck (A)ℓk (B), où ck (A) ∈
Mn,1 (R) est la k-ième colonne de A et ℓk (B) ∈ M1,q (R) la k-ième ligne de B.
Exercice 29 (Matrices qui commutent) Soient a et b deux nombres réels non nuls. Trouver les matrices qui com-
mutent avec la matrice  
a b
A= .
0 a
Exercice 30 (Produits de grosses matrices !) Calculer les produits de matrices suivants :
  
1 0 −3 8 3 2 −1 4
 0 0 1 3   2 4 0 0 

 
 2 −5 −1 3   0 −1 2 3 
0 0 1 0 1 1 1 1
   
  −3 1 −3 1  
1 1 −3 7   12 0   12 0 
   1 1 −3 7
−2 0 4 −3  2 0   2 0  −2 0 4 −3
−1 3 −1 3

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 32 Algèbre linéaire, Maths générales II


3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices

Exercice 31 (Produit de matrices) Calculer la matrice (A − Id)(A − 2Id)(A − 3Id) avec


 
1 0 0
A =  −3 2 0 
−1 2 3

Exercice 32 (Produit dematrices 


triangulaires)
 
1 2 1 2 1 −1
Un exemple : Soit A = 0 1 2 et B = 0 3 2 . Calculer AB et BA.
0 0 1 0 0 2
Cas général : Soient A et B des matrices triangulaires supérieures (resp. inférieures), montrer que leur produit
est une matrice triangulaire supérieure (inférieure).

Exercice 33 (Un modèle de prédation à deux niveaux) Dans la chaı̂ne alimentaire, sur une période, le lion con-
somme 4 gazelles, 5 gnous et 2 antilopes. Le guépard, plus agile, consomme 7 gazelles et 1 antilope. Pour ne pas
se laisser abattre, les gazelles, gnous et antilopes consomment quelques végétaux : arbres, pelouses, herbes hautes
et racines. Une gazelle consomme 100g de feuilles d’arbres, 300g de pelouse, 150g d’herbes hautes et 50g de
racines. Un gnou consomme 500g de feuilles d’arbres, 100g de pelouse, 750g d’herbes hautes et pas de racines.
Une antilope consomme 200g de feuilles d’arbres, 400g de pelouse, 250g d’herbes hautes et 150g de racines.
Malheureusement la pollution a affecté les arbres et la pelouse. La concentration de pesticide est de c1 = 30 par
gramme de feuille d’arbre et de c2 = 50 par gramme de pelouse. Bien heureusement les racines et les herbes
hautes sont préservées. Calculer la masse totale de pesticide ingérée par le lion et le guépard en effectuant le
produit de trois matrices que l’on explicitera.

Exercice 34 (Puissance de matrice) On considère la matrice


 
0 γ −β
M =  −γ 0 α 
β −α 0

où α, β et γ sont des nombres réels. Etablir une relation simple entre M et M 3 .

Exercice 35 (Identités remarquables ?) Quelles sont parmi les matrices suivantes celles qui sont égales à (A −
B)2 , pour toutes les matrices A et B carrées d’ordre n ?

A2 − B 2 (B − A)2 A2 − 2AB + B 2 (A − B)A − (A − B)B A2 − AB − BA + B 2 .

Exercice 36 (Matrices nilpotentes) On dit qu’une matrice A ∈ Mn (K) est nilpotente 2 d’ordre q si Aq−1 6= 0 et
Aq = 0. Donner un exemple de matrices carrées 2 × 2 et 3 × 3 nilpotentes d’ordre 2. Donner ensuite un exemple
de matrice carrée nilpotente d’ordre 3.

Exercice 37 Déterminer deux matrices A et B de M2 (R) tels que : AB = 0 et BA 6= 0.

Exercice 38 Montrer que toute matrice carrée est la somme d’une matrice symétrique et d’une matrice anti-
symétrique.

Exercice 39 (Matrice d’adjacence d’un graphe) Un graphe est un ensemble de points, dont certaines paires
sont directement reliées par un “lien”. Ces liens peuvent être orientés, c’est-à-dire qu’un lien entre deux points u
et v relie soit u vers v, soit v vers u : dans ce cas, le graphe est dit orienté. Sinon, les liens sont symétriques, et le
graphe est non-orienté. Les points sont généralement appelés sommets, et les liens “arêtes”. On peut représenter
le graphe par une matrice, qu’on appelle matrice d’adjacence : le coefficient de la i-ème ligne et j-ème colonne est
1 s’il existe une arête entre les sommets i et j, et 0 sinon. Remarquer que si le graphe est non orienté, sa matrice
d’adjacence est symétrique.  
1 1 0
On considère un graphe à trois sommets, dont la matrice d’adjacence est A = 1 0 0.
1 0 1
Dessiner le graphe. Calculer A2 . Expliquer pourquoi le coefficient i, j de de A2 donne le nombre de chemins à
deux arêtes entre i et j. Que donnent les coefficients de A3 ?
2. nilpotente : du latin nihil : rien et potere pouvoir

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 33 Algèbre linéaire, Maths générales II


3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices

Matrices inverses
Exercice 40 Justifier si les assertions suivantes sont vraies ou fausses (dans cet exercice, A et B sont 2 matrices
de Mn,p (K)) :
1. Si AX = BX pour toute matrice X ∈ Mp,1 (K), alors A = B.
2. La matrice Idn est inversible mais la matrice 0n ne l’est pas.
3. Si A et B sont inversibles, alors A + B est inversible. Et réciproquement.
Exercice 41 (Inverse d’une matrice d’élimination) Soit E la matrice 3 × 3 qui lorsqu’on effectue le produit EA
soustrait la première ligne à la deuxième, et P la matrice qui échange les lignes 2 et 3 . Quelle est l’opération qui
va ramener la matrice à son état initial ? Ecrire E et E −1 . Vérifier que EE −1 = E −1 E = Id3 .
Exercice 42 (système linéaire et matrice inverse) Soit A une matrice 3 × 3. Supposons qu’on sache trouver x,
y et z tels que      
1 0 0
Ax = 0 Ay = 1 Az = 0
0 0 1
 
Soit X = x y z . Calculer AX.
Exercice 43 (CNS d’inversibilité d’une matrice 2 × 2) Soit
 
a b
A=
c d

avec a, b, c, d ∈ K. On suppose que cette matrice est inversible. Calculer la matrice A−1 en fonction de a, b, c, et
d par identification. Exprimer la condition sur a, b, c, et d pour que la matrice soit inversible.
Exercice 44 Soit A ∈ Mn (K).
1) On suppose qu’il existe un vecteur colonne X ∈ Mn,1 (K) non nul tel que AX = 0. Montrer que A n’est pas
inversible.
2) On suppose qu’il existe un vecteur colonne Y ∈ Mn,1 (K) qui n’est pas combinaison linéaire des colonnes de
A. Montrer que A n’est pas inversible (on pourra raisonner par l’absurde et écrire Y = A(A−1 Y )).
Exercice 45 (Calcul de l’inverse d’une matrice par une puissance) Soit
 
−3 −2
A=
2 2

Calculer A2 et montrer que A2 = 2Id2 − A, en déduire que A est inversible et calculer A−1 .
Exercice 46 (Calcul de l’inverse d’une matrice par produit de matrice et produit scalaire) Soit A une matrice
carrée d’ordre n. On appelle trace de A, qu’on note Tr(A), la somme de ses éléments diagonaux. Soit A la matrice
carrée d’ordre 3 suivante :  
1 2 3
A = 4 3 1
2 1 1
1. Calculer B0 = A − Tr(A)Id3 .
2. Calculer B1 = B0 A
3. Calculer B2 = B1 − Tr(B 2
1)
Id3
4. Calculer B3 = B2 A
5. En déduire A−1
Cet algorithme 3 de calcul de l’inverse dû à Jean-Marie Souriau 4 ne nécessite donc qu’un seul produit matrice
vecteur et deux calculs de trace. Il peut se généraliser à une matrice n × n et on peut démontrer qu’il donne
effectivement l’inverse d’une matrice si celle-ci est inversible 5 .
3. On appelle algorithme de calcul une méthode constructive de calcul d’un objet mathématique, utilisant un nombre fini d’instructions.
4. Jean-Marie Souriau est un mathématicien marseillais, né en 1922. Il est principalement connu pour ses travaux sur la géométrie sym-
plectique dont il a été l’un des pionniers. Il a été professeur à l’université d’Aix Marseille 1 depuis 1958 jusqu’à sa retraite.
5. Voir Calcul linéaire, de J.-M. Souriau, Tome 1, deuxième édition, “Euclide”, Introduction aux études scientifiques, Presses Universitaires
de France, Paris, 1964, ou http://www.cmi.univ-mrs.fr/˜herbin/L1/algo-souriau.pdf pour un texte introductif.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 34 Algèbre linéaire, Maths générales II


3.1. Matrices et opérations sur les matrices 3. Systèmes linéaires et matrices

Exercice 47 (Puissance et inverse) Soit A une matrice carrée d’ordre n ; on suppose que A2 est une combinaison
linéaire de A et Idn : A2 = αA + βIdn .
1. Montrer que Ap est également une combinaison linéaire de A et Idn pour tout p ∈ N∗ .
2. Montrer que si β est non nul, alors A est inversible et que A−1 est encore combinaison linéaire de A et Idn .
3. Application 1 : soit A = Jn − Idn , où Jn est la matrice Attila (envahie par les uns...), avec n ≥ 1. Montrer
que A2 = (n − 2) A + (n − 1) Idn ; en déduire que A est inversible, et déterminer son inverse.
4. Application 2 : montrer que si n = 2, A2 est toujours une combinaison linéaire de A et Id2 , et retrouver la
formule donnant A−1 en utilisant 2.

Exercice 48 On rappelle que la trace T r A d’une matrice A ∈ Mn (K) est la somme de ses éléments diagonaux.
Soient A, B ∈ Mn (K).
1. Montrer que T r A = T r At .
2. Montrer que ∀λ ∈ R, T r λA = λT r A et T r (A + B) = T r A + T r B.
3. Montrer que T r AB = T r BA. A-t-on T r AB = (T r A)(T r B) ?
4. Soit P ∈ GLn (K). Montrer que T r (P AP −1 ) = T r A.
5. On suppose dans cette question n = 2. Montrer que A2 − (T r A)A + (det A)Id = 0.

Transposition, permutation
Exercice 49 (Sans calcul...) Effectuer le produit matriciel
   
0 0 1 1 2 3 0 0 1
0 1 0 4 5 6 0 1 0
1 0 0 7 8 9 1 0 0

Exercice 50 (Décomposition symétrique-antisymétrique d’une matrice carrée) Montrer que toute matrice carrée
est la somme d’une matrice symétrique et d’une matrice antisymétrique.

Exercice 51 Verifier par le calcul sur les matrices suivantes que (AB)t = B t At mais 6= At B t .
   
3 6 1 −6
A= B=
−1 −2 3 4

Exercice 52 (Transposition et produit scalaire) Soient X ∈ Rn et Y ∈ Rn . On peut donc aussi voir X et Y


comme des vecteurs colonnes : X ∈ Mn,1 (R) et Y ∈ Mn,1 (R). Montrer que X · Y = X t Y .
Calculer ensuite XY t .

Exercice 53 (Opérations sur les matrices symétriques) Soient A et B deux matrices carrées symétriques. Les
matrices A2 , AB, A2 − B 2 , (A + B)(A − B), BAB et BABA sont elles symétriques ? (si oui, justifier, sinon,
contreexemple).

Exercice 54 (Transposition et symétrie) Soit A une matrice n × p.


1. Quelles sont les tailles respectives de AAt et At A ?
2. Montrer que les coefficients diagonaux de AAt et At A sont forcément positifs ou nuls.
3. Soit B une matrice p × p symétrique. Montrer que la matrice ABAt est symétrique.

Exercice 55 (Matrices rigolotes)


Ecrire la matrice A ∈ M2 (R) dont les coefficients sont définis par ai,j = i + j et la matrice B ∈ M2 (R) dont
les coefficients sont définis par bi,j = i − j. Calculer AB et BA, en utilisant les deux techniques pour le produit
(combinaison linéaire des colonnes, produit scalaire des lignes).
Ecrire les matrices A et B sous la forme C + C t et C − C t où C est une matrice bien choisie.
Montrer que pour n’importe quelle matrice C ∈ Mn (R), si A = C + C t et B = C − C t alors BA = −(AB)t .
Dans quel cas a -t-on AB = BA ? (rép. : si C et C t commutent)

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 35 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

Exercice 56 (Permutations et matrices) Soit n ≥ 1. On note Σn l’ensemble des bijections de {1, . . . , n} dans
lui-même. A tout élément σ ∈ Σn , on associe la matrice Pσ ∈ Mn (K) dont les colonnes sont Eσ(1) , . . . , Eσ(n) .
(On rappelle que Ei est la matrice de Mn,1 (K) donc tous les coefficients sont tous nuls, sauf le i-ème, qui est égal
à 1.)
1) Dans cette question seulement, on suppose n = 2. Ecrire toutes les matrices de la forme Pσ .
2) Même question avec n = 3.
3) Montrer que ∀σ ∈ Σn , Pσ est une matrice de permutation.
4) Montrer que si P est une matrice de permutation, alors il existe σ ∈ Σn tel que P = Pσ .
5) Montrer que
   
x1 xσ−1 (1)
Pσ  ...  =  ...  .
   

xn xσ−1 (n)
6) Montrer que si σ1 , σ2 ∈ Σn , alors Pσ1 Pσ2 = Pσ2 ◦σ1 . En déduire que le produit de 2 matrices de permutation
est une matrice de permutation.
7) Montrer que Pσ−1 = (Pσ )t . En déduire que toute matrice de permutation est inversible, d’inverse sa trans-
posée.

Exercice 57 (Groupe linéaire et sous groupes) Montrer que l’ensemble des matrices inversibles GLn (R) muni
de la multiplication des matrices est un groupe. Quel est son élément neutre ? Ce groupe est-il commutatif ?
Parmi les sous ensembles suivants de Mn (R), dire quels sont ceux qui sont des sous-groupes 6 de GLn (R) :
– les matrices triangulaires supérieures,
– les matrices triangulaires inférieures dont tous les coefficient sont égaux à 1,
– les matrices diagonales dont tous les coefficients sont non nuls,
– les matrices symétriques inversibles,
– les matrices inversibles Q telles que Q−1 = Qt .
Pour les ensembles qui sont des sous-groupes, dire ceux qui sont commutatifs.
Trouver d’autres ensembles de matrice qui sont des sous-groupes de GLn (R).

Exercice 58 On note On (R) l’ensemble des matrices A de GLn (R) telles que A−1 = At .
1. Montrer que c’est un sous-groupe de GLn (R).
2. Soit A ∈ GLn (R). Montrer que ci (A) · cj (A) = δi,j , 1 ≤ i, j ≤ n.
3. On suppose dans cette question n = 2. Montrer qu’il existe θ ∈ R tel que
   
cosθ − sin θ cosθ sin θ
A= ou A = .
sin θ cos θ sin θ − cos θ

3.2 Elimination par les matrices


3.2.1 Echelonnement d’une matrice 3 × 3 et décomposition LU
Commençons par un exemple.
On considère le système Ax = b, avec
   
1 0 1 2
A= 0 2 −1  b =  1 .
−1 1 −2 −2

On écrit la matrice augmentée, constituée de la matrice A et du second membre b.


 
  1 0 1 2
à = A b =  0 2 −1 1  .
−1 1 −2 −2

6. Un sous-groupe de GLn (R) est un sous-ensemble non vide de GLn (R) qui est stable par multiplication et inverse.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 36 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

Gauss et opérations matricielles Allons y pour Gauss :


La première ligne a un 1 en première position (en gras dans la matrice), on dit que c’est un pivot. On va pouvoir
diviser toute la première ligne par ce nombre pour en soustraire un multiple à toutes les lignes d’après, dans le but
de faire apparaı̂tre des 0 dans tout le bas de la colonne.
La deuxième équation a déjà un 0 dessous, donc on n’a rien besoin de faire. On veut ensuite annuler le premier
coefficient de la troisième ligne. On retranche donc (-1) fois la première ligne à la troisième 7 :
   
1 0 1 2 1 0 1 2
ℓ3 →ℓ3 +ℓ1
 0 2 −1 1  −→  0 2 −1 1
−1 1 −2 −2 0 1 −1 0
 
1 0 0
Ceci revient à multiplier à à gauche par la matrice T31 (1) = 0 1 0 .
1 0 1
La deuxième ligne a un terme non nul en deuxième position (2) : c’est un pivot. On va maintenant annuler le
deuxième terme de la troisième ligne ; pour cela, on retranche 1/2 fois la ligne 2 à la ligne 3 :
   
1 1 1 2 1 0 1 2
ℓ3 →ℓ3 −1/2ℓ2
 0 2 −1 1 −→  0 2 −1 1 .
0 1 −1 0 0 0 − 2 − 21
1
 
1 0 0
Ceci revient à multiplier la matrice précédente à gauche par la matrice T32 (− 21 ) = 0 1 0 . On a ici obtenu
0 − 12 1
une matrice sous forme triangulaire supérieure à trois pivots : on peut donc faire la remontée pour obtenir la
solution du système, et on obtient (en notant xi les composantes de x) : x3 = 1 puis x2 = 1 et enfin x1 = 1.
On a ainsi résolu le système linéaire.
Le fait de travailler sur la matrice augmentée est extrêmement pratique car il permet de travailler simul-
tanément sur les coefficients du système linéaire et sur le second membre.
Finalement, au moyen des opérations décrites ci-dessus, on a transformé le système linéaire
1 1
Ax = b en U x = T32 (− )T31 (1)b, où U = T32 (− )T31 (1)A
2 2
est une matrice triangulaire supérieure.

Factorisation LU Tout va donc très bien pour ce système, mais supposons maintenant qu’on ait à résoudre
3089 systèmes avec la même matrice A mais 3089 seconds membres b différents 8 . Il serait un peu dommage
de recommencer les opérations ci-dessus 3089 fois, alors qu’on peut en éviter une bonne partie. Comment faire ?
L’idée est de “factoriser” la matrice A, c.à.d de l’écrire comme un produit A = LU , où L est triangulaire inférieure
(lower triangular) et U triangulaire supérieure (upper triangular). On reformule alors le système Ax = b sous la
forme LU x = b et on résout maintenant deux systèmes faciles à résoudre car triangulaires : Ly = b et U x = y.
La factorisation LU de la matrice découle immédiatement de l’algorithme de Gauss. Voyons comment sur l’exemple
précédent.
1/ On remarque que U = T32 (− 21 )T31 (1)A peut aussi s’écrire A = LU , avec L = (T32 (− 12 )T31 (1))−1 .
2/ On sait que (T32 (− 12 )T31 (1))−1 = (T31 (1))−1 (T32 (− 21 )−1 .
3/ Les matrices inverses T31 (1)−1 et T32 (− 21 )−1 sont faciles à déterminer : comme T32 (− 12 )−1 consiste à retran-
cher 1/2 fois la ligne 2 à la ligne 3, l’opération inverse est d’ajouter 1/2 fois la ligne 2 à la ligne 3, et donc
 
1 0 0
1 −1 1
T32 (− ) = T32 ( ) = 0 1 0 .
2 2
0 12 1
   
1 0 0 1 0 0
De même T31 (1)−1 = T31 (−1) =  0 1 0 et donc L = T31 (1)−1 T32 (− 21 )−1 =  0 1 0 .
−1 0 1 −1 12 1
7. Bien sûr, ceci revient à ajouter la première ligne ! il est cependant préférable de parler systématiquement de retrancher car c’est ce qu’on
fait conceptuellement : pour l’élimination on enlève un multiple de la ligne du pivot à la ligne courante.
8. Ceci est courant dans les applications. Par exemple on peut vouloir calculer la réponse d’une structure de génie civil à 3089 chargements
différents.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 37 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

La matrice L est une matrice triangulaire inférieure (et c’est d’ailleurs pour cela qu’on l’appelle L, pour “lowe” in
English...) dont les coefficients sont particulièrement simplesà trouver : les termes diagonaux sont tous égaux à un,
et chaque terme non nul sous-diagonal Li,j est égal au coefficient par lequel on a multiplié la ligne pivot i avant de
la retrancher à la ligne j.

4/ On a bien donc A = LU avec L triangulaire inférieure (lower triangular) et U triangulaire supérieure (upper
triangular).

La procédure qu’on vient d’expliquer s’appelle méthode LU pour la résolution des systèmes linéaires, et elle
est d’une importance considérable dans les sciences de l’ingénieur, puisqu’elle est utilisée dans les programmes
informatiques pour la résolution des systèmes linéaires.

Dans l’exemple que nous avons étudié, tout se passait très bien car on n’a pas eu de zéro en position pivotale.
Si on a un zéro en position pivotale, la factorisation peut quand même se faire, mais au prix d’une permutation.
Le résultat général que l’on peut démontrer est que si la matrice A est inversible, alors il existe une matrice de
permutation P , une matrice triangulaire inférieure L et une matrice triangulaire supérieure U telles que P A = LU

Théorème 3.18 (Factorisation LU) Soit A une matrice inversible, alors il existe une matrice P de permutation,
une matrice L triangulaire inférieure et U une matrice triangulaire supérieure telle que P A = LU .

Le petit miracle de la décomposition LU est que la permutation P n’a pas besoin d’être connue avant de mettre
en oeuvre la factorisation ; elle est calculée au cours de l’algorithme, voir les algorithmes en annexe à la fin du
polycopié.

Factorisation LDU On peut aussi procéder à une factorisation dite LDU en remarquant que si on divise chaque
ligne de la matrice U obtenue par la décomposition LU par son coefficient diagonal (qui est non nul puisque la
matrice est inversible) alors on obtient une matrice triangulaire supérieure Ũ avec que des 1 sur la diagonale, et on
peut écrire U = DŨ , où D est la matrice diagonale contenant les pivots.

Lorsqu’on parle de factorisation LDU on sous entend donc toujours que la matrice U a des 1 sur la diagonale. Sur
l’exemple précédent, cette nouvelle décomposition s’écrit

     
1 0 1 1 0 0 1 0 0 1 0 1
A= 0 2 −1  = LDU =  0 1 0  0 2 0  0 1 − 21  .
1
−1 1 −2 −1 2 1 0 0 − 21 0 0 1

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 38 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

3.2.2 Matrices élémentaires de Mn (K)


Définition 3.19 – Soit i ∈ {1, . . . , n}, on définit pour a ∈ K, a 6= 0 la matrice Di (a) ∈ Mn (K) qui est
diagonale et dont tous les coefficients diagonaux sont égaux à 1 excepté le ième qui est égal à a :
 
1 0 ··· ··· ··· ··· 0
 .. .. .. 
0 . . .
 
 .. . . . . .. 
.
 . 1 . . 
 .. .. .. ..  − ième ligne
Di (a) =  . . a . . 
 
. . . . 
 .. .. 1 . . . .
 
. .. .. 
 .. . . 0
0 ··· ··· ··· ··· 0 1

– Soient i, j deux entiers distincts de {1, . . . , n} (i 6= j), on définit la matrice Ei,j comme la matrice dont tous les
coefficients sont nuls sauf le coefficient i, j qui est egal à 1.
– Soient i, j deux entiers distincts de {1, . . . , n} (i 6= j), pour tout λ ∈ K la matrice Ti,j (λ) = Idn + λEi,j :
 
1 0 ··· ··· ··· ··· 0
 .. .. .. 
0 . . .
 
 .. . . .. .. .. 
.
 . . . .  ème
Ti,j (λ) = 
 0 λ 0 1 0 0 −i ligne
 .. .. .. .. .. 
.
 . . . . 
. .. .. 
 .. . . 0
0 ··· ··· ··· ··· 0 1
|
j ème colonne

Proposition 3.20 On a
1. (Di (a))t = Di (a), (Ti,j (λ))t = Tj,i (λ).

2. Si a 6= 0, (Di (a))−1 = Di a1 , (Ti,j (λ))−1 = Ti,j (−λ).

Démonstration : Le premier point est immédiat. Montrons le deuxième point. Pour les dilatations, on remarque
que le produit de deux matrices diagonales D1 et D2 est une matrice diagonale dont les coefficients diagonaux
sont les produits des coefficients diagonaux de D1 et D2 . Effectuons le produit des matrices Ti,j (λ)Ti,j (−λ). On
a
Ti,j (λ)Ti,j (−λ) = (Idn + λEi,j )(Idn − λEi,j ) = Idn − λ2 Ei,j Ei,j = Idn
car lorsque i 6= j, Ei,j Ei,j = 0.

Lemme 3.21 Si E ∈ Mn (K) est le produit de matrices élémentaires, alors E est inversible et son inverse est
encore un produit de matrices élémentaires.

Démonstration : On montre le résultat par récurrence sur le nombre de facteurs du produit, en utilisant la Pro-
position 3.13 et le fait que chaque matrice élémentaire est inversible et son inverse est une matrice élémentaire.

Théorème 3.22 (Opérations élémentaires sur les lignes d’une matrice) Soit A ∈ Mn,p (K).
1. La matrice Di (a)A est la matrice obtenue à partir de A en multipliant la ième ligne de A par a.
2. La matrice Ti,j (λ)A est la matrice obtenue à partir de A en ajoutant à la ième ligne de A, λ fois la j ème
ligne.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 39 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

Démonstration : On rappelle que la multiplication des matrices peut s’effectuer parPlignes. Si on note ℓk (A) les
n
lignes d’une matrice A, chaque ligne du produit de matrices M A s’écrit ℓi (M A) = k=1 Mi,k ℓk (A), où n est le
nombre de colonnes de M (et de lignes de A). Avec M = Di0 (a) qui est diagonale, on a donc :
n
(
X aℓi0 (A) si i = i0 ,
ℓi (Di0 (a)A) = (Di0 (a))i,k ℓk (A) = Di0 (a))i,i ℓi (A) =
k=1
ℓi (A) sinon.

En prenant maintenant M = Ti0 ,j0 (λ), on obtient :


n
(
X λℓj0 (A) + ℓi0 (A) si i = i0 ,
ℓi (Ti0 ,j0 (λ)A) = (Ti0 ,j0 (λ))i,k ℓk (A) =
k=1
ℓi (A) sinon.

3.2.3 Matrices échelonnées et pivot de Gauss


Définition 3.23 (Matrice échelonnée) Soit A une matrice de Mn,p (K). On dit que la matrice A est échelonnée
si elle vérifie les deux conditions suivantes :
1. Si une ligne est nulle, toutes les suivantes le sont.
2. Si la ligne i a son premier coefficient non nul sur la colonne j, alors le premier coefficient non nul de la
ligne i + 1 se trouve sur une colonne k > j.

Autrement dit, une matrice n × p est sous forme échelonnée si les deux conditions suivantes sont vérifiées :
1. s’il existe des lignes de zéros, alors elles sont toutes en bas de la matrice ;
2. si deux lignes successives sont non nulles, alors la seconde a plus de zéros à gauche que la première.
Voici à quoi ressemblent des matrices échelonnées :
 0 ... coefficients

 
coefficients  
0 quelconques  0 ... 0 quelconques 
   
 .. ..   
 . .  
 0 ...... 0 

0 ... 0  0 ... 0 ... ... ... 0 
0 ... 0 ... ... ... 0

ou encore :  
coefficients
0 quelconques
 ..   
 ..  0 ... 0
 . . 
 ...   .. .. coefficients

 0 0   . . quelconques 
   
 .. . . . 0 
 . ..  0 ... ... 0

0
. 0

Exemple 3.24 (Matrices échelonnées) Dans toutes les matrices ci dessous ⋆ désigne n’importe quel réel.
– Dans M2 (K)
       
2 ⋆ 1 ⋆ 0 3 0 0
, , , .
0 1 0 0 0 0 0 0
– Dans M3 (K)
           
1 ⋆ ⋆ 5 ⋆ ⋆ 0 3 ⋆ 0 2 ⋆ 0 0 1 0 0 0
0 1 ⋆ , 0 0 4 , 0 0 2 , 0 0 0 , 0 0 0 , 0 0 0 .
0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 40 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

– Dans M4 (K)

           
1 ⋆ ⋆ ⋆ 0 8 ⋆ ⋆ 0 2 ⋆ ⋆ 0 0 2 ⋆ 0 0 0 5 0 0 0 0
0 3 ⋆ ⋆ 0 0 1 ⋆ , 0 0 0 4 , 0 0 0 0
   0 0 0 0 0 0 0 0
 ,  ,  ,  .
0 0 4 ⋆ 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
 
1 0 0
– En revanche, la matrice  0 1 2  n’est pas échelonnée.
0 1 2

Dans le cas des matrices carrées, une matrice échelonnée est triangulaire supérieure :

Proposition 3.25 Une matrice A ∈ Mn (K) échelonnée est triangulaire supérieure.

Démonstration : Soit donc A = (ai,j ) ∈ Mn (K) une matrice échelonnée. On montre par récurrence sur 2 ≤ i ≤
n que ai,j = 0 si j < i.
Pour i = 2, si la ligne 2 est nulle, la propriété est trivialement vraie. Si la ligne 2 n’est pas nulle, le point 2. de
la définition des matrices échelonnées montre que sur la ligne 2 le premier coefficient non nul se trouve sur une
colonne k > 1, autrement dit a21 = 0. La propriété est donc vraie pour i = 2.
Supposons la propriété vraie pour 2 ≤ i ≤ n − 1 et montrons-la pour i + 1. Si la ligne i + 1 est nulle, la propriété
est trivialement vraie. Si la ligne i + 1 n’est pas nulle, la ligne i n’est pas nulle (par le point 1. de la définition des
matrices échelonnées). Alors, comme ai,j = 0 si j < i par hypothèse de récurrence, le premier terme non nul de
la ligne i se trouve sur une colonne j0 ≥ i. D’après le point 2., le premier terme non nul de la ligne i + 1 se trouve
donc sur une colonne j ≥ j0 + 1 ≥ i + 1. Ainsi, ai+1 j = 0 pour tout j < i + 1.
La propriété est donc vraie pour tout i : la matrice A est donc triangulaire supérieure.

3.2.4 Existence de la forme échelonnée, algorithme d’échelonnement


Théorème 3.26 (Echelonnement d’une matrice) Soit A ∈ Mn,p (K). Il existe une matrice E ∈ Mn (K) produit
de matrices élémentaires telle que la matrice EA est échelonnée.

Pour démontrer le théorème, on décrit un algorithme qui donne explicitement la matrice E. Avant de traiter le cas
général, on va décrire l’algorithme sur un exemple.
On veut échelonner la matrice  
1 2 −2 4 1 1
 0 1 3 −4 2 1 
A :=  1 0 −8 0 0 1  .

1 1 −5 0 0 1
L’idée est de procéder colonne par colonne. A l’étape i de l’algorithme, la matrice formée des i premières colonnes
est échelonnée. Lorsqu’on arrive à l’étape 6 (= le nombre de colonnes de A), la matrice obtenue est échelonnée.
On commence par l’étape 1. Il s’agit d’échelonner le premier vecteur colonne :
 
1
 0 
C1 =  1 .

Comme il est non nul, cela signifie qu’on veut, par des manipulations de lignes (c’est-à-dire en multipliant A à
gauche par des matrices élémentaires), se ramener au vecteur :
 
1
 0 
 0 .
 

(Si le premier vecteur colonne était nul, en particulier il serait échelonné, on ne le modifierait pas et on passerait
au vecteur colonne suivant). La première ligne de C1 est un 1 donc on ne la change pas. Ensuite, en se servant de

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 41 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

ce 1, on fait apparaı̂tre des 0 sur les lignes suivantes de C1 . On commence par retrancher à la troisième ligne 1 fois
la première. Pour cela, on multiplie la matrice A par T31 (−1) avec
 
1 0 0 0
 0 1 0 0 
T31 (−1) =  −1 0 1 0  .

0 0 0 1
On obtient la matrice A1 = T31 (−1)A, c’est-à-dire :
 
1 2 −2 4 1 1
 0 1 3 −4 2 1 
A1 =  0 −2 −6 −4 −1

0 
1 1 −5 0 0 1
(pour obtenir A1 à partir de A, on a effectivement ajouté à la troisième ligne −1 fois la première). On a obtenu ce
qu’on voulait : un 0 sur la troisième ligne du premier vecteur colonne. Pour obtenir un zéro sur la quatrième ligne
du premier vecteur colonne, on ajoute à la quatrième ligne −1 fois la première, c’est-à-dire on multiplie la matrice
A1 par T41 (−1) :
 
1 0 0 0
 0 1 0 0 
T41 (−1) = 
 0 0 1 0 .

−1 0 0 1
On obtient la matrice A2 = T41 (−1)A1 = T41 (−1)T31 (−1)A :
 
1 2 −2 4 1 1
 0 1 3 −4 2 1 
A2 = 
 0 −2 −6 −4 −1 0
.

0 −1 −3 −4 −1 0
La première colonne de A2 est de la forme  
1
 0 
 
 0 
0
et donc on en a fini avec la première colonne, car celle-ci est échelonnée. De plus, on note qu’elle a 3 lignes nulles.
La deuxième étape consiste à échelonner la matrice formée des deux premières colonnes de A2 . Pour cela, on va
échelonner le deuxième vecteur colonne de A2 à partir de la deuxième ligne (noter que la deuxième ligne est la
première ligne nulle de la première colonne). On verra que ça ne modifie pas la première colonne. La deuxième
colonne de A2 est  
2
 1 
 −2  .
 

−1
Echelonner ce vecteur colonne à partir de la deuxième ligne veut dire qu’on se ramène par des combinaisons
linéaires de lignes à une deuxième colonne du type
 

 1 
 
 0 
0
où ∗ représente un nombre quelconque. Cette opération revient à multiplier A2 à gauche par des matrices élémentaires).
Il y a déjà un 1 sur la deuxième ligne. Pour faire apparaı̂tre un 0 sur la troisième ligne, on retranche à la troisième
ligne −2 fois la seconde (on se sert ainsi du 1 qui est sur la deuxième ligne). On obtient
 
1 2 −2 4 1 1
 0 1 3 −4 2 1 
A3 = T32 (2)A2 = T32 (2)T41 (−1)T31 (−1)A =  .
 0 0 0 −12 3 2 
0 −1 −3 −4 −1 0

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 42 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

Noter qu’on n’a pas modifié la première colonne. Ceci est dû au fait qu’il y a un 0 sur la deuxième ligne de la
première colonne.
On poursuit le travail sur la deuxième colonne, en gagnant un 0 sur la quatrième ligne. Pour cela, on retranche à la
quatrième ligne −1 fois la deuxième, autrement dit, on multiplie A3 par T42 (1) pour obtenir
 
1 2 −2 4 1 1
 0 1 3 −4 2 1 
A4 := T42 (1)T32 (2)T41 (−1)T31 (−1)A =   0 0 0 −12 3 2  .

0 0 0 −8 1 1
La deuxième colonne a bien la forme qu’on attendait. La première colonne n’a pas été modifiée. La matrice formée
des deux premières colonnes de A4 est échelonnée, et on note qu’elle a deux lignes nulles.
Passons à la troisième étape : on travaille sur la troisième colonne. Il s’agit de l’échelonner à partir de la troisième
ligne (qui est la première ligne nulle de la matrice formée des deux premières colonnes de A4 ). La matrice formée
des trois premières colonnes de A4 sera ainsi échelonnée. Comme le vecteur colonne constitué des 2 dernières
lignes de la troisième colonne est nul, on n’a rien à faire sur la troisième colonne : elle est déjà échelonnée à partir
de la troisième ligne. On remarque que la matrice formée des trois premières colonnes de A4 a encore deux lignes
nulles.
On passe à la quatrième colonne, qu’on veut échelonner à partir de la troisième ligne car c’est la première ligne
nulle de la matrice formée des trois premières colonnes de A4 . Ainsi, on veut ramener le quatrième vecteur colonne
à un vecteur colonne de la forme :  

 ∗ 
 a .
 

0
avec a non nul. On voit que pour cela, il suffit de retrancher à la quatrième ligne 2/3 fois la troisième, autrement
dit de multiplier A4 par T43 (−2/3). On obtient
 
1 2 −2 4 1 1
 0 1 3 −4 2 1 
A5 := T43 (2)T42 (1)T32 (2)T41 (−1)T31 (−1)A =   0 0 0 −12 3
.
2 
0 0 0 0 −1 −1/3
Ceci achève le travail sur la quatrième colonne : la matrice formée des 4 premières colonnes est échelonnée. De
plus, elle a 1 ligne nulle. Pour la cinquième étape : le cinquième vecteur colonne est échelonné à partir de la
quatrième ligne. Donc on n’y touche pas. La matrice formée des 5 premières colonnes est échelonnée et n’a pas de
ligne nulle. L’algorithme s’arrête donc ici : la matrice A5 elle-même est échelonnée.
De plus, on a A5 = EA avec
E := T43 (−2/3)T42 (1)T32 (2)T41 (−1)T31 (−1).
Pour calculer simplement E, on part de la matrice T31 (−1),
 
1 0 0 0
 0 1 0 0 
T31 (−1) =  −1
.
0 1 0 
0 0 0 1
On sait que T41 (−1)T31 (−1) est obtenue à partir de T31 (−1) en retranchant à la quatrième ligne 1 fois la première
(parce que c’est l’effet de la multiplication à gauche par T41 (−1)). On obtient donc :
 
1 0 0 0
 0 1 0 0 
T41 (−1)T31 (−1) =   −1 0 1 0  .

−1 0 0 1
De même, T32 (2)T41 (−1)T31 (−1) est obtenue à partir de T41 (−1)T31 (−1) en retranchant à la troisième ligne −2
fois la deuxième (parce que c’est l’effet de la multiplication à gauche par T32 (2)). On obtient donc :
 
1 0 0 0
 0 1 0 0 
T32 (2)T41 (−1)T31 (−1) =   −1 2 1 0  .

−1 0 0 1

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 43 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

Et ainsi de suite. On trouve finalement


 
1 0 0 0
 0 1 0 0 
E=
 .
−1 2 1 0 
−1/3 −1/3 −2/3 1

Pour obtenir E en même  temps qu’une matrice échelonnée à partir de A, on peut aussi échelonner directement
la matrice augmentée A Id4 jusqu’à la dernière colonne de A. Mais ceci n’est jamais effectué en pratique.
D’abord la matrice E n’est pas très intéressante en soi ; c’est la matrice L = E −1 qui est utile en pratique : dans
le cas où on n’a pas besoin de permutation de lignes, on obtient la factorisation A = LU de la matrice avec une
matrice L = E −1 triangulaire inférieure et une matrice U triangulaire supérieure. Dans le cas de l’exemple ci-
dessus, la matrice L s’écrit : L = E −1 = (T32 (2)T41 (−1)T31 (−1))−1 = T31 (1)T41 (1)T32 (−2). Les coefficients
de la matrice L s’obtiennent donc très facilement à partir des coefficients utilisés lors de l’échelonnement pour la
construction de la matrice U .
On va maintenant démontrer le Théorème 3.26 en décrivant l’algorithme d’échelonnement dans le cas général. On
commence par considérer le cas d’une matrice colonne (c’est-à-dire p = 1).

Algorithme d’échelonnement d’un vecteur colonne


Lemme 3.27 Soit A = (ai )i=1,...,n ∈ Mn,1 (K) un vecteur nonnul.  Alors il existe une matrice E ∈ Mn (K)
a
0 
 
produit de matrices élémentaires et a ∈ K, a 6= 0, tels que EA =  . .
 .. 
0
Démonstration :

◮ Si a1 6= 0 alors on utilise a1 pour éliminer les coefficients qui sont en-dessous, à l’aide des matrices élémentaires.
On commence par retrancher à la deuxième ligne a2 /a1 fois la première :
 
a1
0
 
T2,1 (−a2 /a1 ) A =  a3  .
 
 .. 
 . 
an

On procède de même avec les lignes suivantes :


 
a1
0
 
Tn,1 (−an /a1 ) · · · T2,1 (−a2 /a1 ) A =  .  .
 .. 
0

◮ Si a1 = 0, il existe i ≥ 2 tel que ai 6= 0 car on a supposé A 6= 0. Auquel cas, si on ajoute à la première ligne 1
fois la iième ligne, on obtient  
ai
 a2 
 
T1,i (1) A =  .  .
 .. 
an
On est alors ramené au cas précédent.
 
ai
0
 
Tn,1 (−an /ai ) · · · T2,1 (−a2 /ai )T1,i (1) A =  .  .
 .. 
0

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 44 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

Dans le cas où a1 est nul, on aurait aussi pu intervertir les lignes 1 et i au lieu d’ajouter à la première ligne la iième .
Pour passer au cas général, on a besoin de la généralisation suivante. On dit qu’un vecteur X ∈ Mn,1 (K) est
échelonné à partir de la ligne 1 ≤ i ≤ n si le vecteur A′ ∈ Mn−i+1,1 constitué des lignes i, . . . , n du vecteur X
est échelonné (au sens de la Définition 3.23). En particulier, un vecteur est échelonné s’il est échelonné à partir de
la ligne 1.
L’algorithme d’échelonnement d’un vecteur colonne peut être généralisé pour obtenir un vecteur échelonné à partir
d’une ligne quelconque 1 ≤ i ≤ n − 1. Pour cela, il suffit d’éliminer les lignes qui sont au-dessous de i en utilisant
le coefficient qui est sur la ligne i. Plus précisément,

Lemme 3.28 Soit A = (ak )k=1,...,n ∈ Mn,1 (K) et 1 ≤ i ≤ n − 1. On suppose que l’une des lignes i, . . . , n de
A n’est pasnulle.Alors il existe une matrice E ∈ Mn (K) produit de matrices élémentaires et a ∈ K, a 6= 0, tels
a1
 .. 
 . 
 
ai−1 
 
que EA =   a .

 0 
 
 .. 
 . 
0

Démonstration : C’est la même preuve que pour le lemme précédent sauf qu’on ne regarde que les lignes qui
sont au-dessous de la iième .
◮ Si ai 6= 0 alors en retranchant à la (i + 1)ième ligne ai+1 /ai fois la iième ligne, on obtient
 
a1
 .. 
 . 
 
ai−1 
   
−ai+1  ai 
Ti+1,i A=
 .
ai  0 

ai+2 
 
 .. 
 . 
an

et en faisant de même pour toutes les lignes suivantes, on obtient finalement


 
a1
 .. 
 . 
 
    ai−1 
−an −ai+1  
Tn,i · · · Ti+1,i A= ai .
ai ai 
 0 
 
 . 
 .. 
0

◮ Si ai = 0, il existe j ≥ i + 1 tel que aj 6= 0. Auquel cas, si on ajoute la j ième ligne à la iième ligne, on obtient
 
a1
 .. 
 . 
 
ai−1 
 
 aj  .
Ti,j (1)A =  
ai+1 
 
 . 
 .. 
an

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 45 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

On est alors ramené au cas précédent. Finalement,


 
a1
 .. 
 . 
 
ai−1 
 
Tn,i (−an /aj ) · · · Ti+1,i (−ai+1 /aj )Ti,j (1) A = 
 aj  .

 0 
 
 .. 
 . 
0

On observe que dans cet algorithme, on modifie seulement les lignes i, . . . , n de A. En effet, les matrices élémentaires
par lesquelles on multiplie A n’agissent que sur ces lignes : les coefficients non diagonaux et non nuls étant tous
placés sur ces lignes-là.

Algorithme d’échelonnement d’une matrice et preuve  du théorème 3.26.


 On rappelle que si A est une ma-
trice, cj (A) désigne la j ième colonne de A. On notera c1 (A) . . . cj (A) la matrice constituée des j premières
colonnes de la matrice A.
Soit A ∈ Mn,p (K). On montre par récurrence sur 1 ≤ k ≤ p qu’il existe une matrice Ek ∈ Mn (K) produit de
matrices élémentaires telle que c1 (Ek A) . . . ck (Ek A) est une matrice échelonnée.
 E1 = Id. Si c1 (A) 6= 0, on applique le lemme
◮ Pour k = 1, si c1 (A) = 0, la propriété est trivialement vraie avec
a
0
 
3.28 à c1 (A) avec i = 1 : il existe E1 telle que E1 c1 (A) =  .  . Alors [c1 (E1 A)] = E1 c1 (A) est bien une
 .. 
0
matrice échelonnée.
◮ Supposons la propriété vraie à l’ordre k ≤ p − 1 et montrons-la à l’ordre k + 1. Par hypothèse de récurrence, il 
existe une matrice Ek ∈ Mn (K) produit de matrices élémentaires telle que la matrice Ak := c1 (Ek A) ... ck (Ek A)
est une matrice échelonnée.
On distingue plusieurs cas.  
• Si Ak n’a aucune ligne nulle, on pose E k+1 = Ek et on vérifie que c 1 (Ek+1 A) . . . c k+1 (E k+1 A)
= Ak ck+1 (Ek A) est bien une matrice échelonnée.
• Sinon, Ak a une ligne nulle. Notons ik l’indice de la première ligne nulle de Ak . Alors les lignes ik+1 , . . . , n
de Ak sont nulles, car Ak est échelonnée.  Si les lignes ik , . . . , n de ck+1 (E k A)
 sont aussi toutes nulles,
on peut poser Ek+1 = Ek et on a bien c1 (Ek+1 A) . . . ck+1 (Ek+1 A) = Ak ck+1 (Ek A) qui est
échelonnée.
Si au contraire ck+1 (Ek A) a au moins une ligne non nulle parmi les lignes ik , . . . , n, alors on applique le
lemme 3.28 à ck+1 (Ek A) avec i = ik . Il existe une matrice Fk+1 ∈ Mn (K) produit de matrices élémentaires
telle que
 
α1
 .. 
 . 
 
αik −1 
 
Fk+1 ck+1 (Ek A) =  a .

 0 
 
 . 
 .. 
0
On a déjà observé dans la preuve du lemme 3.28 que multiplier une matrice à gauche par Fk+1 ne modifiait
pas les lignes i ≤ ik . Comme les lignes ik , . . . , n de Ak sont nulles, on en déduit Fk+1 Ak = Ak . Donc
   
c1 (Fk+1 Ek A) ... ck+1 (Fk+1 Ek A) = Ak ck+1 (Fk+1 Ek A)

est bien une matrice échelonnée. Dans ce cas, on pose donc Ek+1 = Fk+1 Ek .
◮ La propriété est vraie pour tout k, en particulier pour k = p. Le Théorème 3.26 est démontré.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 46 Algèbre linéaire, Maths générales II


3.2. Elimination par les matrices 3. Systèmes linéaires et matrices

Remarque 3.29 Lorsque l’on rencontre un zéro en position pivotale (et non pas un “pivot nul”, car, par définition,
un pivot n’est jamais nul) durant l’échelonnement de la matrice on peut, au lieu de transformer la ligne en question,
permuter la ligne où se trouve ce zéro avec une des lignes qui se trouve en dessous de celle où se trouve ce zéro.
C’est d’ailleurs ce qui est effectué en pratique dans les programmes informatiques qui effectuent la méthode de
Gauss, ou qui effectuent la décomposition LU d’une matrice telle qu’on l’a introduite dans la première partie de
ce chapitre.
La matrice de permutation Pi,j des lignes i et j est la matrice identité, sauf pour les lignes i et j : la ligne i a des
zéros partout sauf en colonne j où il y a un 1 ; la ligne j a des zéros partout sauf en colonne i où il y a un 1. Elle
peut encore s’écrire : Pi,j = Idn − Ei,i − Ej,j + Ei,j + Ej,i . Par exemple pour n = 2 :
 
0 1
P12 =
1 0

et pour n = 6 :
   
1 0 0 0 0 0 1 0 0 0 0 0
0 0 1 0 0 0 0 0 0 0 1 0
   
0 1 0 0 0 0 0 0 1 0 0 0
P23 =
0
 P25 = 
 0 0 1 0 0

0
 0 0 1 0 0
0 0 0 0 1 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0 0 0 0 1

On peut vérifier facilement que multiplier une matrice A ∈ Mn,p (K) par la matrice Pi,j revient à intervertir
les lignes i et j. Evidemment lorsqu’on permute les lignes de la matrice du système linéaire, on doit également
permuter les lignes correspondantes du vecteur second membre lorsqu’on résout un système linéaire. Ceci se fait
de manière automatique lorsqu’on travaille sur la matrice augmentée.

Dans la suite, il sera utile de repérer quelles sont les colonnes pivotales d’une matrice échelonnée, dont on a déjà
parlé lors de l’élimination de Gauss. En voici une définition pour une matrice échelonnée rectangulaire n × p.

Définition 3.30 (Pivots, colonnes pivotales, rang) On note r le nombre de lignes non nulles d’une matrice n × p
échelonnée. On appelle pivot le premier terme non nul de chaque ligne non nulle de la matrice échelonnée. On
appelle colonnes pivotales d’une matrice échelonnée les colonnes dans lesquelles apparaissent les pivots des
lignes non nulles (attention ce ne sont pas forcément les r premières colonnes de la matrice). On note k1 , . . . , kr
les indices de ces colonnes. On appelle colonnes non pivotales les autres colonnes, dont les indices sont notés
kr+1 , . . . , kp .
Les colonnes pivotales sont donc les colonnes cj (A) telles que j ∈ J, où J = {k1 , . . . , kr } est l’ensemble des
indices des colonnes dans lesquelles apparaissent les pivots.
On définit le rang de la matrice comme le nombre de lignes non nulles (ou de colonnes pivotales).

3.2.5 Exercices
Exercice 59 (Des petits systèmes gentils) Résoudre les systèmes linéaires suivants en utilisant l’échelonnement :
 
x + y = 2 3x − 2y = 1
x − y = 0 6x + y = 1/2

Exercice 60 (Echelonnement et factorisation LU et LDU ) Echelonner les matrices suivantes, et lorsqu’elle existe,
donner leur décomposition LU et LDU
 
  1 3 1
2 1  2 0 4 
1 3
−1 −3 −3

Exercice 61 (Des systèmes un peu plus gros) Résoudre en utilisant l’algorithme du pivot de Gauss ( ou l’échelonnement)
les systèmes suivants :
 
 x +y +z = 2  x +2y −2z = 1
5x +4y +3z = 2 −x +3y = 0
 
6x +3y +2z = −4 −2y +z = −3

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 47 Algèbre linéaire, Maths générales II


3.3. Calcul de l’inverse d’une matrice, échelonnement total 3. Systèmes linéaires et matrices


  x +2y −2z +4t +u = 0
 x +2y −2z +4t = 2 


 
 y +3z −4t +2u = 0
y +3z −4t = −2
x +z −2t +3u = 0
 z −2t = 0 

  x
 +y +4z −6t +5u = 0
x +y −z +2t = 2 

3y +2t = 0

Exercice 62 (Matrice à paramètre) Echelonner pour t ∈ R la matrice suivante :


 
1 1 1−t
 1+t −1 2 
2 −t 3
Pour quelles valeurs du paramètre t, la matrice est-elle inversible ?

Exercice 63 (Exemples de matrices échelonnées)


1. Ecrire une matrice échelonnée qui n’a que des colonnes pivotales.
2. Ecrire une matrice échelonnée qui n’a que des colonnes non pivotales.
3. Ecrire une matrice échelonnée de M3 (R) dont les colonnes pivotales sont en 1ère et 3ème positions.
4. Une matrice échelonnée peut-elle avoir plus de colonnes pivotales que de lignes ? Et plus de colonnes non
pivotales que de lignes ?
5. Ecrire une matrice échelonnée qui a 1 colonne non pivotale et 0 ligne nulle.
6. Une matrice échelonnée peut-elle avoir 0 colonne non pivotale et 1 ligne nulle ? Et si elle est carrée ?

3.3 Calcul de l’inverse d’une matrice, échelonnement total


Soit A une matrice carrée d’ordre n inversible, dont on veut calculer l’inverse. On cherche donc une matrice A−1
telle que AA−1 = Idn . Les colonnes de Idn sont les vecteurs (colonne) 9 ei dont la i-ème composante est égale
à 1 et toutes les autres nulles. Supposons qu’on connaisse A−1 . Quand on multiplie A par la première colonne de
A−1 , on obtient la première colonne de la matrice AA−1 , qui est égale à la matrice Idn ; cette première colonne
est le vecteur e1 . De même, quand on multiplie A par la i-ème colonne de A−1 , on obtient la i-ème colonne de
AA−1 = Idn , c.à.d. le vecteur ei . On a donc, en notant ci (A−1 ) la i-ème colonne de A−1 :

A ci (A−1 ) = ei , i = 1, . . . , n.

Le calcul de A−1 peut donc s’effectuer en résolvant les n systèmes linéaires avec matrice A, inconnue ci (A−1 ) et
second membre ei .
Remarquons donc tout de suite que l’inversion d’une matrice est beaucoup plus chère que la résolution d’un
système linéaire (n fois, très précisément...). Il est donc idiot d’inverser une matrice pour résoudre un système
linéaire. Par contre, il est intéressant de savoir comment on peut trouver l’inverse d’une matrice par la méthode de
Gauss-Jordan, en s’inspirant de celle effectuée pour résoudre le système linéaire.
Au lieu d’introduire une matrice augmentée avec la matrice de départ et un vecteur second membre, on introduit
maintenant une matrice augmentée avec la matrice de départ et n vecteurs second membre (les vecteurs ei ) ; ceci
revient à considérer la matrice augmentée n × 2n constituée de la matrice A et la matrice Idn :
 
à = A Idn .

Si la matrice A est inversible, en appliquant l’algorithme de Gauss-Jordan qu’on décrit si dessous, on obtient alors
l’inverse de la matrice dans la partie droite (où se trouveait auparavant la matrice identité) de la forme “totalement
échelonné” de la matrice augmentée.  
A Idn =
 A est inversible,sa forme totalement échelonnée R est Idn , et l’algorithme de Gauss-Jordan sur à =
Si
A e1 . . . en donne :
   
R̃ = R c1 (A−1 ) . . . cn (A−1 ) = Idn A−1 .

Voyons ceci d’abord sur un exemple.


9. Quand on dit vecteur sans préciser c’est toujours vecteur colonne ; de même, on identifie les éléments de Rn à l’ensemble Mn,1 des
matrices à n lignes et 1 colonne.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 48 Algèbre linéaire, Maths générales II


3.3. Calcul de l’inverse d’une matrice, échelonnement total 3. Systèmes linéaires et matrices

3.3.1 Exemple de calcul de l’inverse d’une matrice 2 2


 
1 2  
Exemple 3.31 Prenons une matrice 2 × 2 : A = . On écrit la matrice augmentée : Ã = A Id2 =
  3 7
1 2 1 0
, et on applique Gauss-Jordan. On commence par Gauss :
3 7 0 1
   
1 2 1 0 ℓ2 →ℓ2 −3ℓ1 1 2 1 0
−→
3 7 0 1 0 1 −3 1
et on effectue ensuite la partie Jordan, qui consiste à rendre la matrice diagonale :
   
1 2 1 0 ℓ1 →ℓ1 −2ℓ2 1 0 7 −2
−→
0 1 −3 1 0 1 −3 1
 
7 −2
Gauss Jordan donne donc A−1 = . On vérifie qu’on a bien AA−1 = Id2 .
−3 1

3.3.2 Inversion d’une matrice 3 3


   
1 0 1 1 0 1 1 0 0
Exemple 3.32 Considérons la matrice  0 2 −1  . On écrit la matrice augmentée  0 2 −1 0 1 0  .
1 1 0 1 1 0 0 0 1
On commence par appliquer l’algorithme de Gauss, c’est-à-dire se ramener à une matrice échelonnée :
   
1 0 1 1 0 0 1 0 1 1 0 0
ℓ3 →ℓ3 −ℓ1
 0 2 −1 0 1 0  −→  0 2 −1 0 1 0 
1 1 0 0 0 1 0 1 −1 −1 0 1
 
1 0 1 1 0 0
ℓ3 →ℓ3 −(1/2)ℓ2
−→  0 2 −1 0 1 0 .
0 0 −1/2 −1 −1/2 1
On a obtenu une matrice échelonnée. On reprend alors l’algorithme à la fin de Gauss, et on écrit maintenant la
partie “Jordan” 10 de l’algorithme dit de Gauss-Jordan.
Pour cela, on fait apparaı̂tre des 0 au-dessus des pivots en commençant par les colonnes les plus à droite, et en
progressant vers la gauche.
On multiplie la dernière ligne par -2 pour obtenir le pivot 1 :
   
1 0 1 1 0 0 1 0 1 1 0 0
ℓ →−2ℓ
 0 2 −1 0 1 0  3 −→ 3  0 2 −1 0 1 0 
0 0 −1/2 −1 −1/2 1 0 0 1 2 1 −2
Puis on met à zéro le troisième coefficient de la deuxième ligne (à l’aide de la troisième) :
   
1 0 1 1 0 0 1 0 1 1 0 0
ℓ2 →ℓ2 +ℓ3
 0 2 −1 0 1 0  −→  0 2 0 2 2 −2 
0 0 1 2 1 −2 0 0 1 2 1 −2
On annule ensuite le troisième coefficient de la première ligne (toujours à l’aide de la troisième) :
   
1 0 1 1 0 0 1 0 0 −1 −1 2
 0 2 0 2 2 −2  ℓ1 →ℓ −→ 1 −ℓ3
 0 2 0 2 2 −2 
0 0 1 2 1 −2 0 0 1 2 1 −2
On multiplie enfin la deuxième ligne par 1/2 pour obtenir le pivot 1 :
   
1 0 0 −1 −1 2 1 0 0 −1 −1 2
ℓ2 →1/2ℓ2
 0 2 0 2 2 −2  −→  0 1 0 1 1 −1 
0 0 1 2 1 −2 0 0 1 2 1 −2
Les trois premières colonnes forment la matrice identité. Elle constitue la forme totalement échelonnée de la
matrice A : c’est le cas pour toute matrice inversible. On verra plus loin que la réciproque est également vraie : si
la forme totalement échelonnée de la matrice A est l’identité, alors A est inversible.
10. Marie Ennemond Camille Jordan, né le 5 janvier 1838 à Lyon (Rhône) et mort le 22 janvier 1922, est un mathématicien français, connu
à la fois pour son travail fondamental dans la théorie des groupes et pour son cours d’analyse.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 49 Algèbre linéaire, Maths générales II


3.3. Calcul de l’inverse d’une matrice, échelonnement total 3. Systèmes linéaires et matrices

3.3.3 Echelonnement total


Définition 3.33 (Matrice totalement échelonnée)
Soit A ∈ Mn,p (K). On dit que A est totalement échelonnée si :
1. A est échelonnée,
2. le premier coefficient non nul de chaque ligne non nulle est égal à 1,
3. tous les éléments qui sont dans la colonne au dessus du premier coefficient non nul (et égal à 1) d’une ligne
sont nuls.

Notons que dans une forme totalement échelonnée, les pivots sont toujours égaux à 1, ce qu’on n’a pas demandé
pour les matrices échelonnées.

Exemple 3.34 (Matrices totalement échelonnées ou non)


– La matrice identité Idn est totalement échelonnée et a n colonnes pivotales : r = n.
– La matrice nulle On est totalement échelonnée et n’a aucune colonne pivotale : r = 0.
– La matrice suivante est totalement échelonnée :
 
1 0 0
 0 0 1 .
0 0 0

Elle a deux colonnes pivotales : la première, k1 = 1, et la troisième : k2 = 3, et une colonne non pivotale, la
seconde : k3 = 2.
– La matrice 4 × 6 :  
0 1 2 0 0 2
 0 0 0 1 0 1 
 
 0 0 0 0 1 3 
0 0 0 0 0 0
est sous forme totalement échelonnée, et a trois colonnes pivotales k1 = 2, k2 = 4, k3 = 5, et trois colonnes
non pivotales : k4 = 1, k5 = 3, k6 = 6.
– La matrice suivante est échelonnée, mais pas totalement échelonnée :
 
1 0 0
 0 1 2 .
0 0 1

– La matrice suivante n’est ni totalement échelonnée ni même échelonnée :


 
1 0 0
 0 0 0 
0 0 1

Théorème 3.35 (Echelonnement total) Soit A ∈ Mn,p (K). Il existe une matrice E produit de matrices
élémentaires telle que la matrice EA est totalement échelonnée.

Encore une fois, la preuve du théorème donne un algorithme qui permet de calculer explicitement E. D’après le
Théorème 3.26, on peut supposer que A est une matrice échelonnée.

Algorithme d’échelonnement total On commence par le cas d’une matrice colonne (p = 1).
 
a1
 .. 
.
 
 ai 
 0  ∈ Mn,1 (K) un vecteur échelonné avec ai 6= 0. Alors il existe une matrice E ∈
Lemme 3.36 Soit A =  
 
 .. 
.
0

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 50 Algèbre linéaire, Maths générales II


3.3. Calcul de l’inverse d’une matrice, échelonnement total 3. Systèmes linéaires et matrices

 
0
 .. 
.
 
0
 
Mn (K) produit de matrices élémentaires telle que EA = 
1, le 1 étant sur la ligne i.

0
 
 .. 
.
0

Il suffit de prendre E = T1,i (−a1 ) . . . Ti−1,i (−ai−1 )Di (1/ai ).


Une remarque importante pour la suite de l’algorithme : Multiplier une matrice B à gauche par cette matrice E ne
modifie pas ses lignes i + 1, . . . , n. Si de plus la ligne i de B est nulle, EB = B.
On traite maintenant le cas général d’une matrice échelonnée A ∈ Mn,p (K) qu’on veut totalement échelonner. Il
s’agit de repérer les “colonnes pivotales” pour faire apparaı̂tre des 0 au-dessus des pivots. On commence par les
colonnes pivotales les plus à droite, et on progresse vers la gauche. Comme on va le voir, cela permet, lorsqu’on
s’occupe de la colonne pivotale i, de ne pas modifier les colonnes situées à gauche de la colonne i, et de ne pas
modifier non plus les colonnes pivotales situées à droite de la colonne i. La raison en est simple : lorsqu’on fait
des manipulations sur la colonne i, dont le pivot est sur la ligne notée j, on ajoute un multiple de cette ligne j à
des lignes situées au-dessus de la ligne j. Toutes les colonnes à gauche de i ont un 0 sur la ligne j (car la matrice
est échelonnée) donc ces colonnes ne sont pas modifiées. Toutes les colonnes pivotales situées à droite de i ont
un 0 sur la ligne j (car on les a totalement échelonnées aux étapes précédentes) donc elles ne sont pas modifiées.
Voyons l’algorithme en détail.
On note J = (j1 , . . . , jr ) l’ensemble des indices des colonnes pivotales de A (rangés par ordre croissant). On
définit par récurrence sur 0 ≤ l ≤ r − 1 des matrices Ar−l échelonnées et telles que : pour tout 1 ≤ i ≤ r, Ai est
de la forme Ei A, où Ei est un produit de matrices élémentaires, Ai a pour ensemble de colonnes pivotales celui
indexé par J et Ai a ses colonnes pivotales ji , . . . , jr totalement échelonnée.
Pour construire Ar , on applique le Lemme 3.36 à cjr (A) : il existe Er produit de matrices élémentaires telle que
 t
Er cjr (A) = 0 . . . 0 1 0 . . . 0 où le 1 est situé sur la ligne r. Alors la matrice Ar := Er A a ses lignes
r+1, . . . , n égales à celles de la matrice A et sont donc nulles. De plus, comme la matrice c1 (A) . . . cjr−1 (A)
a ses lignes r, . . . , n nulles, la matrice Ar a ses colonnes 1, . . . , jr−1 égales à celles de A. En particulier, Ar est
une matrice échelonnée.
Supposons que les matrices Ar , . . . , Ai+1 ont été construites. On définit alors Ai := Fi Ai+1 où Fi est la matrice
du Lemme 3.36 appliqué à cji (Ai+1 ). Comme précédemment, les colonnes 1, . . . , ji−1 de Ai sont égales à celles
de Ai+1 . De plus, c’est aussi le cas des colonnes pivotales ji+1 , . . . , jr (car elles ont un 0 sur la ligne i). Donc Ai
vérifie bien les conditions exigées et on pose Ei = Fi Ei+1 . La matrice A1 est alors totalement échelonnée et de la
forme E1 A, où E1 est un produit de matrices élémentaires. Le Théorème 3.35 est démontré.

3.3.4 Exercices
Exercice 64 (Matrices 2 × 2 totalement échelonnées) Donner toutes les matrices 2 × 2 de coefficients égaux à
0 ou 1 et qui soient totalement échelonnées.

Exercice 65 (Inverse de matrices par échelonnement total) Echelonner les matrices suivantes et dire si elles
sont inversibles ; le cas échéant calculer leurs inverses par échelonnement total :
     
3 1 1 3 0 1 1 1 1
 2 −1 1 ,  2 −1 1 ,  5 4 3 
−1 1 −2 1 1 −2 6 3 2
et pour ceux qui en veulent encore...
 
  1 2 −2 4 1
1 2 −2 4  
1 2 −2  0 1 3 −4 2 
 0 1 3 −4 
 ,  −1
 
 3 0 ,
 1 0 1 −2 3 
 0 0 1 −2  
0 −2 1  1 1 4 −6 5 
1 1 −1 2
0 3 0 2 0

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 51 Algèbre linéaire, Maths générales II


3.3. Calcul de l’inverse d’une matrice, échelonnement total 3. Systèmes linéaires et matrices

Exercice 66 (Matrices 2 × 2 totalement échelonnées) Soit A ∈ GL2 (R). Montrer que les formes totalement
échelonnées de A et A−1 sont identiques.

Exercice
 67 (Une matrice
 connue en géométrie) Soit θ un nombre réel dans [0, 2π[. On considère la matrice
cos θ − sin θ
Rθ = pour θ ∈ R.
sin θ cos θ
1. Montrer que Rθ est inversible et calculer son inverse.
2. Calculer Rθn pour n ∈ Z.
3. On considère la matrice
 
cos(θ) −sin(θ) 0
A =  sin(θ) cos(θ) 0 
0 0 1
Vérifier que A est inversible et que son inverse A−1 s’écrit
 
(Rθ )−1 012
A−1 =
021 1

Quelle est la nature géométrique de l’application u 7→ Au ?

Exercice 68 Soit A une matrice carrée échelonnée (et donc triangulaire supérieure) qui n’a que des colonnes
pivotales.
1. Montrer que les éléments diagonaux de A sont non nuls.
2. On applique l’algorithme d’échelonnement total à A. Quelle matrice obtient-on ?
3. En déduire que A est inversible.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 52 Algèbre linéaire, Maths générales II


Chapitre 4

Espaces et sous espaces vectoriels

4.1 Espaces et sous-espaces


On a déjà beaucoup parlé dans les chapitres précédents des sous-espaces de R2 et R3 : les droites et plans passant
par l’origine sont des sous-espaces vectoriels, au sens où ils sont stables par combinaison linéaire. Mais Rn lui-
même est aussi stable par combinaison linéaire : muni de l’addition et de la multiplication par un scalaire, on dit
qu’il a une structure d’espace vectoriel, dont on va maintenant donner une définition précise.

4.1.1 Définitions
Définition 4.1 (Espace vectoriel) Soit K un corps, K = R ou C. On dit que E est un espace vectoriel sur K si
1. E muni d’une loi de composition interne + appelée addition (c.à.d. une application de E × E → E) est un
groupe commutatif, i.e. les propriétés suivantes sont vérifiées :
(a) Il existe un élément appelé élément neutre pour l’addition 0E ∈ E tel que pour tout u ∈ E, 0E +u =
u + 0E = u.
(b) Pour tous u, v ∈ E, on a u + v = v + u ∈ E.
(c) Pour tous u, v, w ∈ E, (u + v) + w = u + (v + w).
(d) Pour tout u ∈ E, il existe un v ∈ E tel que u + v = v + u = 0E . Un tel v est unique et on le note
v = −u.
2. E est muni d’une loi de composition externe appelée multiplication, c.à.d. une application de E × K → E
(λx ∈ E, ∀λ ∈ K, ∀x ∈ E) telle que pour tous u, v ∈ E, λ, µ ∈ K,
(a) Il existe un élément appelé élément neutre pour la multiplication 1K ∈ K tel que 1K u = u1K = u,
(b) λ(u + v) = λu + λv,
(c) (λ + µ)u = λu + µu,
(d) λ(µu) = (λµ)u.
On dira plus brièvement que E est un K-espace vectoriel ou K-ev. Cette définition paraı̂t longue et compliquée...
en fait il suffit de retenir qu’un espace vectoriel est un ensemble sur lequel on a défini 2 opérations : l’addition
entre 2 éléments de cet ensemble et la multiplication entre 1 élément et 1 nombre (réel ou complexe selon le cas).
Il y a 8 propriétés à vérifier, 4 liées à l’addition (les propriétés de groupe commutatif) et 4 liées à la multiplication
par un scalaire (élément neutre, distributivité “dans les deux sens”, associativité).
Exemple 4.2
– Quelques exemples typiques d’ espaces vectoriels :
• R, R2 et plus généralement Rn , n ≥ 1 sont des R-ev lorsqu’on les munit de l’addition habituelle de 2 vecteurs,
et de la multiplication d’un vecteur par un nombre.
• De même, Cn , n ≥ 1 est un C-ev et un R-ev.
• M2 (K), M2,1 (K), M1,2 (K), Mn,p (K) munis de l’addition des matrices et de la multiplication par un scalaire
(de K = R ou C) sont des K-ev.
• L’ensemble des polynômes à coefficients dans K est un espace vectoriel sur K (pour l’addition et la multipli-
cation habituelles).

53
4.1. Espaces et sous-espaces 4. Espaces et sous espaces vectoriels

• L’ensemble des fonctions continues sur un intervalle [a, b] est un espace vectoriel sur R (l’addition de 2
fonctions f et g continues sur [a, b] étant la fonction h : [a, b] → R définie par h(x) = f (x) + g(x) pour tout
x ∈ [a, b]. On définit similairement la multiplication d’une fonction par un nombre).
• L’ensemble des fonctions u : R → R solutions de l’équation u′′ + u′ + u = 0 (pour les mêmes opérations que
dans l’exemple ci-dessus).
– Ensembles qui ne sont pas des espaces vectoriels :
• Z muni de l’addition est un groupe, mais n’est pas un R-ev lorsqu’on rajoute la multiplication par les nombres
réels. • (R+ )2 n’est pas un R-ev pour les opérations habituelles,
• L’ensemble des fonctions de R dans R qui valent 1 en 0 pour les opérations habituelles,
• L’ensemble des fonctions u : R → R solutions de l’équation u′′ + u′ + u = 1 pour les opérations habituelles.

Définition 4.3 (Sous-espace vectoriel) Soit E un K-espace vectoriel. On dit que F ⊂ E est un sous-espace
vectoriel de E si 0 ∈ F et si F est stable par combinaison linéaire, c.à.d pour tous u, v ∈ F , λ, µ ∈ K,
λu + µv ∈ F .

Proposition 4.4 Un sous-espace vectoriel d’un espace vectoriel est un espace vectoriel.

Cette proposition est facile à démontrer et laissée à titre d’exercice, mais elle est extrêmement utile : dans la plupart
des cas, lorsqu’on vous demandera de montrer qu’un ensemble est un espace vectoriel, il suffira de montrer que
c’est un sous-espace vectoriel d’un espace vectoriel que vous aurez bien choisi et dans lequel cet ensemble est
inclus. Par exemple, si on vous demande de montrer que l’ensemble des couples (x, y) de R2 vérifiant x + y = 0
est un R-espace vectoriel, il vous suffira de montrer que c’est un sous-espace vectoriel de R2 .

Définition 4.5 (Espace vectoriel engendré) Soient u1 , . . . , uk k éléments d’un K-espace vectoriel E. On appelle
espace vectoriel engendré par la famille (ui )i=1,...,k la partie de E constituée des combinaisons linéaires des
éléments ui :
( k
)
def X
Vect(u1 , . . . uk ) = x ∈ E, x = α1 u1 + · · · + αk uk = αi ui , α1 , . . . , αk ∈ R .
i=1

Soit P une partie de E, on appelle sous-espace vectoriel engendré par P l’ensemble des combinaisons linéaires
des éléments de P .

La terminologie et la notation suggèrent que l’ensemble des combinaisons linéaires d’une famille de vecteurs est
un sous-espace vectoriel : c’est effectivement le cas (exercice !).

4.1.2 Espace des colonnes ou image d’une matrice


Définition 4.6 (Espace des colonnes d’une matrice) Soit une matrice A d’ordre n × p. On appelle espace des
colonnes de de A ∈ Mn,p (K), noté C(A), l’ensemble des combinaisons linéaires des colonnes de la matrice A.
L’ensemble C(A) est donc le sous-espace vectoriel de Kn engendré par les vecteurs colonnes de A.

C(A) = Vect{c1 (A), . . . cp (A)}.

C’est donc un sous-espace vectoriel.

Définition 4.7 (Image d’une matrice) Soit une matrice A d’ordre n × p. On appelle image de A ∈ Mn,p (K),
noté Im(A), l’ensemble des y ∈ Kn tels qu’il existe x ∈ Kp vérifiant Ax = y.

Proposition 4.8 Soit A ∈ Mn,p (K). Alors l’image Im(A) de la matrice A est un sous-espace vectoriel de
Mn,1 (K).

Démonstration : Soient y 1 , y 2 ∈ Im(A) et λ, µ ∈ K. Il existe x1 , x2 ∈ Mp,1 (K) tels que Ax1 = y 1 et


Ax2 = y 2 . Alors λy 1 + µy 2 = A(λx1 + µx2 ), ce qui montre que λy 1 + µy 2 ∈ Im(A).
En fait l’espace des colonnes d’une matrice A et son image sont un seul et même sous-espace vectoriel, comme
nous allons maintenant le voir.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 54 Algèbre linéaire, Maths générales II


4.1. Espaces et sous-espaces 4. Espaces et sous espaces vectoriels

En fait l’espace des colonnes d’une matrice A et son


 image
 sont un seul et même sous-espace vectoriel. Pour
x1
montrer ceci, on rappelle que si A ∈ Mn,p (K), x =  ...  ∈ Mp,1 (K) et y = y1 · · · yp ∈ M1,n (K), alors
   

xp
le vecteur colonne Ax est la combinaison linéaire des vecteurs colonnes de la matrice A associée aux coefficients
x1 , . . . , xp .

Proposition 4.9 Soit une matrice de taille n × p. L’image de A ∈ Mn,p (K) est égal à l’espace des colonnes
C(A).

Démonstration : Pour montrer que les ensembles Im(A) et C(A) sont égaux, il faut montrer que C(A) ⊂ Im(A)
et Im(A) ⊂ C(A). Soit ci (A) la i-ème colonne de A. Alors ci (A) = Aei , où ei est le vecteur de Kp dont
les composantes sont toutes nulles sauf la i-ème qui est égale à 1. On a donc bien ci (A) ∈ Im(A) pour tout
i = 1, . . . , p. Toutes les colonnes de A sont donc dans Im(A) et comme Im(A) est un sous-espace vectoriel, toutes
les combinaisons linéaires de ces colonnes aussi. On a donc bien C(A) ⊂ Im(A).
Réciproquement, si y ∈ Im(A), alors il existe x ∈ Kp tel que y = Ax, et donc y est une combinaison linéaire
des colonnes de A, ce qui prouve que y ∈ C(A). On a donc bien montré Im(A) ⊂ C(A) et donc Im(A) = C(A).

L’image Im(A) de la matrice A est l’ensemble C(A) des combinaisons linéaires des vecteurs colonnes de A. C’est
donc aussi le sous-espace vectoriel engendré par les colonnes de la matrice A.

Exemple
 Déterminons
  l’image
 des
 matrices suivantes :
1 0 1 2 1 2 3
Id2 = ,A= ,B = .
0 1 3 6 0 0 3
 
1
Im(Id2 ) = R2 , Im(A) est la droite passant par l’origine et de vecteur directeur .
3
   
1
Im(A) = λ ,λ ∈ R .
3
     
1 1
Im(B) = λ +µ , λ, µ ∈ R = R2 .
0 1

4.1.3 Exercices
Espaces et sous-espaces

Exercice 69 (Le R-espace vectoriel C.) Montrer que l’espace C muni de l’addition de 2 complexes, et de la mul-
tiplication d’un complexe par un réel, est un R-espace vectoriel.

Exercice 70 (Espace vectoriel : oui ou non ?) Pour les ensembles E et F suivants, préciser si F est un sous
espace vectoriel de E (qui est muni des opérations d’addition et de multiplication usuelles)
– E = R3 et F := {x = (x1 , x2 , x3 ) ∈ R3 tels que x3 ≥ 0}.
– E = R2 et F = R2 \ {(0, 0)}.
– Un cercle F dans le plan E, une sphère F dans l’espace E, un rectangle F dans le plan E.
– L’union F de deux droites du plan E.
– Un plan F passant par l’origine dans E = R3 .

Exercice 71 (Et si on changeait de lois ?)


• On remplace l’addition habituelle dans R2 par (x1 , x2 ) + (y1 , y2 ) = (x1 + y2 , x2 + y1 ), en gardant la définition
habituelle pour la multiplication par un scalaire : α(x1 , x2 ) = (αx1 , αx2 ). Pourquoi R2 muni de ces deux lois
n’est’il pas un sous espace vectoriel ?
• On remplace la multiplication par un scalaire habituelle par α(x1 , x2 ) = (αx1 , 0), en gardant l’addition “nor-
male”. Pourquoi R2 muni de ces deux lois n’est’il pas un sous espace vectoriel ?

Exercice 72 (Sous espaces vectoriels : oui ou non ?) Les ensembles suivants sont-ils des sous-espaces vectoriels
(préciser de quel espace vectoriel) ?
– {(x, y, z) ∈ R3 ; x + y + z = 0}

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 55 Algèbre linéaire, Maths générales II


4.1. Espaces et sous-espaces 4. Espaces et sous espaces vectoriels

– {(x, y, z) ∈ R3 ; 4x + y − z = 0}
– {(x, y, z, t) ∈ R4 ; x2 − y + z = 0}
– {(x, y, z, t) ∈ R4 ; x + y + z = 0, t − x = 1}
– {(x, y, z, t) ∈ R4 ; x + y + z = 0, t − y = 0}
– {(x, y, z) ∈ R3 ; 4x + y − z = 0, x − 4y + z = 0}
– Le sous ensemble des matrices inversibles de Mn (R).
– Le sous ensemble des matrices non inversibles de Mn (R).
– Le sous ensemble des matrices symétriques de Mn (R).
– Le sous ensemble des matrices anti-symétriques de Mn (R).
– Le sous ensemble des matrices non symétriques de Mn (R).

Exercice 73 (Construction de sous-espaces) Pour chacun des espaces vectoriels E suivants, trouver un sous-
espace F de E puis un sous-espace G de F .
     
1 1 1
 1   1   1 
1. E est l’ensemble des combinaisons linéaires des vecteurs 
 0 ,  1  et  1  .
    

0 0 1
2. E est l’ensemble des matrices symétriques 2 × 2 (rappel, une matrice n × n est symétrique si ses coefficients
sont tels que ai,j = aj,i pour i, j = 1, . . . , n)
3. E est l’ensemble des fonctions y de R dans R dont la dérivée troisième est nulle.
Décrire chacun des espaces E précédents de deux manières différentes : “E est l’ensemble de toutes les combi-
naisons linéaires de .... ”et “E est l’ensemble de toutes les solutions de l’équation ... ”

Exercice 74 (Droite dans R2 ) Donner une équation cartésienne et une équation paramétrique de la droite D de
R2 qui passe par 0 et qui a pour vecteur directeur (1, −3). Montrer que D est un sous-espace vectoriel de R2 .

Exercice 75 (Espace vectoriel des polynômes) Soit E l’ensemble des polynômes réels de degré inférieur ou égal
à 4. Montrer que E est un espace vectoriel. Montrer que l’ensemble des polynômes admettant les racines x = a et
x = b 6= a est un sous-espace vectoriel F de E.

Exercice 76 (Commutant d’une matrice) Soit A ∈ M2 (R). On nomme commutant de A et on note Com(A)
l’ensemble des B ∈ M2 (R) telles que AB = BA.
1. Montrer que Com(A) est un sous-espace vectoriel de M2 (R).
2. Montrer que, pour tout k ∈ N, Ak ∈ Com(A).
3. Déterminer Com(A) pour  
1 0 0
A= 0 1 1  .
3 1 2

Exercice 77 (Sous-espaces engendrés) Dans R3 montrer que les vecteurs V1 = (1, 2, 3) et V2 = (2, −1, 1)
engendrent le même sous-espace vectoriel que les vecteurs U1 = (1, 0, 1) et U2 = (0, 1, 1).

Exercice 78 (Espace engendré dans C) On note E le R-espace vectoriel des nombres complexes. On considère
les parties H1 , H2 , H3 , H4 ci-dessous, et pour i = 1, . . . 4, on note Fi le sous-espace vectoriel de E engendré par
Hi .

H1 = z ∈ C, |z| = 3

H2 = z ∈ C, Arg(z) = π/3 ou Arg(z) = −2π/3

H3 = z ∈ C, z = iz

H4 = z ∈ C, z + z ∈ R

1. Représenter graphiquement les sous-ensembles Hi , i = 1, . . . 4.


2. Déterminer lesquels sont des sous-espaces vectoriels de E.
3. Déterminer les sous-espaces Fi , i = 1, . . . 4.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 56 Algèbre linéaire, Maths générales II


4.2. Systèmes linéaires homogènes 4. Espaces et sous espaces vectoriels

Espace des colonnes et image d’une matrice

Exercice 79 (Espace des colonnes de matrices 3×2) Décrire l’espace des colonnes (droite ou plan) pour les ma-
trices suivantes :      
1 −1 1 0 1 0
A = 0 0  A = 0 −1 C = −1 0
0 0 0 0 0 0

Exercice 80 (Systèmes linéaires) Pour quels seconds membres (trouver une condition sur a, b, c) ces systèmes
linéaires admettent ils au moins une solution ?
        
1 4 2 x a 1 4   a
2 x
8 4  y  =  b  2 9 = b
y
−1 −4 −2 z c −1 −4 c

Exercice 81 (Ajout de colonne) Si on ajoute une colonne b a une matriceA, dans quel cas l’espace des colonnes
devient-il plus grand ? Donner un exemple pour lequel il devient plus grand, et un exemple où ce n’est pas le cas.

Exercice 82 (Image d’une matrice) On suppose donnés trois vecteurs de Rn : b1 , b2 et b3 . On se demande si


on peut construire une matrice A (dont on peut choisir les dimensions) telle que les systèmes linéaires Ax = b1
et Ax = b2 admettent une solution, et le système Ax = b3 n’en admette pas. Comment vérifier que ceci est
possible ? Comment construire A ?

Prendre comme exemples :


     
1 0 0
1. n = 3, b1 =  0 , b2 =  1  et b3 =  0 .
0 0 1
     
1 0 1
2. n = 3, b1 =  0 , b2 =  1  et b3 =  1 .
0 0 0

Exercice 83 (Sous espace vectoriel) Soit A ∈ Mn,p (R). L’ensemble {x ∈ Rn ; x 6∈ C(A)} est il un sous-espace
vectoriel ?

Exercice 84 (Espace des colonnes) Soient A ∈ Mn,p (R) et B ∈ Mp,q (R).


1. Montrer que C(AB) ⊂ C(A).
2. Donner un exemple pour lequel C(AB)6= C(A)
3. Montrer que les matrices A et A AB ont même espaces colonnes.
4. Si A ∈ Mn (R), a -t-on C(A2 ) = C(A) ?

Exercice 85 (Somme de deux sous-espaces vectoriels) Soient E un espace vectoriel, F et G des sous-espaces
vectoriels de E. On note F + G l’ensemble des vecteurs de E qui s’écrivent comme la somme d’un vecteur de F
et d’un vecteur de G.
1. Montrer que F + G est un sous-espace vectoriel de E.
2. Montrer par un contre exemple (dans R2 ) que l’ensemble F ∪ G n’est pas forcément un sous-espace vectoriel.
3. Montrer que l’ensemble des combinaisons linéaires des vecteurs de F ∪G qu’on notera Vect(F ∪G) (pourquoi ?)
est égal à F + G (rappel : pour montrer l’égalité de deux ensembles il faut montrer l’inclusion dans les deux sens).
4. Soient A et B ∈ Mn,p (R), E = C(A) et F = C(B). De quelle matrice E + F est il l’espace des colonnes ?

4.2 Systèmes linéaires homogènes


Un système linéaire homogène est un système de la forme Ax = 0. On a déjà vu que si A est une matrice carrée
inversible, alors la seule solution de ce système est x = 0. Mais si A n’est pas inversible, ou si A n’est même pas
carrée, il peut exister des x non nuls tels que Ax = 0. Ces vecteurs constituent le noyau de la matrice A. Résoudre
le système Ax = 0 revient à déterminer le noyau de A.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 57 Algèbre linéaire, Maths générales II


4.2. Systèmes linéaires homogènes 4. Espaces et sous espaces vectoriels

4.2.1 Noyau d’une matrice


Définition 4.10 (Noyau d’une matrice) Soit A une matrice de taille n × p. On appelle noyau de A ∈ Mn,p (K),
noté Ker(A), l’ensemble des x ∈ Kp tels que Ax = 0 (où 0 désigne le vecteur colonne de Kn dont toutes les
composantes sont nulles).

Proposition 4.11 Soit une matrice de taille n × p. Le noyau de A ∈ Mn,p (K) est un sous-espace vectoriel de Kp .

Remarquez que le noyau d’une matrice A ∈ Mn,p (K) est un sous-espace vectoriel de Kp alors que son image (ou
espace des colonnes) est un sous-espace vectoriel de Kn . Par contre, si b 6= 0, l’ensemble des solutions du système
linéaire Ax = b, qui est donc l’ensemble {x ∈ Rp tels que Ax = b} n’est pas un sous-espace vectoriel, car 0
n’est pas solution du sysème Ax = b.

Déterminer le noyau de A revient à résoudre le système linéaire Ax = 0. On appelle système linéaire homogène
un tel système linéaire, dont le second membre est nul. Un système linéaire homogène admet toujours au moins
une solution, le vecteur nul (de Kp ) puisque A0p = 0n . D’autre part, lorsqu’on multiplie une matrice n × p par
un vecteur colonne p × 1, on obtient un vecteur n × 1 qui est une combinaison linéaire des colonnes de A. Donc,
résoudre Ax = 0, c’est trouver les combinaisons linéaires des colonnes de A qui donnent un vecteur nul ; les
composantes xi des solutions x sont les coefficients des combinaisons linéaires qui conviennent.
Il sera très utile, pour trouver le noyau d’une matrice, d’utiliser sa forme totalement échelonnée que nous avons
introduite au chapitre précédent. A ce propos, on rappelle que le rang d’une matrice échelonnée est le nombre r de
colonnes pivotales de la matrice. Une matrice à n lignes et p colonnes a donc r colonnes pivotales et p − r colonnes
non pivotales.
Remarquons que les noyaux de A et de sa forme totalement échelonnée R sont identiques. En effet, les lignes de
R sont obtenues par combinaisons linéaires des lignes de A et les systèmes linéaires Ax = 0 et Rx = 0 sont
équivalents. Plus précisément :

Proposition 4.12 Soit A ∈ Mn,p (K) et R sa forme totalement échelonnée. Alors KerA = KerR.

Démonstration : Par le théorème 3.35, R = EA où E est une matrice inversible et donc dire que Ax = 0 est
équivalent à dire que Rx = 0.
On verra plus loin (Proposition 4.18) que si on connaı̂t les dimensions n et p d’une matrice A et son noyau KerA,
alors on peut déterminer complètement la forme totalement échelonnée de A. En particulier, la forme totalement
échelonnée d’une matrice est unique.

4.2.2 Détermination du noyau


On va maintenant voir comment on peut déterminer le noyau d’une matrice à partir de sa forme totalement
échelonnée. Commençons par le cas d’une matrice A carrée (n = p).

Cas d’une matrice A carrée (n = p) inversible On a déjà vu dans le chapitre précédent que si A est inversible,
la seule solution du système Ax = 0 est x = 0. En effet, en mutipliant les deux membres du système par A−1 ,
on obtient immédiatement x = 0. On verra que la matrice A est inversible si et seulement si la forme totalement
échelonnée de A est R = Idn (voir Lemme 4.28 et Corollaire 4.29). Dans ce cas, la matrice R a donc r = n
colonnes pivotales et aucune colonne non pivotale, et donc son rang est r = n.
Le système Ax = 0 est équivalent au système Rx = 0, ce qui donne encore que x = 0 est l’unique solution du
système linéaire Ax = 0. On a donc Ker(A) = {0} .

Cas d’une matrice A carrée (n = p) non inversible Dans ce cas, la forme totalement échelonnée de A est
R 6= Idn , et son rang (le nombre de colonnes pivotales) r < n : la matrice R possède au moins une ligne de 0 (en
bas), et la matrice augmentée R̃ également (puisque le second membre est nul).
 
1 2
Exemple 4.13 Considérons par exemple la matrice A = , et cherchons à déterminer le noyau de A. C’est
2 4
l’ensemble des x tels que Ax = 0, c.à.d. les solutions du système :

x1 + 2x2 = 0
2x1 + 4x2 = 0

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 58 Algèbre linéaire, Maths générales II


4.2. Systèmes linéaires homogènes 4. Espaces et sous espaces vectoriels

Faisons l’élimination : ℓ2 → ℓ2 − 2ℓ1 . On obtient :



x1 + 2x2 = 0
0=0

La deuxième équation est toujours satisfaite, et donc il n’y a en fait qu’une seule équation. Le noyau de A est la
droite d’équation x1 + 2x2 = 0.
Un moyen simple de décrire cette droite de solutions est de choisir un point de la droite : si on connaı̂t un tel
point, on connaı̂t donc une solution de Ax = 0, qu’on appelle solution spéciale. Alors les points de la droite sont
 Choisissons par exemple x2 = 1, dans ce cas
 0).
tous des multiples de ce point (parce que la droite passe par
−2
on a x1 = −2, et donc une solution particulière est s = . Le noyau de A contient tous les multiples de
1
 
−2
s= .
1
   
−2
Ker(A) = t ,t ∈ R .
1

Cas d’une matrice rectangulaire quelconque Si on connait une solution spéciale s de Ax = 0, alors tous les
multiples de s (c.à.d. les vecteurs de la forme λs avec λ ∈ R) sont solutions de Ax = 0.

Exemple 4.14 Le système linéaire à 1 inconnue


 et 3 équations
 x1 + x2 + x3 = 0, s’écrit aussi Ax =0 où A est

une matrice à une ligne et 3 colonnes : A = 1 1 1 , dont la forme totalement échelonnée est R = 1 1 1 ,
qui n’a donc qu’un pivot (r = 1). Le noyau de A est le plan P de R3 d’équation x1 + x2 + x3 = 0, dont on peut
trouver deux solutions spéciales non colinéaires, qu’on trouve en choissant d’abord x2 = 1 et x3 = 0 puis x2 = 0
et x3 = 1 :    
−1 −1
s1 =  1  et s2 =  0 
0 1
Notons que les variables x2 et x3 correspondant aux colonnes non pivotales, que nous appellerons variables non
pivotales, peuvent être choisies de manière arbitraires. Mais une fois qu’elles sont choisies, la première (et unique)
ligne de la matrice totalement échelonnée R nous donne x1 = −x2 − x3 .
La première colonne de A contient le pivot, et donc la première composante n’est pas arbitraire. On choisit des
solutions spéciales grâce aux variables non pivotales, correspondant aux colonnes non pivotales.
Remarquons enfin qu’à partir des solutions spéciales s1 et s2 , on peut obtenir,
  par combinaison linéaire, tout le
x1
plan P d’équation x1 + x2 + x3 = 0. En effet, pour n’importe quel vecteur x2  du plan P, on peut écrire
x3
     
x1 −1 −1
x2  = x2  1  + x3  0  = x2 s1 + x3 s2 ,
x3 0 1

grâce au fait que −x2 − x3 = x1 . Les vecteurs s1 et s2 “engendrent” le plan, au sens où le sous-espace vectoriel
engendré par s1 et s2 est le plan P d’équation x1 + x2 + x3 = 0.
On peut donc décrire KerA (le plan P) comme l’ensemble des combinaisons linéaires des solutions spéciales
qu’on vient de calculer :      
 −1 −1 
KerA = λ  0  + µ  1  , λ ∈ R, µ ∈ R .
 
1 0

Les solutions spéciales de Ax = 0 peuvent en fait se calculer très simplement à partir de la forme totalement
échelonnée R de A : Si on regarde comment sont faites les colonnes de R, on se rend compte qu’une colonne non
pivotale peut s’écrire comme combinaison linéaire des colonnes pivotales précédentes comme on va le démontrer
dans la proposition suivante. Et ce sont justement les coefficients de cette combinaison linéaire qui donnent une
solution de Ax = 0 (qu’on appelle solution spéciale), puisque (rappel) le produit Ax est une combinaison linéaire
des colonnes de A !

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 59 Algèbre linéaire, Maths générales II


4.2. Systèmes linéaires homogènes 4. Espaces et sous espaces vectoriels

Proposition 4.15 Soit A ∈ Mn,p (K) une matrice échelonnée. Alors toute colonne non pivotale est
1) nulle si elle est située à gauche de la première colonne pivotale,
2) combinaison linéaire des colonnes pivotales qui la précèdent sinon.
Démonstration : On commence par le cas où A est totalement échelonnée. On note r le nombre de lignes non
nulles. Soit J = (j1 , . . . , jr ) les indices de ses colonnes pivotales (plus précisément, la colonne ji est celle qui
contient le premier terme non nul de la ligne i). Le point 2. de la définition des matrices échelonnées dit que
j1 < · · · < jr . Alors  
0
 .. 
.
 
0
 
1
cji (A) =  (4.2.1)

0
 
.
 .. 
0
où le 1 est sur la i ème ligne. En effet,
1) il y a des 0 en dessous du 1, car le premier terme non nul de la ligne i + 1 est sur la colonne ji+1 > ji , le
premier terme non nul de la ligne i + 2 est sur la colonne ji+2 > ji , etc...
2) il y a des 0 en-dessus du 1 car dans une matrice totalement échelonnée, il y a des 0 au-dessus d’un pivot (= le
premier terme non nul d’une ligne).  
a1,j
 .. 
 . 
 
ar,j 
Soit j ∈/ J. Si j < j1 , cj (A) = 0 et le résultat est trivial. Si j > jr , cj (A) est de la forme 
  (car seules les r
 0 

 . 
 .. 
0
premières lignes sont non nulles). On peut écrire cj (A) = a1,j cj1 (A) + · · · + ar,j cjr (A), d’où le résultat dans ce
cas.  
a1,j
 .. 
 . 
 
 ai,j 
Enfin, dans le cas où j vérifie ji < j < ji+1 , cj (A) est de la forme    . En effet, toutes les lignes à partir de
 0 

 . 
 .. 
0
i + 1 sont nulles puisque le premier terme non nul de la ligne i + 1 est sur la colonne ji+1 > j, le premier terme
non nul de la ligne i + 2 est sur la colonne ji+2 > j, etc. . . . On peut écrire cj (A) = a1,j cj1 (A) + · · · + ai,ji cji (A).
Dans ce cas aussi, cj (A) s’écrit comme combinaison linéaire des colonnes qui la précèdent.
On considère maintenant le cas où A est simplement (et pas forcément totalement) échelonnée. Alors l’algorithme
d’échelonnement total montre qu’il existe une matrice inversible E telle que EA soit totalement échelonnée et de
plus A et EA ont les mêmes indices de colonnes pivotales (puisque l’échelonnement total consiste simplement
à faire apparaı̂tre des 0 au-dessus des premiers termes non nuls de chaque ligne de A : les colonnes contenant
le premier terme non nul d’une ligne restent donc les mêmes). On note J l’ensemble des indices des colonnes
pivotales et soit j ∈/ J. Si j < j1 , alors cj (EA) = 0 et donc cj (A) = E −1 cj (EA) = 0. Sinon soient j1 , . . . , jk
l’ensemble des indices de J qui sont inférieurs à j. Par le cas précédent, il existe α1 , . . . , αk tels que cj (EA) =
α1 cj1 (EA) + · · · + αk cjk (EA). Donc
cj (A) = cj (E −1 EA) = E −1 cj (EA) = E −1 (α1 cj1 (EA) + · · · + αk cjk (EA)) .
= α1 E −1 cj1 (EA) + · · · + αk E −1 cjk (EA) = α1 cj1 (A) + · · · + αk cjk (A).

Exemple 4.16 Prenons par exemple la matrice 3 × 4 sous forme totalement échelonnée
 
1 2 0 3
R = 0 0 1 −1
0 0 0 0

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 60 Algèbre linéaire, Maths générales II


4.2. Systèmes linéaires homogènes 4. Espaces et sous espaces vectoriels

où on a écrit en gras les colonnes non pivotales. Notons cj (R), j = 1, . . . , 4 les 4 colonnes de R.
Les deux colonnes pivotales sont c1 (R) et c3 (R), et les deux non pivotales c2 (R) et c4 (R).
P4
Chercher x tel que Rx = 0 revient à chercher x1 , . . . , x4 tels que i=1 xi ci (R) = 0. Or la lecture de la matrice
totalement échelonnée R donne

c2 (R) = 2c1 (R) et c4 (R) = 3c1 (R) − c3 (R)

ce qui s’écrit aussi (pour bien faire apparaı̂tre le produit matrice vecteur) :

−2 c1 (R) + c2 (R) + 0 c3 (R) + 0 c4 (R) = 0 et − 3 c1 (R) + 0 c2 (R) + c3 (R) + 1 c4 (R) = 0.

On a donc trouvé ainsi deux solutions qui vérifient Ax = 0, qui sont


   
−2 −3
1 0
s1 =   0  et s2 =  1  .
  

0 1

Ici encore, on peut remarquer que tout vecteur x qui vérifie Ax = 0 peut s’écrire comme combinaison linéaire de
s1 et s2 . En effet, pour n’importe quel vecteur x = (x1 , x2 , x3 , x4 ) vérifiant Ax = 0, on a : x1 = −2x2 − 3x4 et
x3 = x4 ; on peut donc écrire
     
x1 −2 −3
 x2 
 = x2  1  + x4  0  = x2 s1 + x4 s2 .
   
x=  x3   0   1 
x4 0 1

Les vecteurs s1 et s2 “engendrent” l’espace des solutions de Ax = 0.


Le noyau de A (ou de manière équivalente, l’ensemble des solutions du système Ax = 0) s’écrit alors :
     
 −2


−3 


1 0
KerA = λ   + µ   λ ∈ R, µ ∈ R .
 0 1 

 

0 1

Rappelons que si R est la forme totalement échelonnée de A, les systèmes Ax = 0 et Rx = 0 sont équivalents.
Les noyaux de A et de R sont donc identiques (voir proposition 4.12) et égaux à l’ensemble des combinaisons
linéaires des solutions spéciales obtenues comme expliqué dans l’exemple précédent à partir des colonnes non
pivotales de la matrice R.
Il y a autant de solutions spéciales à Ax = 0 que de colonnes non pivotales, c.à.d. p−r. Dans l’exemple ci-dessus :
p = 4, r = 2, donc il y a 2 solutions spéciales.

Cas d’une matrice n × p avec p > n Remarquons que dans le dernier exemple ci-dessus, on a une matrice
rectangulaire “couchée”, c.à.d. avec plus d’inconnues que de lignes : p > n. Dans ce cas, le noyau de la matrice
est forcément non réduit à 0. En effet le nombre r de pivots (ou de lignes non nulles) est forcément inférieur
aux nombres de lignes, n. Comme p > n, il existe au moins une colonne non pivotale, et cette colonne est une
combinaison linéaire d’autres colonnes de A. Ce qui montre qu’il existe s non nul (ses composantes sont les
coefficients de la combinaison linéaire écrite sous la forme “combinaison = 0”) tel que Ax = 0. Il y a donc une
infinité de solutions au système Ax = 0 (tous les multiples de s), comme dans l’exemple 4.16 ci-dessus.

Unicité de la forme totalement échelonnée Question : la forme totalement échelonnée d’une matrice A est elle
unique ? La réponse est oui, et on a même un résultat plus fort que cela : une matrice totalement échelonnée est
entièrement déterminée par ses dimensions et son noyau.
Exemple 4.17 Soit A une matrice 3 × 4 dont le noyau est l’ensemble {x ∈ R2 ; x1 = x4 = 0, x2 − 2x3 = 0}.
  de R est donc non nulle, sinon le vecteur
Construisons sa forme totalement échelonnée. La première colonne
1
(1, 0, 0, 0) serait dans KerS. On a donc forcément c1 (R) = 0 . Pour la même raison, la deuxième colonne
0

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 61 Algèbre linéaire, Maths générales II


4.2. Systèmes linéaires homogènes 4. Espaces et sous espaces vectoriels

 
0
est aussi non nulle. De plus, le vecteur (1, −1, 0, 0) n’est pas dans le noyau. Donc forcément c2 (R) = 1 . La
0
troisième colonne est entièrement déterminée par l’équation du noyau : c3 (R) = 2c2 (R). Enfin, la quatrième
colonne ne dépend pas des trois premières puisque x4 n’est pas lié aux autres variables dans les équations du
noyau de A. On a donc un seul choix possible pour R :
 
1 0 0 0
R = 0 1 2 0
0 0 0 1
La construction qu’on vient de faire dans cet exemple peut se généraliser à n’importe quelle matrice.
Proposition 4.18 Soient A, B ∈ Mn,p (K) deux matrices de même noyau et R, S des matrices totalement
échelonnées à partir de A et B respectivement. Alors R = S.
Démonstration : Dans la suite, on note Ei ∈ Mp,1 (K) le vecteur colonne qui a des 0 partout sauf un 1 sur la
ligne i. Comme KerA = KerR et KerB = KerS, il suffit de montrer que si deux matrices totalement échelonnées
R et S ont même noyau, alors elles sont égales. On montre par récurrence sur 1 ≤ j ≤ p que pour tout 1 ≤ k ≤ j,
ck (R) = ck (S).
1) Pour j = 1, si c1 (R) = 0, alors le vecteur E1 est dans le noyau de R, donc dans le noyau de S, donc
c1 (S) = 0. Même observation en échangeant les rôles de R et S. Donc c1 (R) et c1 (S) sont simultanément nuls
ou simultanément non nuls. Dans les 2 cas, ils sont égaux.
2) Supposons la propriété vraie jusqu’à l’ordre j ≤ p − 1 et montrons-la pour j + 1. Par hypothèse de récurrence,
ck (R) = ck (S) pour tout k ≤ j. Notons l le nombre de colonnes pivotales à droite de j + 1 et k1 < · · · < kl
les indices de ces colonnes (pour R et pour S). Si cj+1 (R) est non pivotale, alors c’est une combinaison linéaire
des colonnes pivotales précédentes :
l
X
cj+1 (R) = Ri,j+1 cki (R).
i=1
Pl
On en déduit que le vecteur sj+1 := i=1 Ri,j+1 Eki − Ej+1 est dans le noyau de R (on utilise que REi =
ci (R)). Donc sj+1 est dans le noyau de S. Donc (en faisant le calcul dans le sens contraire),
l
X
cj+1 (S) = Ri,j+1 cki (S).
i=1

Donc cj+1 (S) = cj+1 (R). Même observation en échangeant R et S. Donc cj+1 (R) et cj+1 (S) sont simul-
tanément non pivotales ou simulatnément pivotales. Dans le premier cas, le calcul précédent montre qu’elles
sont égales. Dans le second cas, elles sont aussi égales puisque c’est la colonne pivotale l + 1 (qui a des 0 partout
sauf un 1 sur la ligne l + 1).
3) Conclusion : pour tout 1 ≤ j ≤ p, cj (R) = cj (S). Autrement dit, R = S.
On déduit immédiatement de la Proposition 4.18 que pour toute matrice A, il existe une unique matrice totalement
échelonnée R telle qu’il existe E ∈ GLn (K) vérifiant EA = R.
Cette proposition permet également de définir le rang d’une matrice quelconque A (qu’on n’a défini jusqu’à présent
que pour des matrices échelonnées).
Définition 4.19 Le rang de A est le rang de la matrice totalement échelonnée R associée à A (c.à.d. le nombre de
lignes non nulles ou de colonnes pivotales de la matrice R).

4.2.3 Familles libres, Indépendance des colonnes pivotales


Définition 4.20 Soient x1 , . . . , xp p éléments d’un espace vectoriel E. On dit que la famille (x1 , . . . , xp ) est libre
(ou encore que les vecteurs x1 , . . . , xp sont linéairement independants) si pour tout (α1 , . . . , αp ) ∈ Kp ,

α1 x1 + · · · + αp xp = 0 =⇒ α1 = · · · = αp = 0.
Autrement dit, une famille de vecteurs est libre si la seule manière d’écrire une combinaison linéaire nulle de ces
vecteurs est de prendre tous les coefficients égaux à 0. Il revient au même de dire qu’aucun des vecteurs de la
famille ne peut s’écrire comme combinaison linéaire des autres vecteurs de la famille.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 62 Algèbre linéaire, Maths générales II


4.2. Systèmes linéaires homogènes 4. Espaces et sous espaces vectoriels

Exemples
1) Les vecteurs colonnes Ei ∈ Mn,1 (K) (composés de 0 à l’exception d’un 1 sur la ième ligne) sont linéairement
indépendants dans Mn,1 (K).
2) Les matrices élémentaires Ei,j ∈ Mn,p (K) forment une famille libre de Mn,p (K).
3) La famille {X i }0≤i≤n est libre dans l’ensemble des polynômes de degré ≤ n.

Proposition 4.21 Soit A ∈ Mn,p (K). Alors les vecteurs colonnes de A forment une famille libre si et seulement
si Ker(A) = 0.
 
x1
 .. 
Démonstration : Pour tout X =  .  dans Mp,1 (K), on a X ∈ Ker(A) ssi AX = 0 ssi x1 c1 (A) + · · · +
xp
xp cp (A) = 0. Donc Ker(A) = {0} ssi la seule combinaison linéaire de c1 (A), . . . , cp (A) égale à 0 est celle où
tous les coefficients sont nuls, autrement dit ssi les vecteurs colonnes c1 (A), . . . , cp (A) sont indépendants.

Proposition 4.22 Soit A ∈ Mn,p (K) une matrice échelonnée non nulle. Alors les colonnes pivotales de A forment
une famille libre.
Démonstration : Soit 1 ≤ r ≤ n le nombre de lignes non nulles de A. Pour 1 ≤ i ≤ r, on note ji l’indice de la
colonne qui contient le premier terme non nul de la ligne i. Par le point 2. de la définition
 d’une  matrice échelonnée,
a1,ji
 .. 
 . 
 
 ai,ji 
j1 < · · · < jr . Pour 1 ≤ i ≤ r, la colonne d’indice ji est de la forme cji (A) =    avec ai,ji 6= 0. Soient
 0 

 .. 
 . 
0
α1 , . . . , αr ∈ K tels que le vecteur colonne X := α1 cj1 (A) + · · · + αr cjr (A) soit nul. La ligne r de X est αr ar,jr .
Donc αr = 0. On montre de même (par récurrence) que αr−1 = · · · = α1 = 0. Donc la famille des colonnes
pivotales est libre.

4.2.4 Construction du noyau par les solutions spéciales


Proposition 4.23 Soit A ∈ Mn,p (K). Soit r le nombre de colonnes pivotales (ou de lignes non nulles) de la
matrice totalement échelonnée à partir de A (c.à.d le rang de A) et J ′ l’ensemble des indices des colonnes non
pivotales. Alors il existe p − r vecteurs colonnes Sj ∈ M1,p (K), j ∈ J ′ qui sont des éléments du noyau de A, et
qu’on appelle “solutions spéciales” du système linéaire homogène AX = 0 tels que
(1) tout élément de Ker(A) peut s’écrire comme une combinaison linéaire de la famille (Sj )j∈J ′ ,
(2) la famille (Sj )j∈J ′ est libre.

Démonstration : Il existe E ∈ GLn (K) telle que R := EA soit totalement échelonnée. On a vu à la proposition
4.12 que Ker(A) = Ker(R).
Maintenant, on note r le nombre de colonnes pivotales (ou rang) de R et J = (j1 , . . . , jr ) les indices des colonnes
pivotales, J ′ les indices des colonnes non pivotales. On note également Ej ∈ Mp,1 (K) le vecteur colonne (qui a
donc p lignes) dont tous les coefficients sont nuls sauf le j ème qui est égal à 1. On note enfin Ri,j les coefficients
de R.
Etape 1 - Construction de la famille des solutions spéciales (Sj )j∈J ′ . On reproduit ici dans le cas général la
construction effectuée dans les exemples 4.13, 4.14 et 4.16. Pour chaque colonne non pivotale j ∈ J ′ , on va
construire une solution spéciale Sj du système linéaire homogène AX = 0. Soit donc j ∈ J ′ .
1. Considérons d’abord le cas où j < j1 ; comme la matrice est totalement échelonnée, et que j1 est la première
colonne pivotale, la colonne cj (A) est donc nulle. En posant Sj = Ej , on obtient : ASj = cj (A) = 0.
2. Supposons maintenant que j est tel qu’il existe 1 ≤ i ≤ r − 1 tel que ji < j < ji+1 ; alors on sait que cj (R)
peut s’écrire comme combinaison linéaire des colonnes pivotales précédentes : cj (R) = R1,j cj1 (R) + · · · +
Ri,j cji (R). On définit Sj = −R1,j Ej1 + · · · − Ri,j Eji + Ej . Alors
RSj = −a1,j cj1 (R) − · · · − ai,j cji (R) + cj (R) = 0.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 63 Algèbre linéaire, Maths générales II


4.2. Systèmes linéaires homogènes 4. Espaces et sous espaces vectoriels

3. Enfin, si j > jr , on définit Sj = −R1,j Ej1 − · · · − Rr,j Ejr + Ej et on vérifie de même que RSj = 0.
Etape 2 - La famille des solutions spéciales (Sj )j∈J ′ est libre. Comme Ker(A) = Ker(R), la famille (Sj )j ∈J / est
une famille de vecteurs de Ker(A). Montrons que la famille {S1 , . . . , Sp } est libre. Soient αj ∈ K, j ∈ J ′ tels que
X
αj Sj = 0.
j∈J ′

Fixons i ∈ J ′ . La ligne i de Si est 1 alors que pour tout j 6= i, la ligne i de Sj est 0. On obtient donc en calculant
la ligne i dans l’égalité précédente que αi = 0. Comme cela est vrai pour tout i, on a bien montré que la famille
(Si )i∈J ′ est libre.
Etape 3 - La famille des solutions spéciales (Sj )j∈J ′ engendre KerA. Montrons que la famille {S1 , . . . , Sp } vérifie
la condition (1). Soit X ∈ Mp,1 (K). On va d’abord montrer qu’il existe α1 , . . . , αp ∈ K tels que
X X
X= αj Sj + αj Ej (4.2.2)
j∈J ′ j∈J
 
x1
 ..  Pp P
En effet, notons X =  .  = j=1 xj Ej . Pour chaque j ∈ J ′ , Sj est de la forme Ej + l∈J βl El . Donc il
xp
existe des nombres γj pour j ∈ J tels que
X X X
xj Sj = xj Ej + γj Ej .
j∈J ′ j∈J ′ j∈J

On en déduit que
p
X X X X X X
X= xj Ej = xj Ej + xj Ej = ( xj Sj − γj Ej ) + xj Ej
j=1 j∈J ′ j∈J j∈J ′ j∈J j∈J

ce qui prouve (4.2.2).


Si on suppose de plus que X ∈ Ker(A), alors (4.2.2) implique
X X X
0 = RX = αj RSj + αj REj = αj REj
j∈J ′ j∈J j∈J
P
puisqu’on a vu que les Sj étaient dans le noyau de R. Ainsi, 0 = j∈J αj cj (R). Or les colonnes pivotales de R
forment une famille libre, donc on a αj = 0 pour tout j ∈ J. En reportant dans (4.2.2), il vient
X
X= αj Sj ,
j∈J ′

ce qui est exactement la condition (1).

4.2.5 Exercices
Résolution de systèmes linéaires homogènes et noyau
Exercice 86 (Solutions spéciales et noyau) Pour les trois matrices suivantes,
 
0 0 0 0  
2 4  
A = 0 0 0 0 B= C= B B
1 2
0 0 0 0

1. Donner les colonnes pivotales et non pivotales


2. Donner les solutions spéciales du système linéaire homogène associé.
3. Donner le noyau de la matrice.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 64 Algèbre linéaire, Maths générales II


4.3. Résolution d’un système linéaire général 4. Espaces et sous espaces vectoriels

Exercice 87 (Résolution de système) Soit les matrices :


   
1 1 2 −1 1 1 0 2 −1 1
 −1 0 1 0   −1 0 1 0 0 1 
A=   B= 
0 0 1 −1  0 0 1 1 −1 1 
0 1 0 1 0 1 0 1 0 1

1. Quelles sont les colonnes pivotales et les colonnes non pivotales ?


2. Déterminer des solutions spéciales de Ax = 0 en prenant 1 pour chaque variable non pivotale et 0 pour toutes
les autres variables.
3. Déterminer le noyau de A en l’écrivant comme l’ensemble des combinaisons linéaires de solutions spéciales
puis en donnant les équations qui le définissent.

Exercice 88 (Résolution de systèmes homogènes) Résoudre les systèmes linéaires suivants, en procédant de la
même façon que dans l’exercice 87 :

  x − z = 0
2x + y − z = 0
y + 2z − w = 0
4x − y = 0 
x + 2y + 3z − w = 0


 x − y + z = 0 

y + w = 0 a − b + 3c + d − e = 0

 3x − 2y + 3z + w = 0 2a − b + c + d + e = 0

−y − w = 0

Exercice 89 (Noyau et matrice totalement échelonnée) Construire la matrice totalement échelonnée R des ma-
trices suivantes, donc on connaı̂t les dimensions et le noyau.
1. A ∈ M3 (R), Ker(A) = {0}
 
1
2. A ∈ M3 (R), Ker(A) = {t 2 , t ∈ R}
3
3. A ∈ M3 (R), Ker(A) = {x = (x1 , x2 , x3 ) ∈ R3 ; x1 + x2 + x3 = 0}
4. A ∈ M3,5 (R), Ker(A) = {x = (x1 , x2 , x3 , x4 , x5 ) ∈ R5 ; x1 + x2 + x3 + x4 + x5 = 0}
   
1 0
5. A ∈ M4,3 (R), Ker(A) = {λ 1 + µ 0 , λ, µ ∈ R}
0 1

Exercice 90 (Construction de matrices) Construire une matrice dont le noyau contient le vecteur de compo-
santes (1, 2, 0) et l’image les vecteurs de composantes (1, 0, 1) et (0, 0, 1)

Exercice 91 (Noyau et image)


1. Construire une matrice A carrée d’ordre 2 dont le noyau est égal à son image.
2. Peut-on construire une matrice A carrée d’ordre 3 dont le noyau est égal à son image ?

4.3 Résolution d’un système linéaire général


Soit le système linéaire à n équations et p inconnues :


 a1,1 x1 + a1,2 x2 + . . . + a1,p xp = b1



 a 2,1 x1 + a2,2 x2 + . . . + a2,p xp = b2


 ···
ai,1 x1 + ai,2 x2 + . . . + ai,p xp = bi



 ···



 ···

an,1 x1 + an,2 x2 + . . . + an,p xp = bn

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 65 Algèbre linéaire, Maths générales II


4.3. Résolution d’un système linéaire général 4. Espaces et sous espaces vectoriels

 
a1,1 a1,2 . . . a1,p
 a2,1 a2,2 . . . a2,p 
On met le système sous forme matricielle : Ax = b, avec A =   , A ∈ Mn,p (K).
 ··· 
an,1 an,2 . . . an,p
Rappelons que résoudre Ax = b revient également à demander que b soit une combinaison linéaire des colonnes
de A ; en effet, le produit Ax s’écrit aussi x1 c1 (A) + x2 c2 (A) + · · · + xp cp (A) où ci (A) désigne la i-ème colonne
de A.

Donc le système Ax = b admet une solution si et seulement si le second membre b est dans Im(A).
      
1 0 1 0   1 0
x1
Exemple 4.24 Soit A =  2 1  . Alors Ax =  2 1  = x1  2  + x2  1 .
x2
3 2 3 2 3 2
3
Donc Im(A) est un plan dans R . Pour un b quelconque, il n’y pas de raison qu’il y ait une solution au système
Ax = b, sauf si b est dans le plan Im(A). Par contre si b = 0, alors il y a une solution, car 0 ∈ Im(A) car
(rappel) A0 = 0. On rappelle d’ailleurs en passant que Im(A) est un sous-espace vectoriel et à ce titre, doit
contenir le vecteur nul.

ATTENTION : ne pas confondre Im(A) avec l’ensemble des solutions de Ax = b, Im(A) est un sous-espace
vectoriel de Rn , alors que l’ensemble des solutions de Ax = b est un sous ensemble de Rp qui n’est un sous-espace
vectoriel de Rp que si b = 0.
L’étude du noyau de la matrice nous permet d’énoncer le résultat suivant :

Proposition 4.25 (Solutions du système général Ax = b) Soit A ∈ Mn,p (R) une matrice réelle à n lignes et p
colonnes. Soit b ∈ Rn . Alors :
1. Si b ∈ Im(A), le système linéaire admet au moins une solution.
2. Si b 6∈ Im(A), le système linéaire n’admet aucune solution.
3. Si Ker(A) = {0}, toutes les colonnes sont pivotales, r = p et le système linéaire admet au plus une solution.
4. Si b ∈ Im(A) et Ker(A) = {0}, toutes les colonnes sont pivotales, r = p et le système linéaire admet une
solution unique.
5. Si b ∈ Im(A) et Ker(A) 6= {0}, le système linéaire admet une infinité de solutions.

Démonstration : Dire qu’il existe x ∈ Rp tel que Ax = b est équivalent à dire que b est une combinaison linéaire
des colonnes de A, et donc que b ∈ C(A) ou b ∈ Im(A). Ceci démontre les points 1 et 2.
Supposons que x et y sont des solutions de Ax = b. Alors A(x − y) = 0, c.à.d. x − y ∈ Ker(A) On en déduit
le point 3.
Le point 4 découle des points 1 et 3.
Supposons maintenant que b ∈ Im(A) et Ker(A) 6= {0}. Donc par le point 1, il existe xp qu’on va appeler
solution particulière, telle que Axp = b. Par hypothèse, il existe xn 6= 0 tel que Axn = 0. Il est alors facile de
voir que xp + sxn est solution de Ax = b pour tout s ∈ R.

Pour résoudre pratiquement le système Ax = b dans le cas général, on va procéder comme dans le cas où A était
inversible, c.à.d. par élimination (ou échelonnement), grâce au résultat suivant :

Proposition 4.26 Soit A ∈ Mn,p (K), E ∈ GLn (K) et b ∈ Mn,1 (K) (c.à.d. Rn dans le cas K = R). Alors x ∈
Mp,1 (K) (c.à.d. Rp dans le cas K = R)est solution du système linéaire Ax = b si et seulement si X ∈ Mp,1 (K)
est solution du système linéaire EAx = Eb.

Le plan d’action pour résoudre pratiquement


  le système Ax = b est le suivant : on commence par  échelonner

totalement la matrice augmentée A b . La forme totalement échelonnée de la matrice augmentée R c nous
permet de vérifier si le second membre est dans l’image. Si c’est le cas, elle nous permet de construire une solution
particulière xp ∈ Rp telle que Rxp = c, ce qui est équivalent (par la proposition 4.26) à Axp = b.
Ensuite, la forme totalement échelonnée de la matrice R nous permet de construire les solutions spéciales et donc
tout le noyau, comme on l’a vu au paragraphe précédent.
On a ainsi construit l’ensemble S des solutions du système :

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 66 Algèbre linéaire, Maths générales II


4.3. Résolution d’un système linéaire général 4. Espaces et sous espaces vectoriels

p−r
X
S = {xp + xn , xn ∈ Ker(A)} = {xp + αk sk },
k=1

où les vecteurs sk sont les solutions spéciales du système homogène Ax = 0 construites au paragraphe précédent.
Nous allons maintenant étudier quelques exemples pour illustrer cette démarche.

4.3.1 Exemples de résolution de systèmes


Exemple 4.27 
 2x1 + 2x2 − 2x3 = 5
7x1 + 7x2 + x3 = 10

5x1 + 5x2 − x3 = 5
 
2 2 −2
On a ici n = p = 3, et la matrice du système est donc A = 7 7 1 .
5 5 −1
   
2 2 −2 5 1 1 0 0
La matrice augmentée est : Ã = 7 7 1 10, et sa forme totalement échelonnée (exo) : R̃ = 0 0 1 0 .
5 5 −1 5 0 0 0 1
La dernière ligne de A demande 0 = 1 : on “lit” dans cette dernière ligne de la matrice que le vecteur b n’est pas
dans l’image de A, et que le système n’admet pas de solution.

Dans le cas où b est dans l’image de A, on sait qu’on a au moins une solution au système linéaire. Pour trouver
les solutions d’un système linéaire AX = b, l’idée est de chercher une solution particulière xp par l’algorithme
d’échelonnement total. Une fois cette solution calculée, on remarque ensuite que si on a une autre solution b du
même système Ax = b, alors A(x − xp ) = Ax − Axp = b − b = 0. La différence x − xp est donc dans le noyau
de A.
On obtient donc toutes les solutions du système linéaire Ax = b sous la forme xp + xn , xn ∈ Ker(A). En
particulier, il existe une unique solution lorsque Ker(A) = {0} (et b ∈ Im(A)).
Il est facile de trouver une solution particulière xp du système Ax = b à partir de sa forme totalement échelonnée :
on met toutes les variables correspondant aux colonnes non pivotales à 0, et on résout (si c’est possible) le système
des variables pivotales : on obtient ainsi une solution particulière xp .
Soit à la matrice augmentée du système, d’ordre n × (p + 1) (n lignes, p + 1 colonnes), définie par
 
a1,1 a1,2
b1 ... a1,p
   a2,1 a2,2
b2  ... a2,p
à = A b = 
 ···


an,1
an,2 . . . an,p bn
 
On effectue l’algorithme d’échelonnement total sur la matrice à = A b pour arriver à la forme totalement
 
échelonnée R̃ = R d .
Examinons les différents cas possibles selon les valeurs de n, p et r, où r est le rang de la matrice A (c.à.d. le
nombre de lignes non nulles de R et donc aussi de colonnes pivotales) .
1. Cas d’une matrice carrée : n = p, avec R = Idn , i.e. r = n, alors la matrice A est inversible et le système
admet une solution unique x = d.

Exemple

x1 + 2x2 = 4
3x1 + 7x2 = 13
     
1 2 4 1 2 4
Forme matricielle : Ax = b avec A = et b = . Matrice augmentée : Ã = . Forme
3 7 13 3 7 13
 
1 0 2
totalement échelonnée (exo) : R̃ =
0 1 1

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 67 Algèbre linéaire, Maths générales II


4.3. Résolution d’un système linéaire général 4. Espaces et sous espaces vectoriels

On a donc R = Idn (R est la forme totalement échelonnée de A, R̃ est la forme totalement échelonnée de
Ã) et on “lit” donc une solution xp du système dans la matrice R̃ qui représente le système linéaire :

x1 = 2
x2 = 1

 est inversible et que son noyau est réduit à {0}. La solution unique du système
Remarquons que la matrice
2
est donc X = xp + 0 = .
1
2. Cas d’une matrice carrée telle que R 6= Idn , r < n alors R a au moins une ligne nulle. Si toutes les
composantes de d correspondantes aux lignes nulles de R sont nulles, les équations sont compatibles et le
système admet une infinité de solutions (parce que le noyau de A n’est pas réduit à {0}). S’il existe une
composante de d non nulle et qui correspond à une ligne nulle de R, alors le système n’a pas de solution
(parce que d 6∈ Im(A)).

Exemple 
 x1 + 2x3 = b1
x1 + x3 = b2

x3 = b3
   
1 0 2 b1
Le système s’écrit sous forme matricielle AX = b, avec A = 1 0 1 et b = b2 . La matrice
  0 0 1 b3
1 0 2 b1
augmentée du système s’écrit à = 1 0 1 b2 . L’algorithme d’échelonnement total donne :
0 0 1 b3
     
1 0 2 b1 1 0 2 b1 1 0 2 b1
1 0 1 b2  T21 (−1)
−→ 0 0
T32 (1)
−1 b2 − b1  −→ 0 0 −1 b2 − b1  .
0 0 1 b3 0 0 1 b3 0 0 0 b3 + b2 − b1

A ce stade, on a effectué seulement l’échelonnement de la matrice. En écrivant l’équation donnée par la


dernière ligne de la matrice augmentée : (0 0 0 b3 + b2 − b1 ), on voit déjà que pour espérer avoir une
solution, il faut que b satisfasse la condition de compatibilité 0 = b3 + b2 − b1 .
(a) Si b ne satisfait pas cette condition, alors b n’est pas dans Im(A) et le système linéaire n’admet pas
de solution.
(b) Si maintenant b satisfait la condition de compatibilité 0 = b3 + b2 − b1 (b est dans Im(A)), on continue
la procédure d’échelonnement total pour calculer la solution du système :
     
1 0 2 b1 1 0 2 b1 1 0 0 2b2 − b1
D2 (−1) T12 (−2)
0 0 −1 b2 − b1  −→ 0 0 1 b1 − b2  −→ 0 0 1 b1 − b2 
0 0 0 b3 + b2 − b1 0 0 0 b3 + b2 − b1 0 0 0 b3 + b2 − b1

On “lit” alors une solution dans les deux premières lignes de la matrice totalement échelonnée qu’on
a ainsi obtenue : x1 = 2b2 − b1 , x3 = b1 − b2 . Notons que l’onpeut choisir  x2 de manière arbitraire.
2b2 − b1
Si on choisit x2 = 0, on obtient une solution particulière xp =  0  du système Ax = b, à la-
b1 − b2
quelle on peut ajouter n’importe quel élément xn de Ker(A). On détermine alors la solution spéciale du
système homogène (c’est-à-dire avec second membre nul) en remarquant qu’il n’y a qu’une seule co-
  écrire la combinaison linéaire 0c1 (R) + c2 (R) + 0c3 (R) =
lonne non pivotale, la deuxième, et on peut
0
0. Une solution spéciale est donc s = 1 . Le système admet une infinité de solutions, qui sont de la

0
forme :  
2b2 − b1
xp + λs =  λ  , λ ∈ R.
b1 − b2

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 68 Algèbre linéaire, Maths générales II


4.3. Résolution d’un système linéaire général 4. Espaces et sous espaces vectoriels

Exemple Résoudre le système :



 2x1 + 2x2 − 2x3 = 5
7x1 + 7x2 + x3 = 10

5x1 + 5x2 − x3 = 5
 
2 2 −2 5
On a ici n = p = 3, et la matrice augmentée du système est à = 7 7 1 10, et sa forme totalement
  5 5 −1 5
1 1 0 0
échelonée (exo) : R = 0 0 1 0 . On “lit” alors dans la forme totalement échelonnée que le second
0 0 0 1
membre n’est pas dans l’image de A (parce que la dernière ligne donne 0 = 1) donc le système n’a pas de
solution.
Remarquons que les solutions du système AX = 0 se trouvent en remarquant que la matrice R totalement
échelonnée de A (les 3 premières colonnes de R̃) a 2 colonnes pivotales et une non pivotale, la seconde. On
remarquequec2 (R) = c1 (R) (la seconde colonne est identique à la première) ce qui donne comme solution
−1
1
 0 . Les solutions de Ax = 0 sont les multiples de cette solution spéciale.
spéciale  

0
   

 −1 

   
1
Ker(A) = λ   , λ ∈ R .


 0 

 
0

3. Cas n > p et r = p. On a dans ce cas une matrice rectangulaire “debout”, plus haute que large, et aucune
ligne nulle. Donc on n’a aucune colonne non pivotale (puisque r = p). Le noyau de la matrice est réduit à
{0}. Prenons un exemple :    
1 1 b1
A = 1 0 et b = b2  .
2 3 b3
Cherchons pour quel b le système Ax = b admet une solution. L’échelonnement total de la matrice aug-
mentée s’écrit :
     
1 1 b1 1 1 b1 1 1 b1
T21 (−1) T31 (−2)
1 0 b2  −→ 0 −1 b2 − b1  −→ 0 −1 b2 − b1 
2 3 b3 2 3 b3 0 1 b3 − 2b1
     
1 1 b1 1 0 b2 1 0 b2
T32 (1) T12 (1) D2 (−1)
−→ 0 −1 b2 − b1  −→ 0 −1 b2 − b1  −→ 0 1 b1 − b2 
0 0 b3 − 3b1 + b2 0 0 b3 − 3b1 + b2 0 0 b3 − 3b1 + b2

La lecture de la forme totalement échelonnée donne que :


(a) Les deux colonnes sont pivotales, donc le noyau de la matrice est réduit à {0}.
(b) Le second membre b est dans l’image de A si l’équation de compatibilité b3 − 3b1 + b2 = 0 est vérifiée.
 
b2
(c) Si b ∈ Im(A) alors il y a une unique solution x = .
b1 − b2
4. Cas n < p et r = n. Il s’agit d’une matrice plus large que haute “rectangulaire couchée”, dont toutes les
lignes sont non nulles. Il y a donc forcément des colonnes non pivotales, et le noyau de la matrice n’est
donc pas réduit à 0. Comme r = n, toutes les lignes sont non nulles, et il n’y a donc pas d’équation de
compatibilité ; le second membre est dans l’image de A, et on a donc une infinité de solutions, de la forme
xp + xn , xn ∈ Ker(A).

Exemple Résoudre le système : 


x1 + x3 = 2
x1 + x2 + x3 = 4

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 69 Algèbre linéaire, Maths générales II


4.3. Résolution d’un système linéaire général 4. Espaces et sous espaces vectoriels

   
1 0 1 2 1 0 1 2
La matrice augmentée du système est alors : . L’échelonnement total donne .
1 1 1 4 0 1 0 2
On lit alors dans la matrice totalement échelonnée :
  est donné par le second membre (l’inconnue arbitraire est x3 ,
(a) Une solution particulière du système
2
qu’on prend égale à 0) : xp = 2 .
0
(b) Le noyau de la matrice du système s’obtient en remarquant que la troisième colonne est non
 pivotale
−1
et égale à la première. On a donc comme solution spéciale du système homogène S =  0  .
1
(c) On a donc une infinité de solutions, qui sont de la forme
   
2 −1
x = xp + λs = 2 + λ  0  , λ ∈ R.
0 1

En résumé, il y a quatre possiblités pour les solutions d’un système linéaire, selon le rang r de la matrice :
r =n et r =p matrice carrée inversible Ax = b a une solution unique
r =n et r <p matrice rectangulaire “couchée” Ax = b a une infinité de solutions
r <n et r =p matrice rectangulaire “debout” Ax = b a 0 ou 1 solution (unique)
r <n et r <p matrice quelconque Ax = b a 0 ou une infinité de solutions

4.3.2 Caractérisation d’une matrice inversible


Lemme 4.28 Soit A ∈ Mn (K) une matrice totalement échelonnée telle que Ker(A) = {0}. Alors A = Idn .

Démonstration : Par la proposition 4.23, A n’a pas de colonne non pivotale. Donc l’ensemble des indices Jdes 
0
 .. 
.
 
0
 
colonnes pivotales est J = (1, . . . , n) (autrement dit, ji = i pour tout i). De plus, on a (voir (4.2.1)) cj (A) = 
1

0
 
.
 .. 
0
où le 1 est sur la j ème ligne. Donc A = Idn .

Corollaire 4.29 Soit A ∈ Mn (K), on a équivalence des propriétés suivantes


1. A est inversible.
2. Ker(A) = {0}.
3. Im(A) = Mn,1 (K) (= Rn dans le cas de matrices réelles).

Démonstration : Supposons A inversible. Montrons que Ker(A) = {0}. Soit X ∈ Ker(A). Alors AX = 0, donc
A−1 AX = 0, d’où X = 0.
Montrons qu’on a aussi Im(A) = Mn,1 (K). Notons B l’inverse de A. Soit Y ∈ Mn,1 (K). Alors Y = A(BY )
ce qui montre que Y ∈ Im(A). Donc Im(A) = Mn,1 (K).
Supposons maintenant que Ker(A) = {0} et montrons que A est inversible. Soit E ∈ GLn (K) telle que EA soit
totalement échelonnée. Comme Ker(E) = {0} (car E est inversible), on a Ker(EA) = Ker(A) = {0}. On en
déduit par le Lemme 4.28 que EA = Idn , donc A = E −1 EA = E −1 est inversible.
Supposons enfin que Im(A) = Mn,1 (K) et montrons que A est inversible. Soit E ∈ GLn (K) telle que EA
soit totalement échelonnée. Comme Im(E) = Mn,1 (K) (car E est inversible), on a Im(EA) = Mn,1 (K).
Donc EA n’a pas de lignes nulles ; autrement dit, les n lignes de EA ont un premier coefficient non nul. On en
déduit, en notant comme toujours j1 < · · · < jn les indices des colonnes pivotales, que j1 = 1, . . . , jn = n
(car il y a exactement n lignes non nulles et n colonnes dans la matrice). Comme EA est totalement échelonnée,

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 70 Algèbre linéaire, Maths générales II


4.3. Résolution d’un système linéaire général 4. Espaces et sous espaces vectoriels

 
0
 .. 
.
 
0
 
1 où le 1 est sur la j ème ligne (voir (4.2.1) ). Donc EA = Idn , ce qui montre que A est inversible.
cj (EA) =  
0
 
 .. 
.
0

On déduit des deux précédents corollaires qu’une matrice carrée est inversible si et seulement si elle admet une
forme totalement échelonnée égale à l’identité.

Corollaire 4.30 Soit A ∈ GLn (K). Alors A peut s’écrire comme le produit de matrices élémentaires.

Démonstration : L’algorithme d’échelonnement total (Théorème 3.35) montre qu’il existe P produit de matrices
élémentaires telle que P A soit totalement échelonnée. Comme P A est inversible, on en déduit P A = Idn par le
Corollaire 4.28. Donc A = P −1 . On conclut par le corollaire 3.21.

4.3.3 Exercices
Exercice 92 (Ecrire une matrice et résoudre un système) Ecrire sous forme matricielle le problème suivant
Trouver deux quadruplets différents de 4 entiers a, b, c et d tels que :

La moyenne de a et b est 35,


la moyenne de b et c est −22,
la moyenne de c et d est −39,
et la moyenne de a et d est 18.

Exercice 93 Calculer le rang des matrices


 
  1 2 3
1 −1 3 5 1 
 −1 0 −1 

A= 2 0 −1 3 1  et B = 
 3 −1 2 
3 −1 2 8 2  5 3 8 
1 1 2

Exercice 94 Calculer le rang des matrices


       
1 1 2 1 1 1 0 0 0 1 1 1 1 1 3 1 1 1 1 2
 2 1 1 1 1   1 1 0 0 0   0 2 1 1 2   0 2 1 1 2 
       
 1 1 1 2 1  ,  1 0 1 0 0 1 1 1 2 2 1 1 1 2 2
 ,  ,  
     
 2 1 1 1 1   1 0 0 1 0   2 1 1 1 3   2 1 1 1 3 
1 1 1 1 2 1 0 0 0 1 1 −1 1 1 0 1 −1 1 1 0
 
1 1 2 −1
 −1 0 1 0 
Exercice 95 (Suite de l’exercice 87) Soit la matrice : A =  .
 0 0 1 −1 
0 1 0 1
(a) Quel est le rang de la matrice A ?
(b) Soit b ∈ R4 . Résoudre le système linéaire Ax = b.
   
1 t 1 1 1 t
Exercice 96 Calculer, pour tout t ∈ R le rang des matrices Mt =  t 1 1 et Nt = 1 t 1 .
1 t 1 t 1 1

Exercice 97 (Ligne Attila) Si une matrice totalement échelonnée a toute sa première ligne remplie de 1, quel est
son rang ?

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 71 Algèbre linéaire, Maths générales II


4.3. Résolution d’un système linéaire général 4. Espaces et sous espaces vectoriels

   
2 4 6 4 b1
Exercice 98 Soit A = 2 5 7 6 et b = b2 
2 3 5 2  b3  
1. Echelonner la matrice augmentée A b pour la transformer en U c où U est échelonnée.
2. Trouver les conditions sur b1 , b2 et b3 pour que Ax = b ait une solution.
3. Décrire ImA (plan ? droite ? tout l’espace ?)
4. Décrire KerA. Trouver les solutions spéciales de Ax = 0.
5. Trouver une solution particulière au système Ax = b = (4, 3, 5).
 
6. Trouver la forme totalement échelonnée R d et y lire directement les solutions spéciales et particulière.

Exercice 99 Résoudre les systèmes linéaires suivants :



  x − z = 1
2x + y − z = 1
y + 2z − w = 3
4x − y = 3 
x + 2y + 3z − w = 7


 x − y + z = 1 

y + w = 2 a − b + 3c + d − e = 1

 3x − 2y + 3z + w = 3 2a − b + c + d + e = 3

−y − w = 4

Exercice 100 (Solution spéciale et forme totalement échelonnée) Soit A ∈ M3,4 (R) telle que le vecteur s =
(3, 2, 1, 0) soit la seule solution spéciale du système linéaire homogène Ax = 0.
1. Quel est le rang de la matrice A ?
2. Quelle est la forme totalement échelonnée de A ?
3. Existe-t-il une solution au système Ax = b pour tout b ∈ R3 ?

Exercice 101 (Même ensemble de solutions même matrice ? ) Soient A et B des matrices telles que que les
systm̀es Ax = b et Bx = b ont le même ensemble de solutions pour tout b. Est ce que A = B ?

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 72 Algèbre linéaire, Maths générales II


Chapitre 5

Bases, dimension et sous-espaces

On s’intéresse ici à la dimension des espaces et sous espaces et aux relations entre certains sous espaces. Vous avez
déjà une idée assez claire de ce qu’on entend par 2D (deux dimensions d’espace) ou 3D (ne serait-ce que par les
jeux vidéo !) : en 2D, on est dans un plan, en 3D, on est dans l’espace. On va maintenant relier cette notion de
dimension à celle de vecteurs libres et liés (ou linéairement indépendants et linéairement dépendants). En gros, si
l’on dispose de vecteurs libres (ou linéairement indépendants) d’un espace vectoriel, cela veut dire qu’il n’y en a
pas “trop” ; si l’on dispose de vecteurs liés (ou linéairement dépendants) , cela veut dire qu’il y en a “assez”. Pas
trop ou assez pour quoi ? Pour former ce qu’on appelle une base, qui a exactement le “bon nombre” de vecteurs, et
ce bon nombre est la dimension de l’espace. Vous connaissez d’ailleurs bien la base (i, j, k) de R3 : trois vecteurs
de base pour un espace de dimension 3.

5.1 Bases et dimension


5.1.1 Familles libres, liées, génératrices, bases
On a déjà vu au chapitre précédent que des vecteurs, ou éléments d’un espace vectoriel E, sont dits linéairement
indépendants si la seule combinaison linéaire de ces vecteurs égale à 0E (le vecteur nul de l’espace vectoriel) est
la combinaison linéaire dont tous les coefficients sont nuls. Une autre manière équivalente de le dire : aucun des
vecteurs ne peut s’écrire comme combinaison linéaire des autres vecteurs.
En particulier, les vecteurs colonnes d’une matrice A sont linéairement indépendants si la seule solution du système
Ax = 0 est x = 0, c.à.d. si le noyau de la matrice est réduit à {0}, qui est ici le vecteur nul de Rp , si A est une
matrice n × p. Il n’y a aucune autre combinaison linéaire des colonnes qui donne le vecteur nul. Sinon, ils sont
linéairement dépendants.

Définition 5.1 (Indépendance et dépendance linéaire) Soit E un K-espace vectoriel. Soit (e1 , . . . , en ) une fa-
mille d’éléments de E.
1. On dit que la famille (e1 , . . . , en ) est libre, ou que les vecteurs e1 , . . . , en sont linéairement indépendants,
si (α1 , . . . , αn ) ∈ Kn et α1 e1 + · · · + αn en = 0 entraı̂ne α1 = · · · = αn = 0.
2. On dit que la famille (e1 , . . . , en ) est liée si elle n’est pas libre, ou que les vecteurs e1 , . . . , en sont
linéairement dépendants s’ils ne sont pas linéairement indépendants.

Si on prend trois vecteurs dans R2 , ils sont forcément dépendants. De manière générale, si u et v ∈ E, la famille
(u, v) est liée si, et seulement si, u = 0 ou v = 0, ou il existe α ∈ K tel que v = αu : on dit aussi que u et v sont
colinéaires.
Si maintenant on prend trois vecteurs dans R3 , et si l’un d’entre eux est multiple d’un autre, alors ils sont
dépendants. Mais s’ils sont coplanaires, ils sont aussi dépendants, parce qu’on peut écrire l’un d’entre eux comme
combinaison linéaire des deux autres.
Si on prend trois vecteurs non coplanaires, la seule combinaison linéaire de ces trois vecteurs qui donne 0 est la
combinaison nulle, et donc ils sont libres.
Pour voir si une famille de p vecteurs de Rn est libre ou liée, on met chacun des vecteurs comme colonne d’une
matrice n × p, et on cherche le noyau de A, ou, de manière équivalente, on cherche à résoudre le système Ax = 0.
On a vu cela en détail au paragraphe 4.2.

73
5.1. Bases et dimension 5. Bases, dimension et sous-espaces

Dans le chapitre précédent, on a vu également que les colonnes pivotales d’une matrice échelonnée sont linéairement
indépendantes. Donc les colonnes d’une matrice échelonnée qui n’a que des colonnes pivotales sont linéairement
indépendantes. On va voir dans la suite de ce chapitre que ce résultat reste vrai pour toutes les matrices : les co-
lonnes d’une matrice A ∈ Mn,p (K) sont linéairement indépendantes lorsque toutes les colonnes d’une matrice
échelonnée à partir de A sont pivotales, autrement dit lorsque p = r, (r étant le rang de la matrice, c’est-à-dire le
nombre de colonnes pivotales ou encore le nombre de lignes non nulles).
Dans le cas où p > n, alors forcément les vecteurs sont linéairement dépendants. En effet, dans ce cas le rang de
la matrice r, i.e. le nombre de lignes non nulles, est forcément inférieur strictement à p, puisque r ≤ n < p. Donc
il existe des colonnes non pivotales qui permettent de définir les solutions spéciales associées du système Ax = 0.
En particulier, le noyau de A n’est pas réduit à {0} et il existe une combinaison linéaire des colonnes qui donne 0.
La famille est liée.

Définition 5.2 (Famille génératrice) On dit que la famille (e1 , . . . , en ) est génératrice si Vect(e1 , . . . , en ) = E.
Ceci revient à dire que pour tout x ∈ E, il existe α1 , . . . , αn ∈ K tels que
n
X
x = α1 e1 + · · · + αn en = αk ek .
k=1

On a vu au chapitre précédent que les colonnes d’une matrice A engendrent l’espace des colonnes de A (c’est la
définition de C(A)), et donc engendrent l’image de A (car Im(A) = C(A)).
On définit maintenant un nouvel espace associé à la matrice A, qui est l’espace des lignes de la matrice A.

Définition 5.3 (Espace des lignes d’une matrice) Soit une matrice A d’ordre n×p. On appelle espace des lignes
de A ∈ Mn,p (K), noté L(A), le sous-espace vectoriel de Kn engendré par les vecteurs lignes de A.

L(A) = Vect{ℓ1 (A), . . . ℓp (A)},

où ℓi (A) représente la i-ème ligne de la matrice A.


Il est facile de voir que L(A) = C(At ).

Attention, l’ensemble C(A) (= Im(A)) est un sous-espace vectoriel de Rn , alors que l’ensemble L(A) (=
C(At ) = Im(At )) est un sous-espace vectoriel de Rp .

Exemple 5.4 (Espace des  colonnes et espace des lignes) Cherchons C(A) et L(A) pour la matrice A ∈ M3,2 (R)
1 0  
t 1 0 0
définie par A = 0 1 . La matrice transposée de A est donc A =
  . L’espace C(A) = Im(A) =
0 1 0
0 0
L(At ) est un sous-espace vectoriel de R3 qui est engendré par les colonnes de A, c.à.d. les vecteurs (1, 0, 0) et
(0, 1, 0). C’est un plan de R3 .
L’espace L(A) = C(At ) = Im(At ) est un sous-espace vectoriel de R2 qui est engendré par les lignes de A, c.à.d.
les vecteurs (1, 0), (0, 1) et (0, 0). C’est R2 tout entier.

Les familles génératrices sont utiles pour décrire un espace vectoriel comme l’ensemble des combinaisons linéaires
des vecteurs de cette famille. Par exemple, le plan horizontal dans R3 est engendré par la famille {(1, 0, 0),
(0, 1, 0)}. En fait, il est aussi engendré par la famille {(1, 0, 0), (0, 1, 0), (1, 1, 0)} ; et aussi par la famille {(1, 0, 0),
(0, 1, 0), (1, 1, 0), (2, 6, 0)}... d’où la question naturelle : peut-on trouver des familles génératrices les plus petites
possibles ? On aura alors le “bon nombre” de vecteurs qui permettent d’obtenir tous les vecteurs de l’espace par
combinaison linéaire. Pour cet exemple, on se convainc facilement qu’on a besoin au minimum de 2 vecteurs pour
engendrer le plan horizontal. Pour traiter le cas général, on utilise la notion suivante.

Définition 5.5 (Base) On dit que la famille (e1 , . . . , en ) est une base si elle libre et génératrice.

Exemple 5.6 (Base canonique de Rn ) Les vecteurs i = (1, 0) et j = (0, 1) forment une base de R2 . De même,
les vecteurs i = (1, 0, 0), j = (0, 1, 0) et k = (0, 0, 1) forment une base de R3 . Plus géneralement, on appelle
base canonique de Rn la famille de vecteurs (ei )i=1,...,n , avec ei = (0, . . . , 0, 1, 0, . . . , 0), où le 1 est placé en
i-ème position. Les vecteurs de la base canonique sont les vecteurs colonnes de la matrice identité Idn .

La base canonique est une base de Rn , mais ce n’est pas la seule ! En fait, on peut observer que

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 74 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

Exemple 5.7 (Base de Rn et matrice inversible) Les colonnes d’une matrice n × n forment une base de Rn si et
seulement si la matrice est inversible (exercice : voir corollaire 4.29). On voit donc que Rn a un nombre de bases
infini.

Exemple 5.8 (Base de Ker(A)) Soit A ∈ Mn,p (R). La proposition 4.23 dit exactement que les solutions spéciales
de Ax = 0 forment une famille libre et génératrice de l’espace des solutions de Ax = 0. Les solutions spéciales
sont donc une base de KerA. Comptons le nombre de vecteurs dans cette base ; soit r le rang de la matrice, c.à.d.
le nombre de lignes non nulles de la matrice R totalement échelonnée à partir de A. Le rang r est aussi le nombre
de colonnes pivotales de R. On a donc donc p − r colonnes non pivotales, p − r solutions spéciales, p − r vecteurs
de base pour Ker(A).

Dans le cas d’une matrice échelonnée, ce sont les colonnes pivotales de la matrice qui forment une base de C(A) :

Proposition 5.9 Soit A ∈ Mn,p (K) une matrice échelonnée. Alors les colonnes pivotales de A forment une base
de Im(A).

Démonstration : On se souvient (proposition 4.22) que les colonnes pivotales cj1 (A), . . . , cjr (A) forment une
famille libre. De plus (proposition 4.15), les colonnes non pivotales sont soit nulles soit combinaison linéaire
des colonnes pivotales. Donc toutes les colonnes appartiennent à Vect(cj1 (A), . . . , cjr (A)). Donc l’espace des
colonnes est égal à Vect(cj1 (A), . . . , cjr (A)). Autrement dit, {cj1 (A), . . . , cjr (A)} est une famille génératrice de
Im(A). En résumé, c’est une base de Im(A).
En fait, cette propriété est “conservée” par échelonnement, c.à.d. que les colonnes de la matrice A dont les indices
sont ceux des colonnes pivotales de sa forme échelonnée forment également une base de C(A) ou Im(A). On
démontre ce résultat grâce au petit lemme suivant, qu’on va d’ailleurs utiliser plusieurs fois par la suite.

Lemme 5.10 Soient A ∈ Mn,p (K), P ∈ GLn (K) et 1 ≤ i1 < · · · < ik ≤ p. Si (ci1 (A), . . . , cik (A))
est une famille libre, resp. génératrice, resp. une base de Im(A), alors (ci1 (P A), . . . , cik (P A)) est une famille
libre, resp. génératrice, resp. une base de Im(P A).

Démonstration : Il suffit de remarquer que ci (P A) = P ci (A) puis d’appliquer les définitions de famille libre,
génératrice, base.

Proposition 5.11 Soient A ∈ Mn,p (K) et P ∈ GLn (K) telle que P A soit échelonnée. Notons 1 ≤ i1 < · · · < ir
les indices des colonnes pivotales de P A. Alors (ci1 (A), . . . , cir (A)) est une base de Im(A).

Démonstration : Par le lemme 5.10, il suffit d’observer que (ci1 (P A), . . . , cir (P A)) est une base de Im(P A),
ce qui est le cas puisque dans une matrice échelonnée, les colonnes pivotales forment une base de l’espace des
colonnes.
L’intérêt principal de trouver une base d’un espace vectoriel est que l’on peut décrire précisément tout élément de
l’espace vectoriel grâce à la base. On écrit le vecteur comme combinaison linéaire des vecteurs de la base. Cette
combinaison linéaire donne les composantes du vecteur dans la base, de manière unique, comme on le montre
maintenant.

Proposition 5.12 (Composantes d’un vecteur dans une base) Soient E un K-espace vectoriel et B = (e1 , . . . ,
en ) une base de E. Pour tout x ∈ E, il existe un unique n−uplet (α1 , . . . , αn ) ∈ Kn appelé les composantes de
x dans la base B tel que
Xn
x = α1 e1 + · · · + αn en = αk ek .
k=1

Démonstration : L’existence des composantes xi provient du caractère générateur de la famille. L’unicité du


caractère libre. Plus précisément :
La famille (e1 , . . . , en ) étant une base, elle est génératrice. Par conséquent pour tout x ∈ E, il existe un n−uplet
α = (α1 , . . . , αn ) ∈ Kn tel que
n
X
x = α1 e1 + · · · + αn en = αk ek .
k=1

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 75 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

Soit β = (β1 , . . . , βn ) ∈ Kn tel que


n
X
x = β1 e1 + · · · + βn en = βk ek .
k=1

On a
n
X
(α1 − β1 )e1 + · · · + (αn − βn )en = (αk − βk )ek = 0.
k=1

Or la famille (e1 , . . . , en ) est libre. Donc αk − βk = 0 pour tout k = 1, . . . , n. On en déduit l’unicité du n−uplet
α.

Remarque 5.13 (Famille génératrice et espace engendré) Par définition, toute famille (f i )1≤i≤p de vecteurs
est une famille génératrice de l’espace vectoriel engendré Vect(f 1 , . . . , f p ) (qui est l’ensemble des combinai-
sons linéaires de f 1 , . . . , f p ). C’est une base de Vect(f 1 , . . . , f p ) si et seulement si la famille est libre.

Soit (u1 , . . . , un ) une base de Rn , et v 1 , . . . , v p p vecteurs de Rn . Puisque (u1 , . . . , un ) est une base, on peut
écrire chaque vecteur v i comme combinaison linéaire des vecteurs ui :
n
X    
vj = ak,j uj ou encore V = v 1 . . . v p = u1 . . . un A = U A.
k=1

On appelle A la matrice de la de la famille (v 1 , . . . , v p ) dans la base (u1 , . . . , un ). Attention à l’ordre de la


multiplication des matrices dans l’égalité ci-dessus. Noter que les matrices
Plus généralement, on peut définir la matrice d’une famille de vecteurs dans une base d’un espace vectoriel qui
n’est pas forcément Rn de la manière suivante :

Définition 5.14 (Matrice d’une famille de vecteurs dans une base) Soit (e1 , . . . , en ) une base d’un K-espace
vectoriel E.
– Soient f 1 , . . . , f p p éléments de E. La matrice A ∈ Mn,p (K) de la famille (f 1 , . . . , f p ) dans la base
(e1 , . . . , en ) est la matrice dont la i P
ème colonne est constituée des coordonnées du vecteur f i dans la base
n
(e1 , . . . , en ). Explicitement, si f j = k=1 ak,j ei pour tout 1 ≤ j ≤ p, alors A = (ak,j ).
– Réciproquement, si on se donne une matrice A ∈ Mn,p (K), on peut lui associer une famille de vecteurs
(f 1 , . . . f p ) dont les composantes dans la base (e1 , . . . , en ) sont les vecteurs colonnes de la matrice A.

Exemple 5.15 (Matrice d’une familles de polynômes) Considérons l’espace vectoriel des polynômes de degré
≤ 3. La famille {1, X, X 2, X 3 } en est une base. Soient P (X) = X 3 + 2X − 1, Q(X) = X 2 − 1 et R =
3X 3 + 2X 2 + X + 1. Alors la matrice A associée à la famille {P, Q, R} dans la base {1, X, X 2, X 3 } est
 
−1 −1 1
2 0 1
A := 
0
.
1 2
1 0 3

La proposition suivante est très importante en pratique : supposons donnée une famille de vecteurs. On se demande
si elle est libre ou génératrice. On est ramené à la détermination du noyau ou de l’image d’une matrice construite
à partir de cette famille de vecteurs :

Proposition 5.16 Soit (e1 , . . . , en ) une base d’un K-espace vectoriel E. Soient f 1 , . . . , f p p éléments de E et
A ∈ Mn,p (K) la matrice de la famille (f 1 , . . . , f p ) dans la base (e1 , . . . , en ). Alors
1. la famille (f 1 , . . . , f p ) est libre ssi Ker(A) = {0} ssi (c1 (A), · · · , cp (A)) est libre.
2. la famille (f 1 , . . . , f p ) est génératrice ssi Im(A) = Kn ssi (c1 (A), · · · , cp (A)) est génératrice de Kn .

Démonstration : Pour le point 1., le fait que la famille des vecteurs colonnes (c1 (A), . . . , cp (A)) est libre ssi
Ker(A) = {0} résulte de la proposition P voir que (cP
4.21. Il reste donc à P 1 (A), . . . , cp (A)) est P P(f 1 , . . . , f p )
libre ssi
est libre. Soit (α1 , . . . , αp ) ∈ Kp . Alors pj=1 αj fj = 0 ⇔ pj=1 αj ( ni=1 ai,j ei ) = 0 ⇔ ni=1 ( pj=1 αj ai,j )ei =
Pp Pp
0 ⇔ pour tout 1 ≤ i ≤ n, j=1 αj ai,j = 0 (car la famille (ei ) est libre) ⇔ j=1 αj cj (A) = 0. Ainsi,
(c1 (A), . . . , cp (A)) est libre ssi (f 1 , . . . , f p ) est libre.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 76 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

Montrons le point 2. On a vu au chapitre précédent que Im(A) est l’ensemble des combinaisons linéaires  des 
y1
c1 (A), . . . , cp (A). Donc Im(A) = Kn ssi la famille (c1 (A), . . . , cp (A)) est génératrice de Kn . Soit Y :=  ... 
 

yn
Pp
dans Kn et y = y1 e1 + · · · + yn en ∈ E. Alors il existe (α1 , . . . , αp ) ∈ Kp tel que y = j=1 αj fj ⇔ y =
Pp Pn Pn Pp Pp
j=1 αj ( i=1 ai,j ei ) ⇔ i=1 ( j=1 αj ai,j )ei = y ⇔ pour tout 1 ≤ i ≤ n, yi = j=1 αj ai,j ⇔ Y =
Pp n
α
j=1 j j c (A). Donc (c 1 (A), . . . , c p (A)) est génératrice dans K ssi (f 1 , . . . , f p ) est génératrice dans E. Le
point 2. est démontré.
Ainsi, pour savoir si la famille (P, Q, R) donnée dans l’exemple précédant la proposition est libre ou génératrice, on
calcule le noyau et l’image de la matrice A, par exemple en l’échelonnant. Ici, on trouve (exercice) que le noyau
est nul donc les colonnes de la matrice sont linéairement indépendantes, donc la famille (P, Q, R) est libre. En
revanche, l’image de la matrice n’est pas tout R4 (par exemple, (1, 0, 0, 0) n’ y est pas). Donc la famille (P, Q, R)
n’est pas génératrice de l’ensemble des polynômes de degré ≤ 3 (les polynômes constants ne peuvent s’écrire
comme combinaison linéaire de P, Q et R).

5.1.2 Dimension d’un espace vectoriel


Définition 5.17 (Dimension finie) Soit E un K-espace vectoriel. S’il existe une famille génératrice finie de E,
alors on dit que E est de dimension finie. Sinon on dit qu’il est de dimension infinie.
Par exemple, l’espace vectoriel Rn est de dimension finie, et l’espace vectoriel des fonctions continues de R dans
R est de dimension infinie.
Théorème 5.18 (Existence d’une base) Soit E un K-espace vectoriel de dimension finie. Alors il existe une base
(finie) de E.
Démonstration : On commence par l’observation suivante. Soit F = {f 1 , . . . , f p } une famille génératrice finie
de E qui n’est pas libre. Alors l’un des vecteurs fi ∈ F s’écrit comme combinaison linéaire des autres vecteurs de
F . On en déduit que tous les vecteurs de F appartiennent à Vect(f 1 , . . . , f i−1 , f i+1 , . . . , f p ). Donc
Vect(f 1 , . . . , f p ) = Vect(f 1 , . . . , f i−1 , f i+1 , . . . , f p ).
Donc la famille F1 = {f 1 , . . . , f i−1 , f i+1 , . . . , f p } est encore génératrice.
On prouve alors le théorème. On montre par récurrence sur 1 ≤ k que pour tout espace vectoriel E contenant une
famille génératrice F = {f 1 , . . . , f k } de E, il existe une base de E. Pour k = 1 : soit E tel qu’il existe F = {f 1 }
génératrice, alors ou bien f 1 6= 0 auquel cas F est libre et donc une base, ou bien f 1 = 0 ce qui veut dire que
E = {0} et la famille à 0 éléments est une base de E (c’est une convention).
Supposons le résultat vrai pour k, montrons-le pour k + 1. Soit E un espace vectoriel qui contient une famille
génératrice à k + 1 éléments F = {f 1 , . . . , f k+1 }. Si elle est libre, c’est une base, et l’hypothèse est vérifiée au
rang k + 1. Si elle n’est pas libre, par l’observation préliminaire, il existe f i tel que la famille F1 := F \ {f i } soit
encore génératrice. On applique l’hypothèse de récurrence à l’ordre k. On en déduit l’existence d’une base.
Conclusion : S’il existe une famille génératrice finie, il existe une base.

Théorème 5.19 (Dimension et bases) Soit E un K-espace vectoriel de dimension finie. Toutes les bases ont même
nombre d’éléments. Ce nombre est appelé dimension de l’espace vectoriel E.

Démonstration : Notons (e1 , . . . , en ) et (f 1 , . . . , f p ) deux bases de E. Montrons que n = p. On introduit la


matrice A ∈ Mn,p (K) de la famille (f 1 , . . . , f p ) dans la base (e1 , . . . , en ). Par la Proposition 5.16, Ker(A) =
{0} et Im(A) = Kn . Soit E ∈ GLn (K) telle que EA soit totalement échelonnée. Alors Ker(EA) = {0}. Donc
les colonnes de EA forment une famille libre. Donc il n’y pas de colonne non pivotale (par la Proposition 4.15).
n
  le nombre r de colonnes pivotales est p. On a aussi Im(EA) = K . Donc EA n’a pas de ligne nulle (sinon
Donc
0
 .. 
.
  ne serait pas dans Im(EA)). Donc r = n. On en déduit p = n.
0
1
Dans la preuve précédente, on a montré que si une matrice A ∈ Mn,p (K) vérifie Ker(A) = {0} et Im(A) = K n
alors n = p.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 77 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

Exemples :
– Kn est un K-espace vectoriel de dimension n (penser à la base canonique !).  
1 0
– L’espace M2 (R) est un R-espace vectoriel de dimension 4 dont une base est formée des matrices E11 = ,
0 0
     
0 1 0 0 0 0
E12 = , E21 = , E22 = . Cette base (E11 , E12 , E21 , E22 ) est appelée base canonique.
0 0 1 0 0 1
– Kn [X] est l’espace des polynômes de degré ≤ n. Une base est formée par les polynômes 1, X, . . . , X n . La
dimension de Kn [X] est donc n + 1.

Remarque 5.20 Un sous espace vectoriel d’un K-espace vectoriel est un K-espace vectoriel. On peut donc parler
de dimension d’un sous espace vectoriel.

Définition 5.21 Soit E un K-espace vectoriel de dimension n.


– Les sous espaces vectoriels de dimension 1 sont appelés des droites.
– Les sous espaces vectoriels de dimension 2 sont appelés des plans.
– Les sous espaces vectoriels de dimension n − 1 sont appelés des hyperplans.

5.1.3 Théorème de la base incomplète et conséquences


Théorème 5.22 (Théorème de la base incomplète) Soit p un entier positif, (f 1 , . . . , f p ) une famille libre d’un
espace vectoriel E de dimension n. Soit (g 1 , . . . , g q ) une famille génératrice de E. Alors il existe une base
(e1 , . . . , en ) de E telle que ei = f i pour tout i ≤ p et ei ∈ {g1 , . . . , g q } pour tout i > p.

Démonstration : Soit B une base de E. On note A1 la matrice de la famille (f 1 , . . . , f p ) dans B, A2 celle


de (g 1 , . . . , g q ) et A celle de (f 1 , . . . , f p , g 1 , . . . , g q ). Il existe P ∈ GLn (K) telle que P A soit totalement
échelonnée. On note J := (j1 , . . . , jr ) l’ensemble des indices des colonnes pivotales de P A. Alors (Proposition
5.9) (cj1 (P A), . . . , cjr (P A)) est une base de Im(P A), donc (cj1 (A), . . . , cjr (A)) est une base de Im(A) (par
le lemme 5.10). Comme (f 1 , . . . , f p ) est libre, les colonnes de A1 forment une famille libre (Proposition 5.16)
donc aussi celles de P A1 (par le lemme 5.10), donc toutes les colonnes de P A1 sont pivotales (Proposition 4.15).
Ainsi j1 = 1, . . . , jp = p, c’est-à-dire cj1 (A) = c1 (A1 ), . . . , cjp (A) = cp (A1 ). Comme (g1 , . . . , gq ) est une
famille génératrice, Im(A2 ) = Kn . L’espace des colonnes de A contient l’espace des colonnes de A2 . Donc
Im(A) ⊃ Im(A2 ) = Kn . Donc (cj1 (A), . . . , cjr (A)) = (c1 (A1 ), . . . , cp (A1 ), cjp+1 (A), . . . , cjr (A)) est une base
de Kn . On en déduit que (f 1 , . . . , f p , g jp+1 −p , . . . , g jr −p ) est une base de E (Proposition 5.16).
La preuve donne un moyen pratique pour choisir des vecteurs d’une famille (g 1 , . . . , g q ) permettant de compléter
une famille libre (f 1 , . . . , f p ) en une base de E. Il suffit d’écrire la matrice A des coordonnées de (f 1 , . . . , f p ,
g 1 , . . . , g q ) dans une base et de ne retenir que les colonnes pivotales dans une matrice échelonnée à partir de A.

Corollaire 5.23 Soit E un espace vectoriel de dimension n.


1. Si (f 1 , . . . , f p ) est une famille libre de E, alors p ≤ n. Si de plus p = n, alors (f 1 , . . . , f p ) est une base.
2. Si (g 1 , . . . , g q ) est une famille génératrice de E, alors q ≥ n et il existe une sous-famille de (g 1 , . . . , g q )
formant une base de E. Si de plus q = n, alors (g 1 , . . . , g q ) est une base de E.

Démonstration : Pour 1., appliquer le Théorème 5.22 à (f 1 , . . . , f p ) et à une base quelconque (g 1 , . . . , g n ) de


E. Pour 2., c’est le cas p = 0 dans l’énoncé du théorème.

Corollaire 5.24 Soit E un espace vectoriel de dimension n ≥ 1. Soit F un sous-espace de E. Alors


1) F est de dimension finie.
2) dim F ≤ n.
3) Si dim F = n, alors E = F.

Démonstration : Toutes les familles libres de F ont un cardinal ≤ n, d’après le corollaire précédent. Soit p le
nombre maximal d’éléments que peut contenir une famille libre de F. On a donc p ≤ n et en particulier, toute
famille de F qui a p+1 éléments est nécessairement liée. Soit (f 1 , . . . , f p ) une famille libre de F à p éléments. On
va montrer qu’elle est génératrice de F , c’est-à-dire que tout élément de F est combinaison linéaire de f 1 , . . . , f p .
Soit x ∈ F et considérons la famille (f 1 , . . . , f p , x). Elle est liée car elle a p + 1 éléments. Donc il existe
λ1 , . . . , λp , µ non tous nuls tels que
λ1 f 1 + . . . + λp f p + µx = 0.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 78 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

P
Nécessairement µ 6= 0 car sinon i λi f i = 0 avec les λi non tous nuls, ce qui contredit que la famille
(f 1 , . . . , f p ) est libre. On peut donc écrire
−1
x= (λ1 f 1 + . . . + λp f p ).
µ
Donc la famille (f 1 , . . . , f p ) est génératrice. Comme elle est libre, c’est donc une base de F. Donc F est de
dimension finie p, avec p ≤ n. Si p = n, alors (f 1 , . . . , f n ) est une famille libre de E qui a n éléments, donc est
une base de E par le corollaire précédent. Donc tout élément de E peut s’écrire comme combinaison linéaire des
f i qui sont des éléments de F. Donc tout élément de E est dans F. Donc E = F.

5.1.4 Rang d’une famille de vecteurs


Au chapitre précédent, on a déjà introduit le rang d’une matrice. En particulier, pour une matrice échelonnée, il
s’agit du nombre de colonnes pivotales, c’est-à-dire aussi du nombre de lignes non nulles. On a vu à la proposition
5.11 que les colonnes (ci1 (A), . . . , cir (A)) d’une matrice A dont les indices 1 ≤ i1 < · · · < ir sont les indices
des colonnes pivotales d’une de ses formes échelonnées EA où E est une matrice inversible, forment une base de
C(A) ou Im(A). En particulier r = rg(P A) est la dimension de Im(A).
On en déduit une autre définition possible du rang :
Corollaire 5.25 Le rang d’une matrice A est la dimension de C(A) = Im(A).
L’échelonnement (partiel ou total) d’une matrice A permet donc de déterminer son rang et son image (en comptant
le nombre de colonnes pivotales d’une matrice échelonnée B associée à A). De plus, on obtient en même temps
une base de l’image de A en sélectionnant les colonnes de A ayant les indices des colonnes pivotales.
Proposition 5.26 Soit A ∈ Mn,p (K) et P ∈ GLn (K), Q ∈ GLp (K) deux matrices inversibles. Alors le rang des
matrices A, P A et AQ sont égaux :
rg(A) = rg(P A) = rg(AQ).
Démonstration : Notons r le rang de A. Il existe une sous-famille de la famille des colonnes de A formant une
base de Im(A). Soient 1 ≤ j1 < · · · < jr tels que (cj1 (A), . . . , cjr (A)) est une base de Im(A). Alors par le
lemme 5.10, (cj1 (P A), . . . , cjr (P A)) est une base de Im(P A). Donc rg(A) = rg(P A).
Remarquons ensuite que Im(AQ) ⊂ Im(A) et Im(A) = Im(AQQ−1 ) ⊂ Im(AQ). La première inclusion donne
rg(AQ) ≤ rg(A) et la deuxième donne rg(A) ≤ rg(AQ). D’où le résultat.
On définit maintenant le rang d’une famille de vecteurs :
Définition 5.27 (Rang d’une famille de vecteurs) Soit (f 1 , . . . , f p ) une famille de p vecteurs d’un espace vec-
toriel E. On appelle rang de la famille (f i )i , la dimension de l’espace vectoriel Vect(f 1 , . . . , f p ).

Remarque 5.28 Le rang de la famille (f 1 , . . . , f p ) est au plus égal à p (car (f 1 , . . . , f p ) est une famille génératrice
de Vect(f 1 , . . . , f p )). Une famille de p vecteurs est libre si le rang de cette famille est égal à p.
Comment déterminer en pratique le rang d’une famille de vecteurs ? Si on connaı̂t les coordonnées de ces vecteurs
dans une base, il suffit d’écrire la matrice de cette famille de vecteurs dans cette base, et de calculer le rang de cette
matrice en l’échelonnant. C’est ce que dit la proposition suivante :
Proposition 5.29 Soit B une base de E. Le rang de la famille (f 1 , . . . , f p ) est égal au rang de la matrice des
composantes des vecteurs f i dans la base B.
Démonstration : On rappelle (proposition 5.16) qu’une famille de vecteurs est libre ssi les colonnes de la matrice
de cette famille dans une base sont linéairement indépendantes.
On note Xi le vecteur colonne des composantes de f i dans la base B et A la matrice [X1 . . . Xp ]. Soit r le
rang de A. Il existe 1 ≤ j1 < · · · < jr ≤ p tels que Xj1 , . . . , Xjr soit une base de Im(A). En particulier,
c’est une famille libre. Alors les vecteurs (f j1 , . . . , f jr ) forment une famille libre. Soit j ∈ / {j1 , . . . , jr }. Alors
(Xj1 , . . . , Xjr , Xj ) n’est pas libre, donc les vecteurs (f j1 , . . . , f jr , f j ) forment une famille liée. On en déduit
que f j ∈ Vect(f j1 , . . . , f jr ) et finalement que (f j1 , . . . , f jr ) est génératrice. Donc (f j1 , . . . , f jr ) est une base
de Vect(f 1 , . . . , f p ) et finalement rg(X1 , . . . , Xp ) = rg(f 1 , . . . , f p ).
La preuve précédente donne en plus un moyen de trouver une base de Vect(f 1 , . . . , f p ). On écrit la matrice A de
{f 1 , . . . , f p } dans une base. On l’échelonne. On repère les indices des colonnes pivotales j1 < · · · < jr . Alors la
famille {f j1 , . . . , f jr } est une base de Vect(f 1 , . . . , f p ).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 79 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

Proposition 5.30 Le rang de A ∈ Mn,p (K) est égal au rang de At ∈ Mp,n (K). Le rang de A est aussi égal à la
dimension de l’espace vectoriel L(A) engendré par les vecteurs lignes de A.

Démonstration : On peut supposer que A est totalement échelonnée. En effet, si A n’est pas totalement échelonnée,
soit P ∈ Mn (K) telle que P A soit totalement échelonnée. Alors rg(P A) = rg(A) et rg(At P t ) = rg(At ). On
suppose donc désormais A totalement échelonnée.
Montrons que la famille des lignes non nulles de A forment une base de l’ensemble des vecteurs lignes de A.
Notons r le nombre de lignes non nulles de A et 1 ≤ j1 < · · · < jr ≤ p les indices des colonnes pivotales.  Alors
pour k ∈ {1, . . . , r}, la k-ième ligne ℓk (A) est de la forme ℓk (A) = 0 · · · 0 1 ∗ · · · ∗ où le 1 est
placé sur la colonne jk . De plus, les nombres à droite du 1 sont nuls lorsqu’ils sont sur une colonne pivotale (car
la matrice est totalement échelonnée). Soient α1 , . . . , αr ∈ K tels que α1 ℓ1 (A) + · · · + αr ℓr (A) = 0. Montrons
que α1 = · · · = αr = 0. Le vecteur ligne α1 ℓ1 (A) + · · · + αr ℓr (A) a dans sa colonne d’indice j1 le nombre α1 ,
dans sa colonne d’indice j2 le nombre α2 , etc. . . Donc on a bien α1 = · · · = αr = 0.
Comme les lignes non nulles de A donnent par transposition une base des colonnes de At , r = rg(At ). Mais r est
aussi le nombre de colonnes pivotales de A, et donc r = rg(A). Donc rg(A) = rg(At ).

5.1.5 Exercices
Exercice 102 Les familles de vecteurs suivantes sont-elles libres ou liées ?
1. {(1, 1), (1, −1), (0, 1)} dans R2 .
2. {(1, 1), (1, 3)} dans R2 .
3. {(1, 2, −1), (−2, 1, 1), (1, −1, 2)} dans R3 .
4. {(1, 2, −1), (−2, 1, 1)} dans R3 .
5. {0, u1 , . . . un }, ui ∈ Rn .
6. {u1 , u1 , . . . un }, ui ∈ Rn .
7. {e1 , . . . en } avec ei les vecteurs canoniques de Rn .

Exercice 103 Soient u1 , u2 et u3 trois vecteurs linéairement indépendants de Rn . Soit α ∈ R. On pose :

v 1 = u1 + u2
v 2 = u1 + 2u2 + u3
v 3 = u2 + αu3

1. Pour quelles valeurs de α les vecteurs v 1 , v 2 , v 3 , sont ils linéairement indépendants ?


   
Soit U = u1 u2 u3 et V = v 1 v 2 v 3 . Ecrire V sous la forme V = U M où M est une matrice carrée
d’ordre 3, et montrer que les vecteurs v 1 , v 2 , v 3 sont linéairement indépendants si et seulement si la matrice M
est inversible.

Exercice 104 Trouver le plus grand nombre possible de vecteurs linéairement indépendants parmi les vecteurs
suivants :
           
1 1 1 0 0 0
 −1  0   0  1   1
 u6 =  0 
    
u1 = 
 0   −1  u3 =  0
 u2 =   
  −1  u5 =  0
 u4 =   
  1 
0 0 −1 0 −1 −1

Exercice 105 Soient E un espace vectoriel et v 1 , v 2 , v 3 trois vecteurs non nuls.


1. Montrer que si les sous-espaces vectoriels engendrés respectivement par v 1 , v 2 et par v 1 , v 3 coı̈ncident,
alors la famille {v 1 , v 2 , v 3 } est liée.
2. La réciproque est elle vraie ?

Exercice 106 Dans R3 vérifier que les vecteurs {a, b, c} forment une base :
1. a = (2, 1, −3), b = (3, 2, −5), c = (1, −1, 1)
2. a = (1, 1, 1), b = (1, 1, 2), c = (1, 2, 3)

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 80 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

Exprimer les vecteurs (6, 2, −7) et (6, 9, 14) dans ces bases.

Exercice 107 Dans l’espace vectoriel R3 , les vecteurs suivants constituent-ils une base ? (On pourra utiliser la
méthode de l’échelonnement)
1. u1 = (1, −1, 0), u2 = (1, 0, 1), u3 = (1, 2, 3).
2. u1 = (1, 0, −1), u2 = (0, 1, 0), u3 = (1, 1, 0).
3. u1 = (1, 2, 3), u2 = (2, 3, 1), u3 = (0, 0, 0).
4. u1 = (1, 0, 0), u2 = (1, 1, 0), u3 = (1, 1, 1).
5. u1 = (1, 1, −1), u2 = (1, −1, 1), u3 = (−1, 1, 1).

Exercice 108 Montrer que si (u1 , . . . , un ) est une base de Rn et A est une matrice inversible, alors (Au1 , . . . , Aun )
est aussi une base Rn .

Exercice 109 Montrer que les vecteurs

u1 = (0, 1, 1, 1), u2 = (1, 0, 1, 1), u3 = (1, 1, 0, 1), u4 = (1, 1, 1, 0)

forment une base de R4 . Dans cette base, calculer les composantes des vecteurs

u = (1, 1, 1, 1) et u = (1, 0, 0, 0).

Exercice 110 On considère, dans l’espace vectoriel R3 , la famille de vecteurs suivants :

(1, 1, α), (1, α, 1), (α, 1, 1).

Déterminer en fonction de α le rang de cette famille de vecteurs.

Exercice 111 Quel est le rang des systèmes de vecteurs suivants ? (On pourra utiliser la méthode de l’échelonnement).
Dire si les vecteurs sont linéairement indépendants et s’ils forment une base.
1. u1 = (1, 0, 1), u2 = (1, 1, 0), u3 = (0, 1, 1).
2. u1 = (1, 0, 0, 1), u2 = (1, 1, 0, 0), u3 = (0, 1, 1, 0), u4 = (0, 0, 1, 1).
3. u1 = (1, 1, 0, 1), u2 = (−1, 1, 1, 0), u3 = (0, −1, 1, 1), u4 = (1, 1, 1, 0).
4. u1 = (1, −1, 0, 1), u2 = (1, 1, −1, 1), u3 = (0, 1, 1, 1), u4 = (1, 0, 1, 0).
5. u1 = (1, 0, 0, 2, 5), u2 = (0, 1, 0, 3, 4), u3 = (0, 0, 1, 4, 7), u4 = (2, −3, 4, 11, 12).

Exercice 112 Déterminer la dimension des sous-espaces vectoriels engendrés par chacune des 4 familles de vec-
teurs ci-dessous. Donnez en une base et exprimer les coordonnées de chacun des vecteurs de la famille dans la
base trouvée.
1. la famille {u1 , u2 , u3 , u4 , u5 } avec :
         
1 2 3 4 5
 2   3   4   5   6 
u1 =    , u2 =   , u3 = 
 5 ,
 u4 = 
 6 ,
 u5 = 
 7  ,

3  4 
4 5 6 7 8

2. la famille {v 1 , v 2 , v 3 , v 4 } avec :
       
1 1 0 1
 3   2   −1   0 
v1 =   0 ,

 3 ,
v2 =  
 0 ,
v3 =   v4 =  ,
 0 
−1 0 −4 −13

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 81 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

3. la famille {w1 , w 2 , w3 , w 4 , w5 } avec :


         
5 2 20 −2 8
 8   2   10   0   −6 
w1 =   2  , w2 =  2  ,
  
 2 ,
w3 =  
 −1  ,
w4 =  
 −3  ,
w5 =  

3 −1 5 1 0

4. la famille {z 1 , z 2 , z 3 , z 4 } avec :
       
1 1 −1 2
 8   1   1   1 
z1 =   1  , z 2 =  −1
  ,
 z3 = 
 3 ,

 −3  .
z4 =  

4 2 0 8

Exercice 113 (Bases et dimension de sous-espaces de matrices)


       
1 0 0 1 0 0 0 0
1. Montrer que , , , est une base de l’espace des matrices carrées réelles
0 0 0 0 1 0 0 1
d’ordre 2 ; en déduire la dimension de cet espace.
2. Donner une base et la dimension des matrices carrées d’ordre n.
3. Donner une base et la dimension des matrices carrées d’ordre n diagonales.
4. Donner une base et la dimension des matrices carrées d’ordre n symétriques.
5. Donner une base et la dimension des matrices carrées d’ordre n triangulaires supérieures.

Exercice 114 (Familles de fonctions) Soit E l’espace vectoriel des fonctions de R dans R . Dire parmi les fa-
milles suivantes celles qui sont libres et celles qui sont liées. Ici les vecteurs (au sens éléments d’un espace vecto-
riel) sont donc des fonctions...
1. {f, g, h}, avec f (x) = 2, g(x) = 4 sin2 (x), h(x) = cos2 (x)
2. {f, g, h}, avec f (x) = 1, g(x) = sin(x),h(x) = sin(2x).
3. {f, g}, avec f (x) = x , g(x) = cos(x).
4. {f, g, h, k}, avec f (x) = (1 + x)2 , g(x) = x2 + 2x, h(x) = 3 et k(x) = x.
5. {f, g, h}, avec f (x) = cos(2x) , g(x) = sin2 (x) ; h(x) = cos2 (x).
6. {f, g, h}, avec f (x) = 0 , g(x) = x, h(x) = x2 .

Exercice 115 (Sous espaces vectoriels et bases) Soient E un espace vectoriel, F et G des sous espaces vecto-
riels.
1. Montrer que F ∩ G est un sous espace vectoriel de E.
2. On prend ici E = R3 , F = Vect (u, v) et G = Vect (w, z) avec :
       
1 1 0 0
u =  1  , v =  1  , w =  1  , etz =  1  .
0 1 0 1
(a) Trouver des bases de F et G.
(b) Déterminer le sous espace F ∩ G et en donner une base.
   
1 2
3. On prend toujours E = R3 , F = Vect (u, v) et G = Vect (w, z) mais avec : u =  0 , v =  0 ,
    0 0
0 0
w =  1 , et z =  0  .
1 1
(a) Trouver des bases de F et G
(b) Déterminer le sous espace F ∩ G. Ce sous espace admet-il une base ?

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 82 Algèbre linéaire, Maths générales II


5.1. Bases et dimension 5. Bases, dimension et sous-espaces

Exercice 116 (Sous espace vectoriel de polynômes) Soit E l’ensemble des polynômes réels de degré inférieur
ou égal à 4. On a montré dans l’exercice 75 que E est un espace vectoriel.
1. Donner une base de E.
Soit F l’ensemble des polynômes admettant les racines x = a et x = b 6= a. On a montré dans l’exercice 75 que
F est un sous espace vectoriel de E.
2. Donner une base de E.
3. Etudier le cas a = b.

Exercice 117 Quelle partie du plan décrivent les points (x, y) ∈ R2 tels que les vecteurs (1, 1 + x) et (1 − x, y)
forment une base de l’espace vectoriel R2 ?

Exercice 118 Soit E un espace vectoriel et P, P ′ deux familles finies de E. On suppose que P ′ ⊂ P.
Montrez que si P est libre alors P ′ est libre. Montrer que si P ′ est génératrice alors P est génératrice.
Peut-on avoir une réciproque ? Donner une démonstration ou un contre exemple.

Exercice 119 Proposer une preuve du théorème 5.22 inspirée de celle du théorème 5.18.

Exercice 120 (Solutions d’une équation différentielle)


1. Montrer que l’ensemble des solutions S de l’équation différentielle y ′′ = y est un sous espace vectoriel de
l’ensemble des fonctions continues de R dans R.
2. On admettra (théorème de Cauchy Lipschitz) que la fonction identiquement nulle est la seule solution de
l’équation avec données initiales :

y ′′ (t) = y(t), t ∈ R+
y(0) = 0, y ′ (0) = 0.

En déduire la solution (unique) de l’équation différentielle avec données initiales :

y ′′ (t) = y(t), t ∈ R+
y(0) = a, y ′ (0) = b.

Trouver la solution générale de l’équation y ′′ = y.


3. En déduire que S est un sous espace vectoriel de dimension 2 dont on donnera une base.
4. Trouver une solution particulière de l’équation y ′′ = y+1. Donner la solution du problème de Cauchy 1 suivant :

y ′′ (t) = y(t) + 1, t ∈ R+
y(0) = 1, y ′ (0) = 1.

Exercice 121 (Sous espace de matrices) 1. Quelle est la dimension de l’espace vectoriel M3 (R) ?
2. Donner les six matrices de permutation de M3 (R) .
3. Montrer que Id3 est une combinaison linéaire des cinq autres matrices de permutation, qu’on note P1 , . . . , P5 .
3. Montrer que {P1 , . . . , P5 } est une famille libre de l’espace vectoriel M3 (R).
4. Montrer que {P1 , . . . , P5 } engendre le sous-espace S des matrices dont toutes les sommes de coefficients par
ligne et colonne sont égales.
5. En déduire la dimension de S.

Exercice 122 (Intersection de deux sous espaces) Soient E et F deux sous espaces vectoriels de Rn . On suppose
que dim(E) + dim(F ) > n. Montrer que E ∩ F n’est pas réduit au vecteur nul.

1. En analyse, un problème de Cauchy est un problème constitué d’une équation différentielle avec condition initiale.
Augustin Louis Cauchy, mathématicien français 1789–1857. On lui doit en particulier la notion de fonction holomorphe et des critères de
convergence des suites et des séries entières. Ses travaux sur les permutations furent précurseurs de la théorie des groupes. Il a également
travaillé sur la propagation des ondes électromagnétiques.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 83 Algèbre linéaire, Maths générales II


5.2. Sous espaces vectoriels supplémentaires, orthogonalité 5. Bases, dimension et sous-espaces

5.2 Sous espaces vectoriels supplémentaires, orthogonalité


5.2.1 Somme et intersection de deux espaces vectoriels
Proposition 5.31 (Intersection de sous espaces vectoriels) Soient F et G deux sous espaces vectoriels d’un K-
espace vectoriel E, alors H = F ∩ G est un sous espace vectoriel de E.

Démonstration : On remarque tout d’abord que 0E ∈ F ∩ G. Soit x, y ∈ F ∩ G et (λ, µ) ∈ K2 . Comme F et G


sont des sous espaces vectoriels de E, on sait que λx+µy ∈ F et λx+µy ∈ G. Par conséquent, λx+µy ∈ F ∩G,
donc F ∩ G est bien un sous espace vectoriel de E.
On rappelle que l’union de deux sous espaces vectoriels n’est pas forcément un sous espace vectoriel, voir exercice
85. Mais on a vu au même exercice qu’on peut définir la somme de deux sous espaces vectoriels, qui est aussi
l’espace engendré par l’union des deux sous espaces.

Définition 5.32 (Somme de sous espaces vectoriels) Soient F et G deux sous espaces vectoriels d’un K-espace
vectoriel E. On note

H = F + G = {x ∈ E tels que x = y + z avec y ∈ F, z ∈ G}.

L’espace H est un sous espace vectoriel de E appelé somme de F et G.

Démonstration : Comme 0E ∈ F ∩ G, on a bien 0E + 0E = 0E ∈ F + G. Soit z 1 , z 2 ∈ F + G. On a


z 1 = x1 + y 1 et z 2 = x2 + y 2 avec x1 , x2 ∈ F , y 1 , y 2 ∈ G. On a alors pour tout (λ, µ) ∈ K2 ,

λz 1 + µz 2 = λ(x1 + y 1 ) + µ(x2 + y 2 ) = (λx1 + µx2 ) + (λy 1 + µy 2 ) ∈ F + G.


| {z } | {z }
∈F ∈G

On conclut que F + G est un sous espace vectoriel de E.

Proposition 5.33 (Famille génératrice de F + G) Soient F et G deux sous espaces vectoriels d’un K-espace
vectoriel E. Si (f 1 , . . . , f p ) est une famille génératrice de F et (g 1 , . . . , g q ) est une famille génératrice de G
alors la famille (f 1 , . . . , f p , g 1 , . . . , g q ) est une famille génératrice de H = F + G.

Démonstration : Soit z ∈ F + G. On a z = x + y avec x ∈ F et y ∈ G. Comme (f 1 , . . . , f p ) est une famille


génératrice de F et (g 1 , . . . , g q ) est une famille génératrice de G, on a

x = α1 f 1 + · · · + αp f p et y = β1 g 1 + · · · + βq g q .

Par suite, on peut écrire


z = α1 f 1 + · · · + αp f p + β1 g 1 + · · · + βq g q .
La famille (f 1 , . . . , f p , g 1 , . . . , g q ) est donc une famille génératrice de H = F + G.

Définition 5.34 (Somme directe) Soient F et G deux sous espaces vectoriels d’un K-espace vectoriel E. On dit
que F et G sont en somme directe si F ∩ G = {0}.

Définition 5.35 (Sous-espaces supplémentaires) Soient F et G deux sous espaces vectoriels d’un K-espace vec-
toriel E. On dit que F et G sont supplémentaires dans E, et on note E = F ⊕ G, si E = F + G et si F et G sont
en somme directe.

Proposition 5.36 (Première CNS pour les sous-espaces supplémentaires) Soient F et G deux sous espaces
vectoriels d’un K-espace vectoriel E. Les espaces F et G sont supplémentaires si et seulement si tout vecteur
x ∈ E s’écrit de façon unique comme somme d’un vecteur de F et d’un vecteur de G.

Démonstration : Supposons que tout vecteur x ∈ E s’écrit de façon unique comme somme d’un vecteur de F
et d’un vecteur de G et montrons que F et G sont supplémentaires. On a bien E = F + G. De plus, supposons
par l’absurde qu’il existe z ∈ F ∩ G 6= {0E }. Alors on peut écrire z de deux façons différentes z = |{z}
z + 0E
|{z}
∈F ∈G

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 84 Algèbre linéaire, Maths générales II


5.2. Sous espaces vectoriels supplémentaires, orthogonalité 5. Bases, dimension et sous-espaces

z ce qui contredit l’unicité de l’écriture. Par conséquent, F ∩ G = {0E }. Réciproquement si


et z = 0E + |{z}
|{z}
∈F ∈G
E = F + G et F ∩ G = {0E }, tout z ∈ E s’écrit sous la forme z = x + y avec x ∈ F et y ∈ G. Si cette
décomposition n’est pas unique, on a z = x1 + y 1 = x2 + y 2 . On en déduit que x1 − x2 = y 2 − y 1 .
|{z} |{z} |{z} |{z} | {z } | {z }
∈F G ∈F ∈G ∈F ∈G
Comme F ∩ G = {0E }, on en déduit que x1 − x2 = y 2 − y 1 = 0E . La décomposition de z est donc unique.
| {z } | {z }
∈F ∈G
Ainsi E = F ⊕ G.

Proposition 5.37 (Sous espaces supplémentaires et dimension) Soient F et G deux sous espaces vectoriels
supplémentaires d’un K-espace vectoriel E de dimension finie. On a

dim(E) = dim(F ) + dim(G).

Démonstration : Soit (f 1 , . . . , f n ) une base de F et (g 1 , . . . , g p ) une base de G. On a vu que (f 1 , . . . , f n ,


g 1 , . . . , g p ) est une famille génératrice de E = F + G. Montrons que c’est aussi une famille libre. On suppose que

α1 f 1 + · · · + αn f n + β1 g 1 + · · · + βp g p = 0E .

Par conséquent,
α1 f + · · · + αn f n = −β1 g 1 − · · · − βp g p ∈ F ∩ G = {0E }.
| 1 {z } | {z }
∈F ∈G

Par suite
α1 f 1 + · · · + αn f n = 0E et β1 g 1 + · · · + βp g p = 0E .
Comme (f 1 , . . . , f n ) est une base de F et (g 1 , . . . , g p ) est une base de G, ce sont des familles libres et par
conséquent,
α1 = · · · = αn = β1 = · · · = βp = 0.
On conclut que dim(E) = n + p = dim(F ) + dim(G).

Proposition 5.38 (Existence d’un supplémentaire) Soit E un K-espace vectoriel de dimension finie et F un
sous-espace vectoriel de E. Alors il existe un sous-espace vectoriel G de E tel que F et G soient supplémentaires.

Démonstration : Soient (e1 , . . . , en ) une base de E et (f 1 , . . . , f p ) une base de F . La famille (f 1 , . . . , f p )


est une famille libre de E. Le théorème de la base incomplète (on applique le théorème 5.22 à la famille libre
(f 1 , . . . , f p ) et à la famille génératrice (e1 , . . . , en )) nous dit que l’on peut compléter la famille (f 1 , . . . , f p ) par
ei1 , . . . , ein−p pour en faire une base de E. On vérifie alors que G = Vect(ei1 , . . . , ein−p ) est un sous espace
supplémentaire de F dans E.

Proposition 5.39 (Sous espaces et dimension) Soient F et G deux sous espaces vectoriels d’un K-espace vecto-
riel E. On a
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).

Démonstration : Soient F1 un supplémentaire de F ∩ G dans F et G1 un supplémentaire de F ∩ G dans G. Alors


F = F1 ⊕ (F ∩ G) et G = G1 ⊕ (F ∩ G). On en déduit

F + G = F1 ⊕ G1 ⊕ (F ∩ G).
Par conséquent,
dim(F + G) = dim(F1 ) + dim(G1 ) + dim(F ∩ G)
= (dim(F ) − dim(F ∩ G)) + (dim(G) − dim(F ∩ G)) + dim(F ∩ G) = dim(F ) + dim(G) − dim(F ∩ G).

Proposition 5.40 (Deuxième CNS pour les sous espaces supplémentaires) Soient F et G des sous espaces vec-
toriels de E. Alors E = F ⊕ G si et seulement si F ∩ G = {0E } et dim F + dim G = dim E.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 85 Algèbre linéaire, Maths générales II


5.2. Sous espaces vectoriels supplémentaires, orthogonalité 5. Bases, dimension et sous-espaces

Démonstration : On a déjà démontré le sens direct (proposition 5.37). Il reste à démontrer la réciproque. Suppo-
sons que F ∩ G = {0E } et dim F + dim G = dim E. Il reste à voir que E = F + G. Par la proposition 5.39, on
a dim(F + G) = dim F + dim G = dim E. Donc F + G est un sous espace de E qui a même dimension que E.
Cela montre que E = F + G (voir Proposition 5.24).

5.2.2 Sous espaces liés aux matrices


Soit A ∈ Mn,p (K). On va étudier dans ce paragraphe les relations entre les sous espaces suivants liés à la matrice
A. On a déjà introduit :
1) l’espace des colonnes C(A), qui est égal à Im(A), sous espace de Rn ,
2) l’espace des lignes L(A), qui est égal à Im(At ) sous espace de Rp ,
3) le noyau Ker(A), sous espace de Rp .
On introduit de plus le noyau de la transposée, Ker(At ), qui est un sous espace de Rn .
On peut établir des relations importantes entre ces différents espaces.
On a déjà vu que dim C(A) = dim L(A) = r ≤ n (c’est une réécriture du fait qu’une matrice et sa transposée
ont même rang).
Avec les résultats qu’on a déjà obtenus, on peut facilement obtenir une relation entre les dimensions de Ker(A) et
Im(A).

Théorème 5.41 (Théorème du rang, version matricielle) Soit A ∈ Mn,p (K). Alors

dim(Ker(A)) + dim(Im(A)) = p.

Démonstration : Ce résultat est une conséquence du fait que les solutions spéciales forment une base de Ker(A),
ce qu’on a démontré à la proposition 4.23 (sans utiliser le mot “base” car à l’époque on n’avait pas introduit les
bases).
En effet, on sait que si r est le rang de A, il existe p − r solutions spéciales formant une base de Ker A. On
rappelle que les r colonnes pivotales de A forment une base de Im(A) et qu’on a dim Im(A) = r. On a donc
dim Ker A + dim Im(A) = p − r + r = p.

Définition 5.42 (Orthogonalité) On dit que deux sous espaces F et G de Rp sont orthogonaux si pour tout u ∈ F
et v ∈ G, u · v = 0.
Un vecteur x de Ker(A) est orthogonal à n’importe quelle ligne de A car Ax = 0, ce qui est équivalent à dire que
ℓi (A) · x = 0 pour i = 1, . . . , n.
Proposition 5.43 (Somme de sous espaces orthogonaux) Soient F et G de Rn des sous espaces orthogonaux de
Rp , alors ils sont en somme directe. On parle dans ce cas de somme directe orthogonale.

Démonstration : Soit u ∈ F ∩ G. Comme F et G sont orthogonaux, on a donc u · u = kuk2 = 0. (On rappelle


que kuk désigne la norme euclidienne du vecteur u). On en déduit que u = 0.
En particulier on ne peut avoir deux plans orthogonaux dans R3 . . .

Théorème 5.44 (Orthogonalité de Ker(A) et Im(At )) Soit A ∈ Mn,p (R). Alors les ensembles Ker(A) et
Im(At ) sont des sous espaces vectoriels supplémentaires orthogonaux de Rp .
De plus, les ensembles Ker(At ) et Im(A) sont des sous espaces vectoriels supplémentaires orthogonaux de Rn .

Démonstration : On a déjà vu que tout vecteur x ∈ Ker(A) est orthogonal à n’importe quelle ligne de A car
Ax = 0. Donc les sous espaces Ker(A) et L(A) = Im(At ) sont orthogonaux, et leur intersection réduite à {0E }.
De plus dim Im(At ) = dim Im(A) = r, et donc par le théorème du rang, dim Ker(A) + dim Im(At ) = p. On en
déduit par la proposition 5.40 que Ker(A) et Im(At ) sont des sous espaces vectoriels supplémentaires dans Rp .
Par transposition, on obtient immédiatement que les ensembles Ker(At ) et Im(A) sont des sous espaces vectoriels
supplémentaires orthogonaux de Rn .
Les applications de ce théorème sont multiples. Pour l’instant, nous remarquerons simplement que si x ∈ Rn ,
alors x se décompose de manière unique en x = xK + xL , où xK ∈ Ker(A) et xL ∈ L(A). On a donc
Ax = AxK + AxL = AxL . Donc tout vecteur b ∈ Im(A) peut s’écrire comme AxL où xL ∈ L(A) On a
même unicité : tout vecteur b ∈ Im(A) peut s’écrire de manière unique comme AxL où xL ∈ L(A) ; en effet si
b = AxL = Ax′L , alors xL − x′L ∈ Ker(A). Or on sait que Ker(A) ∩ L(A) = {0E }. On en déduit xL − x′L = 0.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 86 Algèbre linéaire, Maths générales II


5.2. Sous espaces vectoriels supplémentaires, orthogonalité 5. Bases, dimension et sous-espaces

5.2.3 Les sous-espaces de Rp


Les droites dans Rp
On rappelle que les droites sont les sous espaces vectoriels de dimension 1, donc engendrés par un vecteur e ∈ Rp .
Ce sont aussi les noyaux de matrices à p colonnes et de rang p − 1. En effet, par le théorème du rang, si A est une
matrice de rang p − 1, son noyau est de dimension 1.
– L’ équation paramétrique d’une droite est {x = λe, λ ∈ R}, où e est une solution (spéciale, par exemple) du
système Ax = 0.
– Les équations cartésiennes de cette droite sont constituées de p − 1 équations linéaires qu’on peut par exemple
obtenir en écrivant Rx = 0, où R est la forme échelonnée de A, qui a n − 1 lignes non nulles.

Exemple 5.45 (Exemple dans R3 ) Les équations cartésiennes d’une droite sont données par
   ′
 a a
ax + by + cz = 0
′ ′ ′ , avec  b  ∧  b′  6= 0.
ax + b y + c z = 0
c c′

Notons qu’une droite vectorielle est l’intersection de deux plans vectoriels distincts.
 
a b c
Les équations ci dessus peuvent être écrites sous la forme Ax = 0 avec A = ′ ′ ′ . La droite en question
a b c
est donc bien le noyau de A. Un vecteur directeur de cette droite est un vecteur qui est orthogonal aux deux lignes
de la matrice A ; il peut être obtenu en prenant par exemple le produit vectoriel
   ′  ′ 
a a bc − cb′
e =  b  ∧  b′  = ca′ − ac′  .
c c′ ab′ − ba′
 
x
Réciproquement on obtient facilement les équations cartésiennes à partir de l’équation paramétrique x = y  =
z
 
α
λe = λ β  : il suffit d’éliminer λ pour obtenir des équations cartésiennes de la droite.
γ

Les hyperplans dans Rp


Proposition 5.46 Soit p ≥ 2 et a1 , . . . , ap ∈ R non tous nuls. L’ensemble F défini par

F = {x ∈ Rp , x = (x1 , . . . , xp ), tel que x1 a1 + x2 a2 + . . . + xp ap = 0}

est un sous-espace vectoriel de Rp de dimension p − 1. On dit que F est un hyperplan de Rp .


 
Démonstration : Soit A = a1 . . . ap ∈ M1,p (R). Cette matrice est de rang 1. Par le théorème du rang, son
noyau est de rang p − 1, et c’est justement l’ensemble F .
L’équation a1 x1 + a2 x2 + · · · + ap xp = 0 est appelée équation cartésienne de l’hyperplan. Si (f 1 , . . . , f p−1 )
est une base de F , par exemple obtenue en calculant les solutions spéciales de Ax = 0, alors

x ∈ F ⇔ x = λ1 f 1 + · · · + λp−1 f p−1 .

C’est l’ équation paramétrique de F .

Proposition 5.47 (Droite et plan supplémentaires) Si F est un sous-espace vectoriel de Rp , alors F est un hy-
perplan si et seulement si il existe une droite D telle que F et D soient supplémentaires.

Démonstration : Le sous espace F est un hyperplan de Rn d’équation a1 x1 + a2 x2 + . . . + ap xp = 0 ssi


F = Ker(A) où A = a1 . . . ap ∈ M1,p (R). On en déduit par le théorème 5.44 que F ⊕ Im(At ) = Rp (en
fait les sous espaces F et Im(At ) sont orthogonaux), et par le théorème du rang, dim Im(At ) = 1 : le sous-espace
vectoriel Im(At ) est donc une droite. La réciproque est immédiate.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 87 Algèbre linéaire, Maths générales II


5.2. Sous espaces vectoriels supplémentaires, orthogonalité 5. Bases, dimension et sous-espaces

Exemple 5.48 (Le cas particulier d’un plan de R3 ) On consid ère le plan (P) dans R3 d’équation : x − 2y −
3z = 0. Ceci peut encore s’écrire Ax = 0, où A = 1 −2 −3 . Cette matrice est sous forme totalement
échelonée (on l’a fait exprès...) Les solutions spéciales de Ax = 0 sont s1 = (2, 1, 0) et s2 = (3, 0, 1). Le plan
(P) est engendré par les vecteurs s1 et s2 L’équation paramétrique du plan est donc
   
x 2λ1 + 3λ2
x = λ1 s1 + λ2 s2 c.à. d. y  =  λ1 .
z λ2

Notons que si l’on connaı̂t les vecteurs s1 et s2 qui engendrent le plan, on retrouve facilement l’équation du plan
en posant (a, b, c) = s1 ∧ s2 qui est orthogonal à s1 et s2 (le vérifier avec notre exemple).

5.2.4 Exercices
Exercice 123 (Suite de l’exercice 87 ) Soit la matrice :
 
1 1 2 −1
 −1 0 1 0 
A= 
 0 0 1 −1 
0 1 0 1

(a) Déterminer une base du noyau de A .


(b) Déterminer une base de l’image de A.

Exercice 124 Donner un système d’équations pour caractériser la droite de R3 qui passe par 0 et qui a pour
vecteur directeur (2, −1, 4).
Même question avec le plan de R3 qui passe par 0 et qui a pour vecteurs directeurs (2, −1, 4) et (1, 2, 1).

Exercice 125 Soit F le sous-espace vectoriel de R3 engendré par les vecteurs (1, 1, 1), (1, 0, −1) et (4, 2, 0).
Quelle est la dimension de F ? Faire un dessin.
Trouver un supplémentaire de F dans R3 .

Exercice 126 Soit F le sous-espace vectoriel de R3 donné par :

F = {(x, y, z), x + y + z = 0 et 3x = 2z}.

Donner une équation paramétrique de F .


Même question avec
G = {(x, y, z, t) ∈ R4 , x + y − z = 0 et y + 2z = t}.

Exercice 127 Dans l’espace vectoriel R4 on considère le sous-espace vectoriel F engendré par les vecteurs f 1 =
(1, 0, 1, 0), f 2 = (1, 1, 0, 1) et f 3 = (1, 2, 0, 1). On considère aussi le sous-espace vectoriel G engendré par
g 1 = (1, 2, −1, 2), g 2 = (0, 0, 1, 0), g 3 = (1, 3, −2, 3) et g 4 = (0, 1, 0, 1). Vérifier que

dim(F + G) + dim(F ∩ G) = dim(F ) + dim(G).

Exercice 128 Déterminer si les sous-espaces vectoriels de R3 suivants sont supplémentaires, en somme directe :
F = {(x, y, z) tels que x + 2y + z = 0, x − z = 0} et G = Vect{(1, a, b)}, selon le choix de a, b ∈ R.
F = Vect{(1, 2, −1), (1, 0, 1)} et G = Vect{(0, 1, 2)}.
F = {(x, y, z) tels que x + 2y + z = 0} et G = Vect{(1, 0, −1)}.
F = {(x, y, z) tels que x + 2y + z = 0} et G = Vect{(1, 2, 1)}.

Exercice 129 Soient x, y, u, v des éléments de R4 . On note F et G les sous-espaces vectoriels engendrés respec-
tivement par {x, y} et {u, v}. Dans quels cas a-t-on F ⊕ G = R4 ?
1. x = (1, 1, 0, 0), y = (1, 0, 1, 0), u = (0, 1, 0, 1), v = (0, 0, 1, 1)
2. x = (−1, 1, 1, 0), y = (0, 1, −1, 1), u = (1, 0, 0, 0), v = (0, 0, 0, 1)
3. x = (1, 0, 0, 1), y = (0, 1, 1, 0), u = (1, 0, 1, 0), v = (0, 1, 0, 1)

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 88 Algèbre linéaire, Maths générales II


5.2. Sous espaces vectoriels supplémentaires, orthogonalité 5. Bases, dimension et sous-espaces

Exercice 130 Soit F un sous-espace vectoriel de dimension 4 de l’espace vectoriel E = R7 .


1. Soit G un sous-espace vectoriel de F orthogonal à E. Quelles sont les dimensions possibles de G ?
2. Même question si maintenant G est un supplémentaire orthogonal à F .
3. Quelle est la plus petite taille possible d’une matrice A dont l’espace des lignes est F ?
4. Dans ce cas, combien de vecteurs a une base de KerA, et combien de composantes ont ces vecteurs de base ?

Exercice 131 Soit P le plan vectoriel d’équation x − 2y − 3z = 0 dans R3 .


1. Trouver la matrice A ∈ M1,3 (R) dont P est le noyau.
2. Trouver une base formée par des solutions spéciales du plan P .
3. Trouver une base de P ⊥ .
4. Décomposer le vecteur x = (5, 4, 3) en x = y + z, où y ∈ Ker(A) et z ∈ L(A)(= Im(At )).

Exercice 132 (Noyau de At A) Soit A ∈ Mn,p (R). Montrer que Ker(At A) = Ker(A).

Exercice 133 (Base d’un hyperplan) Soit P l’hyperplan de R4 déquation x1 + x2 + x3 + x4 = 0. Donner une
base de P et une base de la droite orthogonale à P .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 89 Algèbre linéaire, Maths générales II


5.2. Sous espaces vectoriels supplémentaires, orthogonalité 5. Bases, dimension et sous-espaces

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 90 Algèbre linéaire, Maths générales II


Chapitre 6

Applications linéaires

6.1 Définitions et exemples


On a vu a l’exercice 13 la propriété de linéarité du produit matrice vecteur : si A est une matrice 2 × 2 et u et v.
deux vecteurs de R2 , et α et β des réels, alors. A(αu + βv) = αAu + βAv. Il est facile de voir que cette propriété
est vérifiée pour n’importe quelle matrice n × p, u et v étant alors des vecteurs de Rp . On dit que l’application
T : Rp → Rn définie par T (u) = Au est une application linéaire. On peut généraliser cette notion d’application
linéaire à des espaces vectoriels E et F quelconques.

6.1.1 Application linéaire de E dans F


Définition 6.1 Soient E et F deux K-espaces vectoriels. On dit qu’une application T : E → F est linéaire si
1. Pour tout x, y ∈ E, T (x + y) = T (x) + T (y).
2. Pour tout x ∈ E et tout λ ∈ K, T (λx) = λT (x).

On note L(E, F ) l’ensemble des applications linéaires de E dans F . Si E = F , on parle d’endomorphisme de


E et on note simplement L(E, F ) = L(E).

On remarque tout de suite que si T est une application linéaire, alors T (0E ) = 0F ; en effet, T (0E ) = T (0K x) =
0K T (x) = 0F .
L’application (
E →E
IdE :
x 7→ x

est une application linéaire appelée l’identité.

Exemple 6.2 (Produit scalaire et norme) Soit a ∈ R2 fixé, alors l’application de R2 dans R définie par u 7→
u · a est une application linéaire. Par contre, l’application u 7→ kuk ne l’est pas.

Exemple 6.3 (Transposition) L’application de M2 (R) dans M2 (R) définie par A 7→ At est une application
linéaire.

Exemple 6.4 (Dérivation et intégration) L’application “dérivation” de C 1 ([0, 1]) dans C([0, 1]) définie par f 7→
f ′ estR une application linéaire. De même l’application “intégration” de C([0, 1]) dans C 1 ([0, 1]) définie par
x
f 7→ 0 f (y)dy est une application linéaire.

Proposition 6.5 (Propriétés de linéarité) Soient E et F deux K-espaces vectoriels et T : E → F une application
de E dans F . Alors T est une application linéaire de E dans F si et seulement si, pour tous λ, µ ∈ K, et x, y ∈ E,
T (λx + µy) = λT (x) + µT (y).
De plus, si E est de dimension finie, (e1 , . . . , en ) une base de E et T une application linéaire de E dans F ,
alors pour tout x ∈ E, on a T (x) = x1 T (e1 ) + . . . xn T (en ) où les xi sont les composantes de x dans la base
(e1 , . . . , en ).

91
6.1. Définitions et exemples 6. Applications linéaires

Démonstration : Preuve laissée à titre d’exercice...


On montre facilement par récurrence sur n que si T est une application linéaire de E dans F , alors pour tout n ∈ N
et tous λ1 , . . . , λn ∈ K et x1 , . . . , xn ∈ E, on a
n
! n
X X
T λi xi = λi T (xi ). (6.1.1)
i=1 i=1

Proposition 6.6 (L’espace vectoriel L(E, F )) Soient E, F des K-espaces vectoriels. L’ensemble L(E, F ) est un
espace vectoriel. En particulier,
– la somme de deux applications linéaires est une application linéaire :
si S, T ∈ L(E, F ), alors S + T ∈ L(E, F ),
– Le produit d’une application linéaire par un scalaire est une application linéaire :
si T ∈ L(E, F ) et α ∈ K, alors αT ∈ L(E, F ).

Démonstration : On va montrer que L(E, F ) est un sous espace vectoriel de l’ensemble des applications de E
dans F . On remarque que l’application nulle (x ∈ E 7→ 0F ) est bien un élément de L(E, F ).
– Soient x, y ∈ E et λ, µ ∈ K et S, T ∈ L(E, F ). On a

(S+T )(λx+µy) = S(λx+µy)+T (λx+µy) = λS(x)+µS(y)+λT (x)+µT (y) = λ(S+T )(x)+µ(S+T )(y).

Par conséquent, S + T ∈ L(E, F ).


– Soient x, y ∈ E et α, λ, µ ∈ K et T ∈ L(E, F ). On a

(αT )(λx + µy) = αT (λx + µy) = α (λT (x) + µT (y)) = λ(αT )(x) + µ(αT )(y).

Par conséquent, αT ∈ L(E, F ).

Proposition 6.7 (Composée de deux applications linéaires) Soient E, F, G trois K-espaces vectoriels. La com-
posée de deux applications linéaires est une application linéaire : si S ∈ L(F, G), T ∈ L(E, F ), alors
S ◦ T ∈ L(E, G) avec S ◦ T (x) = S(T (x)), ∀x ∈ E.

Démonstration : Soient x, y ∈ E et λ, µ ∈ K. Si S ∈ L(F, G), T ∈ L(E, F ), on a


 
 
S◦T (λx+µy) = S (T (λx + µy)) = S λ T (x) +µ T (y) = λS(T (x))+µS(T (y)) = λS◦T (x)+µS◦T (y).
| {z } | {z }
∈F ∈F

Par conséquent, S ◦ T ∈ L(E, G).


Attention, en général, les applications linéaires ne commutent pas (comme les matrices...) : si S ∈ L(E) et
T ∈ L(E),
S ◦ T 6= T ◦ S.
Prendre par exemple E = R2 et S(x1 , x2 ) = (x1 + x2 , x2 ) et T (x1 , x2 ) = (0, x2 ).

6.1.2 Image, noyau et rang


Définition 6.8 Soit E et F deux K-espaces vectoriels. Soit T une application linéaire de E dans F . On appelle
– Noyau de T l’ensemble noté KerT defini par

KerT = {x ∈ E tel que T (x) = 0F }.

– Image de T l’ensemble noté ImT defini par

ImT = {y ∈ F tel qu’il existe x ∈ E tel que y = T (x)}.

Proposition 6.9 Soient E et F deux K-espaces vectoriels. Soit T une application linéaire de E dans F . L’espace
KerT est un sous-espace vectoriel de E et l’espace ImT est sous-espace vectoriel de F .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 92 Algèbre linéaire, Maths générales II


6.1. Définitions et exemples 6. Applications linéaires

Démonstration :
– On sait que T (0E ) = 0F . Donc 0E ∈ KerT . Pour montrer que KerT est un sous-espace vectoriel de E, il reste
donc à montrer que pour tous x, y ∈ KerT , λ, µ ∈ K, on a λx + y ∈ KerT .

T (λx + µy) = λT (x) + µT (y) = λ0F + µ0F = 0F .

Par conséquent, λx + µy ∈ KerT .


– Soient y 1 , y 2 ∈ ImT ⊂ F . Il existe x1 , x2 ∈ E tels que y 1 = T (x1 ) et y 2 = T (x2 ). On remarque alors que

T (λx1 + µx2 ) = λT (x1 ) + µT (x2 ) = λy 1 + µy 2 .

Donc λy 1 + µy 2 ∈ ImT .

Définition 6.10 Soit E et F deux K-espaces vectoriels. Soit T une application linéaire de E sur F . On appelle
rang de T la dimension de l’espace vectoriel Im(T ) et on le note rg(T ).

On donne maintenant le théorème du rang pour les applications linéaires. Il peut se démontrer à partir de celui
sur les matrices (voir remarque 6.18 plus loin) mais on donne ici une démonstration directe, sans passer par les
matrices.

Théorème 6.11 (Théorème du rang) Soient E, F deux K-espaces vectoriels de dimension finie et T ∈ L(E, F ),
on a
dim(E) = dim(Ker(T )) + dim(Im(T )).

Démonstration : Soient (u1 , . . . , up ) une base de ker T et (w 1 , . . . , w q ) une base de Im(T ). On veut montrer
que p + q = dim(E). Soient v 1 , . . . , v q ∈ E des antécédents de w1 , . . . , wq par T : T (v i ) = wi . Montrons que
la famille (u1 , . . . , up , v 1 , . . . , v q ) est une base de E. Si c’est le cas on aura bien montré que p + q = dim(E).
– Montrons que la famille (u1 , . . . , up , v 1 , . . . , v q ) est libre. Supposons α1 u1 +. . .+αp up +β1 v 1 +. . .+βq v q =
0E . On a alors !
X p Xq Xp Xq
T αi ui + βi v i = αi T (ui ) + βi T (v i ) = 0F ,
i=1 i=1 i=1 i=1

et comme T (ui ) = 0F et T (vi ) = wi ,


q
X
βi w i = 0 F .
i=1

Mais (w 1 , . . . , wq ) est une base de Im(T ), c’est donc une famille libre. On en déduit βi = 0 pour tout i =
1, . . . , q. On écrit alors que α1 u1 + . . . + αp up = 0E , et comme la famille (u1 , . . . , up ) est libre, on a aussi
α1 = . . . = αp = 0. Conclusion : (u1 , . . . , up , v 1 , . . . , v q ) est libre.
– Montrons maintenant quePla famille (u1 , . . . , up , v 1 , . . . , v q ) est génératrice. Soit x ∈ E. Notons y = T (x) ∈
q
Im(T ). On a donc y = i=1 γi w i , où les sont les γi sont les composantes de y dans la base (w 1 , . . . , wq ).
Posons alors
Xq
xI = γi v i et xK = x − xI .
i=1

Par linéarité, on a
q
X q
X
T (xK ) = T (x) − T (xI ) = y − γi T (v i ) = y − γi w i = 0 F ,
i=1 i=1

et donc xK ∈ ker T . On en déduit que


q
X
x = xK + γi v i ,
i=1

et comme xK peut s’écrire comme combinaison linéaire des u1 , . . . , up , la famille (u1 , . . . , up , v 1 , . . . , v q ) est
génératrice.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 93 Algèbre linéaire, Maths générales II


6.1. Définitions et exemples 6. Applications linéaires

Proposition 6.12 Soit E et F deux K-espaces vectoriels. Soit T une application linéaire de E dans F .
– L’application T est injective si et seulement si KerT = {0E }.
– L’application T est surjective si et seulement si ImT = F .
– L’application T est bijective si et seulement si KerT = {0E } et ImT = F . On parle alors d’ isomorphisme,
et d’ automorphisme si F = E.

Démonstration :
– L’application T est injective si et seulement si pour tous x, y ∈ E tels que T (x) = T (y) alors x = y, c.à.d.
si et seulement si T (x − y) = 0F implique x − y = 0E , soit encore si et seulement si T (z) = 0F implique
z = 0E , ce qui équivaut à KerT = {0E }.
– L’application T est surjective si et seulement si pour tout y ∈ F , il existe x ∈ E tel que T (x) = y, c.à.d. si et
seulement si F = ImT .
– Par conséquent, T est bijective si et seulement si KerT = {0E } et ImT = F .

On déduit alors du théorème du rang que :

Si dim(E) = dim(F ), T bijective ⇔ T injective ⇔ T surjective

6.1.3 Exercices
Exercice 134 (Applications linéaires ou non ?) 1. Déterminer parmi les applications définies de R2 → R sui-
vantes, celles qui sont linéaires :
1. Π1 (x, y) = x, Π2 (x, y) = y,
2. T1 (x, y) = xy, T2 (x, y) = x + y, T3 (x, y) = x + y + 1, T4 (x, y) = x2 − y 2 ,
3. T5 (x, y) = |x + y|, T6 (x, y) = sin x, T7 (x, y) = x − 3y.
2. Déterminer parmi les applications définies de R2 → R2 suivantes, celles qui sont linéaires : S1 (x, y) = (y, x),
S2 (x, y) = (x, y 2 ) , S3 (x, y) = (1, x).

Exercice 135 (Applications R2 dans R2 ) Parmi les applications T de R2 dans R2 ou dans R suivantes, quelles
sont celles qui satisfont T (λx) = λT (x), et quelles sont celles qui satisfont T (x + y) = T (x) + T (y) ?
x
T (x) = , T (x) = x1 + x2 , T (x) = (2x1 , 3x2 ), T (x) = max(x1 , x2 ).
kxk

Exercice 136 (Application linéaire dans R2 ) Soit T une application linéaire de R2 dans R2 telle que T (1, 1) =
(2, 2), T (2, 0) = (0, 0). Déterminer T (u) pour les vecteurs u suivants :

u = (2, 2), u = (3, 1), u = (−1, 1), u = (a, b).

Exercice 137 Dans R3 , vérifier que les vecteurs suivants forment une base :

a = (4, 2, 0), b = (1, 2, −3), c = (0, 2, 5).

Trouver les images de la base canonique par l’application linéaire T : R3 → R définie par :

T (a) = 2, T (b) = −7, T (c) = −1.

Exercice 138 (Composition d’applications linéaires) Soient S et T les deux applications linéaires de R2 dans
R2 définies par :
S(x, y) = (4x − y, x − y) et T (x, y) = (x + y, 2x − y).
Calculer S ◦ T et T ◦ S. Et vérifier (rapidement !) que ces applications sont linéaires.

Exercice 139 Soient S et T les deux applications linéaires de R2 dans R2 définies par :

S(x, y) = (x + y, x) et T (x, y) = (5x − 4y, 6x + 5y).

Montrer que ce sont des automorphismes de R2 (c.à.d. des applications linéaires bijectives de R2 dans R2 ).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 94 Algèbre linéaire, Maths générales II


6.2. Applications linéaires et matrices 6. Applications linéaires

Exercice 140 (Linéarité et continuité) Vérifier qu’une application linéaire de R dans R est continue.
Soit T une application continue de R dans R telle que :

T (x + y) = T (x) + T (y) pour tout x, y ∈ R.

Montrer que T est linéaire.

Exercice 141 (Noyau et image d’applications linéaires) Pour chacune des applications linéaires T suivantes,
répondre aux questions suivantes :
1. Vérifier que l’application T est linéaire.
2. Déterminer le noyau et l’image de T . Donner la dimension et une base de chacun des sous-espaces.

(a) T : R2 → R2 définie par T (x, y) = (3x + y, x − y).


(b) T : R2 → R2 définie par T (x, y) = (x + 2y, 2x + 4y).
(c) Tα : R2 → R2 définie par Tα (x, y) = (x + αy, 2 + 4y), (selon les valeurs de α ∈ R).
(d) T : R3 → R3 définie par T (x, y, z) = (z, y, 0).
(e) T : R2 → R3 définie par T (x, y, z) = (x − y, x + y, x + 2y).

Exercice 142 (Image réciproque) Déterminer l’application linéaire T : R3 −→ R2 telle que, si e1 , e2 , e3


désignent les vecteurs de la base canonique, on ait :

T (e1 ) = (1, 1), T (e2 ) = (0, 1), T (e3 ) = (−1, 1).

Trouver une base de Ker(T ).


Quelle est l’image réciproque du vecteur (1, 0) ?
Quelle est l’image réciproque du sous espace vectoriel engendré par (1, 0) ?

Exercice 143 On considère l’application linéaire T de R4 dans R6 donnée par :

T (1, 0, 0, 0) = (−1, −1, −1, 0, 0, 0)


T (0, 1, 0, 0) = (1, 0, 0, −1, −1, 0)
T (0, 0, 1, 0) = (0, 1, 0, 1, 0, −1)
T (0, 0, 0, 1) = (0, 0, 1, 0, 1, 1)

Déterminer l’image d’un vecteur (x1 , x2 , x3 , x4 ) de R4 . Déterminer le rang de T .

6.2 Applications linéaires et matrices


6.2.1 Matrice d’une application linéaire
On peut construire une matrice pour toute application linéaire. En effet si T est une application linéaire de E dans
F , où E est de dimension p et F de dimension n, on peut choisir des bases (e1 , . . . , ep ) et (f 1 , . . . , f n ) de E et
F . La matrice M représentant l’application linéaire T sera alors une matrice n × p, dont la première colonne se
trouve en calculant l’image du premier vecteur de base de B par T , dans la base (f 1 , . . . , f n ) :

T (e1 ) = α1,1 f 1 + . . . + αn,1 f n .

La première colonne de la matrice M est donc la colonne constituée des coefficients α1,1 , . . . , αn,1 . De même, la
j-ième colonne de M se trouve en calculant T (ej ) dans la base (f 1 , . . . , f n ) :

T (ej ) = α1,j f 1 + . . . + αn,j f n .

Définition 6.13 Soient E et F deux K-espaces vectoriels de dimension p et n. On se donne B = (e1 , . . . , ep ) une
base de E et B ′ = (f 1 , . . . , f n ) une base de F . Soit T ∈ L(E, F ). On appelle matrice de T dans les bases B, B ′
la matrice notée MB,B′ (T ) ∈ Mn,p (K) dont les coefficients de la j ème colonne sont les composantes de T (ej )
dans la base B ′ :
MB,B′ (T ) = (ai,j ), avec T (ej ) = a1,j f 1 + · · · + an,j f n .
Si E = F et B = B ′ on notera simplement MB (T ).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 95 Algèbre linéaire, Maths générales II


6.2. Applications linéaires et matrices 6. Applications linéaires

Calculons cette matrice sur un exemple. Considérons l’espace des polynômes de degré inférieur ou égal à 3, noté
R3 [X] et l’application T qui à un polynôme P associe sa dérivée, P ′ . Cette application est évidemment linéaire
(le vérifier). Si on considère la base canonique de R3 [X] , constituée des polynômes

Proposition 6.14 Soient E et F deux K-espaces vectoriels de dimension p et n. On se donne B = (e1 , . . . , ep )


une base de E et B ′ = (f 1 , . . . , f n ) une base de F . Soit M ∈ Mn,p (K). Alors il existe une unique application
linéaire T ∈ L(E, F ) telle que M = MB,B′ (T ).

Proposition 6.15 Soient E, F , G trois K-espaces vectoriels de dimension finie. On se donne B = (e1 , . . . , ep )
une base de E, B ′ = (f 1 , . . . , f n ) une base de F et B ′′ = (g 1 , . . . , g q ) une base de G. Soit R ∈ L(E, F ),
S ∈ L(E, F ), T ∈ L(F, G) et λ ∈ K. On a
1. MB,B′ (R + S) = MB,B′ (R) + MB,B′ (S).
2. MB,B′ (λR) = λMB,B′ (R).
3. MB,B′′ (T ◦ R) = MB′ ,B′′ (T ) · MB,B′ (R).

Corollaire 6.16 Soient E, F deux K-espaces vectoriels de même dimension n, B une base de E, B ′ une base de
F, et T ∈ L(E, F ) inversible. Alors
−1
MB′ ,B (T −1 ) = (MB,B′ (T )) .

Réciproquement, si MB,B′ (T ) est inversible, alors T est inversible.

Démonstration : Pour le sens direct, on applique la proposition précédente : on a Idn = MB (IdE ) = MB (T ◦


T −1 ) = MB (T ) · MB (T −1 ). Pour la réciproque, soit S ∈ L(F, E) telle que MB′ ,B (S) = (MB,B′ (T ))−1 (l’exis-
tence de S est assurée par la Proposition 6.14). On a alors MB′ ,B′ (T ◦ S) = MB′ ,B (S)MB,B′ (T ) = Idn . Par la
Proposition 6.14, le seul endomorphisme de matrice Idn dans la base B est l’application identité. Donc S◦T = IdE .
De même, T ◦ S = IdF . Donc T est inversible.

Lemme 6.17 Soient E et F des espaces vectoriels de dimensions respectives p et n, et T une application linéaire
de E dans F . Soient B = (e1 , . . . , ep ) une base de E, B ′ = (f 1 , . . . , f n ) une base de F et A la matrice de T
dans les bases B et B ′ . Alors dim(Ker(A)) = dim(Ker(T )) et rg(A) = rg(T ).

Démonstration : La matrice A a p colonnes et n lignes. Montrons par exemple la première égalité. Notons
q = dim(Ker(A)) et soit (s1 , . . . , sq ) une base de Ker(A). Pp Notons si,j les composantes de sj dans la base
canonique de Rp : sj = (s1,j , . . . , sp,j ). On définit aj := i=1 si,j ei pour 1 ≤ j ≤ q.
Alors pour tout x = (x1 , . . . , xp ) ∈ Rp , on a

p
X n X
X p
Ax = 0 ⇔ ∀i = 1, . . . , n, ai,j xj = 0 ⇔ ( ai,j xj )f i = 0
j=1 i=1 j=1
p X
X n p
X Xp
⇔ ( ai,j f i )xj = 0 ⇔ xj T (ej ) = 0 ⇔ T ( xj ej ) = 0. (6.2.2)
j=1 i=1 j=1 j=1
Pp
Donc x = (x1 , . . . , xp ) ∈ Ker(A) ssi T (a) = 0 avec a = j=1 xj ej . En particulier, la famille (a1 , . . . , aq ) est
Pq Pq
contenue dans Ker(T ). On vérifie comme ci-dessus que si λ1 , . . . , λq ∈ K, alors i=1 λi si = 0 ssi i=1 λi ai =
0. Donc la famille (a1 , . . . , aq ) est libre. Par le
Pmême argument, pour tout x = (x1 , . . . xp ) ∈ Rp , (s1 , . . . , sq , x)
p
est libre ssi (a1 , . . . , aq , a) est libre, où a = i=1 xi ei . On en déduit que la famille (a1 , . . . , aq ) est génératrice
de Ker(T ). Finalement, (a1 , . . . , aq ) est une base de Ker(T ), donc dim(Ker(T )) = q. On montre de même que
dim(Im(A)) = dim(Im(T )). Le théorème est démontré.

Remarque 6.18 (Théorèmes du rang pour les applications linéaires et pour les matrices) Par le lemme précé-
dent, on démontre facilement le théorème du rang pour les applications linéaires (théorème 6.11), à partir du
théorème du rang pour les matrices. En effet, supposons que T est une application linéaire de E dans F , et soient
B = (e1 , . . . , ep ) une base de E, B ′ = (f 1 , . . . , f n ) une base de F et A la matrice de T dans les bases B et B ′ ;
alors, par le théorème 5.41 on a : dim(E) = dim(Ker(A)) + rg(A). On en déduit par le lemme ci-dessus que
dim(E) = dim(Ker(T )) + rg(T ).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 96 Algèbre linéaire, Maths générales II


6.2. Applications linéaires et matrices 6. Applications linéaires

6.2.2 Changement de bases


Définition 6.19 (Matrice de passage) Si B et B ′ sont deux bases de E, alors MB′ ,B (IdE ) s’appelle la matrice de
passage PB,B′ de B à B ′ . C’est la matrice dont les colonnes sont constituées des composantes des vecteurs de la
base B ′ dans la base B.
Par le Corollaire 6.16, on a PB,B′ = (PB′ ,B )−1 .
Théorème 6.20 Soit E un K-espace vectoriel, B et B ′ deux bases de E et x ∈ E. Alors si X et X ′ désignent les
composantes de x dans respectivement la base B et la base B ′ et si PB,B′ désigne la matrice de passage de la base
B à la base B ′ , alors X = PB,B′ X ′ .

Théorème 6.21 Soit E un K-espace vectoriel, B et B ′ deux bases de E et T ∈ L(E), alors si PB,B′ désigne la
matrice de passage de la base B à la base B ′ , on a

−1
MB′ (T ) = PB,B ′ MB (T )PB,B′ = PB′ ,B MB (T )PB,B′ .

On a aussi
−1
MB,B′ (T ) = PB,B ′ MB (T ) = PB′ ,B MB (T ) et MB,B′ (T ) = MB′ (T )PB′ ,B .

T MB′ (T )
(E, B ′ ) / (E, B ′ ) ⇔ (E, B ′ ) / (E, B ′ )
O O
−1
IdE IdE PB,B′ PB,B ′ =PB′ ,B
 
(E, B) / (E, B) (E, B) / (E, B)
T MB (T )

T MB,B′ (T )
(E, B) / (E, B ′ ) ⇔ (E, B) / (E, B ′ )
: :
✉✉ ✉✉
T ✉✉✉ MB (T ) ✉✉✉
✉✉ ✉✉
 ✉✉ IdE  ✉✉ PB′ ,B
(E, B) (E, B)

6.2.3 Exercices
Exercice 144 (Changement de base) Dans R3 , on considère les vecteurs
a = (1, 0, 1), b = (1, −1, 1), c = (1, 2, −1).
1. Soit T une application linéaire T telle que T (a) = (2, 3, −1), T (b) = (3, 0, −2), T (c) = (2, 7, −1). Pour
(x, y, x) ∈ R3 , exprimer T (x, y, z) en fonction de (x, y, z).
2. Même question pour l’application linéaire T̃ telle que T̃ (a) = 2a − 2b, T̃ (b) = 2c, T̃ (c) =
a − b − c.
3. Déterminer le noyau et l’image de ces deux applications linéaires ainsi que des bases de ces sous espaces.
Exercice 145 (Isomorphisme) Soit T : R3 −→ R2 l’application linéaire définie par :
T (1, 0, 0) = (1, 1), T (0, 1, 0) = (0, 1), T (0, 0, 1) = (−1, 1).
Trouver une base de Ker(T ). Déterminer un supplémentaire de Ker(T ) dans R3 et vérifier qu’il est isomorphe
à Im(T ) (c.à.d qu’il existe un isomorphisme, i.e. une application linéaire bijective du supplémentaire de Ker(T )
dans Im(T )).
Exercice 146 (Famille d’applications linéaires de R3 ) Soit m un paramètre réel. On considère l’application linéaire
Tm de R3 dans R3 définie par Tm (x, y, z) = (X, Y, Z) avec :

 X = (m − 2)x + 2y − z
Y = 2x + my + 2z

Z = 2mx + 2(m + 1)y + (m + 1)z
Montrer que le rang de Tm est égal à 3 sauf pour des valeurs particulières de m que l’on déterminera. Pour ces
valeurs particulières, préciser la valeur du rang et donner les équations cartésiennes des sous espaces Ker(Tm )
et Im(Tm ) ainsi que des bases de chacun d’eux.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 97 Algèbre linéaire, Maths générales II


6.2. Applications linéaires et matrices 6. Applications linéaires

Exercice 147 (Application linéaire sur un espace des matrices) Soit E l’espace vectoriel des matrices réelles
2 × 2.Dans cetespace on considère le vecteur (au sens élément de l’espace vectoriel, qui est donc ici une matrice)
1 1
P = .
1 1
On va considérer l’endomorphisme S de E (application linéaire de E dans E) donné par la multiplication (à
gauche) par P . C’est à dire T (A) = P A. (Vérifier que c’est bien une application linéaire).
On rappelle que la base canonique de E est l’ensemble des matrices :
        
1 0 0 1 0 0 0 0
B = M1 = , M2 = , M3 = , M4 = .
0 0 0 0 1 0 0 1

Quelles sont les images des matrices Mi par l’application T ? En déduire alors la matrice de l’application T dans
la base B (qui est donc une matrice 4 × 4 ; pourquoi ?)
Faire la même chose pour l’endomorphisme T̃ de E qui est la multiplication à droite par P .

Matrice d’une application linéaire, changement de bases

Exercice 148 (Changements de base) On considère l’application linéaire T : R2 → R2 définie par T (x1 , x2 ) =
(x2 , x1 ).
1. Ecrire la matrice A de l’application linéaire T dans la base B = (e1 , e2 ) canonique.
2. (a) Montrer que la famille de vecteurs B ′ = (e′1 , e′2 ) avec e′1 = (0, 1), e′2 = (1, 0) est une base de R2 .
(b) Ecrire la matrice de passage P de la base B à la base B ′ et calculer son inverse P −1 .
(c) Ecrire la matrice A′ de l’application linéaire T dans la base B ′ .
(d) Vérifier que A′ = P −1 AP .
3. Mêmes questions avec la famille de vecteurs B ′′ = (e′′1 , e′′2 ) avec e′′1 = (1, 1), e′′2 = (1, −1).

Exercice 149 (Changements de base, encore...)


On considère l’application linéaire T : R2 → R2 définie par

T (x1 , x2 ) = (x1 + 2x2 , x1 ).

1. Ecrire la matrice A de l’application linéaire T dans la base B = (e1 , e2 ) canonique.


2. Montrer que la famille de vecteurs B ′ = (e′1 , e′2 ) avec e′1 = (2, 1), e′2 = (1, −1) est une base de R2 .
3. Ecrire la matrice MB,B′ (Id2 ) de l’application identique de (R2 , B) dans(R2 , B ′ ).
4. En déduire la matrice de passage P de la base B à la base B ′ et calculer son inverse P −1 .
5. Ecrire la matrice A′ de l’application linéaire T dans la base B ′ .
6. Vérifier que A′ = P −1 AP .

Exercice 150 (Changements de base, toujours...) Dans R3 , on considère les vecteurs

u = (1, −1, 0), v = (1, 1, 1), w = (0, 1, 1).

1. Montrer que la famille {u, v, w} forme une base B ′ de R3 .


2. Ecrire la matrice de passage P de la base canonique B à la base B ′ . Calculer P −1 .
3. On considère l’application linéaire T définie sur R3 par

T (x, y, z) = (x + 3y − 3z, x − y + z, x + y − z).

3.a. Déterminer la matrice de T dans la base canonique.


3.b. Déterminer la matrice de T dans la base B ′ .
3.c. Déterminer Ker(T ). Quelle est sa dimension ?
3.d. En déduire le rang de T et donner une base de Im(T ).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 98 Algèbre linéaire, Maths générales II


6.3. Applications linéaires remarquables : formes linéaires, projecteurs 6. Applications linéaires

6.3 Applications linéaires remarquables : formes linéaires, projecteurs


6.3.1 Homothéties
Définition 6.22 Pour λ ∈ K, on appelle homothétie de rapport λ l’endomorphisme Tλ ∈ L(E) qui à tout x ∈ E
associe Tλ (x) = λx.

Proposition 6.23 Soit E un K-espace vectoriel de dimension n. Pour toute base B, la matrice d’une homothétie
Tλ de rapport λ est donnée par
MB (Tλ ) = λIdn .

Démonstration : Il suffit d’écrire que pour tout élément e de la base B, H(e) = λe.

6.3.2 Formes linéaires


Définition 6.24 Soit E un K-espace vectoriel. On appelle forme linéaire sur E, une application de L(E, K).

Proposition 6.25 Soit E un K-espace vectoriel et T une forme linéaire sur E. Soit B = (e1 , . . . , en ) une base de
E, il existe (α1 , . . . αn ) ∈ Kn tel que pour tout x = x1 e1 + · · · + xn en on ait

T (x) = α1 x1 + · · · + αn xn .

Notons que si K = R, f (x) est le produit scalaire dans Rn des deux vecteurs (α1 , . . . , αn ) et (x1 , . . . , xn ).
Attention de ne pas confondre le vecteur x ∈ E et le vecteur (x1 , . . . , xn ) ∈ Rn .

Démonstration : On note αi = f (ei ). On a donc

T (x) = T (x1 e1 + · · · + xn en ) = x1 T (e1 ) + · · · + xn T (en ) = x1 α1 + · · · + xn αn .

Proposition 6.26 Soit E un K-espace vectoriel de dimension n et T une forme linéaire non nulle sur E. On a
dim(Im(T )) = 1 et dim(Ker(T )) = n − 1.

Démonstration : On sait que Im(T ) est un sous-espace vectoriel de K non réduit à {0}. Par conséquent Im(T ) =
K. On en déduit que dim(Im(T )) = 1 et par le théorème du rang que dim(Ker(T )) = n − 1
Ainsi, le noyau d’une forme linéaire non nulle sur E est un hyperplan de E. Réciproquement, si F est un hyperplan
de E, il existe une forme linéaire non nulle sur E dont le noyau est F .
3
Exemple 6.27 (Forme  linéairede R ) La forme linéaire définie par T (x, y, z) = x + y + z peut aussi s’écrire
Ax = 0 avec A = 1 1 1 et x = (x, y, z) et on a déjà vu que le noyau de A est l’hyperplan d’équation
x + y + z = 0. La forme linéaire T a donc aussi pour noyau le plan P d’équation x + y + z = 0.

6.3.3 Projecteur
Définition 6.28 Soit E un K-espace vectoriel. On dit que p ∈ L(E) est un projecteur si p ◦ p = p.

Si E est un ensemble et F un sous-ensemble de E, et si T est une application de E dans un ensemble G, on appelle


restriction de T au sous ensemble F l’application de F dans G qui à u ∈ F associe T (u) ∈ G. On note T|F cette
restriction. C’est donc la même application que T , sauf qu’on la considère maintenant sur un espace de départ plus
petit.

Proposition 6.29 Soit E un K-espace vectoriel. Si p ∈ L(E) est un projecteur alors


• E = Im(p) ⊕ Ker(p).
• T|Im(p) = IdIm(p) , où IdIm(p) désigne l’endomorphisme identité sur l’espace vectoriel Im(p) .
On dit aussi que p est une projection sur Im(p) parallèlement à Ker(p) :

∀x ∈ E, x = xIm + xKer , avec xIm ∈ Im(p), xKer ∈ Ker(p) et p(x) = xIm .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 99 Algèbre linéaire, Maths générales II


6.3. Applications linéaires remarquables : formes linéaires, projecteurs 6. Applications linéaires

Démonstration : Soit x ∈ E on peut écrire x = p(x)+x−p(x). Il est clair que p(x) ∈ Im(p) et x−p(x) ∈ Ker(p)
car p(x − p(x)) = p(x) − p2 (x) = 0. On en déduit que Im(p) + Ker(p) = E. Soit x ∈ Ker(p) ∩ Im(p), on a
x = p(y) et p(x) = 0 ou encore p(p(y)) = p(y) = 0 = x. On en déduit que Im(p) et Ker(p) sont supplémentaires
dans E. De plus, si x ∈ Im(p), x = p(y) et p(x) = p2 (y) = p(y) = x. Donc p|Im(p) = IdIm(p) .

Exemples dans R3
– Projection p sur une droite D de vecteur directeur f 1 : dim(Im(T )) = 1. Il existe alors deux vecteurs f 2 , f 3
linéairement indépendants de Ker(p) tel que B ′ = (f 1 , f 2 , f 3 ) soit une base de R3 . De plus
 
1 0 0
MB′ (p) = 0 0 0 .
0 0 0

Exemple 6.30 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par  
1 −1 1
1
MB (p) = −1 1 −1 .
2
0 0 0
En effet, MB (p) = PB,B′ MB′ (p)PB′ ,B avec
   
1 0 1 1 −1 1
−1 1
PB,B′ = −1 1 0  et PB′ ,B = (PB,B′ ) = 1 1 1 .
0 1 −1 2 1 1 −1

– Projection p sur un plan P parallèlement à une droite D. On note (f 1 , f 2 ) une base de P et f 3 un vecteur
directeur de D. La famille B ′ = (f 1 , f 2 , f 3 ) est alors une base de R3 et
 
1 0 0
MB′ (p) = 0 1 0 .
0 0 0

Exemple 6.31 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par  
1 −1 1
1
MB (p) = 0 2 0 .
2 1 1 1

6.3.4 Symétrie
Définition 6.32 Soit E un K-espace vectoriel. On dit que S ∈ L(E) est une symétrie si S ◦ S = Id.

Exemples dans R3
– Symétrie S par rapport à un plan P parallèlement à une droite D. On note (f 1 , f 2 ) une base de P et f 3 un
vecteur directeur de D. La famille B ′ = (f 1 , f 2 , f 3 ) est alors une base de R3 et
 
1 0 0
MB′ (S) = 0 1 0  .
0 0 −1

Exemple 6.33 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par  
0 −1 1
MB (S) = 0 1 0 .
1 1 0
– On remarquera que −S est alors la symétrie par rapport à la droite D parallèlement au plan P.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 100 Algèbre linéaire, Maths générales II
6.3. Applications linéaires remarquables : formes linéaires, projecteurs 6. Applications linéaires

6.3.5 Exercices
Exercice 151 (Homothétie) Soit E un K-espace vectoriel et a ∈ K donné. On considère l’homothétie de rapport
a Ha : E → E définie par Ha (x) = ax, ∀x ∈ E.
1. Vérifier que Ha ∈ L(E).
2. Montrer que Ha est un automorphisme de E si et seulement si a 6= 0. Calculer alors Ha−1 .
3. Calculer Ha ◦ Hb , avec β ∈ K.

Exercice 152 (Homothétie) Soient E un espace vectoriel et T un endomorphisme de E. Montrer que, si la famille
{x, T (x)} est liée pour tout x ∈ E alors T est une homothétie, c’est-à-dire il existe λ ∈ R tel que T (x) = λx
pour tout x ∈ E.

Exercice 153 (Endomorphisme nilpotent) Soit E un espace vectoriel et T un endomorphisme de E tel que T 2 =
0.
1. Montrer que Im(T ) ⊂ Ker(T ).
2. Montrer que IdE + T est un automorphisme de E.

Exercice 154 (CNS pour un projecteur) Soit T une application linéaire du R-espace vectoriel E sur lui-même.
Montrer que T 2 = Id si et seulement si 12 (T + IdE ) est un projecteur.

Exercice 155 (Image d’un projecteur) Soient p et q deux projecteurs de E un K-e.v. Montrer que p et q ont même
image si et seulement si p ◦ q = q et q ◦ p = p. Donner une condition nécessaire et suffisante pour que p et q aient
même direction, c.a.d. même noyau.

Exercice 156
1. Soit T une application linéaire sur E de dimension finie. Montrer que les propriétés (1) à (3) sont équivalentes.

(1) E = Im(T ) ⊕ Ker(T )

(2) Im(T ) = Im(T 2 )

(3) Ker(T ) = Ker(T 2 )

Indications : Si vous souhaitez montrer (2) ⇒ (1) vous pourrez considérer la restriction de T au sev Im(T ).
Si vous souhaitez montrer (2) ⇒ (3) il peut être utile d’utiliser la formule du rang.
2. Donner un exemple d’application linéaire T vérifiant Im T = Im T 2 et qui ne soit pas un projecteur.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 101 Algèbre linéaire, Maths générales II
6.3. Applications linéaires remarquables : formes linéaires, projecteurs 6. Applications linéaires

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 102 Algèbre linéaire, Maths générales II
Chapitre 7

Déterminants

Le déterminant d’une matrice carrée est un nombre réel ou complexe, selon que l’on considère les matrices réelles
ou complexes. Il n’est défini que pour les matrices carrées. C’est donc une application de Mn (K) dans K. On a
déjà défini le déterminant (définition 2.11) d’une matrice carrée d’ordre 2.
 
a b a b
= ad − bc.
Si A = son déterminant est det(A) =
c d c d

De plus, on a vu qu’une matrice 2 × 2 est inversible (exercice 43) si et seulement si det(A) 6= 0, et dans ce cas son
inverse est  
1 d −b
A−1 = .
det(A) −c a
En fait, le déterminant est un excellent test pour l’inversibilité des matrices ; dans le cas général d’une matrice
A ∈ Mn (K), le test du déterminant permet aussi de s’assurer de l’inversibilité de la matrice. Certains d’entre vous
ont peut-être déjà vu des formules donnant le déterminant d’une matrice carrée d’ordre n, soit par une formule de
récurrence, soit par une formule portant sur les permutations.
Nous les verrons par la suite, mais, pour plus de clarté, nous allons commencer par définir le déterminant par trois
propriétés fondamentales, desquelles découlent toutes les autres.

7.1 Propriétés du déterminant


7.1.1 Les trois propriétés fondamentales
Soit A ∈ Mn,n (K), où K = R ou C. On cherche une application qui vérifie :
(D1) Le déterminant de la matrice identité est égal à 1.
(D2) Si la matrice à est obtenue à partir de A par échange de deux lignes, alors detà = −detA.
(D3) Le déterminant est une fonction linéaire de chacune des lignes de la matrice A :
(D3a) (multiplication par un scalaire) si à est obtenue à partir de A en multipliant tous les coefficients d’une
ligne par λ ∈ R, alors det(Ã) = λdet(A).
     
ℓ1 (A) ℓ1 (A) ℓ1 (A)
 ..   ..   .. 
 .   .   . 
     
(D3b) (addition) si A =  ℓ
 k (A) 
, Ã =  ℓ̃k (A) 
  et B = ℓk (A) + ℓ̃k (A), alors det(B) = det(A) +
 
 ..   .   . 
 .   ..   .. 
ℓn (A) ℓn (A) ℓn (A)
det(Ã).
On peut facilement vérifier que ces trois propriétés sont vérifiées par le déterminant des matrices 2×2, voir exercice
1. Nous admettrons pour l’instant le résultat suivant

Théorème 7.1 (Existence et unicité) Il existe une unique application de Mn,n (K) dans K qui vérifie (D1), (D2),
(D3).

103
7.1. Propriétés du déterminant 7. Déterminants

On note souvent pour A = (ai,j ) ∈ Mn (K)




a1,1 ··· a1,n


det(A) = .. ..
. . .

an,1 ··· an,n

7.1.2 Les autres propriétés principales


De ces trois premières propriétés, on en déduit les six suivantes :
(D4) Si A a deux lignes identiques, detA = 0.
Démonstration : Si une matrice A a deux lignes ℓi0 et ℓj0 identiques, alors la matrice A′ obtenue en
échangeant ces deux lignes est égale à la matrice A. Mais d’après la proposition précédente, on a det(A) =
−det(A′ ) = −det(A). On en déduit que det(A) = 0.

(D5) Le déterminant de A ne change pas si on ajoute à une ligne de A le produit par λ d’une autre ligne de A.
On en dd́uit que si U est une matrice triangulaire obtenue à partir de A par élimination de Gauss sans
permutation, alors det(A) = det(U ).
Démonstration : On suppose que n ≥ 2. Soit λ ∈ K et A, A′ ∈ Mn (K). On suppose qu’il existe i0 et k0
tel que i0 6= j0
ℓi = ℓ′i , ∀i 6= i0 et ℓ′i0 = ℓi0 + λℓk0 ,
on veut montrer que
det(A) = det(A′ ).
La matrice A′′ dont les lignes telles que pour tout i 6= i0 , ℓ′′i = ℓi et ℓ′′i0 = ℓk0 a deux lignes identiques (les
lignes i0 et k0 et donc par la propriété (D4), on a det(A′′ ) = 0. On multiplie maintenant cette ligne ℓ′′i0 par
λ, la matrice obtenue A′′′ est toujours de déterminant nul par la propriété (D3a). On utilise maintenant la
propriété (D3b) pour les matrices A, A′ et A′′′ et on obtient que det(A) = det(A′ ) + det(A′′′ ) = det(A′ ).

(D6) Si la matrice A a une ligne nulle, alors detA = 0.


Démonstration : Ceci découle de la propriété (D3a) en prenant λ = 0.
Qn
(D7) Si U est une matrice triangulaire, alors detU = i=1 di , où les di sont les termes diagonaux.
Démonstration : A partir d’une matrice triangulaire, on se ramène à une matrice diagonale par élimination.
La propriété (D7) découle donc de (D5), (D3a) et (D1).

(D8) det(A) 6= 0 ssi la matrice A est inversible (régulière).


det(A) = 0 ssi la matrice A est non inversible (singulière).
Démonstration : Par la propriété (D5), l’algorithme de Gauss appliqué à A ne change pas le déterminant.
Par la propriété (D7), le déterminant est donc le produit des termes diagonaux de la matrice triangulaire
obtenue : il est donc égal au produit des pivots de Gauss si la matrice est inversible, et il est nul sinon (car
dans ce cas il y au moins une ligne nulle dans la matrice triangulaire).

(D9) Si A et B sont deux matrices carrées d’ordre n, alors det(AB) = det(A)det(B). En particulier, si A est
1
inversible, det(A−1 ) = det(A) .
Démonstration : Dans le cas n = 2, on peut le vérifier à la main. Dans le cas général, c’est un peu
plus compliqué... une démonstration est proposée plus loin (théorème 7.6). On peut aussi s’en tirer plus
facilement en utilisant l’unicité de l’application déterminant définie par (D1)–(D2)–(D3) (qu’on n’a pas
encore démontrée, mais qui ne dépend que des propriétés (D1)–(D2)–(D3), et pas des suivantes). En effet,
supposons det(B) 6= 0 (le cas det(B) = 0 est immédiat car dans ce cas B et AB sont non inversibles et
leurs déterminants sont tous les deux égaux à 0) . On peut alors définir δ(A) = det(AB)
det(B) . On vérifie ensuite
que l’application δ satisfait bien les propriétés (D1)–(D2)–(D3) (exercice. . . ), et du coup par unicité de cette
application, δ(A) = det(A), ce qui prouve le résultat.
On déduit par la formule pour le produit que det(AA−1 ) = det(A)det(A−1 ), d’où le résultat.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 104 Algèbre linéaire, Maths générales II
7.1. Propriétés du déterminant 7. Déterminants

(D10) det(A) = det(At ). Si A est non inversible, alors At ne l’est pas non plus, et donc les deux déterminants
sont nuls. Sinon, le théorème de décomposition LU entraı̂ne qu’il existe une matrice de permutation P , une
matrice triangulaire L avec que des uns sur la diagonale et une matrice triangulaire supérieure U telles que :
P A = LU , et donc At P t = U t Lt . On a donc det(P )det(A) = det(L)det(U ), et det(At )det(P t ) =
det(Lt )det(U t ). Les matrices P et P t sont des matrices de permutation, obtenues à partir de l’identité avec
le même nombre d’échanges de lignes. Donc leur déterminant sont égaux (et égaux à 1 ou -1). Les matrices
L et Lt sont des matrices triangulaires inférieures dont tous les éléments diagonaux sont égaux à 1. Leurs
déterminants sont donc égaux à 1 (propriété (D7). Il ne reste plus donc qu’à montrer que det(U t ) = det(U ).
Or ceci est encore vrai grâce à la propriété (D7).

7.1.3 Construction du déterminant dans le cas 2 × 2


Voyons sur une matrice  2 × 2 si l’on peut trouver une formule explicite pour une application satisfaisant (D1)-
a b
(D2)-(D3). Soit A = . On suppose qu’on ne connaı̂t pas la formule du déterminant d’une matrice 2 × 2 et
c d
on cherche à la retrouver par les
propriétés (D1)-(D2)-(D3).

1 0
= 1, et par (D2) on a 0 1 = −1.

Par (D1) on a detId2 =
0 1
   

1 0

Par (D3b), en décomposant a b = a 0 + 0 b , on a

a b a 0 0 b
c d c d c d .
= +

En faisant la même chose pour la deuxième ligne, on a :



a b a 0 a 0 0 b 0 b
c d c 0 0 d 0 d c 0 .
= + + +


a 0 a c a 0 1 0
Par les propriétés (D10) et (D6),
= = 0. Par les propriétés (D3a) et (D1), = ad
= ad.
c 0 0 0 0 d 0 1
On obtient donc finalement :
a b
c d = ad − bc.

7.1.4 Exercices
Exercice 157 (Propriétés fondamentales du déterminant)
1. Montrer que les propriétés (D1) (D2) (D3) sont bien vérifiées par le déterminant des matrices 2 × 2 .
 
a b
2. Soit δ l’application de M2 (R) dans R définie par δ(A) = ad + bc si A = . Montrer que δ vérifie
c d
les proprétés (D1) et (D3) mais pas (D2).

Exercice 158 (Modifications sur des matrices)


1. Soit A une matrice réelle 4 × 4 telle que detA = 12 . Calculer det(2A), det(−A), det(A2 ), det(A−1 ).
2. Même question si A est une matrice réelle 3 × 3 telle que detA = −1.

Exercice 159 (Opérations sur des matrices) Soit A = (ai,j )i,j=1,2,3 une matrice réelle 3 × 3. On note ai,j les
coefficients de A, et ℓ1 (A), ℓ2 (A), ℓ3 (A) les trois lignes de A. On note K L et M les matrices définies à partir de
A:
1. K = (ki,j )i,j=1,2,3 avec ki,j = (−1)i+j ai,j .
 
ℓ1 (A) − ℓ3 (A)
2. L = ℓ2 (A) − ℓ1 (A)
ℓ3 (A) − ℓ2 (A)
 
ℓ1 (A) + ℓ3 (A)
3. M = ℓ2 (A) + ℓ1 (A)
ℓ3 (A) + ℓ2 (A)

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 105 Algèbre linéaire, Maths générales II
7.2. Définition par des formules 7. Déterminants

Expliquer pourquoi det(K) = det(A), det(L) = 0, det(M ) = 2det(A).



1 − a 1 1

Exercice 160 (Opérations sur les lignes) Expliquer comment trouver que 1 1−a 1 = a2 (3 − a)
1 1 1 − a
en effectuant des opérations sur les lignes et les colonnes.

7.2 Définition par des formules


7.2.1 Formule des pivots
On a vu dans les propriétés ci-dessus que le déterminant d’une matrice triangulaire est le produit de ses termes
diagonaux. Une manière naturelle de calculer le déterminant d’une matrice carrée A d’ordre n est d’effectuer la
factorisation LU de A (ou l’algorithme de Gauss). On a donc P A = LU , où P est une matrice de permutation, L
une matrice triangulaire inférieure dont tous les termes diagonaux sont égaux à 1 et U est une matrice triangulaire
inférieure. On a donc par la propriété (D9) que det(P )det(A) = det(L)det(U ). Comme P est une matrice de
permutation, par la propriété (D2), on a det(P ) = ±1 selonQle nombre d’échanges de lignes par rapport à la
n
matrice Id. Par la propriété (D7), on a det(L) = 1 et detU = i=1 di , où les di sont les termes diagonaux.
On en déduit que :

Proposition 7.2 (Déterminant par la formule du pivot) Soit A une matrice inversible et detA défini par le
théorème 7.1. alors :
1. Si A est non inversible, detA = 0.
Q
2. Si A est inversible, detA = ± ni=1 di où les di sont les pivots, et le signe est le déterminant de la matrice
de permutation P telle que P A = LU .

Cette proposition est très importante. En effet, c’est de cette manière qu’est implémenté le calcul de déterminant
dans n’importe quel logiciel raisonnable. Les formules que nous allons voir par la suite, si elles ont bien sûr leur
intérêt mathématique, ne permettent pas d’aboutir à des calculs pour des déterminants de “grosses” matrices en un
temps raisonnable.

7.2.2 Formule des permutations


Dans la construction du déterminant 2 × 2, on a vu que sur les 4 déterminants qu’on a obtenus  par la propriété de

a1,1 a1,2 a1,3
multilinéarité, deux d’entre eux sont nuls car ils ont des colonnes nulles. Soit maintenant A = a2,1 a2,2 a2,3 .
a3,1 a3,2 a3,3
On se convaincra assez facilement que dans le cas 3 × 3, sur les 27 déterminants qu’on aurait à calculer si on
développait chaque ligne
       
ai,1 ai,2 ai,3 = ai,1 0 0 + 0 ai,2 0 + 0 0 ai,3 ,

il y en a beaucoup qui sont nuls car ils ont des colonnes nulles. Plus précisément, il n’en existe que 6 qui sont non
nuls, et qui correspondent d’ailleurs au nombre de permutations d’un ensemble à 3 éléments. Ceci est dû au fait
que lorqu’on développe le déterminant, pour qu’un des déterminants développés soit non nul, il faut que chaque
ligne et chaque colonne de la matrice A y soit représenté. On peut donc écrire :

a1,1 a1,2 a1,3 a1,1 0 0 a1,1 0 0 0 a1,2 0

a2,1 a2,2 a2,3 = 0 a2,2 0 + 0 0 a2,3 + a2,1 0 0

a3,1 a3,2 a3,3 0 0 a3,3 0 a3,2 0 0 0 a3,3

0 a1,2 0 0 0 a1,3 0 0 a1,3

+ 0
0 a2,3 + a2,1
0 0 + 0 a2,2 0 . (7.2.1)
a3,1 0 0 0 a3,2 0 a3,1 0 0

Et donc

det(A) = a1,1 a2,2 a3,3 − a1,1 a2,3 a3,2 − a1,2 a2,1 a3,3 + a1,2 a2,3 a3,1 + a1,3 a2,1 a3,2 − a1,3 a2,2 a3,1 . (7.2.2)

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 106 Algèbre linéaire, Maths générales II
7.2. Définition par des formules 7. Déterminants

Pour une matrice n × n, si on calcule tous les déterminants par décomposition de toutes les lignes, on en aurait n2 .
Mais on ne veut considérer que ceux qui sont non nuls. A la première ligne on a n choix possibles de coefficients.
Une fois le premier choisi, à la deuxième ligne on n’en a plus que n−1, puisqu’on ne peut pas prendre de coefficient
dans la même que le premier (sinon on se retrouvera avec une colonne nulle dans ce déterminant particulier, qui
sera donc nul). De même, pour la troisième ligne, on n’a maintenant plus que n − 2 colonnes possibles... etc... On
a donc n! déterminants non nuls. La formule du déterminant par permutations est donnée par :
X
det(A) = ε(α, β, . . . , ω) a1,α a2,β . . . aω,n ,
(α,β,...,ω)
permutation de
(1,2,...,n)

où ε(α, β, . . . , ω) est le signe de la permutation, c.à.d. 1 si la permutation est paire (nombre pair déchanges par
rapport à l’identité) et -1 si la permutation est impaire (nombre impair déchanges par rapport à l’identité).

7.2.3 Formule des cofacteurs


Reprenons le calcul du déterminant 3 × 3 (formule (7.2.2)). Si on met les coefficients de la première ligne en
facteur, on obtient :

det(A) = a1,1 (a2,2 a3,3 − a2,3 a3,2 ) + a1,2 (−a2,1 a3,3 + a2,3 a3,1 ) + a1,3 (a2,1 a3,2 − a2,2 a3,1 ) (7.2.3)
= a1,1 det(M1,1 ) + +a1,2 (−det(M1,2 )) + a1,3 det(M1,3 ), (7.2.4)

avec      
a a2,3 a a2,3 a a2,2
M1,1 = 2,2 , M1,2 = 2,1 et M1,3 = 2,1 .
a3,2 a3,3 a3,1 a3,3 a3,1 a3,2
La matrice M1,1 (resp. M1,2 ,M1,3 ) est donc une matrice 2 × 2 obtenue à partir de A en supprimant la ligne 1 et la
colonne 1 (resp. 2, 3). On écrit encore cette formule :

det(A) = a1,1 c1,1 + a1,2 c1,2 + a1,3 c1,3 , (7.2.5)

où ci,j , appelé cofacteur de ai,j est égal à (−1)i+j det(Mi,j ).


Si on reprend le cas des matrices 2 × 2 étudié au paragraphe précédent, on a la formule : det(A) = ad − bc =
a(d) + b(−c). le terme d est le cofacteur de a et le terme −c le cofacteur de b.
On peut définir de manière plus générale le déterminant d’une matrice n × n par la formule des cofacteurs :
Proposition 7.3 (Formule des cofacteurs) Soit A = (ai,j ) ∈ Mn (K), on appelle déterminant de la matrice A
un élément de K, noté det(A) que l’on définit par récurrence de la façon suivante :
– Si n = 1 et A = (a), alors det(A) = a.
– Si n ≥ 2, alors
det(A) = a1,1 c1,1 + a2,1 c2,1 + · · · + an,1 cn,1 ,
où ci,j est le cofacteur associé au coefficient ai,j , défini par : ci,j = (−1)i+j ∆i,j = (−1)i+j det(Mi,j ) et
Mi,j ∈ Mn−1 (K) est la matrice obtenue à partir de la matrice A en supprimant la ième ligne et la j ème
colonne.
Ce déterminant satisfait les propriétés (D1)-(D2)-(D3).
Démonstration : Montrons que cette construction du déterminant vérifie bien les propriétés (D1)-(D2)-(D3).
(D1) Pour n = 1 on a bien det(Id) = 1. On en déduit que det(Idn ) = 1 par récurrence sur n grâce à la formule
des cofacteurs.
(D2) On montre le résultat par récurrence sur la dimension de la matrice. Soit A, A′ ∈ Mn (K). On suppose que
A′ est obtenue à partir de A par un échange de lignes. Plus précisément, on note ℓi , ℓ′i les lignes respectives
de ces matrices, et on suppose qu’il existe i0 et j0 tel que i0 6= j0

ℓi = ℓ′i , ∀i 6= i0 , j0 et ℓi0 = ℓ′j0 , ℓj0 = ℓ′i0 ,

On veut montrer que det(A) = −det(A′ ). On note ci,j les cofacteurs de la matrice A et c′i,j les cofacteurs
de la matrice A′ . Par définition, on a :

det(A′ ) = a1,1 c′1,1 + a2,1 c′2,1 + · · · + aj0 ,1 ci0 ,1 + · · · + ai0 ,1 cj0 ,1 + · · · + an,1 cn,1 .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 107 Algèbre linéaire, Maths générales II
7.2. Définition par des formules 7. Déterminants

Par hypothèse de récurrence, pour tout j 6= i0 , j0 , on a c′j,1 = −cj,1 . Par ailleurs, c′i0 ,1 = (−1)i0 +1 det(Mi′0 ,1 )
où Mi′0 ,1 est la matrice extraite de A′ lorsqu’on enlève la ligne i0 et la colonne 1. Mais les lignes de A′
sont égales à celles de A sauf les lignes i0 et j0 qui sont échangées. Donc Mi′0 ,1 est aussi la matrice ob-
tenue à partir de A lorsqu’ on enlève la première colonne et la i0 ème ligne et qu’on remplace la ligne
ℓj0 par la ligne ℓi0 . Pour ramener cette ligne ℓi0 à sa position il faut alors faire j0 − i0 + 1 échanges
de lignes. Par hypothèse de récurrence, on a donc det(Mi′0 ,1 ) = (−1)j0 −i0 +1 det(Mj0 ,1 ) De même on a
det(Mj′0 ,1 ) = (−1)i0 −j0 +1 det(Mi0 ,1 ). On en déduit c′i0 ,1 = −cj0 ,1 et c′j0 ,1 = −ci0 ,1 . On en déduit le
résultat.
(D3a) Soit λ ∈ K. On veut montrer que i on multiplie par λ une ligne d’une matrice de Mn (K) alors son
déterminant est multiplié par λ.
On montre le résultat par récurence sur la taille de la matrice. Pour n = 2 le résultat est immédiat. On
suppose le résultat vrai pour toute matrice de taille n − 1. Soit A une matrice de taille n et Aλ = Di (λ)A.
On utilise la définition du déterminant pour calculer det(Di (λ)A). On a

det(Di (λ)A) = a1,1 ∆λ1,1 − a2,1 ∆λ2,1 + · · · + (−1)i ai−1,1 ∆λi−1,1


+ (−1)i+1 λai,1 ∆λi,1 + (−1)i+2 ai+1,1 ∆λi+1,1 + · · · + (−1)n+1 an,1 ∆λn,1 .

Remarquons que ∆λi,1 = ∆i,1 et que ∆λj,1 = λ∆j,1 si j 6= i en utilisant l’hypothèse de réccurence. On en
déduit que
det(Di (λ)A) = λdet(A).
(D3b) On considère trois matrices A, A′ , A′′ ∈ Mn (K). On note ℓi , ℓ′i , ℓ′′i les lignes respectives de ces matrices.
On suppose qu’il existe i0 tel que

ℓi = ℓ′i = ℓ′′i , ∀i 6= i0 et ℓi0 = ℓ′i0 + ℓ′′i0 ,

on veut montrer que


det(A) = det(A′ ) + det(A′′ ).
On raisonne là encore par récurence sur la taille de la matrice. Le résultat est vrai pour n = 2. On a

det(A) = a1,1 ∆A A
1,1 − a2,1 ∆2,1 + · · · + (−1)
i0 +1
ai0 ,1 ∆A
i0 ,1 + · · · + (−1)
n+1
an,1 ∆A
n,1

′ ′′
Or ai0 ,1 = a′i0 ,1 + a′′i0 ,1 , ∆A A A
i0 ,1 = ∆i0 ,1 = ∆i0 ,1 . De plus si i 6= i0 , en utilisant la récurrence on a

′ ′′
∆A A A
i,1 = ∆i,1 + ∆i,1 .

On en déduit immédiatement que

det(A) = det(A′ ) + det(A′′ ).

Démontrons maintenant quelques autres des propriétés directement par la formule des cofacteurs :

Proposition 7.4 (Propriété (D7)) Si A ∈ Mn (K) est une matrice triangulaire supérieure ou inférieure, alors le
déterminant de A est égal au produit des coefficients diagonaux de la matrice.

Démonstration : On montre le résultat par récurrence sur la taille de la matrice. Lorsque n = 2 le résultat est
immédiat. Supposons le résultat vrai pour toute matrice triangulaire de taille n − 1.
Si A est une matrice triangulaire supérieure de taille n. Comme ai,1 = 0 pour tout i ≥ 2 on a det(A) = a1,1 ∆1,1
avec ∆1,1 déterminant d’une matrice triangulaire supérieure de taille n − 1 dont les coefficients diagonaux sont les
coefficients diagonaux de A, ai,i pour i ≥ 2. D’où le résultat.
Si la matrice A est triangulaireQinférieure, la matrice A1,1 est une matrice triangulaire inférieure, l’hypothèse de
n
récurrence assure que ∆1,1 = i=2 ai,i . Si i > 1, alors la matrice Ai,1 a une ligne identiquement nulle, par suite
son déterminant ∆i,1 est nul (proppriété (D6)). Le résultat suit immédiatement.

Corollaire 7.5 Le déterminant de la matrice Di (a) est égal à a et si i 6= j, le déterminant de Ti,j (λ) est égal à 1.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 108 Algèbre linéaire, Maths générales II
7.2. Définition par des formules 7. Déterminants

Théorème 7.6 (Propriété (D9)) Si A et B sont deux matrices de Mn (K) alors

det(AB) = det(A)det(B).
Démonstration :
– Première étape. Notons que ce résultat est démontré si A est une matrice de dilatation (propriété (D3a)) ou si
A est une matrice de transvection (propriété (D5)). Par conséquent le résultat est également démontré si A est
un produit de matrices de dilatation ou de transvection.
– Deuxième étape. Notons que si A est une matrice inversible alors A est un produit de matrices élémentaires
(Corollaire 4.30). Donc si A est inversible det(AB) = det(A)det(B).
– Troisième étape. Supposons maintenant que la matrice A soit non inversible. Il existe une matrice E inversible
telle que EA soit échelonnée, en particulier triangulaire supérieure. Or EA n’est pas inversible. Donc la dernière
ligne de la matrice EA est une ligne de zéros. On déduit de la propriété (D6) que det(EA) = 0 et d’après l’étape
précédente, comme E est inversible, det(A) = det(E −1 EA) = det(E −1 )det(A) = 0. Remarquons alors que
la dernière ligne de la matrice EAB est nulle de sorte que (propriété (D6)) det(EAB) = 0. A nouveau comme
E est inversible on sait que det(E −1 EAB) = det(E −1 )det(EAB), on en déduit que det(AB) = 0 et donc
que l’on a bien det(AB) = det(A)det(B) = 0.

Théorème 7.7 Si A est une matrice de Mn (K) inversible alors


1
det(A−1 ) = .
det(A)
Démonstration : On utilise le résultat précédent. On a
det(AA−1 ) = det(A)det(A−1 ) = det(Id) = 1.
Par suite
1
det(A−1 ) = .
det(A)

Théorème 7.8 (Propriété (D10), transposée) Si A est une matrice de Mn (K) alors det(At ) = det(A).
Démonstration : On remarque que le résultat est vrai pour les matrices élémentaires et pour les matrices triangu-
laires. Pour une matrice A quelconque on utilise une forme échelonnée A′ = EA. On a det(A′ ) = det((A′ )t ) car
A′ est triangulaire supérieure et det(E −1 ) = det((E −1 )t ) car E est un produit de matrices élémentaires. On en
déduit que
det(At ) = det((A′ )t (E −1 )t ) = det((A′ )t )det((E −1 )t ) = det(A′ )det(E −1 ) = det(E −1 A′ ) = det(A).

Corollaire 7.9 Soit A = (ai,j ) ∈ Mn (K), on a pour tout j = 1, . . . , n



det(A) = (−1)j+1 a1,j ∆1,j − a2,j ∆2,j + · · · + (−1)n+1 an,j ∆n,j . (7.2.6)
et pour tout i = 1, . . . , n

det(A) = (−1)i+1 ai,1 ∆i,1 − ai,2 ∆i,2 + · · · + (−1)n+1 ai,n ∆i,n . (7.2.7)
Autrement dit, on peut développer le déterminant par rapport à n’importe quelle ligne ou colonne.
Démonstration : L’équation 7.2.6 découle de la propriété (D2), tandis que l’équation 7.2.7 est une conséquence
de la propriété (D10).

Remarque 7.10 Soit A ∈ Mn (K). Le déterminant (−1)i+j ∆i,j est appelé cofacteur de ai,j . La comatrice de
A, notée Co (A) est la matrice de Mn (K) dont le coefficient i, j est le cofacteur (−1)i+j ∆i,j .
On a en fait pour tout i = 1, . . . , n
det(A) = (−1)i+1 ∆i,1 ai,1 + (−1)i+2 ∆i,2 ai,2 + · · · + (−1)i+n ∆i,n ai,n ,
et pour tout j = 1, . . . , n
det(A) = (−1)j+1 ∆1,j a1,j + (−1)j+2 ∆2,j a2,j + · · · + (−1)j+n ∆n,j an,j .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 109 Algèbre linéaire, Maths générales II
7.3. Applications du déterminant 7. Déterminants

7.3 Applications du déterminant


7.3.1 Résolution de systèmes linéaires et formules de Cramer
Les formules de Cramer permettent de calculer le déterminant sans procéder à l’élimination. Prenons d’abord un
exemple en dimension 3. On cherche à résoudre le système Ax = b où A est une matrice 3 × 3 et b = (b1 , b2 , b3 ).
Supposons que det A 6= 0. La matrice est donc inversible. Li’dée pour trouver les formules de Cramer est de se
souvenir que Ax = b veut dire que b est le produit de la matrice A par le vecteur x. . . . On peut donc écrire :
       
x1 0 0 a11 a12 a13 x1 0 0 b1 a12 a13
 A  x2 1 0 = a21 a22 a23  x2 1 0 = b2 a22 a23  = B1
x3 0 1 a31 a32 a33 x3 0 1 b3 a32 a33

Par la règle du produit des déterminants, on obtient alors :

det(B1 )
det(A)x1 = det(B1 ) soit encore x1 =
det(A)

De même, pour trouver x2 , on met le vecteur x dans la seconde colonne de la matrice identité ; en notant c1 (A), c2 (A)
et c3 (A) les colonnes de A, on obtient :
 
  1 x1 0  
c1 (A) c2 (A) c3 (A) 0 x2 0 = c1 (A) b c3 (A) = B2
0 x3 1

On en déduit que
det(B2 )
det(A)x2 = det(B2 ) soit encore x2 =
det(A)
Et de même pour x3 . Dans le cas général n ≥ 2, A ∈ Mn (K) inversible et b ∈ Mn,1 (K), la solution x = (xi ) ∈

Mn,1 (K) du système linéaire Ax = b est donnée par :

det(Bi )
xi =
det(A)

a1,1 · · · a1,i−1 b1 a1,i+1 · · · a1,n

1 .
.. .. .. ..
= .. . . . .
det(A)
an,1 · · · an,i−1 bn an,i+1 · · · an,n
1 
= (−1)i+1 ∆1,i b1 + (−1)i+2 ∆2,i b2 + · · · + (−1)i+n ∆n,i bn
det(A)

C’est ce que l’on appelle les formules de Cramer.


En fait, on n’utilise ces formules que pour n = 2 ou n = 3. Pour n ≥ 4, il est plus rapide d’utiliser l’algorithme
du pivot de Gauss.

7.3.2 Inversibilité
Proposition 7.11 Soit n ≥ 2 et A ∈ Mn (K). Alors on a

(Co (A))t A = A(Co (A))t = det(A)Idn .

Autrement dit, la matrice A ∈ Mn (K) est inversible si et seulement si det(A) 6= 0 et alors on a


1
A−1 = (Co (A))t .
det(A)

Démonstration : On a

((Co (A))t A)i,j = (−1)i+1 ∆1,i a1,j + (−1)i+2 ∆2,i a2,j + · · · + (−1)i+n ∆n,i an,j

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 110 Algèbre linéaire, Maths générales II
7.3. Applications du déterminant 7. Déterminants

En utilisant la formule (7.2.6), on déduit que ((Co (A))t A)i,i = det(A). De plus si i 6= j, on reconnaı̂t dans
((Co (A))t A)i,j le déterminant de la matrice obtenue en remplaçant dans A a1,i , . . . , an,i par a1,j , . . . , an,j , au-
trement dit la matrice obtenue à partir de A en remplaçant la colonne i par la colonne j. La matrice ainsi obtenue a
deux colonnes identiques, son déterminant est donc nul. Par conséquent si i 6= j ((Co (A))t A)i,j = 0. On a donc
bien montré que (Co (A))t A = A(Co (A))t = det(A)Idn .

Proposition 7.12 Soient E et F deux K-espaces vectoriels de dimension n. On se donne B = (e1 , . . . , en ) une
base de E et B ′ = (ε1 , . . . , εn ) une base de F . Soit T ∈ L(E, F ). Alors T est bijective de E dans F si et seulement
si
det(MB,B′ (f )) 6= 0.
On rappelle que dans ce cas, on dit que T est un isomorphisme de E sur F et que E et F sont isomorphes.

Démonstration : On a vu dans le Corollaire 6.16 que T est un isomorphisme si et seulement si la matrice MB,B′ (f )
est inversible. On utilise ensuite la Proposition 7.11.

7.3.3 Calculs d’aires et de volumes


L’aire d’un parallélogramme
dont les deux côtés sont définis par les vecteurs (x1 , y1 ) et (x2 , y2 ) est égale au
x1 x2
déterminant .
y1 y2
Le volume d’un parallélépipède
dont les trois côtés sont définis par les vecteurs (x1 , y1 , z1 ), (x2 , y2 , z2 ) et (x3 , y3 , z3 )
x1 x2 x3

est égale au déterminant y1 y2 y3 .
z1 z2 z3
SUITE A ECRIRE

7.3.4 Le produit vectoriel


Le produit vectoriel est un outil tri-dimensionnel qui est apparenté au déterminant. Le produit vectoriel de deux
vecteurs u et v, qu’on note u ∧ v, est un vecteur (contrairement au produit scalaire u · v qui est lui, comme son
nom l’indique, un scalaire.

Définition 7.13 (Produit vectoriel) Soient u = (u1 , u2 , u3 ) et v = (v1 , v2 , v3 ), Alors on pose u ∧ v = (u2 v3 −
u3 v2 )i + (u3 v1 − u1 v3 )j + (u1 v2 − u2 v1 )k, ce qu’on écrit aussi (de manière assez illégale il est vrai) :

i j k

u ∧ v = u1 u2 u3 .
v1 v2 v3

Le vecteur u ∧ v est orthogonal aux deux vecteurs u et v.

La formule avec le déterminant est assez illégale au sens où le déterminant a été défini pour des nombres, pas pour
des vecteurs. Mais elle représente bien la première formule, elle est très facile à retenir et permet également de
retenir facilement les propriétés suivantes :
(PV1) v × u = −u × v puisqu’on échange les deux lignes dans le déterminant.
(PV2) Le produit vectoriel u ∧ v est orthogonal aux deux vecteurs u et v/ En effet,

u · (u ∧ v) = u1 (u2 v3 − u3 v2 ) + u2 (u3 v1 − u1 v3 ) + u3 (u1 v2 − u2 v1 ) = 0.

Le déterminant a maintenant comme lignes u, u et v et donc il est nul.


(PV3) Le produit vectoriel u ∧ u est nul (deux lignes identiques dans le déterminant).
Si u et v sont parallèles, leur produit vectoriel est nul. Si u et v sont orthogonaux, c’est leur produit scalaire qui
est nul. De fait, on a :
ku ∧ vk = kukkvk| sin θ| et |u · v| = kukkvk| cos θ|.
Les physiciens préfèrent cette dernière définition, qui a l’avantage de ne pas faire intervenir les composantes.
Supposons que u = (u1 , u2 , u3 ) donne la position d’une masse et F = (F1 , F2 , F3 ) la force qui s’exerce sur

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 111 Algèbre linéaire, Maths générales II
7.3. Applications du déterminant 7. Déterminants

celle-ci. Si F est parallèle à u, alors u ∧ f = 0 : ça ne tourne pas. Le vecteur u ∧ F est le couple, c.à.d. la force
qui fait tourner. Sa direction est celle de l’axe de rotation, perpendiculaire à u et F . Sa longueur kukkF k sin θ est
le moment du couple (qui produit la rotation).
Attention, le produit vectoriel se note u × v en anglais (cross product).

7.3.5 Produit mixte


Comme u ∧ v est un vecteur, on peut prendre son produit scalaire avec un autre vecteur w. Ceci donne exactement
le déterminant des trois vecteurs, et c’est le volume d’un parallépipède formé par les trois vecteurs.

w1 w2 w3 u1 u2 u3

(u ∧ v) · w = u1 u2 u3 = v1 v2 v3 = w · (u ∧ v)
v1 v2 v3 w1 w2 w3

Ce déterminant est nul lorsque les vecteurs u v et w sont coplanaires. On peut vérifier ce fait de trois manières
différentes (au moins) :
1. Le vecteur u ∧ v est orthogonal à ce plan donc son produit scalaire avec w est nul.
2. Trois vecteurs dans un même plan sont forcément liés, donc la matrice est non inversible et son déterminant
est nul.
3. Le volume est nul puisque le parallélépipède est écrasé sur un plan.

7.3.6 Le polynôme caratéristique d’une matrice : calcul des valeurs propres


Proposition 7.14 On définit pour une matrice A ∈ Mn (R),

PA (X) = det(A − XIdn ).

C’est un polynôme de degré n appelé polynôme caractéristique.

Démonstration :
Il suffit de remarquer par réccurence que le déterminant d’une matrice de taille n est une somme de produits de n
termes distincts de la matrice. Par conséquent c’est bien un polynôme en X. On montre alors par réccurence que
son terme dominant est (−1)n X n .
On verra plus loin (next year) que les valeurs propres d’une matrice A sont les racines (dans C) du polynôme ca-
ractéristique. Les valeurs propres et vecteurs propres sont des notions très importantes pour comprendre la structure
d’une matrice et de l’application linéaire qui lui est associée.

7.3.7 Exercices
Exercice 161 La famille (2, 1, 0), (1, 3, 1), (5, 2, 1) est-elle libre ?

Exercice
 162
 (Matrices  Déterminer les valeurs du paramt̀re t ∈ R pour lesquelles matrices Mt =
 inversibles)
1 t 1 1 1 t
 t 1 1 et Nt = 1 t 1 sont inversibles.
1 t 1 t 1 1

1 1 1

Exercice 163 (Condition d’inversibilité) Calculer x y z et déterminer la condition d’inversibilité de la
x2 y2 z 2
matrice.

Exercice 164 (Inverses de matrice par le déterminant) En utilisant la comatrice, inverser les matrices
   
1 −1 0 0 1 0 1 0
2 1 0 0 0 1 0 1
0 0 1 2 et 1 0 −1 0 
   

0 0 2 1 0 1 0 −1

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 112 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants

ainsi que leurs produits.

Exercice 165 Soit E un espace vectoriel réel de dimension finie n et ϕ ∈ L(E) telle que ϕ2 = −idE .
1. Donner des exemples de telles applications dans le cas n = 2 ou 4.
2. Montrer que de telles applications existent si et seulement si n est pair.
[ On pourra utiliser le déterminant de φ.]

Exercice 166 (Applications du déterminant aux systèmes linéaires) Combien de solutions a le système linéaire
suivant :

 3x +y +z = 1
2x −y +z = 0

−x +y −2z = 2
Et ce système ?

 3x +y +z = 0
2x −y +z = 0

−x +y −2z = 0
Ou bien encore ce système ?

 +y +z = 0
2x +4z = 0

−x +y −z = 0
Et celui-là ?

 +y +z = 1
2x +4z = 1

−x +y −z = −1
Et pour finir ce système ?

 +y +z = 2
2x +4z = 2

−x +y −z = 1

7.4 Quelques calculs de déterminants


7.4.1 Matrice de Froebenius
Proposition 7.15 (Déterminant d’une matrice de Frobenius) Le polynôme

P (X) = (−1)n+1 X n+1 − an X n − · · · − a1 − a0

est le polynôme caractéristique de la matrice de Frobenius de taille n + 1


 
0 0 ··· ··· ··· 0 a0
 .. .. 
1 0 . . a2 
 
 . .. . .. .
.. .. 
0 1 . 
 
A =  ... . . . . . . . . . . . . ... ..
 
 . 

. . . . . 
 .. .. .. .. 0 .. 
 
. 
 .. 0 1 0 a n−1

0 ··· ··· ··· 0 1 an

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 113 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants

Démonstration : On doit calculer



−X 0 ··· ··· ··· 0 a0


.. ..
1 −X . . a1

.. .. .. ..
0
1 . . . .
∆ = ... .. .. .. .. .. ..

. . . . . .
. .. .. .. ..
.. . . . 0 .

.
.. 0 1 −X an−1

0 ··· ··· ··· 0 1 a − X
n

Pour cela on va ajouter à la première ligne une combinaison linéaire des précédentes :

L1 → L1 + XL2 + X 2 L3 + · · · + X n−1 Ln−1 + X n Ln

On obtient

0 0 ··· ··· ··· 0 a0 + a1 X + · · · + an−1 X n−1 + (an − X)X n

.. ..
1 −X . . a1

.. .. .. ..
0
1 . . . .

.. . . .. .. .. .. ..
∆ = . . . . . . .

. .. .. .. ..
.. . . . 0 .

.
.. 0 1 −X an−1

0 · · · ··· ··· 0 1 a −X
n

En développant le déterminant obtenu par rapport à la première ligne, on a



1
−X 0 ··· ··· 0

.. .. ..

0 1 . . .


.. .. .. .. .. ..

n+2 n−1 n .
. . . . .
∆ = (−1) (a0 + a1 X + · · · + an−1 X + (an − X)X ) .
.. .. .. ..
. . . 0
. ..
.. . 1 −X

0 ··· ··· ··· 0 1

Par suite on a bien ∆ = P (X).

7.4.2 Déterminant de Van der Monde


On s’intéresse pour quatre réels distincts x1 , x2 , x3 , x4 au déterminant suivant :

1 1 1 1

x x2 x3 x4
∆(x1 , x2 , x3 , x4 ) = 1 2 2 2 2
(x1 ) (x 2 ) (x3 ) (x 4)
3 3 3
(x1 ) (x2 ) (x3 ) (x4 ) 3

En developpant ce déterminant par rapport à la première colonne on remarque que ∆(x1 , x2 , x3 , x4 ) est un po-
lynôme de degré 3 en la variable x1 . De plus si x1 = x2 ou x1 = x3 ou x1 = x4 , c’est le déterminant d’une
matrice qui a deux colonnes identiques et par conséquent ∆(xi , x2 , x3 , x4 ) = 0 pour i = 2, 3, 4. On en déduit que
x2 , x3 , x4 sont les racines de ce polynôme de degré 3 et qu’il existe une fonction δ(x2 , x3 , x4 ) telle que

∆(x1 , x2 , x3 , x4 ) = δ(x2 , x3 , x4 )(x1 − x2 )(x1 − x3 )(x1 − x4 ).

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 114 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants

Si on développe par rapport à la première colonne ce déterminant on vérifie que



1 1 1

δ(x2 , x3 , x4 ) = − x2 x3 x4
(x2 )2 (x3 )2 (x4 )2 .
On recommence le même raisonnement

1 1
δ(x2 , x3 , x4 ) = −
(x − x3 )(x2 − x4 ) = (x3 − x4 )(x2 − x3 )(x2 − x4 ).
x3 x4 2
Autrement dit

1 1 1 1

x x2 x3 x4 Y
∆(x1 , x2 , x3 , x4 ) = 1 2 = (xi − xj ).
(x1 )3 (x2 )2 (x3 )2 (x4 )2
1≤i≤4j>i
(x1 ) (x2 )3 (x3 )3 (x4 )3
Ce résultat se généralise par récurrence à la dimension n.

7.4.3 Déterminant d’une matrice tridiagonale


On s’intéresse au déterminant de la matrice tridiagonale suivante
 
a b 0 0 0
 b a b 0 0
 
0 b a b 0 
 
0 0 b a b 
0 0 0 b a
On a en développant par rapport à la première colonne

a b 0 0 0
a b 0 0 b 0 0 0
b a b 0 0
5
b a b 0 b a b 0
∆a,b = 0 b a b 0 = a
− b
0 0 b a b 0 b a b 0 b a b
0 0 b a 0 0 b a
0 0 0 b a

a b 0 0
a b 0
b a b 0 2

= a − b b a b
0 b a b
0 b a
0 0 b a
= a∆4a,b − b2 ∆3a,b
De même
∆4a,b = a∆3a,b − b2 ∆2a,b
∆3a,b = a∆2a,b − b2 ∆1a,b
∆2a,b = a2 − b 2
∆1a,b = a
On en déduit que
∆3a,b = a(a2 − b2 ) − b2 a = a3 − 2b2 a
∆4a,b = a(a3 − 2b2 a) − b2 (a2 − b2 ) = a4 − 3b2 a2 + b4
∆5a,b = a(a4 − 3b2 a2 + b4 ) − b2 (a3 − 2b2 a) = a5 − 4b2 a3 + 3ab4
Le cas classique est a = −2b, on trouve alors
∆3a,b = = −4b3
∆4a,b = a(a3 − 2b2 a) − b2 (a2 − b2 ) = 5b4
∆5a,b = a(a4 − 3b2 a2 + b4 ) − b2 (a3 − 2b2 a) = −6b5

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 115 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants

7.4.4 Exercices
Exercice 167 Calculer de plusieurs façons le déterminant suivant

1 2 1 3

2 −1 0 2

−1 1 −1 1

0 1 0 2

2 0 4

Exercice 168 Sans calcul, montrer que 5 2 7 est divisible par 2 et calculer le plus rapidement possible ce
2 5 5
déterminant.

2 1 14

Exercice 169 Sans calcul, montrer que 5 5 7 est divisible par 17.
7 5 5

1 2 1 4 1 2 1 4

5 5 7 0 2 4 2 8
Exercice 170 Calculer les déterminants suivants et .
0 7 5 5 0 7 5 5

1 0 2 0 1 0 2 0

a b c

Exercice 171 Calculer c a b .
b c a

Exercice 172 Calculer les déterminants des matrices suivantes :

       
a c c b c a b c a x y z x y z t
c a b c a c c b b x y z −y x −t z 
 , , , 
c b a c b c c a  c x′ y′ z ′  −z t x −y
b c c a c b a c d x′ y′ z′ −t −z y x

     
1+a b a b a a a2 b+c+d 1 0 a a2
 b 1+a b a  a b b2
  c + d + a 0 1 b b2 
 , , 
 a b 1+a b   a c c2 d + a + b 1 0 c c2 
b a b 1+a a d d2 a+b+c 0 1 d d2
Exercice 173 (Déterminants de Vandermonde) On note a1 , · · · , an des réels. Calculer les déterminants n × n
suivants.
1
1 ··· 1 a1 a2 a3 · · · an

a1
a 2 · ·· an a2 a2 a3 · · · an

a21 a 2
· · · a2n , D = a3 a3 a3 · · · an
D1 = 2 2
.. .. .. ..
. . . .
n−1
a
1 a2n−1 · · · n−1
an an an an · · · an
Exercice 174 Montrer que

cos a cos b cos c
= sin (c − b) + sin (b − a) + sin (a − c) = 4 sin c − b sin b − a sin a − c

sin a sin b sin c

1 1 1

2 2 2

Exercice 175 Soit (a, b) ∈ R2 avec a 6= b. Pour n ∈ N, n ≥ 2, on note Bn le déterminant suivant :



a + b a 0

.. ..
b . .
Bn =
. .
.. ..

a
0 b a + b

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 116 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants

Montrer que ∀n ∈ N, n ≥ 4, Bn = (a + b)Bn−1 − abBn−2 Montrer que

an+1 − bn+1
∀n ∈ N, n ≥ 2, Bn = .
a−b
Exercice 176 Calculer le déterminant de la matrice tridiagonale suivante
 
2 −1 0 0 0
−1 2 −1 0 0
 
 0 −1 2 −1 0 
 
0 0 −1 2 −1
0 0 0 −1 2

Applications du déterminant

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 117 Algèbre linéaire, Maths générales II
7.4. Quelques calculs de déterminants 7. Déterminants

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 118 Algèbre linéaire, Maths générales II
Appendices

119
Annexe A

Corrigés d’exercices

A.1 Chapitre 1
Exercice 24 (Plans et droites de R3 )
(Corrigé par Maximilien Rigaut)
Soient P et P ′ deux plans d’équations respectives x − y − z − 2 = 0 et x − 2y − 3z − 1.
1) Un vecteur appartient au plan (vectoriel associé à) P à condition que ses composantes soient solution de
l’équation du plan x − y − z = 0.
On a donc ~a et ~b deux vecteurs du plan P non colinéaires, d’équation :
   
1 −1
~a =  2  et ~b =  2 
−1 −3
   
1 −1
De même on a ~c =  12  et d~ =  1 
0 −1
2. Le vecteur ~u = 41 ~a ∧ ~b est normal au plan formé par les vecteur ~a et ~b : P (car ~a et ~b ne sont pas colinéaires).
     
1 −1 −1
1
~u =  2  ∧  2  =  1 
4 −1 −3 1

Le vecteur ~v = 2~c ∧ d~ est normal au plan formé par ces derniers soit P ′ :
     
1 −1 −1
~v = 2  12  ∧  1  =  2 
0 −1 3

3. Comme ~u et ~v ne sont pas colinéaires, les plans sont sécants et se coupent en une droite D1 . Soit w
~ = (x, y, z)
un vecteur directeur de la droite. Comme D1 ⊂ P on a ~u.w ~ = 0 et comme D1 ⊂ P ′ on a ~v .w~ = 0.
  
−x + y + z = 0 −x + y + z = 0 x = −z
⇔ ⇔
−x + 2y + 3z = 0 2y − y + 3z − z = 0 y = −2z
On pose z = t on a donc : 
 x = −t
y = −2t

z = t
Le vecteur directeur de D1 a pour coefficients -1, -2 et 1 :
 
−1
~ =  −2 
w
1

121
A.2. Chapitre 2 A. Corrigés d’exercices

On cherche l’équation de la droite D1 de vecteur directeur w


~ et passant par le point A = (5, 3, 0). La droite D1 a
pour équation : 
 x = −t + 5
y = −2t + 3

z = t
4. Le plan orthogonal a la droite D1 et passant par B = (1, 1, 1) a pour vecteur normal le vecteur directeur de D1
~ On a donc P ′′ d’équation −x − 2y + z + ρ = 0, où la constante ρ est déterminée par le fait que le plan P ′′
soit w.
passe par par le point B. L’équation du plan P ′′ est donc −x − 2y + z + 2 = 0.

A.2 Chapitre 2
Exercice 30 (Grosses matrices)
(Corrigé par Maximilien Rigaut)
    
1 0 −3 8 3 2 −1 4 11 13 1 3
 0 0 1 3   2 4 0 0   3 2 5 6 
  = 
 2 −5 −1 3  0 −1 2 3   −1 −12 −1 8 
0 0 1 0 1 1 1 1 0 −1 2 3
 
 1  −3 
1 1 −3 7  = −4
0   12
 22
−2 0 4 −3 0   217 −11
3 −1
   
−3 1   −5 −3 13 −18
 12 0  1 1 −3 7  12 12 −36 84 
 2 0  −2 0 4 3 =  2
   
2 −6 14 
−1 3 −7 −1 15 2

Exercice 46

   
−4 2 3 10 1 −7
B0 =  4 −2 1  , B1 = −2 3 11  ,
2 1 −4 −2 3 3
     
2 1 −7 −8 0 0 2 1 −7
1
B2 = −2 −5 11  , B2 A =  0 −8 0  ⇒ A−1 = − −2 −5 11  .
8
−2 3 −5 0 0 −8 −2 3 −5

Exercice 39 (Matrice d’adjacence d’un graphe)


(avec la participation de Maximilien Rigaut)
 
1 1 0
Soit A =  1 0 0 
1 0 1
Soient P1 , P2 et P3 les points d’un graphe dont la matrice d’adjacence est A. Alors par définition de la matrice :
– P1 est relié à lui même et à P2 ,
– P2 est relié à P1 ,
– P3 est relié à P1 et à P3 .
ce qui donne le graphe suivant :
Calculons A2 :  
2 1 0
A2 =  1 1 0 
2 1 1

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 122 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices

P1 P2 P3

Démontrons que les coefficients deP A2 représentent le nombre de chemin à deux arêtes entre i et j.
2 3
En effet soit C = A , on a Ci,j = k=1 Ai,k Ak,j . Or par définition de la matrice A, Ai,k Ak,j = 1 si et seulement
si il existe une arête entre i et k et une arête entre k et j ; donc Ai,k Ak,j = 1 si et seulement si il existe un
P3
chemin à deux arêtes entre i et j. Sinon, Ai,k Ak,j = 0. Comme Ci,j = k=1 Ai,k Ak,j , on en déduit que Ci,j est
exactement le nombre de chemin à deux arêtes entre i et k.
Calculons A3 :  
3 2 0
A3 =  2 1 0 
4 2 1
P3
Par définition, (A3 )i,j = k=1 (A2 )i,k Ak,j . Or (A2 )i,k est le nombre de chemin à deux arêtes entre i et k. Mais
Ak,j = 1 si et seulement si il existe une arête entre k et j. Donc (A2 )i,k Ak,j est le nombre de chemins à trois
P3
arêtes entre i et j passant par k. On en déduit finalement que (A3 )i,j = k=1 (A2 )i,k Ak,j est le nombre total de
chemins à trois arêtes entre i et j.

A.3 Chapitre 3
Exercice 85 (Somme de deux sous-espaces vectoriels)
1. D’abord, on a évidemment 0 ∈ F + G. Montrons que F + G est stable par combinaison linéaire. Si u et v
∈ F + G, alors on peut écrire u = uF + uG et v = v F + v G , avec uF , v F ∈ F et uG , v G ∈ G . Soient α et
β ∈ R. On a αu + βv = α(uF + uG ) + β(v F + vG ) = αuF + βv F + αuG + βv G . Or αuF + βv F ∈ F
et αuG + βv G ∈ G. Donc OK.
 
1
2. Dans E = R2 : on prend F la droite de vecteur directeur i = et G la droite de vecteur directeur
0
   
0 1
j . Le vecteur i + j = n’appartient pas à F ∪ G.
1 1

Exercice 97 (Une ligne avec que des uns)


Si la première ligne est remplie de 1, comme la matrice est totalement échelonnée, il n’y a pas de pivot dans les
autres lignes, qui sont donc toutes nulles. Le rang de la matrice, qui est égal au nombre de pivots, au nombre de
lignes non nulles ou encore au nombre de colonnes pivotales) est donc égal à 1.

Exercice 82 (Image d’une matrice et solution du sysème linéaire)


Dire qu’il existe une solution au système Ax = b, c’est équivalent à dire qu’il existe x tel que b s’écrive comme
le produit de la matrice A avec le vecteur x, et donc que b soit une combinaison linéaire des colonnes de A. Le
plus simple pour obtenir cela pour b1 et b2 est de prendre les colonnes de A égales à b1 et b2 .
On veut de plus que le système Ax = b3 n’admette pas de solution. Pour cela, il faut que b3 ne soit pas dans
l’espace C(A) (ou Im(A)) des combinaisons linéaires des colonnes de A.
Donc si b3 est une combinaison linéaire de b1 et b2 , il n’est pas possible de trouver A telle que les systèmes
linéaires Ax = b1 et Ax = b2 admettent une solution, et le système Ax = b3 n’en admette pas.
Si b3 n’est pas une combinaison linéaire de b1 et b2 , alors la matrice n × 2 dont la première colonne est égale à b1
et la seconde à b2 convient.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 123 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices

Exercice 73 (Construction de sous-espaces)


 
1 0
1. Exemple 1 : La matrice A =  0 1  convient.
0 0
2. Exemple 2 : b3 = b1 + b2 et donc il n’existe pas de matrice A telle que les systèmes linéaires Ax = b1 et
Ax = b2 admettent une solution, et le système Ax = b3 n’en admette pas.
   
1 1
 1   1 
1. F : ensemble des combinaisons lin ?aires des vecteurs 
 0 , et 1 
  

0 0
 
1
 1 
G : ensemble des multiples du vecteur 
 0 

0
2. F : ensemble des matrices diagonales
G : ensemble des matrices multiples de l’identit ?.
3. F : ensemble des fonctions y de R dans R dont la d ?riv ?e seconde est nulle
G : ensemble des fonctions constantes.

Exercice 113 (Bases et dimension de sous-espaces de matrices)


1. Toute matrice carrée 2 × 2 s’écrit de la forme
         
a b 1 0 0 1 0 0 0 0
=a +b +c +d .
c d 0 0 0 0 1 0 0 1

La famille est donc génératrice. Il est facile de voir qu’elle est libre : c’est donc une base (en fait, c’est la
base canonique sur l’ev des matrices carrées d’ordre 2, qu’on a vue en cours). Il y a 4 “vecteurs” (qui sont
en fait des matrices) de base, donc l’espace est de dimension 4.
2. Une base de l’ev des matrices carrées n × n est la base canonique (Eij )i=1,...,n,j=1,...,n dont les coefficients
sont tous égaux à 0, sauf celui de la i- ème ligne et j-ème colonne, qui est égal à 1. Or card ( (Eij ) i=1,...,n )
j=1,...,n
= n × n. Il y a donc n2 vecteurs de base, et donc la dimension de l’espace des matrices carrées n × n est n2 .
3. Commençons par le cas 2 × 2 : si la matrice est diagonale, elle s’écrit :
     
a 0 1 0 0 0
=a +d .
0 d 0 0 0 1

  
1 0 0 0
La famille consituée des matrices et est libre, et c’est donc une base de l’espace des
0 0 0 1
matrices diagonales. On en déduit que le sous-espace des matrices diagonales est de dimension 2.
Une matrice diagonale de dimension n s’écrit comme combinaisons linéaires des n matrices Eii définies à
la première question. Ces matrices sont libres, forment un base de l’espace des matrices diagonales, qui est
donc de dimension n.
4. Commençons par le cas 2 × 2 : si la matrice est symétrique, elle s’écrit :
       
a b 1 0 0 1 0 0
=a +b +d .
b d 0 0 1 0 0 1
     
1 0 0 1 0 0
La famille consituée des matrices , et est libre (vérifiez le), et c’est donc
0 0 1 0 0 1
une base de l’espace des matrices symétriques. On en déduit que le sous-espace des matrices diagonales est
de dimension 3.
Une matrice symétrique de dimension n s’écrit comme combinaisons linéaires des n matrices Eii , i =
1, . . . , n et des matrices Eij + Eij , j > i, où les Eij sont définies à la première question. Or le nombre des

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 124 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices

matrices Eij + Eij , j > i est le cardinal de l’ensemble des couples (i, j) vérifiant j > i. Comptons les :
pour i = 1, il y en a : n − 1. Pour i = 2, il y en a n − 2. Pour i = k, il y en a n − k (dessinez les matrices
pour n = 3 si vous ne comprenez pas...) Donc en tout, il y en a n − 1 + n − 2 + . . . + n − (n − 1), soit
Pn−1 Pn−1
encore i=1 (n − i) = n(n − 1) − i=1 i = n(n − 1) − n(n−1 2 = n(n−1)2 . Si on ajoute les n matrices
n(n−1) n(n+1)
diagonales, on a donc n + 2 = 2
Ces matrices sont libres, forment un base de l’espace des matrices diagonales, qui est donc de dimension n.

Exercice 114 (Espace de fonctions)


1. Ici, vous pouvez avoir un petit doute sur l’indṕendance de la famille à cause de la relation cos2 x+sin2 x = 1.
En effet, on a 4h(x) = 2f (x) − g(x) pour tout x, et donc 2f − g + 4h = 0, ce qui montre que la famille est
liée.
2. Là, il n’y a pas de relation simple entre les fonctions, on va donc essayer de montrer que c’est une famille
libre : on suppose αf (x) + βg(x) + γh(x) = 0, c.à.d. α + β sin(x) + γ sin(2x) pour tout x. En prenant
x = 0 on obtient α = 0. En prenant x = π2 on obtient β = 0 et en prenant x = π4 on obtient γ = 0. On a
donc bien une famille libre.
3. Même chose que précédemment ; on suppose αf + βg = 0, c.à.d. αx + β cos x = 0 pour tout x. En prenant
x = 0 on obtient β = 0. En prenant x = π2 on trouve α = 0.
4. On remarque que 3f (x) = 3x2 + 6x + 3 = 3(x2 + 2x) + 3 = 3g(x) + h(x) pour tout x. Ceci montre que
la famille {f, g, h} est liée et donc a fortiori la famille {f, g, h, k}.
5. cos(2x) = cos2 (x) − sin2 (x) pour tout x, donc la famille est liée.
6. La famille est liée car elle contient le vecteur nul (et donc on peut mettre n’importe quel coefficient non nul
devant celui-ci et obtenir une combinaison linéaire nulle).

Exercice 115
1. On remarque d’abord que 0 ∈ F et 0 ∈ G ; on a donc 0 ∈ F ∩ G. Il reste à montrer que F ∩ G est stable
par combinaison linéaire. Soient u et v ∈ F ∩ G et soient λ et µ ∈ R. Comme F et G sont des s.e.v, ils ont
stables par combinaison linéaire, et donc λu+µv ∈ F et λu+µv ∈ G, ce qui montre que λu+µv ∈ F ∩G,
qui est donc bien un s.e.v..
2. (a) On vérifie facilement que les familles {u, v} et {w, z} sont libres. Elles sont donc des bases des
espaces qu’elles engendrent. Donc {u, v} est une base de F et {w, z} est une base de G.
(b) Soit x ∈ F ∩ G, alors x est de la forme : x = αu + βv. et x = α′ w + β ′ z.
   
α+β 0
x =  α + β  =  α′ + β ′ 
β β′

 que les vecteurs x de F ∩ G sont de


On endéduit la forme
 :
0 0
x =  0  et une base de F ∩G est le vecteur  0  . Le sous-espace F ∩G est donc de dimension
β 1
1.
3. (a) L’espace F est une droite (dimesion 1) dont une base est le vecteur u, et l’espace G un plan (dimension
2) dont une base est la famille {w, z}.
(b) On vérifie facilement que F ∩ G est réduit à {0}, dont la base est ∅ : on ne peut pas avoir 0 dans la
base, et donc il n’y aucun élément dans la base. Le sev {0} est de dimension 0.

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 125 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 126 Algèbre linéaire, Maths générales II
Annexe B

Algorithmes et programmes informatiques

B.1 Algorithmes de Gauss et LU


On donne dans ce paragraphe la version “programmable” de l’algorithme de Gauss et de la maéthode LU pour une
matrice carrée d’ordre n.
On souhaite résoudre Ax = b, avec A ∈ Mn (R) inversible et un ou plusieurs second membres b ∈ Rn .
Méthode de Gauss sans pivot
1. (Factorisation et descente) Pour i allant de 1 à n, on effectue les calculs suivants :

(a) On ne change pas la i-ème ligne


ui,j = ai,j pour j = i, . . . , n,
yi = bi
(b) On change les lignes i + 1 à n (et le second membre) en utilisant la ligne i. Pour j allant de i + 1 à n :
a
lj,i = aj,i
i,i
(si ai,i = 0, prendre la méthode avec pivot partiel)
pour k allant de i + 1 à n, aj,k = aj,k − lj,i ai,k (noter que aj,i = 0)
bj = bj − lj,i yi

2. (Remontée) On calcule x
Pour i allant de n à 1,
Pn
xi = u1i,i (yi − j=i+1 ui,j xj )

Méthode LU sans pivot


La méthode LU se déduit de la méthode de Gauss en remarquant simplement que, ayant conservé la matrice L, on
peut effectuer les calculs sur b après les calculs sur A. Ce qui donne :
1. (Factorisation) Pour i allant de 1 à n, on effectue les calculs suivants :
(a) On ne change pas la i-ème ligne
ui,j = ai,j pour j = i, . . . , n,
(b) On change les lignes i + 1 à n (et le second membre) en utilisant la ligne i. Pour j allant de i + 1 à n :
a
lj,i = aj,i
i,i
(si ai,i = 0, prendre la méthode avec pivot partiel)
pour k de i + 1 à n, aj,k = aj,k − lj,i ai,k (noter que aj,i = 0)
2. (Descente) On calcule y (avec Ly = b)
Pour i allant de 1 à n,
Pi−1
yi = bi − k=1 li,k yk (on a implicitement li,i = 1)
3. (Remontée) On calcule x (avec U x = y)
Pour i allant de n à 1,
Pn
xi = u1i,i (yi − j=i+1 ui,j xj )

127
B.1. Algorithmes de Gauss et LU B. Algorithmes et programmes informatiques

Méthode LU avec pivot partiel


La méthode LU avec pivot partiel consiste simplement à remarquer que l’ordre dans lequel les équations sont prises
n’a aucune importance pour l’algorithme. Au départ de l’algorithme, on se donne la bijection t de {1, . . . , n} dans
{1, . . . , n} définie par t(i) = i, et qui va étre modfiée au cours de l’algorithme pour tenir compte du choix du
pivot. On écrit l’algorithme précédent avec les nouveaux indices de ligne t(i), ce qui donne :
1. (Factorisation) Pour i allant de 1 à n, on effectue les calculs suivants :
(a) Choix du pivot (et de t(i)) : on cherche k ∈ {i, . . . , n} t.q. |at(k),i | = max{|at(l),i |, l ∈ {i, . . . , n}}.
On change alors t en prenant t(i) = t(k) et t(k) = t(i).
On ne change pas la ligne t(i)
ut(i),j = at(i),j pour j = i, . . . , n,
(b) On modifie les lignes t(j) autres que les lignes t(1), . . . , t(n) (et le second membre), en utilisant la
ligne t(i). Donc pour t(j) ∈ {t(i + 1), . . . , t(n)} (noter qu’on a uniquement besoin de connaétre
l’ensemble , et pas l’ordre) :
a
lt(j),i = at(j),i
t(i),i

pour k de i + 1 à n, at(j),k = at(j),k − lt(j),i at(i),k (noter que at(j),i = 0)


2. (Descente) On calcule y
Pour i allant de 1 à n,
Pi−1
yi = bt(i) − j=1 lt(j),k yk
3. (Remontée) On calcule x
Pour i allant de n à 1,
1
Pn
xi = ut(i),i (yi − j=i+1 ut(i),j xj )
NB : On a change l’ordre dans lequel les équations sont considérées (le tableau t donne cet ordre). Donc, on a
aussi changé l’ordre dans lequel interviennent les composantes du second membre. Par contre, on n’a pas touché à
l’ordre dans lequel interviennent les composantes de x et y.
Il reste maintenant à signaler le “miracle” de cet algorithme. . . Il est inutile de connaitre complètement t pour faire
cet algorithme. A l’étape i de l’item 1 (et d’ailleurs aussi à l’étape i de l’item 2), il suffit de connaı̂tre t(j) pour
j allant de 1 à i, les opérations de 1(b) se faisant alors sur toutes les autres lignes (dans un ordre quelconque).
Il suffit donc de partir d’une bijection arbitraire de {1, . . . , n} dans {1, . . . , n} (par exemple l’identité) et de la
modifier à chaque étape. Pour que l’algorithme aboutisse, il suffit que at(i),i 6= 0 (ce qui toujours possible car A
est inversible). Pour minimiser des erreurs d’arrondis, on a intérêt à choisir t(i) pour que |at(i),i | soit le plus grand
possible. Ceci suggère de faire le choix suivant de t(i) à l’étape i de l’item 1(a) de l’algorithme (et c’est à cette
étape que t(i) doit être défini) :
on cherche k ∈ {i, . . . , n} t.q. |at(k),i | = max{|at(l),i |, l ∈ {i, . . . , n}}. On change alors t en prenant t(i) = t(k)
et t(k) = t(i).
Remarque : L’introduction des matrices L et U et des vecteurs y et x n’est pas nécessaire (tout peut s’écrire
avec la matrice A et le vecteur b, que l’on modifie au cours de l’algorithme). L’introduction de L, U , x et y peut
toutefois aider à comprendre la méthode. Le principe retenu est que, dans les algorithmes (Gauss ou LU), on
modifie la matrice A et le second membre b (en remplaçant le système à résoudre par un système équivalent) mais
on ne modifie jamais L, U , y et x (qui sont définis au cours de l’algorithme).
Remarque L’algorithme se ramene donc à résoudre LU x = b, en faisant Ly = b et U x = y. Quand on fait
Ly = b les equations sont dans l’ordre t(1), . . . , t(n) (les composantes de b sont donc aussi prises dans cet ordre),
mais le vecteur y est bien (y1 , . . . , yn )t (t signifie ici “transposé” pour obtenir un vecteur colonne). Puis, on fait
U x = y, les equations sont toujours dans l’ordre t(1), . . . , t(n) mais les vecteurs x et y sont (x1 , . . . , xn )t et
(y1 , . . . , yn )t .

Université Aix-Marseille 1,PEIP-L1, 28 avril 2012 128 Algèbre linéaire, Maths générales II

Vous aimerez peut-être aussi