Systemes Lineaires Nov09 PDF
Systemes Lineaires Nov09 PDF
Systemes Lineaires Nov09 PDF
Systèmes linéaires 1
Préliminaires : Lisez une première fois ce polycopié de manière rapide, puis relisez-le en es-
sayant de tout comprendre. Le polycopié est long, mais rapide à lire. L’objectif est que vous sachiez
résoudre des systèmes linéaires avec ou sans paramètres et que vous connaissiez les propriétés
exposées dans les sections 3 et 5.
On s’intéresse ici aux systèmes linéaires à coefficient réels, mais la façon de procéder
est tout à fait générale, et tous les résultats obtenus sont encore vrais pour les systèmes
linéaires à coefficients complexes.
En pratique, vous savez déjà résoudre des systèmes linéaires de petite taille, et depuis longtemps.
Mais pour cela, beaucoup d’entre vous utilisent plutôt un ensemble d’astuces qu’une méthode précise.
Vous seriez dans doute un peu perdu si vous deviez résoudre un système linéaire de 150 équations
à 130 inconnues, où si vous deviez écrire un programme informatique qui permette à un ordinateur
de résoudre un tel système. Or résoudre des systèmes de très grande taille est un problème courant
dans beaucoup d’applications des mathématiques. Il est donc important de comprendre comment de
tels systèmes peuvent être résolus.
2x1 + 4x2 = 0
3x + 6y = −3 x + 2y + 3z = 5
3x1 + x2 = 0 (1)
−2x + y = 12 2x + y − 4z = 0
−2x1 + 2x2 = 0
Le premier est un système de deux équations à deux inconnues (notées x et y), le deuxième un
système de deux équations à trois inconnues (x, y et z) et le troisième un système de trois équations
à deux inconnues (notées x1 et x2 au lieu de x et y).
En revanche, les systèmes suivants ne sont pas des systèmes linéaires :
x − y2 = 1
x + 3y = 5
2x + 3y = 8 2xy = 4
En effet, dans le système de gauche, dans la première équation, une des inconnues apparait à une
puissance autre que 1. Dans le système de droite, dans la deuxième équation, les inconnues n’appa-
raissent pas de manière “séparée".
1
Pour toute remarque : yannick.viossat@dauphine.fr
1
Vous avez sans doute l’habitude de noter les inconnues x et y quand il y en a deux et x, y et z
quand il y en a trois. Mais comment les noter s’il y a 130 inconnues ? La solution la plus simple est
de noter la première inconnue x1 , la deuxième x2 et la kième xk . En notant ainsi les inconnues, les
deux premiers systèmes de (1) deviennent respectivement :
3x1 + 6x2 = −3 x1 + 2x2 + 3x3 = 5
et
−2x1 + x2 = 12 2x1 + x2 − 4x3 = 0
Définition : soient n et p des entiers non nuls. Un système linéaire de n équations à p inconnues est
un système du type :
a11 x1 + a12 x2 + · · · + a1p xp = b1
a21 x1 + a22 x2 + · · · + a2p xp = b2
.. .. .. (2)
. . .
an1 x1 + an2 x2 + · · · + anp xp = bn
Définition : une solution du système linéaire (2) est un p-uplet de réels (x1 , x2 , ..., xp ) qui vérifie
toutes les équations du système. On dit qu’un système est compatible s’il a au moins une solution.
Exemple : (−5, 2) est une solution du système (3). En effet, pour x1 = −5 et x2 = 2, on a bien
3x1 + 6x2 = −3 et −2x1 + x2 = 12. En revanche, (1, −1) n’est pas une solution de (3) car pour x1 = 1
et x2 = −1, la deuxième équation n’est pas satisfaite.
2
⋄ ajouter à une ligne une combinaison des autres lignes (remplacer la kième ligne Lk par Lk +
P
i6=k λi Li ). Cela revient à faire plusieurs opérations élémentaires successives.
⋄ supprimer les lignes 0 = 0
⋄ conclure que le système n’a pas de solutions s’il comporte une ligne du type 0 = bi avec bi 6= 0.
Dans les exemples de résolution de systèmes linéaires ci-dessous, on écrira en face de la ième ligne
du système :
⋄ Li ← λLi , ou simplement λLi , pour dire que la ième ligne du nouveau système est égale à λ
fois la ième ligne de l’ancien système.
⋄ Li ← Li + λLk , ou simplement Li + λLk , pour dire que la nouvelle ligne i est égale à l’ancienne
ligne i plus λ fois l’ancienne ligne k
⋄ Li ↔ Lk pour dire que les lignes i et k ont été échangées
3
on écrit
3 6 −3
(9)
−2 1 12
Les coefficients du premier membre apparaissent à gauche de la barre verticale, et les coefficients du
second membre à droite. La résolution se fait comme précédemment, sauf qu’on ne s’embête plus à
recopier les inconnues. On obtient successivement :
1
3
L1 1 2 −1
L2 −2 1 12
L1 1 2 −1
L2 + 2L1 0 5 10
L1 1 2 −1
1
L
5 2
0 1 2
et enfin
L1 − 2L2 1 0 −5
L2 0 1 2
c’est à dire le système :
x = −5
(10)
y = 2
On conclut comme précedemment que le système a une unique solution : (−5, 2).
Dans la suite, on travaillera directement sur le tableau des coefficients.
4
(c) les coefficients situés sur la diagonale sont non nuls.
Un tel système se résoud aisément, et a toujours exactement une solution. Voici deux méthodes de
résolutions :
Première méthode (sans doute la plus rapide) : on calcule z à l’aide de la dernière équation, puis
y à l’aide de la deuxième équation et de la valeur de z, puis enfin x à l’aide de la première équation et
des valeurs de y et de z. On obtient ici : z = −10/5 = −2, puis y = 31 (−3 − 6z) = 31 (−3 + 12) = 3 et
enfin x = 21 (12 − 2y − 2z) = 21 (12 − 6 + 4) = 5. Il y a donc une seule solution possible : (5, 3, −2). De
plus, (5, 3, −2) est bien solution des trois équations du système. Le système a une solution unique :
(5, 3, −2).2
Deuxième méthode (la plus intéressante d’un point de vue théorique) : on transforme le système
(12) en un système équivalent encore plus simple. Le but est d’obtenir à la fin un système avec des
coefficients 1 sur la diagonale et des 0 à la fois en dessous de la diagonale (comme c’est déjà le cas)
et au dessus. En pratique, en partant du système initial
2 2 2 12
0 3 6 −3 (13)
0 0 −5 10
puis on fait apparaître des 0 au-dessus de la diagonale, en commençant par la dernière colonne. On
obtient :
L1 − L3
1 1 0 8
L2 − 2L3 0 1 0 3
L3 0 0 1 −2
puis
L1 − L2 1 0 0 5
L2 0 1 0 3
L3 0 0 1 −2
c’est à dire :
x = 5
y = 3 (15)
z = −2
2
On n’a pas raisonné en transformant le système initial en un système équivalent, mais en disant que si (x, y, z)
est solution, alors on a forcément x = 5, y = 3 et z = −2. C’est pourquoi il faut en théorie vérifier que le “candidat"
qu’on a trouvé est bien solution. En fait, comme on l’a dit ci-dessus, on peut montrer qu’un système qui vérifie les
propriétés (a), (b) et (c) ci-dessus a toujours une solution et donc on est sûr que le “candidat" trouvé par la méthode
ci-dessus est bien solution du système.
5
Exemple 2.3.3 Le système
x + z = −1
(16)
y − 2z = 2
a une infinité de solutions : z peut prendre n’importe quelle valeur, et chaque valeur de z détermine
un unique couple (x, y) tel que (x, y, z) est solution du système. Pour bien le voir, remarquez que le
système (16) est équivalent à :
x = −1 − z
y = 2 − 2z
L’ensemble S des solutions est l’ensemble des triplets (x, y, z) ∈ R3 tels que x = −1 + z et
y = 2 + 2z (z pouvant prendre n’importe quelle valeur réelle). On note
L’ensemble S des solutions est l’ensemble des quintuplets (x1 , x2 , x3 , x4 , x5 ) ∈ R5 tels que x1 =
2 − 2x4 − 3x5 , x2 = −3 − 2x5 et x3 = 2x5 (x4 et x5 pouvant prendre n’importe quelles valeurs). On
écrit :
S = {(2 − 2x4 − 3x5 , −3 − 2x5 , 2x5 , x4 , x5 ), (x4 , x5 ) ∈ R2 }
Exercice (réponse dans la note de bas de page) : (a) déterminer l’unique solution du système
précédent telle que x4 = 1 et x5 = 0 ; (b) même question avec x4 = 0 et x5 = 1. 3
A première vue, les solutions peuvent paraître plus difficiles à trouver que dans le système (17),
mais en fait, c’est exactement le même système, sauf qu’on a changé le rôle des inconnues. Le système
3
Réponses : (a) : (0, −3, 0, 1, 0) ; (b) : (−1, −5, 2, 0, 1)
6
peut se réécrire sous la forme :
x1 = 2 − 2x2 − 3x5
x3 = −3 − 2x5 (19)
x4 = 2x5
Exercice (réponse dans la note de bas de page) : déterminer l’unique solution du système précédent
telle que : (a) x2 = 1, x5 = 0 ; (b) x2 = 0, x5 = 1. Comparer à l’exercice similaire pour le système de
l’exemple 3. 4
Définition. Un tableau de coefficients est dit échelonné si chaque ligne non nulle commence par
davantage de 0 que la précédente. Un système linéaire est échelonné si le tableau de coefficients cor-
respondant est échelonné. On appelle pivots d’un système échelonné les coefficients qui apparaissent
en tête des lignes non nulles.
Définition. Un tableau de coefficient est dit échelonné réduit s’il est échelonné, si les pivots sont
tous égaux à 1, et si les coefficients situés au-dessus des pivots sont nuls. Un système linéaire est dit
échelonné réduit si le tableau de coefficients correspondant est échelonné réduit.
Exemples :
⋄ les trois systèmes de (1) ne sont pas échelonnés.
⋄ les systèmes (6), (7) et (12) sont échelonnés mais pas échelonnés réduits. Les pivots sont res-
pectivement : 1 et 5 pour le système (6), 1 et 1 pour le système (7), et 2, 3 et 5 pour le système
(12).
⋄ le système
x +3y −z = 8
4z = 4
est également échelonné mais pas échelonné réduit. Le pivots sont égaux à 1 et 4.
⋄ les systèmes (8), (15), (16), (17) et (18) sont échelonnés réduits
4
Réponses : (a) : (0, 1, −3, 0, 0) ; (b) : (−1, 0, −5, 2, 1). On obtient les mêmes solutions que dans l’exercice précédent
à une permutation des inconnues près.
7
Remarque : un système échelonné réduit peut comporter des lignes du type 0 = 0 ou 0 = β avec
β 6= 0. Par exemple, le tableau de coefficients suivant est échelonné réduit :
1 0 2 0 3 1
0 1 6 0 1 0
0 0 0 1 2 4 (20)
0 0 0 0 0 0
0 0 0 0 0 5
Le système correspondant :
x1 + 2x3 + 3x5 = 1
x2 + 6x3 + x5 = 0
x4 + 2x5 = 4 (21)
0 = 0
0 = 5
Exemple : dans le système (18), les variables libres sont x2 et x5 , les variables liées sont x1 , x3 et
x4 .
5
Exercice : dans le système (21), quelles sont les variables libres ? quelles sont les variables liées ?
Les solutions d’un système échelonné réduit se trouvent de manière immédiate. Si le système
comporte une ligne du type 0 = β avec β 6= 0, comme les systèmes (11) et (21), il n’a pas de
solutions. Sinon :
- s’il n’y a pas de variables libres, le système a exactement une solution qui se lit de manière
immédiate, comme dans le système (15).
- s’il y a une ou plusieurs variables libres, il y a une infinité de solutions : les variables libres
peuvent prendre n’importe quelles valeurs réelles et les variables liées s’expriment en fonction des
variables libres, comme pour les systèmes (16), (17) et (18).
Puisque les solutions d’un système échelonné-réduit se trouvent de manière immédiate, il suffit
pour résoudre un système linéaire de le transformer en un système échelonné réduit équivalent. Avant
de montrer que c’est toujours possible, voyons comment cela peut se faire sur quelques exemples. La
méthode utilisée dans la section suivante s’appelle méthode de Gauss-Jordan. C’est une variante de
la méthode dite “du pivot de Gauss".
5
Réponses : les variables libres sont x3 et x5 . Les variables liées sont les autres : x1 , x2 et x4 .
8
2.6 Mise d’un système sous forme échelonné réduite - exemples
Il y a plusieurs manières de résoudre un système linéaire et les systèmes ci-dessous ne seront pas
forcément résolus de la manière la plus astucieuse qui soit. En revanche, la méthode de résolution
proposée a l’avantage d’être tout à fait générale (voir la section 2.7). Elle comporte deux phases :
dans la première, on met le système sous forme échelonnée. Dans la deuxième, on met le système
sous forme échelonnée réduite.
Une fois que le pivot est égal à 1, on fait apparaître des 0 sous le pivot (ce qui revient à éliminer la
première inconnue des deux dernières équations).
L1 1 1 1 6
L2 + L1 0 4 8 −4 (25)
L3 − L1 0 2 3 0
On travaille ensuite sur le sous-système composé des deux dernières équations (donc des deux der-
nières lignes du tableau des coefficients). Le pivot de ce sous-système est le coefficient 4. On commence
par le transformer en un 1 en divisant la deuxième ligne par 4 :
L1 1 1 1 6
1
L 0 1 2 −1
4 2
(26)
L3 0 2 3 0
puis on fait apparaître un 0 sous le pivot (ce qui revient à éliminer la deuxième inconnue de la
troisième équation)
L1 1 1 1 6
L2 0 1 2 −1 (27)
L3 − 2L2 0 0 −1 2
9
Il ne reste plus qu’à multiplier la dernière ligne par -1 pour obtenir un système échelonné avec des 1
comme pivots :
L1 1 1 1 6
L2 0 1 2 −1 (28)
−L3 0 0 1 −2
Deuxième phase (dite “phase de remontée") : on met le système sous forme échelonné réduite.
Le but est maintenant de faire apparaître des 0 au dessus des pivots (ce qui revient dans ce cas à
éliminer la troisième inconnue des deux première équations et la deuxième inconnue de la première
équation). Pour cela, on commence par faire apparaître des 0 au dessus du dernier pivot.
L1 − L3
1 1 0 8
L2 − 2L3 0 1 0 3 (29)
L3 0 0 1 −2
L1 − L2 1 0 0 5
L2 0 1 0 3 (30)
L3 0 0 1 −2
On est alors arrivé au système (15). Il y a donc une solution unique (5, 3, −2).
Exemple 2.6.2 Dans l’exemple précédent, les pivots n’étaient jamais nuls. Le but de l’exemple
qui suit est de montrer comment continuer la résolution quand on tombe sur un pivot nul.
Supposons qu’on veuille résoudre le système suivant :
2x3 − 2x4 + 8x5 = −6
x1 + 2x2 + x3 + 5x5 = −1 (31)
−2x1 − 4x2 − x3 − 8x5 = −1
2 −2 8 −6
0 0
1 2 1 0 5 −1
−2 −4 −1 0 −8 −1
Le pivot du système (le coefficient en haut à gauche) est égal à 0. On ne peut donc pas utiliser la
première ligne pour éliminer la première inconnue des deuxième et troisième équations. Pour résoudre
ce problème, on échange la première et la deuxième ligne :
L1 ↔ L2 1 2 1 0 5 −1
L2 ↔ L1 0 0 2 −2 8 −6
L3 −2 −4 −1 0 −8 −1
1 2 1 0 5 −1
L1
L2 0 0 2 −2 8 −6 (32)
L3 + 2L1 0 0 1 0 2 −3
10
Normalement, on devrait travailler ensuite sur le sous-système obtenu en éliminant la première ligne
et la première colonne. Mais on a de la chance : ce système commence par une colonne de 0. On ne
peut pas mettre davantage de 0 sur cette colonne. On travaille donc directement sur le sous-système
obtenu en supprimant la première ligne et les deux premières colonnes du système (32). Le pivot de
ce système est égal à 2. On commence par le rendre égal à 1 :
L1 1 2 1 0 5 −1
1
L 0 0 1 −1 4 −3
2 2
L3 0 0 1 0 2 −3
L1 1 2 1 0 5 −1
L2 0 0 1 −1 4 −3
L3 − L2 0 0 0 1 −2 0
Le système est alors sous forme échelonné avec des 1 comme pivots. On a terminé la première phase.
La deuxième phase consiste à mettre des 1 au dessus des pivots, en commençant par le dernier pivot.
1 2 1 0 5 −1
L1
L2 + L3 0 0 1 0 2 −3
L3 0 0 0 1 −2 0
L1 − L2 1 2 0 0 3 2
L2 0 0 1 0 2 −3
L3 0 0 0 1 −2 0
On est arrivé au système échelonné réduit :
x1 + 2x2 + 3x5 = 2
x3 + 2x5 = −3 (33)
− 2x5 = 0
x4
C’est exactement le système (18). L’ensemble S des solutions est :
Preuve. On fait une récurrence sur le nombre d’inconnues du systèmes. Soit Hp la propriété :
(Hp ) : n’importe quel système linéaire à p inconnues peut être transformé par une suite d’opéra-
tions élémentaires en un système échelonné réduit avec des 1 comme pivots.
Prouvons que Hp est vraie pour tout p ∈ N∗ . La preuve de H1 est laissée au lecteur (pour prouver
H1 il suffit de procéder comme dans la preuve de Hp ⇒ Hp+1 ci-dessous). Montrons Hp ⇒ Hp+1 .
Supposons Hp vraie. Considérons un système linéaire (S) à p + 1 inconnues.
11
Premier cas : si la première colonne comporte uniquement des coefficients nuls, c’est à dire si
le tableau des coefficients est de la forme :
0 ∗ .. ∗ ∗
.. .. .. .. ..
0 ∗ .. ∗ ∗
(le symbole ∗ sur une case signifie que le coefficient situé sur cette case est quelconque). On considère
alors le système linéaire (S ′ ) obtenu en supprimant la première colonne. Ce système linéaire a p
inconnues et peut donc, par hypothèse de récurrence, être transformé en un système équivalent (S ′′ )
échelonné avec des 1 comme pivots. En rajoutant une colonne de 0 au système (S ′′ ), on obtient un
système échelonné avec des 1 comme pivots qui est équivalent à (S).
Deuxième cas : si les coefficients sur la première colonne ne sont pas tous nuls. Dans ce cas,
quitte à échanger deux lignes, on peut se ramener à un système du type :
a′11 ∗ .. ∗ ∗
′
a21 ∗ .. ∗ ∗
.. .. .. .. ∗
a′n1 ∗ .. .. ∗
avec a′11 6= 0. En divisant la première ligne par a′11 , on obtient un système du type :
1 ∗ .. ∗ ∗
′
a21 ∗ .. ∗ ∗
.. .. .. .. ∗
a′n1 ∗ .. .. ∗
puis pour tout i ∈ {2, ..., n}, on soustrait a′i1 fois la ligne 1 à la ligne i. On obtient alors un système
de la forme :
1 ∗ .. ∗ ∗
0 ∗ .. ∗ ∗
(34)
.. .. .. .. ..
0 ∗ .. ∗ ∗
Soit (S ′ ) le sous-système encadré ci-dessus, c’est à dire le système obtenu à partir du système
(34) en supprimant la première ligne et la première colonne. (S ′ ) est un système à p inconnues. Par
hypothèse de récurrence, on peut donc le transformer par une suite d’opérations élémentaires en un
système échelonné avec des 1 comme pivots. En faisant les opérations correspondantes sur le système
(34), on obtient un système échelonné avec des 1 comme pivots qui est équivalent à (S).
Bilan : dans tous les cas, Hp+1 est vraie. Donc, par récurrence, Hp est vraie pour tout p ∈ N∗ .
Remarque : la preuve de la proposition fournit une méthode pour tranformer un système linéaire
quelconque en un système échelonné : comme dans la preuve, on ramène le problème au fait de mettre
sous forme échelonné un système (S ′ ) qui a une inconnnue de moins, puis on ramène le problème de
mettre (S ′ ) sous forme échelonné au problème de mettre sous forme échelonnée un système contenant
une inconnue de moins que (S ′ ), etc.
Proposition 2.2 N’importe quel système linéaire peut se mettre sous forme échelonnée réduite par
une suite d’opérations élémentaires.
12
Preuve. D’après la proposition précédente, on peut mettre n’importe quel système sous forme
échelonnée avec des 1 commes pivots. Il est alors facile de le transformer en un système échelonné
réduit (il suffit de faire apparaître des 0 au dessus du dernier pivot, puis au dessus de l’avant-dernier
pivot, etc, comme dans les exemples de la section 2.6).
Premier cas : si dans le système (S ′ ) les inconnues liées sont celles qui ont les indices les plus
bas.
(S ′ ) est alors un système de la forme :
x1 + a′1,r+1 xr+1 · · · + a′1,p xp = b′1
x2 + a′2,r+1 xr+1 · · · + a′2,p xp = b′2
.. .. .. ..
. + . + . = .
′ ′
xr + ar,r+1xr+1 · · · + ar,p xp = b′r
0 = b′r+1
= b′r+2
0
.. ..
. = .
b′n
0 =
Dans ce cas, le système est toujours compatible. En effet, on a toujours la solution x1 = b′1 , ....,
6
Vous n’êtes pas habitués au fait que le système comporte des lignes du type 0 = b′i car, en pratique, quand on
résoud un système linéaire sans paramètres et qu’on tombe sur une ligne du type 0 = bi , soit bi = 0, et l’on élimine la
ligne, soit bk 6= 0, et l’on conclut directement que le système n’a pas de solutions ; toutefois, si vous mettez un système
sous forme échelonnée réduite en vous interdisant de supprimer les lignes 0 = 0, il se peut très bien qu’il y ait des
lignes du type 0 = bi dans le système final. En fait, ce sera le cas à chaque fois que le rang du système est strictement
plus petit que le nombre d’équations.
13
xr = b′r , et xi = 0 pour i > r. De plus, si r < p alors il y une infinité de solutions et l’ensemble des
solutions a p − r degrés de liberté.7
Si r = p, il n’y a pas d’inconnues libres et (S ′ ) est de la forme :
x1 = b′1
x2 = b′2
.. ..
. = .
xr = b′r
0 = b′r+1
0 = b′r+2
.. ..
. = .
0 = b′
n
Dans ce cas, le système a au plus une solution. Plus précisément, s’il existe i ∈ {r + 1, ..., p} tel que
b′i 6= 0, le système n’a pas de solutions. Sinon, le système a exactement une solution.
Si r = n = p, (S ′ ) est de la forme :
x1 = b′1
x2 = b′2
.. .
. = ..
xr = b′r
r=p r<p
r = n exactement une solution une infinité de solutions (35)
r<n au plus une solution soit pas de solutions soit une infinité de solutions
En particulier : s’il y a plus d’inconnues que d’équations (n < p), alors comme r ≤ n, on a
forcément r < p, donc le système n’a soit aucune solution, soit une infinité de solutions. En revanche,
s’il y a plus d’équations que d’inconnues (p < n), on ne peut rien dire.
2nd cas : si dans le système (S ′ ), les inconnues liées ne sont pas celle qui ont les indices les plus
bas (pas les r premières).
Alors en permutant des colonnes, on peut se ramener à un système échelonnée réduit (S ′′ ) où les
inconnues liées sont situées sur les r premières colonnes. En raisonnant sur (S ′′ ), on montre que les
résultats résumés dans le tableau (35) sont encore valables.
7
Pour les redoublants : on peut montrer que l’application qui va de l’ensemble des solutions de (S ′ ) dans Rp−r et
qui à la solution (x1 , ..., xr , xr+1 , ..., xp ) de (S ′ ) associe (xr+1 , ..., xp ) est une application linéaire bijective ; l’ensemble
des solutions de (S ′ ) est donc isomorphe à Rp−r .
14
3.2 Système homogène associé à un système linéaire, rang d’un système
linéaire
Définition : un système est homogène (ou sans second membre) si les coefficients du second membre
sont tous nuls.
Par exemple, dans (1), le système de gauche est homogène, mais pas les autres.
Définition : soit (S) un système linéaire. Le système homogène associé au système (S) est le système
qui a le même premier membre que (S) mais où le second membre est nul.
est
3x + 6y = 0
−2x + y = 0
Dans la section 3.1, on a déjà introduit la notion de rang d’un système linéaire. Voici une définition
équivalente :
Définition-proposition Soit (S) un système de n équations à p inconnues et (S0 ) le système homo-
gène associé. Si on transforme (S0 ) en un système échelonné (ou échelonné réduit) et qu’on élimine
les lignes 0 = 0, on obtient un système de r équations. On admet (voir cours du second semestre) que
cet entier r est indépendant de la manière dont on a opéré. On l’appelle rang du système linéaire (S).8
Exercice (réponse dans la note de bas de page) : quel est le rang des systèmes (4), (11), (12),
(15), (16), (18) et (31). 9
Les propriétés suivantes sont des conséquences directes de la définition du rang et de l’examen de
la forme générale d’un système échelonné réduit fait dans la section 3.1.
⋄ un système linéaire et le système homogène qui lui est associé ont même rang.
⋄ le rang de (S) peut aussi être défini comme le nombre de pivots (ou d’inconnues liées) dans
n’importe quel système échelonné équivalent à (S).
⋄ le rang est inférieur ou égal au nombre d’équations, ainsi qu’au nombre d’inconnues du système :
r ≤ min(n, p).
⋄ si r = n, dans un système échelonné réduit équivalent à (S), il ne peut pas y avoir de lignes du
type 0 = β. Le système admet donc au moins une solution.
⋄ si r = p, il n’y a pas d’inconnues libres. Le système a donc au plus une solution.
⋄ si r = n = p (système carré de rang maximal), le système est dit “de Cramer". Il a exactement
une solution.10
8
En d’autre termes, n’importe quel système échelonné équivalent à (S0 ) et ne contenant pas de lignes 0 = 0
comporte le même nombre d’équations. Ce nombre s’appelle le rang de (S). En fait, on peut même montrer que, parmi
les systèmes ne comportant pas de lignes 0 = 0, il existe un unique système échelonné réduit équivalent à (S0 ).
9
Les rangs sont, dans l’ordre, 2, 1, 3, 3, 2, 3 et 3.
10
Attention : si un système est de Cramer, il a exactement une solution. Mais un système peut avoir exactement une
15
⋄ si r < p, il y a au moins une inconnue libre. Si le système est compatible, il a donc une infinité
de solutions.
⋄ le rang d’un système n’indique pas, en général, si ce système est compatible ou non.
Exercice (indications dans la note de bas de page) : prouver les propriétés (b) et (c).11
Proposition 3.1 L’ensemble des solutions d’un système homogène est soit égal à {(0, 0, ..., 0)}, soit
infini.
Preuve. (0, 0, ...0) est toujours solution. De plus, s’il existe une solution non nulle x, alors :
d’une part, d’après la propriété (b), pour tout réel λ , λx est solution ; d’autre part, comme x est
non nul, l’ensemble des p-uplets de la forme λx avec λ réel est infini ; donc le système a une infinité
de solutions.12
En fait, en utilisant des définitions et résultats qui seront vus au second semestre, on peut dire
beaucoup plus : pour dire qu’un ensemble vérifie les propriétés (b) et (c), on dit qu’il est stable par
combinaison linéaire. Un sous-ensemble de Rp qui est non vide et stable par combinaison linéaire
s’appelle un sous-espace vectoriel de Rp . Les propriétés (a), (b) et (c) s’expriment donc en disant que
l’ensemble des solutions d’un système homogène à p inconnues est un sous-espace vectoriel de Rp .
De plus, dans n’importe quel système échelonné équivalent à (S0 ), le nombre d’inconnues libres
est égal à p − r, où r est le rang de (S0 ). Les solutions du système s’expriment donc en fonction
de p − r variables, qui peuvent prendre n’importe quelles valeurs. Informellement, on peut dire que
l’ensemble S0 des solutions de (S0 ) a p − r “degrés de liberté". La notion vague de “degrés de liberté"
sera remplacé au second semestre par la notion de “dimension", et on dira que S0 est un sous-espace
vectoriel de Rp de dimension d = p − r.
On verra qu’un tel espace a une structure bien particulière :
solution sans être de Cramer. En effet, n’importe quel système compatible dont le rang est égal au nombre d’inconnues
a exactement une solution.
11
Pour prouver (b), il suffit de remarquer que si ai1 x1 + ai2 x2 + ... + aip xp = 0 alors pour tout réel λ, on a :
ai1 (λx1 ) + ai2 (λx2 ) + ... + aip (λxp ) = λ(ai1 x1 + ai2 x2 + ... + aip xp ) = λ × 0 = 0. De même, pour prouver (c), il suffit
de remarquer que si ai1 x1 + ai2 x2 + ... + aip xp = 0 et ai1 y1 + ai2 y2 + ... + aip yp = 0, alors ai1 (x1 + y1 ) + ai2 (x2 + y2 ) +
... + aip (xp + yp ) = (ai1 x1 + ai2 x2 + ... + aip xp ) + (ai1 y1 + ai2 y2 + ... + aip yp ) = 0 + 0 = 0.
12
On dit qu’une solution x = (x1 , x2 , ..., xp ) est non nulle si les xi ne sont pas tous nuls.
16
- si d = 0 (r = p), S0 ne contient que le point {(0, 0, ..., 0)}.
- si d = 1 (r = p − 1), S0 est une droite passant par (0, 0, ..., 0).
- si d = 2 (r = p − 2), S0 est un plan contenant (0, 0, ..., 0).
- si d = 3 (r = p − 3), S0 est un espace à trois dimensions contenant (0, 0, ..., 0).
- si d > 3, S0 est un espace “du même type" mais de “dimension" plus grande.
Pour d ≥ 1, le fait que l’ensemble S0 des solutions d’un système homogène ait dimension d si-
gnifie que n’importe quelle solution de ce système peut s’exprimer comme “combinaison linéaire" de
d solutions “de base", et qu’il n’est pas possible d’exprimer toutes les solutions du système comme
combinaison linéaire de moins de d solutions. Ce vocabulaire sera précisé au second semestre.
Exercice : pour tous les systèmes linéaires que nous avons considérés, déterminer la dimension d
de l’ensemble des solutions du système homogène associé. Lorsque d ≥ 1, exprimer l’ensemble des
solutions en fonction des d solutions telles que l’une des variables libres vaut 1 et les autres variables
libres valent 0.
x + S0 = {x + y, y ∈ S0 } = {x′ ∈ Rp , ∃y ∈ S0 , x′ = x + y}
17
Proposition 3.2 Si le système linéaire (S) admet la solution x, alors
S = x + S0
Preuve. Soit (S) le système générique (2). Soit x une solution de (S). Montrons S ⊂ x + S0 par
double inclusion. Montrons tout d’abord S ⊂ x + S0 . Soit x′ = (x′1 , x′2 , ..., x′p ) ∈ S. Soit y = x′ − x.
Soit i ∈ {1, ..., n}. On a :
ai1 y1 + ai2 y2 + ... + aip yp = ai1 (x′1 − x1 ) + ai2 (x′2 − x2 ) + ... + aip (x′p − xp )
= (ai1 x′1 + ai2 x′2 + ... + aip x′p ) − (ai1 x1 + ai2 x2 + ... + aip xp )
ai1 x′1 + ai2 x′2 + ... + aip x′p = bi = ai1 x1 + ai2 x2 + ... + aip xp
Donc ai1 y1 + ai2 y2 + ... + aip yp = 0. Comme ceci est vrai pour tout i ∈ {1, ..., n}, y est solution de
(S0 ). Or x′ = x + y. Donc x′ ∈ x + S0 , donc S ⊂ x + S0 .
Montrons maintenant x + S0 ⊂ S. Soit y ∈ S0 et x′ = x + y. Pour tout i ∈ {1, ..., n},
ai1 x′1 + ai2 x′2 + ... + aip x′p = ai1 (x1 + y1 ) + ai2 (x2 + y2 ) + ... + aip (xp + yp )
= (ai1 x1 + ai2 x2 + ... + aip xp ) + (ai1 y1 + ai2 y2 + ... + aip yp )
= bi + 0
= bi
Proposition 3.3 Un système linéaire n’a soit aucune solution, soit exactement une solution, soit
une infinité de solutions.
Preuve. Si un système linéaire est compatible, alors, d’après la proposition précédente 3.2, l’en-
semble S de ses solutions est en bijection avec l’ensemble des solutions du système homogène associé.
D’après la proposition 3.1, S a donc soit un seul élément, soit une infinité.
Géométriquement, l’égalité S = x + S0 de la proposition 3.2 s’interprète de la manière suivante :
si x est solution de (S), alors l’ensemble des solutions de (S) est l’image par la translation de vecteur
x de l’ensemble des solutions du système homogène associé. Si l’ensemble des solutions de (S) est
non vide, il a donc la même “forme" que l’ensemble des solutions du système homogène associé. C’est
donc soit un point (si r = p), soit une droite (si r = p − 1), soit un plan (si r = p − 2), soit un es-
pace à trois dimensions (si r = p−3), soit un espace “du même type" mais de plus grande dimension.13
13
Si le système n’est pas homogène, alors (0, 0, ..., 0) n’est pas solution. Considérons par exemple un système linéaire
(S) non homogène, compatible, et de rang r = p − 1. L’ensemble des solutions du système homogène associé est alors
une droite passant par (0, 0, ..., 0) et l’ensemble des solutions de (S) une droite ne passant pas par (0, 0, ..., 0).
18
Exemple Considérons le système (S) :
2x3 − 2x4 + 8x5 = −6
x1 + 2x2 + x3 + 5x5 = −1 (37)
−2x1 − 4x2 − x3 − 8x5 = −1
On verra au second semestre que S s’interprète géométriquement comme un plan, c’est à dire un
espace à deux dimensions.
Remarques :
- la solution (2, 0, 3, 0, 0) ne saute pas aux yeux, mais dans certains systèmes il y a une solution
évidente. Plutôt que de résoudre le système initial, il est alors plus rapide de résoudre le système
homogène associé (qui a l’avantage que le second membre est toujours nul, donc moins de calculs à
faire) et d’utiliser la proposition 3.2.
- quand un système linéaire a une infinité de solutions, il y a le plus souvent plusieurs manières
de décrire l’ensemble des solutions. Par exemple, (0, 1, −3, 0, 0) est une solution particulière de (S).
On a donc aussi
C’est une autre manière de décrire l’ensemble des solutions que celle donnée plus haut, tout aussi
valable.
Exercice : montrer en raisonnant pas double inclusion qu’on a bien
{(2 − 2x2 − 3x5 , x2 , −3 − 2x5 , 2x5 , x5 ), (x2 , x5 ) ∈ R2 }
= {(−2x2 − 3x5 , 1 + x2 , −3 − 2x5 , 2x5 , x5 ), (x2 , x5 ) ∈ R2 }
Montrer que le système homogène associé à (S) à les mêmes solutions que le système (38), mais que
(S) n’a pas de solutions. Question subsidiaire : comment l’auteur de ces lignes a-t-il construit cet
exercice, presque sans faire de calculs, à partir de l’exemple précédent.
19
4 Systèmes avec paramètres
On considère dans cette sections des systèmes linéaires comportant des paramètres, comme les
systèmes suivants, d’inconnues x et y, et de paramètres a et b.
3x + 6y = a 3ax + 6y = 0 3ax + 6y = b
−2x + y = b −2x + by = 0 −2x + by = 0
20
système initial ; quand aux opérations (b) et (b’), elles n’ont carrément pas de sens, et quand on a
l’impression (fausse) qu’on peut leur donner un sens, le système qu’on obtient n’est en général pas
équivalent au système initial.
La règle d’or est la suivante : lorsqu’on veut faire une opération du type Lk ← λLk ou bien diviser
quelque chose par λ, et que λ est une expression dépendant de paramètres, il faut distinguer le cas
λ = 0 du cas λ 6= 0.
Dans le cas λ 6= 0, on peut faire l’opération voulue. Dans le cas λ = 0, on ne peut pas, mais la
nouvelle information λ = 0 nous permet de poursuivre la résolution.
Remarque : bien distinguer l’opération Lk ← Lk + λLi , toujours permise quand k 6= i, de l’opé-
ration Lk ← λLk + Li , interdite quand k 6= i et λ = 0.
Pour éviter d’avoir trop de cas à distinguer dès les premières phases de la résolution, on peut :
• Echanger deux lignes afin de faire apparaître un pivot qui ne comprend pas de paramètres
• Ne pas systématiquement se ramener au cas où le pivot vaut 1.
• D’une manière générale, ne pas utiliser la méthode du pivot de manière rigide, mais l’adapter
afin de distinguer le moins de cas possibles.
21
4.3.2 Seconde méthode correcte (changer de pivot)
Dans la résolution ci-dessus, le coefficient en haut à gauche (le pivot) était potentiellement nul,
ce qui amenait à distinguer le cas où il était nul du cas où il ne l’était pas. Ci-dessous, pour éviter
d’avoir à distinguer des cas dès le début, on intervertit deux lignes, afin de se retrouver avec un pivot
dont on est sûr qu’il est non nul.
L1 ↔ L2 x + y = 2 L1 x + y = 2
(S) ⇔ ⇔
L2 ↔ L1 ax + ay = a L2 − aL1 0 = −a
1)
1
L
a 1
x + y = 1 L1 x + y = 1
(S) ⇔ ⇔
L2 x + y = 2 L2 − L1 0 = 1
Conclusion : quelle que soit la valeur de a, le système n’a pas de solutions : S = ∅.
2)
L1 ax + ay = a L1 ax + ay = a
(S) ⇔ ⇔
aL2 ax + ay = 2a L2 − L1 0 = a
Conclusion : si a 6= 0, il n’y a pas de solutions : S = ∅ ; si a = 0, l’ensemble des solutions est S = R2 .
22
a11 x1 + a12 x2 + · · · + a1p xp = b1
a21 x1 + a22 x2 + · · · + a2p xp = b2
.. .. .. (41)
. . .
an1 x1 + an2 x2 + · · · + anp xp = bn
Soit A ∈ Mn,p la matrice des coefficients du premier membre et B la matrice (ou vecteur) colonne
des coefficients du second membre :
a11 a21 .. a1p b1
a21 a22 .. a2p b2
A= B=
.. .. .. .. ..
an1 an2 .. anp bn
Résoudre le système linéaire (41) revient à trouver les vecteurs colonnes à p composantes
x1
x2
X=
..
xp
tels que
AX = B (42)
où AX est le produit matriciel de la matrice A et du vecteur X.
Exemple :
Le système
x1 + 3x2 − x3 = 8
4x3 = 4
s’écrit de manière matricielle :
x1
1 3 −1 x2 = 8
0 0 4 4
x3
P AX = P B ⇔ AX = B
23
Considerons un système linéaire AX = B où A ∈ Mn,p , X ∈ Mp,1 et B ∈ Mn,1. Soit λ ∈ R.
Soient i et j des éléments de {1, 2, ..., n}. On définit les matrices P (i, λ), Q(i, j) et R(i, j, λ) de la
manière suivante :
⋄ P (i, λ) est la matrice n × n obtenue à partir de la matrice identité en multipliant la ième ligne
par λ, c’est à dire la matrice diagonale dont tous les coefficients diagonaux sont égaux à 1 sauf le
ième qui vaut λ.
⋄ Q(i, j) est la matrice qu’on obtient à partir de la matrice identité en échangeant la ligne i avec
la ligne j.
⋄ R(i, j, λ) est la matrice qu’on obtient à partir de la matrice identité en rajoutant λ fois la
ligne j à la ligne i. On a donc R(i, j, λ) = In + λE ij où In est la matrice identité d’ordre n et E ij la
matrice n×n dont tous les coefficients sont nuls, sauf celui situé sur la ligne i et la colonne j qui vaut 1.
Exemple. Pour n = 6, i = 2 et j = 5, on a :
1 0 0 0 0 0 1 0 0 0 0 0
0 1 0 0 0 0 0 λ 0 0 0 0
0 0 1 0 0 0 0 0 1 0 0 0
I6 = P (2, λ) =
0 0 0 1 0 0 0 0 0 1 0 0
0 0 0 0 1 0 0 0 0 0 1 0
0 0 0 0 0 1 0 0 0 0 0 1
1 0 0 0 0 0 1 0 0 0 0 0
0 0 0 0 1 0
0 1 0 0 λ 0
0 0 1 0 0 0 0 0 1 0 0 0
Q(2, 5) = R(2, 5, λ) =
0 0 0 1 0 0 0 0 0 1 0 0
0 1 0 0 0 0 0 0 0 0 1 0
0 0 0 0 0 1 0 0 0 0 0 1
Preuve. On l’admet (c’est un calcul simple mais un peu long à écrire : essayez de le faire).
24
Preuve. Preuve du 1. D’après la proposition précédente, la matrice P (i, 1/λ)P (i, λ) est la matrice
qu’on obtient en multipliant par 1/λ la ième ligne de P (i, λ), c’est donc la matrice In . Donc P (i, λ)
est inversible d’inverse P (i, 1/λ). Les autres preuves sont similaires.
Définition On dit qu’une matrice est échelonnée si toute ligne non nulle commence par davantage
de 0 que la précédente. Les coefficients qui viennent en tête des lignes non nulles d’une matrice éche-
lonnée s’appellent les pivots de la matrice. On dit qu’une matrice est échelonnée réduite si elle est
échelonnée, si les pivots sont égaux à 1, et si les coefficients situés au dessus des pivots sont des 0.
Appelons matrice d’opération élémentaire toute matrice qui est de la forme P (i, λ) (avec λ 6= 0),
Q(i, j), ou R(i, j, λ) (avec i 6= j). Souvenons-nous de la proposition 2.2, qui dit que tout système
linéaire peut être transformé en un système échelonné réduit par une suite d’opérations élémentaires.
Cette proposition s’interprète matriciellement de la manière suivante :
Proposition 5.4 Soit A ∈ Mn,p une matrice. Il existe un entier k et des matrices d’opération
élémentaire P1 , P2 , ..., Pk telles que la matrice Pk Pk−1...P2 P1 A est échelonné réduite (le système
Pk Pk−1...P2 P1 A = Pk Pk−1 ...P2 P1 B est alors échelonné réduit et équivalent à AX = B).
Preuve. Supposons qu’en faisant une suite de k opérations élémentaires sur les lignes de la matrice
A, on parvienne à la transformer en la matrice identité In . Cela veut dire qu’il existe un entier k
et des matrices d’opération élémentaire P1 , P2 , ..., Pk telles que Pk Pk−1 ...P2 P1 A = In . Soit B =
Pk Pk−1...P2 P1 . On a BA = In , donc A est inversible et A−1 = B. De plus, en faisant la même
suite d’opérations élémentaires à partir de la matrice In on obtient la matrice Pk Pk−1 ...P2 P1 In =
Pk Pk−1...P2 P1 = A−1 .
Exemple :
Soit
1 1 1
A= 1 3 5
−2 −2 1
On forme le tableau contenant A dans la partie gauche et I3 dans la partie droite :
1 1 1 1 0 0
1 3 5 0 1 0
−2 −2 −1 0 0 1
Puis on fait des opérations élémentaires sur les lignes de manière à mettre la partie gauche sous forme
échélonné réduite :
25
L1 1 1 1 1 0 0
L2 − L1 0 2 4 −1 1 0
L3 + 2L1 0 0 1 2 0 1
L1 1 1 1 1 0 0
1
L 0 1 2 −1/2 1/2 0
2 2
L3 0 0 1 2 0 1
L1 − L3 1 1 0 −1 0 −1
L2 0 1 0 −9/2 1/2 −2
L3 0 0 1 2 0 1
On est parvenu à transformer la partie de gauche en le tableau correspondant à I3 . La matrice A
est donc inversible, d’inverse :
7/2 −1/2 1
Définition-proposition : soit A ∈ Mn,p . D’après la définition du rang d’un système linéaire, il est
clair que tous les systèmes linéaires du type AX = B ont le même rang. Ce rang s’appelle le rang de
A (une autre définition du rang d’une matrice, équivalente mais plus naturelle, sera donnée dans le
cours du second semestre).
Soit A ∈ Mn . A peut-être transformé par une suite d’opération élémentaires en une matrice
échelonnée réduite A′ = P A (où P est une matrice inversible produit de matrices d’opérations
élémentaires). Il y a deux cas :
Cas 1 : si A′ a n pivots, alors comme A′ est une matrice n × n, ces pivots sont nécessairement
situés sur la diagonale. On a donc A′ = In , donc P A = In . Donc A est inversible d’inverse P −1 .
Cas 2 : si A′ à r < n pivots, alors comme A′ est une matrice n × n, la dernière ligne de A′ est
nécessairement nulle. Ceci implique que A′ n’est pas inversible (preuve en note14 ). Donc A n’est pas
inversible car sinon A′ = P A le serait comme produit de matrices inversibles.
26
2) il existe une matrice obtenue à partir de A par une suite d’opérations élémentaires qui est
inversible.
3) il existe une matrice obtenue à partir de A par une suite d’opérations élémentaires qui est égale
à In .
4) toute matrice échelonnée réduite obtenue à partir de A par une suite d’opérations élémentaires
est égale à In .
Preuve. Soit A′ une matrice échelonnée réduite obtenue à partir de A par une suite d’opérations
élémentaires. Si A′ n’est pas égale à In , alors, comme expliqué dans le cas 2 ci-dessus, A n’est pas
inversible. Donc si 4) est fausse, 1) est fausse et donc par contraposée 1) implique 4). Le fait que 4)
implique 3) et que 3) implique 2) est évident. Enfin, soit A′ une matrice obtenue à partir de A par
une suite d’opérations élémentaires. Il existe une matrice inversible P telle que A′ = P A. Donc si A′
est inversible, alors A = P −1 A′ l’est aussi comme produit de matrices inversibles. Donc 2) implique
1). Donc (preuve cyclique) les propositions 1) à 4) sont équivalentes.
Preuve. Si A n’est pas inversible et que A′ est une matrice échelonnée réduite obtenue à partir de A
par une suite d’opérations élémentaires, on a forcément A′ 6= In (sinon A serait inversible d’après la
proposition précédente). Donc, comme toute matrice carrée échélonnée réduite différente de l’identité,
A′ comporte une ligne de 0. Donc 1) implique 4). Le fait que 4) implique 3) est évident, et le fait
que 3) implique 2) aussi puisqu’une matrice qui comporte une ligne de 0 n’est pas inversible. Enfin,
si A′ est une matrice obtenue à partir de A par une suite d’opérations élémentaires, alors il existe
une matrice P inversible telle que A′ = P A. Si A′ n’est pas inversible, alors A ne l’est pas non plus
(sinon A′ le serait comme produit de matrices inversibles). Donc 2) implique 1), et les proposition 1)
à 4) sont bien équivalentes.
Preuve. Par définition, A est de rang n si et seulement si toute matrice échelonnée réduite A′ obtenue
à partir de A par une suite d’opérations élémentaires à n pivots. Or comme A′ est carrée, A′ a n
pivots si et seulement si A′ = In . Le résultat est donc une conséquence de l’équivalence de 1) et de
3) dans la proposition 5.6.
On peut maintenant préciser ce qui se passe quand on utilise la méthode de calcul de l’inverse
d’une matrice avec une matrice A non inversible : soit A ∈ Mn . Si A est inversible, alors en faisant
sur In une suite d’opérations qui transforme A en une matrice échelonné réduite (donc ici en In ), on
obtient la matrice A−1 , comme dans l’exemple précédent. Si A n’est pas inversible, en transformant
A en une matrice échelonné réduite, on obtient une matrice qui comporte une ligne de 0. On peut
alors conclure que A n’est pas inversible.
27
6 Ce qu’il faut absolument retenir
Outre la méthode pratique de résolution d’un système linéaire, avec ou sans paramètres, il faut
absolument retenir les propriétés suivantes :
⋄ n’importe quel système linéaire peut être transformé en un système échelonné réduit équivalent
⋄ le nombre r d’équation dont le premier membre n’est pas nul dans ce système échelonné réduit
ne dépend que du système initial. Ce nombre est appelé le rang du système. Il est égal au nombre
d’inconnues liées.
⋄ l’ensemble des solutions d’un système linéaire homogène est non vide et stable par addition et
multiplication par une constante. De plus, si un système linéaire homogène à p inconnues est de rang
r, alors l’ensemble de ses solution a p − r “degrés de liberté" (autant que d’inconnues libres). Si r = p,
le système a une solution unique ; si r < p, il a une infinité de solutions.
⋄ un système linéaire non homogène n’est pas forcément compatible. S’il est compatible, sa solu-
tion générale est la somme d’une solution particulière et de la solution générale du système linéaire
homogène associé. De ce fait, un système linéaire a toujours zéro, une unique, ou une infinité de
solutions.
⋄ un système linéaire peut être écrit sous forme d’une équation matricielle.
⋄ les opérations élémentaires sur les lignes s’interprètent alors comme la multiplication à gauche
par des matrice inversibles ; le fait qu’on puisse mettre n’importe quelle système sous forme échelonnée
réduite implique que, pour toute matrice A, il existe une matrice inversible P telle que P A est
échelonnée réduite.
⋄ soit A une matrice carré n × n. Supposons que par une suite d’opération élémentaires, on
transforme A en une matrice A′ échelonnée réduite. Alors : si A′ 6= In , A n’est pas inversible ; si
A′ = In alors A est inversible et l’inverse de A est la matrice obtenue en faisant la même suite
d’opérations élémentaires à partir de la matrice In . Ceci donne une méthode pratique de calcul de
l’inverse.
⋄ une matrice carrée n × n est inversible si et seulement si elle est de rang n.
28