Algebre s3
Algebre s3
Algebre s3
1 Espaces vectoriels 1
1.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Parties génératrices, parties libres, bases . . . . . . . . . . . . . . . . 19
1.4 Espaces vectoriels de dimensions finies . . . . . . . . . . . . . . . . . 38
1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . 54
2 Applications linéaires 69
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.2 Image directe et image réciproque d’un sous-espace . . . . . . . . . . 74
2.3 Détermination d’une application linéaire dans une base . . . . . . . . 77
2.4 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . . 84
2.5 Théorème du noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.6 Projecteurs et symétries . . . . . . . . . . . . . . . . . . . . . . . . . 99
3 Matrices 103
3.1 L’espace vectoriel Mn,p (K) des matrices de type (n, p) . . . . . . . . 103
3.2 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . 109
3.3 Multiplication des matrices . . . . . . . . . . . . . . . . . . . . . . . . 116
3.4 L’algèbre Mn (K) des matrices carrées d’ordre n . . . . . . . . . . . . 128
3.5 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3.6 Transposée, rang et trace d’une matrice . . . . . . . . . . . . . . . . . 153
3.7 Opérations élémentaires [trop!!!!!!!!rang.pdf] Voir cours ev de Driss ou
Ouafi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
3.8 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
i
4 Déterminants
Sommaire
4.1 Compteurs
4.2 Longueurs
4.3 Espaces
4.4 Boîtes
4.5 Définitions
4.6 Mais encore ?
En = E × E × · · · × E
| {z }
n fois
f : E n −→ K, (v1 , . . . , vn ) 7→ f (v1 , . . . , vn )
1. f est une forme n-linéaire, c’est-à-dire f est linéaire par rapport à chaque
variable vi .
Ceci signifie que pour tous vecteurs v1 , . . . , vi−1 , vi+1 , · · · , vn de E, l’application
167
168 Chapitre 4. Déterminants
f (v1 , . . . , vi , . . . , vj , . . . , vn ) = −f (v1 , . . . , vj , . . . , vi , . . . , vn )
3. f (e1 , . . . , en ) = 1.
On démontre qu’une telle application existe et qui est unique, on la note detB :
est une application linéaire. D’autre part, rappelons que l’image du vecteur
nul par une application linéaire est le vecteur nul. D’où fi (0E ) = 0K .
Par conséquent, si l’un des vecteurs vi est nul, alors det(v1 , . . . , vn ) est nul :
det(v1 , . . . , 0E , . . . , vn ) = 0K
2.
det(v1 , . . . , vi−1 , vi + wi , vi+1 , . . . , vn ) =
det(v1 , . . . , vi−1 , vi , vi+1 , . . . , vn ) + det(v1 , . . . , vi−1 , wi , vi+1 , . . . , vn )
3.
det(v1 , . . . , αvi , . . . , vn ) = α det(v1 , . . . , vi , . . . , vn )
4.
det(α1 v1 , α2 v2 , . . . , αn vn ) = (α1 α2 . . . αn )det(v1 , v2 , . . . , vn )
p p
X X
5. det(v1 , . . . , vi−1 , λk wk , vi+1 , . . . , vn ) = λk det(v1 , . . . , vi−1 , wk , vi+1 , . . . , vn )
k=1 k=1
det(αv1 + βw1 , γv2 + δw2 ) = αdet(v1 , γv2 + δw2 ) + βdet(w1 , γv2 + δw2 ).
det(v1 , . . . , vi , . . . , vj , . . . , vn ) = −det(v1 , . . . , vj , . . . , vi , . . . , vn )
det(v1 , . . . , vi , . . . , vi , . . . , vn ) = 0K
det(v1 , . . . , vi , . . . , vi , . . . , vn ) = −det(v1 , . . . , vi , . . . , vi , . . . , vn )
Démonstration.
X
det(v1 , . . . , vi−1 , vi , vi+1 , . . . , vn ) = det(v1 , . . . , vi−1 , λk vk , vi+1 , . . . , vn )
k6=i
X
= λk det(v1 , . . . , vi−1 , vk , vi+1 , . . . , vn ) = 0K
k6=i
Corollaire 4.1.8 (Règle de calcul). On ne change pas la valeur prise par le dé-
terminant sur un n-uplet (v1 , . . . , vn ) de E n en ajoutant à l’un des vecteurs vi une
combinaison linéaire des autres vecteurs :
X
det(v1 , . . . , vi−1 , vi , vi+1 , . . . , vn ) = det(v1 , . . . , vi−1 , vi + λk vk , vi+1 , . . . , vn )
k6=i
Démonstration.
X X
det(v1 , . . . , vi + λk vk , . . . , vn ) = det(v1 , . . . , vi , . . . , vn ) + f (v1 , . . . , λk v k , . . . , v n )
k6=i k6=i
= det(v1 , . . . , vi , . . . , vn ),
Déterminant d’ordre n = 2 :
Or,
det(e1 , y1 e1 + y2 e2 ) = y1 det(e1 , e1 ) + y2 det(e1 , e2 )
det(e2 , y1 e1 + y2 e2 ) = y1 det(e2 , e1 ) + y2 det(e2 , e2 )
D’où
det(x1 e1 + x2 e2 , y1 e1 + y2 e2 )
= x1 y1 det(e1 , e1 ) + x1 y2 det(e1 , e2 ) + x2 y1 det(e2 , e1 ) + x2 y2 det(e2 , e2 )
det(x1 e1 + x2 e2 , y1 e1 + y2 e2 ) = x1 y2 − x2 y1
Déterminant d’ordre n = 3 :
det(x1 e1 + x2 e2 + x3 e3 , y1 e1 + y2 e2 + y3 e3 , z1 e1 + z2 e2 + z3 e3 ) =
x1 y2 z3 + x2 y3 z1 + x3 y1 z2 ) − (x3 y2 z1 + x1 y3 z2 + x2 y1 z3 )
Ainsi, à titre d’exemples, les déterminants d’ordre 2 et 3 que nous avons développés
tout à l’heure peuvent s’écrire sous forme :
x1 y 1
x2 y2 = x1 y2 − x2 y1
x1 y1 z1
x2 y2 z2 = (x1 y2 z3 + x2 y3 z1 + x3 y1 z2 ) − (x3 y2 z1 + x1 y3 z2 + x2 y1 z3 )
x3 y3 z3
1 0 . . . 0
0 1 . . . 0
det(In ) = .. .. . . .. = 1
. . . .
0 0 . . . 1
Remarque 4.2.3. Les colonnes d’une matrice carrée forment n vecteurs et nous
voyons donc qu’un déterminant det sur l’espace vectoriel E = K n induit une appli-
cation det : Mn (K) −→ K définie par det(A) = det(C1 , . . . , Cn ) où Ci est la i-ème
colonne de A. Le déterminant d’une matrice A ∈ Mn (K) est dit déterminant
d’ordre n.
Nous avons déjà montré que le déterminant d’une famille liée de vecteurs est nul.
En fait, on admet que la réciproque est également vraie, c’est-à-dire si le déterminant
d’une famille (v1 , . . . , vn ) est nul, alors cette famille est liée. Nous récapitulons donc
ce résultat ainsi que sa contraposée comme suit :
Théorème 4.2.4. Soit (v1 , . . . , vn ) une famille de n vecteurs d’un espace vectoriel
E de dimension n et soit B une base de E. On a :
0
a a
Exemple 4.2.5. Soient v1 = et v2 = deux vecteurs de E = K2 . On a :
b b0
a a 0
(v1 , v2 ) est liée ⇐⇒ det(v1 , v2 ) = 0 ⇐⇒ = 0 ⇐⇒ ab 0 − a 0 b = 0.
b b 0
0 00
a a a
Exemple 4.2.6. Soient v1 = b , v2 = b 0 , v3 = b 00 trois vecteurs de
c c0 c 00
E = K3 . On a :
a a 0 a 00
(v1 , v2 , v3 ) est liée ⇐⇒ det(v1 , v2 , v3 ) = 0 ⇐⇒ b b 0 b 00 = 0.
c c 0 c 00
4. Puisque A × A−1 = In , alors det (A × A−1 ) = det(In ). Or, nous avons déjà
vu que det(In ) = 1. En outre, la propriété 2 ci-dessus donne det (A × A−1 ) =
det(A) × det (A−1 ). D’où le résultat voulu.
det(P −1 AP ) = det(A)
D’après la section précédente, nous savons déjà calculer les déterminants d’ordres
2 et 3. Nous verrons ultérieurement comment calculer le déterminant d’ordre n
quelconque. Mais tout d’abord, rappelons que la transposée t A d’une matrice carrée
A = (aij ) d’ordre n est la matrice carrée d’ordre n définie par t A = (bij ) avec
bij = aji . Concrètement, la matrice t A s’obtient en échangeant les lignes et les
colonnes de A, c’est-à-dire les lignes de A deviennent les colonnes de t A (et les
colonnes de A deviennent les lignes de t A).
Comparons à présent les déterminants d’une matrice
A et de sa
transposée
t
A pour
x1 y 1 x x
n = 2 et n = 3. Il est clair que si A = , alors t A = 1 2
. Donc
x2 y 2 y1 y2
t
x1 x2 x1 y1
det( A) = = x1 y 2 − y 1 x2 = x1 y 2 − x2 y 1 =
x2 y2 = det(A).
y1 y2
x1 y1 z1
De même, on vérifie aisément ce résultat pour n = 3, car si A = x2 y2 z2 ,
x3 y3 z3
det(A) = det(t A)
Ce théorème nous dit qu’on peut échanger les lignes et les colonnes d’une matrice
carrée A sans changer son déterminant. Plus précisément, notons C1 , . . . , Cn les co-
lonnes de A et L1 , . . . , Ln les lignes de A. Par définition, det(A) = det(C1 , . . . , Cn ).
Mais les lignes L1 , . . . , Ln de A sont les colonnes de t A, donc la définition du dé-
terminant de la matrice det(t A) s’écrit det(t A) = det(L1 , . . . , Ln ). Par conséquent,
det(A) = det(C1 , . . . , Cn ) = det(L1 , . . . , Ln ). Ainsi, toute règle de calcul du déter-
minant relatif aux colonnes se transpose immédiatement aux lignes, et vice-versa.
• Si l’un des vecteurs colonnes est nul, alors le déterminant de la matrice est
nul;
• Si l’un des vecteurs colonnes est combinaison linéaire des autres vecteurs co-
lonnes, alors le déterminant de la matrice est nul.
• Si l’un des vecteurs lignes est nul, alors le déterminant de la matrice est nul;
• Si l’un des vecteurs lignes est combinaison linéaire des autres vecteurs lignes,
alors le déterminant de la matrice est nul.
3 −1 2
Exemple 4.2.11. Soit la matrice A = 2 −1 1. Ses trois vecteurs lignes
1 0 1
L1 = 3, −1, 2 , L2 = 2, −1, 1 , L3 = 1, 0, 1 sont linéairement dépendants :
1 2 3
Exemple 4.3.1. Si A= 4 5 6, alors on a par exemples
7 8 9
5 6 2 3 1 3 1 2
A11 = , A21 = , A32 = , A33 =
8 9 8 9 4 6 4 5
Ceci étant défini, nous énonçons sans démonstration le résultat important sui-
vant :
n
X
det(A) = (−1)i+j aij det(Aij )
i=1
n
X
det(A) = (−1)i+j aij det(Aij )
j=1
= a11 (a22 a33 − a32 a23 ) − a12 (a21 a33 − a31 a23 ) + a13 (a21 a32 − a31 a22 )
= a11 a22 a33 − a11 a32 a23 − a12 a21 a33 + a12 a31 a23 + a13 a21 a32 − a13 a31 a22
On retrouve ainsi l’expression du déterminant d’ordre 3 déjà obtenu par la règle de
Sarrus.
2 3 5
Exemple 4.3.7. Calculons le déterminant de la matrice A = 1 4 2 suivant
2 1 5
la colonne 2 :
1 2 2 5 2 5
det(A) = −3 +4
2 5 − 1 × 1 2 = ((−3) × 1) + (4 × 0) − (1 × (−1)) = −2
2 5
Remarque 4.3.8. On s’aperçoit très vite que cette méthode est longue, surtout
si la taille n de la matrice augmente, car on doit calculer n déterminants d’ordres
n − 1. Par contre, cette méthode est très pratique quand une ligne ou une colonne
contient beaucoup de zéros.
Dans la pratique, on choisit une ligne ou une colonne qui contient beaucoup de
zéros si possible pour minimiser les calculs.
2 1 0 5
Or, il est convenable ici de développer suivant la colonne 3 qui contient trois termes
nuls :
1 4 2 2 3 5 2 3 5 2 3 5
det(A) = +0 × 5 4 6 − 0 × 5 4 6 + 8 × 1 4 2 − 0 × 1 4 2
2 1 5 2 1 5 2 1 5 5 4 6
a11 a12 . . . a1n
0 a22 . . . a2n
.. .. . . . .. = a11 a22 . . . ann
. . .
0 0 . . . ann
a a
• La formule est vraie pour n = 2 puisque 11 12 = a11 a22 .
0 a22
• Supposons la formule
vraie pour toute matrice
triangulaire supérieure d’ordre
a11 a12 . . . a1n
0 a22 . . . a2n
n − 1 et soit A = .. .. . . .. une matrice triangulaire supérieure
. . . .
0 0 . . . ann
d’ordre n.
Il est facile de voir que la première colonne et la dernière ligne contiennent
beaucoup de zéros, donc il convient de développer par rapport à l’une de ces
deux rangées. Par exemple, développons le déterminant de A par rapport à la
dernière ligne :
a11 a12 ... a1 n−1 a1n
a11 a12 ... a1 n−1
0 a22 ... a2 n−1 a2n
0 a22 ... a2 n−1
det(A) = ... .. .. .. ..
. . . . = +ann .. .. .. ..
. . . .
0 0 . . . an−1 n−1 an−1 n
0 0 . . . an−1 n−1
0 0 ... 0 ann
a11 a12 . . . a1 n−1
0 a22 . . . a2 n−1
D’après l’hypothèse de récurrence, .. .. . . .. = a11 a22 . . . an−1 n−1 ,
. . . .
0 0 . . . an−1 n−1
car c’est le déterminant d’une matrice triangulaire supérieure d’ordre n − 1.
D’où le résultat.
X − a (X − a)2 (X − a)n
En particulier, la famille 1, , , ..., , où a ∈ K, forme
1! 2! n!
une base de Kn [X], puisque c’est une famille échelonnée de polynômes. Cette base
est utilisée notamment dans la formule de Taylor pour les polynômes.
C’est-à-dire
1 0 ... 0 0 ... 0
0 1 ... 0 0 ... 0
. .. .. .. ..
. ...
. . . . .
a11 . . . a1m
. . . 0 = ... .. ..
0 0 ... 1 0 . .
c11 c12 . . . c1n a11 . . . a1m am1 . . . amm
. .. .. .. ..
.. . . . .
c cm2 . . . cmn am1 . . . amm
m1
En effet, il suffit d’effectuer des développements successifs par rapport aux pre-
mières lignes, qui sont les plus simples : il ne reste plus à la fin que le déterminant
de A.
A C
O = det(A)det(B)
B
ComA = cij ij
= (−1)i+j det Aij ij
a c
Exemple 4.3.14. Soit A = ∈ M2 (K). Puisque A11 = d, A12 = b, A21 =
b d
c, A22 = a, alors la comatrice de A est la matrice
(−1)1+1 A11 (−1)1+2 A12 (−1)1+1 d (−1)1+2 b d −b
ComA = = =
(−1)2+1 A21 (−1)2+2 A22 (−1)2+1 c (−1)2+2 a −c a
1 −1 0
Exemple 4.3.15. Considérons la matrice A = 0 1 2. Sa comatrice est
2 0 3
1 2 0 2 0 1
0 3
−
2 3
2 0
−1 0 1 0
3 4 −2
− 1 −1 = 3
ComA = −
0 3 2 3 3 −2
2 0
−1 0
−2 −2 1
− 1 0 1 −1
1 2 0 2 0 1
Corollaire 4.3.17 (Inverse d’une matrice carrée). Si A est une matrice carrée in-
versible d’ordre n ≥ 2, on a
1 t
A−1 = (ComA)
detA
Cette jolie formule conduit à des calculs pénibles ! Exceptés les cas n = 2 et n = 3,
cette formule ne peut servir au calcul numérique de l’inverse car elle comporte trop
d’opérations.
a c
Exemple 4.3.18. Soit A = ∈ M2 (K). Si det(A) = ad − bc 6= 0, alors A
b d
est inversible et la formule précédente fournit :
−1 1 t 1 d −c
A = (ComA) =
detA ad − bc −b a
1 −1 0
Exemple 4.3.19. Soit la matrice A = 0 1 2 traitée dans l’exemple (4.3.15).
2 0 3
Il n’est pas difficile de montrer que det(A) = −1 6= 0, et donc A inversible. Puisque
sa comatrice est
3 4 −2
ComA = 3 3 −2 ,
−2 −2 1
alors
3 3 −2
t
(ComA) = 4 3 −2 .
−2 −2 1
D’où
3 3 −2 −3 −3 2
1 t
A−1 = (ComA) = − 4 3 −2 = −4 −3 2
detA
−2 −2 1 2 2 −1
Comme d’habitude, pour s’assurer qu’il n’y a pas d’erreurs dans le résultat de A−1 ,
vérifier toujours par le calcul qu’on a bien l’égalité A × A−1 = In !!!
En d’autres termes, le rang d’une matrice A est le plus grand entier r pour lequel
il existe un déterminant non nul d’ordre r extrait de A.
2 1 4
Exemple 4.4.4. Calculons le rang de A = −3 −2 −8. Il faut commencer par
0 5 20
considérer les déterminants extraits de A de plus grand ordre k. Le plus grand ordre
possible k est 3 car le déterminant de A peut être considérée comme extrait de A
en supprimant 0 lignes et 0 colonnes.
En regardant les colonnes, on a C3 = 4C2 . Donc la matrice A n’est pas inversible,
d’où det(A) = 0, ce qui donne rang(A) < 3.
Donc il n’existe pas de déterminant d’ordre 3 extrait de A qui soit non nul.
5 −2 3
Ces trois vecteurs appartiennent à l’espace vectoriel E = K . 4
Formons
la matrice A des coordonnées de v1 , v2 , v3 dans la base canonique B de K4 :
1 0 0
−1 1 0
A= ∈ M4,3 (K).
3 0 −1
5 −2 3
Il n’y a pas de déterminant d’ordre k = 4 extrait de A.
On peut choisir un déterminant d’ordre k = 3 extrait de A non nul : par exemple
1 0 0
−1 1 0 = 1 × 1 × (−1) = −1 6= 0 (déterminant d’une matrice triangulaire)
3 0 −1
D’où rang(v1 , v2 , v3 ) = 3 et, par suite, (v1 , v2 , v3 ) est libre.
a a 0 a a 0 b b 0
(v1 , v2 ) est liée ⇐⇒
= = =0
b b0 c c0 c c0
dans lequel les coefficients aij et les bi sont des scalaires de K et x1 , . . . , xn sont
les inconnues qui appartiennent aussi à K. Les éléments b1 , . . . , bp sont appelés
les seconds membres. Les p équations sont notées L1 , . . . , Lp et s’appellent aussi les
lignes du système.
Le système (4.1) s’écrit en abrégé
X
aij xj = bi i = 1, 2, . . . , p.
j=1
On appelle solution du système tout n-uplet (x1 , . . . , xn ) dans Kn vérifiant les équa-
tions L1 , . . . , Lp . Résoudre le système c’est trouver toutes les solutions.
On dit qu’un système linéaire est compatible s’il possède au moins une solution
(x1 , . . . , xn ). Il est dit incompatible (ou impossible) lorsqu’il n’ a aucune solution.
Interprétation vectorielle :
Soient les espaces vectoriels Kn et Kp . Considérons les vecteurs colonnes
b1 a11 a1n
b2 a21 a2n
B = .. ∈ Kp , et A1 = .. ∈ Kp , . . . , An = .. ∈ Kp
. . .
bp ap1 apn
x1 A1 + · · · + xn An = B (4.2)
Le problème posé est d’écrire le vecteur B comme combinaison linéaire des vecteurs
A1 , . . . , An et de calculer les scalaires x1 , . . . , xn correspondants.
Interprétation matricielle :
Soit A la matrice de type (p, n) formée des coefficients aij du système, c’est-à-dire
a11 a12 . . . a1n
a21 a22 . . . a2n
A = .. .. ..
. . .
ap1 ap2 . . . apn
A s’appelle la matrice su système. Les vecteurs colonnes de la matrice A sont les
vecteurs
colonnes
A1 , . . . , An utilisés dans la représentation vectorielle (4.2). Notons
x1
x2
X = .. ∈ Kn . A l’aide de la multiplication des matrices, le système (4.1) devient
.
xn
alors
AX = B (4.3)
Résoudre le système (4.1) revient à chercher les matrices uni-colonnes X ∈ Kn véri-
fiant l’équation matricielle AX = B.
Interprétation fonctionnelle :
Soient f : Kn −→ Kp l’application linéaire dont la matrice par rapport aux bases
canoniques de Kn et Kp est la matrice A = (aij ) utilisée dans l’interprétation ma-
tricielle (4.3).
Or, l’écriture
matricielle d’une application linéaire dit que pour tout vecteur
x1
x2
X = .. ∈ Kn , son image f (X) est donnée par f (X) = AX. Par conséquent, le
.
xn
système (4.1) s’écrit
f (X) = B
Définition 4.6.1. Le rang r du système est le rang de la matrice A associée, c’est-
à-dire aussi le rang des vecteurs colonnes A1 , . . . , An de A. C’est aussi le rang de
l’application linéaire f associée.
Un système linéaire est dit homogène si le second membre B est nul, c’est-
à-direb1 =· · ·
= bp = 0. Il admet toujours au moins une solution : la solution nulle
x1 0
x2 0
X = .. = .. . Ce système homogène s’écrit donc
. .
xp 0
X
aij xj = 0 i = 1, 2, . . . , p,
j=1
où encore
AX = 0.
x1 A1 + · · · + xn An = B (4.5)
∆i = xi det(A1 , . . . , An ) = xi ∆.
∆i
xi = (i = 1, . . . , n)
∆
Les formules de Cramer ont une importance plutôt théorique. Quand la taille n
d’un système est grande, les formules de Cramer entraînent trop de calculs car on
doit calculer n + 1 déterminants d’ordre n qui sont ∆, ∆1 , . . . , ∆n !
On privilégie alors la méthode du pivot de Gauss, qui est la reine de toutes les méthodes,
et qui se prête facilement à la programmation à l’aide des logiciels de calcul formel.
Toute opération doit être effectuée sur les deux membres de l’équation.
On montre que le nouveau système est équivalent au système de départ. Ceci
veut dire que l’on ne change pas l’ensemble des solutions d’un système linéaire en
effectuant une opération élémentaire.
• Répéter les opérations précédentes sur les lignes L2 , . . . , Lp (en éliminant l’in-
connue x2 ), et ainsi de suite.
Voici des exemples qui valent mieux qu’un long discours abstrait :
x +y +z +t = 1 (L1 )
2z −t = 0 (L2 ← L2 − 2L1 )
−2y + z +3t = 3 (L3 ← L3 + L1 )
y +z −3t = −3 (L4 ← L4 − 3L1 )
x +y +z +t = 1
y + z −3t = −3 (L2 ↔ L4 )
−2y + z +3t = 3
2z − t = 0 (L4 ↔ L2 )
x +y + z + t = 1
y + z −3t = −3 (L2 )
3z −3t = −3 (L3 ← L3 + 2L2 )
2z − t = 0 (L4 )
x +y + z + t = 1
y + z −3t = −3
z −t = −1 (L3 ← 31 L3 )
2z − t = 0
x +y +z + t = 1
y +z −3t = −3
z − t = −1 (L3 )
t = 2 (L4 ← L4 − 2L3 )
x +y +z +t = 1 (L1 )
z −t = 0 (L2 ← L2 − 2L1 )
−z −t = −2 (L3 ← L3 − 2L1 )
x +y +z + t = 1 (L1 )
z −t = 0 (L2 )
−2t = −2 (L3 ← L3 + L2 )
x +y +z + t = 1
z −t = 0
−2t = −2
• t = 1,
• z = t = 1,
• x = 1 − y − z − t = −1 − y.
L’inconnue y peut prendre n’importe quelle valeur dans R, il y a une infinité de
solutions :
S = {(−1 − y, y, 1, 1) | y ∈ R}. L’ensemble des solutions dépend d’un paramètre y.
x +y = 1
y = 1 (L2 ← L2 − L1 )
2y = a − 1 (L3 ← L3 − L1 )
x +y = 1
y = 1
0 = a − 3 (L3 ← L3 − 2L2 )