Fiches 1 2 3
Fiches 1 2 3
Fiches 1 2 3
L1 Économie (2016-17)
Introduction
Ce cours d’algèbre linéaire sera utilisé dans la seconde partie concernant “l’Analyse”,
en particulier pour les calculs de minimisation/maximisation avec ou sans contraintes.
Nous l’utiliserons aussi partiellement quand nous aborderons les équations différentielles
linéaires.
Remarque. Pour la résolution des systèmes par la méthode du pivot de Gauss (voir
plus bas), il est commun de numéroter chaque ligne par L1 , L2 , · · · , Li , · · · , Ln .
L’indice i dans aij correspond à l’indice de “ligne”, c’est à dire que aij intervient
dans la i-ème ligne Li du système
L’indice j dans aij correspond à l’indice de “colonne”, c’est à dire que aij est le
coefficient devant la j-ème inconnue xj .
Définition 1.3. Une solution du système linéaire (2) est une liste de p nombres réels
(complexes) (s1 , s2 , · · · , sp ) qui mis à la place de (x1 , x2 , · · · , xn ) vérifient l’équation
(2).
Résoudre une équation linéaire réelle (resp. complexe) consiste à décrire l’ensemble
des listes de p nombres réels (resp. complexes) qui vérifient la relation (1)
Définition 1.4.
• On appelle coefficients d’un système linéaire les valeurs aij , où i ∈ {1, · · · , n},
j ∈ {1, · · · , p}.
• On appelle second membre d’un système linéaire le n-uplet (b1 , b2 , · · · , bn ).
• On dira qu’un système linéaire est homogène si le second membre est nul, i.e.,
si (b1 , b2 , · · · , bn ) = (0, 0, · · · , 0).
Exemple: Le système
x1 −x2 +2x3 = 1
(3)
3x1 −4x3 = −1
admet comme solution (1, 2, 1). Ce n’est pas la seule solution de ce système. Ce n’est
pas un système homogène. Il admet pour second membre (1, −1).
Définition 1.5 (Systèmes équivalents). On dira que deux systèmes linéaires sont
équivalents s’ils ont le même ensemble de solutions.
Théorème 1.6. Pour tout système linéaire de la forme (2), on a l’un des 3 cas
suivants:
(1) Le système n’admet aucune solution
(2) Le système admet un p-uplet de solution et un seul
(3) Le système admet une infinité de p-uplets solutions.
Remarque. i) Les systèmes homogènes admettent toujours comme solution (au moins)
le p-uplet (0, 0 · · · , 0).
ii) D’après ce théorem̀e, il n’est pas possible de trouver seulement deux (ou un nombre
fini strictement supérieur à un) solutions à un système linéaire. Dès qu’on a plus
d’une solution, il y en a forcément une infinité.
grâce à certaines opérations sur les lignes. L’objectif est d’aboutir à un système que
l’on peut résoudre simplement, qu’on nomme “système échelonné”.
Définition 1.7. Un système est dit échelonné si le nombre de coefficients nuls com-
mençant une ligne est strictement croissant d’une ligne à l’autre.
(2) On remplace une ligne par elle-même plus un multiple d’une autre ligne:
Li −→ Li + λLj (i 6= j).
x1 −x2 +2x3 = 1
⇔ 2x1 +x2 +x3 = 5 L2 −→ L2 − 2L1
3x1 −4x3 = −1
x1 −x2 +2x3 = 1
⇔ +3x2 −3x3 = 3
3x1 −4x3 = −1 L3 −→ L3 − 3L1
x1 −x2 +2x3 = 1
⇔ 3x2 −3x3 = 3 L2 −→ 13 L2
3x2 −10x3 = −4
x1 −x2 +2x3 = 1
⇔ x2 −x3 = 1 L3 −→ L3 − 3L2
3x2 −10x3 = −4
x1 −x2 +2x3 = 1 x1 −x2 +2x3 = 1
⇔ x2 −x3 = 1 L3 −→ − 16 L3 ⇔ x2 −x3 = 1
−7x3 = −7 x3 = 1
Le système de départ a donc les mêmes solutions que le dernier système. L’avantage
est que le dernier système se résout simplement. On trouve x3 = 1, qui donne alors
avec la ligne 2 (du dernier système) x2 = 1 + x3 = 1 + 1 = 2, puis avec la ligne 1,
x1 = x2 − 2x3 + 1 = 2 − 2 + 1 = 1. Le système admet donc comme unique solution le
triplet: (1, 2, 1).
C’est un exemple d’application de la méthode de résolution par le pivot de Gauss.
Pour la résolution d’un système linéaire par la méthde du pivot de Gauss, les étapes
sont les suivantes:
(1) On réécrit le système en plaçant en ligne 1 une ligne où le premier coefficient
est non nul. Si possible, on choisit une ligne où le premier coefficient vaut 1.
(2) Si le premier coefficient de la ligne 1 est différent de 1, on remplace la première
ligne par elle-même divisée par la valeur du premier coefficient de cette ligne.
On obtient alors une ligne où le premier coefficient a pour valeur 1.
(3) On laisse inchangée la ligne 1, et on remplace chaque ligne Li (successivement
pour i = 2, · · · , n) par elle-même moins la première ligne fois le premier
coefficient de la ligne i: Li −→ Li − ai1 L1 . On obtient alors un système où
les lignes 2 à n ont leur premier coefficient nul.
(4) On conserve la ligne 1 inchangée (et cela jusqu’à la fin), et on procède avec
les lignes 2 à n en recommençant au point 1.
Exercice. Vérifiez que l’on a bien procédé ainsi dans l’exemple précédent.
Rn = {(x1 , x2 , · · · , xn ) | xi ∈ R}.
λun
0
..
Le vecteur nul (qui sera appelé élément neutre) est 0 = . . L’opposé d’un vecteur u
0
−u1
est le vecteur noté −u et qui vérifie u+(−u) = 0, c’est donc le vecteur −u = ... .
−un
Remarque. i) Plutôt que la notation u, on utilise parfois ~u (notation du lycée).
ii) Dans R2 , on peut aussi représenter la somme de vecteurs, et le produit extérieur,
par un schéma.
La structure d’espace vectoriel de Rn permet d’avoir les propriétés suivantes qui
sont bien connues dans R.
Proposition 2.3. Pour u, v et w vecteurs quelconques de Rn et λ et µ deux réels
quelconques, on a
1. u + v = v + u; 2. u + (v + w) = (u + v) + w
3. u+0=0+u=u 4. u + (−u) = 0
5. 1u = u 6. 0u = 0
7. λ(u + v) = λu + λv 8. λ(µu) = λ(µu)
L’espace vectoriel R est usuellement représenté par l’axe des abscisses.
L’espace vectoriel R2 est représenté par le plan.
Exercice. Démontrez les propriétés de la proposition 2.3 dans le cas R2 .
0 0 1 0
λ1 λ2 0 0
0 λ2 λ3 0
(4) ⇔ −λ1 + 2λ2 + −λ3 = 0
0 0 λ3 0
λ1 +λ2 0
λ2 +λ3 0
⇔ −λ1 +2λ2 −λ3 = 0
λ3 0
Que l’on peut résoudre par pivot de Gauss (ou plus directement) et dont la seule
solution est (λ1 , λ2 , λ3 ) = (0, 0, 0). Ce qui permet de conclure que la famille de
vecteurs {v (1) , v (2) , v (3) } est libre.
B Remarquez bien qu’il était clair dès le début que (0, 0, 0) était une solution
possible. La question était de savoir si c’était bien la seule.
Exercice. Etudier les systèmes suivants et dire s’ils sont libres ou pas.
1 0 0 1 1 2
0 1 0 2 1 3
S1 = ;
0 0 0 ; ; S2 = 3 1 4 ;
; ;
0 0 1 4 1 5
1 1 0 1 1 0 1
S3 = 0 ; 1 ; −1 ; S4 = 0 ; 1 ; −1 ; 1
−1 2 1 −1 2 1 2
Théorème 2.6. Si {v (1) , · · · , v (p) } est une famille libre, alors toute sous-famille, c’est
à dire tout ensemble inclus dans {v (1) , · · · , v (p) }, est aussi une famille libre.
Exemple. La famille {v (1) , v (3) }, où {v (1) , v (2) , v (3) } est la famille libre de l’exemple
ci-dessus, est une famille libre.
Théorème 2.8. i) Si une famille est liée, alors il existe (au moins) un vecteur de
cette famille qui est combinaison linéaire des autres.
ii) Si {v (1) , v (2) , · · · , v (p) } est une famille liée, alors tout ensemble de vecteurs con-
tenant {v (1) , v (2) , · · · , v (p) } est aussi une famille liée.
iii) Si {v (1) , v (2) , · · · , v (p) } est une famille de vecteurs de Rn et si p > n, alors néces-
sairement, {v (1) , v (2) , · · · , v (p) } est une famille liée.
Remarque. Quand deux vecteurs sont linéairement dépendants, on dit qu’ils sont
colinéaires. Dans R2 (ou dans R3 ), on a une bonne représentation géométrique de
deux vecteurs colinéaires.
De manière générale, il peut être utile d’avoir une représentation géométrique des
vecteurs. Par exemple, deux vecteurs colinéaires peuvent se représenter comme ap-
partenant à la même droite (vectorielle).
Trois vecteurs formant une famille liée sont tels que l’un peut s’écrire comme une
combinaison linéaire des deux autres. Dans l’exemple de la famille S2 ci-dessus, on
a par exemple que le 3ème vecteur est la somme des deux premiers.
Définition 2.9 (Espace engendré.). Soit {v (1) , v (2) , · · · , v (p) } une famille quelconque
de vecteurs de Rn . On notera Vect{v (1) , v (2) , · · · , v (p) } l’ensemble constitué de toutes
les combinaisons linéaires possibles des vecteurs v (1) , v (2) , · · · , v (p) :
Vect{v (1) , v (2) , · · · , v (p) } = {λ1 v (1) + λ2 v (2) + · · · λn v (n) | λi ∈ R}.
Définition 2.11 (Famille génératrice). Soit {v (1) , v (2) , · · · , v (p) } une famille de p
vecteurs de Rn . On dit que cette famille est génératrice de Rn si tout vecteur u de Rn
peut s’écrire comme combinaison linéaire de vecteurs de {v (1) , v (2) , · · · , v (p) }:
Exercice. Pouvez-vous donnez une famille (la plus “simple possible”) qui soit génératrice
de R4 ?
Est-il possible de contruire une famille de deux vecteurs dans R3 qui soit une famille
génératrice? (pensez à la représentation géométrique).
Définition 2.12 (Base). On appelle base d’un espace vectoriel toute famille qui est
à la fois libre et génératrice.
1 0 0
Exemple. La famille 0 ; 1 ; 0 est une base de R3 . On peut montrer que
0 0 1
1 0 0
la famille 1 ; 1 ; −1 est aussi une base de R3 .
0 1 1
Définition 2.13 (Dimension d’un espace vectoriel). Un espace vectoriel est de di-
mension finie s’il possède une base avec un nombre fini de vecteurs. Dans ce cas là,
la dimension de l’espace vectoriel est égal au nombre de vecteurs d’une base de cet
espace vectoriel.
Remarque. i) Cette définition contient une propriété: Toutes les bases d’un espace
vectoriel de dimension finie ont le même nombre de vecteurs.
ii) On n’en parlera pas (ou très peu) cette année; mais il existe des espaces vectoriels de
dimension infinie. Vous en avez déjà rencontré (au moins) un au semestre précédent.
iii) On a la propriété dim(Rn ) = n. Montrez le (commencez par exemple dans le cas
n = 3). La base canonique de Rn est la famille de n vecteurs {e(1) , e2) , · · · , e(n) } telle
que pour tout j, le vecteur e(j) est le vecteur ayant pour jème composante 1 et ses
autres composantes nulles. Voir la première famille donnée dans l’exemple ci-dessus
dans le cas de R3 .
v) Il peut sembler curieux, dans le cas de l’espace vectoriel Rn , de vouloir déterminer
d’autres bases que la base canonique. On verra plus tard que cela sera très utile de
trouver d’autres bases.
vi) La notion de base est une généralisaton de la notion de repère. Vous avez (prob-
ablement) vu, dans R2 , que tout vecteur se décompose comme combinaison linéaire
des vecteurs de la base orthonormale usuelle (~i, ~j). Les vecteurs ~i et ~j sont en fait
Remarque. Les propriétés iii) et iv) ci-dessus vous sont familières. En effet, dans
R3 vous savez (ou devinez) bien qu’il n’est pas possible, avec deux vecteurs seulement,
d’engendrer tout R3 : deux vecteurs u et v étant fixés dans R3 , il n’est pas possible que
tous les vecteurs de R3 soient combinaison linéaire de ces deux vecteurs. Il suffit de
choisir un vecteur w en dehors du plan (vectoriel) engendré par u et v, et on n’aura
jamais w = λu + µv.
De même dans R2 (pour faire simple), si on fixe 3 vecteurs, ils ne formeront jamais
une famille libre. Il y aura toujours un des vecteurs combinaison linéaire des deux
autres.
Définition 2.15 (Sous-espace vectoriel). Soit E un espace vectoriel où les scalaires
sont les éléments de R. Un sous-ensemble F ⊂ E est un espace vectoriel s’il vérifie
les trois propriétés suivantes:
(1) F n’est pas l’ensemble vide
(2) Si u et v sont deux vecteurs de F , alors u + v ∈ F
(3) Si u est un vecteur de F et λ est un scalaire, alors λu ∈ F .
Dans ce cas là, on dira que F est un sous-espace vectoriel de E.
0 0 0 1
1
2
I4 . La matrice X = est une matrice colonne, et Y = 1 2 0 −1 est une
0
−1
matrice ligne.
3.2. Opérations sur les matrices.
Définition 3.3 (Somme). Soient A = (aij ) et B = (bij ) deux matrices n × p. Alors
la matrice C = A + B est une matrice n × p obtenue en sommant terme à terme
chaque coefficient des matrices A et B:
a11 + b11 a12 + b12 · · · a1p + b1p
a21 + b21 a22 + b22 · · · a2p + b2p
A + B = C = (cij ) = (aij + bij ) =
.. .. .. ..
. . . .
an1 + bn1 an2 + bn2 ··· anp + bnp
Définition 3.4 (Produit par un réel (ou un complexe)). Soit A = (ai,j ) une matrice
et soit λ ∈ R. Alors, la matrice λA est la matrice obtenue en multipliant chaque
coefficient de la matrice A par λ. La matrice λA a donc pour coefficients (λai,j ).
Remarque. On ne peut pas additionner deux matrices qui n’auraient pas le même
nombre de lignes ou de colonnes.
Si A est une matrice n×p et si 0 est la matrice nulle n×p, alors A+0 = 0+A = A.
Grâce au produit d’une matrice par un scalaire (réel ou complexe), l’ensemble des
matrices Mn,p est un espace vectoriel. Il vérifie donc toutes les propriétés de la propo-
sition 2.3. En particulier, l’opposé −A d’une matrice A = (ai,j ) de Mn,p est dans
Mn,p , et a pour coefficients (−ai,j ).
On définit ensuite le produit de matrices. La définition ci-dessous est utile pour des
raisonnements abstraits, que nous éviterons pour cette année. C’est par un exemple
que vous comprendrez mieux comment se fait le produit de matrices.
Définition 3.5 (Produit de matrices). Soient A ∈ Mn,p et B ∈ Mp,` . Alors la
matrice C = AB a ses coefficients ci,j qui sont obtenus, pour tout i ∈ {1, · · · n} pour
tout j ∈ {1, · · · , `}, par
p
X
ci,j = ai,k bk,j
k=1
= ai,1 b1,j + ai,2 b2,j + · · · + ai,p bp,j
Remarque. i) B Notez bien que les deux matrices A et B ne sont pas nécessairement
dans les mêmes ensembles de matrices, mais que le nombre de colonnes de A doit être
égal au nombre de lignes de B.
ii) B Les matrices ne vérifient en général pas la propriété de commutation. Cela
signifie qu’en général AB 6= BA. Vous remarquerez d’ailleurs que l’un des deux
produits peut être bien défini, alors que l’autre ne l’est pas forcément, à cause du
nombre de lignes et de colonnes de A et B.
3 1 9
1 2 3 4 1 0 4
Exemple. Soient A = ∈ M2,4 et B = 9 2 5 ∈ M4,3 ; Alors,
2 5 1 −1
2 −1 2
la matrice C = AB est dans M2,3 et:
3 1 9
1 0 4
9 2 5
2 −1 2
1 2 3 4 . . .
2 5 1 −1 . . c2,3
où c2,3 = 2 ×
9 + 5 × 4 + 1 × 5 + (−1) × 2 = 41. Le calcul des autres coefficients
40 3 40
donne C = .
18 5 41
On ne peut pas calculer BA.
1 3 −4 1 0 −1
Exercice. Soit A = 2 6 −8, B = 1 −1 1 et I = I3 la matrice identité.
1 3 −4 2 −3 4
Calculer AB et BA, puis IA, IB, AI et BI.
4 −1
Proposition 3.7 (Propriétés du produit de matrices).
(1) A(BC) = (AB)C. C’est l’associativité du produit de matrices.
(2) A(B + C) = AB + AC. C’est la distributivité de la multiplication par rapport
à l’addition.
mêmes opérations que pour le pivot de Gauss, i.e., on cherche à obtenir une matrice
triangulaire.
Voici un exemple de calcul d’inverse de matrice par cette méthode. À chaque étape,
on note l’opération sur les lignes qui sera effectuée à l’étape suivante.
1 2 0 1 0 0
0 2 2 0 1 0 L3 −→ L3 + L1
−1 1 1 0 0 1
1 2 0 1 0 0
1
0 2 2 0 1 0 L2 −→ L2 puis L3 −→ L3 − 3L2
2
0 3 1 1 0 1
1 2 0 1 0 0
1
0 1 1 0 1/2 0 L3 −→ − L3 puis L2 −→ L2 − L3
2
0 0 −2 1 −3/2 1
1 2 0 1 0 0
0 1 0 1/2 −1/4 1/2 L1 −→ L1 − 2L2
0 0 1 −1/2 3/4 −1/2
1 0 0 0 1/2 −1
0 1 0 1/2 −1/4 1/2
0 0 1 −1/2 3/4 −1/2
1 2 0 0 1/2 −1 0 2 −4
L’inverse de A = 0 2 2 est A−1 = 1/2 −1/4 1/2 = 41 2 −1 2 .
−1 1 1 −1/2 3/4 −1/2 −2 3 −2
2 1 −7 8
0 6 9 4
Exemple. On a = 2 × 6 × 3 × 1 = 36.
0 0 3 −8
0 0 0 1
1 2 0 4
−1 1 2 4
0 2 2 alors A∗23 = 9
Exemple. Si A = −1 1
9 −1 1 1
2 −5 4
2 −5 −2 4
a1,1 a1,2 ··· a1,n
a2,1 a2,2 ··· a2,n
Définition 3.13 (Déterminants n × n). Soit A = . .. ∈ Mn
.. ..
.. . . .
an,1 an,2 ··· an,n
une matrice carrée d’ordre n. Alors
3 −1 6
−1 6 3 6 3 −1
4 2 0 = −4× +2× −0× = (−4)×(−5)+2×(15−6) = 38
0 5 1 5 1 0
1 0 5
On retrouve bien entendu la même valeur du déterminant.
Proposition 3.15. On peut effectuer le calcul d’un déterminant n×n en développant
par rapport à une colonne. Là encore, la formule est similaire au cas où on développe
par rapport à une ligne. Si on développe par rapport à une colonne impaire (la
première, la troisième, etc.), on commence par un “+”, et on alterne. Si on développe
par rapport à une colonne paire (la deuxième, la quatrième, etc.), on commence alors
par le signe “−00 , et
on alterne.
a1,1 a1,2 · · · a1,n
a2,1 a2,2 · · · a2,n
Ainsi, soit A = . .. ∈ Mn une matrice carrée d’ordre n.
. .. ..
. . . .
an,1 an,2 · · · an,n
Alors en développant par rapport à la j-ème colonne, on obtient:
det(A) = (−1)j+1 a1,j |A∗1j |−(−1)j+1 a2,j |A∗2j |+(−1)j+1 a3,j |A∗3j |+· · ·+(−1)n (−1)j+1 an,j |A∗nj |.
Reprenons la matrice précédente, et développons par rapport à la 3ème colonne.
3 −1 6
4 2 3 −1 3 −1
4 2 0 = 6× − 0× + 5× = 6×(−2) + 5×10 = 38
1 0 1 0 4 2
1 0 5
Une dernière série de propriétés utiles pour le calcul de déterminant.
Proposition 3.16. Soit A et B deux matrices carrées de Mn .
(1) Si on intervertit deux lignes de A, on change son déterminant en son opposé.
3 −1 6 4 2 0
4 2 0 =− 3 −1 6 propriété (1).
1 0 5 1 0 5
3 −1 6 0 −1 −9
4 2 0 = 4 2 0 (on a fait L1 −→ L1 − 3L3 et propriété (3))
1 0 5 1 0 5
0 −1 −9
= 0 2 −20 (on a fait L2 −→ L2 − 4L3 et propriété (3))
1 0 5
−1 −9
=1× (développement par rapport à la 1ère colonne)
2 −20
= −1 × (−20) − 2 × (−9) = 38.
30 −1 6 10 × 3 −1 −9
40 2 0 = 10 × 4 2 0 ( propriété (6))
10 0 5 10 × 1 0 5
3 −1 −9
= 10 4 2 0 ( propriété (6))
1 0 5
= 10 × 38 = 380.
3 7 6
4 2 0 =0 (on remarque que L3 = 10L1 + L2 et propriété (10))
34 72 60
Voici un théorème important sur l’inversibilité d’une matrice.
Théorème 3.17. Soit A ∈ Mn . Alors:
A est inversible ⇔ det(A) 6= 0
La proposition suivante donne une propriété simple pour montrer qu’une famille
de n vecteurs de Rn est une base.
Proposition 3.18. Soit (f1 , f2 , · · · fn ), n vecteurs dans Rn . Alors, (f1 , f2 , · · · fn ) est
une base de Rn si et seulement si det(f1 , f2 , · · · fn ) 6= 0.
Exemple. Dans les exemples d’applications i) à v) ci-dessus, dire celles qui sont des
applications linéaires et celles qui ne le sont pas.
Remarque. i) En d’autres termes, Im(f ) est l’ensemble de toutes les images possibles
f (u) lorsque u parcourt E.
ii) BNotez bien que Im(f ) est un sous-ensemble de F .
Proposition 4.7. Soit f une application linéaire de E vers F . Alors Im(f ) est un
sous-espace vectoriel de F . De plus, si E est de dimension finie p et que (e1 , e2 , · · · , ep )
est une base de E, alors
Im(f ) = Vect ({f (e1 ), f (e2 ), · · · , f (ep )}) ,
c’est à dire que Im(f ) est engendrée par la famille de vecteurs {f (e1 ), f (e2 ), · · · , f (ep )}.
Définition 4.8 (Rang d’une application linéaire). Soit f une application linéaire
de E vers F . On appelle rang de l’application linéaire f , que l’on note rg(f ), la
dimension de l’espace vectoriel Im(f ):
rg(f ) = dim(Im(f)).
Remarque. Nous verrons dans la proposition 4.23 un résultat très utile pour déterminer
le rang d’une application linéaire. Ce sera essentiellement ce résultat que nous utilis-
erons pour déterminer le rang d’une application linéaire.
Définition 4.10 (Noyau d’une application linéaire). Soit f une application linéaire
de E vers F . On appelle noyau de f , que l’on note Ker(f ), l’ensemble de tous les
vecteurs de E dont l’image par f est le vecteur nul:
Ker(f ) = { u ∈ E | f (u) = 0F }.
Proposition 4.11. Soit f une application linéaire de E vers F . Alors Ker(f ) est un
sous-espace vectoriel de E.
Théorème 4.13. Soit f une application linéaire d’un espace vectoriel E vers un
espace vectoriel F . Alors f est injective si et seulement si son noyau est réduit au
seul vecteur nul:
f est injective ⇔ Ker(f ) = {0E }
Théorème 4.14 (Théorème du rang). Soit f une application linéaire d’un espace
vectoriel E de dimension finie vers un espace vectoriel F alors
Remarque. Les coefficients de la matrice MatB,B0 (g) dépendent du choix des matrice
B et B 0 . Cela signifie qu’à une application linéaire donnée g, correspond plusieurs
matrices.
Proposition 4.18. Soit f une application linéaire de E dans E, où E est muni d’une
base B, on a
k
MatB,B (f ◦ f ◦ · · · ◦ f ) = (MatB,B (f ))
| {z }
k fois
Remarque. i) Pour que f soit inversible, il faut déjà que dim(E) = dim(F ). C’est
une conséquence du théorème du rang.
ii) D’après les propriétés sur les déterminants, f est inversible si et seulement si
det(MatB,B0 (f )) 6= 0.
On trouve alors:
2 −1 −1 −1 2 2 1 1 0 1 0 0
−1
B = P AP = −1
1 1 −5 3 5 0 1 −1 = 0 3
0
−1 0 1 1 2 0 1 1 1 0 0 2
4.5.1. Retour sur le rang d’une application linéaire. Le lien entre matrice et applica-
tion linéaire et les propriétés du déterminant d’une matrice nous permet de calculer le
rang d’une application linéaire à partir du calcul de déterminants. On a la proposition
suivante:
Proposition 4.23. Soit f une application linéaire de Rp dans Rn . On munit respec-
tivement Rp et Rn des bases B et B 0 . Soit A = MatB,B0 (f ).
Le rang de f est égal au plus grand ordre possible k × k d’une sous-matrice (carrée
k × k) de A de déterminant non nul.
1 1 0 0
Exemple: Soit f : R4 → R3 de matrice (dans les bases canoniques) A = 2 −1 3 0.
1 0 1 1
Les plus grandes sous-matrices sont d’ordre 3 × 3, ce qui implique déjà que rg(f ) ≤ 3.
On va doncregarder les sous-matrices 3 × 3 de A. Une sous matrice possible est
1 1 0
2 −1 3. Le calcul du déterminant de cette matrice donne zéro. On ne peut
1 0 1
pas encore conclure que rg(f ) < 3. Il faut vérifier avec toutes les sous-matrices d’ordre
3 jusqu’à en trouver une, si possible, de déterminant non nul. C’est seulement si toutes
les sous-matrices 3 ×3 ont un déterminant
nul, qu’on passera aux matrices 2 × 2.
1 0 0
La sous-matrice −1 3 0 a pour déterminant 3. On peut donc conclure que
0 1 1
rg(f ) ≥ 3. Comme par ailleurs rg(f ) ≤ 3, cela donne rg(f ) = 3.