Oumar Sall Algebre
Oumar Sall Algebre
Oumar Sall Algebre
Par
Oumar SALL
Maître de conférences au
Département de Mathématiques
E-mail: oumarsfr@yahoo.fr
05/10/2007
Contents
Preface ix
1 Notions préliminaires 1
1.1 Ensembles et sous-ensembles . . . . . . . . . . . . . . . . . . 1
1.1.1 Notion d’ensemble - Elément d’un ensemble . . . . . . 1
1.1.2 Inclusion . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.3 Intersection et réunion (ou union) . . . . . . . . . . . 2
1.1.4 Complémentaire d’un ensemble . . . . . . . . . . . . . 4
1.1.5 Di¤érence de deux ensembles . . . . . . . . . . . . . . 5
1.1.6 Di¤érence symétrique de deux ensembles . . . . . . . . 5
1.1.7 Partition . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.8 Produit cartésien . . . . . . . . . . . . . . . . . . . . . 6
1.2 Relation binaire sur un ensemble . . . . . . . . . . . . . . . . 6
1.2.1 Vocabulaire et notations usuelles . . . . . . . . . . . . 6
1.2.2 Relations d’ordre . . . . . . . . . . . . . . . . . . . . . 7
1.2.3 Relation d’équivalence . . . . . . . . . . . . . . . . . . 7
1.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Graphe . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.3 Image directe, image réciproque . . . . . . . . . . . . 10
1.4 Fonction caractéristique d’un sous-ensemble . . . . . . . . . . 12
1.4.1 Notions de base . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Exercices d’application . . . . . . . . . . . . . . . . . . 13
2 Eléments de logique 15
2.1 Vocabulaire de la logique . . . . . . . . . . . . . . . . . . . . . 15
2.1.1 Langage . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 Classi…cation des énoncés . . . . . . . . . . . . . . . . 16
v
vi CONTENTS
3 Structures algébriques 31
3.1 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.1.1 Lois de composition internes . . . . . . . . . . . . . . . 31
3.1.2 Sous-groupe . . . . . . . . . . . . . . . . . . . . . . . 35
3.1.3 Groupes cycliques . . . . . . . . . . . . . . . . . . . . . 37
3.1.4 Sous-groupes distingués, groupes quotients . . . . . . . 38
3.1.5 groupe symétrique . . . . . . . . . . . . . . . . . . . . 40
3.2 Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.1 Anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.2 Idéaux . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.2.3 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5 Espaces vectoriels 61
5.1 Espaces vectoriels (e.v) . . . . . . . . . . . . . . . . . . . . . . 61
5.2 Sous-espaces vectoriels (s.e.v) . . . . . . . . . . . . . . . . . . 63
5.3 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . 64
5.4 Somme directe; Supplémentaires. . . . . . . . . . . . . . . . . 69
5.5 L’algorithme du pivot . . . . . . . . . . . . . . . . . . . . . . 71
6 Applications linéaires 85
6.1 Le K-espace vectoriel LK (E, F ) . . . . . . . . . . . . . . . . 85
6.2 Image, noyau d’une application linéaire . . . . . . . . . . . . 87
7 Matrices 91
7.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . 93
7.2.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . 93
7.2.2 Multiplication par un scalaire . . . . . . . . . . . . . . 93
7.2.3 Multiplication de deux matrices . . . . . . . . . . . . . 94
7.3 Anneau des matrices carrées . . . . . . . . . . . . . . . . . . 95
7.4 La méthode du pivot . . . . . . . . . . . . . . . . . . . . . . . 96
7.4.1 Matrices échelonnées . . . . . . . . . . . . . . . . . . . 96
7.4.2 Application de la méthode du pivot . . . . . . . . . . . 97
7.5 Matrice d’une application linéaire . . . . . . . . . . . . . . . . 104
7.6 Matrice de changement de base . . . . . . . . . . . . . . . . . 107
8 Déterminants 111
8.1 dé…nition par récurrence . . . . . . . . . . . . . . . . . . . . . 111
8.2 Formes n-linéaires alternées . . . . . . . . . . . . . . . . . . . 115
8.3 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . 116
8.4 Application des déterminants . . . . . . . . . . . . . . . . . . 120
8.4.1 Rang d’une matrice . . . . . . . . . . . . . . . . . . . 120
8.4.2 Caractérisation d’une famille libre . . . . . . . . . . . . 122
8.4.3 Appartenance d’un vecteur à une famille . . . . . . . . 123
viii CONTENTS
ix
Chapter 1
Notions préliminaires
1
2 CHAPTER 1 NOTIONS PRÉLIMINAIRES
1.1.2 Inclusion
On dit qu’un ensemble A est inclus dans un ensemble B si chaque élément
de A est un élément de B. On dit aussi " A est contenu dans B " ou " A est
un sous-ensemble de B " et on note A B.
Remarques
Soient A, B, C trois ensembles
- La relation d’inclusion est ré‡exive: A A
- La relation d’inclusion est transitive: Si A B et B C, alors A C
- La relation d’inclusion est antisymétrique: (A B et B A) si et seule-
ment si A = B
Exemples
-N Z Q R C
- {x 2 R j0 x 5} R+
- Les sous-ensembles d’un ensemble E forment un ensemble appelé en-
sembles des parties de E et noté P(E).
Si E = f1, 2g alors P(E) = f?, f1g, f2g, E g.
Les trois assertions x 2 E, fxg E et fxg 2 P(E) sont équivalentes.
Propriétés de \ et [
A[B =B[A
A\B =B\A
A [ (B [ C) = (A [ B) [ C
A \ (B \ C) = (A \ B) \ C
A [ (B \ C) = (A [ B) \ (A [ C)
A \ (B [ C) = (A \ B) [ (A \ C)
Remarque
Généralisation
Si A1 , A2 ,: : :, An sont des sous-ensembles d’un ensemble E, on dé…nit de
même la réunion
A 1 [ A2 [ : : : [ An
A 1 \ A2 \ : : : \ An
A1 [ A2 [ : : : [ An = fx j 9i 2 f1, 2, : : :, ng, x 2 Ai g
A1 \ A2 \ : : : \ An = fx j 8i 2 f1, 2, : : :, ng, x 2 Ai g
fx j x 2 E et x 2
=Ag
Lois de De Morgan
Soient A et B deux sous-ensembles d’un ensemble E, on démontre facilement
les propriétés suivantes:
- CE (CE A) = A
- A B si et seulement si CE B CE A
- CE (A [ B) = (CE A) \ (CE B)
- CE (A \ B) = (CE A) [ (CE B)
1.1 ENSEMBLES ET SOUS-ENSEMBLES 5
A n B =A\B
fx 2 E j x 2 A et x 2
= B g.
A 4 B = (AnB) [ (BnA)
1.1.7 Partition
Soient A1 , A2 ,: : :, An des sous-ensembles d’un ensemble E.
On dit que ces sous-ensembles forment une partition de E si les trois
conditions suivantes sont véri…ées:
1) La réunion des Ai est égale à E : E = A1 [ A2 [ : : : [ An
2) Les Ai sont deux à deux disjoints : si i, j 2 f1, 2, : : :, ng et i 6= j alors
Ai \ Aj = ?
3) Les Ai sont non vides : pour tout i 2 f1, 2, : : :, ng, Ai 6= ?
Sur le dessin A1 A2 A3 A4 , les ensembles A1 , : : :, A4 forment une
!
E
partition de l’ensemble E.
Exemples
- Soient E = N, A1 le sous- ensemble formé des entiers pairs, A2 le sous-
ensemble formé des entiers impairs.
Alors A1 et A2 forment une partition de E.
- Soient E = R, A1 = R+ , A2 = R , A3 = f0g. Alors A1 , A2 et A3
forment une partition de E.
6 CHAPTER 1 NOTIONS PRÉLIMINAIRES
Formulaire
(xRy et yRx) ) x = y
R (x) = x = fy 2 E j yRxg.
1.3 Applications
Une application ( ou fonction ) dé…nie sur un ensemble X et à valeurs dans
un ensemble Y est une loi qui, à tout élément de X fait correspondre un
unique élément de Y . Si on note f cette application, l’élément associé à x
par f est noté f (x). On donne la notation suivante:
f : X ! Y , x 7 ! f (x)
1.3.1 Graphe
Une fonction f : X ! Y peut être dé…nie par son graphe, un sous-ensemble
de X Y qui possède la propriété suivante:
1.3 APPLICATIONS 9
1.3.2 Exemples
Soient X et Y deux ensembles.
1) L’application qui à tout x 2 X associe x s’appelle application identique
et se note idX .
2) Si f : X ! Y est une application et si X 0 X, on peut dé…nir f 0 la
restrictionde f à X 0 par 8x 2 X 0 , f 0 (x) = f (x).
3) Si f : X ! Y et g: Y ! Z sont deux applications, on peut dé…nir
la composée de f et g par (g f ) (x) = g (f (x)).
Une propriété importante de la composition des applications est l’associativité.
Injection
On dit qu’une application f : X ! Y est injective ( ou que f est une
injection ) si tout élément de Y est l’image d’au plus un élément de X. En
d’autres termes tout élément de Y a au plus un antécédent.
Surjection
On dit qu’une application f : X ! Y est surjective ( ou que f est une
surjection ) si tout élément de Y est l’image d’au moins un élément de X.
En d’autres termes tout élément de Y a au moins un antécédent.
Bijection
On dit qu’une application f : X ! Y est bijective ( ou que f est une
bijection ) si elle est à la fois injective et surjective. En d’autres termes tout
élément de Y a exactement un antécédent.
10 CHAPTER 1 NOTIONS PRÉLIMINAIRES
1
On appelle bijection réciproque d’une bijection f et on note f l’application
caractérisée par x = f 1 (y) si et seulement si y = f (x).
f (A) = fy 2 Y j 9x 2 A, f (x) = yg
Remarques
1) On prendra bien garde à ne pas confondre l’application
f 1 : P(Y ) ! P(X) ainsi dé…nie (qui existe pour toute fonction f ) avec
la bijection réciproque
f 1 : Y ! X ( qui n’existe que si f est bijective ).
2) On pourra véri…er en exercice que:
(i) f est surjective si et seulement si Y = f (X).
(ii) f est injective si et seulement si f : X ! f (X) est une injection.
Formulaire
Soit f : X ! Y une application, on a les formules suivantes:
1) Pour toutes parties A, B de X on a
a) f (A [ B) = f (A) [ f (B)
b) f (A \ B) f (A) \ f (B)
c) Si A B alors f (A) f (B)
2) Pour toutes parties A, B de Y on a
a) f 1 (A [ B) = f 1 (A) [ f 1 (B)
b) f 1 (A \ B) = f 1 (A) \ f 1 (B)
c) Si A B alors f 1 (A) f 1 (B)
d) f 1 (CY A) = CX (f 1 (A))
Démonstration:
1.3 APPLICATIONS 11
1) a) y 2 f (A [ B) () y = f (x) avec x 2 A [ B
() y = f (x) avec x 2 A ou x 2 B
() y 2 f (A) ou y 2 f (B)
() y 2 f (A) [ f (B)
Ainsi on a bien f (A [ B) = f (A) [ f (B).
b) y 2 f (A \ B) () y = f (x) avec x 2 A \ B
() y = f (x) avec x 2 A et x 2 B
=) y 2 f (A) et y 2 f (B) ( la réciproque de cette
implication n’est vraie que si f est injective )
() y 2 f (A) \ f (B)
Ainsi on a bien f (A \ B) f (A) \ f (B), il y a égalité si f est injective.
L’exemple suivant montre qu’on a pas en général égalité:
Prenons E= fa, bg, F= fcg, f (a) = f (b) = c, A = fag et B = fbg. Alors
? = f (A \ B) 6= f (A) \ f (B) = fcg.
c) y 2 f (A) =) y = f (x) avec x 2 A
=) y = f (x) avec x 2 B
=) y 2 f (B).
Ainsi on a bien si A B alors f (A) f (B)
2) a) x 2 f 1 (A [ B) () f (x) 2 A [ B
() f (x) 2 A ou f (x) 2 B
() x 2 f 1 (A) ou x 2 f 1 (B)
() x 2 f 1 (A) [ f 1 (B).
Ainsi on a bien f 1 (A [ B) = f 1 (A) [ f 1 (B).
b) x 2 f 1 (A \ B) () f (x) 2 A \ B
() f (x) 2 A et f (x) 2 B
() x 2 f 1 (A) et x 2 f 1 (B)
() x 2 f 1 (A) \ f 1 (B).
Ainsi on a bien f 1 (A \ B) = f 1 (A) \ f 1 (B).
c) x 2 f 1 (A) =) f (x) 2 A
=) f (x) 2 B
=) x 2 f 1 (B).
Ainsi on a bien si A B alors f 1 (A) f 1 (B).
d) x 2 f 1 (CY A) () f (x) 2 CY A
() f (x) 2 =A
()e (f (x) 2 A)
()e (x 2 f 1 (A))
() x 2 = f 1 (A)
() x 2 CX (f 1 (A)).
12 CHAPTER 1 NOTIONS PRÉLIMINAIRES
1 1
Ainsi on a bien f (CY A) = CX (f (A)).
CQFD
Remarques:
'A appartient au sous-ensemble f0, 1gE des applications de E dans
f0, 1g.
'A = 'B () A = B, ce qui justi…e l’expression " fonction caractéris-
tique " d’un sous-ensemble.
Propriétés:
L’application A 7! 'A de P(E) dans f0, 1gE est une bijection.
Quels que soient les sous-ensembles A et B de E, on a:
(i) 'A 'A = 'A
(ii) 'A\B = 'A 'B
(iii) 'A[B = 'A + 'B 'A 'B ; si A \ B = ? alors 'A[B = 'A + 'B .
(iv) 'A = 1 'A
(v) 'AnB = 'A 'A 'B = sup(0; 'A 'B )
(vi) 'A4B = 'A + 'B 2'A 'B
(vii) A B () 'A (x) 'B (x), 8x 2 E.
Démonstration:
Par exemple:
'AnB = 'A\B
= 'A 'B (d’après (ii))
= 'A (1 'B ) (d’après (iv))
= 'A 'A 'B :
La démonstration des autres propriétés est laissée en exercices.
1.4 FONCTION CARACTÉRISTIQUE D’UN SOUS-ENSEMBLE13
A \ (B n C) = (A \ B) n (A \ C)
Solution:
'(A\B)n(A\C) = 'A\B 'A\B 'A\C
= 'A 'B 'A 'B 'A 'C
= 'A 'B 'A 'B 'C
= 'A ['B (1 'C )]
= 'A 'B n C
= 'A\(B n C)
Ce qui montre que A \ (B n C) = (A \ B) n (A \ C).
Exercices d’application. Démontrer, en utilisant les fonctions caractéris-
tiques, les propriétés suivantes:
La fonction caractéristique de A4B est:
Eléments de logique
15
16 CHAPTER 2 ELÉMENTS DE LOGIQUE
2.2.1 Négation
Soit P une proposition. La négation de P est une proposition notée eP ou
P et on lit " non P ". Elle est vraie lorsque P est fausse et fausse lorsque
18 CHAPTER 2 ELÉMENTS DE LOGIQUE
P eP
V F
F V
P Q P^Q P_Q
V V V V
V F F V
F V F V
F F F F
N.B: Dans le langage courant, le mot " ou " peut prendre deux sens
di¤érents: le sens inclusif qui est celui donné plus haut et le sens exclusif,
qu’on précise parfois par " ou bien ": (P ou bien Q) est vraie si l’une des
2.2 CONNECTEURS - TABLES DE VÉRITÉ 19
deux propositions est vraie et l’autre est fausse. Lorsque P et Q sont si-
multanément vraies, la proposition (P_Q) est vraie, mais (P ou bien Q) est
fausse. Nous n’utiliserons que le " ou " inclusif.
2.2.3 Implication
Soient P et Q deux propositions. Alors P=)Q est une proposition; elle est
fausse lorsque P est vraie et Q est fausse, elle est vraie dans tous les autres
cas. Ainsi val(P=)Q)=F dans le seul cas où on a val(P)=V et val(Q)=F.
On lit:
" P implique Q "
" si P, alors Q "
" P entraîne Q "
" pour que P, il faut que Q "
" pour que Q, il su¢ t que P "
" une condition nécessaire pour que P est que Q "
" une condition su¢ sante pour que Q est que P ".
L’implication est dé…nie par la table de vérité suivante:
P Q P=)Q
V V V
V F F
F V V
F F V
2.2.4 Equivalence
Soient P et Q deux propositions. Alors P()Q est une proposition. Elle est
vraie lorsque Pet Q sont toutes les deux vraies ou toutes les deux fausses. Elle
est fausse dans les autres cas. Ainsi val(P()Q)=V lorsque val(P)=val(Q).
La proposition P()Q s’énonce:
" P et Q sont équivalentes "
" P si et seulement si Q "
" pour que P, il faut et il su¢ t que Q "
" une condition nécessaire et su¢ sante pour que Q est que P ".
L’équivalence est dé…nie par la table de vérité suivante:
P Q P()Q
V V V
V F F
F V F
F F V
N.B: Dans P()Q, les deux propositions sont interchangeables; " P()Q
" signi…e que " P=)Q " et " Q=)P " sont vraies. Aussi a¢ rmer " P()Q"
demande deux justi…cations, une pour chaque sens: la condition nécessaire
qui correspond à l’implication directe P=)Q, et la condition su¢ sante qui
correspond à l’implication indirecte P(=Q. Ainsi le connecteur " () " est
appelé équivalence logique ou double implication ou condition nécessaire et
su¢ sante.
la proposition P()P est toujours vraie: on dit que c’est une tautolo-
gie. Une proposition toujours fausse est appelée une contradiction ou une
antilogie.
Dire que deux propositions sont équivalentes, c’est dire que ces proposi-
tions ont mêmes valeurs de vérité i.e qu’elles signi…ent la même chose.
2.3 Quanti…cateurs
Pour désigner une proposition qui contient une variable x, on adopte souvent
une notation de la forme P(x) pour en faciliter la lecture et la compréhension.
2.3 QUANTIFICATEURS 21
Par exemple pour n un entier naturel, la proposition " n est pair " pourra
être notée P(n).
Soit P(x) une proposition qui contient une variable x, où x désigne un
élément d’un ensemble E. La valeur de vérité de P(x) peut dépendre de x et il
est souvent important de savoir si elle est vraie pour tous les éléments x de E,
pour au moins un, pour un et un seul etc. Les mathématiciens ont introduit
des symboles pour exprimer ces idées; on les appelle des quanti…cateurs.
(9x 2 R, (8y 2 R, y = x2 ))
est fausse.
Les propositions (8x 2 E, P(x)) et (9x 2 E, P(x)) ne traduisent pas des
propriétés de x, mais de l’ensemble E; on dit que x est une variable muette.
On obtient une proposition équivalente en remplaçant partout x par une
autre lettre. Mais il est plus prudent de choisir une lettre qui n’a pas déjà
été utilisée.
e (P =) Q) ()P^eQ
A=e (P =) Q) ()P^eQ
P Q eQ P^eQ P =) Q e (P =) Q) A
V V F F V F V
V F V V F V V
F V F F V F V
F F V F V F V
La table de vérité nous montre que e (P =) Q) ()P^eQ est toujours
vraie ( cf colonne A). On peut aussi se limiter à la table de vérité sans la
colonne A, et remarquer que les propositions e (P =) Q) et P^eQ ont mêmes
valeurs de vérité ( données dans le même ordre ) i.e qu’elles sont équivalentes.
2.4 NÉGATION D’UNE PROPOSITION 23
CQFD
Exercice d’application:
Soient P et Q des propositions.
a) Montrer que les équivalences suivantes sont toujours vraies:
(P =) Q) () (eP _ Q) () (eQ =)eP).
b) Utiliser a) pour construire deux phrases synonymes à la phrase " s’il
est français alors il porte un béret ".
Contruire la négation de la phrase " s’il est français alors il porte un béret
".
Solution:
P Q eP eQ P =) Q (eP _ Q) eQ =)eP
V V F F V V V
a) V F F V F F F
F V V F V V V
F F V V V V V
La table de vérité montre que les propositions (P =) Q), (eP _ Q) et
(eQ =)eP) ont mêmes valeurs de vérité ( données dans le même ordre ) i.e
qu’elles sont équivalentes.
b) Posons P: " il est français " et Q: " il porte un béret ". Ainsi, la
phrase " s’il est français alors il porte un béret " se symbolise par (P =) Q),
et d’après a) cette phrase doit être synonyme aux phrases symbolisées par
(eP _ Q) et (eQ =)eP). On a alors les phrases suivantes qui sont synonymes:
(P =) Q): " s’il est français alors il porte un béret "
(eP _ Q): " il n’est pas français ou il porte un béret "
(eQ =)eP): "s’il ne porte pas de béret alors il n’est pas français "
On sait que e (P =) Q) ()P^eQ, donc la négation de la phrase " s’il
est français alors il porte un béret " est:
P^eQ: " il est français et il ne porte pas de béret ".
2) Soit P(x) une proposition qui contient une variable x, où x désigne
un élément d’un ensemble E. On a les équivalences suivantes:
e (8x 2 E, P(x)) () (9x 2 E, eP(x))
e (9x 2 E, P(x)) () (8x 2 E, eP(x))
N.B: Les règles précédentes peuvent se combiner. Soit par exemple la
proposition
P(n): 9l 2 R, 8" 2 R+ , 9N 2 N, 8n 2 N, (n N =) jun lj < ").
24 CHAPTER 2 ELÉMENTS DE LOGIQUE
Alors
eP(n): 8l 2 R, 9" 2 R+ , 8N 2 N, 9n 2 N, (n N et jun lj ").
Démonstration:
On suppose que n est pair. Ainsi on a
n est pair=) n = 2k avec k 2 Z
=) n2 = 2t avec t = 2k 2
donc n2 est pair. On a montré que " si n est pair, alors n2 est pair ".
CQFD
A ", le point 2) par " supposons maintenant B " ou " dans le cas où B ".
Souvent B n’est autre que la proposition eA.
Exemple: Soient x, y, des nombres réels, avec < 0. Montrer que l’on
a max( x, y) = min(x, y).
Commentaire: On peut considérer deux cas où la proposition A est "
x y " et la proposition B est " x > y " qui est équivalentes à eA.
Démonstration: Deux cas se présentent: le cas x y et le cas x > y;
Supposons d’abord x y. Alors comme < 0, on a:
x y =) x y
=) max( x, y) = x
=) max( x, y) = min(x, y)
Supposons maintenant x > y. Alors comme < 0, on a:
x > y =) x < y
=) max( x, y) = y
=) max( x, y) = min(x, y).
Dans les deux cas, on a l’égalité demandée.
CFDQ
x0 2E =) 0 x0 1 et a 21 x0 a + 12
=) 0 x0 a + 12 et a 12 x0 1
=) 0 a + 12 et a 12 1
=) 12 a 32 .
On a bien le résultat demandé.
CQFD
2.5.8 Démonstration de (Q _ R)
Dans le cas où l’une des propositions est vraie, alors (Q _ R) est automa-
tiquement vraie. On suppose donc que l’une des propositions est fausse et
on montre que l’autre est vraie.
N.B: On doit donc montrer une des propositions (eQ =) R) ou (eR =) Q)
en considérant la négation la plus simple.
Exemple: Montrer que 8n 2 N,(n est impair ou n2 est pair).
2.5 QUELQUES TYPES CLASSIQUES DE RAISONNEMENT29
les hommes sont mortels et Socrate est un homme; donc Socrate est mortel
".
Exercice: Expliciter le syllogisme précédent à l’aide de quanti…cateurs.
Chapter 3
Structures algébriques
3.1 Groupes
3.1.1 Lois de composition internes
Dé…nitions et exemples
Dé…nition: Soit E un ensemble. Une loi de composition interne sur E est
une application de E E dans E.
Si on note
E E !E
(a, b) 7 ! a b
31
32 CHAPTER 3 STRUCTURES ALGÉBRIQUES
E E !E
(f , g) 7 ! f g
8 (x, y, z) 2 E 3 , x (y?z) = (x y) ? (x z) et
(x?y) z = (x z) ? (y z).
3.1.2 Sous-groupe
Dé…nition: On appelle sous-groupe d’un groupe (G, ), toute partie H de
G qui est stable pour la loi et qui est un groupe pour la loi induite sur H
par la loi .
Exemples: Si (G, ) est un groupe et e l’élément neutre pour la loi , alors
feg et G sont des sous-groupes de G.
Dé…nition: H est un sous-groupe propre d’un groupe G si H est un
sous-groupe de G distinct de feg et G.
Proposition: Une partie H d’un groupe G est un sous-groupe de G si
et seulement si elle satisfait:
i) e 2 H, e étant l’élément neutre pour la loi de groupe sur G,
ii) 8 (x, y) 2 H 2 , xy 1 2 H.
Démonstration:
C.N =)) On a
H sous-groupe de G =) 9x 2 H
=) xx 1 = e 2 H
d’où i),
x, y 2 H =) x, y 1 2 H
=) xy 1 2 H.
C.S (=) On a
y 2 H =) ey 1 2 H
=) y 1 2 H
d’où tout élément de H est symétrisable.
x, y 2 H =) x, y 1 2 H
1
=) x (y 1 ) 2 H
=) xy 2 H
d’où H est stable pour la loi de groupe sur G,
l’associativité dans H résulte de celle dans G,
par hypothèse, e est l’élément neutre dans H.
CQFD
Exercice: Montrer que
- Pour la loi d’addition, les inclusions suivantes sont les inclusions de
sous-groupes: Z Q R C;
- Pour la loi de multiplication, les inclusions suivantes sont les inclusions
de sous-groupes: Q R C ; l’ensemble R+ ( mais pas R ) est un
sous-groupe de R.
36 CHAPTER 3 STRUCTURES ALGÉBRIQUES
f :Z !G
n 7 ! an
1
f (feH g) = fx 2 G j f (x) = eH g.
Z ! hgi
m 7 ! gm
est un homomorphisme surjectif; son noyau est trivial ( car g est d’ordre
in…ni, et g m = eG est équivalent à g m = eG si m est un entier négatif ) donc
c’est un isomorphisme. Ainsi Z est isomorphe à hgi.
supposons maintenant que g est d’ordre n 2 N . Comme g n = eG ,
l’application
: Z = nZ ! hgi
m 7 ! gm
int g : G ! G
1
h 7 ! ghg
3.1 GROUPES 39
3.2.2 Idéaux
Dé…nitions: Soient (A, + , ) un anneau et I une partie de A. On dit que
I est un idéal à gauche ( resp. à droite ) de A si et seulement si:
(I; +) est un sous-groupe abélien de (A; +)
8 (a; x) 2 A I, a x ( resp. x a ) est un élément de I.
46 CHAPTER 3 STRUCTURES ALGÉBRIQUES
8x, y 2 A, xy 2 I ) x 2 I ou y 2 I
On dit que I est un idéal principal de A s’il est engendré par un unique
élément a de A. Autrement dit:
I = fxa; x 2 Ag.
3.2.3 Corps
Dé…nition: Un corps est la donnée d’un ensemble K et de deux lois de
composition internes notées + ( addition ) et ( multiplication ) telles que:
(i) (K, + , ) est un anneau,
(ii) (K , ) est un groupe, avec K = K f0g.
Un corps est donc un anneau unitaire dont tous les éléments non nuls
sont inversibles.
Un corps (K, + , ) est dit commutatif si la loi est commutative.
Notations: Soit (K, + , ) un corps.
3.2 ANNEAUX ET CORPS 47
Polynômes et fractions
rationnelles
49
50CHAPTER 4 POLYNÔMES ET FRACTIONS RATIONNELLES
P : K ! K, x 7 ! a0 + a1 x + : : : + an xn = P (x).
(P j A et P j B) , P j D.
AU + BV = A ^ B.
AU + BV = A ^ B
A (x)
x 7! F (x) = .
B (x)
A
Dé…nition: Soit F = 2 K (X) admettant comme pôle de multi-
B
plicité m 1. Alors F s’écrit de manière unique sous la forme
P
m
k
F = k
+ G, où ( 1 , . . . , m ) 2 K m et où G est une fraction
k=1 (X )
rationnelle n’admettant pas pour pôle.
P
m
k
On dit alors que est la partie polaire de F relativement au
k=1 (X )k
pôle .
N.B: Les pôles de G sont ceux de F ( sauf ), avec les mêmes multiplic-
ités respectives.
F (x).
Cette méthode est plutôt utilisée quand K = R.
A A( )
Posons F = , avec A ( ) 6= 0. alors = 0 .
B B ( )
Cette méthode est très adaptée au cas où B n’est pas factorisé.
Un cas classique est B = X n 1: les pôles sont les racines n ièmes de
l’unité.
= lim (x )2 F (x).
x!
A 2A ( )
Posons F = , avec A ( ) 6= 0. alors = .
B B ( )
Une fois déterminé, on peut écrire:
H=F = + G.
(X )2 X
Ou bien n’est pas un pôle de H ( donc = 0 et c’est …ni ), ou bien
est un pôle simple de H et on est ramené à des méthodes connes.
4.2 FRACTIONS RATIONNELLES 57
C
F =Q+ avec deg(C) < deg(B).
B
On admettra la proposition suivante:
A
Proposition ( décomposition dans C (X) ): Soit F = une fraction
B
rationnelle à coe¢ cients complexes. Soient 1 , . . . , p les pôles distincts de
F , avec les multiplicités respectives r1 , . . . , rp . Alors F s’écrit de manière
unique
!
P
p P
rk
k, j
F =E+ j
k=1 j=1 (X k)
P
m
k P
m
k
k
et
k=1 (X ) k=1 (X )k
X 7! F ( X) ou X 7! F ( X)
Méthode de limite
On suppose ici que deg(F ) < 0 ( la partie entière est donc nulle ).
k
La décomposition de F fait apparaître des termes de type ou
X k
kX+ bk
.
X2 + kX + k
Le calcul de lim xF (x) donne une relation liant les coe¢ cients k et k .
x!1
Cette méthode est intéréssante quand il ne reste plus que un ou deux
coe¢ cients à calculer.
Chapter 5
Espaces vectoriels
K E !E
( , x) 7 ! :x
61
62 CHAPTER 5 ESPACES VECTORIELS
1 1 1
x = 1:x = ( ) :x = ( :x) = :0E = 0E .
Si x 6= 0E alors = 0K sinon
1 1 1
( 6= 0K , :x = 0E ) =) x = 1:x = ( ) :x = ( :x) = :0E = 0E ,
5.2 SOUS-ESPACES VECTORIELS (S.E.V) 63
8 (x, y) 2 F 2 , x + y 2 F
(iii) F est stable pour la multiplication externe sur E à coe¢ cients dans
K i.e
8 ( , x) 2 K F, x 2 F
8 ( , ) 2 K 2 , 8 (x, y) 2 F 2 , ( x + y) 2 F .
8 ( , ) 2 K 2 , 8 (x, y) 2 F 2 , ( x + y) 2 F .
64 CHAPTER 5 ESPACES VECTORIELS
x, y 2 F =) x + y 2 F =
=) x + y 2 F \ G
x, y 2 G =) x + y 2 G ;
( x 2 F et x 2 G) =) x 2 F \ G.
CQFD
On montrera en exercice que l’union de deux sous-espaces vectoriels est
un sous-espace vectoriel si et seulement si l’un contient l’autre.
u= 1 a1 + ...+ n an .
F + G = fu 2 E j u = u1 + u2 avec u1 2 F et u2 2 G g
V ect fu1 , . . . , um g =
fu 2 E j 9 ( 1 ,. . . , m ) 2 K m : u = 1 u1 + . . . + m um g.
1 u1 +. . . + n un = 0.
toute famille de laquelle on peut extraire une famille liée est liée.
toute sous-famille d’une famille libre est libre.
Lemme: Soient v1 , . . . , vn des vecteurs de E, et y1 , . . . , yp des vecteurs
qui sont combinaisons linéaires des vi .
Si p > n alors la famille fy1 ; : : : ; yp g est liée.
Démonstration: Démontrons par récurrence sur n.
Hypothèse de départ: Supposons n = 1.
Soit yi 2 fy1 ; : : : ; yp g, si yi = 0E alors la famille fy1 ; : : : ; yp g est liée;
si yi 6= 0E alors pour tout yj 2 fy1 ; : : : ; yp g avec i 6= j on a yi = i v1 et
j j
yj = j v1 avec ( i ; j ) 2 K K d’où yj = j v1 = ( i v1 ) = yi et par
i i
suite yj et yi sont linéairement dépendants; donc la famille fy1 ; : : : ; yp g est
liée.
Hypothèse de récurrence: Supposons que la propriété est vraie jusqu’au
rang (n 1) avec n > 1 et montrons qu’elle est vraie au rang n.
On écrit y1 = 1 v1 + : : : + n vn avec 1 , . . . , n 2 K; on peut supposer
que n 6= 0 quitte à changer la notation des indices ou l’ordre des termes.
Alors vn est combinaison linéaire de v1 , . . . , vn 1 et y1 . Donc il existe 2 ,
. . . , p 2 K tels que y2 2 y1 , . . . , yp p y1 soient combinaisons linéaires de
v1 , . . . , vn 1 . Par hypothèse de récurrence ils sont linéairement dépendants,
ce qui entraîne que y1 , . . . , yp sont linéairement dépendants. CQFD
Dé…nition: Une base de E est une famille fu1 , . . . , un g d’éléments de
E qui est libre et génératrice. Autrement dit, tout vecteur u de E s’écrit de
manière unique
u= 1 u1 + ::: + n un .
Remarques:
dimf0E g = 0.
68 CHAPTER 5 ESPACES VECTORIELS
u 2 F =) 9 ( 1 ,. . . , n ) 2 K n : u = 1 u1 +. . . + n un
=) u est combinaison linéaire des éléments de G,
=) u 2 G qui est un espace vectoriel donc stable par combinaison
linéaire.
CQFD.
F1 F2 () F1 \ F2 = f0E g
rg (BE [ BF ) = dim (E + F )
et par suite
Ainsi
(rg (BE [ BF ) = dim E + dim F ) =) dim (E \ F ) = 0
=) (F + G est directe).
est xij , les vecteurs uk (k > i) ont tous la composante xkj nulle. Autrement
dit, si ui = (xi1 , xi2 , xi3 , . . . , xin ) avec 1 i m, on a un tableau de type
( quitte à changer l’ordre des indices ):
1 3 2 l1
3 3 1 l2
0 2 1 l3
1 3 2 l1
(1)
0 6 5 l2 = l2 3l1
0 2 1 l3
1 3 2 l1
0 2 1 l3
(1)
0 6 5 l2 = l2 3l1
1 3 2 l1
0 2 1 l3
(2) (1)
0 0 8 l2 = l2 3l3
1 2 1 2 l1
2 1 4 4 l2
1 5 1 2 l3
0 3 2 0 l4
1 2 1 2 l1
(1)
0 3 2 0 l2 = l2 2l1
(1)
0 3 2 0 l3 = l3 + l1
0 3 2 0 l4
1 2 1 2 l1
(1)
0 3 2 0 l2 = l2 2l1
(2) (1) (1)
0 0 0 0 l3 = l3 l2
(1) (1)
0 0 0 0 l4 = l4 l2
2l1 l2 + l4 = 0 et 3l1 l2 + l3 = 0 .
1 3 x
3 0 y
1 3 x
0 9 y (1) = y 3x
1 0 2 x
2 2 2 y
1 2 4 z
1 0 2 x
0 2 2 y (1) = y + 2x
0 2 2 z (1) = z x
1 0 2 x
0 2 2 y (1)
0 0 0 z (2) = z (1) y (1)
La dernière étape contient une ligne nulle, on peut alors déterminer une
équation de V ect(S2 ) en explicitant " par remontée " cette ligne. On a:
z (2) = 0 () z (1) y (1) = 0
() (z x) (y + 2x) = 0,
d’où l’équation 3x y + z = 0.
Ainsi
V ect(S2 ) = f(x, y, z) 2 R3 j 3x y + z = 0g.
6) Soient F et G deux sous-espaces vectoriels de K n . L’algorithme du
pivot permet de déterminer F + G, F \ G et aussi de voir si K n = F G.
Dans ce cas, on travaille avec la famille constituée de l’union des bases de F
et G.
Exemple1: Soient les systèmes:
S1 = f(0, 2, 1) , (1, 3, 2) , (3, 3, 1)g et
S2 = f(1, 2, 1) , (0, 3, 2) , (2, 1, 4)g.
On pose F = V ect(S1 ) et G = V ect(S2 ).
a) Déterminer si possible une base de F + G et celle de F \ G.
b) A-t-on R3 = F G ?
Solution:
a) D’après 4) une base de F est BF = f(1, 3, 2) , (0, 2, 1) , (0, 0, 8)g.
Détermination d’une base de G
5.5 L’ALGORITHME DU PIVOT 77
1 2 1 l1
2 1 4 l2
0 3 2 l3
1 2 1 l1
(1)
0 3 2 l2 = l2 2l1
0 3 2 l3
1 2 1 l1
(1)
0 3 2 l2 = l2 2l1
(1) (1)
0 0 0 l3 = l3 l2
Considérons le système:
1 3 2 l1
1 2 1 l2
0 2 1 l3
0 3 2 l4
0 0 8 l5
1 3 2 l1
(1)
0 5 1 l2 = l2 l1
0 2 1 l3
0 3 2 l4
0 0 8 l5
1 3 2 l1
(1)
0 5 1 l2
7 (1) 2 (1)
0 0 l3 = l3 l
5 52
7 (1) 3 (1)
0 0 l4 = l4 + l2
5 5
0 0 8 l5
1 3 2 l1
(1)
0 5 1 l2
0 0 8 l5
7 (1) 2 (1)
0 0 l3 = l3 l
5 52
7 (1) 3 (1)
0 0 l4 = l4 + l2
5 5
1 3 2 l1
(1)
0 5 1 l2
0 0 8 l5
(2) (1) 7
0 0 0 l3 = l3 + l5
40
(2) (1) 7
0 0 0 l4 = l4 + l5
40
5.5 L’ALGORITHME DU PIVOT 79
Une base de F +G est la famille constituée des vecteurs lignes non nuls du
dernier tableau. Ainsi une base de F +G est f(1, 3, 2) , (0, 5, 1) , (0, 0, 8)g.
La dimension de F \ G est le nombre de lignes nulles du dernier tableau, et
la dimension de F + G est le nombre de lignes non nulles du dernier tableau.
Ainsi
dim(F \ G) = 2 et dim(F + G) = 3.
1 2 l1
1 3 l2
1 2 l1
(1)
0 5 l2 = l2 l1
1
Ainsi BF = f(1, 2) , (0, 1)g i.e (1, 2) ,
(0, 5) .
5
Une base de G est BG = f(1, 2)g. Considérons la famille
S = BF [ BG = f(1, 2) , (0, 1) , (1, 2)g, on a:
1 2 l1
1 2 l2
0 1 l3
1 2 l1
(1)
0 4 l2 = l2 l1
0 1 l3
1 2 l1
(1)
0 4 l2
(1) 1 (1)
0 0 l3 = l3 l
42
Ainsi une base de F +G est f(1, 2) , (0, 4)g ou encore f(1, 2) , (0, 1)g.
(1)
Une base de F \ G est obtenue en explicitant l3 = 0. On a:
(1) 1 (1)
l3 = 0 () l3 l =0
42
1
() l3 (l2 l1 ) = 0
4
() l1 + 4l3 = l2 = (1, 2),
donc une base de F \ G est f(1, 2)g :
b) dim(F \ G) = 1 6= 0 = dim (f0R2 g), d’où F \ G 6= f0R2 g et par suite
on a pas R2 = F G.
Exemple 3: Soient les systèmes
S1 = f(1, 2, 1, 2) , (1, 0, 1, 1)g et S2 = f(1, 2, 0, 0) , (0, 1, 2, 1)g.
5.5 L’ALGORITHME DU PIVOT 81
b) A-t-on R4 = F G?
Solution:
a)
1 2 1 2 l1
1 0 1 1 l2
1 2 1 2 l1
(1)
0 2 2 1 l2 = l2 l1
Considérons la famille
on a:
82 CHAPTER 5 ESPACES VECTORIELS
1 2 1 2 l1
1 2 0 0 l2
0 2 2 1 l3
0 1 2 1 l4
1 2 1 2 l1
(1)
0 4 1 2 l2 = l2 l1
0 2 2 1 l3
0 1 2 1 l4
1 2 1 2 l1
0 1 2 1 l4
0 2 2 1 l3
(1)
0 4 1 2 l2
1 2 1 2 l1
0 1 2 1 l4
(1)
0 0 6 1 l3 = l3 2l4
(2) (1)
0 0 9 2 l2 = l2 4l4
1 2 1 2 l1
0 1 2 1 l4
(1)
0 0 6 1 l3 = l3 2l4
1 (3) (2) 9 (1)
0 0 0 l2 = l2 l
2 63
Une base de F + G est
f(1, 2, 1, 2) , (0, 1, 2, 1) , (0, 0, 6, 1) , (0, 0, 0, 1)g.
Aucune ligne du dernier tableau n’est nulle, donc dim(F \ G) = 0, d’où
F \ G = f0R4 g qui n’admet pas de base.
b) Aucune ligne du dernier tableau n’est nulle, donc R4 = F G.
Applications linéaires
85
86 CHAPTER 6 APPLICATIONS LINÉAIRES
p : Rn ! R, x = (x1 ; : : : ; xn ) 7 ! a1 x1 + . . . + an xn
est linéaire.
Remarque: Soit fu1 , . . . , un g une base de E, se donner f 2 LK (E, F )
revient à se donner les n vecteurs vi = f (ui ) de F . En e¤et, pour tout
vecteur u = 1 u1 + : : : + n un de E on a alors f (u) = 1 v1 + : : : + n vn . On
a ainsi le théorème suivant:
Théorème: Soient fu1 , . . . , un g une base de E et f 2 LK (E, F ). Alors
(i) f est injective () ff (u1 ) , . . . , f (un )g est libre.
(ii) f est surjective () ff (u1 ) , . . . , f (un )g est génératrice.
(iii) f est bijective () ff (u1 ) , . . . , f (un )g est une base de F .
Démonstration:
(i) C.N =)) Supposons f injective.
Soient 1 ,: : :, n des scalaires tels que 1 f (u1 ) + : : : + n f (un ) = 0F , on
a alors
1 f (u1 ) + : : : + n f (un ) = 0F =) f ( 1 u1 + : : : + n un ) = 0F
=) ( 1 u1 + : : : + n un ) 2 ker f
=) ( 1 u1 + : : : + n un ) 2 f0E g
=) ( 1 u1 + : : : + n un ) = 0E
=) 1 = : : : = n = 0.
C.S (= ) Supposons ff (u1 ) ,. . . , f (un )g libre.
Soit u 2 ker f E, il existe alors des scalaires 1 ,: : :, n tels que
6.2 IMAGE, NOYAU D’UNE APPLICATION LINÉAIRE 87
u= 1 u1 + ::: + n un .
On a
f (u) = 0F =) f ( 1 u1 + : : : + n un ) = 0F
=) 1 f (u1 ) + : : : + n f (un ) = 0F
=) 1 = : : : = n = 0
d’où u = 0E ; ce qui montre que ker f = f0E g i.e que f est injective.
(ii) C.N =) ) Supposons f surjective.
Soit v 2 F , il existe alors u = ( 1 u1 + : : : + n un ) 2 E tel que v = f (u);
d’où v = 1 f (u1 ) + : : : + n f (un ) ce qui montre que ff (u1 ) , . . . , f (un )g
est génératrice.
C.S (= ) Supposons que ff (u1 ) , . . . , f (un )g est génératrice.
Soit v 2 F , il existe alors des scalaires 1 ,: : :, n tels que
v= 1f (u1 ) + : : : + nf (un );
Im f = fy 2 F j 9x 2 E, y = f (x)g
Kerf = fx 2 E j f (x) = 0F g
fw1 , . . . , wr , v1 , . . . , vn r g
de E.
Le théorème est démontré si nous montrons que B = ff (v1 ) , . . . , f (vn r )g
est une base de Imf .
- Montrons que B engendre Imf .
u 2 Im f =) 9v 2 E : u = f (v). Comme v 2 E, il existe des scalaires ai
et bi tels que
v = a1 w1 + : : : + ar wr + b1 v1 + : : : + bn r vn r ;
1f (v1 ) + : : : + n rf (vn r ) = 0;
on a alors
f ( 1 v1 + : : : + n r vn r ) = 0,
1 v1 + ::: + n r vn r = 1 w1 + ::: + r wr
i.e 1 v1 + : : : + n r vn r 1 w1 ::: r wr = 0.
Comme fw1 , . . . , wr , v1 , . . . , vn r g est une base on déduit que
6.2 IMAGE, NOYAU D’UNE APPLICATION LINÉAIRE 89
1 = ... = n r = 1 = ...= r = 0.
i.e
CQFD
Corollaire: Soit f un endomorphisme de E, et on suppose que dimE
est …nie. Alors les énoncés suivants sont équivalents:
(i) f est injectif
(ii) f est surjectif
(iii) f est bijectif
Démonstration: on a dim E = dim ker f + dim Im f .
f est injectif() ker f = f0E g
() dim ker f = 0
() dim Im f = dim E
() f est surjectif
() f est bijectif.
CQFD
Dé…nition: Soit f 2 LK (E, F ) avec dimE …nie, et F de dimension
quelconque.
On appelle rang de f , l’entier noté rg(f ) dé…ni par:
Matrices
7.1 Généralités
Dé…nitions: Soient m, n deux entiers 1.
On appelle matrice m n (on dit aussi matrice de type (m, n)) à coe¢ -
cients dans K un tableau à m lignes et n colonnes d’éléments de K:
0 1
a a : : : a1n
B 11 12 C
B .. .. .. C
A=B . . . C ( avec des parenthèses ),
@ A
am1 am2 : : : amn
2 3
a11 a12 : : : a1n
6 7
6 .. .. .. 7
ou encore A = 6 . . . 7 ( avec des crochets ).
4 5
am1 am2 : : : amn
91
92 CHAPTER 7 MATRICES
0 1
1 0
B C
B C
B 1 C
I=B
B ..
C (où les coe¢ cients laissés en blanc sont nuls)
C
B . C
@ A
0 1
Une matrice diagonale m m est une matrice dont tous les coe¢ cients
sont nuls sauf ceux situés sur la diagonale principale. Ainsi
0 1
a11 0
B C
B C
B a22 C
D=B
B ...
C (où les coe¢ cients laissés en blanc sont nuls)
C
B C
@ A
0 amm
( où les coe¢ cients laissés en blanc sont nuls et les étoiles désignent des
coe¢ cients quelconques ).
Exemples:
0 1
1 5 0 3
A=@ A est une matrice 2 4 (on dit encore une matrice de type (2, 4));
6 8 4 2
le coe¢ cient a22 est égal à 8, alors que a14 = 3.
Exemple:
0 1 0 1
1 2 0 1 9 1
B C 5 3 B C
B C A=B C
B 0 1 C@ B 2 1C
@ A 2 1 @ A
2 0 10 6
Remarques:
On peut faire le produit de matrices par blocs (de tailles compatibles):
0 10 1 0 1
A B A B AA1 + BC1 AB1 + BD1
@ A@ 1 1 A = @ A
C D C1 D1 CA1 + DC1 CB1 + DD1
où A, B, C, D, A1 , B1 , C1 , D1 sont des matrices, en les multipliant
comme des scalaires, mais en faisant attention à ne pas les faire commuter car
la multiplication des matrices n’est pas commutative: en général AB 6= BA;
par exemple:
7.3 ANNEAU DES MATRICES CARRÉES 95
0 10 1 0 1 0 1 0 10 1
1 1 0 1 1 2 1 0 0 1 1 1
@ A@ A=@ A 6= @ A=@ A@ A
1 0 1 1 0 1 0 1 1 1 1 0
rare qu l’on ait recours à cette méthode: tout d’abord elle ne s’adapte qu’à
des cas particuliers et ensuite il existe une méthode permettant de traiter
tous les cas.
AX = B
S : AX = B (i)
S 0 : A0 X = B 0 (ii)
sont les mêmes que celles du système S; on dit que les deux systèmes sont
équivalents.
Démonstration: Echanger l’ordre de deux équations ou en multiplier une
par un scalaire non nul, ne change pas les solutions; passer de deux équations
L1 = L2 = 0 à deux autres équations L1 + L2 = L2 = 0 n’en change pas les
solutions. CQFD
Exemple: Soit le système d’équations linéaires
8
>
> x1 + 2x3 + 3x4 = 4
>
<
S: x1 + x2 x3 + x4 = 0
>
>
>
: 2x + x
1 2 3x + 7x = 2
3 4
Transformons la matrice
0 1
1 0 2 3 4
B C
B C
(A j B) = B 1 1 1 1 0 C
@ A
2 1 3 7 2
Indiquons par une ‡èche le fait de passer à une autre matrice ( par une
opération élémentaire
0 ). 1 0 1
1 0 2 3 4 1 0 2 3 4
B C B C
B C B C
(A j B) = B 1 1 1 1 0 C ! B 0 1 3 2 4C
@ A @ A
2 1 3 7 2 0 1 7 1 6
7.4 LA MÉTHODE DU PIVOT 99
0 1
1 0 2 3 4
B C
B C
!B0 1 3 2 4 C = (A0 j B 0 )
@ A
0 0 4 3 2
0 0
Le système AX = B possède les 8 mêmes solutions que A X = B i.e
8 9
> >
> x = x4 + 3
>
> x + 2x + 3x = 4 >
> 1
< 1 3 4
< 2
17 5
x2 3x3 2x4 = 4 d’où x2 = x4
>
> >
> 4 2
> >
: 4x3 + 3x4 = 2 : x3 = 3 x4 + 1
>
4 2
Voyons maintenant quelle est la forme la plus simple que l’on puisse
obtenir pour un système linéaire.
Théorème: Soit A0 X = B 0 un système d’équations linéaires tel que la
matrice (A0 j B 0 ) soit échelonnée.
(i) Le système possède une solution si et seulement si il n’y a pas de pivot
sur la dernière colonne.
(ii) S’il n’y a pas de pivot sur la dernière colonne, la solution générale
du système s’obtient en …xant arbitrairement chacune des inconnues xi telles
que la i-ème colonne ne contienne pas de pivot et en calculant chacune des
autres xi en fonction de celles-là grâce à l’équation correspondant à la i-ème
ligne.
Exemples: Soit à résoudre les systèmes précédents par des matrices
échelonnées:
8 8
>
> x1 + 2x3 + 3x4 = 7 >
> x + 2x2 + 3x3 = 3
>
< >
< 1
S : x1 + x2 x3 + x4 = 2 , S1 : x1 + x2 x3 = 1 et
>
> >
>
>
: 2x + x >
: 2x + x
1 2 3x3 + x4 = 3 1 2 x3 = 0
8
>
> x + 2x2 + 3x3 = 3
>
< 1
S2 : x1 + x2 x3 = 1
>
>
>
: 2x + 3x + 2x = 0
1 2 3
Pour S on0 a: 1 0 1
1 0 2 3 7 1 0 2 3 7
B C B C
B C B C
(A j B) = B 1 1 1 1 2 C ! B 0 1 3 2 5 C
@ A @ A
2 1 3 1 3 0 1 7 5 11
100 CHAPTER 7 MATRICES
0 1 0 1
1 0 2 3 7 1 0 2 3 7
B C B C
B C B C
!B0 1 3 2 5 C ! B0 1 3 2 5C
@ A @ A
3 3
0 0 4 3 6 0 0 1 4 2
0 1
3
1 0 0 4
B 2 C
B C
!B0 1 0 1 1 C = (A0 j B 0 )
@ 4 2 A
3 3
0 0 1 4 2
0 1
3
1 0 0 4
B C 2
B 1 C
La matrice (A0 j B 0 ) = B 0 1 0 14 C est échelonnée et il n’y a
@ 2 A
0 0 1 34 3
2
pas de pivot sur la dernière colonne; le système 8 S : AX = B est donc
> 3
>
> x1 + x4 = 4
>
< 2
1 1
compatible et possède les mêmes solutions que x2 + x4 = d’où
>
> 4 2
>
: x3 + 3 x4 = 3
>
8 4 2
> 3
>
> x1 = x4 + 4
>
< 2
1 1
x2 = x4 .
>
> 4 2
>
: x3 = 3 x4 + 3
>
4 2
L’ensemble des solutions du système S est donc
3 1 1 3 3
+ 4, , + , j 2R :
2 4 2 4 2
Pour S1 on0a: 1 0 1
1 2 3 3 1 2 3 3
B C B C
B C B C
(A1 j B1 ) = B 1 1 1 1C !B 0 1 4 4C
@ A @ A
2 1 1 0 0 3 7 6
0 1 0 1
1 2 3 3 1 2 3 3
B C B C
B C B C
!B0 1 4 4C !B 0 1 4 4C
@ A @ A
6
0 0 5 6 0 0 1 5
7.4 LA MÉTHODE DU PIVOT 101
0 1 0 1
1 0 5 5 1 0 0 1
B C B C
B C B 4 C
!B0 1 4 4 C ! B 0 1 0 C = (A01 j B10 )
@ A @ 5 A
6
0 0 1 5
0 0 1 65
0 1
1 0 0 1
B C
B 4 C
La matrice (A01 j B10 ) = B 0 1 0 C est échelonnée et il n’y a pas de
@ 5 A
0 0 1 65
pivot sur la dernière colonne; le système
8 S1 : A1 X = B1 est donc compatible
>
> x1 = 1
>
>
< 4
et possède les mêmes solutions que x2 = .
>
> 5
>
> 6
: x3 =
5
4 6
L’ensemble des solutions du système S est donc le singleton 1, , .
5 5
Pour S2 on0a: 1 0 1
1 2 3 3 1 2 3 3
B C B C
B C B C
(A2 j B2 ) = B 1 1 1 1C !B 0 1 4 4C
@ A @ A
2 3 2 0 0 1 4 6
0 1 0 1
1 2 3 3 1 2 3 3
B C B C
B C B C
!B0 1 4 4C !B 0 1 4 4C
@ A @ A
0 0 0 2 0 0 0 1
0 1 0 1
1 0 5 5 1 0 5 0
B C B C
B C B C
!B0 1 4 4 C ! B 0 1 4 0 C = (A02 j B20 )
@ A @ A
0 0 0 1 0 0 0 1
0 1
1 0 5 0
B C
B C
La matrice (A02 j B20 ) = B 0 1 4 0 C est échelonnée et il y a un pivot
@ A
0 0 0 1
sur la dernière colonne,donc le système S2 : A2 X = B2 est incompatible.
102 CHAPTER 7 MATRICES
A0 = P 1
AP .
rg(A) = rg(A j B)
0 1
b
B 1 C
B .. C
avec B = B . C.
@ A
bm
Exercices:
Dire si les systèmes suivants admettent des solutions autres que la solu-
tion nulle:
8 8
>
> x1 + 2x2 = 0 >
> x + x2 x3 = 0
>
< >
< 1
S: x2 x3 = 0 , S1 : x1 x2 x3 = 0
>
> >
>
>
: x + 3x >
: 2x + x + x = 0
1 2 x =0 3 1 2 3
Dire
8 si les systèmes suivants sont compatibles:
8
>
> x x2 + 3x3 + 2x4 = 1 >
> x + 2x2 x3 = 0
>
< 1 >
< 1
S: x1 + 2x2 x3 + x4 = 0 , S1 : x1 x2 + x3 = 1
>
> >
>
>
: 2x + x + 2x + 3x = 1 >
: 2x + x + x = 2
1 2 3 4 1 2 3
f (a1 ) : : : f (an )
0 1
x11 : : : x1n b
M (f , A, B) = B C 1
B .. .. .. C ..
B . . . C .
@ A
xp1 : : : xpn bp
f : R3 ! R2
,
(x, y, z) 7 ! (2x + y, x y + z)
f (a1 ) = x11 b1 + x21 b2 i.e (2, 0) = x11 ( 1, 3) + x21 (2, 1), d’où
2 6
x11 = et x21 = .
7 7
f (a2 ) = x12 b1 + x22 b2 i.e (5, 2) = x12 ( 1, 3) + x22 (2, 1), d’où
1 17
x12 = et x22 = .
7 7
f (a3 ) = x13 b1 + x23 b2 i.e (1, 0) = x13 ( 1, 3) + x23 (2, 1), d’où
1 3
x13 = et x23 = .
7 7
Ainsi on a
0 1
1@ 2 1 1A
M (f , A, B) = .
7 6 17 3
f : R 2 ! R2
(x, y) 7 ! (2x + y, x y)
f (a1 ) f (a2 )
0 1
M (f , A) = x11 x12 a1
@ A
x21 x22 a2
f (a1 ) = x11 a1 + x21 a2 i.e (1, 2) = x11 (1, 1) + x21 (1, 1), d’où
1 3
x11 = et x21 = .
2 2
f (a2 ) = x12 a1 + x22 a2 i.e (3, 0) = x11 (1, 1) + x21 (1, 1), d’où
1 5
x11 = et x21 = .
2 2
Ainsi on a
0 1
1@ 1 1A
M (f , A) = .
2 3 5
a01 : : : a0n
0 1
x11 : : : x1n a
P = M (id, A0 , A) = B C 1
B .. .. .. C ..
B . . . C .
@ A
xn1 : : : xnn an
Notation:
Nous noterons souvent P (A, A0 ) la matrice de passage M (id, A0 , A)
de A à A0 ;
108 CHAPTER 7 MATRICES
a01 a02
0 1
P (E, A0 ) = x11 x12 e1
@ A
x21 x22 e2
d’où
0 1
2 3
P (E, A0 ) = @ A;
1 2
e1 e2
0 1
P (A, E) = x11 x12 a1 ,
@ A
x21 x22 a2
e1 = x11 a1 + x21 a2 i.e (1, 0) = x11 (1, 2) + x21 (1, 0), d’où
x11 = 0 et x21 = 1;
e2 = x12 a1 + x22 a2 i.e (0, 1) = x12 (1, 2) + x22 (1, 0), d’où
1 1
x12 = et x22 = .
2 2
Ainsi on a
0 1
1
0
P (A, E) = @ 2 A.
1
1 2
a01 a02
0 1
P (A, A0 ) = x11 x12 a1 ,
@ A
x21 x22 a2
a01 = x11 a1 + x21 a2 i.e ( 2, 1) = x11 (1, 2) + x21 (1, 0), d’où
7.6 MATRICE DE CHANGEMENT DE BASE 109
1 5
x11 = et x21 = ;
2 2
a02 = x12 a1 + x22 a2 i.e (3, 2) = x12 (1, 2) + x22 (1, 0), d’où
x12 = 1 et x22 = 2.
Ainsi on a
0 1
1
1
P (A, A0 ) = @ 2 A.
5
2
2
uA = P (A, A0 ) uA’
En particulier P (A, A0 ) est inversible et son inverse est P (A0 , A); ainsi
uA’ = P (A0 , A) uA .
3 1
uA = , .
2 2 0 1
1 1
On a v = P (E, A) vA ; le calcul donne P (E, A) = @ A, d’où
2 0
0 10 1 0 1
1 1 1 0
v=@ A@ A=@ A.
2 0 1 2
Ainsi v = (0, 2).
Théorème: Soit f : E ! F une application linéaire et soient
A = fa1 , . . . , an g et A0 = fa01 , . . . , a0n g deux bases de E, et
B = fb1 , . . . , bm g, B 0 = fb01 , . . . , b0m g deux bases de F ;
notons
A = M (f , A, B) et A0 = M (f , A0 , B 0 ), P = P (A, A0 ) et Q = P (B, B 0 ).
Alors
A0 = Q 1 AP
M (f , A0 , B 0 ) = M (idF , B, B 0 ) M (f , A, B) M (idE , A0 , A)
Déterminants
dét: Mn (K) ! K
A 7 ! detA
de la manière suivante:
si n = 1, i.e A = (a), on pose detA = a
si n > 1, notons Aij la matrice obtenue de A en supprimant la i eme
ligne et la j eme colonne ( i.e la ligne et la colonne qui passent par aij ).
On pose alors ( puisque Aij 2 Mn 1 (K) ):
111
112 CHAPTER 8 DÉTERMINANTS
a11 : : : a1n
.. .. ..
. . .
an1 : : : ann
0 1
a11 : : : a1n
B C
B . . . C
le déterminant de la matrice B .. .. .. C.
@ A
an1 : : : ann
Exemples:
4 1
1) = (4 2) + ( 1)3 ( 1) (3) = 11.
3 2
Plus généralement on a:
a c
= ad bc
b d
1 2 3
1 1 2 1 2 1
2) 2 1 1 = (1) + ( 1)3 ( 2) + ( 1)4 (3)
5 1 1 1 1 5
1 5 1
= (6) + (6) + (27) = 39.
Plus généralement on peut appliquer la règle de SARRUS pour le calcul
d’un déterminant d’ordre 3:
Le déterminant d’une matrice d’ordre 3 est la somme de six termes, trois
a¤ectés du signe + et trois du signe :
Les produits a¤ectés du signe + contiennent soit les trois termes de la
diagonale principale, soit deux termes parallèles à cette diagonale.
Pour les produits a¤ectés du signe , on procède de même en changeant
de diagonale.
On peut utiliser les dispositions suivantes:
a) On ajoute à droite les deux premières colonnes:
1 2 3
Calculons 2 1 1 ,
1 5 1
8.1 DÉFINITION PAR RÉCURRENCE 113
1 2 3 1 2
on a 2 1 1 2 1
1 5 1 1 5
d’où
1 2 3
2 1 1 = (1) (1) (1) + ( 2) ( 1) (1) + (3) (2) (5) (1) (1) (3)
1 5 1
(5) ( 1) (1) (1) (2) ( 2) = 39.
cof (a11 ) = ( 1)2 (5) = 5, cof (a12 ) = ( 1)3 (1) = 1, cof (a21 ) =
( 1)3 (2)0= 2, cof (a122 ) = ( 1)4 (0) = 0.
1 2 3
B C
B C
B =B2 1 1 C,
@ A
1 5 1
1 2 2 3
cof (b23 ) = ( 1)5 = 7, cof (b31 ) = ( 1)4 = 1.
1 5 1 1
On peut alors reformuler la dé…nition du déterminant de la façon suivante:
Soit A = (aij ) 2 Mn (K), alors:
Le développement du déterminant suivant la i eme ligne est donné
par:
detA = ai1 cof (ai1 ) + ai2 cof (ai2 ) + : : : + ain cof (ain )
detA = a1j cof (a1j ) + a2j cof (a2j ) + : : : + anj cof (anj )
0 1
1 1 1
B C
B C
Exemples: Soit A = B 2 0 2 C
@ A
1 3 0
- Développement suivant la 2eme ligne:
1 1 1 1
detA = (2) ( 1)3 + (2) ( 1)5
3 0 1 3
= (2) ( 1) (3) + (2) ( 1) (4) = 14.
- Développement suivant la 3eme colonne:
2 0 1 1
detA = ( 1) ( 1)4 + (2) ( 1)5
1 3 1 3
= ( 1) (1) (6) + (2) ( 1) (4) = 14.
Remarque: Par transposition, les formules précédentes donnent des for-
mules de développement par rapport à une colonne ou à une ligne quelconque:
8.2 FORMES N-LINÉAIRES ALTERNÉES 115
X X
detA = ( 1)i+j aij detAij = ( 1)i+j aij detAij .
1 i n 1 j n
Pour se souvenir des signes de ces deux formules, on peut remarquer que
la distribution des signes + et avec la formule ( 1)i+j est analogue à la
distribution des cases noires et blanches sur un damier:
+ +
+ + :::
+ + :::
+ + :::
.. .. .. .. . .
. . . . .
f (x1 ; : : : ; xi 1 ; yi + xi ; xi+1 ; : : : ; xn ) =
f (x1 ; : : : ; xi 1 ; yi ; xi+1 ; : : : ; xn ) + f (x1 ; : : : ; xi 1 ; xi ; xi+1 ; : : : ; xn )
Elle est symétrique si elle est invariante par permutation des facteurs, et
antisymétrique ou alternée si l’interversion de deux facteurs change le signe,
i.e si
8 (x1 ; : : : ; xn ) 2 E n , 8i < j,
f (x1 ; : : : ; xi ; : : : xj ; : : : ; xn ) = f (x1 ; : : : ; xj ; : : : xi ; : : : ; xn )
det : E n ! K
1 1 1 1 0 0
2 0 2 = 2 2 4
1 3 0 1 4 1
0 1
C2 ! C2 C1 : la deuxiéme colonne est remplacée par
B C
B C
B la même colonne moins la première; C
B C
B C
B et C3 ! C3 + C1 : la troisième colonne est remplacée par C
@ A
la même colonne plus la première.
2 4
= (1) = 14
4 1
118 CHAPTER 8 DÉTERMINANTS
3) detA est nul si l’un des vecteurs colonnes est combinaison linéaire des
autres. En particulier, detA = 0 si un vecteur colonne est nul; detA = 0 si
deux colonnes sont égaux.
0 1
1 2 1 3
B C
B C
B 2 4 2 1C
Exemple: B = B B C, on constate que C3 = C2 C1 i.e la
C
B 1 1 2 1C
@ A
0 2 2 2
troisième colonne est égale à la deuxième moins la première; le calcul donnera
certainement detB = 0.
4) En multipliant par un scalaire toutes les composantes d’un vecteur
colonne quelconque de A, on obtient un déterminant égal à detA. En
d’autres termes
0 1
1 1 1
B C
B C
Exemple: A = B 2 0 2 C, on a déjà montré dans 1) que detA =
@ A
1 3 0
14; si on multiplie la deuxième colonne ( par exemple ) par 2 le calcul
1 2 1
donne 2 0 2 = 28 = ( 2) detA
1 6 0
8.3 RÈGLES DE CALCUL 119
Exemple:
1 2 1 1 ( 1) + ( 1) 1
2 0 2 = 2 0+0 2
1 6 0 1 ( 4) + ( 2) 0
1 1 1 1 1 1
= 2 0 2 + 2 0 2 = 18 + 10 = 28
1 4 0 1 2 0
sont
1 4 5 1 4 5 2 2 1
2 2 1 , 1 6 4 , 1 6 4 .
1 6 4 0 1 2 0 1 2
0 1
= sont:
1 2
en bordant avec la 3 ieme ligne
0 1 4 0 1 1
1 2 3 , 1 2 5
3 5 2 3 5 6
en bordant avec la 4 ieme ligne
0 1 4 0 1 1
1 2 3 , 1 2 5
6 2 1 6 2 2
Montrer qu’on retrouve les mêmes bordants de en bordant avec les
colonnes.
On peut reformuler le théorème précédent de la façon suivante:
Théorème: Soit A une matrice m n. Le rang de A est r si et seulement
si on peut extraire de A un mineur d’ordre r non nul et tous les bordants
de dans A sont nuls. 0 1
1 1 0
B C
B C
B 2 1 3C
Exemples: Déterminons le rang de A = B B
C
C
B 1 2 1C
@ A
0 1 1
A 6= O =) rgA 1
1 1
= 3 6= 0 =) rgA 2
2 1
122 CHAPTER 8 DÉTERMINANTS
1 1 0 1 1 0
2 1 3 = 0, 2 1 3 = 0.
1 2 1 0 1 1
Donc rgA = 2.
1 0 1 0
Les bordants de sont 41 = 0 1 2 = 1 et 42 = 0 1 2 = 2.
1 0 1 0 1
124 CHAPTER 8 DÉTERMINANTS
tA = (aji ).
1 1
A = tcof (A)
detA
Exemples:0 1
1 2
Soit A = @ A; on a detA = 5 6= 0, donc A est inversible.
1 3
0 1
cof (a11 ) cof (a12 )
cof (A) = @ A
cof (a21 ) cof (a22 )
0 1
1 1 3 2
A 1
= tcof (A) = @ A.
detA 5 1 1
8.4 APPLICATION DES DÉTERMINANTS 125
Plus généralement:
0 1
a b
si A = @ A avec ad bc 6= 0, on a:
c d
0 1
1 d b
A 1
= @ A
ad bc c a
0 1
1 2 0
B C
B C
Soit B = B 1 3 0 C, detB = 5 6= 0, donc B est inversible.
@ A
0 1 1
cof (b11 ) = 3, cof (b12 ) = 1, cof (b13 ) = 1,
cof (b21 ) = 2, cof (b22 ) = 1, cof (b23 ) = 1,
cof (b31 ) = 0
0, cof (b32 ) = 0,
1cof (b33 ) = 5. 0 1
3 1 1 3 2 0
B C 1 B C
B C 1 B C
Cof (B) = B 2 1 1 C et B = B 1 1 0 C.
@ A 5@ A
0 0 5 1 1 5
Chapter 9
AX = B
0 1 0 1 0 1
a11 : : : a1n x1 b1
B C B C B C
B . .. C B .. C B .. C
avec A = B .. . C , X = B . C et B = B . C.
@ A @ A @ A
am1 : : : amn xn bm
On appelle rang du système S le rang de la matrice A associée à S.
127
128 CHAPTER 9 SYSTÈMES D’ÉQUATIONS LINÉAIRES
8
>
> a x + : : : + a1n xn = b1
>
< 11 1
..
. avec detA 6= 0.
>
>
>
: a x + ::: + a x = b
n1 1 nn n n
1
AX = B () A (AX) = A 1 B () (A 1 A) X = A 1 B
d’où
X = A 1B
X = A 1B
2 5 2
On a D = 1 2 4 = 46
3 4 6
7 5 2 2 7 2
3 2 4 1 3 4
Dx 5 4 6 Dy 3 5 6
x= = = 5, y = = = 1,
D 46 D 46
2 5 7
1 2 3
Dz 3 4 5
z= = = 1.
D 46
La solution du système est donc (5, 1, 1).
a11 : : : a1r b1
.. ..
. .
4s = s = r + 1; : : : ; m,
ar1 : : : arr br
as1 : : : asr bs
a11 : : : a1r
..
= . 6= 0
ar1 : : : arr
a11 : : : a1r b1
.. ..
. .
4s = = 0, (s = r + 1; : : : ; m).
ar1 : : : arr br
as1 : : : asr bs
2) Si cette condition est réalisée, S est équivalent au système des " équa-
tions principales ":
8
>
> a11 x1 + : : : + a1r xr + : : : + a1n xn = b1
>
<
0 ..
S: .
>
>
>
: ar1 x1 + : : : + arr xr + : : : + arn xn = br
xr+1 = r+1 ; : : : ; xn = n.
et detA = 6 (2 k).
2 1
Si k 6= 2, rg(A) = 3; si k = 2, rg(A) = 2 car = 2 6= 0.
0 1
Ainsi deux cas se présentent:
a) k 6= 2, le système est alors un système de Cramer.
La solution s’obtient par les formules de Cramer:
Dx Dy Dz
x= ,y= et z = avec D = detA.
D D D
b) k = 2, le système est de rang 2. On étudie alors la compatibilité à
l’aide des déterminants caractéristiques. On extrait un mineur d’ordre 2 non
nul, par exemple:
2 1
=
0 1
2 1
43 = 0 1 = 2( ).
2 2
9.3 CAS DES SYSTÈMES HOMOGÈNES 133
La
8 variable libre est z. En posant z = , on a:
< 2x+ y = + +4
, d’où x = , y= 3 , z= .
: y = 3 2
En résumé:
(i) si k 6= 2, le système admet une et une seule solution;
(ii) si k = 2, deux cas se présentent:
6= + : le système n’admet pas de solution;
= + : le système admet une in…nité de solutions dépendants
d’un paramètre.
AX = 0