Algebre Orsay l3
Algebre Orsay l3
Algebre Orsay l3
2023-2024
Yves Laszlo
Yves.Laszlo@universite-paris-saclay.fr
L3 Magistère, Semestre 2
2
Table des matières
1 Introduction 7
1.1 Conventions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Prérequis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3
4 TABLE DES MATIÈRES
7 Sous-espaces stables 77
7.1 Point de vue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
7.3 Sous-espaces caractéristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.3.1 Propriétés topologiques dans le cas complexe . . . . . . . . . . . . . . . . . . . . . 80
Introduction
Felix Klein
Dans ces notes concernant la géométrie vectorielle, quadratique et hermitienne, nous illustrons ce point
de vue visionnaire en classifiant des objets géométriques via des invariants sous des actions de groupes
variées (facteurs invariants, invariants de similitude, discriminant, indice, signature...).
Nous nous efforçons de le faire de manière « concrète », ie avec des méthodes donnant lieu à des al-
gorithmes. Mieux vaut en effet savoir construire un objet que de simplement connaître son existence.
L’objet du cours n’est en revanche pas de donner des programmes optimisés ente termes d’efficacité (c’est
un autre sujet, d’ailleurs intéressant !), mais de s’interroger sur le « comment faire ». On tombe d’ailleurs
rapidement sur les défauts numériques des algorithmes type pivot.
Il ne s’agit pas pour non plus de donner des méthodes formellement constructivistes ([Bis67]) mais
de donner autant que faire se peut des théorèmes d’existence qui peuvent explicitement amener à la
construction de l’objet en question, par exemple grâce à un ordinateur.
Nous ne saurions trop conseiller au lecteur d’implémenter sur machine les divers algorithmes : ceci lui
permettra de vérifier qu’il a compris en profondeur les preuves. Nous avons de notre côté utilisé le
programme SAGEMATH, basé sur Python.
J’adresse mes chaleureux remerciements à Peter Haïssinki qui m’a aimablement donné ses jolies notes
sur la partie quadratique, notes sur lesquelles je me suis beaucoup appuyé pour une première cersion du
7
8 CHAPITRE 1. INTRODUCTION
1.1 Conventions
Sauf mention expresse du contraire, les anneaux seront supposés commutatifs et unitaires, en général
notés R. Par paresse, on les supposera sauf contre)ordre explicite de plus non nuls, i.e.1 ̸= 0. Leur groupe
multiplicatif des inversibles est noté R× . Ceci leur octroie la propriété suivante :
Tout anneau admet un idéal propre maximal pour l’inclusion, résultat que nous verrons comme un axiome
(dans cette généralité, ceci équivaut à l’axiome du choix).
On l’utilisera sans plus de précision. La clef de ce résultat est le fait élémentaire que tout polynôme
à coefficients dans k admet une racine dans un corps K éventuellement plus grand. L’existence de Ω
découle alors formellement de l’existence d’idéaux maximaux dans des anneaux non nuls quelconques.
Toutefois, le lecteur n’aimant pas l’axiome du choix vérifiera que l’existence des corps K précédents suffit
pour nous et que l’existence de Ω est juste une commodité de langage de fait.
Par (léger) abus, nous identifierons fréquemment deux objets entre lesquels existe un « isomorphisme » ne
dépendant pas de donnée supplémentaire. C’est une démarche habituelle et déjà rencontrée : on identifie
ainsi un espace vectoriel de dimension finie avec son biduale, un espace euclidien avec son dual, une
matrice carrée de dimension 1 avec son unique coefficient (sa trace en fait). . .
1.2 Prérequis
Nous ne supposons d’autre connaissance en algèbre linéaire que les bases de la théorie de la dimension, le
lien entre matrices et endomorphismes et les propriétés élémentaires du déterminant (notion de polynôme
caractéristique et valeur propre comprise). On suppose le lecteur familier avec la méthode du pivot de
Gauss. Le lecteur qui aurait vu la théorie dans le cadre d’espaces vectoriels réels ou complexes fera l’effort
d’accepter (ou de vérifier) que rien ne change sur un corps quelconque.
1.2. PRÉREQUIS 9
De manière générale, on rappelle que les opérations de ligne et de colonnes sur les matrices rectangulaires à
coefficients dans un anneau R sont obtenues par multiplication à droite ou à gauche par des transvections
Ti,j (r) = Id +rEi,j , i ̸= j (où Ei,j est la matrice -ici carrée- standard dont tous les coefficients sont nuls
sauf celui à la ligne i et colonne j qui vaut 1), les permutations de lignes ou de colonne par des matrices
de permutation Mσ , ces matrices étant inversibles (de déterminant ±1). La multiplication d’un pivot
principal par un scalaire r s’obtient par produit avec une dilatation D(r) = Id +(r − 1)E1,1 qui est
inversible dès que r l’est.
D’un point de vue général, on suppose le lecteur familier avec les définitions générales d’anneaux et
d’anneaux quotients ainsi qu’avec la notion de groupe quotient, au moins dans le cas abélien. Plus
spécifiquement, outre la notion de corps, est supposée connue celle d’anneau principal (intègre dont tous
les idéaux sont engendré par un élément), au moins dans le cas de Z et k[T]. Pour rendre la lecture
plus aisée, on donnera une preuve des principaux résultats dans le chapitre sur les anneaux factoriels
(10). Pour l’essentiel, nous utiliserons deux choses : l’identité de Bézout et le fait qu’un anneau principal
est factoriel (10.1.1.5) (existence et unicité à l’ordre près de la décomposition en facteurs irréductibles)
ce qui permet de relier la notion de PGCD à la décomposition en facteurs irréductibles d’une part, à
l’identité de Bézout d’autre part. Ainsi, le résultat clef pour nous qui en découle est le suivant, version
à peine généralisée de k[T] (resp. Z) à un anneau principal du célèbre lemme des noyaux en algèbre
linéaire usuelle (resp. du lemme chinois usuel sur les entiers). Voir aussi l’exercice 2.8.0.8.
Q
Proposition 1.2.0.1 (Lemme chinois). Soit R un anneau principal et r = ri ∈ R avec PGCD(ri , rj ) =
1 si i ̸= j.
P
1. Il existe ui ∈ R tels que ui r/ri = 1.
Démonstration (Sketch). Pour le (1), observons que les facteurs irréductibles de PGCD(r/ri ) sont
Q
les facteurs ri de r. Mais comme r/ri = j̸=i rj et que ri est premier à tous les rj , j ̸= i, il est premier
à r/ri . Ainsi, PGCD(r/ri ) = 1 et le premier point découle de l’identité de Bézout.
Comme ri |(r/rj ) pour j ̸= i, on a r = ri (r/ri )|(r/rj )(r/ri ) et donc ej ei = 0 si i ̸= j. Mais comme
P
ei = 1 par projection sur R/(r) de l’identité de Bézout précédente, on obtient en multipliant par ei la
formule manquante e2i = ei . Le reste en découle immédiatement.
10 CHAPITRE 1. INTRODUCTION
Chapitre 2
Ainsi, on le ne consultera ensuite que si besoin absolu : l’idée est que toutes les constructions formelles des
espaces vectoriels ou des groupes abéliens s’appliquent mutatis mutandis à ce cadre général en acceptant
d’avoir des scalaires à valeurs dans un anneau et plus dans un corps (ou des entiers pour les groupes
abéliens).
En revanche, comme on le verra ici et dans l’ensemble du texte, le point de vue diagrammatique (cf. 2.3)
une fois qu’on s’y est familiarisé est extrêmement précieux, unificateur et simplificateur.
1. a(m + m′ ) = am + am′
11
12 CHAPITRE 2. GÉNÉRALITÉS SUR LES MODULES
2. (a + a′ )m = am + a′ m
3. 1m = m
4. a(a′ m) = (aa′ )m
La notion de module s’obtient exactement de même, en permettant au corps k d’être un anneau R (pour
nous commutatif unitaire donc) :
Définition 2.2.0.1. Un module M sur un anneau unitaire R est un groupe abélien muni d’une loi
R × M → M vérifiant les propriétés de compatibilité précédentes.
Toutes les notions/constructions formelles des espaces vectoriels (combinaisons linéaires, parties géné-
ratrices, libres, espaces de type fini, sous-espace, sous-espace engendré, applications linéaires (on dit
souvent morphisme), de noyau. . .) se transposent mutatis mutandis aux modules. Les modules possédant
une partie génératrice finie sont dits de type fini. On laisse au lecteur le soin de ne surtout pas perdre
de temps à réécrire le formalisme qui est une simple transposition.
En revanche les théorèmes de la théorie de la dimension sont faux en général, en particulier l’existence
de base. Ceci vient bien souvent des phénomènes de torsion : il arrive, fréquemment comme on le verra,
que l’équation am = 0 n’entraîne pas a ou m nul. Nous y reviendrons.
Les modules admettant des bases sont dit libres. Comme en algèbre linéaire, la donnée d’une application
linéaire d’un module libre dans un module quelconque est équivalent à se donner les images d’une base.
De même, les applications linéaires entre modules libres munis de base s’identifient à des matrices à
coefficients dans R de taille adéquate (cf. 10 infra).
Exemple(s) 2.2.0.2. Par définition, les modules sur les corps sont les espaces vectoriels. Donnons des
exemples plus intéressants.
1. La multiplication fait de R est un module (libre) sur lui-même (de base 1) et ses sous-modules sont
les idéaux de R.
2. R<n [T] est un R-module libre de base Xi , i < n donc de rang n pour n ∈ N = N ∪ {∞}.
3. Si R est intègre et M un module, l’ensemble Mtors des éléments de M annulés par un élément non
nul de M est un sous-module dit module de torsion .
5. L’ensemble Cc (T, R) des fonctions continues à support compact d’un espace topologique T dans R
est un module sur l’anneau des fonctions continues de T dans R. Si T est un métrique non compact,
Cc (T, R) est un idéal mais n’est pas un anneau (exercice). Cet idéal n’est pas de type fini par exemple
si T = Rn (exrecice).
2.2. VOCABULAIRE ET PREMIERS EXEMPLES 13
6. De même, la multiplication par les éléments de R fait de Mn,m (R) est un module libre de base les
matrices standards (Ei,j )1≤i≤n,1≤j≤m .
Q
7. Soit Mi , i ∈ I une famille de modules. Comme en algèbre linéaire, le groupe abélien produit Mi a
Q
une structure naturelle de module : c’est l’unique structure tel que toutes les projections πj : Mi →
Mj sont linéaires. En d’autre termes, a.(mi ) = (ami ) (cf. 2.6.1.1).
Q
8. Avec les notations précédentes, le sous-ensemble ⊕Mi de Mi constitués des familles presque nulle
est un sous-module dit « somme directe de Mi ». La famille (de support fini) (mi ) est souvent notée
P Q
mi . Si I est de plus fini, on a ⊕Mi = Mi .
9. Le module Rm est libre de base (canonique) (ej = (δi,j , i = 1, · · · , m))1≤j≤m (cf. 2.6.1.1).
10. Si M, N sont deux R-modules, l’ensemble des morphismes HomR (M, N) est naturellement un module.
Si M = Rm , l’application naturelle
Hom (M, N) →
R Nm
f 7→ (f (ej ))
11. Les Z-modules s’identifient aux groupes abéliens grâce à la multiplication externe
|n|
X
n.m = signe(n) m, n ∈ Z, m ∈ M,
i=0
tandis que les morphismes de Z-modules s’identifient aux morphismes de groupes abéliens.
12. Si V est un k-espace vectoriel, l’ensemble des polynômes formels 1 à coefficient dans V est naturel-
lement un k[T]-module. Si (ei )1≤i≤n est une base de V, les ei vus comme polynômes constants de
V[T] forment une base de V[T], module qu’on identifiera donc à k[T]n par ce biais (exercice). On
remarquera que la formule ( j λi,j Tj )i = j (λi,j )i Tj permet d’identifier k[T]n et kn [T] ce qu’on
P P
fera désormais.
1. Montrer qu’un idéal propre I de R est maximal si et seulement si R/I est un corps.
2. Montrer que M est de type fini si et seulement si il existe une surjection linéaire Rn → M.
3. Montrer que si f ∈ HomR (Rm , Rn ) = Mn,m (R) est surjective alors m ≥ n (considérer un idéal
maximal I de R et observer que la matrice f mod I reste surjective).
5. En considérant encore un idéal maximal I de R, montrer qu’un module libre de type fini M admet
1. i.e.des suites presque nulles.
14 CHAPITRE 2. GÉNÉRALITÉS SUR LES MODULES
une base finie et que toute ses bases ont même cardinal : le rang de L ; montrer qu’alors le rang de
L est plus petit que le cardinal de toute famille génératrice.
On sait que les sous-groupes d’un groupe cyclique sont cycliques et que les sous-groupes de Z/nZ sont
de la forme n/dZ/nZ avec d|n. En remplaçant Z par un anneau principal, on obtient (exercice)
Lemme 2.2.0.4 (Modules cycliques). Soit R un anneau principal et M = Rm un module cyclique (i.e.
monogène) et soit (r) un générateur de AnnM (R).
— On a M ≃ R/(r).
Soit N un sous-module de N et ρ′ un générateur de l’idéal [N : M] = {x ∈ R|xM ⊂ N}.
x7→xρ′ m
— ρ′ |r = ρρ′ et R/(ρ) −−−−−→ N est un isomorphisme de R-modules.
— r, ρ, ρ′ sont bien définis à un inversible près. En particulier, les sous-modules de M sont en nombre
fini dès que r est non nul.
2.2.1 Le k[T]-module Va
Si R = k[T] et M est un R-module, la multiplication par les éléments de k vus comme polynômes
constants fait de M un k-espace vectoriel. Par ailleurs, la multiplication par T définit a ∈ Endk (M) :
l’homotéthie de rapport T. Inversement, si V est un k-espace vectoriel et a ∈ Endk (V), on définit une
structure de R-module Va sur V par la formule T.v = a(v) et par linéarité
Du point de vue des morphismes, l’identification fonctionne comme suit. Si N = Wb est un second module
associé à un endomorphisme b ∈ Endk (W), un morphisme f ∈ HomR (M, N) = Homk[T] (Va , Vb ) est défini
par f ∈ Homk (V, W) tel que
i.e.
Remarque(s) 2.2.1.2. Suivant le principe général de transposition formelle, le lecteur aura deviné que
HomR (M, N) désigne l’espace des applications R-linéaires de M dans N, ditto pour EndR (M), . . . . Lorsque
le contexte sera clair, on omettra la mention de l’anneau en indice.
En particulier, lorsque a = b, on a
ι f π
Ker(f ) →
− M−
→N−
→ Coker(f ).
On constate que les composés de deux morphismes succesifs d ◦ δ (à savoir f ◦ ι et π ◦ f ) sont nuls, ce qui
équivaut aux inclusions Im(δ) ⊂ Ker(d). Mais on a mieux : ces inclusions sont des égalités ! Ceci amène
à la définition suivante
Définition 2.3.1.1. Soit di ∈ Hom(Mi , Mi+1 ) des morphismes, notée comme une « suite » :
di−1 i d
· · · Mi−1 −−−→ Mi −→ Mi+1 · · ·
.
— On dit que la suite est un complexe (en i) si di ◦ di−1 = 0 ie Im(di−1 ) ⊂ Ker(di ).
— On dit que la suite est exacte (en i) si de plus Im(di−1 ) ⊃ Ker(di ) ie Ker(di ) = Im(di−1 ).
Généralisons l’exemple précédent au cas des matrices D ∈ Mn,m (R) « diagonale » au sens où ses coeffi-
cients di,j sont nuls si i ̸= j. On a donc une décomposition par blocs (éventuellement vides)
diag(di )ν,ν 0ν,m−ν
D=
0n−ν,ν 0n−ν,m−ν
avec ν = min(m, n) et di = di,i , i = 1, · · · , ν (et où on remarque que 0n−ν,m−ν est la matrice . . . vide !).
On a deux suites exactes : la première
0n−ν,m−ν Idn−ν
Rm−ν −−−−−−→ Rn−ν −−−−→ Rn−ν → 0
est exacte.
On veut voir les propriétés des morphismes en termes de diagrammes. Par exemple, dire que f, g ∈
Homk (V, W) sont des endomorphismes équivalents au sens de l’algèbre linéaire, c’est dire l’existence
d’endomorphismes p, q de W, V tels que p ◦ f = g ◦ q avec p, q isomorphismes. La première condition
p ◦ f = g ◦ q (resp. les deux conditions) se tradui(en)t alors en disant que le diagramme
2.4. FONCTORIALITÉ ET CHASSES AU DIAGRAMME 17
V
p
/V resp. 0 /V p
/V /0
g f g f
W
q
/W 0 /W q
/W /0
est commutatif avec des lignes 2 exactes (cette dernière condition étant vide pour le premier diagramme).
Une définition générale formelle (qu’on encourage le lecteur à ne pas lire !) pourrait être
En pratique, on n’aura affaire qu’avec des diagramme composés de carré ou de triangles pour lesquels la
définition de commutativité sera évidente.
Proposition 2.4.0.1 (Fonctorialité I). Supposons qu’on ait un diagramme commutatif de R-modules où
la ligne horizontale supérieure est exacte et la ligne inférieure est un complexe.
M1
µ1
/ M2 / M3 /0
N1
ν1
/ N2 / N3 /0
2. Par convention, les lignes d’un diagramme sont horizontales, les colonnes verticales.
18 CHAPITRE 2. GÉNÉRALITÉS SUR LES MODULES
M1
µ1
/ M2 / M3 /0
f3
N1
ν1
/ N2 / N3 /0
Si de plus, la ligne complexe inférieure est une suite exacte et que les deux flèches Mi → Ni , i = 1, 2
sont des isomorphismes, alors f3 est un isomorphisme..
M1
µ1
/ M2 µ2
/ M3 /0
f1 f2 f3
N1
ν1
/ N2 ν2
/ N3
Pour l’existence, soit m3 ∈ M3 et considérons m2 un antécédent par µ2 . Si m2 n’est pas unique, il est
défini à Ker(µ2 ) = Im(µ1 ) près. Par linéarité, l’image ν2 ◦ f2 (m2 ) est bien définie à ν2 ◦ f2 ◦ µ1 (M1 )
près. Mais par commutativité du carré de gauche, on a ν2 ◦ f2 ◦ µ1 = ν2 ◦ ν1 ◦ f1 = 0 car ν2 ◦ ν1 = 0 par
hypothèse. Ainsi, ν2 ◦f2 (m2 ) est bien défini, i.e. ne dépend que de m3 . On pose alors f3 (m3 ) = ν2 ◦f2 (m2 )
dont on vérifie qu’il convient.
Pour la seconde partie, on peut vérifier facilement à la main que la bijectivité est de f1 , f2 entraîne celle
de f3 (exercice).
Donnons une preuve « catégorique », preuve qui a l’avantage de se généraliser à d’autres contextes. Sous
les hypothèses de bijectivité de f1 , f2 , on veut prouver que f3 adent un inverse à gauche g3 et un inverse
à droite d3 . De g3 ◦ f3 = IdM3 on obtient alors en composant à droite par d3 l’égalité g3 = d3 et donc
que f3 est inversible.
M1
µ1
/ M2 µ2
/ M3 /0
f1 f2 f3
N1
ν1
/ N2 ν2
/ N3 /0
g1 g2
M1
ν1
/ M2 ν2
/ M3 /0
qu’on peut compléter de manière unique en un diagramme commutatif à lignes exactes d’après le premier
point
2.4. FONCTORIALITÉ ET CHASSES AU DIAGRAMME 19
M1
µ1
/ M2 µ2
/ M3 /0
f1 f2 f3
N1
ν1
/ N2 ν2
/ N3 /0
g1 g2 g3
M1
ν1
/ M2 ν2
/ M3 /0
Mais en regardant le carré externe, tenant comte de g1 ◦ f1 = IdM1 et g2 ◦ f2 = IdM2 , on a un diagramme
commutatif à lignes exactes
M1
ν1
/ M2 ν2
/ M3 /0
Id Id g3 ◦f3
M1
ν1
/ M2 ν2
/ M3 /0
Mais on a aussi un diagramme commutatif
M1
ν1
/ M2 ν2
/ M3 /0
Id Id Id
M1
ν1
/ M2 ν2
/ M3 /0
ce qui, grâce à l’unicité dans le premier point, donne g3 ◦ f3 = IdM3 . En échangeant les rôles de M, N,
on construit l’inverse à droite de f3 .
On obtient exactement de la même manière l’énoncé suivant obtenu par « renversement du sens des
flèches » 3
Proposition 2.4.0.2 (Fonctorialité II). Supposons qu’on ait un diagramme commutatif de R-modules
où la ligne horizontale inférieure est exacte et la ligne supérieure est un complexe.
0 / M1 / M2 µ2
/ M3
0 / N1 / N2 ν2
/ N3
0 / M1 / M2 µ2
/ M3
ι1
0 / N1 / N2 ν2
/ N3
3. une injection 0 → M → N étant donc remplacée par une surjection M → N → 0 et réciproquement ! C’est un
phénomène général : tout énoncé formel impliquant diagrammes commutatifs, complexes et suites exactes donne lieu à
un énoncé analogue par renversement du sens des flèches. On peut donner un sens précis à cet énoncé valable dans toute
« catégorie abélienne ». On se contentera, et c’est bien suffisant, de voir cela comme un méta-principe.
20 CHAPITRE 2. GÉNÉRALITÉS SUR LES MODULES
Si de plus, la ligne complexe inférieure est une suite exacte et que les deux flèches Mi → Ni , i = 2, 3
sont des isomorphismes, alors ι3 est un isomorphisme.
Une généralisation parfois bien utile est le célèbre (et formel) lemme des cinq
M1 / M2 / M3 / M4 / M5
f1 f2 f3 f4 f5
N1 / N2 / N3 / N4 / N5
— Si f2 , f4 injectives et f1 surjective, alors f3 injective.
— Si f2 , f4 surjectives et f5 injective, alors f3 bijective.
On l’utilise le plus souvent sous la forme affaiblie suivante : Considérons un diagramme commutatif de
modules à lignes exactes
0 / M2 / M3 / M4 /0
f2 f3 f4
0 / N2 / N3 / N4 /0
Si f2 , f4 bijectives f3 bijective.
Remarque(s) 2.5.0.1. Notons que si µ1 est l’injection d’un sous-module M1 de M2 , le groupe abélien
sous-jacent au conoyau de µ1 est simplement le groupe quotient M2 /M1 muni de la projection quotient
M2 → M2 /M1 comme on l’a défini dans le cas des groupes abéliens. Ceci permet de définir une structure
de module quotient canonique M2 /M1 avec un morphisme quotient correspondant.
2.6. PROPRIÉTÉS UNIVERSELLES 21
µ1 µ2
Proposition 2.5.0.2. Montrer que la suite M1 −→ M2 −→ M3 → 0 est exacte si et seulement si M3
s’identifie (canoniquement) au conoyau de µ1 .
M1
µ1
/ M2 / Coker(µ1 ) /0
Id Id
M1
µ1
/ M2 µ2
/ M3 /0
Exercice(s) 2.5.0.3. Énoncer et démontrer le résultat obtenu en renversant le sens des flèches.
pour T un « module test » arbitraire. Ainsi, T est vu comme une variable et h, h∨ comme une fonction
de T dont les valeurs sont des ensembles. On devrait dire foncteur : la composition avec f ∈ HomR (M, N)
définit une application (linéaire) hf (T) : hM (T) → hN (T) (resp. h∨ ∨ ∨
f : h (N) → hM (T)) qui est compatible
à la composition 4 . Le bon cadre général pour formuler ce qui suit est celui du lemme de Yoneda dans les
catégories, mais on allons rester dans le cadre des modules pour les exemples qui nous intéressent pour
éviter le formalisme inutile.
4. Le lecteur reconnaîtra la notion habituelle de « restriction » d’un morphisme pour hf (T) et dualement de « transpo-
sée » pour h∨ (f )
22 CHAPITRE 2. GÉNÉRALITÉS SUR LES MODULES
Lemme 2.6.1.1 (Propriétés universelles de la somme et du produit). Les applications h(T) et h∨ (T)
sont bijectives.
La preuve est immédiate et laissée en exercice. Dans le cas de la somme directe, le sens du lemme est que
se donner un morphisme f : ⊕Mi → T équivaut à se donner une collection de morphismes fi : Mi → T
P P
(grâce à la formule f ( mi ) = fi (mi ) qui est bien définie car la somme est en fait finie).
j
0 → Ker(f ) −
→M→N
et
p
M→N−
→ Coker(f ) → 0
Hom(Coker(f ), T) → Hom0 (N, T) = {ψ ∈ Hom(N, T)|ψ ◦ f = 0}
h∨ (T) :
φ 7→ φ◦p
et
Hom(T, Ker(f )) → Hom0 (T, M) = {ψ ∈ Hom(T, M)|f ◦ ψ = 0}
h(T) :
φ 7→ j◦φ
Lemme 2.6.2.1 (Propriétés universelles du noyau et du conoyau). Les applications h(T) et h∨ (T) sont
bijectives.
M
f
/N p
/ Coker(f ) /0
ψ
0 /T Id /T /0
de sorte que 2.4.0.1 assure l’existence d’un unique φ faisant commuter le diagramme
M
f
/N p
/ Coker(f ) /0
ψ φ
0 /T Id /T /0
On vérifie que l’application ψ 7→ φ est l’inverse de h∨ (T).
Le sens du lemme est que se donner un morphisme φ du conoyau dans T équivaut à se donner un
morphisme ψ de N dans T tel que le composé de ψ ◦ f est nul, ou encore ψ se factorise à travers le
quotient (ou passe au quotient) en φ si et seulement si ψ◦ = 0 (et l’analogue pour le noyau en renversant
le sens des flèches). D’un point de vue diagrammatique, on résume souvent en ne gardant que le sens
non formel de l’énoncé :
; TO
ψ
∃!φ
Si ψ ◦ f = 0 alors M
f
/N / Coker(f )
Une autre manière de dire, en termes des foncteurs h et h∨ est que les suites de morphismes de modules
qu’ils définissent
et
0 → Hom(T, Ker(f )) → Hom(T, M) → Hom(T, N)
sont exactes.
Q
Lemme 2.7.0.1 (Décomposition primaire). Soit r = ri ∈ R. On suppose PGCD(ri , rj ) = 1 si i ̸= j.
Soit M un module annulé par r.
P
1. Il existe ui ∈ R (indépendants de M) tels que ui r/ri = 1.
2. Alors,
M = ⊕ AnnM (ri )
et la projection pi sur AnnM (ri ) parallèlement à ⊕j ̸= i AnnM (rj ) est l’homothétie de rapport
ui r/ri ∈ R.
P
3. Les pi forment une famille orthogonale de projecteurs de M i.e. pi = Id et pi pj = δi,j pi .
Démonstration. Les r/ri sont globalement premiers entre eux de sorte que le premier point est
l’identité de Bézout.
P
Pour le second point, prouvons déjà que la somme des AnnM (ri ) est directe. Supposons donc mi = 0
P
avec mi ∈ AnnM (ri ). Pour tout j, on réécrit mj = − i̸=j mi . On déduit que l’idéal Ij annulateur de mj
Q
contient rj (membre de gauche de l’égalité) et i̸=j pi = r/ri (membre de droite) et donc leur PGCD
par Bézout. Comme rj et r/rj sont premiers entre eux, PGCD(ri , r/ri ) = 1 ∈ Ij et 1mj = mj = 0 pour
tout j. Soit alors m ∈ M. On a
X
r= ui r/ri m
P
et ri (ui r/ri m) = ui rm = 0 donc mi ∈ AnnM (ri ). L’orthogonalité est évidente car 1 = uj r/rj et
chaque uj r/rj est divisible par ri si j ̸= i et
Le troisième point est un cas particulier du second. ■
Q ni
1. De sorte que r = pi est une décomposition en facteur irréductibles de r.
n
2. AnnM (pni ) := Ker(pi i s’appelle parfois l’espace caractéristique associé à pi par extension du cas de l’algèbre linéaire
où M = Va et r = µa ∈ k[T].
2.8. EXERCICES SUPPLÉMENTAIRES 25
En particulier, les projections M → M[p] sont « fonctorielles » au sens suivant : soit f ∈ HomR (M, N) ;
si r comme dans la proposition annule à la fois N et M, on a un diagramme commutatif où les flèches
verticales sont les projections (donc les homotéthies de rapport ui r/ri )
(iv) N
f
/M
ui r/ri ⟲ ui r/ri
N[pi ]
f
/ M[pi ]
Q
Exemple(s) 2.7.0.2. Si R = k[T] avec P = Pi ∈ avec Pi deux à deux premiers entre eux et M = Va
(2.2.0.2), alors AnnM (P) = Ker(P(a)) et on retrouve le lemme des noyaux habituel
Remarque(s) 2.7.0.4. Si R est euclidien, le calcul des ui est algorithmique. La plupart des résultats
que nous démontrerons pour k[T] de manière algorithmique se transposent mutatis mutandis aux an-
neaux euclidiens. Ils restent vrais dans le cadre principal, mais sans algorithme général (on utilise alors
explicitement ou non des décompositions en facteurs irréductibles pour trouver des couples de Bézout, no-
tamment dans la généralisation infra du pivot de Gauss). Cette différence est en fait profonde : c’est une
fenêtre vers la K-théorie. Pour uné généralisation du lemme chinois au cas non principal, voir 2.8.0.8.
√
Exemple(s) 2.7.0.5. L’anneau Z[ −19] est principal mais non euclidien ; i on préfère la géométrie,
√
il en est de même de l’anneau de fonctions sur le cercle de rayon −1, l’anneau R[x, y]/(x2 + y 2 + 1)
(voir 3.4) pour des références.
— Montrer que les inversibles de k[T] sont les polynômes constantes non nulle de k∗
— Montrer qu’une matrice de Mn (R) est inversible si et seulement si son déterminant est un inver-
sible de R× . En déduire que M ∈ Mn (k[T]) est inversible si et seulement si det(M) ∈ k∗ .
Exercice(s) 2.8.0.2. On rappelle le lemme de Zorn. Soit I un ensemble ordonné non vide qu’on suppose
inductif (toute sous-ensemble totalement ordonné admet un élément maximal). Le lemme de Zorn assure
que I admet un élément maximal. Montrer que le lemme de Zorn entraîne l’existence d’idéaux maximaux
(i.e.idéaux propres maximaux).
f g h
′ p′
0 / A′ i / B′ / C′
1. Montrer que i envoie Ker f dans Ker g et que p envoie Ker g dans Ker h.
2. Montrer que i′ induit un morphisme Coker f → Coker g et que p induit un morphisme Coker g →
Coker h.
3. Montrer qu’il existe un unique morphisme δ : Ker h → Coker f tel que la suite suivante soit exacte :
δ
Ker f −→ Ker g −→ Ker h −→ Coker f −→ Coker g −→ Coker h.
Montrer que si i est injective et p est surjective, alors la suite suivante est exacte :
δ
0 −→ Ker f −→ Ker g −→ Ker h −→ Coker f −→ Coker g −→ Coker h −→ 0.
Exercice(s) 2.8.0.4. On va à montrer que si l’anneau R n’est pas supposé commutatif, alors il peut
arriver que les R-modules Rn , n ≥ 1 soient tous isomorphes. À cet effet, on fixe un espace vectoriel réel
V muni d’une base dénombrable (ek )k∈N et on note R l’anneau des applications linéaires sur V (muni
de la composition), identifiés à des « matrices infinies » de RN×N . On définit deux applications linéaires
T et T′ sur V par les relations suivantes pour n ∈ N :
T(e2n ) = en ,
T′ (e2n ) = 0,
et
T(e2n+1 ) = 0,
T′ (e2n+1 ) = en .
3. Montrer que R1 et R2 sont isomorphes comme R-modules puis que Rn est isomorphe à R pour tout
n ∈ N∗ .
πi : (x1 , · · · , xd ) 7→ xi
i π
(v) 0 → K → N −→ C→0
′ j π
0 → Rd −
→N−
→ R → 0.
µ1 µ2
0 → M1 −→ M2 −→ M3 → 0.
On qu’il existe une section σ = M3 → M2 de µ2 , i.e.vérifiant µ2 ◦ σ = IdM3 . On dit alors que la suite
exacte est scindée.
3. Inversement, si M1 est facteur directe dans M3 , montrer que la suite est scindée.
n
4. Montrer que la suite exacte 0 → Z −
→→ Z → Z/nZ n’est pas scindée si n ≥ 2. En particulier, nZ
n’est pas facteur direct.
3. Son noyau I1 ∩. . . In est l’idéal produit I1 . . . In engendré par les produits de n éléments dans I1 , . . . , In
respectivement.
Exercice(s) 2.8.0.9 (Résultant). Soit R un anneau et P, Q ∈ R[T] deux polynômes de degré p, q > 0.
On note Res(P, Q) le résultant de P et Q, égal par définition au déterminant dans les bases canoniques
(cf. 2.2.0.2) de l’application linéaire entre modules libres de rang p + q
R [T] × R [T] → R
<q <p <p+q [T]
ρ(P, Q) :
(A, B) 7→ AP + BQ
2. En considérant la comatrice de ρ(P, Q), montrer qu’il existe A, B ∈ R[T] de degré q, p tels que
AP + BQ = R(P, Q). En déduire que si P, Q ont une racine commune dans R, alors R(P, Q) = 0.
3. Si P, Q sont de plus unitaires, montrer que ρ(P, Q) est la matrice de la multiplication µ : R[T]/(Q)×
R[T] → R[T]/(PQ) dans les bases canoniques (des classes de monômes Ti ).
4. Toujours avec P, Q sont de plus unitaires, montrer qu’on a un diagramme commutatif à lignes
exactes
(T−r)
0 / R[T]/(PQ) / R[T]/((T − r)PQ) evr
/R /0
O O O
ρ(P,Q) ρ((T−r)P,Q) Q(r)
(1,(T−r)) evQ (r)
0 / R[T]/(Q) × R[T]/(P) / R[T]/(Q) × R[T]/((T − r)P) /R /0
où ev(A) = A(r) et evQ (A, B) = A(r). En déduire que ρ((T − r)P, Q) est triangulaire par blocs de
diagonale diag(ρ(P, Q), Q(r)) puis que Res((T − r)P, Q) = Q(r) Res(P, Q).
Q Q
5. Si Q unitaire, montrer Res( (T − ri ), Q) = Q(ri ). Que se passe-t-il si Q n’est pas supposé
unitaire ?
6. Si R = k est un corps, montrer que deg(PGCD(P, Q)) > 0 si et seulement si il existe A, B ∈ k[T]
non nuls de degré < q et < p respectivement tels que AP = BQ. En déduire que P, Q sont premiers
entre eux si et seulement si leur résultant Res(P, Q) ̸= 0.
Chapitre 3
Nous exposons la théorie d’un point de vue aussi concret et algorithmique que
possible en généralisant les techniques de pivot de Gauss classiques sur les
matrices à coefficients dans un corps au cas des anneaux de polynômes sur
k[T] (ou d’un anneau euclidien).
Comme on l’évoque en fin de chapitre, il y a de bonnes raisons à considérer le pivot à valeurs dans
des anneaux R : la présence sous-jacente d’un groupe caché nouveau, le groupe de K-théorie algébrique
SK1 (R).
3.2 Introduction
Le lecteur qui a suivi un cours de base de théorie des groupes avec la classification des groupes abéliens
de types fini reconnaîtra dans cette section une simple adaptation de ce qui a été vu pour les matrices à
coefficients entiers. Il s’agira donc alors d’un simple « rappel ». Pour les autres, partons à la découverte.
Rappelons que deux matrices A, B de Mp,q (R) sont équivalentes (on note A ∼ B) si et seulement si il
existe Q ∈ GLq (R), P ∈ GLp (R) telles que A = QBP−1 . Ceci définit bien... une relation d’équivalence.
Dans le cas R = k, on sait que deux matrices sont équivalentes si et seulement si elles ont même rang
(application immédiate du pivot par exemple ou du théorème de la base incomplète comme on préfère).
29
30 CHAPITRE 3. CLASSES D’ÉQUIVALENCE DANS MP,Q (K[T]).
La méthode du pivot a été redécouverte par Gauss et Jordan au XIXème. Mais elle était connue des
chinois au moins au Ier siècle avant notre ère : cf. la réédition commentée « Les neuf chapitres Le classique
mathématique de la Chine ancienne et ses commentaires » par Karine CHEMLA et Shuchun GUO chez
Dunod en 2005.
3.3.1 Existence
Proposition 3.3.1.1. Il existe une famille de polynômes unitaires P = (Pr | · · · |P2 |P1 ) telle que A est
équivalente à la matrice 1 diagonale
diag(Pr , · · · , P1 ) 0r,q−r
∆(P) =
0p−r,r 0p−r,q−r
Démonstration. On utilise librement les opérations élémentaires sur les matrices car elles laissent
invariante la classe d’équivalence. On peut supposer A non nulle. On procède par récurrence sur p+q ≥ 2.
Si p + q = 2, il n’y a rien à démontrer. Supposons l’énoncé prouvé si p + q ≤ n et soit A non nulle avec
p + q = n + 1.
Soit d ≥ 0 le degré minimal d’un coefficient parmi tous les coefficients non nuls de la classe d’équivalence
de A. On peut supposer que ce degré est atteint pour un coefficient de A.
— Quitte à permuter lignes et ou colonnes, on peut supposer que ce coefficient est a1,1 .
— a1,1 divise nécessairement tous les a1,l et al,1 pour l > 1 (on peut par opération élémentaire rem-
placer ces coefficients par leur reste par la division euclidienne par a1,1 qui est nul par minimalité
3.3. DIVISEURS ÉLÉMENTAIRES 31
de d). Par le même argument, on peut donc supposer a1,l = al,1 = 0 pour l > 1.
— a1,1 divise tout coefficient ai,j avec i, j > 1. En effet, on peut par opération élémentaire L1 7→
L1 + Li mettre ai,j sur la première ligne. Puis par opération élémentaire Cj 7→ Cj − qC1 avec q
quotient de la division de ai,j par a1,1 aboutir à un degré < d et donc à un reste nul par minimalité
de d.
— Ainsi a1,1 = Pr est le PGCD des coefficients et A s’écrit par blocs
1 0
Pr
0 B
Remarque(s) 3.3.1.2. Notons que r est visiblement le rang de A vue comme matrice à coefficients
dans le corps des fractions de k[T]. Il ne dépend donc que de A.
On peut rendre facilement cette preuve algorithmique (4.13.4 ou, au choix, [Jac85] ou [vdW50]). On
invite fortement le lecteur à l’implémenter lui-même sur ordinateur (par exemple en utilisant le logiciel
open source, basé sur Python, SageMath 2 ).
On définit
δn (A) = PGCD (∧n (A))
Lemme 3.3.2.1. Si
diag(Pr , · · · , P1 ) 0r,q−r
∆(P) = Pr | · · · |P2 |P1 unitaires
0p−r,r 0p−r,q−r
on a
δn (A) = Pr · · · Pr−n+1
Démonstration. Tous les mineurs ∆I,J de ∆ = ∆(P) sont triangulaires avec au moins un élément
diagonal nul si I ̸= J. Si I = (n ≥ i1 > · · · , > in ), on a det(∆I,I ) = Pin · · · Pi1 si n ≤ r et est nul sinon.
2. Voir pour une prise en main complète A. Casamayou, N. Cohen, G. Connan, T. Dumont, L. Fousse, F. Maltey,
M. Meulien, M. Mezzarobba, C. Pernet, N. M. Thiéry, P. Zimmermann, Calcul mathématique avec Sage, https://www.
sagemath.org/sagebook/french.htm)
32 CHAPITRE 3. CLASSES D’ÉQUIVALENCE DANS MP,Q (K[T]).
de calcul des mineurs d’un produit de matrices quelconques. Mais on n’a pas besoin de cette précision. On
peut procéder ainsi. Toute colonne de AP est une combinaison linéaire des colonnes de A. La multilinéarité
du déterminant assure alors que le mineur (AP)I,J est une combinaison linéaire de déterminants de
matrices extraites de taille n où les colonnes sont des colonnes de A (éventuellement égales) et les lignes
sont indexées par I. Si deux colonnes sont égales, le déterminant est nul (le déterminant est alterné).
Sinon, l’ensemble des colonnes en question est indexé par un ensemble K de cardinal n et le déterminant
en question est de la forme AI,K ce qui implique que det(AP)I,J est une combinaison linéaire des det(AI,K )
avec Card(K) = n et donc est bien dans ∧n (A). ■
Théorème 3.3.2.3 (Diviseurs élémentaires d’une matrice polynômiale). Soit A une matrice polynômiale
A ∈ Mp,q (k[T])
— Il existe une unique suite polynômes unitaires P = (Pr · · · · · · , P1 ) associés à A tels que pour tout
n on a δn (A) = Pr · · · Pr−n+1 . On les appelles les diviseurs élémentaires de A.
— Deux matrices de Mp,q (k[T]) sont équivalentes si et seulement si elles ont les mêmes diviseurs
élémentaires.
— La suite des diviseurs élémentaires de ∆(P) (cf. 3.3.2.1) est P.
— Si P est la suite des diviseurs élémentaires de A, on a A ∼ ∆(P) . Cette suite peut se calculer
algorithmiquement par pivot de Gauss (cf. 3.3.1.1).
P 0
Exercice(s) 3.3.2.4. Soient P, Q ∈ k[T] unitaires et A = . Calculer δ1 (A) et δ2 (A) et en
0 Q
déduire que les invariants de similitude de A sont PGCD(P, Q), PPCM(P, Q). Retrouver ce résultat par
le pivot.
3.4. COMPLÉMENT : FENÊTRE SUR LA K-THÉORIE 33
En déduire un autre algorithme que celui du pivot pour calculer les invariants de similitude d’une matrice
diagonale de k[T]. [Si Qi , i ∈ I sont ses coefficients diagonaux, on pourra s’intéresser à PGCD(Qi1 · · · Qir )
lorsque {i1 , · · · , ir } décrit les parties à r éléments de I].
Remarque(s) 3.3.2.5. Le lecteur adaptera sans peine le théorème précédent au cas de l’équivalence
pour les matrices à coefficients dans un anneau euclidien (muni d’une division euclidienne). Il faut juste
pour cela accepter une unicité des diviseurs élémentaires à multiplication par un inversible près. L’énoncé
d’unicité se généralise sans changement. Si l’existence 3.3.1.1 reste vraie dans un anneau principal, sa
preuve par pivot elle ne fonctionne plus (cf. exercice infra). Or, il existe des anneaux principaux non
√
−19
euclidiens : c’est par exemple le cas de Z[ 1+ 2 ] (cf. [Per88]) ou de R[x, y]/(x2 + y 2 + 1) (cf. [Bev16]).
Dans le cas principal, il faut pour cela ajouter une opération permise de plus (3.3.2.6). Je dis bien qu’en
général il faut. Cette différence algorithmique est une fenêtre sur la K-théorie algébrique (cf. 3.4).
Exercice(s) 3.3.2.6. Soit R un anneau principal et considérons des éléments de R tels que au − bv = 1.
On définit les opérations de Bézout sur les matrices à coefficients dans R comme étant les multiplications
à gauche ou à droite par les matrices inversibles diagonales par blocs de type
a v
02,n
b u
0n,2 Idn
Généraliser la preuve de 3.3.1.1 en autorisant en plus des opérations élémentaires les opérations de
Bézout.
Nous avons donc résolu notre problème initial (3). En effet, si A est dans une classe d’équivalence de
Mp,q (k[T])/∼ , ses diviseurs élémentaires P(A) = P = Pi sont bien définis et ne dépendent que de la
classe (A mod ∼). En effet, le théorème 3.3.2.3 assure que le quotient Mp,q (k[T])/∼ quotient s’identifie
à l’ensemble des suites P de polynômes unitaires décroissantes pour la divisibilité de longueur r ≤ inf(p, q)
et l’application quotient s’identifie à A 7→ P(A).
Cette section est culturelle et vise à introduire une idée importante en mathé-
matique : comment mesurer l’obstruction à ce qu’un résultat soit vrai. Ici, la
question posée est comment mesurer l’éventuelle impossibilité de « diagonali-
ser » au sens de 3.3.1.1 les matrices par pivot de Gauss à coefficients dans un
anneau R quelconque.
34 CHAPITRE 3. CLASSES D’ÉQUIVALENCE DANS MP,Q (K[T]).
La question précise à laquelle on s’attaque naturellement est alors la suivante : le groupe GLn (R) est-il
engendré par les matrices élémentaires de transvections de type pivot(cf. 1.2) -on verra après pour les
matrices de permutation, qui sont anodines, et de dilatations qui se traitent via l’application détermi-
nant).
Le premier pas est de s’affranchir de n : pour cela, on voit GLn (R) comme le sous groupe de GLn+1 (R)
des matrices diagonales par blocs diag(M, 1), M ∈ GLn (R) ce qui permet de considérer leur union infinie
GL(R), vue comme ensemble de matrices de taille infinie donc qui contient donc tous les groupes linéaires
de taille finie. On définit alors E(A) comme le sous-groupe de GL(A) engendré par toutes les transvections
qui mesure les matrices de déterminant 1 qu’on peut atteindre par pivot (quitte à s’autoriser à agrandir
les matrices donc).
Le premier résultat est à la fois simple et remarquable, surtout dans la preuve qu’en a donné [Mil66].
Lemme 3.4.0.1 (Whitehead). Pour tout anneau R, le groupe E(R) est le groupe dérivé [GL(R), GL(R)]
engendré par le commutateurs [A, B] = ABA−1 B−1 de matrices de GL(R).
Démonstration. Il suffit d’écrire, encore fallait-il les voir !- les deux formules
[A, B] 0 A 0 B 0 (BA)−1 0
=
−1 −1
0 In 0 A 0 B 0 BA
et
B 0 I BIn −In
0 I I 0
= n n
n
−1 −1
0 B 0 In In − B In
In 0In − B In
In B
ramène à prouver que toute matrice de type est produit de transvections ce qu’on montre sans
0 In
problème par pivot de Gauss (exercice).
En particulier, E(A) est distingué et le quotient K1 (R) = GL(R)/[GL(R), GL(R)] est un groupe commu-
tatif puisque c’est l’abélianisé de /GL(R) ! C’est le groupe de K-théorie algébrique 3 de degré 1. Comme
le déterminant de tout commutateur vaut 1, le morphisme déterminant passe au quotient (2.6.2.1) pour
définir le groupe spécial de K-théorie algébrique de degré 1
det
SK1 (R) : Ker(GL(R) −−→ R× )
qui permet d’éviter de considérer les dilatations et matrices de permutation qui ne jouent pas de rôle
déterminant dans le pivot. L’inclusion R× = GL1 (R) → GL(R) suivie de la projection quotient GL(R) →
K1 (R) permet de définir un morphisme
Le groupe SK1 (R) est visiblement l’obstruction à ce que l’algorithme de pivot (« infini ») permette
de diagonaliser les matrices. Et nos résultats prouvent que si R est euclidien, SK1 (R) = 0. Il est à
remarquer que cette obstruction est très subite. Par exemple, dans le cas de l’anneau principal non
√
−19
euclidien R = Z[ 1+ 2 ], on a SK1 (R) = {1} (c’est un théorème général très difficile cf. [BMS67]).
Autrement dit, ce n’est pas un exemple où le pivot avec les matrices élémentaires est insuffisant, au
moins en se permettant d ’augmenter la taille des matrices. Trouver R principal tel que SK1 (R) est non
nul est difficile. Un exemple est donné dans [Gra81] : on prend le sous anneau de Z(T) engendré par Z[T]
et les (Tm − 1)−1 , m ≥ 1 c’est un anneau principal ( !) dont le SK1 est même infini.
4.2 Introduction
1. Ne recevoir aucune chose pour vraie que je ne la connusse évidemment être telle.
37
38 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
René Descartes
2. Diviser chacune des difficultés que j’examinerais, en autant de parcelles qu’il se pourrait et qu’il
serait requis pour les mieux résoudre.
3. Conduire par ordre mes pensées, en commençant par les objets les plus simples et les plus aisés à
connaître pour monter peu à peu, comme par degrés, jusqu’à la connaissance des plus composés.
4. Faire partout des dénombrements si entiers, et des revues si générales, que je fusse assuré de ne rien
omettre ". C’est la règle du dénombrement. Faire une revue entière, générale des objets ce qui fait
intervenir la prudence, la circonspection.
Nous utiliserons librement les propriétés habituelles des anneaux principaux (identité de Bézout, facto-
rialité...) et le fait que les anneaux euclidiens sont principaux. Les exemples clefs pour nous sont Z et
k[T]. Le lecteur pourra si besoin se référer (sans cercle vicieux) au chapitre 10 pour la factorialité des
anneaux principaux.
Un résultat bien utile est une généralisation de la division euclidienne lorsque le diviseur est à coefficient
dominant unitaire : c’est le résultat infra dont la preuve est une simple relecture de la preuve usuelle
(exercice).
Lemme 4.2.0.1 (Division euclidienne généralisée). Soit A, B deux polynômes à coefficients dans un
anneau unitaire R non nécessairement commutatif avec B non nul. On suppose que le coefficient dominant
de B est inversible à droite (resp. à gauche). Alors, il existe Qd , Rd ∈ R[T] (resp. Qg , Rg ) tels que
A = BQd + Rd avec deg(Qd ) < deg(Rd ) division euclidienne à droite (resp. A = Qg B + Rg avec
deg(Qg ) < deg(Rg ) division euclidienne à gauche). Si de plus R est intègre à gauche( resp. à droite), on
a unicité à gauche (resp. à droite).
Bien qu’il sera nécessaire de batailler avec des matrices nilpotentes par exemple, bien loin d’être diago-
nalisables, il ne faut pas perdre de vue que ces matrices sont en fait pathologiques : dans le cas complexe
par exemple, une matrice tirée au hasard est presque sûrement avec des valeurs propres distinctes !
Une raison est donnée à titre d’échauffement en exercice (4.14.0.3). Pour autant, les mathématiques
fournissent naturellement bien des matrices improbables.
4.2. INTRODUCTION 39
4.2.1 Notations
4.3 Stratégie
Rappelons que deux matrices carrées A, B de Mn (k) sont semblables (dans k !) (on note A ≈ B) si et
seulement si il existe P ∈ GLn (k) telles que A = PBP−1 . Ceci définit bien... une relation d’équivalence
(pour ne pas la confondre avec l’équivalence précédente des matrices polynômiales on notera A la classe
de similitude d’une matrice carrée scalaire).
Nous allons exhiber dans chaque classe d’équivalence un représentant canonique. Pour ce faire, nous allons
exhiber pour toute matrice carré A ∈ Mn (k) un représentant canonique dans sa classe de similitude en
deux temps à l’instar de ce que nous avons fait pour les matrices polynômiales.
2. De manière analogue à ce qui précède, nous exhiberons grâce à ∆(T Id −A) un représentant cano-
nique C(P) dans toute classe de similitude Mn (k)/≈ ) à l’aide de matrices compagnons associées aux
diviseurs P de T Id −A : c’est le théorème de décomposition de Frobenius 4.9.0.2.
TId−ã a π
(i) 0 → V[T] −−−−→ V[T] −→ Va → 0
est exacte.
4.4. INVARIANCE PAR ∼ DE T Id −A DE VA 41
Démonstration. Soit v ∈ V. On a
de sorte que πa ◦ (TId − ã) = 0 puisque V engendre V[T] et donc Im(TId − ã) ⊂ Ker(πa ).
Inversement, soit v(T) = i≥0 Ti vi ∈ Ker(πa ), ie
P
X
v0 + ai (vi ) = 0.
i≥1
On a donc
X
v(T) = (Ti Id − ãi )(vi ).
i≥1
Xi−1
Ti Id − ãi = (TId − ã) ◦ ( Tj ãi−1−j )
j=0
et donc v(T) ∈ Im(TId − ã). D’où l’exactitude au milieu. L’exactitude à gauche, facile et inutile pour
nous, est laissée en utile exercice.
En d’autres termes, on a
TId−A π
(iii) 0 → (k[T])n −−−−→ (k[T]))n −−→
A
VA = (kn )A → 0
Corollaire 4.4.0.2. Soit A, B ∈ Mn (k) les matrices de a, b ∈ Endk (V) dans une base. Les propositions
suivantes sont équivalentes.
2 ⇒ 3. Il existe donc P(T), Q(T) ∈ GLn (k[T]) telles que P(T)(TId − A)Q(T)−1 = T Id −B. Dans ce
cas, P(T), Q(T) définissent d’après ce qui précède un diagramme commutatif à lignes exactes et colonnes
isomorphismes
k[T]n
TId−A
/ k[T]n πA
/ VA /0
Q(T) P(T)
k[T]n
TId−B
/ k[T]n πB
/ VB /0
ι : V A → VB ,
S : VA = kn → kn = VB
Définition 4.5.0.1. Les diviseurs élémentaires de TId − A, A ∈ Mn (k) s’appellent les invariants de
similitude de A.
Théorème 4.5.0.2 (Invariants de similitude). Soit a, b ∈ Endk (V). Les propositions suivantes sont
équivalentes.
Démonstration. Le premier point découle par exemple du fait que les invariants de similitude de
A se calculent par pivot de Gauss sur T Id −A, algorithme indépendant du surcorps où on calcule. Le
second résulte de deux observations : A ∼ B entraîne t A ∼ t B (écrire la définition de l’équivalence) et
A ∼ ∆((P)) = t ∆(P) car ∆ diagonale carrée. ■
Avant de passer au second point annoncé en (2.2.1), la décomposition de Frobenius 4.9.0.2, donnons
quelques propriétés spécifiques aux invariants de similitude A liées au caractère bien spécifique de la
matrice polynômiale T Id −A et tirons-en quelques corollaires délicieux.
Proposition 4.6.0.1. Soit a ∈ Endk (V) et P = (Pr | · · · |P1 ) ses invariants de similitude.
Qn
1. On a r = n et i=1 Pi = χa (T).
2. On a ∆(P) = diag(P1 , · · · , Pn ).
3. On a P1 |χa |Pn1 de sorte que χa et P1 ont les mêmes facteurs irréductibles (et donc les mêmes racines
dans toute extension de k).
5. P1 est le minimal µa de a.
6. χa (a) = 0 (Cayley-Hamilton).
44 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
Démonstration. Soit A ∈ Mn (k) la matrice de a dans une base V de sorte que T Id −A ∼ ∆(P)
(3.3.2.3). Il existe donc P(T), Q(T) ∈ GLn (k[T]) telles que
diag(P1 , · · · , Pr ) 0r,n−r
P(T) Q(T) = TId − A.
0n−r,r 0n−r,n−r
Comme les déterminants de P(T) et Q(T) sont des scalaires non nuls et que tant les Pi que le polynôme
caractéristique χA sont unitaires on a en prenant le déterminant de l’identité précédente r = n et χA (T) =
P1 · · · Pn d’où (1) et (2).
Tenant compte du fait que P1 est un multiple de tous les Pi , on a P1 |χA |Pn1 . ce qui donne les points 1
et 2. Comme P1 est multiple de chaque Pi , en prenant le produit, on a que Pn1 multiple de χa de sorte
qu’on a P1 |χa |Pn1 d’où (3).
D’après (2.3.2.1), la suite
∆
(k[T])n −→ (k[T])n → ⊕ni=1 k[T]/(Pi ) → 0
d’où (4).
Comme P1 multiple de chaque Pi , il annule tous les k[T](/P ) donc également Va . Par ailleurs, si P est
i
de degré < deg(P1 ) il n’annule pas la classe de 1 dans, k[T](P1 ) et donc P(a) n’annule pas l’antécédent
de cette classe dans Va de sorte que P1 est bien le minimal µa de a d’où les points (5) et (6). ■
4.7 Diagonalisation
On garde les notations de 4.6.0.1.
Démonstration. Supposons P1 , et donc tous les Pi (qui le divisent) scindés à racines simples. Alors,
d’après (4.6.0.1) et le lemme des noyaux 2.7.0.2, on a
Si W est stable par a, la restriction aW de a à W est annulée par µa qui est donc un multiple de son
minimal. Ainsi, µaW à racines simple comme µa .
Remarque(s) 4.7.0.2. On utilise souvent ce critère sous la forme équivalente suivante : l’endomor-
phisme a est diagonalisable si et seulement si il admet un polynôme annulateur scindé sur k à racines
simples. Par exemple, toute matrice complexe vérifiant AN = Id est diagonalisable.
Les matrices d’une famille de de matrices diagonales commutent deux à deux. Inversement, il est remar-
quable et important que la réciproque soit vraie.
Corollaire 4.7.0.3. Soit (ai ) une famille arbitraire d’endomorphismes diagonalisables de V. Alors, si
fi ◦ fj = fj ◦ fi pour tout i, j, il existe une base de diagonalisation commune à tous les fi .
Passons au second point annoncé en (4.3). On cherche donc un représentant canonique C(P) dans toute
classe de similitude A de même qu’on a trouvé le représentant ∆(P) dans T Id −A. La difficulté est que
∆(P) n’est pas de la forme T. Id −A′ . Mais ce n’est pas grave, comme nous allons le voir. Commençons
par le cas où un seul des invariants de similitude est de degré > 0.
Pn−1
Soit V de dimension n et P = Tn + i=0 ai Ti ∈ k[T].
2. µa = χa = P
46 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
5. Va est monogène et µa = P.
X X
un (e0 ) = − ai ei = ai ai (e0 ).
i<n i<n
On a donc Va = k[T].e0 et P(T).e0 = 0 et ainsi µa |P. Comme les ui (e0 ), i < n sont libres, il n’existe
pas de polynôme unitaire Q de degré < n tel que Q(a) = 0 car sinon Q(a)(e0 ) = 0 serait une relation de
liaison et donc µa = P et µa = χa pour des raisons de degré puisque µa |P.
2 ⇒ 3. Dire µa = P, c’est dire P1 = χa et donc Pi = 1 pour i > 1 d’après 1. de la proposition 4.6.0.1.
3 ⇒ 4 d’après 4. de la proposition 4.6.0.1
4 ⇒ 5 est tautologique : on a déjà vu P = µa dans la preuve du point 5 de 4.6.0.1. Si ι est alors un
isomorphisme k[T]/(P) sur Va , l’élément ι(1 mod P) engendre Va .
5 ⇒ 1. Soit e0 un générateur de Va . Le noyau de l’unique k[T] morphisme surjectif k[T] → Va qui envoie
1 sur e0 est l’annulateur de e0 dans Va , et donc contient µa = P. Mais si son générateur unitaire était
Q de degré < n, on aurait Q(T)e0 = 0 mais aussi Q(T)Va = (0) puisque Va = k[T]e0 . Donc µa = P
diviserait Q, ce qui est impossible car deg(P) = n. ■
Un vecteur v tel que k[T].v est de dimension deg(µa ) est dit cyclique tout comme l’espace k[T].v qu’il
engendre. Autrement dit, k[T].v est cyclique si c’est un espace monogène de dimension maximale.
Définition 4.9.0.1. Soit P = (Pn , · · · |P1 ) une suite de polynômes unitaires. On définit C(P) = diag(Pi )
P
la matrice compagnon généralisée (de taille n = deg(Pi )).
Notons que C(1) est... la matrice vide, comme toute matrice d’endomorphisme de k[T]/(1) = (0) !
4.10. RÉSUMÉ 47
Théorème 4.9.0.2 (Réduction de Frobenius). Soit P=(Pn | · · · |P1 ), i = 1, · · · , n des polynômes uni-
taires de k[T] et A ∈ Mn (k).
Démonstration. Soit r le plus grand indice i tel que di = deg(Pi ) > 0. D’après la caractérisa-
tion des endomorphismes cycliques (4.8.0.1), pour tout i ≤ r, la matrice T Id −C(Pi ) est équivalente
à diag(1, · · · , 1, Pi ) (avec 1 répété di − 1 fois) et donc s’écrit Q′i diag(1, · · · , 1, Pi )Q−1
i avec Qi , Q′i ∈
GLdeg(Pi ) (k) tandis que C(Pi ) est vide pour i > r. On a donc avec Q = diag(Qi ), Q′ = diag(Q′i ), i ≤ r
T Id −A = Q diagi diag(1, · · · , 1, Pi ) Q′−1 ∼ diag(P1 , · · · , Pr , 1, · · · , 1)
P
avec 1 répété i≤r (di −1) = n−r fois de sort diag(P1 , · · · , Pr , 1, · · · , 1) = diag(P1, · · · , Pn ). Par unicité
des diviseurs élémentaires, (1) en découle.
Pour (2), de (1) découle que A et C(P) ont même invariants de similitude, donc sont semblables. ■
4.10 Résumé
En rassemblant ce qu’on a prouvé, on a les résultats suivants.
Soit A, B ∈ Mn (k) et P = (Pn | · · · |P1 ) une famille de polynômes unitaires.
— A et B sont semblables si et seulement si elles ont mêmes invariants de similitude.
— La famille des invariants de similitude de C(P) est P.
Si P est la famille des invariants de similitude A, on a
— A et C(P) sont semblables.
— On a VA ≃ ⊕k[T]/(Pi ) où A désigne aussi l’endomorphisme de V = kn associé.
— TId − A est équivalente à diag(P1 , · · · , Pn ) .
— P se calcule par pivot de Gauss en « diagonalisant » TId − A dans Mn (k[T]).
48 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
— On a χA = P1 · · · Pn et P1 = µA .
— Les invariants de similitude de C(P) sont (1, · · · , 1, n).
La stratégie de preuve est illustrée par le schéma suivant.
A1 B1
A2 B2
P
Proposition 4.11.0.1. La dimension du commutant de a est (2i − 1) deg(Pi ). En particulier
dim Com(a) ≥ n avec égalité si et seulement si a est cyclique.
Démonstration. On a
(∗) Pi P = 0 mod Pj
4.12. APPLICATION : RÉDUITE DE JORDAN 49
Si i > j, on a Pi |Pj de sorte que la condition (∗) s’écrit P = 0 mod Pj /Pi de sorte que
On a donc
X X
dimk (Com(a)) = deg(Pj ) + deg(Pi )
i≤j i>j
X X
= j deg(Pj ) + (i − 1) deg(Pi )
j i
X
= (2i − 1) deg(Pi )
Pn
On a alors dim Com(a) − n = 2 i=1 (i − 1) deg(Pi ) ≥ 0. De plus, l’égalité entraîne (i − 1) deg(Pi ) = 0
pour tout i, donc deg(Pi ) = 0 si i > 1 de sorte que l’égalité équivaut à la cyclicité de a.
Exercice(s) 4.11.0.2 (Bicommutant, difficile). Montrer que l’inclusion k[a] ⊂ Com(Com(a)) est un
égalité où Com(Com(a)) est l’ensemble des endomorphismes qui commutent avec tous les éléments de
Com(a).
Camille Jordan
Soit donc A ∈ Mn (k) et P les invariants de similitude de A. On suppose χA scindé sur k et on note Λ
l’ensemble de ses racines distinctes de sorte que
Y
χA (T) = (T − λ)dλ .
Λ
Définition 4.12.0.1. Une partition d’une entier n ≥ 0 est une suite décroissante d = (di )1≤i≤n d’entiers
P
≥ 0 telle que di = n.
50 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
Y
(iv) Pi = (T − λ)dλ,i où dλ = (dλ,i )i est une partition de dλ .
Λ
VA = ⊕Λ ⊕i ⊕Λ k[T]/((T − λ)dλ,i ).
La formule T(T − λ)j = (T − λ)j+1 + λj (T − λ)j assure que la matrice de la multiplication par T sur
chacun des k[T]/((T − λ)dλ,i dans sa base ((T − λj ) mod (T − λ)dλ,i )j<dλ,i est λ + Jdλ,i où Jm = C(Tm )
est le bloc de Jordan standard de taille m. Ainsi, on a
1. A est semblable à une unique matrice diagonale diag(λ + Jdi,λ ) avec pour tout λ la suite (di,λ )i
partition de dλ .
Remarque(s) 4.12.0.3. L’unicité découle du fait que la réduction de Jordan étant donnée, le calcul
de ses invariants de similitude en découle. En effet si a forme de Jordan est composée de blocs du type
λ Idr +Jr . À chaque tel bloc est associé le polynôme (T − λ)r . Pour chaque valeur propre λ, on classe en
ordre décroissant les blocs qui apparaissent, et on écrit en colonne les polynômes correspondants
avec di+1,j ≤ di,j . On lit alors sur les lignes (en partant de la dernière) les facteurs invariants P1 , P2 ,
etc.
2. Si k = R, montrer que l’ensemble des matrices nilpotentes de rang n − 1 est le plus grand ouvert de
l’ensemble des matrices nipotentes sur lequel la réduction de Jordan est continue (avec la topologie
définie par une norme de Mn (R)).
3. Montrer que rg(M) = n − 2 si et seulement si M exactement deux blocs de Jordan Jp , Jn−p où p est
l’indice de nilpotence de M. Montrer que p ≥ n/2.
4.12. APPLICATION : RÉDUITE DE JORDAN 51
4. Soit p ≥ n/2, un entier q = n − p et posons pour t ∈ k, soit Mt = diag(Jp , Jq ) + tEp+q,p (on ajoute
t en bas de la p-ième colonne). Calculer l’indice de nilpotence de Mt en fonction de t. En déduire
que la réduite de Jordan de Mt est diag(Jp+1 , Jq−1 ) si t ̸= 0 et diag(Jp , Jq ) sinon.
4.12.1 Exemples
λ 1 0 0 0 0
0 λ 0 0 0 0
0 0 λ 1 0 0
0 0 0 λ 0 0
0 0 0 0 λ 0
0 0 0 0 0 µ
(T − λ)2 (T − µ)
(T − λ)2
(T − λ).
0 4 2
(2) Si M = −1 −4 −1, on a
0 0 −2
T −4 −2
TI − M = 1 T + 4 1 .
0 0 T+2
Faisons des opérations élémentaires selon l’algorithme -ou plutôt son ébauche- décrit dans la démonstra-
52 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
(4) Un endomorphisme est cyclique si et seulement si, pour chaque valeur propre, il n’y a qu’un seul bloc
de Jordan.
Soit A une matrice nilpotente et d la partition associée (4.12.0.2). Comme le bloc de Jordan Jp est
la matrice dans la base canonique de la multiplication par T de k[T]/(Tp ), l’image de Jip s’identifie à
Ti k[T]/(Tp )/ ≃ k[T]/(Tp−i ). On déduit l’égalité rg(Jip ) = (p − i)+ et plus généralement
X
(v) rg(Ai ) = (dj − i)+
j
4.12. APPLICATION : RÉDUITE DE JORDAN 53
On pose
d∗i = dim(Im(Ai−1 )/ Im(Ai )) = rg(Ai−1 ) − rg(Ai ), i = 1, · · · , n
(avec A0 = Id) de sorte qu’on a d∗i = n et d∗i ≥ 0. De plus, la multiplication par A induit une surjection
P
Im(Ai−1 )/ Im(Ai ) → Im(Ai )/ Im(Ai+1 ) de sorte que d∗i décroît. On a par construction rg(Ai ) = j>i d∗j .
P
X
(vi) n − rg(Ai ) = d∗j
j≤i
On peut simplifier l’écriture de la dualité des partitions, qui de plus est involutive !
= Card{j|dj ≥ i}
d∗∗
i = Card{j|d∗j ≥ i}
= Card{j| Card{k|dk ≥ j} ≥ i}
Remarque(s) 4.12.2.3. On présente usuellement ceci à l’aide de tableaux de Young avec des preuves,
plus ou moins convaincantes, d’ordre graphique. Il est inutile pour nous d’introduire ces notations sup-
plémentaires.
54 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
4.13 Appendices
On sait donc que si TId − A et TId − B sont équivalentes, ie s’il existe P(T), Q(T) matrices polynômiales
et inversibles telles que
P(T)(TId − A) = (TId − B)Q(T)−1 ,
avec P0 et Q̃0 dans Mn (k) (la difficulté provient du fait qu’on n’est pas dans un anneau commutatif ).
On obtient en remplaçant
ou encore
(TId − B)(P1 (T) − Q̃1 (T))(TId − A) = (TId − B)Q̃0 − P0 (TId − A).
Le membre de gauche est donc de degré au plus 1 en T, ce qui n’est possible que si P1 (T) = Q̃1 (T). On
a donc (TId − B)Q̃0 = P0 (TId − A) (raisonner par l’absurde et regarder le terme de plus haut degré).
L’égalité des coefficients de T donne Q̃0 = P0 , celle des coefficients constants donne BQ̃0 = P0 A. Il reste
à montrer que Q̃0 est inversible. On refait une division
Q(T) = Q1 (T)(TId − B) + Q0
et on écrit
Id = Q(T)−1 Q(T)
De nouveau, comme Q̃0 Q0 est constant, le facteur de TId − B est nul et Q̃0 Q0 = Id, d’où la conclusion.
■
4.13. APPENDICES 55
4.13.2 Réduction de Jordan par dualité des nilpotents sans les modules
On va donner une preuve classique du théorème de réduction de Jordan 4.12.0.2 par récurrence sur la
dimension qui utilise des méthodes standards de dualité (6) en algèbre linéaire dans le cas nilpotent, le
cas général se prouvant par réduction aux espaces caractéristiques (7) grâce au lemme des noyaux 2.7.0.2
.
On amorce la récurrence en dimension 0. Soit donc a un endomorphisme nilpotent sur V de dimension
n ≥ 1 et d = deg µa ≥ 1 son indice de nilpotence. Comme ad−1 ̸= 0, on peut choisir v tel que ad−1 (v) ̸= 0.
Comme le vecteur est non nul, on choisit de plus φ ∈ V∗ tel que ⟨φ, ad−1 (v)⟩ =
̸ 0.
Par construction, les espaces W = k[a].v et W∗ = k[t a].φ sont stables par a et t a respectivement
engendrés par ai (v), i ≤ d − 1 et t ai (φ), i ≤ d − 1 respectivement. Leur dimension est donc ≤ d. On vérifie
facilement que ces familles génératrices sont libres, de sorte que qu’il sont de dimension d. En particulier,
W est cyclique et la matrice de (la restriction à W de) a dans la base précédente est le bloc de Jordan
standard Jd . Comme W∗ est stable par t a, son orthogonal W∗⊥ ⊂ V∗∗ = V est stable par tt
a = a, donc
est de dimension n − d < n. On peut donc appliquer l’hypothèse de récurrence à la restriction de a à W′ .
Reste à vérifier que la somme W + W∗⊥ est directe donc que W ∩ W∗⊥ = {0} puisque les dimensions sont
complémentaires. Soit donc i<d λi ai (v) dans l’intersection. Si un des λi est non nul, choisissons j le
P
plus petit indice des coefficients non nuls et appliquons t ad−1−j φ ∈ W∗ . On a donc
X X
0 = ⟨t ad−1−j φ, λi ai (v)⟩ = ⟨φ, λi ad−1−j+i (v)⟩ = λj ⟨φ, ad−1 (v)⟩ =
̸ 0,
i<d i≥j
une contradiction. ■
On va donner une preuve du théorème de Frobenius 4.9.0.2 par récurrence sur la dimension qui utilise des
méthodes standards d’algèbre linéaire (voir aussi 4.9.1). C’est en fait juste une adaptation de la preuve
précédente 4.13.2 du théorème de réduction de Jordan. Elle ne sera en revanche pas algorithmique 3 à
cause de l’utilisation du lemme des noyaux pour le lemme clef suivant.
Démonstration. Supposons que µ est la puissance Pd d’un polynôme irréductible. Chaque minimal
µa,v est de la forme Pdv avec dv ≤ d. Si pour tout v, dv ≤ d − 1, on aurait Pd−1 (a)(v) = 0, une
contradiction avec µa = Pd .
Q
Dans le cas général, décomposons µa = Pdi i en puissances de facteurs irréductibles deux à deux premiers
entre eux. Sur chaque noyau Ki = Ker(Pdi (a)), le minimal de a|Ki est Pdi , de sorte qu’il existe grâce à
ce qui précède un vecteur cyclique vi pour a|Ki . Il reste à appliquer le lemme des noyaux 2.7.0.2 pour se
convaincre que la somme des vi est un vecteur cyclique pour a.
3. Pour le lecteur intéressé, voir http://www.lix.polytechnique.fr/~augot/CRAS_94.pdf pour un algorithme. Compa-
rer avec l’exrecice 4.13.3.2 infra.
56 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
Pi .V = ⊕j Pi .Wj
et
dim Pi .Vj = dim Pi .Wj si j < i
car, dans des bases convenables, les matrices des restrictions de a à Vj et Wj les mêmes matrices
compagnons associées à Pj = Qj si j < i, et donc il en est de même de celles de Pi (a). En calculant la
dimension de P − i.V de deux manières, il vient dim Pi Wi = 0 et donc Qi |Pi puisque Qi est le minimal
de a sur Wi . Par symétrie des rôles, on a Pi = Qi . ■
a) Pivot de Gauss polynomial SageMath version 9.7, Release Date : 2022-09-19, Using Python 3.10.5.
4.13. APPENDICES 57
Remarque(s) 4.13.4.1. Le programme est rapidement mis en défaut quand on remplace par exemple
Q par R. La raison est l’instabilité numérique structurelle du pivot de Gauss. Lorsque qu’on fait du pivot
sur des matrices scalaires, on la compense(partiellement) en prenant à chaque fois le plus grand pivot
en valeur absolue pour tenter de ne pas faire exploser les coefficients et de dépasser les capacités de la
machine, mais cela devient impossible quand on fait du pivot polynomial. C’est un joli sujet de réflexion de
voir comment on pourrait outrepasser cette difficulté. On a choisi de reprogrammer un certain nombre de
fonctions natives sur Sage comme les opérations élémentaires par exemple pour bien illustrer l’algorithme.
3 #d i v i s e u r s é l é m e n t a i r e s dans Q[ T ]
4 im por t time
5 R.< t> = Poly nomi alRin g (QQ)
6
7 n = 5
8 #a = random_matrix (R, n , n )
9 a = random_matrix (QQ, n , n )
10 a = t ∗ i d e n t i t y _ m a t r i x ( n )−a
11
14
15 d e f z e r o (R,m, n ) :
16 r e t u r n m a t r i x (R,m, n )
17
38 a=p i v o t a g e ( a )
39 m = a . nrows ( )
40 n = a . ncols ()
41 Lc0 = [ i f o r i i n r a n g e (m−1) i f a [ i + 1 , 0 ] ! = 0 ]
42 Lr0 = [ j f o r j i n r a n g e ( n−1) i f a [ 0 , j +1] ! = 0 ]
43 i f Lr0+Lc0 == [ ] :
44 return a
45 f o r i i n r a n g e (m−1) :
46 a . add_multiple_of_row ( i +1 ,0 , − a [ i + 1 , 0 ] // a [ 0 , 0 ] )
47 f o r j i n r a n g e ( n−1) :
48 a . add_multiple_of_column ( j +1 ,0 , − a [ 0 , j +1] // a [ 0 , 0 ] )
49 return zerotage (a)
50 #d i v e l e m d ’ une d i a g o n a l e >0
51
74 def divelem ( a ) :
75 m = a . nrows ( )
76 n = a . ncols ()
77 d=[]
78 #m a t r i c e s de t a i l l e <=(1 ,1)
79 i f m∗n == 0 o r a == z e r o ( ZZ ,m, n ) :
80 return d
81 a = zerotage (a)
82 d=d+[ a [ 0 , 0 ] ]
83 #m a t r i c e s l i g n e s ou c o l o n n e s
84 i f (m−1) ∗ ( n−1) == 0 :
85 return d
86 #m a t r i c e s non l i g n e ou c o l o n n e
4.13. APPENDICES 59
87 d = d+d i v e l e m ( a [ 1 : m, 1 : n ] )
88 #par r é c u r s i v i t é , d d é f i n i e t a é q u i v a l e n t e à d i a g ( d )
89 return divdiag (d)
90
91 d e f divelem_norm ( a ) :
92 r e t u r n [ p/p . l e a d i n g _ c o e f f i c i e n t ( ) f o r p i n d i v e l e m ( a ) i f p ! = 0 ]
93
94 d = divelem_norm ( a )
95 tmps2 = time . time ( )
96 p r i n t ( ( tmps2−tmps1 ) ∗ 1 0 0 0 , ’ ms ’ )
b) Jordan-Chevalley
25 d e f H e n s e l (P , x_0 , n ) :
26 # P polynome
27 # x_0 du lemme
28 # n entier
29 s o l u t i o n s =[x_0 ]
30 N = v a l u a t i o n ( n , 2 ) +2
31 f o r j i n r a n g e (N) :
32 i=P( s o l u t i o n s [ j ] )
33 r =( d i f f (P) ( s o l u t i o n s [ j ] ) ) . i n v e r s e ( )
34 s o l u t i o n s . append ( s o l u t i o n s [ j ]− r ∗ i )
60 CHAPITRE 4. CLASSES DE SIMILITUDE DE MN (K)
35 r e t u r n s o l u t i o n s [N]
36
37 d e f Jordan ( a ) :
38 # a matrice carr é e
39 n=a . nrows ( )
40 p i=e n l e v e r _ f a c t e u r s _ c a r r e s ( minpoly ( a ) )
41 D e l t a=H e n s e l ( pi , a , n )
42 r e t u r n "D=" , Delta , "N=" ,a−Delta , " t e s t =" , a ∗ Delta−D e l t a ∗ a
43
44 #t e s t
45 #a = m a t r i x ( k , [ [ 1 , k . random_element ( ) , 1 ] , [ 0 , 1 , 1 ] , [ 0 , 0 , 2 ] ] )
46 #Jordan ( a )
47
48
Exercice(s) 4.14.0.2. Soit G un sous-groupe commutatif de GLn (R) dont tous les éléments sont de
carré Id.
1. Soit P ∈ C[T]. Montrer que les racines de P sont simples si et seulement si le discriminant de P
défini par Res(P, P′ ) est non nul.
5.2 Semi-simplicité
La semi-simplicité est la bonne généralisation de la diagonalisabilité dans le cas des corps parfaits comme
on le verra. Commençons par quelques généralités formelles.
1. On trouve étrangement la dénomination décomposition de Dundford pour décomposition de Jordan-Chevalley dans
la littérature française.
61
62 CHAPITRE 5. SEMI-SIMPLICITÉ DANS MN (K)
Ryoan-ji, Kyoto
2. Il existe a ∈ Endk (V) tel que Va n’est pas semi-simple -prendre a nilpotent en dimension 2 par
exemple- (cf. 5.2.4.1).
3. Le Z-module (ie groupe abélien) Z/42 Z n’est pas semi-simple (cf. 5.2.1.3 infra).
4. Un anneau principal qui n’est pas un corps n’est jamais semi-simple en tant que module sur lui
même.
l’inclusion M/N ,→ M = N ⊕ M/N, d’où le second point. Pour le dernier point, si M′ est sous-module de
M/N, on choisit un supplémentaire S du sous-module f −1 (M′ ) et on vérifie que f (S) est un supplémen-
taire de M′ dans M/N de sorte que M/N est semi-simple. Mais comme N s’identifie à un quotient de M,
il en est de même de N. ■
Exercice(s) 5.2.1.4. Montrer que M est semi-simple si et seulement si toute suite exacte courte est
scindée (cf. 2.8.0.6).
Si m est un élément de torsion, son annulateur AnnA (m) a un générateur non nul, bien défini à inversible
près : « son » minimal µm .
Proposition 5.2.2.1. Soit M un module sur R principal qui n’est pas un corps.
3. M est semi-simple si et seulement M est de torsion et si le minimal de tout élément est sans facteur
irréductible carré.
Démonstration. Comme R n’est pas un corps, R a un élément non nul non inversible dont un
quelconque de ses facteurs irréductibles répond à (1).
p
Si R/(p2 ) était semi-simple, la suite exacte 0 → R/(p) −
→ R/(p2 ) → R/(p) → 0 serait scindée puisque
pR/(p) aurait un supplémentaire dans R/(p2 ) et donc R/(p2 ) ≃ R/(p) ⊕ R/(p) (2.8.0.6). Mais ceci
entraînerait que p annule R/(p2 ), ce qui n’est pas d’où (2). Passons à (3).
m
⇒ Si m ∈ M a un annulateur trivial, A −→ A est injective de sorte que A est un sous-module de Met
donc devrait être semi-simple, ce qui n’est pas (5.2.1.2)). Donc, tout élément est de torsion. Soit alors
m dont le minimal µm est divisible par p2 avec p un irréductible de sorte que R/(µm ) est un sous-module
de M. Supposons par l’absurde M semi-simple. Alors, R/(µm ) est aussi un quotient de M (5.2.1.3) et
donc de même pour R/(p2 ) (en tant que quotient de R/(µm ) donc de M) qui donc serait semi-simple, ce
qui n’est pas d’après (2).
⇐ Supposons que le minimal de tout élément soit sans facteur irréductible carré et soit N sous-module de
M. Alors, pour tout p irréductible, on a M[p] = n≥1 AnnM (pn ) = AnnM (p) (2.7.0.1). Comme M est de
S
torsion, le lemme chinois (2.7.0.1) assure M = ⊕p AnnM (p) pour p décrivant les irréductibles à unité près
(exercice). Mais la structure de R-module de AnnM (p) se factorise à travers R → R/pR = k(p) qui est un
corps car R est principal : AnnM (p) est un k(p)-espace vectoriel. De même, on a N = ⊕p AnnN (p). Soit
alors pour tout p un supplémentaire Sp du k(p)-sous-espace vectoriel AnnN (p) de AnnM (p). Le R-module
⊕Sp est un supplémentaire de N.
64 CHAPITRE 5. SEMI-SIMPLICITÉ DANS MN (K)
Sur un corps K général, il peut arriver qu’un polynôme sans facteur carré ait des racines multiples dans
un corps plus gros. C’est par exemple le cas de T2 + t dans K = F2 (t) le corps des fractions de l’anneau
de polynôme F2 (t). Ceci n’arrive pas dans les corps
parfaits. Soit p un nombre premier et R un anneau
p
tel que pR = {0}. La divisibilité bien connue p| pour 1 ≤ n ≤ p − 1 et la formule du binôme assure
n
que l’application F : r 7→ rp est un morphisme d’anneaux dit morphisme de Frobenius. Si R est un corps,
il est de plus injectif comme tout morphisme de corps.
Définition 5.2.3.1. Un corps de caractéristique p est dit parfait si p = 0 ou si tout élément admet une
racine p-ième, i.e. si son morphisme de Frobenius est un isomorphisme.
Toute corps fini est donc parfait puisqu’une injection entre ensembles finis est bijective. On doit donc
montrer l’énoncé suivant.
Lemme 5.2.3.2. Soit k un corps parfait et P ∈ k[T]. Alors, P est sans facteur carré si et seulement si
PGCD(P, P′ ) = 1. En particulier, si k est parfait et P irréductible, on a PGCD(P, P′ ) = 1.
caractéristique de k est un nombre premier p et que tous les coefficients de Pi d’indices non multiples de
P 1/p
p soient nuls : Pi = n anp Tnp . Mais dans ce cas, on a Pi = ( n anp Tn )p car le Frobenius de k[T] est
P
Le calcul du PGCD de polynômes ne dépend pas du corps de base (par exemple car l’algorithme d’Euclide
n’en dépend pas) pas plus que celui du minimal du matrice. D’après 4.7.0.1, la condition PGCD(µa , µ′a ) =
1 équivaut donc à ce que la matrice de a est diagonalisable dans Mn (Ω). Dans le cas de Va , on résume
alors ce qui précède ainsi.
5.3. DÉCOMPOSITION DE JORDAN-CHEVALLEY 65
Proposition 5.2.4.1. Soit a ∈ Endk (V) (avec k parfait) de matrice A ∈ Mn (k) dans une base donnée.
Les propositions suivantes sont équivalentes .
2. PGCD(µa , µ′a ) = 1.
4. Va est semi-simple.
Si ces conditions équivalentes sont satisfaites, on dit que a est semi-simple (dito pour une matrice de a).
Corollaire 5.2.4.2. Soit a, b ∈ Endk (V) avec a, b semi simples qui commutent (k parfait) et P ∈ k[X, Y].
Alors, P(a, b) est semi-simple.
Remarque(s) 5.2.4.3. Lorsque le corps de base K n’est pas parfait, il existe des matrices semi-simples
0 t
sur K qui, considérées dans un surcorps, ne le sont plus. Par exemple, c’est le cas de A = le
1 0
corps de fractions de F2 [t] qui est semi-simple sur K car χA (T) = T2 + t est irréductible sur K mais
ne l’est plus sur K(t1/2 ) = K[τ ]/(τ 2 − t) et a fortiori sur Ω ⊃ K. D’ailleurs, A + t1/2 Id est même
nilpotente ! La bonne notion dans le cas non parfait est celle d’absolue simplicité définie par la condition
PGCD(µa , µ′a ) = 1, plus forte que la semi-simplicité.
Exercice(s) 5.2.4.4. Soit p premier, K le corps des fractions de Fp [T] et V = K[X, Y]/(Xp −T, Yp −T).
Montrer que V est de dimension finie sur K et que les K-endomorphismes de V de multiplication par X et
Y respectivement sont semi-simples, commutent mais que leur différence est nilpotente (c’est l’exercice 14
chapitre VII.5 [Bou07] réécrit sans produit tensoriel). Démontrer sans recours à la diagonalisation simul-
tanée que la somme de deux matrices absolument semi-simples est absolument semi-simple en utilisant
l’exercice 4.14.0.3.
Gotlib
Lemme 5.3.1.1 (Hensel-Newton). Soit I un idéal nilpotent (IN = 0) d’un anneau R arbitraire et P ∈
R[T]. On suppose qu’il existe x0 ∈ R tel que P(x0 ) ≡ 0 mod I et P′ (x0 ) mod I inversible. Alors, il existe
x ∈ R tel que x ≡ x0 mod I et P(x) = 0.
Démonstration. Observons d’abord que si a mod I est inversible, alors a est inversible dans a. En
effet, si b mod I est son inverse, ab = 1 − i avec i ∈ I. En développant formellement 1/(1 − i) en série,
on déduit que 1 − i est inversible d’inverse k<N ik puisque ik = 0 pour k ≥ N et donc b/(1 − i) est
P
l’inverse de a.
On va calculer (algorithmiquement) une racine approchée
k k
xk mod I2 |P(xk ) ≡ 0 mod I2 et xk ≡ x0 mod I
par approximations successives. On procède par récurrence sur k ≥ 0( avec initialisation tautologique).
k
Supposons la propriété vraie au rang k. On cherche donc xk+1 sous la forme xk+1 + ε, ε ∈ I2 de sorte
k
que xk+1 est bien une approximation de de xk mod I2 .
La formule de Taylor (entière !) donne
avec Q[T, Y] ∈ R[T, Y] (le vérifier !). Comme xk ≡ x0 mod I, on a P′ (xk ) ≡ P′ (x0 ) mod I et donc
k k
P′ (xk ) mod I2 est inversible. On pose alors ε = −P(xk )/P′ (xk ). On a ε ∈ I2 par construction de xk .
5.3. DÉCOMPOSITION DE JORDAN-CHEVALLEY 67
k+1
Comme ε2 ∈ I2 , ce choix convient. Pour terminer, on choisit k tel que 2k ≥ N + 1 et on pose x = xk :
l’algorithme converge exponentiellement !
Corollaire 5.3.1.2 (Existence). Soit a ∈ Endk (V) (avec k parfait). Il existe d, ν ∈ k[a] ⊂ Endk [a] tels
que a = d + ν et d absolument semi-simple, ν nilpotent. En particulier, d et ν commutent.
Soit I l’idéal π(a)k[a] de k[a]. On a µa |π n et donc π n (a) = 0 de sorte que In = 0 . Par ailleurs, on a
β(a)π ′ (a) = 1 mod I et donc π ′ (a) mod I inversible. En posant x0 = a ∈ k[a], on déduit l’existence de
x ∈ k[a] tel que x = a mod I et π(x) = 0 mod In = (0). Posons alors d = x et ν = a − P(a). Comme
π(d) = 0, on a d absolument semi-simple. Comme ν = a − P(a) ∈ I et In = 0, on a ν nilpotent. ■
Remarque(s) 5.3.1.3. C’est essentiellement la preuve de Chevalley. Outre son caractère algorithmique
(très rapide), elle est importante car elle permet de définir les parties semi-simples et nilpotentes dans
le cadre des algèbres de Lie et des groupes alégbriques (sur un corps parfait), cf. par exemple l’excellent
[Bor91].
5.3.2 Unicité
1. Soit a ∈ Endk (V) Il existe un unique couple (d, ν) avec d semi-simple, ν nilpotent, d et ν qui
commutent avec a = d + ν.
2. Soit χ ∈ k[T] unitaire de degré n. Il existe P ∈ k[X] (ne dépendant que de χ) tel que si χa = χ, on
a d = P(a) et en particulier d, ν ∈ R = k[a] ⊂ Endk [a].
Démonstration. Seule l’unicité demande un argument vu ce qui précède. Soit donc d, ν comme dans
le théorème et un couple d′ , ν ′ ∈ k[a] comme dans le corollaire 5.3.1.2. Comme d, ν commutent entre
eux, ils commutent avec d + ν = a. Ils commutent donc avec d′ , ν ′ car ce sont des polynômes en a. Mais
d + ν = d′ + ν ′ ie d − d′ = ν ′ − ν. Mais ν ′ − ν est nilpotent (comme somme de nilpotents qui commutent)
et d − d′ semi-simple (comme somme de semi-simples qui commutent, 5.2.4.2) ; un endomorphisme à la
fois-semi-simple et nilpotent étant nul puisque de polynôme minimal sans facteur carré et divisant Tn ,
on a bien d = d′ et u = u′ .
68 CHAPITRE 5. SEMI-SIMPLICITÉ DANS MN (K)
1 2
Un endomorphisme a diagonalisable se décompose donc en d = a et ν = 0. Donc a =
0 2
1 0 0 2
se décompose en a + 0 et non en + comme on pourrait être tenté de l’écrire.
0 2 0 0
0 t
Par ailleurs, l’hypothèse k parfait ne peut être relâchée : la matrice de 5.2.4.3 n’a pas de
1 0
décomposition de Jordan-Chevalley. Si on veut une telle décomposition dans le cas imparfait, il faut se
restreindre aux endomorphismes à polynômes caractéristiques séparables et remplacer semi-simple par
absolument semi-simple. La preuve est alors identique.
On garde les notations précédentes. a = d + ν. Les facteurs invariants de la partie semi-simple d sont
entièrement déterminés par χa puisque deux endomorphismes diagonalisables de même polynômes ca-
ractéristiques sont semblables sur Ω et que les invariants ne dépendent pas du corps de base (cf. 5.3.4.1).
De même, les invariants de similitude de a déterminent le type nilpotent da de ν. Une manière de voir est
d’observer que les parties nilpotentes de deux matrices semblables ont des parties nilpotentes semblables
par unicité de la décomposition de Jordan-Chevalley.
En relisant les preuves supra, on se convainc sans peine que trouver d et n est algorithmique dès qu’on
connaît le produit π des facteurs irréductibles distincts de Pn . SageMath sait très bien faire cela grâce à
la commande f actor. Mais comment faire si cette commande n’exitait pas. En caractéristique nulle, on
se convainc facilement de la formule
π = Pn / PGCD(Pn , P′n )
de sorte que le procédé est algorithmique grâce à l’algorithme d’Euclide de calcul du PGCD dans k[T]. En
caractéristique p > 0, c’est plus compliqué car il existe des polynômes de dérivée nulles : les polynômes
en Tp . L’exercice suivant donne un « algorithme » pour trouver π pour un corps parfait de caractéris-
tique p >. Les guillemets sont justifiées par le fait qu’on suppose connu algorithmiquement l’inverse du
Frobenius 2 F : x 7→ xp de k.
Q ni
Exercice(s) 5.3.4.1. Soit k un corps et χ = πi la décomposition en facteurs irréductibles unitaires
Q
de P unitaire de degré n. On note χred = πi . Dans les 4 premières questions, k est supposé parfait de
caractéristique p > 0 et est I l’ensemble des indices i tels que ni premier à p.
Q
1. Montrer que χ/ PGCD(χ, χ′ ) = i∈I πi .
Q
2. Montrer que i∈I / πi est une puissance p-ième dans k[T].
Q Q nj /p
3. Écrire un algorithme calculant i∈I πi et j ∈I / πj .
8. Toujours pour k un corps quelconque, Considérons la suite de polynômes χred = (χi )1≤i≤n définis
Q
par χ1 = χred , χi+1 = (χ/( j≤i χj )red . Montrer que χred est la suite des facteurs invariants des
endomorphismes semi-simples de polynôme caractéristique χ.
S’agissant du lemme de Hensel, l’écriture même de la preuve est un algorithme qui vit dans k[a] ⊂ Md (k)
où d = dim(V). Il impose de calculer l’inverse de P′ (xn ) tant que 2n < d. C’est un nombre de fois
faible, mais si les matrices sont grandes, le calcul est lourd. Une manière de l’alléger est de considérer
∼
l’isomorphisme d’algèbres k[T]/µa −
→ k[a] qui envoie T sur a (exercice) et de travailler dans ce quotient,
ce qui est moins gourmand en calcul.
Malgré tout, ces algorithmes sont très instables. Pour deux raisons. La première est que le pivot de Gauss
est un algorithme numériquement instable. Et travailler avec des coefficients polynomiaux n’arrange
rien. La seconde est plus sérieuse. Comme on le verra plus bas, les invariants de similitude ne varient pas
continûment avec les coefficients de la matrice (voir par exemple le théorème 8.5.0.2). Dès lors, approximer
des valeurs des coefficients devient périlleux. Lorsque les matrices sont à coefficients rationnels, ou dans
les corps finis, on peut en étant très soigneux maitriser la hauteur des coefficients et ainsi travailler avec
de véritables égalités. Même si ces algorithmes ont tendance à faire exploser les tailles des entiers en jeu...
Bref, un vrai sujet de réflexion, une des motivations qui nous a poussé à inclure l’étude topologique des
classes de similitude au chapitre 8.
70 CHAPITRE 5. SEMI-SIMPLICITÉ DANS MN (K)
Chapitre 6
6.1 Rappels
Dans ce chapitre, V désigne un k espace vectoriel, qui, sauf mention expresse du contraire, est de
dimension finie et V∗ = Hom(V, k) désigne son dual ; l’espace vectoriel des applications linéaires de
V dans k, i.e. des formes linéaires de V.
Si φ ∈ V∗ , v ∈ V, on note ⟨v, φ⟩ = φ(v) le crochet de dualité 1 V × V∗ → k.
Un hyperplan est le noyau d’une forme linéaire φ ̸= 0. L’hyperplan détermine φ à multiplication par un
scalaire non nul près.
On rappelle que si B = (ei ) est une base (finie donc) de V, on définit la base duale B∗ = (e∗i ) de V∗ par
la formule ⟨e,i e∗j ⟩ = δi , j. Autrement dit, e∗i est la i-ème fonction coordonnée et on a v = j ⟨v, e∗j ⟩ej .
P
71
72 CHAPITRE 6. COMPLÉMENTS SUR LA DUALITÉ EN DIMENSION FINIE
Si V = k n = Mn,1 (k) (vecteurs colonnes), on a M1,n (k) = kn = V∗ (vecteurs lignes) avec ⟨L, C⟩ = Lt C
où L ∈ V∗ est une ligne et C ∈ V une colonne. Si B = (ei = [δi,j ]1≤j≤n ) est la base canonique de
k n = Mn,1 (k) = V, sa base duale B∗ est formée des lignes e∗i = t ei , qui est la base canonique de
M1,n (k) = kn = V∗ .
Si W est un sous-espace de V (voire une partie), on rappelle que son orthogonal est défini par
Si maintenant W∗ est un sous-espace de V∗ (voire une partie) sa polaire dans V est défini par
Exemple(s) 6.1.0.1. Un exemple important vient de la géométrie différentielle. Si f est une fonction
régulière sur un ouvert Ω de Rn , sa différentielle en ω ∈ Ω est une forme linéaire sur Tω Ω = Rn :
la différentielle df (ω). Dans la base canonique ( dxd i (ω))i de Tx Ω, cette forme est la jacobienne J(ω) =
df
( dx j
(ω))j vue donc comme matrice ligne. Le noyau de df (ω) n’est autre que l’hyperplan tangent en ω à
l’hypersurface d’équation f = 0 dès lors que la différentielle est non nulle en ce point. La généralisation
à plusieurs fonctions est contenue dans la notion de sous-variété de dimension supérieure.
6.2 Motivation
Deux manières utiles se concurrencent pour définir un sous-espace vectoriel W de V = k n .
On s’intéresse ici d’abord au second point de vue, donc au dual V∗ et à l’ensemble de toutes les équations
possibles de W : l’orthogonal W⊥ = {φ ∈ V∗ |φ(W) ≡ 0} et au lien avec le premier point de vue.
est un ismorphisme.
2. Pour toute base B∗ de V∗ , il existe une unique base B de V dite ante-duale dont la duale est B∗ ,i.e.
telle que B∗ = B∗ .
Démonstration. Pour (1), on remarque que ev est injective entre espaces de même dimension finie.
Pour (2), on remarque que B = ev −1 (B∗ ) est l’unique solution au problème posé.
1. dim(W) + dim(W⊥ ) = n.
2. dim(W∗ ) + dim(W∗◦ ) = n.
3. W∗ = (W∗◦ )⊥ .
4. W = (W⊥ )◦ .
5. ev(W∗◦ ) = W∗⊥ .
6. ev(W) = W⊥⊥ .
Démonstration. Pour (1), choisisissons une base (ei , 1 ≤ i ≤ d de W qu’on comlète en une base
B = (ei , 1 ≤ i ≤ n de V. Si B∗ = (e∗i ) est la base duale, on a alors par construction W⊥ = Vect(ei , i > d).
Pour (2), choisisissons une base (φi , 1 ≤ i ≤ d de W∗ qu’on comlète en une base B∗ = (φi , 1 ≤ i ≤ n de
V∗ . Si B = (ei ) est la base ante-duale, on a alors par construction W∗◦ = Vect(φi , i > d).
74 CHAPITRE 6. COMPLÉMENTS SUR LA DUALITÉ EN DIMENSION FINIE
Remarque(s) 6.5.0.2. Notons qu’orthogonalité et polarité sont des applications strictement décrois-
santes pour l’inclusion.
Corollaire 6.5.0.3.
Soit φi ∈ V∗ , i = 1, · · · , m. Alors, le rang de Vect{φi } est celui de l’application
V → km
d’évaluation
v 7→ (φ (v))
i i
Démonstration. Il sufffit d’observer que le noyau de l’évaluation est la polaire de Vect{φi } puis
d’invoquer la proposition précdente et le théorème du rang.
Lemme 6.6.0.1. Soient φ et φi , i ∈ I des formes linéaires de V. Alors, φ est compbinaison linéaire des
φi si et seulement si ∩i Ker(φi ) ⊂ Ker(φ).
Remarque(s) 6.6.0.2 (Lemme de Farkas). Si k = R, on a un réultat analogue pour les familles finies
de demi-espaces H+ , H+ +
i dédinies par les inéquations f ≥ 0, fi ≥ 0. On a en effet ∩i Hi ⊂ H
+
si et
seulement si φ est combinaison linéaire à coefficients positifs des φi . Voir par exemple David Bart,
"A short algebraic proof of the Farkas lemma", Siam PublicationsSIAM journal on optimization, 2008,
Vol.19 (1), p.234-239.
6.7 Contravariance
Soient Vi , i = 1, 2, 3 sont des espaces vectoriels arbitraires,
Définition 6.7.0.1. Si f ∈ Homk (V1 , V2 ), on note t f ∈ Homk (V2∗ , V1∗ ) la transposée de f définie par
t
f (φ2 ) = φ2 ◦ f , autrement dit, ⟨v1 , t f (φ2 )⟩ = ⟨f (v1 ), φ2 ⟩ pour tout φ2 ∈ V2∗ , v1 ∈ V1 .
Sous-espaces stables
Même dans le cas complexe, on sait bien qu’il n’est pas possible de« calculer explicitement » les racines
d’un polynôme. Ce chapitre n’en reste pas moins important car il existe des cas importants où on a
accès aux valeurs propres. Il permet notamment de comprendre la topologie des classes de similitude
de matrices dans le cas complexe. Plus généralement, nous discuterons les aspects de continuité des
constructions en jeu dans la mesure précisément où l’on ne sait qu’approximer les racines d’un polynôme
en général.
77
78 CHAPITRE 7. SOUS-ESPACES STABLES
7.2 Généralités
On sait que les sous-espaces stables par a ∈ Endk (V) sont ses sous-modules. D’après 2.2.0.4, si a est
cyclique, ce sont exactement les P(a)(V) avec P diviseur unitaires de χ. Ils sont en particulier en nombre
fini. Il est remarquable que la réciproque soit essentiellement vraie.
Proposition 7.2.0.1. Si k est infini, un endomorphisme qui n’a qu’un nombre fini de sous-espaces
stables est cyclique.
Évidemment, si k est fini la proposition est fausse puisqu’il n’y a qu’un nombre fini de sous-espaces de
V dans ce ca, stables ou pas.
Remarque(s) 7.2.0.2. Lorsque k = C, tout endomorphisme f en dimension > 1 admet des espaces
stables non triviaux (prendre des droites propres). Lorsque k = R, soit il admet des droites stables
(valeurs propres réelles) ou des plans stables (prendre par exemple le plan défini par les parties réelles
et imaginaires des coordonnées d’un vecteur propre non nul associé à une valeur propre non réelle de
la matrice de f dans une base ou, ce qui revient au même, considérer un facteur irréductible de degré
2 polynôme caractéristique). Si k = Q et si P ∈ Q[X] est irréductible de degré n (prendre par exemple
P(X) = Xn − 2), alors l’endomorphisme de multiplication par X sur Q[X]/(P) n’a pas de sous-espace
stable non trivial puisqu’il est cyclique et que son minimal n’a pas de diviseur strict : les espaces stables
d’un endomorphisme dépendent fortement de l’arithmétique du corps de base.
On pourrait espérer traitre le cas général en se ramenant au cas cyclique grâce à la décomposition de
Frobenius 4.13.3. Le problème est que les sous-espaces cycliques qui apparaissent ne sont pas canoniques
et aisni se comprotent mal quand on les intersecte avec un sous-espace stable. Ce n’est pas le cas des
sous-espaces caractéristiques.
7.3. SOUS-ESPACES CARACTÉRISTIQUES 79
Définition 7.3.0.1. Soit π ∈ k[T] un facteur irréductible unitaire de son polynôme caractéristique
χa (T). Le sous-espace caractéristique de a associé à π est la composante π-primaire Va [π] de Va
On a alors
D’après le lemme chinois 11.2.3.3 et , on a alors
Q
Proposition 7.3.0.2. Soit χ = π vπ (χ) la décomposition de χ = χa en facteurs irréductibles et µa =
Q vπ (µa )
π celle de µa .
1. On a vπ (µa ) ≤ vπ (χ).
5. Chaque Va [π] est stable par a et Va [π] = Ker(π vπ (χ) (a) = Ker(π vπ (µa ) .
6. Si W est stable par a, on a Wa [pi] = Va [π] ∩ W : : tout-sous espace stable par a est somme directe
de ses intersections avec les sous-espaces caractéristiques.
Démonstration. Les 6 premiers points sont une réécriture du lemme chinois 2.7.0.1 et de la foncto-
rialité des composantes primaires. Pour (7), rappelons que chaque sous-espace caractéristique est stable
par a. Puisqu’une puissance de π annule Va [π], le polynôme caractéristique χa|Va [π] de la restriction de
a à Va [π] est une puissance π wπ . Mais comme Va est la somme directe des Va [π], on a
Y Y Y
π vπ (χ) = χa = χa|Va [π] = π wπ
π|χa π|χa π|χa
Observons que les projecteurs spectraux sont définis par eπ,χ ∈ k[T] qui ne dépend que de χa . Ceci illustre
le fait que pπ,χ = eπ,χ (a) « varie continûment » lorsque a varie continûment, i.e.quand a est définie par
une fonction matricielle continu A : Ω → Mn (k), ce dès que le polynôme caractéristique χA(ω) (T) est
indépendant de ω ∈ Ω. Il en est de même des espaces caractéristiques. En particulier, leur dimension est
(localement) constante sur Ω sous cette condition (très forte évidemment). Le lecteur précisera le sens
de cet énoncé quand k = R ou k = C ou, pour le lecteur savant, dans le cas général pour la topologie
de Zariski. Ce point est crucial, même s’il sera un peu caché, dans l’étude topologique des classes de
similitude (8 et 7.3.1).
Q
Lorsque χa (T) = (X − λi )vi est scindé, on retrouve la définition usuelle rencontrée en algèbre linéaire.
Le lemme suivant est important et découle immédiatement du fait qu’un sous-espace stable est somme
de ses intersections avec les sous-espaces caractéristiques. C’est ce type résultat qui va nous permettre de
ramener l’étude de la topologie des classes de similitude au cas de la topologie des classes de similitude
de matrices nilpotentes.
Q
Lemme 7.3.0.3 (Invariance par extension de corps). Soit A ∈ Mn (k) et χA = π π vχ sa décomposition
en facteurs irréductibles (unitaires). On note A, AK les endomorphismes correspondants de kn , Kn . On
a alors Ker(π vπ (χ) (AK )) = ⊕π̃|π VAK [π̃] où π̃ décrit les diviseurs unitaires irréductibles de π dans K[T].
On considère dans ce numéro une suite de matrices An ∈ Md (C) (identifiées à des endomorphismes
de Cn ) dont on veut étudier la convergence éventuelle vers une matrice notée A∞ ∈ Md (C) pour la
topologie définie par une norme sur V = Cn 1 en fonction de ses projections sur ses espaces spectraux.
Comme on s’intéressera (cf. chapitre 8) au cas où les An sont toutes dans une même classe de similitude
(dont on cherche à étudier l’adhérence), on suppose de plus que le polynôme caractéristique de An est
un polynôme constant.
Par continuité du polynôme caractéristique en les coefficients de la matrice (ce sont des polynômes en
les coefficients), la convergence de An vers A∞ impose χA∞ (T) = det(T Id −A∞ ) = χAn (T), condition
que l’on suppose donc réalisée.
Soit donc Λ le spectre de A∞ , ensemble des racines complexes de χA∞ et vλ leurs multiplicités corres-
pondantes. Comme dans 7.3.0.2, choisissons uλ (T) ∈ C[T] tels que
X χλ (T)
uλ (T) =1
(X − λ)vλ
λ∈Λ
associés à An . Puisqu’on a
X
pλ,n = IdV
Λ
on en déduit
X
(ii) An = An,λ n ∈ N
Λ
où An,λ = An pλn , n∈N est la restriction de An sur l’espace caractéristique associé à λ et 0 sur les autres
de sorte que An,λ − λ Id est nilpotent.
Proposition 7.3.1.1. Avec les notations précédentes et l’hypothèse χAn (T) indépendant de n ∈ N, on
a lim An = A∞ si et seulement si pour tout λ ∈ Λ, lim An,λ = A∞,λ .
Lemme 7.3.1.2. Soient Pn,d | · · · |Pn,1 les invariants de similitudes de An . Alors, les invariants de
similitude An,λ sont 1, · · · , 1, (X − λ)vλ (Pn,i ) , i = d, · · · , 1 où les 1 sont répétés d − vλ (χ)-fois.
Démonstration. C’est une autre façon d’écrire la remarque 4.12.0.3. Rappelons l’argument sans
explicitement invoquer la décomposition de Jordan. Pour A = An d’invariants Pi = Pn,i , le module VA
Q
est isomorphe à ⊕k[T]/Pi (T), d’écrire la décomposition Pi = Λ (X − λ)vλ (Pi ) (car Pi divise χA ) puis
d’invoquer le lemme chinois pour écrire
Mais Aλ agit par A sur la composante (X − λ)-primaire VA,λ = eλ (T)VA et par 0 sur les composantes
(X−λ̃)-primaires VA,λ̃ = eλ̃ (T)VA si λ̃ ̸= λ. La composante (T−λ)-primaire (de dimension la multiplicité
vλ (χ) de la racine λ de χ d’après (7.3.0.2) s’écrit alors
Proposition 7.3.1.3. Avec les notations précédentes et l’hypothèse χAn (T) indépendant de n ∈ N, on
a lim An = A∞ si et seulement si les parties semi-simples (resp. nilpotentes) de la décomposition de
Jordan-Chevalley convergent vers la partie semi-simple (resp. nilpotente) de A∞,λ .
82 CHAPITRE 7. SOUS-ESPACES STABLES
Démonstration. C’est une conséquence immédiate du fait qu’il existe P ∈ k[T] ne dépendant que de
χ telles que les parties semi-simples et nilpotentes de An , n ∈ N soient P(An ) (resp. A − P(An )) d’après
(5.3.2.1).
Chapitre 8
(6) 30
(5, 1) 28
(4, 2) 26
LLL
ppp
(4, 12 ) (32 ) 24
NNN
rrr
(3, 2, 1) 22
LLL
ppp
(3, 13 ) (23 ) 18
NNN
sss
(22 , 12 ) 16
(2, 14 ) 10
(16 ) 0
Baohua FU GeometryNilpOrbits
On donné ici un aperçu de la géométrie des classes de similitude via leur topo-
logie. Pour éviter le formalisme, on s’est restreint à la topologie usuelle sur les
matrices complexes même si la topologie, dite de Zariski, dont les fermés sont
définis par des familles d’équations polynomiales, aurait été plus naturelle 1 .
8.2 Introduction
Définition 8.2.0.1. Un n-type est une suite de polynômes unitaires P = (Pn |Pn−1 | · · · P1 ) suite de
P
polynômes de k[T] tels que deg(Pi ) = n. On note O(P) l’ensemble des matrices de Mn (k) semblables
à la matrice compagnon C(P).
1. Comme plus haut donc, dans le cas d’un corps infini général, il faudrait considérer la topologie de Zariski, ce qui
n’ajoute aucune difficulté réelle lorsqu’on en connaît la définition. Il suffit en fait que la topologie soit plus fine que celle de
Zariski, que les opérations usuelles sur les matrices soient continues et que les points de k ne soient pas ouverts, assurant
ainsi que l’adhérence de k∗ est k. C’est ici que l’infinitude du corps intervient dans le cas de la topologie de Zariski..
83
84 CHAPITRE 8. TOPOLOGIE DES CLASSES DE SIMILITUDE
Ainsi, O(P) est l’orbite de C(P) sous l’action de GLn (k) par conjugaison. La théorie des invariants de
similitude nous dit que O(P) est formée des matrices d’invariants de similitude P et que Md (k) est la
réunion disjointe des O(P) lorsque P parcourt tous les n-types (4.9.0.2).
Notre but est d’étudier l’adhérence O(P) des orbites O(P). On supposera donc dans la suite de ce chapitre
que k est le corps des complexes, les espaces de matrices étant munies d’une norme (elles sont toutes
équivalentes).
On définit alors une relation (topologique) sur les n-types complexes par
C’est visiblement une relation d’ordre, mais partiel comme on le verra. Comme O(Q) est invariante
par conjugaison, c’est une réunion d’orbites et on a O(Q) = ∪P⪯Q O(P). Nous allons caractériser cette
relation d’ordre de manière combinatoire de la manière suivante.
On définit une relation (combinatoire 2 ) sur les n-types complexes par
Q Q
P ≤ Q si et seulement si et seulement on a la divisibilité j≤i Pj | j≤i Qj pour tout i = 1, · · · , n.
Qn Q
C’est également une relation d’ordre. Observons que nécessairement on a alors i=1 Pi = i=1 Qi pour
des raisons de degré.
Remarque(s) 8.2.0.3. Ce théorème est une reformulation, plus transparente à mon avis, du théorème
4 de [Ger61]. C’est en effet à ma connaissance Gerstenhaber qui a explicité de manière complète la
structure des adhérences d’orbites même si je n’ai pas réussi à y trouver cet énoncé stricto sensu.
Nous allons procéder par réduction au cas nilpotent grâce aux résultats topologiques de 7.3.1. Commen-
çons donc par le cas crucial.
On a donc encore une relation d’ordre topologique sur les partitions de n définie par
2. Comparer avec cf. 8.3.
8.3. ADHÉRENCE D’UNE ORBITE NILPOTENTE 85
Théorème 8.3.0.1 (Cas nilpotent). Soit d, δ deux partitions de n. Alors, d ⪯ δ si et seulement pour
tout d ≤ δ.
Ainsi, on veut montrer que les ordres topologique ⪯ et combinatoire ≤ sur les partitions coïncident.
On écrit souvent une partition en indiquant le nombre de fois où l’on répète un entier, souvent en ordre
croissant. Pour n = 6 par exemple, la partition (3, 1, 1, 1, 0, 0) est alors noté (13 , 3) tandis que la partition
(6, 0, 0, 0, 0, 0) est notée (6). Le diagramme décrivant l’odre s’appelle alors diagramme de Hasse. Nous
n’utiliserons pas ces notations.
On dira que d ≤ δ (d élémentairement inférieur à δ) si il existe des indices i < j tels que
e
On a évidemment
d ≤e δ ⇒ d ≤ δ
Lemme 8.3.1.1. Soit d, δ deux partitions de n. Alors, d ≤ δ si et seulement il existe une suite d’inégalités
élémentaires d = ν0 ≤ ν 1 ≤ . . . ≤ ν N−1 ≤ ν N = δ.
e e e e
ν = (d1 , . . . , di−1 , di + 1, . . . , dj − 1, . . . , dn ).
(1) d1 + · · · + dk < δ1 + · · · + δk
(2). d1 + · · · + dk ≥ δ1 + · · · + δk
et
(4) d1 + · · · + dj = δ1 + · · · + δj
Avec ces valeurs de i et j, montrons que ν est une partition, i.e. di−1 > di (ou i = 1) d’une part et
dj > dj+1 d’autre part.
Par construction, i est le plus petit entier tel que di < δi et donc di < δi ≤ δi−1 = di−1 (ou i = 1).
D’autre part, plus, puisque d1 + · · · + dj−1 < δ1 + · · · + δj−1 et d1 + · · · + dj = δ1 + · · · + δj on a δj < dj ;
comme de plus et d1 + · · · + dj+1 ≤ δ1 + · · · + δj+1 on a aussi dj+1 ≤ δj+1 . En combinant les deux, on
obtient dj+1 ≤ δj+1 ≤ δj < dj , ce qu’on voulait.
On observe alors que ’inégalité ν ≤ δ est équivalente (3).
Soit M une matrice nilpotente de partition associée d. D’après la formule (vi) de 4.12.2, on a pour tout
n − rg(Mi ) = j≤i d∗j . Mais le rang est semi-continu inférieurement : il existe un voisinage U de M où
P
toutes les matrices sont de rang supérieur ou égal à celui de M. Si M est dans l’adhérence de O(δ), ce
voisinage rencontre O(δ) : soit donc N ∈ U ∩ O(δ). On a alors n − rg(Ni ) ≤ n − rg(Mi ) pour tout i,
autrement dit δ ∗ ≤ d∗ et donc δ ≤ d.
d ⪯ δ ⇒ d ≤ δ.
D’après le lemme de dévissage 8.3.1.1, il s’agit simplement de montrer l’implication dans le cas élémen-
taire. Soit donc d ≤ δ et montrons qu’on a d ⪯ δ. Il donc existe des indices i < j tels que
e
On considère donc Jd dont on veut montrer qu’elle est dans l’adhérence de O(δ), donc on veut montrer
que Jd est une limite de matrices de O(δ).
Comme d et δ ne diffèrent qu’aux indices i et j, on peut supposer sans perte de généralité qu’on n’a que
deux indices. On doit donc montrer que J(di ,dj ) est dans l’adhérence de O((di − 1, dj + 1)). Posons par
exemple alors N(x) = J(di ,dj ) + xEdi +dj ,di . C’est une matrice triangulaire par blocs de taille di + dj et
de rang di + dj − 2 avec di > dj . Son type est caractérisé par son indice de nilpotence qui est di − 1
88 CHAPITRE 8. TOPOLOGIE DES CLASSES DE SIMILITUDE
(4.12.0.4) pour x non nul de sorte que N(x) est de type di − 1, dj + 1. Ainsi, N(0) = limx→0 N(x) ∈ O(δ)
et d ⪯ δ. On a donc en se souvenant 8.3.2.1
d ⪯ δ ⇐⇒ d ≤ δ
Remarque(s) 8.3.3.1. C’est pour cet argument de suite (et celui du paragraphe suivant) que le lecteur
savant voulant généraliser à la topologie de Zariski des corps généraux utilisera l’hypothèse que le corps
est infini.
Tout le travail a été fait pour ramener le cas général au cas nilpotent.
Expliquons. On considère donc deux n-types P, Q et on étudie l’inclusion
O(P) ⊂ O(Q). Autrement dit, on considère une suite de matrices Am dans
O(Q) qui converge vers A∞ ∈ O(P). On utilise alors librement notations et
résultats de 7.3.1.
Par continuité du polynôme caractéristique, assure déjà que χAm , m ∈ N est un polynôme constant χ
dont on note Λ l’ensemble de ses racines complexes. En particulier, les espaces caractéristiques de Am
ont une dimension constante dλ : l’ordre de multiplicité de la racine λ de χ.
Ensuite (7.3.1.1), on a
Mais, pour chaque λ, la matrice Am,λ − λ Id ∈ Mn,C est nilpotente et son n-type est (7.3.1.2) est
et
dλ = 1, · · · , 1, (X − λ)vλ (P) , i = d, · · · , 1 sinon
où les 1 sont répétés dλ −vλ (χ)-fois dans tous les cas. Mais d’après la caractérisation des orbites nilpotentes
-partie condition nécessaire- (8.3.0.1), l’existence de cette suite de matrice entraîne
Inversement, supposons cette condition vérifiée. On note pλ les projecteurs spectraux de A∞ de type P.
D’après la partie suffisante de la caractérisation de orbites nilpotentes (8.3.0.1, il existe pour tout λ des
P
matrices nilpotentes Nm,λ qui convergent vers N∞,λ = A∞,λ − λpλ . En posant Am = λ (Nm,λ + λpλ ),
on a lim Am = A∞ . On a donc
P ⪯ Q ⇐⇒ pour tout λ ∈ Λ, dλ ≤ δ λ .
1. Montrer que O(χred ) (cf. 5.3.4.1) est la seule orbite fermée contenue dans O(Q). En déduire que les
orbites fermées sont les orbites semi-simples et que χred ) = (χn , . . . , χ1 ) est un type minimal pour
⪯.
2. Montrer que l’adhérence de O(χred )) est l’ensemble des matrices A telles que χ1 (A) = 0 et χA = χ.
3. Montrez en général que les n-types minimaux sont de la forme χred pour χ unitaire de dégré n.
Pouvez-vous démonter ce résultat directement ?
4. Inversement, montrez que les n-types maximaux sont de la forme (1, . . . , 1, χ). En déduire que les
orbites maximales sont celles des matrices compagnons C(χ).
5. Montrer que l’adhérence de O(C(χ)) est l’ensemble des matrices A telles que χA = χ.
Exercice(s) 8.5.0.2. Soit k un sous-corps de C. On ne considère ici que des n-type k-rationnels d,
i.e. vérifiant Pi ∈ k[T], i = 1, . . . , n. On note Ok (d) la classe de conjugaison de C(d) sous GLn (k).
Montrer dans ce cas Ok (P) = OC (P) ∩ Mn (k). En utilisant 7.3.1.3 et le théorème principal , montrer
Ok (Q) = ∪P≤Q Ok (P).
Chapitre 9
9.1 Intégralité
En complément de l’importance des espaces vectoriels de dimension finie, montrons par quelques exemples
l’importance des modules de type fini en général. Exemples qi seront largement nourris par la suite.
Ce principe, extrêmement utile, est basé sur une trivialité. Soit P ∈ Z[T1 , · · · , Tn ] et Ii , 1 = 1, · · · , n des
Q
ensembles infinis d’un corps de caractéristique nulle k. Alors, si P est nul sur Ii , pour tout anneau R et
tout (ri ) ∈ Rn , on a P(r1 , · · · , rn ) = 0. En effet, on observe qu’on a alors Z[T1 , · · · , Tn ] ⊂ k[T1 , · · · , xn ]
et on se ramène par récurrence au fait qu’un polynôme à 1 variable non identiquement nul n’a qu’un
nombre fini de racines.
Proposition 9.1.2.1 (Ruse du déterminant). Soit f un endomorphisme d’un R- module de type fini M
Il existe P ∈ R[T] unitaire annulant f . Si de plus f (M) ⊂ IM, on peut supposer que les coefficients de f
d’indice < deg(P) sont dans I.
91
92 CHAPITRE 9. PROPRIÉTÉS DE FINITUDE DES MODULES
Notons que si f (M) ⊂ IM, on peut supposer ai,j ∈ I. Il suffit alors de poser P = det(TId − A) et
d’invoquer par exemple Cayley-Hamilton (9.1.1.1) pour A ∈ Mn (R).
Corollaire 9.1.2.2 (Nakayama). Soit M un module de type fini et I u n idéal tel que M = IM. Alors, il
existe i ∈ I tel que (1 + i)M = 0. En particulier, si 1 + i est inversible (eg si i est nilpotent), M = 0.
Soit R′ une R-algèbre (autrement dit on considère un morphisme d’anneaux R → R′ ). On dit que r′ ∈ R′
est entier sur R s’il est annulé par un polynôme unitaire à coefficients dans R.
Démonstration. 0 et 1 sont entiers. On doit donc prouver que la différence et le produits de deux
éléments entiers r′ et r” sont entiers. Posons M = R[r′ , r”] l’anneau des expressions polynomiales en
r′ et r” à coefficients dans R. Si r′ et r” sont annulés par des polynômes unitaires de degrés n′ et n”,
la famille r′i r”j 1 ≤ n′ , j ≤ n” engendre M et contient r′ − r” et r′ r”. Mais si ρ ∈ M, l’homotéthie
de rapport ρ définit un endomorphisme hρ de M et donc (9.1.2.1) il existe P ∈ R[T] unitaire tel que
P(hρ ) = hP(ρ) = 0. En appliquant à 1 ∈ M, on obtient P(ρ) = 0 de sorte que tous les éléments de M son
entiers sur R.
Corollaire 9.1.3.2. Soit k un sous-corps d’un corps k ′ . Alors le sous-ensemble des éléments de k ′ qui
sont algébriques sur k est un sous corps de k ′ .
Démonstration. D’après 9.1.3.1 appliqué à R = k, il suffit de montrer que l’inverse d’un élément
algébrique r′ ∈ k ′ non nul est encore non nul. Soit donc P est un annulateur unitaire de r′ . Mais alors,
Tdeg(P) P(1/T) est un annulateur non nul de 1/r′ .
Exercice(s) 9.1.3.3. 1. Montrer qu’un nombre rationnel est entier sur Z si et seulement si il est
entier.
9.2. MODULES NOETHÉRIENS 93
2. Montrer que le polynôme unitaire de degré minimal P ∈ Q[T] annulateur de exp( 2iπ
n ) est à coeffi-
cients entiers.
Q
On verra en TD la formule P = Φk (T) = k∈(Z/nZ)× (T − exp( 2ikπ
n )).
3. Toute famille non vide de sous-modules de M admet un élément maximal pour l’inclusion.
Démonstration. 1 ⇒ 2. Soit Mi une suite croissante de sous-modules. Alors, ∪Mi est un sous-
module de M, donc de type fini. Choisissons une famille finie de générateurs : pour n assez grand, ils
appartiennent tous à Mn et donc Mi = Mn si i ≥ n.
2 ⇒ 3. Soit F une famille non-vide de sous-modules M sans élément maximal (preuve par contrapposée).
On construit une suite strictement croissante d’éléments de F ̸= ∅ par récurrence en choisissant M0 un
de ses éléments arbitrairement puis par récurrence, supposant la suite construite pour i ≤ n, on observe
que Mn n’est pas maximal donc il existe Mn+1 dans F qui le contient strictement.
3 ⇒ 1. Soit donc N un sous-module de M et soit F la famille de ses sous-modules de type fini. Comme
{0} ∈ F, cette famille est non vide. Soit N′ un élément maximal. Il est de type fini contenu dans N par
construction. Inversement, soit n ∈ N. Le module Rn + N′ est dans F et contient l’élément maximal N′ :
il lui est donc égal de sorte que n ∈ N′ . On a donc N′ = N et donc N de type fini.
Définition 9.2.0.2. 1. Un module vérifiant les conditions équivalentes précédentes est dit noethérien.
2. Un anneau qui est noethérien comme module sur lui-même est dit anneau noethérien.
On a donc R noethérien s’il vérifie l’une des trois propositions équivalentes suivantes
3. Toute famille non vide d’idéaux admet un élément maximal pour l’inclusion.
94 CHAPITRE 9. PROPRIÉTÉS DE FINITUDE DES MODULES
Exemple(s) 9.2.0.3. Les sous-modules de modules noethériens sont noethériens (tautologique) ainsi
que les quotients de modules noethériens (exercice facile). Les corps, les anneaux principaux, les anneaux
quotients de d’anneaux noethériens sont noethériens. En revanche, un sous anneau d’un anneau noethé-
rien n’est en général pas de noethérien (par exemple un anneau de polynômes sur un corp à une infinité
de variables n’est pas noethérien alors que c’est un sous-anneau de son corps des fractions qui lui l’est !)
j p
0 → M1 −
→ M2 −
→ M3 → 0.
Démonstration. La partoie directe a déjà été observée dans l’exemple précédent. Inversement, sup-
posons M1 et M3 noethérien et soit M′2 un sous-module de M2 . On a une suite exacte
Mais j −1 (M′2 ) et p(M′2 ) sont de type fini comme sous-modules de M1 et M3 . On peut donc choisi une
famille finie de générateurs de p(M′2 ) de la forme p′ (g2,i ) et une famille finie de générateurs g1,j de
j −1 (M′2 ). La famille finie g1,j , g2,i
′
de M′2 l’engendre.
En particulier, si R est noethérien, Rn est un module noethérien et donc il en de même de tout quotient.
On en déduit le corollaire important suivant.
Corollaire 9.2.1.2. Les modules noethériens sur un anneau noethérien sont les modules de type fini.
Rappelons que r ∈ R est dit irréductible s’il est non nul et non inversible d’une part et si ses seuls
diviseurs sont soit inversibles soit lui sont associés. Autrement dit, r ∈ R∗ est irréductible si l’équation
r = r1 r2 entraîne r1 ou r2 inversible.
Lemme 9.2.2.1. Tout élément non nul et non inversible dans un anneau noethérien R est produit
d’éléments irréductibles.
9.2. MODULES NOETHÉRIENS 95
Démonstration. Remarquons que le fait que r soit irréductible ne dépend que de (r) ie est invariant
par multiplication par un inversible. Soit alors F l’ensemble des idéaux principaux propres et non nuls de
R dont un des générateurs n’est pas produit d’irréductible. Si F était non vide, il admettrait un élément
maximal (r) pour l’inclusion. Mais r n’est pas irréductible car sinon (r) ̸∈ F de sorte que r s’écrit r1 r2
avec r1 et r2 non inversibles/ Ainsi (r) ⊊ (ri ). Par maximalité, (ri ) ∈
/ F de sorte que chaque ri est
produit d’irréductible, et de même pour leur produit r. Une contradiction.
Ainsi, l’existence de décomposition en irréductibles est banale. C’est l’unicité à multiplication par inver-
sible près (et ordre près) qui est importante (comme on le verra c’est exactement le contenu du lemme
d’Euclide dans les anneaux factoriels). Par exemple, d’après ce qui précède, l’anneau R[T, Y]/(T2 − Y3 )
est noethérien, visiblement intègre (exercice). Pourtant, l’élement T2 = Y3 du quotient a bien deux
décompositions (non équivalentes) car tant T que Y sont irréductibles dans le quotient et non associés
(exercice).
Démonstration. Le second point est une conséquence immédiate du premier (par récurrence, tout
anneau de polynômes sur R à n variables est noethérien, et donc itou pour tout quotient). Passons au
premier point. Soit I un idéal de A[T] et considérons les ensembles de coefficients dominants de polynômes
de I de degrés donnés :
n−1
X
domn (I) = {r ∈ R | ∃(r0 , . . . , rn−1 ) ∈ Rn tel que rTn + ri Ti ∈ J}.
i=0
On vérifie sans peine que domn (I) est une suite croissante d’idéaux de R.Choisissons donc N telle qu’elle
n ≥ N. Pour tout n ≤ N, choisissons une famille finie de générateurs de In , coefficients dominants de
polynômes Pn,k ∈, I, k ∈ Kn de degrés n. Vérifions que la famille finie
{Pn,k avec n ≤ N et k ∈ Kn }
engendre I. On doit montrer que tout polynôme de P ∈ I de degré donné d est combinaison linéaire
de la famille. On fait une récurrence sur d, amorcée en 0 trivialement puisque les P0,k engendrent les
constantes dans I déjà comme R modules. Supposons l’énoncé prouvé en degré < d et soit P de de degré
P P
d > 0. Si d ≤ N, alors on écrit dom(P) = rk dom(Pd,k et on applique la récurrence à P − rk Pd,k ∈ I
dont le degré a chuté .Sinon, on a Id = IN et donc les coefficients de Td−N PN,k ∈ I engendrent Id . On
raisonne de même avec ces polynômes en faisant chuter le degré.
96 CHAPITRE 9. PROPRIÉTÉS DE FINITUDE DES MODULES
Chapitre 10
Dans ce chapitre, R désigne un anneau intègre (commutatif unitaire comme toujours). On notera k son
corps des fractions. On a donc une notion de divisibilité qui définit une relation d’ordre partielle sur
R∗ = R − {0}. On s’intéresse aux anneaux pour lesquels il existe une décomposition en facteurs premiers
existe et est raisonnablement unique. On utilisera sans cesse le fait que deux éléments a, b ∈ R sont égaux
à un multiple inversible u ∈ R× près si et seulement si les idéaux qu’ils engendrent sont égaux : on dit
alors qu’ils sont associés et on écrit a ∼ b. Ceci définit une relation d’équivalence sur R compatible au
produit de sorte que R/ ∼ est muni d’une multiplication associative avec une unité, la classe de 1 : c’est
ce qu’on appelle un monoïde (commutatif unitaire).
97
98 CHAPITRE 10. RAPPELS SUR LES ANNEAUX FACTORIELS
10.1 Caractérisation
Rappelons que r ∈ R est dit irréductible s’il est non nul et non inversible d’une part et si ses seuls
diviseurs sont soit inversibles soit lui sont associés. Autrement dit, r ∈ R∗ est irréductible si l’équation
r = r1 r2 entraîne r1 ou r2 inversible.
On sait que les entiers positifs p qui sont irréductibles sont les nombres premiers. De manière générale,
on a
Lemme 10.1.1.1. Soit r ∈ R∗ .Alors si l’idéal (r) est premier, r est irréductible.
Démonstration. Si r = r1 r2 , le produit r1 r2 est nul dans R/(r) qui par définition est intègre. La
classe (r1 mod r) par exemple est donc nulle de sorte que r = ρ1 r et r = ρ1 rr2 . En simplifiant par r
(intégrité), on a r2 inversible.
La réciproque est la propriété d’Euclide, qui elle n’et essentiellement vraie que dans les anneaux factoriels
(voir ? ? ? pour un énoncé précis).
Définition 10.1.1.2 (Lemme d’Euclide). On dit (par abus) que le lemme d’Euclide est vrai dans R
si l’idéal engendré par un irréductible est premier, autrement dit si tout irréductible divisant un produit
divise l’un des facteurs.
On sait bien que tout anneau principal vérifie le lemme d’Euclide (conséquence immédiate du lemme de
Bézout -exercice-).
on a r = r′ et, à renumérotation près, pi ∼ p′i pour tout i. On dit aussi que les (classes des) pi sont uniques
à l’ordre près. Un anneau est dit factoriel (unique factorization domain en anglais) si tout élément non
nul admet une unique décomposition en produit d’irréductibles au sens précéden 1 .
1. Un inversible a comme décomposition lui même multiplié par un produit vide d’irréductibles, un produit vide étant
égal à 1.
10.2. TRANSFERT 99
Lemme 10.1.1.4 (Lemme d’unicité). Supposons tout élément non inversible de R admette une décom-
position en produit d’irréductible. Alors, ces décompositions sont uniques si et seulement si le lemme
d’Euclide est vrai dans R. C’est le cas pour un anneau principal.
Corollaire 10.1.1.5. Un anneau noethérien intègre est factoriel si et seulement si il vérifie le lemme
d’Euclide. C’est le cas pour un anneau principal.
10.2 Transfert
On doit donc démontrer l’unicité des décomposition (donc le lemme d’Euclide) et leur unicité. Pour cela
on va comparer la notion d’irréductibles dans R[X] et k[X] en utilisant l notion de contenu (due à Gauss).
On utilisera l’égalité (R[T])∨ = R∨ (exercice, utiliser le degré des polynômes).
Soit (ri ) un famille finie d’éléments de R qu’on supposera non identiquement nulle. Rappelons qu’un
élément r ∈ R∗ est un PGCD des ri s’il est maximal parmi les diviseurs communs aux ri . Deux PGCD
d’une même famille, lorsqu’ils existent, sont bien entendus associés, raison pour laquelle on parle « du
fg PGCD. On peut donc considérer les PGCD, PPCM comme des éléments du monoïde R/ ∼. En
considérant des multiples communs maximaux, on obtient la notion de PPCM. Comme sur les entiers,
on a
100 CHAPITRE 10. RAPPELS SUR LES ANNEAUX FACTORIELS
On pose alors
Y mini vi,j
Y maxi vi,j
PGCD(ri ) = qj et PGCD(ri ) = qj
j j
Notons que PGCD et PPCM sont homogènes de poids 1 pour la multiplication par R∗ .
Exercice(s) 10.2.1.2. Montrer que si R est principal, PGCD(ri ) est une générateur de l’idéal engendré
par les (ri ). Donner une caractérisation du PPCM en termes d’idéaux.
10.2.2 Contenu
Définition 10.2.2.1. Soit P ∈ R[T] non nul. Le contenu c(P) ∈ R/ ∼ de P le PGCD de ses coefficients.
Un polynôme de contenu c(P) = 1 est dit primitif.
Par exemple, les polynômes unitaires de R[T] sont primitifs. Le contenu est homogène de poids 1 sous
R∗ comme le PGCD
þ[Gauss] Soient P, Q ∈ R[T] tous deux non nuls. Alors, c(PQ) = c(P)c(Q).
Démonstration. Par homogénéité, on peut supposer P, Q primitifs et on doit démontrer que PQ est
primitif. Sinon, soit p un irréductible de R divisant c(PQ). Comme R est factoriel, il vérifie le lemme
d’Euclide et le quotient R = R/(p) est intègre. Le morphisme R → R de réduction des coefficients induit
un morphisme d’anneaux R[T] → R/(p) de sorte qu’on a 0 = PQ = P·Q. Puisque R[T] est intègre comme
R, on a par exemple P = 0, i.e.p|c(P) (avec un petit abus d’écriture), une contradiction car c(P) = 1.
1. Les irréductibles de R ;
(∗) d1 d2 P = P1 P2
avec Pi /c(Pi ) ∈ R[T] par définition du contenu. Comme P est irréductible dans R[T], on en déduit par
exemple P1 /c(P1 ) inversible, donc de degré zéro, et donc de même pour P̃1 qui lui est proportionnel par
un scalaire D’où l’irréductibilité dans k[T].
La réciproque est tautologique (qui peut le plus peut le moins)
Théorème 10.2.3.1. Si R est factoriel, alors R[T] est factoriel (par exemple si R est principal).
Démonstration. Existence de la décomposition. Soit P ∈ R[X] non nul. Si P est une constante
Q
r ∈ R∗ , on écrit la décomposition r = pi en facteurs irréductibles dans R et on invoque (10.2.2.2).
Si P est de degré > 0, quitte à factoriser par un PGCD de ses coefficients, on peut supposer P primi-
tif. Comme dans la preuve de 10.2.2.2, un argument de dénominateur commun permet alors écrire sa
décomposition dans l’anneau principal donc factoriel k[X]
Y
P= Pi /di
Q
avec Pi ∈ R[T] irréductible dans k[T] et di ∈ R∗ . En prenant les contenus, on a c(P) = di et
Q
P = Pi /c(Pi ) qui est la décomposition cherchée (toujours avec un petit abus d’écriture).
Unicité de la décomposition dans R[T]. Montrons que R[T] vérifie le lemme d’Euclide (10.1.1.2). Soit
donc P irréductible divisant le produit de P1 , P2 ∈ R[T]. Si P est de degré > 0, il est primitif et irréductible
dans k[T] d’après (10.2.2.2). Comme k[T] est factoriel puisque principal, P|P1 par exemple (dans k[T]
)et un argument de dénominateur commun permet d’écrire une fois de plus dP1 = Q1 · P avec d ∈
R∗ , Q1 ∈ R[T]. En prenant les contenus on a de nouveau dc(P1 ) = c(Q1 ) et donc P1 = c(P1 )Q1 /c(Q1 )P
et donc P divise P1 dans R[T].
Par exemple, un anneau de polynômes à n variables sur un corps, un anneau principal plus généralement
est factoriel. Mais attention, cette remarquable stabilité de la factorialité ne passe pas aux quotients
comme le fait la propriété d’être noethérien. Le lecteur savant la reliera à la notion de non singularité en
géométrie.
102 CHAPITRE 10. RAPPELS SUR LES ANNEAUX FACTORIELS
Exercice(s) 10.2.3.2. Montrer que l’anneau R[X, Y]/(X2 − Y3 ) est intègre, noethérien mais pas facto-
riel.
Chapitre 11
Ce chapitre doit beaucoup à Peter Haissinki, Professeur à l’Université d’Aix Marseille, que je
remercie chaleureusement.
La théorie des formes bilinéaires et quadratiques et des formes sesquilinéaires/hermitiennes sert de fon-
dement à la géométrie : les formes bilinéaires symétriques conduisent à la géométrie riemannienne, sont
omniprésentes en théorie des nombres, les formes alternées à la géométrie symplectique et les formes
hermitiennes à la géométrie complexe. Ces géométries sont à la base de la physique classique (géométrie
euclidienne), relativiste (géométrie Lorentzienne pour la relativité restreinte, riemannienne générale pour
la relativité générale), de la mécanique (géométrie symplectique) et de la mécanique quantique (géométrie
hermitienne).
Dans ce chapitre, E est un espace vectoriel sur k. On note E∨ le dual de E et, si B est une base de E,
on notera B∨ la base duale associée lorsque E est supposé de dimension finie. On rappelle que si B et C
sont des bases de E (de dimension finie), P la matrice de passage de B à C, alors la matrice de passage
P∨ de B∨ à C∨ vérifie tP∨ · P = I.
Les cas qui nous occuperont le plus seront le cas euclidien et le cas hermitien (en particulier k = R ou
k = C).
103
104 CHAPITRE 11. FORMES QUADRATIQUES ET HERMITIENNES GÉNÉRALES
Définition 11.1.1.1. Une est une application b : E × E → k telle que, pour tout y ∈ X, b1 : x 7→ b(x, y)
est linéaire et pour tout x ∈ X, b2 : y 7→ b(x, y) est linéaire.
On dit que b est symétrique si b(x, y) = b(y, x), antisymétrique si b(x, y) = −b(y, x), et alternée si
b(x, x) = 0 pour tous x, y.
Si E est de dimension finie et si B = {ei }1≤i≤n est une base, on définit
Dire que b est symétrique (resp. alternée, c’est dire que sa matrice est symétrique (resp. alternée, ie
antisymétrique à coefficients diagonaux nuls). Si X et Y sont les coordonnées de vecteurs x et y dans la
base B etC est une autre base et P est la matrice de passage de B à C, alors on a
b(x, y) = X · Mat(b, B) · Y
t
Ainsi, grâce aux formules précédentes (i), le choix d’une base permet d’une base
d’identifier b avec sa matrice, ce qu’on fera librement.
b̌ : E → E∨
(ii)
y 7→ (x 7→ b(x, y))
On dira qu’une forme bilinéaire b est non dégénérée si son noyau est nul i.e.si sa matrice dans une base
B est inversible.
11.1. FORMES BILINÉAIRES/SESQUILINÉAIRES 105
Si b est dégénérée, alors il existe une base telle que la matrice associée ait dim Ker b colonnes nulles. La
forme b passe au quotient et définit une forme bilinéaire non dégénérée sur E/ Ker(b).
Une forme non dégénérée identifie donc E et son dual grâce à (ii).
Définition 11.1.2.1. Soit σ est une involution de k 1 , on dit que b est σ-sesquilinéaire si b est linéaire
en la première variable, additive en la seconde et si b(x, λy) = σ(λ)b(x, y).Une forme σ-sesquilinéaire est
dite hermitienne si si b(y, x) = σ(b(x, y)) pour tout x, y.
encore la même dimension que E comme en dualité ordinaire. Le reste ne change pas : on peut encore
parler de matrices de b de noyau, de formes dégénérées ou non, ...
Si (hi,j ) sont les coefficients de la matrice d’une forme σ-hermitienne dans une base fixée, alors les
coefficients vérifient hji = σ(hij ) et hii = σ(hii ). On rappelle que k(σ) = {x ∈ k, σ(x) = x} est un
sous-corps de k. Les formules i deviennent
11.1.3 Adjoint
On a
Les propositions usuelles de la transposition donnent les formules habituelles (linéarité de l’adjonction,
(f ◦ g)∗ = g ∗ ◦ f ∗ , Id∗ = Id. Notons que u et u∗ sont semblables (4.5.0.3).
Exercice(s) 11.1.3.2. Si b est non dégénérée, montrer que l’isomorphisme β : E → E∗ défini par b (cf.
β
11.1.1) identifie l’adjoint f ∗ de f ∈ Endk (E) à sa transposée t f ∈ Endk (E∗ ) = Endk (E) (cf. 6.7.0.1).
Définition 11.2.0.1. Une application q : E → k est une forme quadratique s’il existe une forme si
1. Si car(k) = 2, on a b2 à la fois symétrique et alternée. Observons, que (xi ) 7→ x21 sur kn est
une forme quadratique, comme l’est tout polynôme homogène de degré 2 à n variables. Pourtant,
2
b(x, y) = (x1 + y1 )2 − x21 − y12 = 0 de sorte que la q et 0 ont la même forme bilinéaire associée !
12
2. Si Si car(k) = 2, on a q(x) = 2 b(x, x) se donner q équivaut à se donner une forme bilinaire
symétrique.
Si la théorie des formes quadratiques en caractéristique 2 est utile et intéressante, elle diffère notablement
du cas de caractéristique ̸= 2.
Dès lors, sauf mention expresse du contraire, toutes formes quadratiques que nous
considérerons désormais sont à coefficients dans un corps de caractéristique différente de
2.
Définition 11.2.1.1. La forme polaire de q est la forme bilinéaire symétrique sur E × E définie par
b(x, y) = 12
2 b(x, y) = 12 (q(x + y) − q(x) − q(y)). Les matrices dans une base B/noyau de q sont ceux de b.
avec la formule
b(X, Y) = t XSY
Exemple(s) 11.2.1.2. — Si (X, µ) est un espace mesuré, alors on définit q : L2 (X, µ; R) → R par
Z
q(f ) = f 2 dµ.
108 CHAPITRE 11. FORMES QUADRATIQUES ET HERMITIENNES GÉNÉRALES
— Si M ∈ Mn (k), alors q(M) = tr(tMM) détermine une forme quadratique (définie positive) de
forme polaire b(M, N) = tr(tMN)
— On définit sur M2 (k) la forme q(M) = det M. On remarque que q est un polynôme quadratique
homogène en les coefficients de M. De plus, par le théorème de Cayley-Hamilton, on a
M2 − (tr M) · M + (det M) · I2 = 0 .
Remarque. — On peut comme dans le cas symétrique associer à une forme hermitienne une forme
quadratique hermitienne. L’exemple fondamental est, sur Cn , la forme b(X, Y) = xj yj . On a la même
P
correspondance que dans le cas quadratique entre forme hermitienne et matrice hermitienne (t H = H)
cette fois.
11.2.2 Orthogonalité
Définition 11.2.2.1. On dit que deux vecteurs x et y sont orthogonaux, et l’on note x ⊥ y si b(x, y) = 0.
Si F ⊂ E est un sous-ensemble, alors on définit l’orthogonal de F
F⊥ = {x ∈ E, ∀ y ∈ F, b(x, y) = 0} .
C’est toujours un sous-espace vectoriel. Enfin, une base orthogonale B est une base telle que b(ei , ej ) = 0
dès que i ̸= j.
11.2. FORMES QUADRATIQUES 109
De plus, le nombre de termes non nuls est le rang de q. En particulier, q est non dégénérée si et seulement
si q(ei ) ̸= 0 pour tout i ∈ {1, . . . , n}.
Complément. Une base orthogonale peut être obtenue par l’algorithme de Gauss.
Démonstration. Par récurrence. Si n = 1, alors il n’y a rien à faire. Supposons que tout espace
de dimension n admette une base orthogonale et considérons un espace E de dimension n + 1 muni
d’une forme quadratique q. Si q ≡ 0, alors il n’y a rien à faire non plus. Sinon, il existe en+1 ∈ E tel
que q(en+1 ) ̸= 0. Soit H = e⊥
n+1 . Il s’agit d’un espace vectoriel, et H = Ker{x 7→ b(x, en+1 )}. Comme
q(en+1 ) ̸= 0, dim H = n, et l’hypothèse de récurrence nous construit une base orthogonale (e1 , . . . , en ) de
H. Vérifions que
B = (e1 , . . . , en , en+1 )
P
est une base. Soient λ1 , . . . , λn+1 des scalaires tels que λj ej = 0. Alors
X X
b λj ej , en+1 = λj b(ej , en+1 ) = λn+1 q(en+1 ) = 0
A chaque étape, l’algorithme fait apparaître un carré et fait disparaître une coordonnée dans le reste de
la forme.
– Si a11 ̸= 0, alors on écrit
n
X a 1j
X
q(X) = a11 x21 + x1 xj + aij xi xj
j=2
a11
2≤i≤j≤n
2 2
n n
1 X a1j a11
X a 1j
X
= a11 x1 + xj − xj + aij xi xj
2 j=2 a11 4 j=2
a11
2≤i≤j≤n
– Si, pour tout indice j, ajj = 0, alors on considère un terme du type xy. On écrit
(x + y)2 − (x − y)2
xy = .
4
On pose alors x+y
u=
2
v = x−y
2
110 CHAPITRE 11. FORMES QUADRATIQUES ET HERMITIENNES GÉNÉRALES
q(x, y, z) = xy + yz + xz .
v = x−y
2
Il vient
q(x, y, z) = u2 − v 2 + (u − v)z + (u + v)z = u2 + 2uz − v 2 ;
du coup,
q(x, y, z) = (u + z)2 − v 2 − z 2 .
Remarque(s) 11.2.2.3. Si q est dégénérée, alors il existe une base orthogonale B telle Mat(q, B) soit
diagonale avec les dim Ker q derniers termes nuls. On peut alors restreindre la forme à l’espace engendré
par les n − dim Ker q premiers vecteurs.
On a toujours F ⊂ (F⊥ )⊥ . En effet, si x ∈ F et si y ∈ F⊥ , alors b(x, y) = 0 donc x ∈ (F⊥ )⊥ .
11.2. FORMES QUADRATIQUES 111
2. F = (F⊥ )⊥ ,
3. (F + G)⊥ = F⊥ ∩ G⊥ et (F ∩ G)⊥ = F⊥ + G⊥ .
F◦ = {L ∈ E∨ , L(x) = 0 ∀ x ∈ F} .
On a dim F + dim F◦ = dim E. En effet, si (e1 , . . . , ek ) est une base de F, que l’on complète en une base
de E, on trouve
F◦ = Vect{e∨ ∨
k+1 , . . . , en } .
2. On a vu que F ⊂ (F⊥ )⊥ . De plus, dim F = dim(F⊥ )⊥ par l’identité que l’on vient de montrer. Donc
F = (F⊥ )⊥ .
Définition 11.2.2.5. On dit qu’un vecteur non nul x est isotrope si q(x) = 0. On note par C(q) le cône
des vecteurs isotropes. On remarque en effet que si q(x) = 0 alors, pour tout λ ∈ k, q(λx) = 0. On a
toujours Ker q ⊂ C(q).
Un espace vectoriel F est isotrope si F ∩ F⊥ ̸= {0}. Il est anistrope sinon.
Enfin, on dit que F est totalement isotrope si F ⊂ F⊥ , autrement dit, si q|F ≡ 0.
11.2.3 Isotropie
Exemple. Si E = Rn et q(X) = x1 x2 , alors les vecteurs de la base canonique sont tous isotropes.
Remarque. — Si F est isotrope, alors F ∩ F⊥ est totalement isotrope. Si q est non dégénérée et F
totalement isotrope, alors dim F ≤ dim E/2 ; si q F est non isotrope, alors on a F ⊕ F⊥ = E.
112 CHAPITRE 11. FORMES QUADRATIQUES ET HERMITIENNES GÉNÉRALES
Définition 11.2.3.1. Etant donnée une forme quadratique, on définit son indice ν comme le maximum
des dimensions des espaces totalement isotropes. Si ν = 0 i.e., si q(x) = 0 ⇒ x = 0, on dit que q est
anisotrope, ou définie.
Remarque. — Si E est un espace réel, et si q est définie, alors, ou bien pour tout x ̸= 0 on a q(x) > 0,
ou bien, pour tout x ̸= 0 on a q(x) < 0.
Le cas de la dimension 2. Soit E un espace vectoriel de dimension 2 muni d’une forme quadratique
q. De quatre choses l’une :
2. il existe exactement une seule droite isotrope, et dans une base appropriée, q(x, y) = ax2 , pour
a ̸= 0 ;
Démonstration. On suppose que la forme n’est pas définie. Il existe donc une base (e1 , e2 ) telle que
q(e1 ) = 0. Notons α = q(e2 ) et β = b(e1 , e2 ). Il vient
Si xe1 + ye2 ∈ C(q), alors, ou bien y = 0, ou bien 2βx + αy = 0. On distingue plusieurs cas selon les
valeurs de α et β.
et si α ̸= 0 alors
1
q(xe1 + ye2 ) = (2βx + (α + 1)y)2 − (2βx − (α − 1)y)2 .
4
Proposition 11.2.3.2. Un plan (E, q) muni d’une forme quadratique est hyperbolique si et seulement
si q est non dégénérée et s’il existe un vecteur isotrope non nul.
Théorème 11.2.3.3 (décomposition d’un espace). Soit (E, q) un espace de dimension finie muni d’une
forme quadratique non dégénérée. Il se décompose sous la forme
E = (⊕1≤j≤r Pj ) ⊕ F
Lemme 11.2.3.4. Soit (E, q) un espace de dimension finie muni d’une forme quadratique non dégénérée.
Si x est isotrope, il existe un plan hyperbolique contenant x.
Démonstration. Il existe y tel que b(x, y) ̸= 0. Du coup, le plan engendré par x et y est hyperbolique
puisque la matrice de q est de rang 2 et x est isotrope.
Démonstration du Théorème 11.2.3.3. — Si q est anisotrope, alors c’est bon. Sinon, on procède
par récurrence. Le cas n = 1 est sans intérêt, le cas n = 2 provient du Lemme 11.2.3.4.
Soit E un espace de dimension n ≥ 3. Si C(q) ̸= ∅, alors le Lemme 11.2.3.4 produit un plan hyperbolique
P qui contient une unique droite isotrope kx0 .
Montrons que E = P ⊕ P⊥ . Si v ∈ P ∩ P⊥ alors x ∈ F 7→ b(v, x) est identiquement nul. Ceci contredit
que q est non dégénérée. Donc E = P ⊕ P⊥ . L’hypothèse de récurrence s’applique à P⊥ .
Définition 11.2.4.1. Deux espaces (E, q) et (E′ , q ′ ) sont équivalents s’il existe un isomorphisme u : E →
E′ tel que, pour tout x ∈ E, on a q ′ (u(x)) = q(x).
Si q est une forme quadratique sur E, alors son expression dans des bases différentes fournit des exemples
de formes équivalentes. Réciproquement, la classe d’équivalence d’une forme q définie sur E est en cor-
respondance avec ses différentes expressions dans des bases différentes.
114 CHAPITRE 11. FORMES QUADRATIQUES ET HERMITIENNES GÉNÉRALES
Définition 11.2.4.2. Un invariant est une application définie sur {(E, q)}/ ∼.
Théorème 11.2.4.3. Si k est algébriquement clos, alors, pour tout q, il existe une base telle que
X
q(x) = (e∗j (x))2 .
1≤j≤rg(q)
avec λj ∈ k∗ . Comme k est algébriquement clos, il existe µj ∈ k tel que µ2j = λj . En posant fi = ei /µi ,
on obtient
X X X
q(x) = λj (e∗j (x))2 = (µj e∗j (x))2 = (fj∗ (x))2 .
11.2. FORMES QUADRATIQUES 115
Théorème 11.2.4.4 (Inertie de Sylvester). Si k = R, alors, pour tout q, il existe un unique couple
d’entiers naturels (s, t), appelé la signature de q tel que s + t = rg(q), et tel qu’il existe une base dans
laquelle
X X
q(x) = (e∗j (x))2 − (e∗j (x))2 .
1≤j≤s s+1≤j≤rg(q)
On a exactement (dim E+1)(dim E+2)/2 classes d’équivalence, qui se distinguent à l’aide de la signature
de q.
avec λj ∈ R∗ . On suppose que les s premiers scalaires sont positifs et les t derniers négatifs. On note
p
µj = |λj |. En posant fj = ej /µj , on obtient
X X X X X
q(x) = λj (e∗j (x))2 = (µj e∗j (x))2 − (µj e∗j (x))2 = (fj∗ (x))2 − (fj∗ (x))2 .
1≤j≤s s+1≤j≤rg(q) 1≤j≤s s+1≤j≤rg(q)
Il reste à montrer que la signature est bien définie, et qu’elle distingue les classes d’équivalences.
Supposons qu’on ait deux bases B et B′ avec des nombres (s, t) et (s′ , t′ ) qui vérifient s > s′ . On note
F = Vect{e1 , . . . , es } et G = Vect{es′ +1 , . . . , en }. Par suite, pour tout x ∈ F \ {0}, on a q(x) > 0 et
q(x) ≤ 0 pour x ∈ G. Du coup, on a F ∩ G = {0}. Mais alors,
Ceci est une contradiction. Donc (s, t) = (s′ , t′ ). Cet argument montre aussi que deux formes quadratiques
avec des signatures différentes ne peuvent être équivalentes.
Si k est un corps à q éléments, alors il existe un nombre premier p tel que q = pn et k est le corps de
n
décomposition de Xp − X sur Z/pZ. On écrit k = Fq . On a de plus F∗q ≈ Z/(q − 1)Z en tant que groupe.
q−1
|(F∗q )2 | = .
2
Proposition 11.2.5.1. On suppose que p > 2. Alors x est un carré dans F∗q si et seulement si x(q−1)/2 =
1.
Démonstration. Puisque x est inversible, on a xq−1 = 1 par le petit théorème de Fermat. Du coup,
Démonstration. Le sous-groupe (F∗q )2 agit librement sur F∗q par multiplication (si x2 y = y alors
x2 = 1), donc toutes les orbites ont le même cardinal. Puisque la classe de 1 a (q − 1)/2 éléments, Fq
n’a que deux classes. Soit α ∈ R− . On a F∗q /(F∗q )2 ≈ {1, α}.
Théorème 11.2.5.4. Soit E un Fq -espace vectoriel de dimension finie. Il existe exactement deux classes
d’équivalence de formes quadratiques non dégénérées. Elles sont représentées par
X
q(x) = (e∗i (x))2 ,
1≤i≤n
et par
X
q(x) = (e∗i (x))2 + α(e∗n (x))2 ,
1≤i≤n−1
où α ∈ F∗q n’est pas un carré de Fq .
Ces classes sont distinguées par leurs discriminants.
11.2. FORMES QUADRATIQUES 117
a2 α1 = 1 − b2 α2
Étant donné un espace vectoriel muni d’une forme quadratique non dégénérée, on dégage des endomor-
phismes particuliers qui respectent la structure ajoutée. Plus précisément, on dit que u ∈ End(E) est
une isométrie si, pour tous x, y ∈ E, on a b(u(x), u(y)) = b(x, y).
Lemme 11.2.6.1. Une isométrie d’un espace de dimension finie est inversible. Un endomorphisme u
est une isométrie si et seulement si q ◦ u = q.
L’ensemble des isométries est un groupe appelé groupe orthogonal et noté O(q). On remarque que les
groupes orthogonaux de deux formes quadratiques équivalentes sont isomorphes (exercice).
Démonstration. La première assertion vient du fait que b est non dégénérée. Si x ∈ Ker u, alors,
pour tout y ∈ E, on a b(x, y) = b(u(x), u(y)) = b(0, u(y)) = 0, donc x ∈ Ker b et x = 0.
Supposons que q ◦ u = q. On utilise la relation reliant la forme quadratique à sa forme polaire.
Remarque. — Si b est hermitienne ou alternée, on peut encore parler d’isométries. Dans le cas hermitien,
on parle du groupe unitaire U(b) et dans le cas alterné du groupe symplectique Sp(b).
118 CHAPITRE 11. FORMES QUADRATIQUES ET HERMITIENNES GÉNÉRALES
t
Mat(u, B) · Mat(q, B) · Mat(u, B) = Mat(q, B).
Il s’ensuit que (det u)2 = 1. On définit alors le groupe spécial orthogonal SO(q) comme le sous-groupe
normal des isométries de déterminant 1.
Symétries Orthogonales. Une symétrie est un endomorphisme u tel que u ◦ u = Id. En particulier,
elles sont inversibles. De plus, les valeurs propres sont ±1, et il existe une décomposition de E en somme
directe E = E+ ⊕ E− , où E+ est l’espace propre associé à la valeur propre 1, et E− à la valeur propre
−1.
Proposition 11.2.6.2. Une symétrie est orthogonale si et seulement si les E+ et E− sont orthogonaux.
Dans ce cas, ces espaces sont non isotropes.
Réciproquement, si F est un sous-espace non isotrope, alors il existe une unique symétrie orthogonale
telle que F soit exactement l’espace propre associé à la valeur propre 1.
Il vient
b(u(x), u(y)) = b(x+ , y+ ) + b(x− , y− ) = b(x, y) .
⊥
Soit F non isotrope. On note H = F⊥ . On a donc E = F ⊕ H, et on peut définir u ∈ O(q) par u|F = Id
et u|H = − Id.
Remarque. — La conjugaison d’une symétrie orthogonale est encore une symétrie orthogonale.
Définition 11.2.6.3. Lorsque dim E− = 1, on dit que u est une réflexion, et quand dim E− = 2, on
parle de renversement. En dimension trois, si dim E+ = 1, on parle de demi-tour par rapport à x, si x
est un vecteur directeur de E+ .
Similitudes. IDe manière générale, il s’agit des endomorphismes u tels qu’il existe un scalaire λ ∈ k∗
tel que b(u(x), u(y)) = λ · b(x, y). Ils forment un groupe GO(q) et on a la suite exacte
1 → O(q) → GO(q) → k∗
11.2. FORMES QUADRATIQUES 119
t
Mat(u, B) · Mat(q, B) · Mat(u, B) = λ · Mat(q, B) .
Du coup, det2 u = λn .
1 → O(q) → GO(q) → k∗ → 1.
Proposition 11.2.6.4. Soit E un k-espace vectoriel de dimension finie muni d’une forme quadratique q
non dégénérée. Soit u ∈ GL(E). Alors, u est une similitude si et seulement si u préserve l’orthogonalité,
soit
∀ x, y ∈ E, x ⊥ y ⇐⇒ u(x) ⊥ u(y) .
donc ces vecteurs sont orthogonaux. Du coup, u(ei + ej ) = εi + εj et u(ei + λej ) = εi + λεj sont aussi
orthogonaux et on en déduit
q(εi ) λi q(ei ) λi
λ=− =− · =λ· .
q(εj ) λj q(ej ) λj
Ceci montre bien que λi est une fonction constante de i.
Si f : Rn → R est une application de classe C2 , alors le théorème de Schwarz implique que la matrice
des dérivées partielles secondes est symétrique. Cela nous permet d’appliquer ce qui précède au calcul
des variations.
120 CHAPITRE 11. FORMES QUADRATIQUES ET HERMITIENNES GÉNÉRALES
On note Z 1
∂2f
A(x) = (1 − t) (tx)dt et A0 = A(0) .
0 ∂xi ∂xj i,j
Lemme 11.2.7.1. Si A0 ∈ Sn (R)∩GLn (R), il existe un voisinage U de A0 dans Sn (R) et une application
infiniement différentiable ψ : U → Mn (R) tels que ψ(A0 ) = I et, pour tout A ∈ U,
t
ψ(A) · A0 · ψ(A) = A .
Du coup, si x est assez proche de l’origine, alors f (x) =t xtψ(A(x))A0 ψ(A(x))x. On pose ψ1 (x) =
ψ(A(x))x, et on obtient
f (x) =t ψ1 (x)A0 ψ1 (x) .
Or il existe une base P dans laquelle A0 soit diagonale avec r valeurs sur la diagonale égales à 1 et s
égales à −1. On note J cette matrice et on pose ψ2 = P · ψ1 . Il vient f (x) =t ψ2 (x)Jψ2 (x). Si on appelle
y1 , . . . , yr et z1 , . . . , zs les coordonnées de ψ2 , on obtient la forme recherchée.
Ceci établit le lemme de Morse modulo le Lemme 11.2.7.1.
Donc DI h(M) =t MA0 + A0 M. Cette application n’est pas inversible puisque dim Sn (R) < dim Mn (R).
En revanche, le noyau consiste en les matrices M telles que A0 M soit antisymétrique. On considère
l’espace E des matrices M telles que A0 M soit symétrique. Cet espace est supplémentaire à Ker DI h, et
la restriction de DI h à E devient maintenant inversible (injective car A0 est inversible et espaces source
et but de même dimension).
Le théorème d’inversion locale appliqué à h|E montre qu’il existe des voisinages U de A0 et V de I et un
difféomorphisme infiniment différentiable ψ : U → V qui inverse h|E .
11.2. FORMES QUADRATIQUES 121
Corollaire 11.2.7.2. Sous ces hypothèses 0 est un maximum local strict de f si et seulement si D2 f est
définie négative, et est un minimum local strict de f si et seulement si D2 f est définie positive.
Corollaire 11.2.7.3. On étudie dans Rn+1 l’hypersurface S définie par xn+1 = F(x1 , . . . , xn ) où F est
de classe Ck (Rn ), k ≥ 2, et D2 F est non dégénérée. Le plan tangent au point p = (x0 , F(x0 )) sépare
localement S d’un demi-espace si et seulement si D2x0 F est définie.
Démonstration. On considère l’application g(x) = F(x) − (F(x0 ) + Dx0 F(x − x0 )). Cette application
vérifie les hypothèses du lemme de Morse. On en déduit que
X X
F(x) = F(x0 ) + Dx0 F(x − x0 ) + yj2 − zj2 .
1≤j≤r 1≤j≤s
Ernst Witt
La personnalité de Witt est controversée de par, a minima, sa collaboration active avec le régime nazi
(membre du parti nazi dès 1933 puis SA). La personnalité complexe de Witt semble toutefois un peu
relativiser son action. Voir https://mathshistory.st-andrews.ac.uk/Biographies/Witt/ pour une
biographie.
Théorème 11.2.8.1 (de Witt). Soit q une forme quadratique sur un espace E de dimension finie. Soient
F un sous-espace de E et s : F → E une application linéaire injective telle que q(s(x)) = q(x) pour tout
x ∈ E. Alors il existe u ∈ O(q) tel que u|F = s.
il existe ε = ±1 tel que q(x + εy) ̸= 0. Notons G = k(x + εy). Cet espace est donc non isotrope, donc la
Proposition 11.2.6.2 implique l’existence d’une symétrie orthogonale σ par rapport à G.
On remarque que b(x + εy, x − εy) = q(x) − q(x) + ε(b(x, y) − b(x, y)) = 0 donc on a
On note u = u2 ◦ u1 sur F⊥
1 et u = u1 sur F1 . Si x ∈ F2 alors u(x) = u2 ◦ u1 (x) = s(x). De plus, u est
orthogonal sur si F1 et F⊥ ⊥
1 . Si maintenant x ∈ F1 et y ∈ F1 alors b(u(x), u(y)) = b(u1 (x), u2 ◦ u1 (y)) =
Corollaire 11.2.8.2. Tout espace quadratique (E, q) se décompose en somme directe orthogonale
Ker(q) ⊕ H ⊕ F où H est une somme directe orthogonale de plans hyperboliques et F est anistrope.
Ces espaces sont bien définis à isomorphisme près.
Chapitre 12
Géométrie euclidienne
12.1 Généralités
La plupart de cette section est constituée de rappels (orthogonalité, espaces orthogonaux et supplémen-
taires, Gram-Schmidt et existence de l’adjoint d’un endomorphisme d’un espace euclidien). On a remis
des preuves pour mémoire mais elles ne sont pas forcément traitées à l’oral : à réviser donc !
Définition 12.1.1.1. Un espace euclidien est un espace vectoriel de dimension finie n sur R muni d’une
forme quadratique q définie positive, i.e.de signature (n, 0).
Dans cette situation, on appelle la forme polaire un produit scalaire et on le note communément ⟨·, ·⟩. On
remarque, et c’est aussi trivial qu’important, que tout sous-espace d’une espace euclidien est euclidien.
Dans ce chapitre, (E, q) désigne un espace euclidien. Rappelons que dans un espace euclidien, il existe
toujours une base orthonormée. Dans une telle base, la matrice de q est l’identité.
123
124 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
Exemple(s) 12.1.1.2. — Si (X, µ) est un espace mesuré (de mesure > 0), alors on définit q :
2
L (X, µ; R) → R par Z
q(f ) = f 2 dµ.
On a bien q(f ) > 0 pour tout f ̸= 0 dans L2 . Toute restriction à un sous-espace de dimension
finie confère une structure d’espace euclidien.
— Si M ∈ Mp,q (R), alors q(M) = tr(tMM) détermine une forme quadratique définie positive. Pour
cela, on note M = (aij ) et on calcule les termes diagonaux de tMM = (bij ) :
X X
bjj = akj akj = a2kj
k k
et
X
tr(tMM) = a2ij
i,j
p
Théorème 12.1.1.3. L’application x 7→ ∥x∥ = q(x) est une norme dite euclidienne.
p
Démonstration. On pose, pour x ∈ E, ∥x∥ = q(x). Rappelons l’inégalité de Cauchy-Schwarz :
pour tout x, y ∈ E,
⟨x, y⟩ ≤ q(x)q(y)
avec égalité si et seulement si x, y sont positivement liés (qui est une inégalité en dimension ≤ 2, donc de
géométrie plane usuelle.). Comme q est définie, pour montrer que ∥ · ∥ est une norme, il suffit de vérifier
l’inégalité triangulaire.
p
q(x) + q(y) + 2 q(x)q(y) − q(x + y)
(∥x∥ + ∥y∥) − ∥x + y∥ =
∥x + y∥ + ∥x∥ + ∥y∥
p
2 q(x)q(y) − 2⟨x, y⟩
≥ ≥ 0.
∥x + y∥ + ∥x∥ + ∥y∥
d’où le premier point. En cas d’égalité, le trinôme admet une racine réelle double t comme q est définie,
on a x + ty = 0. Mais comme ⟨x, y⟩ est alors ≥ 0, ceci force t à être négatif.
12.1. GÉNÉRALITÉS 125
Exercice(s) 12.1.1.4. Montrer que E normé de dimension finie est euclidien si et seulement si pour
tout x, y ∈ E, on a
2 2
∥x + y∥ + ∥x − y∥ = 2(∥x∥2 + ∥y∥2 ).
L’identification entre E et son dual dans le cas euclidien définie par le produit scalaire permet de définir
le gradient ∇x (f ) ∈ Rn d’une fonction f : Rn → R différentiable en un point x par la relation
∀v ∈ Rn , (v, ∇x (f )) = df (x).v.
Proposition 12.1.2.1 (Algorithme de Gram-Schmidt.). Soit e1 , · · · ed une famille libre dans E euclidien.
Alors, il existe une unique famille orthonormée ε1 , · · · , εd telle que
— Vect e1 , · · · ei = Vect ε1 , · · · , εi pour i = 1, · · · , d.
— (ei , εi ) > 0 pour i = 1, · · · , d.
L’orthogonalisation de Gram-Schmidt implique aussi que, pour tout sous-espace F de E, il existe une
base orthonormée dont les premiers dim F vecteurs forment une base de F.
126 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
Corollaire 12.1.2.3 (Décomposition d’Iwasawa). Toute matrice réelle M ∈ GLn (R) se décompose de
manière unique en un produit M = QR avec Q orthogonale et R triangulaire supérieure à coefficients
diagonaux > 0.
Corollaire 12.1.2.4 (Inégalité de Hadamard). Le volume euclidien d’un parallépipède est inférieur au
produit des lonqueurs des côtés avec égalité si et seulement si il est rectangle.
En cas d’égalité, on a égalité dans Cauchy-Schwartz de sorte que chaque ei est (positivement) lié à εi .
Remarque(s) 12.1.2.7. Cette proposition se généralise (en perdant la linéarité) au cas où F est sim-
plement un convexe fermé, et ce en supposant seulement E avec une forme définie et complet pour la
norme associée (Hilbert réel).
Démonstration. Exercice.
projection
Proposition 12.1.2.9 (Distance d’un point à un sous-espace). Soit e1 · · · , ed une bas de F un sous-
espace vectoriel de E euclidien x ∈ E. On a
Gram(x, e1 , · · · , ed )
d(x, H)2 = ∥x − pF (x)∥2 = .
Gram(e1 , · · · , ed )
Démonstration. Comme pF (x) ∈ F, la famille pF (x), e1 , · · · , ed est liée et donc son déterminant de
Gram est nul. La multilinéarité du déterminant assure alors
Même si tout ceci se déduit du cas général (§12.1.5), il est bon d’avoir une vision claire des isométries
(endomorphismes qui préservent la norme euclidienne ou le produits scalaire, c’estla même chose par
polarisation) en dimension 2 et 3. Les preuves sont laissées au lecteur à titre d’exercice. Cas de la
dimension 2. Considérons espace euclidien de dimension 2 orienté. Une isométrie u ∈ O2 (R) du plan
euclidien, identifié à C muni de la valeur absolue par le choix d’une quelconque base orthonormée directe
B , est
— Une rotation d’angle θ ∈ U(1) = R/2πZ si u ∈ SO2 (R) (isométrie directe) de matrice 1
cos(θ) − sin(θ)
Rθ =
sin(θ) cos(θ)
1. Quelle que soit la base orthonormée directe, reflet de la commutativité de SO2 (R) ≃ U(1)
128 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
Cas de la dimension 3. Regardons le cas d’ue isométrie u d’un espace euclidien orienté de dimension
3. Du fait que le polynôme caractéristique est réel degré 3, on déduit que ±1 est valeur propre. Quitte
à changer u en −u, on peut supposer que 1 est valeur propre. En considérant le plan orthogonal à un
vecteur unitaire invariant, on déduit du cas de la dimension 2 que u
— une isométrie directe d’axe ∆ (ponctuellement invariant) et d’angle θ mod 2π (dans le plan
orthogonal à ∆) défini au signe près si l’axe n’est pas orienté ou 2πZ si ∆ est orientés de matrice
dans une base orthonormée directe adaptée
1 0
;
0 Rθ
rotation symétrie
12.1. GÉNÉRALITÉS 129
composé de réflexions
Rappelons (11.1.3.1) que la matrice dans une base orthonormée de l’adjoint d’un endomorphisme est
sa transposée 2 . Dès lors, il est normal (s’il commute avec son adjoint) si et seulement si cette matrice
commute avec sa transposée et sa restriction à un sous espace stable d’un tel endomorphisme normal est
encore normal.. Les principaux exemples proviennent, dans une base orthonormée, des matrices réelles
M symétriques t M = M, antisymétriques t M = −M et orthogonales t M = M−1 . Nous allons voir, qu’une
fois de plus, tout se ramène à la géométrie plane !
L’outil pour se ramener en dimension ≤ 2 est le comportement des orthogonaux vis à vis des endomor-
phismes normaux :
A C
Proposition 12.1.4.1. Soit M = une matrice carrée réelle par blocs qui commute avec sa
0 B
transposée. Alors, C = 0. Autrement dit, l’orthogonal d’un espace stable par un endomorphisme normal
est stable.
Démonstration. Le second point est une conséquence immédiate du premier en écrivant la matrice
(symétrique) de u dans une base orthonormée union d’une base orthonormée de l’espace stable en question
et de son orthogonal. Pour le premier point, le bloc (1, 1) de Mt M − t MM s’écrit Ct C + At A − t AA et est
nul. En prenant sa trace, on a tr(Ct C) =
P 2
ci,j = 0 et donc C = 0 (c’est ici que sert le caractère réel
des coefficients).
Exercice(s) 12.1.4.2. Soit u un endomorphisme normal d’un espace euclidien. Montrer les points
suivants
2. Plus généralement, u et u∗ ont mêmes valeurs propres et espaces propres. Ceux-ci sont orthogonaux.
3. Les endomorphismes normaux diagonalisables sont diagonalisables dans une base orthonormée.
3. u est soit auto-adjoint soit une similitude directe. Les similitudes directes du plan euclidien qui sont
auto-adointes sont les homotéthies.
4. u est normal et diagonalisable si et seulement si il est auto-adjoint ; il est alors diagonalisable dans
une base orthonormée.
a c
Démonstration. Montrons le premier point avec M = . On traduit sur ses coefficients le
b d
fait d’être normal : on obtient le système
(c − b)(c + b) = 0
(a − d)(b − c) = 0
Soit M est symétrique et b = c, soit M ne l’est pas de sorte que b ̸= c et donc b = −c, a = d. On a alors
a −b cos(θ) − sin(θ)
M= = ρ
b a sin(θ) cos(θ)
en posant a+ ib = ρexp(iθ), r > 0. Pour le second point, vérifions d’abord qu’une matrice symétrique
a b
réelle M = est diagonalisable.
b d
D’après le lemme clef 12.1.4.1 (ou l’exercice 12.1.4.2 comme on veut), il s’agit simplement de montrer
que χM (T) est scindé. Or son discriminant est
Il faut pour finir montrer que la similitude directe rRθ n’est diagonalisable qu si elle est symétrique. Or,
ses valeurs propres sont r exp(±iθ) donc ne sont réelles que si θ mod π = 0 et donc M = ±r Id qui est
bien symétrique ! Les deux derniers points en découlent immédiatement en considérant la matrice de u
dans une base orthonormée.
12.1. GÉNÉRALITÉS 131
Remarque(s) 12.1.4.4. L’angle d’une matrice de similitude n’est défini qu’au signe près (ou à π près,
comme on veut), exactement comme pour les rotations planes. En effet, si l’angle est θ dans une base
orthonormée (e, e2 ), il devient θ dans la base (d’orientation opposée) (e2 , e1 ).
Théorème 12.1.4.5 (Réduction des normaux). Les endomorphismes normaux u sont les endomor-
phismes tels qu’il existe une base orthonormée, des réels α1 , . . . αp , ρ1 > 0, . . . , ρq > 0 et θ1 , . . . , θq ∈
R − πZ tels que
α1
..
.
0
αp
Mat(u) =
ρ1 · Rθ1
..
.
ρq · Rθq
Les αi , ρj , (θj mod π) sont uniques à l’ordre près.
Démonstration. On raisonne par récurrence sur la dimension. Les cas de la dimension 1 et 2 sont
faits. On suppose que le théorème est vrai jusqu’à la dimension n et on suppose que E est de dimension
n + 1. D’après la remarque 7.2.0.2, u fixe une droite ou un plan F. Dans cet espace, on sait (12.1.4.3)
trouver une base orthonormée qui donnera la forme voulue pour u|F . Ensuite, on sait (12.1.4.1 )que u
préserve F⊥ avec de plus u|F⊥ normal. On peut appliquer l’hypothèse de récurrence.
D’un point de vue matriciel, ceci se réécrit en disant si M ∈ Mn (R) commute avec sa transposée, il existe
O telle que
α1
..
.
0
t −1 t
αp
OO = Id et O MO = OMO = .
ρ1 · R θ 1
..
0 .
ρq · Rθq
On suppose que E est un espace euclidien muni d’une base orthonormée B. Rappelons
132 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
Corollaire 12.1.5.2. Si u ∈ O(E), alors det u = ±1 et donc SO(E) = det−1 {1} ∩ O(E) est distingué
d’indice 2.
Lorsqu’on munit E = Rn de sa base canonique et de son produit scalaire usuel (pour laquelle elle est
orthonormée), les endomorphismes orthogonaux s’identifient donc aux matrices orthogonales O usuelles
(qui vérifient t OO = Id) qui sont les endomorphismes préservant la norme euclidienne (isométries). On
note alors O(E) = On (R) le groupe orthogonal, sous-groupe de GLn (R) des orthogonales et SOn (R) son
sous-groupe d’indice 2 des matrices de déterminant 1.
Théorème 12.1.5.3 (Réduction des isométries). Les isométries d’un espace euclidien sont les endo-
morphismes dont une matrice dans une base orthonormée convenable est diagonale par blocs de la forme
Idp
− Idm
Rθ1 .
..
.
Rθq
avec avec p, m ∈ N et θ1 , . . . , θq ∈ R − πZ
Démonstration. Vace les notations du théorème 12.1.4.5 de réduction des normaux, il suffit d’ob-
server que la conditions de préserver la norme équivaut à αi = ±1 et ρi = 1.
12.1. GÉNÉRALITÉS 133
Remarque(s) 12.1.5.4. Si E est de dimension impaire, les matrices orthogonales comme plus haut vé-
rifient m pair de sorte que − Idm = diagm/2 (Rπ ) et n impair de sorte que Idp = diag(1, diag(p−1)/2 (R0 )).
Ainsi, la matrice d’une isométrie positive en dimension impaire est de la forme diag(1, diag Rθ̃i ) avec θ̃i
réels, généralisant la forme usuelle dans l’espace euclidien à trois dimensions. De même, en dimension
paire elle est de la forme diag Rθ̃i , donc sans forcément d’« axe » invariant comme en dimension impaire.
Théorème 12.1.6.1 (Réduction des autoadjoints). Les endomorphismes auto-adjoints d’une espace
euclidien sont les endomorphismes dont une matrice dans une base orthonormée convenable est diagonale.
Matriciellement, le matrices symétriques réelles sont les matrices orthogonalement diagonalisables.
Remarque(s) 12.1.6.2.Attention,
les matrices symétriques complexes ne sont en général pas diago-
1 i
nalisables. Par exemple, est symétrique et nilpotente !
i −1
Corollaire 12.1.6.3 (Réduction simultanée). Soient S, S′ ∈ Mn (R) deux matrices symétriques réelles
avec S définie positive. Alors, il existe une matrice inversible Π ∈∈ GLn (R) et une matrice diagonale
∆ ∈ Diagn (R) telles que
t
ΠSΠ = Id et t ΠS′ Π = ∆.
134 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
t
Ot PSPO = ∆ et donc t OO = Id .
Remarque(s) 12.1.6.4. Attention, ∆ n’a rien à voir avec les valeurs propres de S′ !.
Théorème 12.1.7.1 (Réduction des anti-autoadjoints). Les endomorphismes auto-adjoints d’une espace
euclidien sont les endomorphismes dont une matrice
dans
une base orthonormée convenable est diagonale
0 −1
par blocs où le blocs non nuls sont de la forme r , r ∈ R∗ .
1 0
Corollaire 12.1.7.2. L’application exp : An (R) → SO(E) est surjective, où An (R) désigne l’ensemble
des matrices antisymétriques.
Par conséquent, si
0
..
.
0
0
A=
θ1 · J
..
0 .
θq · J
1
..
.
0
1
exp A =
Rθ1
..
0 .
Rθq
Ceci permet de montrer la surjectivité.
convexes.
Démonstration. L’application exp est continue, et si M ∈ Sn (R), alors il existe O ∈ O(n) telle que
O−1 MO soit diagonale. On en déduit que exp M = O(exp O−1 MO)O−1 ∈ S++
n (R). Réciproquement, si
M ∈ S++
n (R), il existe O ∈ O(n) telle que O
−1
MO soit diagonale avec des valeurs propres strictement
positives. On peut alors considérer la matrice N diagonale formée des logarithmes des valeurs propres de
M. On a ONO−1 ∈ Sn (R) et exp(ONO−1 ) = M.
Il reste à voir que l’application est injective (d’inverse continu). Tout d’abord, le théorème de réduction
nous permet de diagonaliser une matrice M ∈ Sn . Sous cette forme, exp M est aussi diagonale et M et
exp M ont la même décomposition en espaces propres, et les valeurs propres sont liées via l’exponentielle
(numérique). Du coup, si exp M = exp N, alors la décomposition en sous-espaces propres nous permet de
conclure que M = N.
Enfin, pour voir que l’application réciproque est continue, il suffit de montrer que exp est propre. Pour
cela, on munit Sn de la norme associée à la forme q(M) = trt MM. Restreinte à Sn , elle prend la forme
q(M) = tr M2 , qui se traduit par la somme des carrés des valeurs propres de M. Par suite, si exp M reste
136 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
propres restent dans un compact de R, et il s’ensuit que M aussi reste dans un compact de Sn . Du coup,
on en déduit que exp est continue, propre et injective, donc un homéomorphisme sur son image.
Une cônique est donnée par une équation de la forme q(x, y) = 1, où q est un polynôme homogène de
degré 2. Autrement dit, q est une forme quadratique. D’après le théorème 12.1.6.1, il existe une base
orthonormée de R2 telle que P ait une forme canonique, qui nous donne la notion d’ellipse, d’hyperbole...
Q = {(x, y, z) ∈ R3 , q(x, y, z) = 1}
où q est une forme quadratique non dégénérée. On discute selon la signature de q de la forme de la
quadrique.
sig(q)=(0,3) Dans une base adaptée de R3 , on a q(x, y, z) = −x2 − y 2 − z 2 , donc Q = ∅.
sig(q)=(1,2) Dans une base adaptée de R3 , on a q(x, y, z) = x2 −y 2 −z 2 . Donc Q a deux composantes
connexes selon que x ≥ 1 ou x ≤ −1. La quadrique coupe le plan {x = cste}, pour |x| ≥ 1, en un
cercle de rayon x2 − 1. On dit que Q est un hyperboloïde à deux nappes.
sig(q)=(2,1) Dans une base adaptée de R3 , on a q(x, y, z) = x2 + y 2 − z 2 . Donc Q est connexe. La
quadrique coupe le plan {z = 0} en un cercle. On dit que Q est un hyperboloïde à une nappe.
Une propriété importante de cette quadrique est qu’elle est très exactement doublement réglées.
Un point appartient à Q si (y − z)(y + z) = (1 − x)(1 + x). On devine l’équation de deux familles
de droites incluses dans Q.
y − z = a(1 − x) y = −z
∆a a∈R et ∆∞
(y + z)a = 1 + x x=1
ainsi que
y + z = b(1 − x) y=z
Db b∈R et D∞
(y − z)b = 1 + x x=1
Un simple calcul montre que ces familles sont transverses, et que seule une droite par famille passe
par un point donné de Q.
De plus, si L est une droite incluse dans Q passant par un point p, et si v est un vecteur directeur,
on a, pour tout t ∈ R,
1 = q(p + tv) = q(p) + 2tb(p, v) + t2 q(v) ,
donc b(p, v) = 0 et q(v) = 0. Ceci implique que v ∈ (Rp)⊥ ∩ C(q) (il s’agit d’une équivalence). Or,
puisque q(p) ̸= 0, on a R3 = (Rp) ⊕ (Rp)⊥ ; de plus sig(q|Rp ) = (1, 0) donc sig(q|(Rp)⊥ ) = (1, 1).
Or on a vu qu’une forme définie sur un plan avec cette signature avait exactement deux droites
isotropes.
12.1. GÉNÉRALITÉS 137
Exercice(s) 12.1.9.1. Soit S ∈ Mn (R) définie positive, qS la forme quadratique associées. Montrer que
le volume vol(ES ) de l’ellipsoïde ES défini par l’inégalité qA (x) ≤ 1 est Bn / det(A) où Bn est le volume
p
En conséquence, si G est un sous-groupe compact de GLn (R), il est conjugué à un sous-groupe de O(n, R)
(voir infra le théorème 12.1.11.7.)
Remarque(s) 12.1.10.2. On peut en déduire par polarité le théorème de John qui affirme l’existence
d’un ellipsoïde de volume maximal contenu dans K.
µ : S ∈ S++
n (R) 7→ (det S)
−1/2
.
Démonstration. D’après le théorème de réduction, il existe O ∈ On (R) telle que tOSO = D soit
une matrice diagonale dont les coefficients (diagonaux) λ1 , . . . , λn sont tous strictement positifs. On
considère D′ la matrice diagonale dont les termes diagonaux sont 1/ λj , et on note R = OD′ O−1 , qui
p
t
XSs X = (1 − s)(tXS0 X) + s(tXS1 X) > 0 .
D’après le théorème de réduction, il existe P ∈ GLn (R) telle que tPS0 P = In et tPS1 P = D soit une
matrice diagonale de coefficients (diagonaux) λ1 , . . . , λn . Si D = In alors on aurait tPS0 P = tPS1 P et
S0 = S1 , ce qui est contraire à l’hypothèse. Donc D ̸= In , et on peut donc supposer que λ1 ̸= 1.
Du coup,
1 t 1 1 Y
det Ss = det( PSs P) = det((1 − s)I n + sD) = [(1 − s) + sλj ] .
det2 P det2 P det2 P
Posons Aj (s) = (1 − s) + sλj et u(s) = µ(Ss )/| det P|. Cette application est différentiable, et
n n
−1 λj − 1 1 −1 λj − 1
Q
X X
u′ (s) = 3/2 1/2
= u(s)
j=1
2 A j (s) A
i̸=j i (s) 2 j=1
Aj (s)
12.1. GÉNÉRALITÉS 139
et 2
n n 2 2
′′ 1 X λ j − 1 1 X λj − 1 1 λ1 − 1
u (s) = u(s) + u(s) ≥ u(s) > 0.
4 j=1
Aj (s) 2 j=1
Aj (s) 2 A1 (s)
Assertion. Considérons
C = {S ∈ S++
n (R), K ⊂ ES et vol(ES ) ≤ vol(B(0, ρ2 ))}.
est convexe (car l’application voume est convexe (cf. exercice 12.1.9.1) ), non vide (car ρ−1
2 Id ∈ C).
Montrons que C est compact. La fermeture de C dans Sn est claire puisque : en effet, dire
S ∈ S++
n et vol(ES ) ≤ vol(B(0, ρ2 )),
c’est dire
S ∈ S+ det(S) ≥ ρ−n
p
n et 2
qui sont des conditions fermées dans Sn . De plus, si x de norme 1, ρ1 Sx ∈ ES ie qS (x) ≤ ρ−2
1 de sorte S
est bornée ce qui donne la compacité. Par continuité l’application volume y atteint un minimum en au
moins un point. Par stricte convexité,ce point est unique.
Proposition 12.1.11.2. Le groupe O(E) a exactement deux composantes connexes qui sont homéor-
morphes : SO(E) et O(E)− = O(E) \ SO(E).
Démonstration. On montre d’abord que SO(E) est connexe par arcs. Puisque q est pair, on peut
remplacer −Iq par une matrice par blocs de rotations d’angle π. Du coup,
Ip 0
Rθ1
Mat(u) =
..
0 .
Rθq
140 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
La multiplication à gauche par cette matrice définit un homéomorphisme entre SO(E) et O− (E). Enfin,
l’application det : O(E) → {±1} montre que O(E) n’est pas connexe.
un homéomorphisme.
Démonstration. Si X ∈ Rn − 0, on a
t
X(t M · M)X = t (MX)(MX) = ∥MX∥2 > 0.
b ∈ O(n) telle
Démonstration de la décomposition : existence. — D’après le lemme, il existe O
que
λ1 0
b −1 · (tM · M) · O
O b = ..
.
0 λn
soit diagonale avec des valeurs propres strictement positives. On note
√
λ1 0
b · .. b −1
S=O . ·O
√
0 λn
t
O · O =t (S−1 ) · (tM · M) · S−1 = S−1 S2 S−1 = I .
12.1. GÉNÉRALITÉS 141
p
Démonstration de la décomposition : unicité. — Soit P ∈ R[X] tel que P(λj ) = λj . On a
λk1 0 P(λ1 ) 0
P(tM · M) =
X
b · .. b −1 b .. b −1
ak O . ·O =O· . · O = S.
0 λkn 0 P(λn )
Donc, si M admet une seconde décomposition polaire M = O′ S′ alors tM · M = (S′ )2 donc S′ commute
avec tM · M, donc avec S puisque S est un polynôme en tM · M. Du coup, S et S′ peuvent être diagonalisé
simultanément (en effet, Eλi (S) = ⊕(Eλi (S) ∩ Eµj (S′ ))). Ceci oblige les valeurs propres à coïncider, donc
ces matrices sont les mêmes.
OS = O(
b Ob −1 M). Par l’unicité de la décomposition polaire, on obtient O = O
b et Sn tend vers S.
Démonstration. On a
Exercice(s) 12.1.11.5. Soit D(t) la dilatation Id +(t − 1)E1,1 . Montrer que (t, M) 7→ D(t)M est un
homéomorphisme de R∗ × SLn (R) sur GLn (R). En utilisant le pivot de Gauss, montrer que SLn (R)
est engendré par les produits d’au plus n2 transvections. En déduire que SLn (R) est connexe puis que
GLn (R) a deux composantes connexes. Que se passe-t-il sur C ?
Proposition 12.1.11.6. SOn (R) (resp. On (R)) est un sous-groupe compact maximal de SLn (R) (resp.
de GLn (R)).
Démonstration. Soit G ⊂ SLn (R) un sous-groupe compact qui contient SOn (R), et soit g ∈ G \
SOn (R). On a g = OS avec O ∈ SOn (R) car det g > 0 et S ̸= I car g ̸∈ SOn (R). Donc S ∈ G. Or si
v est un vecteur propre associé à une valeur propre λ de S différente de 1, alors Log ∥Sn x∥ tend vers
l’infini, ce qui contredit la compacité de G.
142 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
Théorème 12.1.11.7. Un sous-groupe compact G de GLn (R) est conjugué à un sous-groupe de On (R).
Démonstration. On remarque tout d’abord que si E est un ellipsoïde et si M ∈ GLn (R), alors ME
est aussi un ellipsoïde. En effet si E = {tXSX = 1} avec S ∈ S++
n (R), alors
Or tM−1 SM−1 est aussi définie positive car il ne s’agit que d’un changement de variables, donc ME est
aussi un ellipsoïde.
Soit B la boule unité fermée de Rn . On note K = ∪g∈G g(B). Alors K est compact car G et B le sont,
K est invariant par définition, et 0 est un point intérieur de K car K contient I(B) = B. D’après le
théorème de Loewner, il existe un unique ellipsoïde ES qui contient K de volume minimal.
Puisque G est compact, on a, pour tout g ∈ G, | det g| = 1. Donc vol g(ES ) = vol ES , et comme K =
g(K) ⊂ g(ES ), on obtient g(ES ) = ES . Par suite, ES est invariant par G. Soit T une racine carrée de
S−1 . Alors ES = T(B), et TGT−1 ⊂ On (R).
Voici un autre argument. Puisque G est un groupe compact métrique, il existe une mesure de Haar i.e.,
une mesure de probabilité µ borélienne sur G invariante par multiplication à gauche et à droite dans G.
Autrement dit, si φ : G → R est une fonction intégrable, alors
Z Z Z
φ(g)dµ(g) = φ(hg)dµ(g) = φ(gh)dµ(g)
G G G
Il s’agit clairement d’une forme bilinéaire symétrique positive. Si ⟨x, x⟩G = 0 alors il existe g ∈ G tel
que ∥g(x)∥ = 0, donc x = 0. Du coup, ⟨·, ·⟩G est un produit scalaire sur Rn représenté par une matrice
symétrique M.
Or, si h ∈ G, l’invariance de µ implique que
Z Z
⟨h(x), h(y)⟩G = ⟨ghx, ghy⟩dµ(g) = ⟨gx, gy⟩dµ(g) = ⟨x, y⟩G
G G
Remarque(s) 12.1.11.8. Il est facile de voir que O2 (C) n’est pas compact, donc On (C) non plus.
12.1. GÉNÉRALITÉS 143
Proposition 12.1.11.9. Les espaces GLn (R) et SLn (R) sont respectivement homéomorphes à On (R) ×
n(n+1) n(n−1)
R 2 et SOn (R) × R 2 .
n(n+1)
Démonstration. L’application exp : Sn (R) → S++
n (R) est un homéomorphisme et Sn (R) ≈ R
2 ,
donc
n(n+1)
GLn (R) ≈ On (R) × S++
n (R) ≈ On (R) × R
2 .
Propriétés algébriques.
Théorème 12.1.11.10. O(E) est engendré par des réflexions. Plus précisément, si u ∈ O(E), alors u
est produit d’au plus dim E − dim Ker(Id −u) réflexions.
Démonstration. On constate tout d’abord que le produit de 2 réflexions dans R2 par rapport à des
droites e1 et e2 est une rotation d’angle 2 fois l’angle entre e1 et e2 . Donc, si on écrit la forme réduite
de u, chaque bloc Rθ compte pour deux réflexions, alors que chaque (−1) compte pour une seule.
Théorème 12.1.11.11. Z(O(E)) = {± Id} et, Z(SO(E)) = {Id} si dim E est impaire, Z(SO(E)) =
{± Id} si dim E est paire et dim E ≥ 4, et Z(SO(E)) = SO(E) si dim E = 2.
Démonstration. Soit x de norme 1. On complète en une base orthonormée. La symétrie par rapport
à x s’écrit
1 0
Mat(sx , B) = .
0 −I
Si u ∈ O(E), alors usx u−1 = su(x) , donc si u ∈ Z(O(E)), alors sx = su(x) , donc il existe λx ∈ R telle
que u(x) = λx x. Comme u ∈ O(E), on a λx = ±1. Ceci implique que u est une homothétie de rapport
λ = ±1. En effet, on a, pour x, y indépendants,
Théorème 12.1.11.12. D(O(E)) = SO(E) et, D(SO(E)) = SO(E) si dim E ≥ 3 et D(SO(E)) = {id} si
dim E = 2.
Démonstration. Si u, v ∈ O(E) alors det uvu−1 v −1 = 1, donc D(O(E)) ⊂ SO(E). Or les produits
pairs de réflexions engendrent SO(E). Montrons que les produits de deux réflexions sont des commu-
tateurs : soient x, y unitaires. Il existe u ∈ O(E) tel que u(x) = y. On a sy = su(x) = u ◦ sx ◦ u−1 ,
donc
sx ◦ sy = sx ◦ u ◦ sx ◦ u−1 = sx ◦ u ◦ s−1
x ◦u
−1
.
Démonstration. Soit G un sous-groupe distingué de SO(E) non trivial. Pour montrer que G =
SO(E), il suffit de montrer que G contient un demi-tour. A ce moment-là, on saura qu’il les contient
tous par conjugaison, et donc que G = SO(E). Soit g ∈ G non trivial. Comme g ∈ SO(E), il s’agit d’une
rotation d’axe x et d’angle θ. Si θ = π, alors on a gagné.
Si θ ̸= π, on remarque que, pour v ∈ SO(E), on a vgv −1 g −1 ∈ G. En particulier, si v = sy , où y ∈ E\{0},
alors sy gsy g −1 = sy ◦ sg(y) ∈ G.
Si y et g(y) sont orthogonaux, alors sy ◦ sg(y) serait un demi-tour. Pour voir cela, il suffit de considérer
une base orthonormée contenant y et g(y).
Pour conclure, on cherche donc y ̸= 0 tel que g(y) ⊥ y. Soit (x, e2 , e3 ) une base orthonormée. On a
1 0 0
Mat(g) = 0 cos θ − sin θ
0 sin θ cos θ
soit
y12 + (y22 + y32 ) cos θ = 0 .
Quitte à itérer g, on peut supposer que cos θ ≤ 0. Du coup, une solution existe.
On s’intéresse à la classification des sous-goupes finis de O2 (R) et de SO3 (R) et à leurs relations avec la
géométrie.
Proposition 12.1.12.1. Soit G un sous-groupe fini de O2 (R) non trivial. Alors G préserve un n-gône
régulier. Si G n’est constitué que de rotations, alors G est isomorphe à Z/nZ. Sinon, G est isomorphe à
un groupe diédral Dn .
donc
g ◦ σx ◦ g −1 = σg(x)
et G opère sur X. Le stabilisateur de chaque point de X est d’ordre deux, donc chaque orbite est de
cardinal n. Du coup, on a deux orbites sous l’action de SG.
On en déduit que G est isomorphe à Dn .
Sous-groupes de SO3 (R). Soit G un sous-groupe de SO3 (R) d’ordre N. Chaque élément non trivial est
une rotation, donc fixe deux points opposés sur la sphère S2 . On note X = XG l’ensemble de ces points.
Comme ci-dessus, G opère sur X.
Le stabilisateur de chaque point x de X fixe le plan orthogonal x⊥ . Sa restriction est un sous-groupe
fini de SO2 (R), donc isomorphe à Z/rx Z. Son orbite est donc d’ordre nx = N/rx . Chaque point x est
146 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
le point fixe de (rx − 1) rotations, étant différentes pour tous les autres points excepté son opposé. Du
coup, on a
X X
2N − 2 = (rx − 1) = nj (rj − 1) .
x∈X j∈X/G
On en déduit que
X
2 − 2/N = (1 − 1/rj ) .
j∈X/G
Par conséquent, on a au plus trois orbites. D’autre part, le groupe G n’opère pas transitivement sur X.
En effet, on aurait 2 − 2/N = 1 − 1/r, soit 1 = 2/N − 1/r ≤ 1/N, puisque r ≤ N ! !
Proposition 12.1.12.2. Si on a deux orbites, alors G est un groupe de rotations du plan, isomorphe à
Z/NZ.
1 1 1 2
+ + =1+ ,
r1 r2 r3 N
où on choisit r1 ≤ r2 ≤ r3 .
Si r1 ≥ 3, alors le terme de gauche est plus petit que 1 alors que le second est strictement plus grand.
Donc r1 = 2.
Si r2 = 2, alors 1/r3 = 2/N, soit N = 2r3 . On a donc rj = (2, 2, N/2) et nj = (N/2, N/2, 2).
Si r2 ≥ 3 alors 1/r3 = 1/2 + 2/N − 1/r2 > 1/2 − 1/3, donc r3 < 6.
— Si rj = (2, 3, 3) alors N = 12 et nj = (6, 4, 4).
— Si rj = (2, 3, 4) alors N = 24 et nj = (12, 8, 6).
— Si rj = (2, 3, 5) alors N = 60 et nj = (30, 20, 12).
Si r2 ≥ 4, alors
1 1 1 2
+ + ≤1<1+ ,
r1 r2 r3 N
donc on a la liste complète.
12.1. GÉNÉRALITÉS 147
N = 2r rj = (2, 2, r) nj = (r, r, 2) .
Démonstration. Les points opposés ont les mêmes comportements donc la troisième orbite est consti-
tué de deux points opposés. Par suite, G fixe leur orthogonale, et les isométries qui ne fixent pas ces points
sont des symétries sur ce plan. Donc il s’agit du groupe diédral.
Si on n’est pas dans un des cas précédents, alors aucune orbite n’est planaire. En effet, la restriction au
plan nous ramenerait aux cas déjà traités.
Proposition 12.1.12.4. Si N = 12, rj = (2, 3, 3), et nj = (6, 4, 4) alors G est le groupe d’isométries
d’un tétraèdre, et est isomorphe à a4 .
Démonstration. Soit x ∈ o(2). Son stabilisateur est un groupe de rotations qui opère sur son orbite,
donc sur trois points. Ces points forment un triangle équilatéral. Il s’agit donc d’un tétraèdre. De plus,
G opère sur ces sommets : il s’identifie à un sous-groupe de permutation à 4 éléments S4 . Or le seul
endomorphisme qui fixe ces quatre points non coplanaires est l’identité. Donc G est un sous-groupe
d’indice 2 : il s’agit de a4 .
Proposition 12.1.12.5. Si N = 24, rj = (2, 3, 4), et nj = (12, 8, 6) alors G est le groupe d’isométries
d’un cube et d’un octaèdre, et est isomorphe à S4 .
Démonstration. Le stabilisateur d’un point x ∈ o(3) opère sur o(2), en deux orbites. Chacune forme
un carré, et ces deux carrés ne peuvent pas être coplanaires. En changeant de point de o(3), on voit que
o(2) sont les sommets d’un cube dont les faces sont dans la direction des points de o(3) et les arêtes de
o(1).
Or G opère sur les paires de sommets opposés, donc on a un morphisme φ : G → S4 . Si φ(g) est
l’identité, et g échange deux sommets, alors, puisqu’il n’y a que deux points fixes, g échange au moins
deux autres paires. Par suite, g = − Id, mais g est une rotation, donc c’est impossible, et φ est injective.
Par dualité, l’envoloppe convexe de o(3) est un octaèdre de faces centrées sur o(2).
On remarque que le cube contient deux tétraèdres “opposés”, en considérant pour arêtes des diagonales
des faces. Le groupe préserve ces tétraèdres ou les échange. On peut ainsi en déduire que a4 est un
sous-groupe d’indice 2 de G, donc distingué.
148 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
Proposition 12.1.12.6. Si N = 60, rj = (2, 3, 5), et nj = (30, 20, 12) alors G est le groupe d’isométries
d’un dodécaèdre et d’un icosaèdre, et est isomorphe à a5 .
Donc g = Id. Notre groupe est donc un sous-groupe de S5 d’indice 2 (pour une question d’ordre), il s’agit
de a5 .
Solides de Platon
Retour / Bas
solides platoniciens
Haut
Sous-groupes distingués. Si G est un sous-groupe fini de SO3 (R), et si H est un sous-groupe de G,
alors XH ⊂ XG . Si x ∈ XH , g ∈ G, alors il existe h ∈ H tel que h(x) = x, et ghg −1 (gx) = gx. Donc
l’action de G induite par automorphismes intérieurs sur H est en correspondance avec l’action de G sur
les images de XH .
12.1. GÉNÉRALITÉS 149
Si de plus H est distingué, alors XH est préservé. Donc G opère sur XH , et chaque point de XH a une
orbite par H qui est une sous-orbite pour G. Autrement dit, oH (x) divise oG (x), et XH est une réunion
d’orbites de G. Du coup, les orbites dans XH de G se décomposent en orbites de H. On montre ainsi
facilement que a5 est simple.
Remarque(s) 12.1.12.7. Un polytope convexe est une intersection de demi-espaces affines d’intérieur
non vide. Si P est un polytope convexe, on peut supposer que l’origine est dans son intérieur. Si on
projette le bord de P sur S2 , alors on obtient une triangulation de la sphère en sommets, arêtes et faces.
Si on note s le nombre de sommets, a le nombre d’arêtes et f le nombre de faces, alors s − a + f = 2.
En effet, chaque fois que l’on supprime un sommet avec les arêtes qui le contient, on enlève autant de
faces que d’arêtes, sauf que le sommet se transforme en face : s − a + f reste constant lorsque l’on
diminue le nombre de sommets. Lorsqu’il ne reste plus que 4 sommets, alors on peut vérifier la formule.
La classification des formes quadratiques permet d’étudier les quadriques comme on l’a vu dans le cas
réel (ou dans le cas complexe -cf. TD-). Elle est le premier pas pour aborder leur arithmétique. On se
propose ici de s’intéresser aux intersections de deux quadriques, l’une étant non dégénérée (hypothèse
assez faible en fait -pourquoi ?-). Le lecteur intéressé pourra consulter [HP94], th 1, p. 278 pour une
preuve plus savante.
Soit donc q1 , q2 deux formes quadratiques sur un k-espace vectoriel V de dimension finie n avec q1 non
dégénérée. On note b1 , b2 les formes bilinéaires associées et Sℓ = (bℓ (ei , ej ))i,j , ℓ = 1, 2 les matrices dans
une base B = (ei ) choisie arbitrairement. On a donc S1 ∈ GLn (k).
Si k = R et que q1 est définie, le théorème de réduction 12.1.6.1 assure qu’on peut trouver une base telle
que la matrice de q1 soit l’identité et celle de q2 soit diagonale, de sorte qu’on se ramène à un « pinceau
diagonal ») :
X X
q1 (x) = x2i et q2 (x) = λi x2i .
Qu’en est-il dans le cas général ? D’une manière générale, on parlera d’un pinceau diagonal pour
X X
q1 (x) = µi x2i et q2 (x) = λi x2i .
150 CHAPITRE 12. GÉOMÉTRIE EUCLIDIENNE
Ainsi (q1 , q2 ) est un pinceau diagonal dans une base convenable si et seulement si il existe une base de
co-orthogonalisation.
Théorème 12.1.13.1. Avec les notations précédentes, q1 , q2 est un pinceau diagonal dans une base
convenable si et seulement si S−1
1 S2 est diagonalisable sur k. C’est en particulier le cas si
Comme on l’a vu, en général, S−1 1 S2 n’est pas diagonalisable, même avec S1 = Id (cf. 12.1.6.2).
√
Notons également que si k est algébriquement clos, on peut prendre µi = 1 (changer ei en ei / µi ), les
valeurs propres de S−1
1 S2 sont les quotients λi /µi .
Supposons u diagonalisable. On procède par récurrence sur n, le cas n = 1 étant tautologique. Supposons
n > 1 et la proposition vraie en dimension < n.
Si u est une homotéthie µ Id, alors q2 = µq1 et (q1 , q2 ) est un pinceau diagonal dans n’importe quelle
base orthogonale de q1
Supposons donc que u n’est pas une homotéthie. Les espaces propres de u sont deux à deux orthogonaux
pour q1 : si x ∈ Ker(u − λ Id), x′ ∈ Ker(y − λ′ Id) avec λ ̸= λ′ , on a
et donc (x, x′ )1 = 0. En prenant pour chaque espace propre une base q1 -orthogonale, on obtient donc
une base q1 -orthogonale B = (ei ) de vecteurs propres de u. Soit P la matrice de passage de B à B à (les
colonnes de P sont les coordonnées des vecteurs de B relativement à B). On a
−1
MatB (u) = P−1 S−1
1 S2 P = (P
−1 −1 t −1 t
S1 P )( PS2 P) = (t PS1 P)−1 (t PS2 P) = S1 S2 .
−1
avec Sℓ matrices de qℓ dans B′ . Par construction, tant S1 que MatB (u) = S1 S2 sont diagonales et donc
il en de même de S2 qui est leur produit.
La réciproque est claire car si le pinceau est diagonal en considérant B une base B de diagonalisation,
−1
tant S1 que S2 sont diagonalise et donc de même pour S1 S2 . qui est semblable à S−1
1 S2 comme on vient
de le voir.
Le dernier point signifie que u admet n valeurs propres distinctes : u est bien diagonalisable.
Chapitre 13
Géométrie hermitienne
13.1 Généralités
Définition 13.1.0.1. Un espace hermitien complexe est un espace vectoriel de dimension finie sur C
muni d’une forme quadratique hermitienne q définie positive.
Théorème 13.1.0.2. La partie réelle d’un produit scalaire hermitien est une produit scalaire sur le
R-espace vectoriel sous-jacent. C’est en particulier un espace vectoriel normé.
Inégalité de Cauchy-Schwarz. — Soit (E, q) un C-espace vectoriel de dimension finie muni d’une
forme hermitienne positive (pour tout x ∈ E, on a q(x) ≥ 0). On a, pour tout x, y ∈ E,
p p
(Re b(x, y)) ≤ q(x) q(y)
Définition 13.1.0.3. Une base orthonormée est une base B = (e1 , . . . , en ) telle que b(ei , ej ) = δi,j , où
δi,j est le symbole de Kronecker.
Théorème 13.1.0.4. Dans un espace hermitien, il existe toujours une base orthonormée.
Dans une telle base, la matrice de q est l’identité. Du coup, les éléments unitaires sont représentés par
des matrices M telles que tM · M = I. Dans cette situation, on appelle la forme polaire un produit scalaire
hermitien et on le note communément ⟨·, ·⟩. Dans une base orthonormée, on a ⟨X, y⟩ =t X · Y.
151
152 CHAPITRE 13. GÉOMÉTRIE HERMITIENNE
L’orthogonalisation de Gram-Schmidt implique aussi que, pour tout sous-espace F de E, il existe une
base orthonormée dont les premiers dim F vecteurs forment une base de F.
Démonstration. Soit B = (e1 , . . . , en ) une base orthonormée ; on note M = (b(ei , ej ))i,j la matrice
de b. On note X, Y les vecteurs coordonnées de x, y ∈ E. On a
X
b(x, y) = xi yj b(ei , ej ) =t X · MY = ⟨tMX, Y⟩ = ⟨X, MY⟩ .
i,j
On a bien
Xn
⟨e i , u(e j )⟩ = b(ek , ej )⟨ek , ei ⟩ = b(ei , ej ) ,
k=1
n
X
⟨v(e i ), e j ⟩ = b(ei , ek )⟨ej , ek ⟩ = b(ei , ej ) .
k=1
Définition 13.1.0.6. Si u ∈ End(E), on appelle adjoint de u, que l’on note u∗ , l’endomorphisme tel
que, pour tout x, y ∈ E,
⟨u(x), y⟩ = ⟨x, u∗ (y)⟩ .
L’adjoint existe toujours d’après la proposition précédente puisque b : (x, y) 7→ ⟨x, u(y)⟩ est sesquilinéaire.
De plus, u∗∗ = u.
Si M est la matrice de u dans une base orthonormée, alors
Rappelons qu’un endomorphisme est normal s’il commute avec son adjoint. Le résultat principal de ce
paragraphe est le suivant. Les résultats et les preuves sont en tout point analogues au cas réel, en plus
simple car on a toujour ds droites stables.
Théorème 13.2.0.1. Pour tout endomorphisme normal u d’un espace hermitien, il existe une base
orthonormée de E qui diagonalise u. Si u est hermitien, alors les valeurs propres sont réelles, si u est
antihermitien, elles sont imaginaires pures et si u est unitaire, alors elles sont de module 1.
2. u et u∗ ont leurs valeurs propres conjuguées et partagent les mêmes espaces propres. Ceux-ci sont
orthogonaux deux à deux.
4. Si F est stable par u, alors F est aussi stable par u∗ , et F⊥ est stable par u et u∗ .
Démonstration. 1. Si u est normal, alors, pour tout x ∈ E, on a ∥u(x)∥ = ∥u∗ (x)∥. En effet,
∥u(x)∥2 = ⟨u(x), u(x)⟩ = ⟨x, u∗ (u(x))⟩ = ⟨x, u(u∗ (x))⟩ = ⟨u∗ (x), u∗ (x)⟩ = ∥u∗ (x)∥2 .
2. provient du fait que u+λI est normal si u est normal, donc Ker(u+λ Id) = Ker(u∗ +λ Id) d’après ci-
dessus. Soient λ, µ deux valeurs propres distinctes, et x, y deux vecteurs propres associés : u(x) = λx
et u(y) = µy. Il vient
3. Puisque C est algébriquement clos, il existe toujours une valeur propre et un vecteur propre associé.
154 CHAPITRE 13. GÉOMÉTRIE HERMITIENNE
4. On considère une base orthonormée de E telle que les premiers p = dim F vecteurs forment une base
de F et les derniers une base de F⊥ . Dire que F est stable par u signifie qu’il existe des matrices
A ∈ Mp (C), B ∈ Mp,n−p (C) et C ∈ Mn−p (C) telles que la matrice de u s’écrive
A B
Mat(u) =
0 C
Dire que u est normal signifie que A · tA + B ·tB =t A · A. Or, un simple calcul montre que tr(A ·tA) =
tr(tA · A), donc tr(B · tB) = 0. Mais, si B = (bij )1≤i≤p,1≤j≤n−p , alors
p n−p p n−p
!
X X X X
t
tr(B · B) = bjk bjk = |bjk |2 .
j=1 k=1 j=1 k=1
Démonstration. L’application est exp est continue, et si M ∈ Hn (C), alors il existe U ∈ U(n) telle
que U−1 MU soit diagonale. On en déduit que exp M = U(exp U−1 MU)U−1 ∈ Hn++ (C). Réciproquement,
si M ∈∈ Hn++ (C), il existe U ∈ U(n) telle que U−1 MU soit diagonale avec des valeurs propres strictement
positives. On peut alors considérer la matrice N diagonale formée des logarithmes des valeurs propres de
M. On a UNU−1 ∈ Hn (C) et exp(UNU−1 ) = M.
Il reste à voir que l’application est injective. On suppose donc que exp M = exp N. Quitte à changer de
base, on peut supposer que M est diagonale. Par suite, exp M est diagonale aussi. Ceci montre que les
valeurs propres de M et exp M sont liées, ainsi que les espaces propres associés. Il en est donc de même
pour N. On en déduit que M = N.
Enfin, pour voir que l’application réciproque est continue, on observe que Hn (C) admet une exhaustion
par des compacts en considérant celles dont le spectre est contenu dans un intervalle compact. Du coup,
chaque restriction est un homéomorphisme sur son image.
13.3. LE GROUPE UNITAIRE 155
Corollaire 13.3.0.2. Si u ∈ U(E), alors | det u| = 1 et donc SU(E) = det−1 {1} ∩ U(E) est distingué.
Démonstration. On montre d’abord que U(E) est connexe par arcs. Le þde réduction nous permet
de diagonaliser en base orthonormée tout éléments de U(E) : étant donné U ∈ U(E), il existe U
b ∈ U(E)
et θ1 , . . . , θn ∈ R tels que
eiθ1 0
U=U .. b −1
b . U .
0 eiθn
156 CHAPITRE 13. GÉOMÉTRIE HERMITIENNE
Décomposition polaire. L’application Φ : U(n) × Hn++ (R) → GLn (C) définie par Φ(U, H) = UH est
un homéomorphisme.
b ∈ U(n) telle
Démonstration de la décomposition : existence. — D’après le lemme, il existe U
que
λ1 0
b −1 · (tM · M) · U
U b = ..
.
0 λn
soit diagonale avec des valeurs propres strictement positives. On note
√
λ1 0
H=U· .. b −1
·U
b .
√
0 λn
t
U · U =t (H−1 ) · (tM · M) · H−1 = H−1 H2 H−1 = I .
p
Démonstration de la décomposition : unicité. — Soit P ∈ C[X] tel que P(λj ) = λj . On a
λk1 0 P(λ1 ) 0
P(tM · M) =
X
b · .. b −1 b .. b −1
ak U . ·U =U· . · U = H.
0 λkn 0 P(λn )
13.3. LE GROUPE UNITAIRE 157
Donc, si M admet une seconde décomposition polaire M = U′ H′ alors tM · M = (H′ )2 donc H′ commute
avec tM·M, donc avec H puisque H est un polynôme en tM·M. Du coup, H et H′ peuvent être diagonalisées
simultanément (en effet, Eλi (H) = ⊕(Eλi (H)∩Eµj (H′ ))). Ceci oblige les valeurs propres à coïncider, donc
ces matrices sont les mêmes.
a UH = U(
b Ub −1 M). Par l’unicité de la décomposition polaire, on obtient U = U
b et Hn tend vers H.
Démonstration. On suppose qu’il existe U ∈ Un (C) telle que AU = UB. On écrit U = U1 + iU2 , où
U1 et U2 sont des matrices réelles. Puisque tU = U−1 , on a U−1 =t U1 − itU2 .
De plus, la similitude de A et B implique AU1 = U1 B et AU2 = U2 B. Par suite, si λ ∈ R, alors
A(U1 + λU2 ) = (U1 + λU2 )B. On écrit Q(λ) = det(U1 + λU2 ) ∈ R[λ]. Comme Q(i) = det U ̸= 0, on en
déduit que Q est un polynôme non nul, donc il existe λ ∈ R tel que Q(λ) ̸= 0 et P := U1 +λU2 ∈ GLn (R).
t
D’autre part, tA =t U−1 tBtU = U BU−1 donc tA = UtBU−1 et tAP = PtB. On a
donc tPPB = BtPP. Or, la décomposition polaire nous donne P = OS, où S est un polynôme en tPP.
Donc BS = SB et on obtient
Démonstration. On a
GLn (C) ≈ Un (C) × Hn++ (C)
Remarque.— On a une démonstration plus simple : soient P, Q ∈ GLn (C), et notons R(λ) = det(P +
λQ) qui est un polynôme complexe non nul puisque R(0) ̸= 0. Donc il existe un chemin dans C \ R−1 {0}
qui relie λ = 0 à λ = 1.
158 CHAPITRE 13. GÉOMÉTRIE HERMITIENNE
Proposition 13.3.0.8. SUn (C) (resp. Un (C)) est un sous-groupe compact maximal de SLn (C) (resp.
GLn (C)).
Démonstration. Soit G ⊂ SLn (C) un sous-groupe compact qui contient SUn (C), et soit g ∈ G \
SUn (C). On a g = UH avec U ∈ SUn (C) car det g > 0 et H ̸= I car g ̸∈ SUn (C). Donc H ∈ G. Or si v
est un vecteur propre associé à une valeur propre λ de H de moule différent de 1, alors Log ∥Hn x∥ tend
vers l’infini, ce qui contredit la compacité de G. Donc H ∈ SUn (C).
Remarque(s) 13.3.0.9. Il est facile de voir que O2 (C) n’est pas compact, donc On (C) non plus.
Proposition 13.3.0.10. Les espaces GLn (C) et SLn (C) sont respectivement homéomorphes à Un (C) ×
2 2
−1
Cn et SUn (C) × Cn .
2
Démonstration. L’application exp : Hn (C) → Hn++ (C) est un homéomorphisme et Hn (C) ≈ Cn ,
donc
2
GLn (C) ≈ Un (C) × Hn++ (C) ≈ Un (C) × Cn .
De même, SLn (C) ≈ SUn (C) × (Hn++ (C) ∩ SLn (C)) et l’application exp : Hn (C) ∩ tr−1 {0} → Hn++ (C) ∩
SLn (C) est un homéomorphisme.
t
AA = (exp itΘ)tOO exp iΘ = exp i(tΘ + Θ) = In .
n(n−1)
Comme corollaire, on en déduit que On (C) est homéomorphe à On (R) × R 2 et que On (C) a
exactement deux composantes connexes.
13.4. APPENDICE : LE CAS DE SU2 (C) 159
que l’on munit de q(M) = det(M). Alors H est un espace euclidien de dimension 4 et SU2 (C) s’identifie
à la sphère unité de H.
Démonstration. Il est aisé de voir que H est un R-espace vectoriel de dimension 4. Le déterminant
est bien une forme quadratique par le théorème de Cayley-Hamilton : on constate que
1
det M = ((tr M)2 − tr M2 )
2
Démonstration. On note H0 = H ∩ tr−1 {0} l’ensemble des quaternions purs (on a I⊥ = H0 ). Cet
espace H0 est un R-espace vectoriel de dimension 3. L’application
x1
ix 1 −x 2 + ix 3
P : X = x2 7→
x2 + ix3 −ix1
x3
Remarque(s) 13.4.0.3. Le lecteur connaissant la notion de sous-variété pourra trouver une preuve plus
naturelle en regardant la conjuqaison de SU2 sur son espace tangent à l’origine. Ceci équivaut à regarder
l’action par conjugaison sur l’espace des matrices antihermitiennes muni de la forme quadratique positive
invariante q(M) = − tr(M2 ) dite forme de Killing.
Théorème 13.4.0.4. On a
SU2 × SU2 /{±(I, I)} ≈ SO4 .
Démonstration. On fait agir SU2 × SU2 sur H par (U, V) · H 7→ UHV−1 . Cette application continue
envoie SU2 × SU2 dans O4 , mais comme SU2 × SU2 est connexe, on définit ainsi un morphisme Φ :
SU2 × SU2 → SO4 .
Si (U, V) ∈ Ker Φ, alors, pour tout A ∈ H, on a UAV−1 = A. En particulier, pour A = I, on obtient
U = V. Ceci nous ramène à un cas connu... On en déduit que Ker Φ = {± Id}.
Montrons la surjectivité. Il suffit de montrer que tout renversement est dans l’image de Φ. On se fixe
donc un plan de H engendré par deux éléments orthogonaux et unitaires M1 et M2 . Il existe U ∈ SU2 (C)
−1
telle que UM1 ∈ H⊥
0 = RI (prendre U = M1 , en remarquant que M1 ∈ SU2 ). Du coup, UM2 ∈ H0 : on
s’est ramené à la situation précédente : on cherche (U, V) ∈ SU2 tel que Φ(U, V) fixe H⊥
0 et un élément
Exercice(s) 13.4.0.5. Montrer que les deux isomorphismes précédents sont des homéomorphismes.
Chapitre 14
Index et bibliographie
161
Index
base, E
ante-duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73 ellipsoïde de Loewner . . . . . . . . . . . . . . . . . . . . . . . . . 137
duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 endomorphisme,
bicommutant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 cyclique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
absolument semi-simple . . . . . . . . . . . . . . . . . . . 65
C
auto-adjoint . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
commutant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 48
diagonalisable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
complexe de modules . . . . . . . . . . . . . . . . . . . . . . . . . . 15
normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
conoyau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .20
normal réel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
contenu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
crochet de dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
semi-simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .65
D unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
diagramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 entier (élément) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
diagramme commutatif . . . . . . . . . . . . . . . . . . . . . . . . 17 espace,
discriminant d’un polynôme . . . . . . . . . . . . . . . . . . . . 28 anisotrope . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .111
diviseurs élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . 32 caractéristique. . . . . . . . . . . . . . . . . . . . . . . . . . . . .79
division euclidienne généralisée . . . . . . . . . . . . . . . . . 38 euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
dualité, stable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
contravariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 totalement isotrope. . . . . . . . . . . . . . . . . . . . . . .111
162
INDEX 163
F de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
factoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98, 101 irréductible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
foncteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 irréductibles,
fonctorialité, de R[T] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
des composantes primaires. . . . . . . . . . . . . . . . .25 existence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
du conoyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 unicité de la décomposition en . . . . . . . . . . . . . 99
du noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 isométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
forme bilinéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 isotrope,
forme bilinéaire, espace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .111
dégénérée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 espace totalemen . . . . . . . . . . . . . . . . . . . . . . . . . 111
noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
forme hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
L
forme polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
lemme,
forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
chinois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
forme quadratique,
chinois (variante) . . . . . . . . . . . . . . . . . . . . . . . . . . 23
discriminant. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .114
d’Euclide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
définie positive . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
de Farkas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .75
indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
de Hensel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
orthogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
de Morse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
forme sesquilinéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
de Nakayama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
G des cinq . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
groupe orthogonal des noyaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
spécial SO(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
M
groupe orthogonal,
module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
d’une forme quadratique O(q) . . . . . . . . . . . . 117
module,
groupe symplectique . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Va . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
groupe unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
de torsion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
H associé à un endomorphisme . . . . . . . . . . . . . . . 14
hyperbolique (plan) . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 cyclique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
noethérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
I
quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
identité de la médiane . . . . . . . . . . . . . . . . . . . . . . . . 125
semi-simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .62
inégalité de Cauchy-Schwarz,
monoïde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
morphisme,
réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
inertie de Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
invariants de similitude . . . . . . . . . . . . . . . . . . . . . 42, 43 N
inégalité, noethérien,
164 INDEX
anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 des anti-hermitiens . . . . . . . . . . . . . . . . . . . . . . . 153
théorème de transfert de Hilbert . . . . . . . . . . . 95 des hérmitiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
des normaux complexes . . . . . . . . . . . . . . . . . . 153
O
des normaux réels . . . . . . . . . . . . . . . . . . . . . . . . 131
ordre,
des unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
≤ sur les partitions . . . . . . . . . . . . . . . . . . . . . . . . 84
pinceau quadratique complexe . . . . . . . . . . . . 150
≤ sur les types . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
réflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
⪯ sur les partitions . . . . . . . . . . . . . . . . . . . . . . . . 84
résultant de Sylvester . . . . . . . . . . . . . . . . . . . . . . . . . . 28
⪯ sur les types . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
S
P
section . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
partition,
semi-simple,
d’un entier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
PGCD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
pinceau quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . 149
similitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
simplicité de SO(3, R) . . . . . . . . . . . . . . . . . . . . . . . . 144
PPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
primaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
suite exacte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
primitif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
suite exacte,
projecteurs,
scindée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
famille orthogonale . . . . . . . . . . . . . . . . . . . . 24, 79
spectraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 T
propriété universelle, type . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
de la somme de modules . . . . . . . . . . . . . . . . . . . 21
du conoyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
du noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
du produit de modules . . . . . . . . . . . . . . . . . . . . 21
Q
quaternions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
R
renversement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
ruse du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
réduction,
de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
isométries réelles . . . . . . . . . . . . . . . . . . . . . . . . . 132
anti auto-adjoints réels . . . . . . . . . . . . . . . . . . . 134
auto-adjoints réels . . . . . . . . . . . . . . . . . . . . . . . . 133
Bibliographie
[Bev16] Anthony J. Bevelacqua. A family of non-Euclidean PIDs. Amer. Math. Monthly, 123(9) :936–
939, 2016.
[Bis67] Errett Bishop. Foundations of constructive analysis. McGraw-Hill Book Co., New York-
Toronto-London, 1967.
[BMS67] H. Bass, J. Milnor, and J.-P. Serre. Solution of the congruence subgroup problem for SLn (n ≥ 3)
and Sp2n (n ≥ 2). Inst. Hautes Études Sci. Publ. Math., (33) :59–137, 1967.
[Bor91] Armand Borel. Linear algebraic groups, volume 126 of Graduate Texts in Mathematics.
Springer-Verlag, New York, second edition, 1991.
[Ger61] Murray Gerstenhaber. On dominance and varieties of commuting matrices. Ann. of Math. (2),
73 :324–348, 1961.
[Gra81] Daniel R. Grayson. Sk1 of an interesting principal ideal domain. Journal of Pure and Applied
Algebra, 20 :157–163, 1981.
[HP94] W. V. D. Hodge and D. Pedoe. Methods of algebraic geometry. Vol. II. Cambridge Mathe-
matical Library. Cambridge University Press, Cambridge, 1994. Book III : General theory of
algebraic varieties in projective space, Book IV : Quadrics and Grassmann varieties, Reprint
of the 1952 original.
[Jac85] Nathan Jacobson. Basic algebra. I. W. H. Freeman and Company, New York, second edition,
1985.
[Mil66] J. Milnor. Whitehead torsion. Bull. Amer. Math. Soc., 72 :358–426, 1966.
[Ros94] Jonathan Rosenberg. Algebraic K-theory and its applications, volume 147 of Graduate Texts
in Mathematics. Springer-Verlag, New York, 1994.
165
166 BIBLIOGRAPHIE
[Ros20] Hjalmar Rosengren. Proof of the duality of the dominance order on partitions. https://math.
stackexchange.com/q/3429855, 2020.
[vdW50] B. L. van der Waerden. Modern Algebra. Vol. II. Frederick Ungar Publishing Co., New York,
N. Y., 1950.