Livre Agregation Licence Mathematiques 2006111600

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 465

Mathématiques

Guy Abossolo foh

71 rue Guy de Maupassant


69500 Bron
Résumé
Agrégation et Licence de Mathématiques Résumé de Cours http://www.scientificware.com

3
Chapitre 1
L’alphabet grec
α β γ δ ε ζ
A B Γ ∆ E Z
alpha bêta gamma delta epsilon dzeta

η θ ι κ λ µ
H Θ I K Λ M
êta têta iota kappa lambda mu

ν ξ o π ρ σ
N Ξ O Π P Σ
nu xi omicron pi rhô sigma

τ υ ϕ χ ψ ω
T Υ Φ X Ψ Ω
tau upsilon phi chi psi omega

5
L’alphabet grec 7
Chapitre 2
Notions fondamentales sur les ensembles

2.1 Divers
Ecrire la définition d’une famille (voir Monier) et corriger tous les énoncés où ensemble est
employé à la place de famille.
x ∈ A ∪ B ⇔ x appartient à A ou B c’est un ou inclusif.
x ∈ A∆B ⇔ x appartient à A ou B exclusivement c’est un ou exclusif.
Comment se ramène-t-on d’un calcul sur P(E) avec ∆; ∪ ; ∩ ; − à un calcul algébrique, à lire
pour savoir où il faut l’intégrer (évidement pour faciliter les opérations sur ∆; ∪ ; ∩ ; − ).
Sur P(E), on peut définir une structure d’anneau au sens algébrique (voir livre J. Genet
 
page 12). On définit 2 lois + : (A, B) A + B = A∆B ; × : (A, B) A × B = A ∩ B.
A retenir :
A∆B = A + B
A∩B =A×B
A−B =A+A×B
A ∪ B = (A + B) + A × B
A×A=A
A+A=∅
Trouver toutes les relations entre CE , ∪ , ∩ , − , ∆.

2.2 Recouvrement
E Ua
Ub
Ua
Ub
Uf
A Uc Uf E
Uc Ue
Ud Ud
Ue

Définition 2.1. Soit E un ensemble et A une partie de E.


On appelle recouvrement de A, une famille (Ui)i∈I de parties de E telle que :
S
A ⊂ i∈I (Ui)i∈I ⊂ E.

Définition 2.2. Le recouvrement est dit fini si et seulement si I est fini.

Remarque 2.3.
1. Un recouvrement (Ui)i∈I de E vérifie : E = (Ui)i∈I .
S
i∈I

2. En topologie, on définit la notion de recouvrement ouvert (voir chapitre Topologie).

Définition 2.4. Soit E un ensemble et (Ui)i∈I un recouvrement d’une une partie A de E.


On appelle sous-recouvrement de (Ui)i∈I toute sous-famille (Uj ) j ∈J avec J ⊂ I.

8
2.4 Quelques notations usuelles 9

2.3 Relations sur des ensembles


Proposition 2.5. Soit f : E → E ′ une application, A et B deux parties de E.
• A ⊂ B ⇒ f (A) ⊂ f (B),
• f (A ∪ B) = f (A) ∪ f (B),
• f (A ∩ B) ⊂ f (A) ∩ f (B), il y a égalité si f est injective.

Proposition 2.6. Soit f : E → E ′ une application, A ′ et B ′ deux parties de E ′.


• A ′ ⊂ B ′ ⇒ f −1(A ′) ⊂ f −1(B ′),
• f −1(A ′ ∪ B ′) = f −1(A ′) ∪ f −1(B ′),
• f −1(A ′ ∩ B ′) = f −1(A ′) ∩ f −1(B ′),
c
• f −1(Ac) ⊂ f −1(A) . Démonstration ?

Proposition 2.7. Soit f : E → E ′ une application, A et A ′ deux parties de E et E ′.


• A ⊂ f −1(f (A)),Démonstration, voir Monier ?
• f (f −1(A ′)) ⊂ A ′. Idem

Justification : 1 seule image mais plusieurs antécédents. Dans quelles conditions y-a-t-il égalité :

f injective ou f bijective je pense que c’est f injective car dans ce cas f : A f (A) est une bijec-
tion !

Proposition 2.8. Soit f : E → E ′ une application et (Ai)i∈I un famille de parties de E.


S  S
• f i∈I Ai = i∈I f (Ai),

i∈I f (Ai), il y a égalité si f est injective.


T  T
• f i∈I Ai ⊂

Proposition 2.9. Soit f : E → E ′ une application et (Ai)i∈I un famille de parties de E ′.


• f −1 −1
S  S
i∈I Ai = i∈I f (Ai),
• f −1 −1
T  T
i∈I Ai = i∈I f (Ai).

2.4 Quelques notations usuelles


Soit Ω un ensemble et f , g deux applications Ω → R̄. On définit les ensembles suivants :
• [f < g] = {x ∈ Ω; f (x) < g(x)},
• [f 6 g] = {x ∈ Ω; f (x) 6 g(x)},
• [f = g] > {x ∈ Ω; f (x) = g(x)}.
Cas particulier : f : Ω → R̄ et α, β ∈ R̄
• [f < β] = f −1([ − ∞; β[),
10 Notions fondamentales sur les ensembles

• [α 6 f < β] = f −1([α; β[),


• [f > β] = f −1([β; + ∞]),
• ...

2.5 Dénombrement

2.5.1
Rajouter le chapitre sur le dénombrement du cours de calcul intégral de M. Goldman (licence de
mathématiques)
Soient E , f avec F ⊂ E alors CFM = (CEM ) ∩ F .
si E = E1 × E2 et F = F1 × F2 alors E ∩ F = (E1 ∩ F1) × (E2 ∩ F2)

2.5.2 Ensembles finis


Proposition 2.10. Si E est un ensemble fini, alors :
F ⊂ E ⇒ F finie et Card(F ) 6 Card(E).

Proposition 2.11.
1. Soit E , F deux ensembles finis, alors :
Card(E ∪ F ) = Card(E) + Card(F ) − Card(E ∩ F ).
2. Soient E1,  , En des ensembles finis, n ∈ N∗ , alors :
a) (Formule du crible ou de Poincaré ou principe d’exclusion-inclusion)
Sn  Pn  
Card − k−1
Card .
P T
i=1 E i = k=1 ( 1) I ∈Pk i∈I Ei

Pk l’ensemble des parties à k éléments de {1,  , n}


b) si les Ei sont
S n deux à deux
Pn disjoints alors :
Card i=1 E i = i=1 Card(Ei).

Exemple 2.12. n = 3, Card(E1 ∪ E2 ∪ E3) = ( − 1)1−1(Card(E1) + Card(E2) + Card(E3)) + ( −


1)2−1(Card(E1 ∩ E2) + Card(E1 ∩ E3) + Card(E2 ∩ E3)) + ( − 1)3−1(Card(E1 ∩ E2 ∩ E3)) =
Card(E1) + Card(E2) + Card(E3) − Card(E1 ∩ E2) − Card(E1 ∩ E3) − Card(E2 ∩ E3) + Card(E1 ∩
E2 ∩ E3)

Proposition 2.13.
1. Soit E , F deux ensembles finis, alors :
Card(E × F ) = Card(E) × Card(F )
2. Soient E ; E1,  , En des ensembles finis, n ∈ N∗ , alors :
Qn  Qn
a) Card i=1 Ei = i=1 Card(Ei).

b) En particulier Card(E n) = Card(E)n.


2.5 Dénombrement 11

Rajouter : inf,sup,max,min
Chapitre 3
Topologie générale

3.1 Espaces topologiques


Il existe deux manières de définir une topologie : par les ouverts ou par les voisinages (voir ency-
clopédie de mathématiques P.U.F.).

3.1.1 Topologies, ensembles Ouverts et Espaces Topologiques


Définition 3.1. Soit E un ensemble non vide.
Une famille O de parties de E est une topologie sur E si et seulement si :
• E ∈ O et ∅ ∈ O
• La réunion d’une famille quelconque d’élément de O appartient à O[axiome de stabilité
par réunion quelconque].
• L’intersection d’une famille finie d’élément de O appartient à O [axiome de stabilité par
intersection finie].

Définition 3.2. Les éléments d’une topologie O sont appelés ensembles O-ouverts ou ouverts.
Définition 3.3. Soit E un ensemble et O une topologie sur E. On appelle espace topologique
le couple (E , O).

Exemple 3.4.
1. Toute espace métrique E est un espace topologique : Considérons O l’ensemble des pear-
ties V de E
∗. qui sont vides : V = ∅
∗. ou telles que pour tout point x, il existe une boule ouverte de centre x et contenue
dans une boule ouverte de centre x et de rayon r > 0 elle même contenue dans
cette partie V : ∀x ∈ V ; ∃r > 0; B(x; r) ⊂ V
alors O est une topologie sur E.

Démonstration. Cours TCD Benabdallah page 3 

2. Soit E un ensemble. La famille O = {∅, E } est une topologie sur E, appelée topologie
grossière. C’est la topologie qui contient le moins d’ouverts. (E , O) est appelé espace
topologique grossier.
3. Soit E un ensemble. La famille O = P(E) est une topologie sur E, appelée topologie dis-
crète. C’est la topologie qui contient le plus d’ouverts. (E , O) est appelé espace topolo-
gique discret.

3.1.2 Ensembles Fermés


Définition 3.5. Soit (E , O) un espace topologique et A un partie de E. On dit que A est un
O − fermé ou un fermé si et seulement si son complémentaire dans E est un ouvert.
(« A fermé » ) ⇔ ( « CEA ouvert » ).

Proposition 3.6. Soit (E , O) un espace topologique


a) E et ∅ sont également des fermés.

12
3.1 Espaces topologiques 13

b) L’intersection quelconque de fermé est un fermé.


c) La réunion finie de fermés est un fermé.

Démonstration.
a) Passage au complémentaire.
b) i∈I Ai . Fi fermé, posons Ai = Fi alors Ai ouvert donc
T T S S
i∈IFi = i∈I Ai = i∈I Ai
ouvert et i∈I Ai fermé.
S
Sn Sn Tn
c) i=1 Ai . i=1 Ai est un ouvert donc i=1 Ai est un fermé.
T T
i=1 Fi = i=1 Ai = 

Note 3.7. On aurait donc pu définir, la topologie par les fermés ?

3.1.3 Comparaison de topologies : topologies plus ou moins fines


On a vu que sur un ensemble donné, il est parfois possible de définir plusieurs topologies. Il peut
être utile de disposer d’un argument de comparaison.

Définition 3.8. Soit T1 et T2 deux topologies sur un ensemble non vide E.


1. On dit que T1 est moins ne que T2 ou que T2 est plus ne T1 si et seulement si T1 ⊂
T2. ( Autrement dit : tout ouvert de T1 est également un ouvert de T2 ou encore T1 est
plus petit que T2 ).
2. On dira qu’elles ne sont pas comparables si l’une n’est ni plus fine, ni moins fine que
l’autre.

3.1.4 Recouvrement ouvert


Définition 3.9. Soit E un espace topologique et A une partie de E.
On appelle recouvrement ouvert de A, un recouvrement (Ui)i∈I de A, où chaque Ui est un
ouverts de E.

3.1.5 Voisinage d’un point et d’une partie


Définition 3.10. Soit (E , O) un espace topologique, N et A deux parties de E et p un point de
E. On dit que N est un voisinage de p [rep. A] si et seulement si elle contient un ouvert conte-
nant p [resp. A].

Proposition 3.11. Soit (E , O) un espace topologique :


V ⊂ E est un voisinage de chacun de ses points ⇔ V est un ouvert dans E .

Démonstration. Cours de Benabdallah page (5) TCD 

Proposition 3.12. Soit (E , O) un espace topologique et x un point de E:


1. Si V et V ′ sont 2 voisinages de x dans E alors V ∩ V ′ est un voisinage de x dans E.
2. Si V est un voisinage de x dans E et V ⊂ W ⊂ E alors W est un voisinage de x dans E.

Démonstration. Cours de Benabdallah page (5) TCD 

Définition 3.13. Soit (E , O) un espace topologique, et p un point de E. On appelle système


de voisinage d’un point p dans E, l’ensemble des voisinages de p dans E, on le note Vp.
Définition 3.14. Soit (E , O) un espace topologique, et p un point de E. On appelle système
fondamentale de voisinage d’un point p dans E : une partie B du système de voisinage Vp de
p dans E (autrement dit une famille B de voisinage de p dans E), telle que pour tout voisinage
V de p, il existe un éléments de B contenu dans V.
14 Topologie générale

Remarque 3.15. Si on connait un système fondamental de voisinage de x dans E, on connait


tous les voisinages de x dans E.

Exemple 3.16. Dans un espace métrique E,


 
1
1. la famille des boules ouvertes Bn x, n est un système fondamental de voisinage de x
dans E.
 
1
2. la famille des boules fermées Bn′ x, n est un système fondamental de voisinage de x
dans E.

3.1.6 Point d’Accumulation ou Limite, Ensemble Dérivé


Définition 3.17. Soit (E , O) un espace topologique, A une partie de E et p un point de E. On
dit que p est un point d'accumulation ou point limite de A si et seulement si tout ouvert
contenant p contient un point de A différent de p.

Remarque 3.18. Un ensemble fini n’a pas de point d’accumulation.

Définition 3.19. Soit (E , O) un espace topologique, A un partie de E. On appelle ensemble


dérivé de A, l’ensemble des points d’accumulations de A. On le note A ′.

3.1.7 Point Isolé


Définition 3.20. Soit (E , O) un espace topologique, A un partie de E et p un point de E. On
dit que p est un point isolé de A si et seulement si il existe un voisinage V p de p (V p ∈ V p) tel
que V p ∩ A = {p}.

Proposition 3.21. Soit E un espace topologique, F ⊂ E.


«L’espace topologique F est discret» ⇔ «tout point de F est isolé».
n o
1
Exemple 3.22. Si A = n ; n ∈ N∗ ⊂ R alors A n’a qu’un seul point d’accumulation qui est 0.
Tous les points de A sont isolés donc A est discret.

3.1.8 Adhérence, Intérieur, Extérieur et Frontière d’un ensemble


3.1.8.1 Point Adhérent, Adhérence ou Fermeture d’un ensemble

Définition 3.23. Soit (E , O) un espace topologique, A un partie de E et p un point de E. On


dit que p est un point adhérent de A si et seulement si : Tout voisinage de p dans E rencontre
A.

Proposition 3.24. p est un point adhérent de A si et seulement si p est un point de A ou un


point d’accumulation de A (p ∈ A ∪ A ′).

Remarque 3.25. Un point d’accumulation est un point adhérent particulier.

Définition 3.26. Soit (E , O) un espace topologique et A un partie de E. On appelle adhé-


rence de A ( ou fermeture ) de A, l’ensemble des points adhérents de A.
On le note Ā ou Adh(A).

3.1.8.2 Point Intérieur, Intérieur d’un ensemble

Définition 3.27. Soit (E , O) un espace topologique, A une partie de E et p un point de E. On


dit que p est un point intérieur de A si et seulement si p appartient à un ouvert de E contenu
dans A:
3.1 Espaces topologiques 15

Proposition 3.28. Soit (E , O) un espace topologique, A une partie de E et p un point de E, p


est un point intérieur de A si et seulement si A est un voisinage de p.

Définition 3.29. Soit (E , O) un espace topologique et A une partie de E. On appelle intérieur


de A, l’ensemble des points intérieurs de A. On le note A◦ ou int(A).

3.1.8.3 Point extérieur, Extérieur d’un ensemble

Définition 3.30. Soit (E , O) un espace topologique, A une partie de E et p un point de E. On


dit que p est un point extérieur de A si et seulement si il existe un ouvert de E contenant p et
disjoint de A.

CNS : CEA est un voisinage de p. (à vérifier)

Définition 3.31. Soit (E , O) un espace topologique et A une partie de E. On appelle exté-


rieur de A, l’ensemble des points extérieurs de A. On le note ext(A).
3.1.8.4 Point frontière, Frontière d’un ensemble

Définition 3.32. Soit (E , O) un espace topologique, A une partie de E et p un point de E. On


dit que p est un point frontière de A si et seulement si
• p n’appartient ni à l’intérieur, ni à l’extérieur de A.
• Autrement dit : p est un point adhérent de A et de CEA.

3.1.8.5 Propriétés

Proposition 3.33. Soit (E , O) un espace topologique, A et B deux parties de E.


1. si x  Ā, alors CEA est un voisinage de x dans E.
2. (A ⊂ B) ⇒ A◦ ⊂ B ◦ et Ā ⊂ B̄.
3. A◦ ⊂ A ⊂ Ā
4. L’adhérence de A est l’intersection de tous les fermés de E contenant A : Ā =
T
i∈I Ai , Ai
fermé, A ⊂ Ai , ∀i ∈ I.
− Ā est un fermé,
− Ā est le plus petit fermé contenant A.
− A est un fermé ⇔ A = Ā.

5. L’intérieur de A est la réunion de tous les ouverts de E contenus dans A : A =
S
i∈I Ai ,
Ai ouvert, Ai ⊂ A.

− A ouvert ⇒ A = A .
− A◦ est un ouvert,
− et finalement A est un ouvert ⇔ A = A◦.
− A◦ est le plus grand ouvert contenu dans A.
6. ∅◦ = ∅ ; E ◦ = E ; (A◦)◦ = A◦.
7. A◦ ∩ B ◦ = (A ∩ B)◦ ; Ā ∩ B̄ ⊃ A ∩ B ; (Ac) = (A◦)c
8. A◦ ∪ B ◦ ⊂ (A ∪ B)◦ ; Ā ∪ B̄ = A ∪ B ; (Ac)◦ = (Ā )c
◦ ◦
9. i∈I (Ai) ⊃ il y a égalité si I est fini et i∈I Ai ⊃
T T T T
i∈I Ai i∈I Ai
◦ ◦
10. i∈I (Ai) ⊂ et i∈I Ai ⊂ i∈I Ai il y a égalité si I est fini.
S S S S
i∈I Ai

11. L’intérieur, l’extérieur et la frontière d’une partie A d’un espace topologique forme une
partition de A.
16 Topologie générale

Remarque 3.34. (Pour retenir les propositions 9 et 10, il faut raisonner en terme de plus
grand et de plus petit ouvert et fermé et qu’il y a égalité pour les intersections finies d’ouverts et
pour les réunions finies de fermés.) Je ne crois pas, il faut plutôt retenir la démonstration ? ,
relire la démonstration page 36 livre Topologie Gilles Christol pour prendre une décision.

Démonstration.
1. pas de démonstration disponible.
2.
3.
◦ ◦
a) si x ∈ A , ∃O ∈ O; O ⊂ A, x ∈ O d’où p ∈ A ⇒ A ⊂ A.
b) si p ∈ A; ∀O ∈ O; p ∈ O ⇒ p ∈ O ∩ A d’où le résultat p est un point adhérent de A
p ∈ Ā .
4. si A = Ā alors A est un fermé, si A est fermé alors Ā ∈ A, car A est le plus petit or A ⊂
Ā donc A = Ā
5. Démonstration page 7 du cours de Ben Abdallah TCD.
6.
7.
8.
9. page 36 livre Topologie Gilles Christol (3).
10. page 36 livre Topologie Gilles Christol (4).
11.


3.1.9 Ensembles Denses

Figure 3.1. C est dense dans B, mais A n’est pas dense dans B.

Note 3.35. Rajouter commentaire page 14 Topologie Masson + exemples : Démonstration du


théorème de Stone Weirstrass actuellement en cours d’analyse réelle page 234 + théorème
d’approximation de fonction page 235.

Définition 3.36. Soit (E , O) un espace topologique, A et B deux parties de E. On dit que A


est dense par rapport à B si et seulement si elles vérifient l’une des propriétés suivantes :
• Tout point x de B est un point adhérent de A (tout voisinage dans E d’un point x de B
ou tout ouvert de E contenant un point x de B rencontre A : ∀x ∈ B, ∀V ∈ Vx ∨ O, V ∩
A  ∅).
• Autrement dit B ⊂ Ā (tout point x de B appartient à Ā : ∀x ∈ B , x ∈ Ā).

Remarque 3.37. Dans le cas ou B=E, on dit que A est partout dense dans E. D’où la défin-
tion avec E ⊂ Ā ⇔ E = Ā
3.2 Construction d’une topologie sur un ensemble. 17

Définition 3.38. Soit (E , O) un espace topologique et A une partie de E. On dit que A est
partout dense dans E si et seulement si elle vérifie l’une des propriétés suivantes :
• Elle est dense par rapport à E : tout voisinage de tout point de E rencontre A.
• Autrement dit Ā = E.

Démonstration. Si A, A ⊂ E est partout dense dans E et E fermé alors E = Ā : densité ⇒


E ∈ Ā , A ⊂ E ⇒ Ā ⊂ Ē = E car E fermé d’où E = Ā . 

Exemple 3.39. Q est partout dense dans R.

3.1.10 Espace Rare ou non Dense


Définition 3.40. Soit (E , O) un espace topologique. On appelle espace rare ou non dense de
E, toute partie de E dont l’adhérence n’a pas de point intérieur.

3.1.11 Espace topologique Séparé au sens de Hausdorff


Avertissement 3.41. Lorsque l’on parle d’espace séparé, sans autre précision, il s’agit toujours
d’espace séparé au sens d’Hausdorff.

Définition 3.42. Soit (E , O) un espace topologique. On dit que E est un espace séparé au
sens d’Hausdorff si et seulement si :
• ∀(x, y) ∈ E 2, x  y, ∃ un voisinage Vx de x et un voisinage V y de y tels que Vx ∩ V y = ∅.
C’est l’axiome [T2] de séparation appelé également axiome de séparation de Hausdorff.
• Autrement dit : 2 points distincts quelconques de E admettent des voisinages distincts.

Exemple 3.43. Tout espace métrique est séparé.

Démonstration. Cours M. Benabdallah page 8 cours TCD. 

Proposition 3.44. Dans un espace topologique E séparé tout singleton (i.e. tout ensemble
réduit à 1 point) est un fermé de E.

Exemple 3.45. Dans un espace métrique E tout singleton (i.e. tout ensemble réduit à un
point) est un fermé de E.

3.2 Construction d’une topologie sur un ensemble.


Dans les situation concrètes, les topologies sont souvent définies au moyen de parties naturelle-
ment associées à certaines structures supplémentaires ( ce sera par exemple le cas des boules
ouvertes dans les espace métriques ). Ce paragraphe formalise ce type de construction.

3.2.1 Topologie Engendrée


Proposition 3.46. Soient E un ensemble non vide, A une partie de P(E) et T un ensemble
non vide de topologie sur E.
1. L’intersection quelconque d’éléments de T est une topologie sur E (autrement dit l’interse-
ction de topologies est une topologie).
2. T (A) l’ensemble des topologies qui contiennent A .
i. est non vide,
18 Topologie générale

ii. et possède un plus petit élément qui est l’intersection des éléments de T (A).

Définition 3.47. Soient E un ensemble non vide et A une partie de P(E).


Le plus petit élément (le moins fin) de T (A) est appelé topologie engendrée par A.
Autrement dit, c’est la plus petite topologie (la moins fine) qui contient A.

Remarque 3.48. La description des éléments de la topologie engendrée à partir des éléments
de A est peu commode. C’est pour cette raison que l’on va définir l’a notion de base de topo-
logie.

3.2.2 Base de topologique


Définition 3.49. Soit E un ensemble.
On appelle base de topologie sur E une partie B de P(E) telle que :
i. la réunion des éléments de B est égale à E,
ii. l’intersection de 2 éléments de B est une réunion d’éléments de B.

Exemple 3.50. C’est le cas de l’ensemble des boules ouvertes d’un espace métrique.

Remarque 3.51. Si B est une base de topologie, la topologie engendrée par B a une descrip-
tion particulièrement simple et utile.

Proposition 3.52. Soit E un ensemble et B est une base de topologie sur E


1. La topologie engendréepar B est la partie T de P(E) dont les éléments sont les réunions
d’éléments de B : T = O; O = i∈I Oi; ∀i ∈ I , Oi ∈ B .
S

2. Autrement dit, O est un ouvert de T si et seulement si O est la réunion d’une famille


quelconque d’élément de B : (O ∈ T ) ⇔ O = i∈I Oi; ∀i ∈ I , Oi ∈ B .
S

3. Ou encore, O est un ouvert de T si et seulement si pour tout élément x de O, il existe un


élément de B contenant x et contenu dans O : (O ∈ T ) ⇔ (∀x ∈ O, ∃Ox ∈ B; x ∈ Ox et Ox ⊂
O).

Remarque 3.53.

Définition 3.54. Soit (E , T ) un espace topologique et B une base de topologie sur E.


1. On dit que B est une base de topologie pour une topologie T ⇔ B engendre T.
2. On dit qu’une topologie T est à base dénombrable ⇔ il existe une base de topologie pour T
qui est dénombrable.

Exemple 3.55. Voir analyse pour la licence J.P. Marco Masson p. 8-9

3.2.3 Sous-base d’un espace topologique


Définition 3.56.

Théorème 3.57.

Théorème 3.58.

Proposition 3.59.

3.2.4 Base locale


Définition 3.60.
3.3 Convergence, limite et continuité 19

3.3 Convergence, limite et continuité


Avertissement 3.61. Est-il possible de définir la convergence sur une partie A de X lorsque X
n’est pas un espace topologique ? (Voir cours lesmathematiques.net sur internet, où c’est la con-
vergence d’applications qui permet de définir la topologie sur un espace d’application).
Revoir les définitions de continuité et de convergence ! CTE page 71 à 74. Il n’y a pas tou-
jours équivalence !
Dans ce livre la limite et la continuté sont définies pour une fonction d’un espace topologique
dans un espace topologique. Certains livres donnent la définition de la continuité relativement à
une partie A d’un espace topologique dans ce cas on voit apparaitre dans les défintions des con-
tions d’appartenance à Ā ou à l’adhérence de l’espace d’arrivé de f .
CTE chapitre 2 (topologie), « la notion de limite de fonction en un point est une notion
assez voisine de la notion de continuité mais plus simple car le point peut ne pas appartenir au
domaine de définition de la fontion » pour la continuité on a x0 ∈ E ou A alors que pour la
limite on a x0 ∈ Ā .

3.3.1 Filtre, base de filtre et ultrafiltre


Note 3.62. Cette notion de filtre a été introduite pour définir la convergence d’application sur
des espaces dépourvus de topologie.

Soit X un ensemble et F et B deux ensembles non vides de parties de X.

Définition 3.63. On dit que F est un ltre sur X si et seulement si :


2 2
i. ∀(A, B) ∈ X ; ((A, B) ∈ F ) ⇒ (A ∩ B ∈ F ),
ii. ∀A ∈ F et ∀A ′ ∈ X;(A ⊂ A ′) ⇒ (A ′ ∈ F),
iii. ∅X  F.

Définition 3.64. On dit que B est un base de ltre sur X si et seulement si :


2 2
i. ∀(A, B) ∈ X ; ((A, B) ∈ B ) ⇒ (∃C ∈ B; C ⊂ (A ∩ B)),
ii. ∅X  B.

Note 3.65. Autrement dit, pour toute intersection de 2 éléments d’un filtre, on peut trouver un
troisième élément contenu dans l’intersection. Un filtre ne contient pas l’ensemble vide.

Proposition 3.66. Tout filtre sur X est une base de filtre sur X (la réciproque n’est pas vraie).

Démonstration. 

Proposition 3.67. Soit B une base de filtre sur X.


L’ensemble des parties de X contenant un élément de B est un filtre sur X.

Démonstration. 

Exemple 3.68. Soit X un espace topologique et x0 un point de X.


1. L’ensemble Vx0 des voisinages de x0 (i.e. un système de voisinages de x0) est un filtre sur
X.
2. Soit x0 ∈ R, l’ensemble des intervalles ]x0 − ε; x0 + ε[ où ε > 0 est un base de filtre sur R.
C’est un cas particulier de l’exemple (1).
3. Autres exemples de base de filtre sur R, qui ne sont pas des cas particuliers de (1).
− L’ensemble des [x0; x0 + ε[ où ε > 0,
− L’ensemble des ]x0; x0 + ε[ où ε > 0,
− L’ensemble des ]x0 − ε; x0] où ε > 0,
20 Topologie générale

− L’ensemble des ]x0 − ε; x0[ où ε > 0,


− L’ensemble des ]x0 − ε; x0[ ∪ ]x0; x0 + ε[ où ε > 0,
− L’ensemble des [a; + ∞[ où a ∈ R,
− L’ensemble des ] − ∞; a[ où a ∈ R.
4. Sur N, l’ensemble des parties {n; n + 1; n + 2;  } où n ∈ N est une base de filtre.
5. Soit Y une partie de X, x1 ∈ Y¯ et V un voisinage de x1.
L’ensemble des partie Y de la forme Y ∩ V est un filtre sur Y .
(Notament Y ∩ V  ∅ car x1 ∈ Y¯ ). Si X = Y on retrouve l’exemple (1). Retrouver la
définition générale, cette propriété sous-entend que X est un espace topologique.

3.3.2 Convergence et Limite suivant une base de filtre


3.3.2.1 Définition

Définition 3.69. Soient X un ensemble muni d’une base de filtre B.


E un espace topologique,
f : X → E une application,
l un point de E.
On dit que f tend ou converge vers l suivant B si et seulement si :
Pour tout voisinage V de l dans E,∃B ∈ B; f (B) ⊂ V.
Dans ce cas l est appelé limite de f.

Remarque 3.70.
1. C’est évident, mais il faut faire attention : une application (ou en particulier une suite)
converge dans un ensemble donné si et seulement si la limite l appartient à cet ensemble.
2. Si on connait un système fondamental (Vi) de voisinage de l dans E, il suffit de vérifier
cette condition pour les Vi (puisque tout voisinage de l contient un Vi).

Exemple 3.71. Ces exemples sont importants :


1. Si X = N et B est la base de filtre décrite dans l’exemple (5). f est donc une suite
(an)n∈N de points de E. La définition de la convergence d’une suite à valeurs dans un
espace topologique :

Définition 3.72. Soit (E , O) un espace topologique, (an) une suite de E et l un point de


E.
On dit que (an) tend ou converge vers l si et seulement si :
Pour tout voisinage V de l dans E,∃N ∈ N; (∀n > N ) ⇒ (an ∈ V ).
On écrit alors limn→+∞ an = l.

Remarque 3.73. On peut remplacer voisinage par ouvert.

2. Avec les conditions précédentes, si E est un espace métrique, on obtient la définition clas-
sique de la convergence d’une suite de point d’un espace métrique :

Définition 3.74. Soit (E , d) un espace métrique, (an) une suite de E et l un point de E.


On dit que (an) tend ou converge simplement vers l si et seulement si :
∀ε > 0, ∃N ∈ N; (∀n > N ) ⇒ (d(an , l) < ε).
On écrit alors limn→+∞ an = l.

Dans un espace métrique, on peut définir un autre type de converge «plus fort»: la
convergence uniforme. On a rajouté «simplement» dans la définition pour différencier ces
deux notions. On peut remplacer d(an , l) < ε par an ∈ B(l, ε)
3.3 Convergence, limite et continuité 21

3. Si X et E sont deux espaces topologiques. Si B est la base de filtre définie dans l’exemple
(1). On obtient la définition classique de la convergence d’une fonction sur un espace
topologique et à valeur dans un espace topologique :

Définition 3.75. Soient (E , O) et (X , O ′) deux espaces topologiques, f : X → E une


application et l un point de E.
On dit que f tend ou converge vers l au point x0 si et seulement si :
Pour tout voisinage V de l dans E,∃ un voisinage W de x0 dans X tel que :
(x ∈ W ) ⇒ (f (x) ∈ V ).
On écrit alors limx→x0 f (x) = l.

4. Rajouter le définition de la limite vers l quand x tend vers x0 selon A : Dico Puf page 441
ou CTE page 72 2003/2004.
5. Dans ce dernier cas, si X et E sont des parties de R et si B est la base de filtre définie
dans l’exemple (3). on obtient la définition de la limite d’une fonction réelle d’une
variable réelle en un point :

Définition 3.76. Soit f : X → E une application, l un point de E.


On dit que f tend ou converge simplement vers l au point x0 si et seulement si :
∀ε > 0; ∃η > 0; ∀x, |x − x0| < η ⇒ |f (x) − f (x0)| < ε.
On écrit alors limx→x0 f (x) = l.

La présence du mot simplement est due au fait que R est un espace métrique.
6. En prenant toujours X et E parties de R, mais en utilisant comme bases celles données
dans l’exemple (4), on obtient les définitions de : lim x→x0 f (x);lim x→x0 f (x);
x>0 x>0
lim x→x0 f (x); lim x→x0 f (x); lim x→x0 f (x); lim x→+∞ f (x);lim x→−∞ f (x)
x60 x<0 x 0
7. ?
8. ?

Note 3.77. Les suites joueront un rôle capital dans les espaces métriques, car elles serviront à
établir de nombreuses propriétés topologiques.

Exemple 3.78.
− Un point d’un espace métrique est un point adhérent de A si et seulement s’il est limite
d’une suite de points de A.
− A est fermé si et seulement si toute suite convergente de point de A et convergente dans
E a sa limite dans A.

Théorème 3.79. Soient (X , O) et (E , O ′) deux espaces topologiques,


f : X → E une application,
x0 ∈ X, (Wi)i∈I un système fondamental de voisinage de x0 dans X,
l ∈ E, (V j ) j ∈J un système fondamental de voisinage de l dans E.
Les conditions suivantes sont équivalentes :
i. limx→x0 f (x) = l.
ii. ∀j ∈ J , ∃i ∈ I; f (Wi) ⊂ V j.

3.3.2.2 Unicité de la limite

Théorème 3.80. Soit X un ensemble muni d’une base de filtre B,


E un espace topologique séparé,
f : X → E une application.
Si f admet une limite suivant B, cette limite est unique (autrement dit f admet au plus une
limite suivant B).
22 Topologie générale

Démonstration. Cours Ben Abdallah page 9. 

Avertissement 3.81. L’unicité est assurée parceque E est séparé. Dans le cas contraire f peut
avoir plusieurs limites suivant B. Exemple : Si E est muni de la topologie grossière , tout point
de E est limite de toute suite (xn) de E.

3.3.2.3 Convergence et limite

Théorème 3.82. Soit X un ensemble muni d’une base de filtre B,


E un espace topologique,
f : X → E une application, l ∈ E, X ′ ∈ B (N’est ce pas plutôt X ′ ⊂ X),
f ′ la restriction de f à X ′.
Alors les ensembles B ∩ X ′ , où B ∈ B, forment un base de filtre sur X’.
De plus ( f tend vers l suivant B ) ⇔ ( f ′ tend vers l suivant B ′ ) Attention B ′ n’est pas
défini !.

3.3.2.4 Convergence et limite de la composée de 2 applications

Proposition 3.83. Soit (E , OE ) ; (F , OF ) et (F , OG) trois espaces topologiques, A une partie


de E, 
B une partie de F, f : A → F, g: B → G deux applications.
lim af = l avec l ∈ B̄
si alors lim ag ◦ f = l ′
lim lg = l ′

3.3.3 Continuité
Note 3.84. Les fonctions continues jouent un rôle important car elles conservent certaines pro-
priétés : la compacité, la connexité, qu’en est-il de la densité ? l’image d’une partie dense est-t-
elle dense ?

3.3.3.1 En un point

Définition 3.85. Soient (X , O) et (E , O ′) deux espaces topologiques,


f : X → E une application, x0 un point de X.
On dit que f est continue en x0 si et seulement si pour tout voisinage V de f (x0) dans E,∃
un voisinage W de x0 dans X tel que : f (W ) ⊂ V.

Proposition 3.86. Autrement dit, on dit que f est continue en x0 si et seulement si :


limx→x0 f (x) = f (x0).

Remarque 3.87.
1. f est continue en x0 ⇔ Pour tout voisinage V de f (x0) dans E, f −1(V ) est voisinage de
x0 dans X.

Démonstration. Cours de Ben Abdallah page 11. 

2. On peut remplacer voisinage par ouvert.


3. Si X et E sont des espaces métriques, on peut remplacer voisinage par boule (ouverte ou
fermée) (voir ci-dessous)

Exemple 3.88.
1. Continuité d’une fonction à valeur dans des espace métriques :

Définition 3.89. Si (X , d) et (E , d ′) sont des espaces métriques la condition devient :


On dit que f est continue en x0 si et seulement si :
limx→x0 f (x) = f (x0).
∀ε > 0, ∃η > 0, f (B(x0, η)) ⊂ B(f (x0), ε),
∀ε > 0, ∃η > 0; ∀x ∈ X , (d(x0, x) 6 η) ⇒ (d(f (x0), f (x)) 6 ε).
3.3 Convergence, limite et continuité 23

2. Continuité d’une fonction réelle à variable réelle :


Si de plus X et Y sont des parties de R, on a la définition de la continuité d’une fonc-
tion réelle d’une variable réelle.

3.3.3.2 Sur un espace topologique

Définition 3.90. Soient X et Y 2 espaces topologiques,


f : X → Y une application.
On dit que f est continue sur X si et seulement si elle est continue en tout point de X.

Remarque 3.91. L’ensemble des fonctions : X → Y continues est noté C(X , Y ).

3.3.3.3 C.N.S. de continuité et image réciproque d’ouverts ou de fermés

Théorème 3.92. Soient X,Y 2 espaces topologiques,


Les propositions suivantes sont équivalentes
i. f continue.
ii. L’image réciproque par f d’une partie ouverte de Y est une partie ouverte de X.
iii. L’image réciproque par f d’une partie fermée de Y est une partie fermée de X.
iv. Pour toute partie A de X, on a f (Ā ) ⊂ f (A).

Démonstration. Cours M. Ben Abdallah page 11 TCD. 

Remarque 3.93. Si A ⊂ E et si f : E → F est continue alors f |A: A → F est continue, mais la


réciproque est fausse. Cependant, on a l’équivalence localement, si A est un voisinage de x0 alors
f |A est continue en x0 si et suelment si f est continue en x0. En conclusion la continuité est une
propriété locale.

Exemple 3.94.

1. Pour tout espace topologique E, l’application identique IdE : E → E est continue.


x x 
2. Pour tout espace topologique E et F , l’application constante : E → E est continue.
x 
y0
3. Toute application d’un espace topologique discret E dans un espace topologique F est
continue.

Démonstration.
1. Cours M. Ben Abdallah page 11 TCD.
2. Cours M. Ben Abdallah page 11 TCD.
3. La topologie de l’espace discret E est par définition P(E) donc toute image réciproque
d’ouverts de F est un ouvert de E. 

3.3.3.4 C.S. de convergence pour la composée de deux applications

Note 3.95. Cette propriété est placé ici car cette C.S. nécessite la continuité d’une des applica-
tions.

Théorème 3.96. Soient T un ensemble muni d’une base de filtre B.


X et Y 2 espaces topologiques, l ∈ X,
f : T→ X et g: X → Y 2 applications.
f converge vers l suivant B
si ⇒ (g ◦ f ) tend vers g(l) suivant B.
g continue en l
24 Topologie générale

3.3.3.5 C.S. de continuité pour la composée de deux applications

Théorème 3.97. Soient X,Y et Z 3 espaces topologiques,


f continue en x

1. si ⇒ (g ◦ f ) continue en x. (continuité en un point).
g continue en f (x)
2. f ∈ C(X , Y ) et g ∈ C(Y , Z) ⇒ g ◦ f ∈ C(X , Z). (continuité sur des espaces topologiques).

3.3.3.6 Convergence des suites du type f ◦ xn i.e. (f (xn))

Proposition 3.98. Soient E et F 2 espaces topologiques, f : E → F une application, a ∈ E et


(xn) une suite de E convergente vers a.
1. f continue en a ⇒ la suite (f (xn)) de F converge vers f (a) i.e. limx→a f (x) =
f (limx→a xn).
2. En particulier si a est valeur d’adhérence de (xn) et f continue en a alors f (a) est valeur
d’adhérence de (f (xn)).

Démonstration. preuve page 12 cour M. Benabdallah. 

Remarque 3.99.
1. Dans un espace métrique, il y a équivalence entre continuité de f en un point et conver-
gence de f (xn) (voir chapitre sur les espaces métriques page 31).
2. Contre exemple, dans lequel la condition de continuité n’est pas satisfaite :

1
xn = n , f :

x x, x  0
1
, f n’est pas continue en 0, limn→+∞ xn = 0
0 2
mais f (0) = 2 et limn→+∞ f (xn) = + ∞.

3.3.4 Application continue ouverte


Définition 3.100. On appelle application continue ouverte toute application continue telle
que l’image d’un ouvert est encore un ouvert.

Note 3.101. Attention ! la continuité ne garantit pas que l’image d’un ouvert soit encore un
ouvert, seul l’image réciproque d’un ouvert est encore un ouvert (voir propriété précédente). Si
c’était le cas cette définition n’aurait pas de sens.

3.4 Prolongement par continuité d’une fonction


Remarque 3.102. Soit f : D ⊂ (E , d) → (E ′; d ′) x0 un point d’accumulation de E, lorsque f
n’est pas définie en x0 et que limx→x0 f (x0) = l, la fonction g définie sur D ∪ {x0} par g(x) =
f (x) sur D et g(x0) = l est continue en x0.
3.6 Homéomorphisme 25

Définition 3.103. Cette fonction est appelée prolongement par continuité de f en x0.

3.5 Prolongement des égalités et inégalités


Remarque 3.104. Le théorème suivant indique qu’une application continue est entièrement
déterminée par les valeurs qu’elle prend sur une partie dense. Autrement dit, une application
définie sur une partie A dense dans un ensemble B, ne peut avoir qu’un prolongement continu
sur B.

3.5.1 Egalité
Théorème 3.105. Soient E et F 2 espaces topologiques et f , g: E → F deux applications conti-
nues sur T.
1. A = {x ∈ E; f (x) = g(x)} i.e. [f = g] est un fermé dans E.
2. S’il existe une partie S de E partout dense telle que f (a) = g(a), ∀a ∈ S alors f=g sur E
autrement dit f (u) = g(u), ∀u ∈ E

Remarque 3.106. La deuxième partie n’a aucun sens. Quel est le rôle joué par S ?

Démonstration. Voir cours de M. Benadallah page 13 (démonstration à revoir) 

3.5.2 Inégalité
Théorème 3.107. Soient E un espace topologique et f , g: E → R deux applications réelles con-
tinues sur E alors
1. A = {x ∈ E; f (x) 6 g(x)} i.e. [f 6 g] est un fermé dans E.
2. S’il existe une partie S de E partout dense telle que f (a) 6 g(a), ∀a ∈ S alors f 6 g sur E
autrement dit f (u) 6 g(u), ∀u ∈ E.

Démonstration. Voir cours de M. Benadallah page 13 (démonstration à revoir) 

3.6 Homéomorphisme
Définition 3.108. Soit X, Y 2 espaces topologiques et f : X → Y une bijection.
On dit que f est un homéomorphisme ou une application bicontinue de X, Y si et seule-
ment si f et f −1 (son application réciproque) sont continues.

Proposition 3.109. Soit X, Y 2 espaces topologiques et f : X → Y une bijection, f est un homéo-


morphisme de X, Y si et seulement si elle vérifie l’une des 2 propriétés équivalentes suivantes :
i. Une partie de X est un ouvert ⇔ son image dans Y est un ouvert.
ii. Une partie de X est un fermé ⇔ son image dans Y est un fermé.

Remarque 3.110. L’homéomorphisme est la notion naturelle d’isomorphisme pour les espaces
topologiques.

Définition 3.111. Soit X, Y 2 espaces topologiques. On dit que X et Y sont homéomorphes si


et seulement si il existe un homéomorphisme de X dans Y.

Remarque 3.112.
1. L’inverse d’un homéomorphisme est un homéomorphisme,
2. La composée f ◦ g de 2 homéomorphisme est un homéomorphisme,
26 Topologie générale

3. L’ensemble des homéomorphisme d’un espace topologique sur lui-même est un groupe
pour la loi ◦ ; appelé groupe des homéomorphismes.
4. La relation «est isomorphe à» est une relation d’équivalence entre espaces topologiques.
5. Si X et Y sont homéomorphes, la structure des parties ouvertes est la même dans X et
Y.
6. Comme toutes les propriétés topologiques sont définies à partir des ensembles ouverts de
X et Y , X et Y auront les mêmes propriétés topologiques. En d’autres termes X et Y
sont presques le «même» espace topologique.
7. Un des buts de la topologie consiste à classer les espaces topologiques à homéomorphisme
près.

Exemple 3.113.
1. Tous les intervalles ouverts non vides de R sont homéomorphes.
2. Dans un espace normé toutes les boules ouvertes sont homéomorphes.
3. Soit a ∈ Rn et λ ∈ R∗

i. l’application f : Rn → Rn est un homéomorphisme de Rn sur Rn.


x a+λx
ii. f (B(O; 1)) = B(a; |λ|), conclusion toutes les boules ouvertes sont homéomorphes à
la boule unité et par conséquent entre elles.
4. ]0; 1[ et [0; 1] ne sont pas homéomorphes.
5. Un cercle et un carré sont homéomorphes (translation + projection centrale).
6. ln: R∗+ → R est un homéomorphisme d’inverse exp: R → R∗+.
π π π π
7. arctg: R → ] − 2 ; 2 [ est un homéomorphisme d’inverse tg: ] − 2 ; 2 [ → R.

8. f : R → R est un homéomorphisme.
t 
t3

9. f : R → ] − 1; 1[ est un homéomorphisme d’inverse f ′: ] − 1; 1[ → R .


t  t
1 + |t|
s  s
1 − |s|

Démonstration. (3) Voir cours de M. Benadallah page 13.


t
(8) Soit f (t) ∈ ] − 1; 1[ , f (t) = 1 + |t| ⇔ f (t)(1 + |t|) = t ⇔ f (t) + |t| f (t) = t ⇔ t − |t| f (t) = f (t)
car f (t)  ± 1, f ′:
f (t)
or f est impaire donc |t|f (t) = t|f (t)| ⇔ t(1 − |f (t)|) = f (t) et t = 1 − |f (t)|
] − 1; 1[ → R.


3.7 Valeur d’adhérence

3.7.1 ... sur un ensemble muni d’une base de filtre


3.7.1.1 Définition

Définition 3.114. Soit X un ensemble muni d’une base de filtre B, E un espace topologique, f :
X → E une application, l un point de E.
On dit que l est une valeur d’adhérence de f suivant B si et seulement si pour tout voisinage
V de l dans E et tout élément B ∈ B;f (B) ∩ V  ∅.

Remarque 3.115. Si on connait un système fondamental de voisinage (Vi) de l dans E, il suffit


de vérifier cette condition pour les Vi.
3.8 Dual topologique d’un espace vectoriel topologique 27

3.7.1.2 Valeur d’adhérence d’une fonction convergente

Théorème 3.116. Soient X un ensemble muni d’une base de filtre B, E un espace topologique
séparé, f : X → E une application.
Si f tend vers l suivant B, l est l’unique valeur d’adhérence de f suivant B.

Remarque 3.117. Quel est l’apport de la valeur d’adhérence ?


• Si f admet une limite suivant B : aucun (théorème précédent).
• Si f n’admet pas de limite suivant B :
− f peut ne pas avoir de valeur d’adhérence,
− f peut avoir une et une seule valeur d’adhérence,
− f peut admettre plusieurs valeurs d’adhérence.
Conclusion : On perd l’unicité mais on gagne sur l’existence.

3.7.1.3 Adhérence et valeur d’adhérence

Théorème 3.118. Soient X un ensemble muni d’une base de filtre B, E un espace topologique,
f : X → E une application.
L’ensemble des valeurs d’adhérence de f suivant B est l’intersection des f (B) quand B par-
court B.

Exemple 3.119. Pour un espace topologique l’ensemble des valeurs d’adhérence d’une suite
(xn) est A = n∈N An où An={xi ∈ α; i 6 n} α = {xn; n ∈ N}.
T

Démonstration. Voir cours de M. Benadallah TCD page 9. 

3.7.2 ... sur un espace topologique


3.7.2.1 Pour une fonction quelconque

3.7.2.2 Pour une suite

Définition 3.120. Soit (E , O) un espace topologique, (xn)n∈N une suite d’éléments de E et (a)
un point de E. On dit que (a) est valeur d’adhérence de (xn)n∈N dans E, si et seulement si ∀
voisinage V de a dans E et ∀ n ∈ N, ∃i ∈ N, i > n, xi ∈ V.

Autrement dit, il existe un grand nombre de points qui se rapprochent de a

Théorème 3.121. Soit (E , O) un espace topologique, (x ϕ(n))n∈N une suite extraite de E et (a)
un point de E :
Si (x ϕ(n))n∈N converge vers (a) ⇒ (a) est valeur d’adhérence de (xn)n∈N .

Démonstration. Voir cours de M. Benadallah TCD page 10. 

Remarque 3.122. Dans un espace métrique, il y a équivalence.

Démonstration. Voir cours de M. Benadallah TCD page 10. 

3.8 Dual topologique d’un espace vectoriel topologique


Définition 3.123. Soit E un espace vectoriel topologique. On appelle dual topologique de E,
l’ensemble des formes linéaires continues sur E.
28 Topologie générale

Proposition 3.124. Le dual topologique de E est un espace vectoriel.

3.9 «Autogamie» d’espaces topologiques


Ou, comment des espaces topologiques permettent de construire d’autres espaces topologiques.

3.9.1 Sous-espace topologiques


3.9.1.1 Topologie induite

Théorème 3.125. Soit (X , T ) un espace topologique, A une partie non vide de X, alors TA =
{O ∩ A; O ∈ T } i.e. la trace sur A des ouverts de X est une topologie sur A.

Démonstration. Voir cours de M. Benadallah TCD page 14. 

Définition 3.126. Soit (X , T ) un espace topologique, A une partie non vide de X, on appelle
topologie induite sur A par T la famille de toutes les intersections de A avec les ouverts de X,
i.e. la trace sur A des ouverts de X.

Exemple 3.127.
1. Soit l’ensemble X = {a, b, c, d, e}. la topologie T = {∅; X; {a}; {c, d}; {a, c, d}; {b, c, d, e}}
sur . Soit A = {a, d, e} une partie de X.
∅ ∩ A = ∅; X ∩ A = A; {a} ∩ A = {a}; {c, d} ∩ A = {d}; {a, c, d} ∩ A = {a, d}; {b, c, d,
e} ∩ A = {d, e}. La topologie induite par T sur A est TA = {∅; A; {a}; {d}; {a, d}; {d,
e}}.
2. Si E est un espace métrique et A une partie de E, A est aussi un espace métrique (une
boule de A est une boule de E ∩ A) et la topologie définie par cette métrique est la topo-
logie induite. Les boules ouvertes de A, sont les traces sur A des boules ouvertes de E.

Théorème 3.128. Soit (X , T ) un espace topologique, B un base de topologie pour T et A une


partie de X. Alors
1. L’ensemble BA = {O ∩ A; O ∈ B } est une base de topologie sur A. Autrement dit BA est la
trace de B sur A.
2. De plus, la topologie engendrée par BA est la topologie induite TA.

3.9.1.2 Définition

Définition 3.129. Soit (X , T ) un espace topologique, A une partie non vide de X et TA est la
topologie induite par T sur A, l’espace topologique (A, TA) est appelé sous-espace topologique
A de (X , T ).

Remarque 3.130. Sauf précision contraire, une partie d’un espace topologique sera toujours
supposée munie de la topologie induite par celle de cet espace.

3.9.1.3 C.N.S. sur les voisinages, les fermés

Théorème 3.131. Soit E un espace topologique, F un sous-espace de E, x ∈ F et W ⊂ F. Alors


(W est un voisinage de x dans F) ⇔ (W est l’intersection avec F d’un voisinage de x dans E).
{Voisinage de F} : est la trace sur F des voisinages de E.

Démonstration. Voir cours de M. Benadallah TCD page 14. 

Théorème 3.132. Soit E un espace topologique, F un sous-espace de E et A une partie de F.


Alors (A est fermée dans F) ⇔ (A est l’intersection avec F d’une partie fermée de E). i.e.
{fermé de F} : est la trace sur F des fermés de E.
3.9 «Autogamie» d’espaces topologiques 29

Théorème 3.133. (Transitivité des sous-espaces).


Soient E , E ′, E ′′ 3 ensembles tels que E ′′ ⊂ E ′ ⊂ E.
T une topologie de E, T ′ la topologie induite par T sur E ′ et T ′′ la topologie induite par T ′

sur E ′′.
Alors T ′′ est aussi la topologie induite par T sur E ′′.

Démonstration. Voir cours de M. Benadallah TCD page 15. 

3.9.1.4 Héridité de la séparation

Théorème 3.134. Tout sous-espace topologique, d’un espace topologique séparé est séparé.

3.9.1.5 Convergence d’une fonction

Théorème 3.135. Soient X un ensemble muni d’une base de filtre B, E un espace topologique,
E ′ un sous-espace de E, l ∈ E ′ , f : X → E ′.
« f tend vers l suivant B sur E’ » ⇔ « f tend vers l suivant B sur E ».

3.9.1.6 Continuité de l’injection canonique

Théorème 3.136. Soit E un espace topologique et E ′ ⊂ E.


L’application identique (injection canonique) E ′ → E est continue.
x  x

Démonstration. Voir cours de M. Benadallah TCD page ?. 

3.9.1.7 Continuité d’une restriction

Note 3.137. Que se passe-t-il pour la continuité, si l’on restreint l’espace de départ d’une fonc-
tion ?

Théorème 3.138. Soient E , F 2 espaces topologiques et f : E → F une application.


1. Pour tout E ′ ⊂ E, sous-espace topologique de E.
f est continue sur E ⇒ sa restriction f |E ′ est continue sur E ′ .
La réciproque est fausse, Mais !
2. Soit x ∈ E et V ∈ Vx/E
f |V est continue en x sur V ⇒ f est continue en x sur E .

Démonstration. Voir cours de M. Benadallah TCD page 15. 

Exemple 3.139. Soit f = 1R\Q , f |Q est continue sur Q, mais f n’est continue en aucun point
de R\Q.

3.9.1.8 Continuité d’une fonction à valeurs dans un sous-espace topologique

Note 3.140. Que se passe-t-il pour la continuité, si l’on restreint l’espace d’arrivée d’une fonc-
tion ?

Proposition 3.141. Soient E , F deux espaces topoligiques, f : E → F une application continue,


B une sous-espace topologique de F. Si f (E) ⊂ B alors f : E → B est aussi continue.

Démonstration. Voir cours de M. Benadallah TCD page 15. 

3.9.2 Produits finis d’espaces topologiques


3.9.2.1 Topologie produit et ouvert élémentaire
Qn
Définition 3.142. Soient (Ei) une famille finie d’espace topologique et E = i=1 Ei.
30 Topologie générale

Notons S = L; L = ni=1 Ui , Ui est un ouvert de Ei .


 Q

Les éléments de S sont appelés ouverts élémentaires ou pavés ouverts de E.


Proposition 3.143. L’ensemble S des ouverts élémentaires est une base de topologie sur E.

Définition 3.144. La topologie engendrée par S est appelée topologie produit est une topo-
logie de E.

Exemple 3.145. Pour les espaces métriques est-ce que la topologigie produit est définie par
une distance définie sur l’espace produit (autrement dit est-ce que l’espace topologique engendré
par les topologies produit est un espace métrique ; i.e. est-il métrisable et inversement. Quelle
sont les distances qui engendrent la topologie produit ?
Soit (E1, δ1),  , (En , δn) n espaces métriques, la topologie définie par les distances équiva-
lentes d1, d2, d∞ décrites ci-dessous est identique à la topologie produit :
qP
d1(x, y) = ni=1 δi(xi , yi) , d2(x, y) = n
i=1 (δi(xi , yi)) et d∞(x, y) = sup06i61 δi(xi , yi).
2
P

Démonstration. Voir cours de M. Benadallah TCD page 16. 

3.9.2.2 Espace topologique produit

Définition 3.146. E muni de sa topologie produit est appelé espace topologique produit.
Proposition 3.147. Soit x ∈ E; x = (xi)i∈I où xi ∈ Ei , ∀i ∈ I.
Les ensembles de la forme i∈I Vi ( où Vi est un voisinage de xi dans Ei et où Vi = Ei pour
Q
presque tout i ) constituent un système fondamental de voisinage de x dans E.

3.9.2.3 Adhérence et fermés

Proposition 3.148. Soit Ai ⊂ Ei , ∀i = 1,  , n


1. A1 ×  × An = A1 ×  × An
2. En particulier A1 ×  × An est fermé dans E ⇔ chaque Ai est fermé dans Ei.

3.9.2.4 C.N.S. de séparation

Proposition 3.149. Un espace topologique produite est séparé ⇔ chacun de ses facteurs est
séparé.

3.9.2.5 Convergence d’une fonction à valeurs dans un espace topologique produit

Proposition 3.150. Soit (Ei)i=1; ;n une famille d’espace topologique, E l’espace topologique
X →
produit E1 ×  × En et X un ensemble muni d’une base de filtre B, f :
E
x 
(fi(x))i∈I
où fi:
X → Ei, l ∈ E avec l = (li)i∈I.
f tend vers l suivant B ⇔ ∀i ∈ I , fi tend vers li suivant B.

3.9.2.6 Continuité d’une fonction à valeurs dans un espace topologique produit

Proposition 3.151. Les projections canoniques de E sur les Ei sont continues.

Démonstration. Cours de M. Benabdallah TCD page 17. 

T → E
Proposition 3.152. Soient T un espace topologique f :
x (fi(x))i∈I
où fi: X → Ei, l ∈ E
avec l = (li)i∈I.
f est continue ⇔ chaque fi est continue.

Démonstration. Cours de M. Benabdallah TCD page 18. 


3.9 «Autogamie» d’espaces topologiques 31

Proposition 3.153. SiQI est une réunion de parties disjointes IλQ(où λ parcourt un ensemble
Λ) l’espace topologique , s’identifie à l’espace topologique . («associa-
Q
i∈I Ei λ∈Λ i∈I E i
tivité des produits topologiques»).

Proposition 3.154. Soit E1, E2, E3 3 espaces topologiques l’application Φ:


E1 × E2 × E3 → (E1 × E2) × E3
(x, y, z) ((x, y), y)
est un homéomorphisme.

Démonstration. Cours de M. Benabdallah TCD page 18. 

Exemple 3.155. En particulier pour p 6 n, on peut identifier Rn à Rp × Rn−p.

Proposition 3.156. Soit E1, E2 2 espaces topologiques l’application Φ: E1 → E1 × {b} (?)


x (x, b) 
est un homéomorphisme.

Démonstration. Cours de M. Benabdallah TCD page 19. 

Exemple 3.157. En particulier, on peut identifier Rn au sous-espace Rn × {0} de Rn+1.

Exemple 3.158. Si f : E1 × E2 → Y est continue, sa restriction à tout sous-espace de


(x, y) 
f (x, y)
E1 × E2 est aussi continue.
En particulier pour (a, b) ∈ E1 × E2, les applications partielles
: E1 → Y et : E2 → Y sont continues.
x  f (x, b) y 
f (a, y)
La réciproque est fausse, les applications partielles peuvent être continues sans que f le
soit : exemple : : R2 → ( R .
si (x, y)  (0, 0)

xy
(x, y) x2 + y 2
0 si (x, y) = (0, 0)

3.9.3 Produits infinis d’espace topologique


Définition 3.159. Soient (Ei) une famille finie (? pourquoi imposer Q une famille finie alors que
le chapitre portesur les produits infinis) d’espace topologique et E = i∈I Ei.
Notons S = L; L = i∈I Ui , Ui est un ouvert de Ei et Ui = Ei pour presque tout i ∈ I .
Q

Les éléments de S sont appelés ouverts élémentaires ou pavés ouverts de E.

Proposition 3.160. L’ensemble S des ouverts élémentaires est une base de topologie sur E.

Définition 3.161. La topologie engendrée par S est appelée topologie produit est une topo-
logie de E.

...

3.9.4 Espaces topologiques quotients


Théorème 3.162. Soit E un espace topologique, R une relation d’équivalence sur E, π: E → E/
R l’application canonique, O = {des parties A de E/R tel que π −1(A) soit un ouvert de E }.
Alors O est une topologie sur E/R.

Définition 3.163. O est appelée topologie quotient de la topologie de E par R.


(E/R; O) est alors appelé espace quotient de E par R.
32 Topologie générale

Remarque 3.164. L’application π est continue.

Théorème 3.165. Soient F un espace quotient d’un espace topologique, π: E → F l’application


canonique et Y un espace topologique et f : F → Y alors
f est continue ⇔ l’application f ◦ π: E → Y est continue.

3.10 Espaces topologiques Compacts


«Les espaces topologiques compacts sont les espaces «topologiquement finis», au sens où les pro-
priétés des applications continues sur de tels espaces sont en pratique comparables à celles des
applications définies sur des ensembles finis.» J.P. Marco (Analyse pour la licence - Masson)
«Chapitre le plus important du cours de topologie, leur définition ne suggère pas d’image
intuitive, par contre ils génèrent des propriétés importantes pour la suite du cours. Si à la droite
R (qui n’est pas compact), on adjoint les points − ∞, + ∞ on obtient un espace compact : «la
droite achevée R̄», notion souvent utilisée sans avoir été définie». J. Dixmier (Topologie géné-
rale p.50 - Puf).
Conséquence de la compacité : on peut aussi dire qu’un espace compact est recouvert par un
nombre fini d’ouverts, il suffit d’associer à chaque point du compact un ouvert du compact.
L’ensemble de ces ouverts recouvre le compact (trivialement). C’est alors la définition du com-
pact qui assure de l’existence d’un nombre fini d’ouverts recouvrant ce compact.
L’intéret c’est que l’on peut spécifier suivant les ensembles la nature des ouverts (puisqu’elle
n’est pas imposée) par exemple :
− Dans R : On peut dire qu’un compact A de R est recouvert par un nombre fini d’inter-
valles de centre (xi)i=1,  ,n ∈ A et de longueur 2 a. (On a pris tous les intervalles ouverts
de centre xi et de longueur 2 a. Trivialement ils recouvrent A c’est la compacité qui
assure l’exitence d’un nombre fini).
− Dans un espace métrique : Le même raisonnement permet de dire qu’un espace métrique
compact est recouvert par un nombre fini de boule de centre xi ∈ A et de rayon 1 (1 étant
choisi arbitrairement, on aurait pu prendre 2; 3; 4; 

3.10.1 Définitions
3.10.1.1 Axiome de Borel-Lebesgue

Définition 3.166. On appelle axiome de Borel-Lebesgue, la proposition suivante :


Soit E un espace topologique.
«De tout recouvrement !ouvert de E, on peut extraire un sous-recouvrement fini».
S
E = i∈I Ui
autrement dit : ⇒ ∃i1,  , in ∈ I; E = nk=1 Uik
S 
Ui ∈ O

Proposition 3.167. Soit (E , O) un espace topologique. Les propositions suivantes sont équiva-
lentes : (propositions équivalentes à l’axiome de Borel-Lebesgue)
1. E vérifie l’axiome de Borel-Lebesgue.
2. Pour toute famille de fermés de E, si l’intersection de tous ses éléments est vide, alors on
peut extraire une sous-famille finie
 d’intersection vide.
autrement dit ⇒ ∃i1,  , in ∈ I; nk=1 Uik = ∅ .
T T 
U
i∈I i = ∅
3. Pour toute famille de fermés de E, si toute intersection finie d’éléments de cette famille
est non vide, alors l’intersection de tous les éléments de cette famille
 est non vide.
autrement dit ∀i1,  , in ∈ I; k=1 Uik  ∅ ⇒ 
Tn
. (Dual ?? de la pro-
 T
i∈I U i ∅
priété de Borel Lebesgue ?????)
3.10 Espaces topologiques Compacts 33

Démonstration. Immédiate en passant au complémentaire, puis contraposition. Cours BenAb-


dallah page 19. 

3.10.1.2 Espaces quasi-compacts

Définition 3.168. Soit E un espace topologique.


On dit que E est un espace topologique quasi-compact si et seulement si il vérifie :
− l’axiome de Borel-Lebesgue.

3.10.1.3 Espaces compacts

Définition 3.169. Soit E un espace topologique.


On dit que E est un espace topologique compact si et seulement si :
− il est séparé,
− et vérifie l’axiome de Borel-Lebesgue.

Remarque 3.170. « ... il faut évidement penser que les éléments du recouvrement ouvert con-
sidéré peuvent être choisis arbitrairement petits ... . (Comme pour les fonctions continues) ... la
compacité traduit alors la possibilité de découper l’ensemble de départ en un nombre fini
d’ouverts sur lesquels la fonction varie arbitrairement peu ... . ... la propriété de séparation ...
permet d’écarter les espaces sans intéret pratique (espaces grossiers par exemple ...) et surtout
d’assurer un bon comportement des fermées dans un espace compact. » J.P. Marco p.74 (Ana-
lyse pour la licence - Masson)

3.10.1.4 Parties compactes

Définition 3.171. On dit qu’une partie A d’un espace topologique séparé E est compacte, si
et seulement si le sous-espace topologique A est compact.

Remarque 3.172.
1. Autrement dit pour tout recouvrement de A par des ouverts de A, on peut extraire un
sous-recouvrement fini de A.
2. Pour montrer qu’une partie de E est compacte dans E, on peut revenir à la définition de
la compacité et utiliser les ouverts où les fermés de A. Or, on connait mieux les ouverts
de E d’où la propriété suivante :

Proposition 3.173. (c.n.s. pour qu’une partie soit compacte).


Soit A un sous-espace d’un espace topologique séparé (E , O).
A est une partie compacte
m
De toute famille d’ouvert de E recouvrant A, on peut extraire une sous-famille finie d’ouvert de
E recouvrant A .

Démonstration. Page 22 du cours de M. BenAbdallah TCD. 

3.10.1.5 Partie relativement compacte

Définition 3.174. Une partie A de E est dite relativement compacte si et seulement si A¯


est compacte.

3.10.1.6 Exemples d’espaces compacts


1. Soit (E , O) un espace topologique, si (E , O) est séparé et fini alors E est compact.
2. Soit (E , O) un espace topologique, on a : (E , O) discret est compact ⇔ E est fini ,
3. Un espace métrique est compact si et seulement si, il est recouvert par un nombre fini de
par?
34 Topologie générale

4. Dans le cas d’espace métrique, pour montrer qu’un espace n’est pas compact, il suffit de
montrer que ça ne marche pas pour un recouvrement donné : exemple avec Rn et les
boules B(O, r), r ∈ R. Rn, n’est pas compact.
5. Soit (E , d) un espace métrique, E est compact s’il est fini.

Démonstration. Voir cours de licence p.20. 

3.10.2 Fermés et compacité


3.10.2.1 Cas d’un espace topologique séparé

Proposition 3.175. Soit (E , O) un espace topologique séparé.


K partie compacte de E ⇒ K fermée dans E

Démonstration. Voir cours le licence M. Ben Abdallah page 22. 

Remarque 3.176. Avec une condition plus forte sur E, on peut montrer l’équivalence (prop.
suivante).

3.10.2.2 Cas d’un espace topologique compact

Proposition 3.177. Soit (E , O) un espace topologique compact.


K partie compacte de E ⇔ K fermée dans E
Autrement dit une partie fermé d’un compact est une partie compact et réciproquement une
partie compact d’un compact est fermée.

Démonstration. Voir cours le licence M. Ben Abdallah page 22. 

Remarque 3.178. La réciproque a déjà été obtenue avec une condition moins forte dans la
proposition précédente.

3.10.2.3 Exemples
1. Dans un espace métrique tout compact est fermé et borné. La réciproque est vraie si et
seulement si les boules fermées de E sont compacts.
2. Soit a, b ∈ R; a 6 b, l’intervalle fermé [a; b] est compact.
3. Les sous-espaces compacts de R sont les parties fermées et bornées de R.
4. R n’est pas compacte car non borné.
5. Dans R, «A relativement compact» ⇔ «A bornée».

Démonstration.
1.
2.
3.
4.
5. Dans R, «A bornée» ⇔ «∃a > 0, tel que A ⊂ [ − a; a]» ⇔ «∃a > 0, tel Ā ⊂ [ − a; a]». 

3.10.3 Réunion et intersection d’espaces compacts


3.10.3.1 Réunion finie d’espaces compacts

Proposition 3.179. Toute réunion finie de compact est compacte.

3.10.3.2 Intersection quelconque d’espaces compacts

Proposition 3.180. Toute intersection quelconque de compacts est compacte.


3.10 Espaces topologiques Compacts 35

3.10.4 Sys. fonda. de vois. d’un point d’un compact

3.10.5 Valeur d’adhérence d’une fonction dans un compact


3.10.5.1 Valeur d’adhérence d’une application à valeurs dans un compact

3.10.5.2 Valeur d’adhérence d’une suite de points dans un espace compact

Proposition 3.181. Soit E un espace compact, toute suite dans E admet au moins une valeur
d’adhérence.

Démonstration. Voir cours de licence p.20, Topologie Ellipse p. 69, Topologie générale p.52-
53. 

3.10.6 Convergence d’une fonction sur un compact


3.10.6.1 Limite d’une fonction admettant une seule valeur d’adhérence

3.10.6.2 Limite d’une suite admettant une seule valeur d’adhérence

Proposition 3.182. Soit E un espace compact, si une suite dans E admet une seule valeur
d’adhérence l alors elle converge vers l.

Démonstration. Voir cours de licence p.20, Topologie Ellipse p. 69, Topologie générale p.52-
53. CTE page 129. 

3.10.7 Application, Continuité, Bijectivité et Compacité


3.10.7.1 Propriété des fonctions continues

Théorème 3.183. Soit E , F 2 espaces topologiques séparés et f : E → F une application con-


tinue.
Alors l’image par f de toute partie compacte de E est un partie compacte de F.

Démonstration. Cours TCD M. BenAbdallah page 25. 

Note 3.184. En particulier si E est compact alors f (E) est compact (CTE page 130). L’image
par f de tout fermé d’un espace compact est un fermé (Ceci est faux dans le cas général).

3.10.7.2 Propriété des bijections continues

Corollaire 3.185. Toute bijection continue d’un espace topologique compact (E , O) sur un
espace topologique séparé (F , O ′) est un homéomorphisme.

Démonstration. Cours TCD M. BenAbdalla page 25. 

3.10.7.3 Fonction d’un espace topo. compact dans un espace métrique

Proposition 3.186. Soit (E , O) un espace topologique compact. (F , δ) un espace métrique et


f : E → F une application continue.
Alors «f est borné» autrement dit par définition «δ(f (E)) < + ∞».

Démonstration. Cours M. Benabdallah page 25. 

3.10.7.4 Fonction d’un espace topo. compact dans R


Proposition 3.187. Soit (E , O) un espace topologique compact et f : E → R une application
continue.
36 Topologie générale

Alors "f est bornée et atteint ses bornes".


Autrement dit "∃a; b ∈ E, tel que a = infx∈E f (x) et b = supx∈E f (x)".

Démonstration. Cours M. Benabdallah page 25. 

3.10.8 Produit fini d’espaces compacts


3.10.8.1 C.N.S. de compacité

Théorème 3.188. (Théorème de Tychonoff) Soit (Ei)i∈I une famille d’espaces topologiques
séparés et E = i∈I Ei l’espace topologique produit.
Q
Alors «E compact» ⇔ «chaque Ei est compact».

Démonstration. Cours TCD Benabdallah page 26. 

Exemple 3.189.
1. Les sous-espaces compacts de Rn sont les parties fermées et bornées.
2. Soit S n = (x1,  , xn) ∈ Rn+1; i=1 x2i = 1 , S n est compacte.
 Pn

3. Toute boule fermée de Rn est compacte.

Démonstration.
1. Cours Benabdallah page 26.
2.
3. 

3.10.8.2 Applications
− La topologie de la convergence simple.
− Le théorème d’Alembert : tout polynôme non constant, à coefficients complexes, possède
au moins une racine dans C.

3.10.9 Espaces localement compacts

3.10.10 Compactification
Voir notes du cours de licence C.T.E.

3.10.10.1 Définitions

3.10.10.2 Exemples

3.10.10.3 Procédé de compactification d’Alexandrov

3.11 Espaces topologiques connexes


La notion de connexité ... traduit en termes mathématiques l’idée intuitive d’espace d’un seul
tenant . Topologie (Ellipse-p.78). CTE :« l’une des utilités de cette notion est, entre autres, de
permettre de passer du local au global ».

3.11.1 Définition
Définition 3.190.
1. Un espace topologique E est connexe si et seulement si :
3.11 Espaces topologiques connexes 37

Il n’existe aucune partition de E en deux ouverts de E.


2. Une partie A de E est connexe si et seulement si le sous-espace topologique A (i.e.
muni de la topologie induite par celle de E) est connexe.

Remarque 3.191. Une partie A de E n’est pas connexe si et seulement si :


i. Il existe une partition de A en 2 ouverts (différents de ∅) non vide.
ii. Autrement dit, il existe 2 ouverts U1, U2 de E tels que :
− U1 ∩ A  ∅ et U2 ∩ A  ∅
− U1 ∩ U2 ∩ A = ∅
− A = (U1 ∩ A) ∪ (U2 ∩ A) ⇔ A ⊂ U1 ∪ U2

3.11.2 Autres C.N.S. de connexité pour un espace topologique


Théorème 3.192. (C.N.S. de connexité) Un espace topologique est connexe si et seulement si
1. il n’existe aucune partition de E en deux fermés non vides de E.
2. les seules parties à la fois ouvertes et fermées de E sont E et ∅.
3. les seules parties de E sans point frontière sont E et ∅.
4. A est connexe ⇔ F1, F2 sont deux fermés de E, tels que A ∩ F1 ∩ F2  ∅ ⇒ A ∩ F1 = ∅,
A ⊂ F2 ou A ∩ F2 ⊂ F1. Enoncé à vérifier CTE 2003-2004. Enoncé déjà présent dans le
théorème suivant.

Théorème 3.193. Une partie A d’un espace topologique est connexe si et seulement si l’une
des 2 conditions suivantes est réalisée :
i. Si A ⊂ O1 ∪ O2 ou O1, O2 sont 2 ouverts de E vérifiant A ∩ O1 ∩ O2 = ∅ alors A ∩ O1 =
∅ et A ⊂ O2 ou A ∩ O2 = ∅ et A ⊂ O1.
ii. Si A ⊂ F1 ∪ F2 où F1, F2 sont deux fermés de E, tels que A ∩ F1 ∩ F2 = ou  ∅ ⇒ A ∩ F1 =
∅, A ⊂ F2 ou A ∩ F2 ⊂ F1. Enoncé déjà présent dans le théorème suivant.

3.11.3 Exemples
Exemple 3.194. Espace et partie connexes
− R est connexe,
− Tout intervalle de R ou de R̄ est connexe, on montre de plus que : Une partie A de R ou
de R̄ est connexe si et seulement si A est un intervalle . Autrement dit les seules parties
connexes de R ou R̄ sont les intervalles.

Démonstration. Cours T.C.D. de Benabdallah page 45. 

Exemple 3.195. Espaces non connexes


− Q et Z ne sont pas connexes.

3.11.4 Propriétés
3.11.4.1 Connexité et adhérence

Proposition 3.196. Soit E un espace topologique, A une partie connexe de E et B ⊂ E tel que
A ⊂ B ⊂ Ā alors B est connexe.

Démonstration. Cours de Benabdallah page 47. 


38 Topologie générale

Proposition 3.197. Soit E un espace topologique et A une partie connexe de E alors Ā est
aussi connexe.

Note 3.198. La connexité se transmet à l’adhérence.

3.11.4.2 Réunion de connexes qui se rencontrent

Proposition 3.199. Soit (Ci)i∈I S une famille de connexes d’un espace métrique (E , d) telle que
∃i0 ∈ I , ∀i ∈ I , Ci ∩ Ci0  ∅? alors i∈I Ci est connexe.

Démonstration. CTE page 150. 

Proposition 3.200. La réunion d’une famille de parties connexes dont l’intersection n’est pas
vide est connexe.

Démonstration. Cours Banabdallah page 47. 

Proposition 3.201. Soit (Ci)i∈I une famille au plus dénombrable de connexes (autrement dit
avec I = {0; 1;  ; p} où I = N) telle que ∀i ∈ I , i  0, Ci−1 ∩ Ci  ∅? alors i est connexe.
S
i∈I C

3.11.4.3 Image d’un connexe par une application continue

Proposition 3.202. Soit E , F deux espaces topologique et f : E → F une application continue.


Si A est une partie connexe de E alors f (A) est une partie connexe de F.

Démonstration. Cours de Benabdallah page 49. CTE page 150. 

Exemple 3.203.
1. Tout segment [a; b] = {a + t(b − a); t ∈ [0, 1]} d’un espace normé E est connexe. Car image
[0; 1] → [a; b]
de [0, 1] par l’application continuef :
t  t a + (1 − t) b
.

2. Toute partie X convexe de E est connexe.


3. En particulier tout espace normé est connexe
4. Toute boule ouverte ou fermée d’un espace normé est convexe donc connexe.

3.11.4.4 Théorème des valeurs intermédiaires

Note 3.204. Il me semble que ce soient les conditions minimales pour énoncer le théorème des
valeurs intermédiaires.

Corollaire 3.205. (Théorème des valeurs intermédiaires) Soit E un espace topologique connexe
et f : E → R une application continue. Soient a, b ∈ f (E) avec a < b. Alors pour tout c ∈ ]a, b[, il
existe x ∈ E tel que f (x) = c.

Démonstration. Cours de Benabdallah page 49. 

3.11.5 Eléments connectés, Composantes connexes, Discontinuité


totale
Définition 3.206. Soit E un espace topologique. On dit que deux éléments a, b ∈ E sont conne-
ctés, si et seulement si il existe une partie connexe de A ⊂ E (?
A de E) qui les contient tous
les deux.

Proposition 3.207. La relation «... sont connectés ...» est une relation d’équivalence.

Définition 3.208. Les classes d’équivalence pour la relation «... sont connectés ...» sont
appelés composantes connexes.
3.11 Espaces topologiques connexes 39

Proposition 3.209. La composante connexe d’un point a ∈ E est la plus grande partie connexe
de E contenant a.

Définition 3.210. Un espace topologique est dit totalement discontinu si chacune des ses
composantes connexe a un seul élément.

Remarque 3.211.
a) Les composantes connexes forment une partition de A.
b) Si elles sont en nombres fini elles sont ouvertes.
c) Les composantes connexes sont fermées.
d) Un espace topologique discret est totalement discontinu. Attention la réciproque n’est pas
vraie : Q est totalement discontinu, mais n’est pas discret.
e) E est connexe ⇔ E n’a qu’une seule composante connexe.

Démonstration.
a) CTE page 151. 

3.11.6 C.N.S. de connexité pour un produit d’espace topologique


Proposition 3.212. Soit E1,  , En des espaces topologiques et E = E1 ×  × En l’espace topolo-
gique produit alors E est connexe si et seulement si : ∀i = 1,  , n, Ei est connexe.

Démonstration. Cours de Benabdallah page 49. 

3.11.7 Chemin d’un espace topologique


Définition 3.213. On appelle chemin d’un espace topologique (E , O) toute application continue
ϕ: [0; 1] → E. ϕ(0) et ϕ(0) et ϕ(1) sont appelés respectivement origine et extrémité de ce chemin.

3.11.8 Connexité par arcs


Note 3.214. La connexité par arcs est surtout une notion pratique pour montrer qu’un espace
est convexe. En terme intuitifs un espace est connexe par arcs si et seulement si on peut tou-
jours relier deux de ses points par une courbe continue, ce qui en fait une notion moins abstraite
que la connexité (CTES 2003-2004).

Définition 3.215. Un espace topologique E est connexe par arcs si et seulement si pour
tout couple (a, b) de points de E, il existe une application continue f : [0, 1] → E telle que f (0) = a
et f (1) = b. ?à revoir? Autrement dit deux points quelconques peuvent être joints par un chemin
de E.

Proposition 3.216. Un espace topologique connexe par arcs est connexe.

Remarque 3.217. La réciproque du théorème est fausse dans le cas général d’un espace topo-
logique. Cependant, il y a équivalence pour un ouvert d’un espace vectoriel normé.

3.11.9 Espace localement connexe


Définition 3.218. Un espace est dit localement connexe lorsque tout point de cet espace possède
un système fondamental de voisinages connexes.

Proposition 3.219. Dans un espace topologique localement connexe, chaque composante con-
nexe est à la fois ouverte et fermée.
40 Topologie générale

3.11.10 Application de la connexité


3.11.10.1 Connexité et homéomorphisme : On peut utiliser la connexité pour prouver que
deux espaces ne sont pas homéomorphes : si l’un de ces espaces est connexe et l’autre pas, les
deux espaces ne sont évidement pas homéomorphes.

3.11.10.2 Connexité et résolution d’équation : Le théorème des valeurs intermédiaires est


souvent utilisé pour montrer l’existence d’une solution, or il n’est énoncé que pour des fonctions
d’un espace connexe.
Chapitre 4
Espaces métriques et leur topologie
Dans un espace métrique la plupart des notions de topologie se ramènent à des problèmes de
convergence de suite.

4.1 Définitions et propriétés générales

4.1.1 Distance, semi-distance et écart sur un ensemble E


4.1.1.1 Définitions

Définition 4.1. Soit E un ensemble non vide.


On appelle distance sur E, toute application d: E 2 → R+ vérifiant ∀(x, y, z) ∈ E 3 :
i. (d(x, y) = 0) ⇔ (x = y) [l’axiome de séparation],
ii. d(x, y) = d(y, x) [l’axiome de symétrie],
iii. d(x, y) 6 d(x, z) + d(z , y)[l’axiome d’inégalité triangulaire].

Définition 4.2.

Définition 4.3.

4.1.1.2 Deuxième inégalité triangulaire

Proposition 4.4. Pour toute distance d sur E on a:


d(x, z) − d(z, y) 6 d(x, y), ∀(x, y, z) ∈ R3.

Démonstration. Cours ce Benabdallah page 1. 

Remarque 4.5. Inégalité presque aussi utile que l’inégalité triangulaire.

Proposition 4.6. Pour toute distance d sur E on a:


Pn−1
d(x1, xn) 6 i=1 d(xi , xi+1), ∀(xi)i=1 n ∈ E n , n ∈ N\{0; 1}.

4.1.1.3 Inégalité quadrilatère

Proposition 4.7. Pour toute distance d sur E on a:


d(x, y) − d(x ′, y ′) 6 d(x, x ′) + d(y, y ′), ∀(x, y, x ′, y ′) ∈ E 4.

Remarque 4.8. La différence des diagonales est inférieure à la somme des côtés opposés ( en
longueur)

Démonstration. ? 

41
42 Espaces métriques et leur topologie

4.1.1.4 Exemples de distances

Exemple 4.9. Si d est une distance alors, pour tout λ ∈ R∗+, λ d est une distance.

Exemple 4.10. Sur R, on peut définir la distance suivante, dite distance usuelle de R
d: (R)2 → R+ .
(x, y) 
|x − y |

Exemple 4.11. Sur Rn, On définit les 3 distances suivantes, dites distances usuelles de Rn:

1. d1: (Rn)2 → P R+ (Somme des valeurs absolues des différences des com-
(x, y) 
i=1,  n |xi − y i |
posantes ou coordonnées ?)

2. d2: (Rn)2 → R+ c’est la distance euclidienne de Rn. C’est l’inégalité



qP
(x, y) i=1,  n (xi − yi)2
de Minkowsky qui permet de démontrer inégalité que d2 vérifie l’inégalité triangulaire et
donc que (Rn; d2) est un espace métrique.

3. d p: (Rn)2 → R+ vérifier que c’est bien une distance.



qP
p p
(x, y) i=1,  n |xi − yi |

4. Toutes les normes des espaces vectoriels normés permettent de définir des distances c’est
le cas des exemples précédents.

5. d∞: (Rn)2 → R+ .
(x, y) 
supi=1,  n |xi − yi |
6. Rajouter la distance uniforme masson page 53.

Exemple 4.12. l ′application d: (Rn)2 →  R+ est une distance appelée distance dis-
(x, y) 
0, si x = y
1, si x  y
crète.

Exemple 4.13. Espace affine ? (Sans doute faut-il rajouter un exemple de distance sur un
espace affine ?)

4.1.2 Définition d’un espace métrique


Définition 4.14. On appelle espace métrique, le couple constitué
1. d’un ensemble E non vide et
2. d’une distance d sur E.
On le note (E; d) ou Ed et même E, s’il n’y a pas d’ambiguité sur d.

Exemple 4.15.
1. Un ensemble E  ∅ muni de la distance discrète est appelé espace métrique discret.
Quel lien y-a-t-il avec l’espace topologique discret défini en topologie ?
2. R muni de sa distance usuelle est un espace métrique.
3. Rn muni d’une des distances usuelles de Rn sont des espaces métriques.
4. Tous les espaces vectoriels normés sont des espaces métriques.
4.1 Définitions et propriétés générales 43

4.1.3 Extension de la notion de distance, diamètre d’une partie


Note 4.16. Les définitions de ces distances et de diamètre ne me paraissent pas satisfaisantes,
il faudrait auparavant définir les réels appelés distances de .. à .. puis montrer leurs unicités !
(assurées sans doute par la borne inférieure). Cette condition est nécessaire pour pouvoir définir
une application. La définition de distance et de diamètre en tant qu’application peut être enfin
introduite. Cette définition finale n’étant qu’un résumé de cette démarche : éléments mis en jeu,
définition explicite et unicité de la distance ou du diamètre. On aurait également pu définir la
distance de ... à ... puis établir une propriété disant que c’est bien une distance !

4.1.3.1 Distance d’un point à un ensemble non vide

Note 4.17. La présentation de

Définition 4.18. Soit (E , d) un espace métrique et A ⊂ E , A = ∅.


On appelle distance d'un point à A, l’application d(IE , A): E → R+ on a
x infa∈A (d(x, a))
donc : d(x, A) = inf y ∈A (d(x, y)).

Avertissement 4.19. Est-ce une distance ? Non je ne crois pas ! La distance est définie entre
deux objets de même nature. Or dans ce cas, il s’agit d’un point et d’un ensemble !

4.1.3.2 Distance entre deux ensembles non vides

A ⊂ E; A  ∅

Définition 4.20. Soit (E , d) un espace métrique, . On appelle distance de A à
B ⊂ E; B  ∅
B le réel noté d(A, B) tel que d(A, B) = infx∈A; y ∈B (d(x, y)).

Exemple 4.21. Voir Cours de licence de mathématiques CTE.

Remarque 4.22. Page 32 du cours de CTE : « Bien faire attention que malgré son nom, la dis-
tance entre ensemble n’est absolument pas une distance !! par exemple : si E = R, A = [0; 1], B =
[1; 2] alors d(A; B) = 0 et pourtant A  B ».

Proposition 4.23. d(A, B) = infx∈A d(x; B) = infx∈B d(x; B).

4.1.3.3 Diamètre d’une partie

Définition 4.24. Soit (E , d) un espace métrique et A ⊂ E. On appelle diamètre de A, le


nombre noté δ(A) tel que : δ(A) = supx; y ∈A (d(x, y)).
44 Espaces métriques et leur topologie

Définition 4.25. Soit (E , d) un espace métrique et A ⊂ E. «A est dite bornée» ⇔ «δ(A) < +
∞» autrement dit (A a un diamètre fini) : ∃M > 0 tel que d(x, y) 6 M, ∀x, y ∈ A.

Avertissement 4.26. Pour la définition d’une partie bornée, reprendre le présentation du cours
CTE page 32. 3 propriétés équivalentes pouvant servir de définition : Soit (E , d) un espace
métrique :
Définition : A ⊂ E est bornée ⇔ ∃a ∈ E , ∃r > 0; A ⊂ B(a; r)
Propriétés :
1. ⇔ ∀a ∈ E , ∃r > 0; A ⊂ B(a; r).
2. ⇔ δ(A) < + ∞
Attention la notion de boule est définie après. Dans ce cas une réorganisation est nécessaire !

Note 4.27. Rajouter les propriétés du cours (résumé) de licence CTE Chapitre 2 Topo 3 +

remarque f : x d(x; A) contractante.

4.1.3.4 Propriétés

Proposition 4.28. Soient A et B deux parties non vides d’un espace métrique (E , d) et p ∈ E
alors :
1. d(p, A); d(A, B); δ(A) sont des réels non négatifs.
2.
i. si p ⊂ A alors d(p, A) = 0 mais d(p, A) = 0 ; p ∈ A (Voir adh(A)).

A⊂E
ii. si sont tels que A ⊂ B alors ∀u ∈ E , d(u; B) 6 d(u; A).
B ⊂E
iii. Si A  ∅; ∀(x, y) ∈ E 2, |d(x, A) − d(y, B)| 6 d(x, y) c’est une généralisation de la
seconde inégalité triangulaire.
3. Si A ∩ B = ∅, alors d(A, B) = 0.
4. Si A est fini alors δ(A) < + ∞; A est borné.
5.
i. δ(A) = 0 ⇔ A = {a}.
ii. δ(A ∪ B) 6 δ(A) + δ(B) + d(A; B).
iii. A borné ⇔ ∃(ρ > 0, u ∈ E) tels que A ⊂ B(u; ρ).

4.1.4 Boule d’un espace métrique


4.1.4.1 Boule ouverte

Définition 4.29. Soit (E , d) un espace métrique, a ∈ E et r ∈ R+.


On appelle boule ouverte de E de centre a et de rayon r l’ensemble :
B(a, r) = {x ∈ E; d(a, x) < r}.

4.1.4.2 Boule fermée

Définition 4.30. Soit (E , d) un espace métrique, a ∈ E et r ∈ R+.


On appelle boule fermée de E de centre a et de rayon r l’ensemble :
B ′(a, r) = {x ∈ E; d(a, x) 6 r }.

4.1.4.3 Sphère

Définition 4.31. Soit (E , d) un espace métrique, a ∈ E et r ∈ R+.


On appelle sphère de E de centre a et de rayon r l’ensemble :
4.1 Définitions et propriétés générales 45

S(a, r) = {x ∈ E; d(a, x) = r}.

4.1.4.4 Boule et sphère généralisées

4.1.4.5 Remarques et Exemples

Remarque 4.32.
1. si r = 0, B(a, o) = ∅ , B ′(a, o) = S(a, o) = {a}.
2. si r > 0, a ∈ B(a, r) ⊂ B ′(a, r), S(a, r) ⊂ B ′(a, r).

Exemple 4.33.
1. Soit E l’espace métrique discret
r B(a, r) B ′(a, r) S(a, r)
0 < r < 1 {a} {a} ∅
r=1 {a} E E − {a}
r>1 E E ∅
2. R2 avec les distances usuelles d1,d2, et d∞, on a pour x = (x1, x2) :
d d(O, x) S d(O, r)
d1 |x | + |x2| {x ∈ R ;|x1| + |x2| = r }
2
p 1 p
d2 (x1)2 + (x2)2 {x ∈ R2; (x1)2 + (x2)2 = r}
d∞ sup(|x1|; |x2|) {x ∈ R2;sup(|x1|; |x2|) = r}
Traçons pour ces 3 distances S d(O, r) :

4.1.5 Isométrie; Fonction lipschitziennes et contractantes


Soit (E , d) et (F , δ) deux espaces métriques et f : E → F une application.

4.1.5.1 Isométrie

Définition 4.34. On dit que f : E → F est une isométrie si et seulement si :


∀(x; y) ∈ E 2, δ(f(x); f(y)) = d(x; y).

Proposition 4.35. Une isométrie est toujours injective mais pas nécessairement surjective :
f isométrie ⇒ f injective .

Remarque 4.36. En dimension finie, est-ce qu’une isométrie est une bijection ?

Définition 4.37. Deux espaces métriques sont dits isométriques si et seulement s’il existe
une isométrie surjective (i.e. bijective) de l’un dans l’autre.

Remarque 4.38.
1. Si (E , d) et (F , δ) deux espaces métriques isométriques, du point de vue de la théorie des
espaces métriques, ils sont indiscernables, puisque toutes les propriétés sont les mêmes.
Cependant leurs éléments peuvent être de nature très différentes (suites dans l’un et fonc-
tion dans l’autre par exemple).
2. Les translations, les rotations, les symétries du plan sont des exemples d’isométries.
46 Espaces métriques et leur topologie

4.1.5.2 Condition de Lipschitz d’ordre α et de rappport k

Définition 4.39. On dit que f : E → F vérifie une condition de Lipschitz ou de Hölder,


d’ordre α et de rapport ou de constante k si et seulement si :
∀x, y ∈ E , δ(f(x); f(y)) 6 k × d(x, y)α où k, α sont des réels tels que : k > 0, 0 < α 6 1.

4.1.5.3 Fonctions Lipschitziennes et contractantes

Remarque 4.40. Est-ce que k peut-être égale à 0 ? Oui pour le CTE page 75 topologie.

Définition 4.41. On dit qu’une application f : E → F est lipschitzienne de rapport ou de cons-


tante k si et seulement si :
1. ∃k ∈ R+, ∀x, y ∈ E , δ(f(x); f(y)) 6 k × d(x, y).
2. Autrement dit f vérifie la condition de Lipschitz d’ordre 1 et de rapport k.

Remarque 4.42.
1. Si k = 1 , f est contractante : c’est une contraction.
2. Si k < 1 , f est dite strictement contractante.

Exemple 4.43.
1. Soit (E , d) un espace métrique et x ∈ E donné.
La fonction f : E → R est une contraction à valeur dans R.
u 
d(u, x)

2. Les fonctions f : E → R et f : R+ → R sont des contractions.


x  1
1 + |x|
x ln(x)
3. Toute fonction f : I → R définie sur un intervalle I de R dérivable et de dérivée bornée est
lipschitzienne.

4.2 Topologies des espaces métriques


Note 4.44. Toute les propriétés énoncées ici doivent venir en illustration du cours de topologie
(et donc figurer dans le cours de topologie comme exemples). Si on souhaite traiter des notions
topologiques d’un espace métrique sans avoir à faire un cours de topologie, il faut introduire de
nouvelles définitions :
− M-Ouvert : ouvert au sens métrique,
− M-Topologie : topologie au sens métrique,
− M-Fermé : fermé au sens métrique,
− M-Adhérence : ...
− M-Intérieur : ...
− M-Séparé : ...
− M-Convergence : ...
− M-Compacité : ...
Toutes ces définitions étant simplement établies à l’aide d’une condition nécessaire et suffisante
dans les chapitres correspondants. Faire un cours de topologie avant le cours d’espace métrique
permet de faire l’économie de ces définitions. Mais oblige à établir l’équivalence lorsque l’on fera
le cours de topologie. (Ne pourrait-on pas faire les deux approches ? Cela me semble difficile, la
meilleure solution serait de mettre en introduction la remarque précédente, cependant il peut
être utile de disposer d’un cours d’espace métrique indépendant ! c’est cette dernière solution
qui est à privilégier, il faut pour cela suivre le plan du cours de topologie qui lui doit justifier les
appellations utilisées pour les espaces métriques).
4.2 Topologies des espaces métriques 47

On va montrer que les espaces métriques sont des espaces topologiques, où la topologie est
induite par la distance. On pourra alors parler d’ouverts; de fermés; de voisinages; de point
d’accumulation; de limites de suites; de continuité d’une fonction et d’homéomorphisme.
Il est évident que l’intersection de deux boules ouvertes, n’est pas obligatoirement une boule
ouverte. Cependant, on peut montrer que tout point de l’intersection appartient à une boule
ouverte contenue dans cette intersection.

Remarque 4.45. Prérequis : Le cours de topologie. NON ! Car cette partie sera indépendante.

4.2.1 Topologie métrique


On montre dans un premier temps que l’ensemble des boules ouvertes d’un espace métrique (E ,
d) est une base d’une topologie sur X. Ainsi, on va pouvoir caractériser simplement les ouverts
de E.

Proposition 4.46. Dans un espace métrique E, toute boule ouverte est une partie ouverte de
E.

Démonstration. Cette proposition est-elle à sa place ? Page 2 du cours de licence de M.


Benabdallah. 

Proposition 4.47. Soit (E , d) un espace métrique.


La famille des boules ouvertes d’un espace métrique (E , d) est une base de topologie sur E.

Définition 4.48. Soit (E , d) un espace métrique. La topologie T sur E, engendrée par la famille
des boules ouvertes de E, est appelée topologie métrique associée à d.

Proposition 4.49. Soit (E , d) un espace métrique.


 
1
1. La famille des boules ouvertes Bn x, n est un système fondamental de voisinage de x
dans E.

 
1
2. La famille des boules fermées Bn x, n est un système fondamental de voisinage de x
dans E.

4.2.2 Ouverts
Proposition 4.50. Soit (E , d) un espace métrique.
O est un ouvert de T si et seulement si :
1. O est la réunion d’une famille quelconque d’élément de B :
(O ∈ T ) ⇔ (O = ∪i∈I Oi; ∀i ∈ I , Oi ∈ B).
2. Autrement dit, pour tout élément x de O, il existe un élément de B contenant x et con-
tenu dans O :
(O ∈ T ) ⇔ (∀x ∈ O, ∃Ox ∈ B; x ∈ Ox et Ox ⊂ O).

Remarque 4.51. On retrouve toutes les propriétés des espaces topologiques :


− ∅; E sont des ouverts,
− La réunion quelconques d’ouverts est un ouvert,
− L’intersection finie d’ouverts est un ouvert.
Les ouverts d’un espace métrique discret E sont toutes les parties de E. C’est donc un espace
topologique discret.

Démonstration. Cours de licence M. Benabdallah page 3. 


48 Espaces métriques et leur topologie

4.2.3 Voisinages d’un point


Proposition 4.52. Soit (E , d) un espace métrique, N et A deux parties de E et p un point de
E. N est un voisinage de p [rep. A] si et seulement si il existe une boule ouverte incluse dans
N contenant p [resp. A].

Proposition 4.53. Toutes ces propriétés sont des propriétés vues en topologie (Remarque inu-
tile) :
1. ∀V ∈ V(a) ⇒ a ∈ V.
2. ∀V ∈ V(a); ∀V ′ ∈ P(E), V ⊂ V ⇒ V ′ ∈ V(a) ′.
3. ∀V , V ′ ∈ V(a) ⇒ V ∩ V ′ ∈ V(a).
4. ∀V ∈ V(a), ∃U ∋ V(a); ∀b ∈ E , b ∈ U ⇒ V ∈ V(b).
5. Un sous-ensemble U est ouvert si et seulement si U est voisinage de chacun de ses points.

4.2.4 Fermés
Proposition 4.54. Soit E un espace métrique.
1. Toute boule fermée est un fermé de E.
2. Tout ensemble réduit à un point est un fermé dans E. (Autrement dit, tout singleton est
un fermé).
3. Si E est discret, tout sous-ensemble A est fermé.
4. Toute sphère est une partie fermée de E.

Démonstration. Cours de M. Benabdallah TCD page 4. 

4.2.5 Adhérence, Intérieur


Rajouter passage licence mathes CTE. Classeur rose.

4.2.6 Densité
Proposition 4.55. Soit E un espace métrique, A et B deux parties de E.
A est dense par rapport à B ⇔ ∀x ∈ B , ∀ε > 0, B(x, ε) ∩ A  ∅.

4.2.7 Espaces séparables


Note 4.56. S’agit-il d’une notion topologique ou purement métrique ?

Définition 4.57. On appelle espace séparable tout espace métrique possédant une partie par-
tout dense dans E et (au plus) dénombrable.

Remarque 4.58. Autrement dit, si et seulement si il possède une suite de points formant une
partie partout dense de E. Définition Dico Puf page 676 + Livre Topologie Ellipse page 130.
«Au plus» est sous-entendu donc pas nécessaire)

Exemple 4.59. Récupérer la définition de la page 263


1. R muni de la distance usuelle d(x, y) = |x − y |.
2. Cn est séparable car tous les points de Cn à coordonnées dans Q + i Q forment un sous-
ensemble dense qui est dénombrable.
3. f 2(N ); L2[0; 2π]; L2(U ) où U est un ouvert de Rn sont tous des espaces de Hilbert sépara-
bles.
4.2 Topologies des espaces métriques 49

Proposition 4.60. (Sans aucun doute c’est faux !, et n’a pas sa place dans ce châpitre) Tout
espace métrique est séparé au sens de Hausdorff.

4.2.8 Convergence et limite d’une fonction

4.2.9 Convergence et limite d’une suite


4.2.9.1 Définition

Définition 4.61. Soit (E , d) un espace métrique, (an) une suite de E et l un point de E.


On dit que (an) tend ou converge simplement dans E vers l ∈ E si et seulement si :
∀ε > 0, ∃N ∈ N; (∀n > N ) ⇒ (d(an , l) < ε).
On écrit alors limn→+∞ an = l.

4.2.9.2 C.N.S. Adhérence-Suite et Fermé-Suite

Proposition 4.62. Soit E un espace métrique, A ⊂ E,


1. soit x un point de E, (x ∈ Ā ) ⇔ il existe une suite (xn)n∈N de point de A convergent
vers x.
2. A est fermé ⇔ toute suite de A convergente dans E à sa limite dans A .

Démonstration. Page 9 du cours Benabdallah. 

C.N.S. de densité utilisant les Suites (Trouver son emplacement)

Remarque 4.63. Ecrire la condition suffisante de densité utilisant les suites : ce doit être
quelque chose du type : A dense dans E ⇔ ∀x ∈ E , ∃ une suite (xn) de points de A convergeant
vers x.

Démonstration. Voir CTE page 41 Topologie. 

4.2.10 Continuité
4.2.10.1 Définition

Proposition 4.64. Si (X , d) et (E , d ′) sont des espaces métriques, la condition devient :


f est continue en x0 si et seulement si :
limx→x0 f (x) = f (x0).
∀ε > 0, ∃η > 0, f (B(x0, η)) ⊂ B(f (x0), ε),
∀ε > 0; ∃η > 0; ∀x ∈ Bd′ (x0, η) ⇒ f (x) ∈ Bd′ ′(f (x0), ε)
∀ε > 0, ∃η > 0; ∀x ∈ X , (d(x0, x) 6 η) ⇒ (d ′(f (x0), f (x)) 6 ε).
RAjouter 3ième point de 1.1.1 cours CTE chapitre 2 + à mettre en premier ?

R2 → R+
L’application δ:
(x, y)  |x − y |
est une distance sur R. (R, δ) est donc un espace
métrique. (Je ne vois pas l’intéret de cette phrase ! c’est d’ailleurs le premier exemple du cours)
50 Espaces métriques et leur topologie

Exemple 4.65. Soit (E , d) un espace métrique. L’application f : E → R+ est continue.


x 
d(x, A)
Dans une propriété suivante, nous verrons qu’elle est même uniformément continue.

Démonstration. Page 32 du cours de M. Benabdallah. 

Continuité de la distance sur son espace de définition.


Soit (E , d) un espace métrique. L’application distance f : E 2 → R+ de E est con-
(x; y) d(x, y)
tinue sur E. E étant considéré comme l’espace topologique produit. Vérifier l’énoncé ! Je ne le
2

trouve pas dans le cours de M. Benabdallah. Par contre, il en existe un dans mon cours manus-
crit : section espace métrique 2.10. Ceci justifie que cette partie doit se placer dans la section
espace produit. Par exemple dans 5.5.1 ou 5.5.2 ce qui conduit à une autre démonstration de la
continuité de d sur E 2: en utilisant les applications ci-dessus.

Démonstration. Livre Topologie Gilles Christol; Anne Cot et Charles-Michel Marle page 88
ou Topologie générale Jacques Dixmier page 66. 

Par contre on montre que f : E → R+ , α ∈ E est continue.


x 
d(α, x)
ε
Démonstration. Soit x0 ∈ E , ε > 0 et V = B ′ x0; 2 ; ∀x ∈ V , d(α, x) 6 d(α; x0) + d(x0; x), d(α,
x0) 6 d(α; x) + d(x; x0) d’où |d(α; x) − d(α; x0)| < ε donc f est continue.


4.2.10.2 C.N.S. de continuité utilisant les suites

Théorème 4.66. Soient E un espace métrique, F un espace topologique et f : E → F une appli-


cation.
f continue en a ⇔ ∀(xn) suite de E convergente vers a, la suite (f (xn)) converge dans F
vers f (a).
1. (xn) converge vers a ⇒ la suite (f (xn)) de F converge vers f (a).( → à revoir)
2. En particulier si a est valeur d’adhérence de (xn) alors f (a) est valeur d’adhérence de
(f (xn)).
A revoir, il doit manquer des hypothèses, voir 1 exemple d’application TD cours licence de math
A.R. page 4.

Démonstration.
1. Cours M. Benabdallah page 12.
2.
3. 

4.2.11 Valeur d’adhérence d’une fonction


Définition 4.67. Soit E , F deux espaces métrique, A ⊂ E , x0 ∈ Ā et f : A → E valeur d’adhérence
de f (x) lorsque x → x0 si et seulement si : ∀ε > 0; ∃x ∈ A; d(x; x0) < α et d(f (x); y) < ε. La
deuxième condition peut être remplacée par (suite voir cours licence CTE) ???

4.2.12 Valeur d’adhérence d’une suite


Proposition 4.68. Soit (E , d) un espace métrique, (xn) une suite de E et a un point de E.
a est valeur d’adhérence de (xn) ⇔ ∃ une suite extraite de (xn) convergente vers a.
4.2 Topologies des espaces métriques 51

1
Exemple 4.69. La suite (xn) de R telle que : x2n = n et x2n+1 = n . 0 est valeur d’adhérence de
(xn).

4.2.13 Nombre de Lebesgue


Lemme 4.70. (Lemme de Lebesgue) Soit (E , d) un espace métrique dans lequel toute suite pos-
sède une valeur d’adhérence et (Ui)i∈I un recouvrement ouvert de E alors
Il existe ρ > 0 telle que toute boule ouverte de E de rayon inférieur ou égal à ρ soit contenue
dans au moins un des ouverts Ui.

Remarque 4.71. Ce lemme sera utilisé pour démontrer la C.N.S. de compacité dans un espace
métrique.

Démonstration. Cours de M. Benabdallah page 20. 

Définition 4.72. On appelle nombre de Lebesgue pour le recouvrement (Ui)i∈I, tout ρ ∈ R∗+ ,
vérifiant le lemme de Lebesgue précédent.

4.2.14 Espace métrique compact


«Dans le cadre métrique, l’étude des propriétés de compacité se ramène à l’étude des propriétés
de convergence de suites, ce qui simplifie évidement l’approche. La présence d’une distance
permet aussi de quantifier la taille des recouvrements ouverts utilisés, rendant ainsi les défini-
tions plus intuitives.» J.P. Marco (Analyse pour la licence p.78 - Masson).

Remarque 4.73. On a vu qu’un espace métrique est toujours séparé. Pour montrer qu’il est
compact, il suffit donc de montrer qu’il est quasi-compact.

Proposition 4.74. Un espace métrique (E , d) est compact si et seulement si, il est complet et
précompact.

Exemple 4.75.
1. Toute espace métrique fini est compact.
2. L’ensemble R des nombres réels n’est pas compact.

4.2.14.1 C.N.S. de compacité

4.2.14.2 Propriétés

Proposition 4.76. Soit (E , d) un espace métrique, A ⊂ E. A est relativement compact ⇒ A


borné.

Note 4.77. Rajouter des exemples.

Exemple 4.78.

Proposition 4.79. Soit (E , d) un espace métrique , A une partie de E.


A compact ⇒ A est fermée et bornée

Remarque 4.80. Il y a équivalence si les boules fermées sont compactes ?

4.2.14.3 Exemples
1. Soit a, b ∈ R; a 6 b, l’intervalle fermé [a; b] est compact.
2. Les sous-espaces compacts de R sont les parties fermées et bornées de R.
3. R n’est pas compacte car non borné.
4. Dans R, «A relativement compact» ⇔ «A bornée».
52 Espaces métriques et leur topologie

5. Les parties compactes de Rn (muni des distances produit usuelles) sont les fermées bor-
nées de Rn. Idem pour les Kn, les parties compactes sont les fermés bornés.

Théorème 4.81. Un espace métrique est compact ⇔ il est recouvert par un nombre fini de
boule.

4.2.14.4 Compacité, suite et C.N.S. de compacité dans un espace métrique

Proposition 4.82. Soit (xn) une suite convergent d’un espace métrique (E , d), l sa limite,
alors l’ensemble {xn; n ∈ N} ∪ {l} est compact.

Proposition 4.83. Soit (E , d) un espace métrique compact.


De toute suite de E, on peut extraire une sous-suite convergente.

Proposition 4.84. (Critère de compacité C.N.S.) Soit E un espace métrique.


«E est compact» ⇔ «toute suite a une valeur d’adhérence» ⇔ «toute suite admet une sous-
suite convergente» ⇔ Toute partie finie de E admet au moins un point d’accumulation.

Démonstration. Cours de M. Benabdallah page 21, Cours CTE page 129. 

Exemple 4.85. Soit (E , d) un espace métrique et A ⊂ E.


«A est compact relativement (i.e. Ā compact)» ⇔ «Toute suite de point de A admet une
sous-suite convergente» ⇔ « Toute suite de point de Ā admet une sous-suite convergente ».

Démonstration. Cours de M. Benabdallah page ?. 

Proposition 4.86. Soit (E , d) un espace métrique, A ⊂ E et A relativement compact.


Alors A est bornée.

Proposition 4.87. (Théorème de Heine) Soient (E , d) un espace métrique compact, (E ′, d ′)


espaces métriques et f : E → F une application continue. Alors f est une application uniformé-
ment continue.

4.3 Continuité uniforme


Peut-on aussi définir la convergence uniforme autrement que dans un espace de fonction ? La
notion de fonction uniformément continue n’est définie que sur un espace métrique. C’est une
notion propre aux espaces métriques car, on ne peut pas exprimer cette notion en terme
d’ouverts uniquement.

4.3.1 Définition
Définition 4.88. Soit (E , d) et (F , δ) deux espaces métriques et une application f : E → F.
On dit que f est uniformément continue si et seulement si :
∀ε > 0, ∃η > 0, ∀x, y ∈ E , [d(x, y) < η ⇒ δ(f (x), f ′ y)) 6 ε]

Proposition 4.89. «f Lipschitzienne» ⇒ «f uniformément continue» ⇒ «f continue».

Démonstration. Evidente par recours aux définitions. 

Exemple 4.90.

1. Soit A ⊂ E, l’application f : E → R+ est uniformément continue.


x d(x, A)

2. Contre exemple : L’application f : R → R+ est continue, mais non uniformément con-


x 
x2
tinue.
4.4 Distances équivalentes 53

3. L’application IdE est uniformément continue.

Proposition 4.91. Si f et g sont uniformément continue, alors f ◦ g aussi.

Démonstration. La composée de deux applications uniformément continues est-elle uniformé-


ment continue ? Oui voir CTE page 76 cours de topologie. 

Proposition 4.92. (Théorème de Heine) Soit (E , d) un espace métrique compact et (F , δ) un


espace métrique. Toute application continue de E dans F est uniformément continue.

Démonstration. Voir cours de licence p.30. 

Proposition 4.93. Soit (E , d) et (F , δ) deux espaces métriques et une application f : E → F


(uniformément ?) continue. Alors l’image par f d’une suite de Cauchy de E est une suite de
Cauchy de F.

Démonstration. Voir cours de licence p.31. 

Remarque 4.94. Cette proposition permet de montrer que l’application Φ: R∗ → R∗ n’est


x x
1

pas uniformément continue.

Définition 4.95. On dit que f est un homéomorphisme uniforme ⇔ f , f −1 sont uniformément


continues.

4.4 Distances équivalentes


Parfois deux distances  d et δ sur un espace E sont assez ressemblantes pour que les espaces
métriques aient les mêmes propriétés pour des objets mathématiques définis resp. par d et δ. Il
existe plusieurs notions de ressemblance.

4.4.1 Distances topologiquement équivalentes


Définition 4.96. On dit que deux distances d et d ′ sont topologiquement équivalentes sur E
si et seulement si :

Les appplications identiques : Ed → Ed ′ et : Ed ′ → Ed sont continues.


x 
x x x 
Proposition 4.97. d et d ′ induisent la même topologie sur E.

Remarque 4.98. Autrement dit ssi Id est un homéomorphisme.

4.4.2 Distances uniformément équivalentes


Définition 4.99. On dit que deux distances d et d ′ sont uniformément équivalentes sur E
si et seulement si :
Les appplications identiques : Ed → Ed ′ et : Ed ′ → Ed sont uniformément continues.
x x x x 
Remarque 4.100. Autrement dit ssi Id est un homéomorphisme uniformément continu.

4.4.3 Distances métriquement équivalentes


Définition 4.101. On dit que deux distances d et d ′ sont (métriquement) équivalentes sur
E si et seulement si :
54 Espaces métriques et leur topologie

Les appplications identiques : Ed → Ed ′ et : Ed ′ → Ed sont sont lipschitziennes de


1
x x x  x
constantes resp. C et c
.

Proposition 4.102. Deux distances d et d ′ sont métriquement équivalentes si et seulement si,


il existe deux constantes réelle c > 0 et C > 0 telle que :
− ∀u, v ∈ E 2, c d(u, v) 6 d ′(u, v) 6 C d(u, v),
d ′(u, v)
− i.e. ∀u, v ∈ E 2, c 6 d(u, v)
6 C.

Exemple 4.103. Les distances d1,d2, et d∞ sont des distances métriquement équivalentes
d∞(x, y) 6 d2(x, y) 6 d1(x, y) 6 n × d∞(x, y), ∀(x, y) ∈ (Rn)2

4.4.4 Relation entre ces distances


Proposition 4.104.
1. métriquement équivalentes ⇒ uniformément équivalentes ⇒ topologiquement équiva-
lentes.
2. Autrement dit les parties ouvertes sont les mêmes pour des distances (métriquement)
équivalentes.

Démonstration.
1.
2. Cours de M. Benabdallah licence TCD page 3. 

Exemple 4.105. Les parties ouvertes de Rn sont les mêmes pour d1, d2 et d∞.

Proposition 4.106.
1. 2 distances sont topologiquement équivalentes si et seulement si toute suite convergente
pour une distance est convergente vers la même limite pour l’autre distance.
u
2. d1∼d2 ⇔ ∀ε > 0; ∃α1; α2 > 0; ∀x ∈ Bd1(x;α1) ⊂ Bd2(x;ε), Bd2(x;α2) ⊂ Bd1(x;ε).

Remarque 4.107. Nous verrons que dans un espace vectoriel normé, il y a équivalence.

4.5 Connexité
Proposition 4.108. Soit (E , d) un espace métrique, E est connexe si et seulement si toute
application f de (E , d) → ({0; 1}; δ) est constante. (avec δ distance discrète).

4.6 Autogamie d’espaces métriques


Ou comment des espaces métriques permettent de construire d’autres espaces métriques.
On va dans un premier temps définir quelques distances sur l’espace produit E1 ×  × En, ou
Ei est un espace métrique. Comme les espaces métriques sont également des espaces topologi-
ques, on obtient une topologie produit. Par ailleurs, on peut se demander s’il est possible que les
distances δ définies sur l’espace produit induisent la topologie produit trouvée précédement. La
réponse est oui dans le cas d’une famille finie ou dénombrable d’espaces métriques. Les distances
données ne sont pas uniques. Finalement l’espace défini en début de chapitre est également un
espace métrique.
4.6 Autogamie d’espaces métriques 55

4.6.1 Sous-espace métrique


Mettre passage CTE page 38.

4.6.1.1 Ouverts dans un sous-espace métrique

4.6.1.2 Fermés dans un sous espace-métrique

4.6.1.3 Voisinage dans un sous espace-métrique

4.6.1.4 Limite d’une suite dans un sous-espace métrique

4.6.2 Produit d’espaces métriques


4.6.2.1 Exemple de distances sur un produit d’espaces métriques

Proposition 4.109. Soit (E1, d1),  , (En , dn) n espaces métriques, l’espace produit E =
E1 ×  × En, et x, y ∈ E. On pose x = (x1,  , xn) et y = (y1,  , yn).

• δ1: E2 → R+
(x, y)
Pn

i=1 di(xi , yi)

• δ2: E2 → R+

qP
n
(x, y) i=1 (di(xi , yi))2

• δ p: E2 → R+ , p ∈ R+

qP
p n p
(x, y) i=1 (di(xi , yi))

• δ∞ : E2 → R+
(x, y) 
sup06i61 di(xi , yi)
1. δ1, δ2, δ p , δ∞ sont des distances sur E.
2. Elles sont équivalentes.

Note 4.110. Revoir l’ordre pour que cela coïncide avec la partie topologie générale.

Proposition 4.111. Soit ((Ei , di))i∈I une suite d’espaces métriques, l’espace produit E =
, et y ∈ E. On pose x = (xi∈I ) et y = (yi)i∈I.
Q
i∈I E i x,
l’application δ: E2 → R+  est une distance sur E.


1 di(xi , yi)
×
P
(x, y) i∈I 2i 1 + di(xi , yi)

Proposition 4.112. Le produit fini ou dénombrable d’espace métrique est un espace métrique.

Proposition 4.113. La topologie induite par la distance de E est égale à la topologie produit de
E.

Démonstration. Cours de M. Benabdallah page 16. 

Proposition 4.114.
i. Un produit fini de voisinage Vi des Ei est un voisinage de E.
ii. Un produit fini de fermé Fi des Ei est un fermé de E.
iii. Un produit fini d’ouvert Oi des Ei est un ouvert de E, appelé ouvert élémentaire.
iv. Une partie ouverte de E est une réunion d’ouverts élémentaires.
56 Espaces métriques et leur topologie

v. Rajouter ici la continuité de la distance d (définie sur E) sur E × E muni de la topologie


produit. (Voir verso page 30 de ce livre : livre version 1)

Démonstration.
i.

ii. On utilise les applications partielles : f : E → R+ .


x 
d(α, x)
iii.
iv.
v. 

4.6.2.2 Fonctions définies sur un espace produit

Proposition 4.115. Les projections pri: E1 ×  × Ei ×  × En → Ei sont continues sur E.


(x1,  , xi ,  , xn) xi 
Proposition 4.116. Soit f : E1 ×  × En → F une application.
f continue ⇔ l’application partielle fi est continue .

4.6.2.3 Fonctions à valeurs dans un espace produit

Proposition 4.117. Soit f : E → F1 ×  × Fn une application de composantes (f1,  , fn).


i. Si x0 ∈ Ē, (limx→x0 f (x) = l, l = (l1,  , ln)) ⇔ (limx→x0 fi = li)
ii. f continue en x0 ⇔ chaque fi sont continues en x0 .

4.6.2.4 Suites dans un espace produit

Proposition 4.118. Soit E = E1 ×  × Ek un produit fini d’espace métrique, (xn) une suite de
E xn = (x1n ,  , xkn) et l = (l1,  , ln) un point de E.
(xn) converge vers l ⇔ ∀i ∈ {1,  , n}, les suites (xin) de Ei tendent vers li.

4.6.2.5 Limite d’une fonction à valeur dans un espace produit

4.7 Suite de Cauchy. Espace métrique complet


Remarque 4.119. «Les notions de suite de Cauchy et d’espace complet ont été créées afin de
donner un moyen de prouver la convergence d’une suite sans qu’il soit nécessaire de connaître sa
limite. Pour prouver qu’une suite ... d’un espace métrique complet converge, il suffit ... de mon-
trer que cette suite vérifie le critère de Cauchy ... [c’est à dire que la distance entre deux termes
quelconques peut être rendue aussi petite que l’on veut si l’on impose un minimum au rang de
ces termes] [ce] qui ne nécessite pas la connaissance de la limite ... . [Alors que] La vérification
directe ... nécessiterait la connaissance de cette limite ...» Topologie (Ellipse-p.92). «L’intéret
des espaces métriques complets est de fabriquer de nouveaux objets à l’aide de processus som-
matoires : séries absolument convergentes, transformations d’Abel ou approximation succes-
sives : théorie du point fixe, théorème de Cauchy-Lipschitz, de fournir des prolongements de fon-
ctions en vue par exemple de construire l’intégrale de Riemann ou de trouver les intervalles de
définitions maximales d’équations différentielles» (Commentaires cours CTES chapitre 3).

4.7.1 Suite de Cauchy d’un espace métrique


4.7.1.1 Définition

Définition 4.120. Soit E un espace métrique et (xn) une suite de E.


4.7 Suite de Cauchy. Espace métrique complet 57

On dit que (xn) est de Cauchy ⇔ "∀ε > 0, ∃n0 ∈ N, tel que p, q > n0 ⇒ d(x p , x q) 6 ε".

4.7.1.2 Propriétés

Remarque 4.121.
1. La notion de suite de Cauchy n’est pas une propriété topologique.
2. Toute suite extraite d’une suite de Cauchy est de Cauchy.
3. Toute suite convergente est de Cauchy.
4. Toute suite de Cauchy est une suite bornée.
5. Toute suite de Cauchy qui possède une suite extraite convergente est une suite conver-
gente.

Démonstration. Voir cours de licence p.27 et cours de CTES chapitre 3 topologie.


1. Soit (xn): n n
 1
et Φ: x x
 1
. (xn) est une suite de Cauchy dans R∗, mais Φ ◦ (xn) = IdN
n’est pas de Cauchy (bien que Φ soit un homéomorphisme). Sinon pour montrer que la
complétude n’est pas une propriété toplogique, on peut montrer que R muni de la dis-
tance usuelle est complet alors que R muni de la distance équivalente (métriquement)
x y
d(x; y) = 1 + |x|
− 1 + |y | n’est plus complet (exercice 3.4 chapitre 3 CTES Topologie page
108). Existe-t-il une topologie sur N ? Si oui laquelle ? Autrement dit N est-il un espace
topologique ?
2.
3.
4.
5. CTE page 99 

Proposition 4.122. Si (xn) est de Cauchy. Toute valeur d’adhérence de (xn) est limite de
(xn). Autrement dit, si (a) est valeur d’adhérence de (xn) alors (xn) converge vers (a).

Démonstration. Voir cours de licence p.27-28. 

4.7.1.3 Image d’une suite de Cauchy par une application uniformément continue

Proposition 4.123. (Conservation de la propriété de Cauchy d’une suite) Soient E; F 2


espaces métriques et f uniformément continues E → F. L’image par f d’une suite de Cauchy de
E est une suite de Cauchy de F.

Démonstration. Cours de Benabdallah page 31 TCD 2001-2002. 

Remarque 4.124. Ceci peut servir à montrer qu’une application n’est pas uniformément con-
tinue.

Exemple 4.125. Soient xn: n n


 1
et Φ: x x
 1
. (xn) est une suite de Cauchy, mais Φ(xn) = n
ne l’est pas donc Φ n’est pas uniformément continue.

4.7.2 Espace Complet


Note 4.126. Notion définie uniquement sur un espace métrique. Car elle est définie à partir
des suites de Cauchy qui sont définies uniquement dans un espace de métrique.

4.7.2.1 Définition

Définition 4.127. Soit E un espace métrique.


58 Espaces métriques et leur topologie

E est complet si et seulement si toute suite de Cauchy (à valeurs dans E) est convergente.
Remarque 4.128. Dans un espace métrique complet, on a alors identité entre suite de cauchy
et suites convergentes. Un espace vectoriel normé complet pour la métrique associée à la norme
est appelé espace de Banach.

Exemple 4.129.
 √ 
[n 2 ]
1. Q n’est pas complet : n
est une suite de Cauchy, mais ne converge pas dans Q.
n
2. ]0; 1] muni de la distance usuelle n’est pas complet.
3. Tout espace métrique dont toutes les boules fermées sont compactes est complet.
4. En particulier R ; Rn , n > 1 ; C ; Cn en fait tout espace vectoriel de dimension finie
quelque soit la norme est un espace complet (en fait se sont des espaces de Banach).

Démonstration. Voir cours de licence p.28 et CTES pour R complet. 

4.7.2.2 Propriétés

Proposition 4.130. Un espace métrique compact est complet.

Note 4.131. Nous avons vu que la notion de complétude n’est pas une notion topologique donc
elle n’est pas conservée par la continuité d’une application.

Proposition 4.132. (Transfert de complétude) Soient (E , d); (F , d ′) deux espaces métriques. f :


E → F uniformément continu; bijective avec f −1 continue alors si F est complet alors E est com-
plet.

Démonstration. Exercice 3.5 cours CTES page 108. 

Corollaire 4.133.
1. Soient d1, d2 2 distances de E. Si d1, d2 sont uniformément équivalentes alors (E1; d1) est
complet si et seulement si (E2; d2) est complet.
2. Soient (E1, d1) et (E2, d2) deux espaces isométriques, alors (E1; d1) est complet si et seu-
lement si (E2; d2) est complet.

Proposition 4.134.
1. Dans un espace métrique E, tout sous-espace métrique complet est fermé dans E. Autre-
ment dit F sous-espace métrique complet ⇒ F fermé.
2. Dans un espace métrique complet E, tout sous espace fermé de E est complet. Autrement
dit F sous-espace métrique complet ⇔ F fermé.

Remarque 4.135. En résumé dans un espace métrique complet les sous-espaces métriques
complets sont exactement les fermés de l’espace.

Démonstration. Voir cours de licence p.28. Topologie (Ellipse-p.93). Cours exercice 3.6 Topo-
logie page 108 (CTE). 

Théorème 4.136. Soit E un espace métrique complet (à supprimer ?!):


«E compact» ⇔ «E est complet (à supprimer ?! lequel est en trop)et ∀ε > 0, il existe un
recouvrement fini de E par des boules ouvertes de rayon ε».

Remarque 4.137. Autrement dit, dans un espace métrique complet et compact, on peut fixer
le rayon des boules ouvertes recouvrant E et inversement. ? ⇒ vient de la compacité mais ⇐
est apporté par la complétude.

Démonstration. Voir cours de licence p.29. 


4.7 Suite de Cauchy. Espace métrique complet 59

Théorème 4.138. Soit E un espace métrique complet et A une partie de E.


«Ā compact» ⇔ « ∀ε > 0, il existe un recouvrement fini de A par des boules ouvertes de centre
dans A et de rayon ε».

Démonstration. Voir cours de licence p.29. 

Proposition 4.139. (Théorème des fermés emboités) Soit (E , d) un espace métrique complet.
Soit (Fn) une suite décroissante (pourTl’inclusion, c’est à dire que, pour tout n ∈ N, Fn+1 ⊂ Fn)
et telle que limn→+∞ δ(Fn) = 0 alors n∈N Fn est un singleton.

Démonstration. CTES page 104 cours de Topologie. 

4.7.3 Espace produit complet


Proposition 4.140. L’espace métrique produit (i.e. muni de la métrique produit) est complet si
et seulement si chacun des facteurs est complet.

Démonstration. Cours CTES page 108 exercice 3.7. 

Corollaire 4.141. (Rn; normes usuelles) et Cn assimilé à R2n sont complets

4.7.4 Théorème du point fixe


4.7.4.1 Théorème du point fixe

Note 4.142. Soit E un espace métrique et g: E → E une application. Résoudre l’équation


g(x) = b équivaut à trouver les points fixes de l’application f : E → E .
x 
g(x) + x − b

Théorème 4.143. Soit E un espace métrique complet et f : E → E une application strictement


contractante (i.e. Lipschitzienne de rapport k ∈ [0; 1[ ? ] ou [ c’est surement ]0; 1[ , mais c’est
[0; 1[ pour Benabdallah page 33 et CTES Toplogie page 107).
1. Il existe un unique point a ∈ E, tel que f (a) = a.
2. De plus toutes les orbites des points deE suivant f sont convergentes. Autrement dit pour
x0
tout point x0 ∈ E, la suite définie par converge vers a.
xn+1 = f (xn), n > 1

Démonstration. CTES page 107 Topologie. 

Remarque 4.144.
1. L’hypothèse d(f (x); f (y)) < d(x; y) n’implique pas que f soit une contraction.
x
2. L’hypothèse E complet est fondamentale si E = ]0; 1] et f (x) = 2
alors f est conctrac-
tante et n’a pas de point fixe dans E
3. Cette méthode des itérations est un excellent outil de calcul numérique des valeurs appro-
chées du point fixe. (Banach 1922).

Corollaire 4.145. Soit E un espace métrique complet et f : E → E une application, telle qu’une
des ses itérés ( ∃p ∈ N∗, f p = f ◦  ◦ f) soit contractante (i.e. lipschitzienne de rapport k ∈ [0; 1[ à
vérifier [ ou ] benabdallah page 34).
1. Il existe un unique point a ∈ E, tel que f (a) = a.
2. De plus toutes les orbites des points deE suivant f sont convergentes. Autrement dit pour
x0
tout point x0 ∈ E, la suite définie par converge vers a.
xn+1 = f (xn), n > 1
60 Espaces métriques et leur topologie

4.7.4.2 Théorème du point fixe avec paramètre

Théorème 4.146. Soit F un espace topologique, E un espace métrique complet, f : E × F → E


une application continue telle que ∀λ ∈ F, l’application : E → E soit contractante de
x  f (λ, x)
rapport k ∈ [0, 1[. Si pour tout λ, on désigne par aλ, le point fixe tel que f (λ, aλ) = aλ alors :
L’application : E → E est continue.
λ 

4.7.5 Prolongement de fonction


4.7.5.1 Critère de Cauchy et prolongement

Proposition 4.147.
1. Soit (E , d) et (F ; d ′) deux espaces métriques et A une partie de E, si f possède une limite
au point (a) de Eselon la pertie de A, on a :
∀ε > 0; ∃α > 0; ∀x ∈ A; d(x; y) < α ⇒ d ′(f (x); f (y)) < ε (critère de Cauchy).
2. Réciproquement, si (F ′; d ′) est complet, le Critère de Cauchy (CC) ⇒ l’existence d’une
limite de f au point (a) selon A.

Démonstration. Page 105 CTES Topologie. 

Corollaire 4.148. Soient a < b 2 réels, f : ]a; b[ → R dérivable dont la dérivée est bornée sur ]a;
b[ alors f possède un prolongement continu sur [a; b].

Démonstration. CTES page 105 Topologie. 

Remarque 4.149. Le caractère lipschitzien de l’application suffit pour obtenir le prolongement.

4.7.5.2 Prolongement d’une application uniformément continue

Note 4.150. lire CTES page 106.

Théorème 4.151. Soient (E , d) et (E ′, d ′) deux espaces métriques, F étant complet, A une


partie dense de E et f une application uniformément continue de A dans F.
• Il existe une unique application continue g: E → F qui prolonge f,
• de plus, g est uniformément continue.

Exemple 4.152. Application : Construction de l’intégrale de Riemann des fonctions réglées.


soit E un espace de Banach, [a; b] ⊂ R et f : [a; b] → E.
1. Une application h est dite en escalier si et seulement si, il existe une subdivision σ = {x0;
x1;  ; xn } où x0 = a, xn = b et x0 < x1 <  < xn telle que ∀i ∈ {1;  ; n}, h soit constante
sur ]xi−1; xi[ et vaut λi ∈ E.
2. On dit que f est réglée sur [a; b] si et seulement si, il existe une suite de fonctions (fn) en
escalier qui converge uniformément vers f sur [a; b] (en fait les fonctions réglées sont les
fonctions qui admettent des limites à droite et à gauche en tout point de [a; b]).
R b
3. L’intégrale d’une fonction en escalier f : [a; b] → E est donnée par a
f (x)d x =
(xi+1 − xi) λi où σ = {x0; x1;  ; xn } avec x0 = a, xn = b et x0 < x1 <  < xn est
Pi=n−1
i=0
une subdivision adptée à f et λi la valeur constante que prend f sur l’intervalle ouvert
]xi; xi+1[.
4. On montre ensuite que :
• la valeur de l’intégrale ne dépend pas de la subdivision choisie ce qui ⇒ la linéarité
de l’intégrale.
4.8 Espaces topologiques connexes 61

b
f (x)dx 6 (b − a) ||f k∞ l’intégrale se prolonge donc en une forme linéaire de
R
• a
même norme sur l’espace des fonctions rélgées. Dans le cas des fonctions réelles, on
vérifie alors la conservation des caractères positifs, puis croissant.

4.8 Espaces topologiques connexes


Dans une version précédente, cette partie n’était pas présente car toutes les propriétés vue dans
le cas général des espaces topologiques se retrouvaient à l’identique pour les espaces métriques.
Cependant pour rendre cette leçon indépendante, je l’ai rajoutée. Il faudra veiller à remplacer
topologique par métrique. La notion de connexité ... traduit en termes mathématiques l’idée
intuitive d’espace d’un seul tenant . Topologie (Ellipse-p.78). CTE :« l’une des utilités de cette
notion est, entre autres, de permettre de passer du local au global ».

4.8.1 Définition
Définition 4.153.
1. Un espace topologique E est connexe si et seulement si :
Il n’existe aucune partition de E en deux ouverts de E.
2. Une partie A de E est connexe si et seulement si le sous-espace topologique A (i.e.
muni de la topologie induite par celle de E) est connexe.

Remarque 4.154. Une partie A de E n’est pas connexe si et seulement si :


i. Il existe une partition de A en 2 ouverts (différents de ∅) non vide.
ii. Autrement dit, il existe 2 ouverts U1, U2 de E tels que :
− U1 ∩ A  ∅ et U2 ∩ A  ∅
− U1 ∩ U2 ∩ A = ∅
− A = (U1 ∩ A) ∪ (U2 ∩ A) ⇔ A ⊂ U1 ∪ U2

4.8.2 Autres C.N.S. de connexité pour un espace topologique


Théorème 4.155. (C.N.S. de connexité) Un espace topologique est connexe si et seulement si
1. il n’existe aucune partition de E en deux fermés non vides de E.
2. les seules parties à la fois ouvertes et fermées de E sont E et ∅.
3. les seules parties de E sans point frontière sont E et ∅.
4. A est connexe ⇔ F1, F2 sont deux fermés de E, tels que A ∩ F1 ∩ F2  ∅ ⇒ A ∩ F1 = ∅,
A ⊂ F2 ou A ∩ F2 ⊂ F1. Enoncé à vérifier CTE 2003-2004. Enoncé déjà présent dans le
théorème suivant.

Théorème 4.156. Une partie A d’un espace topologique est connexe si et seulement si l’une
des 2 conditions suivantes est réalisée :
i. Si A ⊂ O1 ∪ O2 ou O1, O2 sont 2 ouverts de E vérifiant A ∩ O1 ∩ O2 = ∅ alors A ∩ O1 =
∅ et A ⊂ O2 ou A ∩ O2 = ∅ et A ⊂ O1.
ii. Si A ⊂ F1 ∪ F2 où F1, F2 sont deux fermés de E, tels que A ∩ F1 ∩ F2 = ou  ∅ ⇒ A ∩ F1 =
∅, A ⊂ F2 ou A ∩ F2 ⊂ F1. Enoncé déjà présent dans le théorème suivant.

4.8.3 Exemples
Exemple 4.157. Espace et partie connexes
− R est connexe,
62 Espaces métriques et leur topologie

− Tout intervalle de R ou de R̄ est connexe, on montre de plus que : Une partie A de R ou


de R̄ est connexe si et seulement si A est un intervalle . Autrement dit les seules parties
connexes de R ou R̄ sont les intervalles.

Démonstration. Cours T.C.D. de Benabdallah page 45. 

Exemple 4.158. Espaces non connexes


− Q et Z ne sont pas connexes.

4.8.4 Propriétés
4.8.4.1 Connexité et adhérence

Proposition 4.159. Soit E un espace topologique, A une partie connexe de E et B ⊂ E tel que
A ⊂ B ⊂ Ā alors B est connexe.

Démonstration. Cours de Benabdallah page 47. 

Proposition 4.160. Soit E un espace topologique et A une partie connexe de E alors Ā est
aussi connexe.

Note 4.161. La connexité se transmet à l’adhérence.

4.8.4.2 Réunion de connexes qui se rencontrent

Proposition 4.162. Soit (Ci)i∈I S une famille de connexes d’un espace métrique (E , d) telle que
∃i0 ∈ I , ∀i ∈ I , Ci ∩ Ci0  ∅? alors i∈I Ci est connexe.

Démonstration. CTE page 150. 

Proposition 4.163. La réunion d’une famille de parties connexes dont l’intersection n’est pas
vide est connexe.

Démonstration. Cours Banabdallah page 47. 

Proposition 4.164. Soit (Ci)i∈I une famille au plus dénombrable de connexes (autrement dit
avec I = {0; 1;  ; p} où I = N) telle que ∀i ∈ I , i  0, Ci−1 ∩ Ci  ∅? alors est connexe.
S
i∈I C i

4.8.4.3 Image d’un connexe par une application continue

Proposition 4.165. Soit E , F deux espaces topologique et f : E → F une application continue.


Si A est une partie connexe de E alors f (A) est une partie connexe de F.

Démonstration. Cours de Benabdallah page 49. CTE page 150. 

Exemple 4.166.
1. Tout segment [a; b] = {a + t(b − a); t ∈ [0, 1]} d’un espace normé E est connexe. Car image
[0; 1] → [a; b]
de [0, 1] par l’application continuef :
t  t a + (1 − t) b
.

2. Toute partie X convexe de E est connexe.


3. En particulier tout espace normé est connexe
4. Toute boule ouverte ou fermée d’un espace normé est convexe donc connexe.

4.8.4.4 Théorème des valeurs intermédiaires

Note 4.167. Il me semble que ce soient les conditions minimales pour énoncer le théorème des
valeurs intermédiaires.
4.8 Espaces topologiques connexes 63

Corollaire 4.168. (Théorème des valeurs intermédiaires) Soit E un espace topologique connexe
et f : E → R une application continue. Soient a, b ∈ f (E) avec a < b. Alors pour tout c ∈ ]a, b[, il
existe x ∈ E tel que f (x) = c.

Démonstration. Cours de Benabdallah page 49. 

4.8.5 Eléments connectés, Composantes connexes, Discontinuité totale


Définition 4.169. Soit E un espace topologique. On dit que deux éléments a, b ∈ E sont conne-
ctés, si et seulement si il existe une partie connexe de A ⊂ E (? A de E) qui les contient tous
les deux.

Proposition 4.170. La relation «... sont connectés ...» est une relation d’équivalence.

Définition 4.171. Les classes d’équivalence pour la relation «... sont connectés ...» sont
appelés composantes connexes.

Proposition 4.172. La composante connexe d’un point a ∈ E est la plus grande partie connexe
de E contenant a.

Définition 4.173. Un espace topologique est dit totalement discontinu si chacune des ses
composantes connexe a un seul élément.

Remarque 4.174.
a) Les composantes connexes forment une partition de A.
b) Si elles sont en nombres fini elles sont ouvertes.
c) Les composantes connexes sont fermées.
d) Un espace topologique discret est totalement discontinu. Attention la réciproque n’est pas
vraie : Q est totalement discontinu, mais n’est pas discret.
e) E est connexe ⇔ E n’a qu’une seule composante connexe.

Démonstration.
a) CTE page 151. 

4.8.6 C.N.S. de connexité pour un produit d’espace topologique


Proposition 4.175. Soit E1,  , En des espaces topologiques et E = E1 ×  × En l’espace topolo-
gique produit alors E est connexe si et seulement si : ∀i = 1,  , n, Ei est connexe.

Démonstration. Cours de Benabdallah page 49. 

4.8.7 Chemin d’un espace topologique


Définition 4.176. On appelle chemin d’un espace topologique (E , O) toute application continue
ϕ: [0; 1] → E. ϕ(0) et ϕ(0) et ϕ(1) sont appelés respectivement origine et extrémité de ce chemin.

4.8.8 Connexité par arcs


Note 4.177. La connexité par arcs est surtout une notion pratique pour montrer qu’un espace
est convexe. En terme intuitifs un espace est connexe par arcs si et seulement si on peut tou-
jours relier deux de ses points par une courbe continue, ce qui en fait une notion moins abstraite
que la connexité (CTES 2003-2004).
64 Espaces métriques et leur topologie

Définition 4.178. Un espace topologique E est connexe par arcs si et seulement si pour
tout couple (a, b) de points de E, il existe une application continue f : [0, 1] → E telle que f (0) = a
et f (1) = b. ?à revoir? Autrement dit deux points quelconques peuvent être joints par un chemin
de E.

Proposition 4.179. Un espace topologique connexe par arcs est connexe.

Remarque 4.180. La réciproque du théorème est fausse dans le cas général d’un espace
métrique. Cependant, il y a équivalence pour un ouvert d’un espace vectoriel normé.

4.8.9 Espace localement connexe


Définition 4.181. Un espace est dit localement connexe lorsque tout point de cet espace possède
un système fondamental de voisinages connexes.

Proposition 4.182. Dans un espace topologique localement connexe, chaque composante con-
nexe est à la fois ouverte et fermée.

4.8.10 Application de la connexité


4.8.10.1 Connexité et homéomorphisme : On peut utiliser la connexité pour prouver que
deux espaces ne sont pas homéomorphes : si l’un de ces espaces est connexe et l’autre pas, les
deux espaces ne sont évidement pas homéomorphes.

4.8.10.2 Connexité et résolution d’équation : Le théorème des valeurs intermédiaires est


souvent utilisé pour montrer l’existence d’une solution, or il n’est énoncé que pour des fonctions
d’un espace connexe.
4.8 Espaces topologiques connexes 65
Chapitre 5
Algèbre linéaire et multilinéaire
Qu’est-ce qu’un opérateur, qu’est-ce qu’un opérateur compact ? Définir si c’est possible la partie
convexe d’un espace vectoriel.

5.1 Espaces vectoriels et applications linéaires

5.1.1 Epaces vectoriels


Dans ce chapitre K désigne un corps commutatif. En pratique K = R ou C.

5.1.1.1 Définition

Définition 5.1. Soit K un corps commutatif, E un ensemble, une loi de composition interne
notée + , une loi externe (action) notée · : K × E → E telles que :
(λ, x) λ·x 
• (E , + ) est un groupe abélien
• ∀λ, µ ∈ K, ∀x ∈ E , (λ + µ) · x = λ · x + µ · x,
• ∀λ ∈ K, ∀x, y ∈ E , λ · (x + y) = λ · x + λ · y,
• ∀λ, µ ∈ K, ∀x ∈ E , λ(µ · x) = (λµ) · x,
• ∀x ∈ E , 1 · x = x (invariance par l’élément neutre du corps).
On appelle K-espace vectoriel le triplet (E , + , · ) et on dit que E a une structure d’espace vecto-
riel.

Remarque 5.2. Les lois induites peuvent être également notées + , · .

5.1.1.2 Segment d’un espace vectoriel

Définition 5.3. Soit E un R-espace vectoriel, x, y 2 éléments de E. On appelle segment


d’extrémités x et y l’ensemble noté [x; y] tel que [x; y] = {x + t (y − x); 0 6 t 6 1}.

5.1.1.3 Partie convexe d’un espace vectoriel

Définition 5.4. Soit E un R-espace vectoriel. Une partie A de E est convexe si et seulement si
∀x; y ∈ A le segment [x; y] est contenu dans A.

5.1.1.4 Espace vectoriel produit ou produit direct d’espace vectoriel

Proposition 5.5. Soient I un ensemble non vide et (Ei)i∈I, une famille d’espaces vectoriels sur
K. Le produit de la famille (Ei)i∈I muni des deux lois (xi)i∈I + (yi)i∈I = (x + y)i∈I , α(xi)i∈I =
(αxi)i∈I est un espace vectoriel sur K.

Définition 5.6. Soient I un ensemble non vide et (Ei)i∈I, une famille d’espaces vectoriels sur
K. L’espace vectoriel sur K formé par le produit de la famille (Ei)i∈I muni des deux lois
Q i)i∈I = (αxi)i∈I est appelé espace vectoriel produit ou pro-
(xi)i∈I + (yi)i∈I = (x + y)i∈I , α(x
duit direct des (Ei)i∈I et noté i∈I Ei.

Note 5.7. Voir direct : dictionnaire maths-puf page 228, voir algèbre : atlas de mathémétiques
page 85).

66
5.1 Espaces vectoriels et applications linéaires 67

5.1.1.5 F (E , F ) [mettre en exemple ?]

Proposition 5.8. Soient E et F deux espaces vectoriels sur K. F (E , F ) l’ensemble des appli-
cations de E dans F, muni des lois définies par (f + g)(x) = f (x) + g(x), (αf)(x) = αf (x) est un
K-espace vectoriel.

5.1.2 Sous-espaces vectoriels


Définition 5.9. Soit (xi)i∈I, une famille d’éléments d’un espace vectoriel E. On dit qu’un vec-
teur x de E est combinaison linéaire des vecteurs xi s’il existe une famille (αi)i∈I, de sca-
laires à support fini (i.e. nuls sauf sur une partie finie de I) telle que x = i∈I αixi.
P

...

Définition 5.10. Soient (E , + , · ) un K-espace vectoriel, F une partie de E (F ∈ P(E)) et ⊕ ,


K
⊙ les lois induites par celles de E. On dit que (F , ⊕ , ⊙) est un sous -espace vectoriel si et
seulement si (F , ⊕ , ⊙) est un K-espace vectoriel.

Proposition 5.11. Soient (E , + , · ) un K-espace vectoriel, F une partie de E (F ∈ P(E)) et


K
⊗ , ⊙ les lois induites par celles de E. On dit que (F , ⊕ , ⊙) est un sous -espace vectoriel
si et seulement si :
• F  ∅, (F n’est pas vide)
• ∀x, y ∈ F , x ⊕ λ⊙y ∈ F, (F est stable par combinaison linéaire).

...

Définition 5.12. On dit qu’une partie E ′ d’un espace vectoriel E sur K est un sous-espace
vectoriel de E ssi E ′ est stable pour les deux lois de E et si, munie des lois induites, E ′ est un
espace vectoriel sur K.

Proposition 5.13.
1. On démontre que toute partie non vide de E stable pour les deux lois est un sous-espace
vectoriel de E.
2. L’intersection d’un ensemble de sous-espaces vectoriels de E est encore un sous-espace
vectoriel de E.
3. Pour toute partie A de E, l’ensemble des sous-espaces vectoriels de E contenant A pos-
sède un plus petit élément (au sens de la relation d’inclusion).

Définition 5.14. Le plus petit sous-espace vectoriel contenant une partie A de E (au sens de la
relation d’inclusion) est appelé sous-espace vectoriel engendré par A et noté [A].

Proposition 5.15. Lorsque A  ∅, [A] est l’ensemble des combinaisons linéaires d’éléments de
A.

Définition 5.16. Lorsque [A] = E, on dit que A est génératrice.

5.1.3 Applications linéaires


Définition 5.17. Soient E et F deux espaces vectoriels sur un même corps commutatif K. On
dit qu’une application u de E dans F est linéaire (ou que u est un morphisme d'espaces
vectoriels) si, pour tout couple (x, y) d’éléments de E et pour tout élément α de K, u(x +
αy) = u(x) + αu(y).

Proposition 5.18. Pour toute application linéaire u de E dans F et pour toute application
linéaire v de F dans G, l’application composée v ◦ u est linéaire.
68 Algèbre linéaire et multilinéaire

Définition 5.19. On dit qu’une application linéaire u de E dans F est un isomorphisme de E


sur F ssi elle admet une application réciproque noté u−1 et si u −1 est linéaire.

Proposition 5.20. On démontre que toute application linéaire bijective est un isomorphisme
d’espaces vectoriels.

Définition 5.21.
• endomorphisme de E.
Une application linéaire de E dans lui-même s’appelle
• Un isomorphisme de E sur lui-même s’appelle automorphisme de E.

Proposition 5.22. Les automorphismes d’un espace vectoriel E constituent un sous-groupe du


groupe des permutations de E..

Définition 5.23. Le groupe des automorphismes de E est appelé groupe linéaire de E et noté
GL(E).

Définition 5.24. On note L(E , F ) l’ensemble des applications linéaires de E dans F.

Proposition 5.25. Soient E et F deux espaces vectoriels sur K.


i. L(E , F ) l’ensemble des applications linéaires de E dans F est un sous-espace vectoriel de
F (E , F ).
ii. Lorsque E = F, L(E , F ) = L(E) muni de l’addition et de la composition des applications.
L(E) est un anneau.
iii. Muni de la loi d’action précédente. L(E) est une algèbre associative unitaire.

Définition 5.26. L’image par une application linéaire f de E sur F d’un sous-espace vectoriel
de E est appelée image de f et noté Im(f ). Im(f ) = {f (x); x ∈ E } = f (E).

Définition 5.27. L’image récriproque par une application linéaire f de E sur F du singleton
formé de l’élément neutre de F pour l’addition est appelé noyau de f et noté Ker(f ). Ker(f ) =
{x ∈ E; f (x) = 0F } = f −1({0F }).

Proposition 5.28.
1. Soit u une application linéaire de E dans F. L’image par u d’un sous-espace vectoriel de
E est un sous-espace vectoriel de F. En particulier, Im(u) est un sous-espace vectoriel de
F.
2. L’image réciproque par u d’un sous-espace vectoriel de F est un sous-espace vectoriel de
E. En particulier, Ker(u) est un sous-espace vectoriel de E.
3. u surjective ⇔ Im(u) = F, u injective ⇔ Ker(u) = {0E }.

Exemple 5.29. Voir exemples d’applications linéaires : châpitre Matrice (matrice de passage et
changement de base) ????

5.1.4 Quotient d’un espace vectoriel par un de ses sous-espaces vecto-


riels
Nous allons voir que les seuls sous-espaces vectoriels quotients sont les ensembles quotients
définis par le quotient d’un espace vectoriel par un de ses sous-espaces vectoriels..

Proposition 5.30. Soit E un espace vectoriel sur K.


i. Pour toute relation d’équivalence R dans E compatible avec la structure de E, la classe
d’équivalence E ′ de 0 est un sous-espace vectoriel de E ; pour tout vecteur x de E, la
classe de x est x + E ′ = {x + u; u ∈ E ′}.
5.1 Espaces vectoriels et applications linéaires 69

ii. La relation R(x, y) équivaut à la relation x − y ∈ E ′.


iii. Réciproquement, pour tout sous-espace vectoriel E ′ de E, la relation binaire dans E
définie par les couples (x, y) tels que x − y ∈ E ′ est une relation d’équivalence compatible
avec la structure de E.
iv. Muni des lois quotients, l’ensemble quotient est un espace vectoriel.

Définition 5.31. On appelle quotient de E par E ′ et on note E/E ′ l’espace vectoriel formé
par l’ensemble quotient pour une relation d’équivalence compatible avec les lois de E, muni des
lois quotient.

Proposition 5.32. L’application canonique ϕ: x  x̄ de E sur E/E ′


est linéaire, et Ker (ϕ) =
E ′.

5.1.5 Somme de sous-espaces vectoriels


Définition 5.33. SoitS (Ei)i∈I, une famille de sous-espaces vectoriels de E. Le sous-espace vec-
toriel engendré par i∈I Ei s’appelle somme des sous-espaces vectoriels Ei, et se note
.
P
i∈I E i

Proposition 5.34. C’est l’ensembleQ des vecteurs de E de la forme xi, où (xi)i∈I est un
P
i∈I
élément à support fini du produit i∈I Ei.

Remarque 5.35. Lorsque I = {1, 2}, la somme de E1 et de E2 se note E1 + E2.

5.1.6 Somme directe de sous-espaces vectoriels


Définition 5.36. Soient E un K-espace vectoriel, F1, F2 deux sous K-espaces vectoriels de E.
F1 et F2 sont en somme directe si et seulement si F1 ∩ F2 = {0}.

Proposition 5.37. Soient E un K-espace vectoriel, F1, F2 deux sous K-espaces vectoriels de E.
On dit que F1 et F2 sont en somme directe si et seulement si tout élément de F1 + F2 s’écrit
comme somme unique d’un élément de F1 et d’un élément de F2 :
Autrement dit ∀x ∈ F1 + F2, ∃!(x1, x2) ∈ F1 × F2; x = x1 + x2.
Dans ce cas F1 + F2 s’écrit F1 ⊕ F2 et on dit que F1 ⊕ F2 est la somme directe de F1 et F2.

....

Définition 5.38. La somme i∈I Ei d’une L


famille (Ei)i∈I, de sous-espaces vectoriels d’un
P

espace
P vectoriel E est dite directe, et notée i∈I Ei, si, pour tout élément i de I, Ei ∩
j i
E j = {0}.

Proposition 5.39. CelaP équivaut à dire que, pour tout élément x ∈ Ei, la décomposition
P
i∈I
de x sous la forme x = i∈I xi est unique.

5.1.6.1 Sous-espaces vectoriels supplémentaires.

Définition 5.40. On dit que deux sous-espaces vectoriels E ′ et E ′′ sont supplémentaires


dans E si leur somme est directe et égale à E, E = E ′ ⊕ E ′′.
(Soient E un K-espace vectoriel, F1, F2 deux sous K-espaces vectoriels de E.
Deux espaces vectoriels sont dits supplémentaires si et seulement si leur somme directe est
égale à E : E = F1 ⊕ F2 autrement dit E = F1 + F2 et F1 ∩ F2 = {0}.).

Proposition 5.41. Cela équivaut à dire que tout vecteur x de E se décompose d’une manière et
d’une seule sous la forme x = x ′ + x ′′, x ′ ∈ E ′, x ′′ ∈ E ′′.
70 Algèbre linéaire et multilinéaire

5.1.6.2 Projecteur

 
Définition 5.42. Les applications PE ′: x x ′, PE ′′: x x ′′ s’appellent projecteur sur E ′ paral-
lèlement à E ′′ et projecteur sur E ′′ parallèlement à E ′. L’image d’un point x de E est appelé
projection de x sur resp. E ′ et E ′′.

Proposition 5.43.
1. Im(PE ′) = E ′ ,
2. Ker(PE ′) = E ′′ ,
3. PE2 ′ = PE ′ ,
4. PE2 ′′ = PE ′′ ,
5. PE ′PE ′′ = PE ′′PE ′ = 0
6. PE ′ + PE ′′ = IE.
7. Réciproquement, soit u un endomorphisme (pourquoi un endomorphisme ? une applica-
tion linéaire n’est pas suffisante !?) de E tel que u2 = u. Alors les sous-espaces vectoriels
Im(u) et Ker(u) sont supplémentaires dans E, et u n’est autre que le projecteur sur
Im(u) parallèlement à Ker(u). C’est pourquoi les endomorphismes idempotents s’appel-
lent projecteurs
8. Soit plus généralement (Ei)i∈I, une famille de sous-espaces vectoriels de E dont E est
somme directe.
P Tout vecteur x de E se décompose d’une manière et d’une seule sous la
forme x = i∈I xi , xi ∈ Ei où la famille (xi)i∈I est à support fini. Pour tout élément i de
I, l’application Pi: x 
xi est un projecteur, dont l’image est Ei et le noyau
L
j i
Ej:
Pi = Pi , PiP j = 0, si i  j , i∈I Pi = IE.
2 P

9. Soient E1 un sous-espace vectoriel de E et E2 un supplémentaire de E1. La restriction à


E2 de l’application canonique de E sur E/E1 est un isomorphisme. Soit E2′ un autre sup-
plémentaire de E1. Le projecteur sur E2′ parallèlement à E1 induit un isomorphisme de
E2 sur E2′ .

5.1.7 Formes linéaires et dual d’un espace vectoriel


5.1.7.1 Formes linéaires

Définition 5.44. Soit E un espace vectoriel sur K. Les applications linéaires de E dans K
s’appellent formes linéaires sur E. La valeur d’une forme linéaire f ∗ sur un vecteur x se note
< f ∗, x > .

5.1.7.2 Dual d’un espace vectoriel

Définition 5.45. L’espace vectoriel L(E , K) i.e. l’ensemble des applications (formes) linéaires
de E dans K s’appelle dual de E et se note E ∗.

5.1.7.3 Orthogonalité entre un espace vectoriel et son dual, orthogonal et antéor-


thogonal

Définition 5.46. On dit qu’un vecteur x et une forme linéaire f ∗ sont orthogonaux si < y ∗,
x > = 0.

Définition 5.47. On dit qu’une partie A de E et une partie B du dual E ∗ sont orthogo-
nales ssi ∀x ∈ A, ∀f ∗ ∈ B, < f ∗ , x > = 0.
Définition 5.48. L’ensemble des formes linéaires orthogonales à A est, appelé orthogonal de
A et noté A⊥.

Proposition 5.49. L’ensemble des formes linéaires orthogonales à A est un sous-espace vecto-
riel de E ∗.
5.1 Espaces vectoriels et applications linéaires 71

Définition 5.50. L’ensemble des vecteurs orthogonaux à une partie B de E ∗ est appelé
antéorthogonal de B et noté B ⊤.
Proposition 5.51. L’ensemble des vecteurs orthogonaux à une partie B de E ∗ est un sous-
espace vectoriel de E.

Proposition 5.52.
1. ∀A ∈ P(E), A ⊂ (A⊥)⊤, ∀B ∈ P(E ∗), B ⊂ (B ⊤)⊥ .
2. Pour tout sous-espace vectoriel E1 de E, (E1⊥)⊤ = E1.

5.1.7.4 Transposée d’une application linéaire

Proposition 5.53. Soient E et F deux espaces vectoriels sur K et u une application linéaire de
E dans F. il existe une application linéaire gu de F ∗ dans E ∗ et une seule, telle que ∀x ∈ E ,
∀y∗ ∈ F ∗, < gu(y ∗), x > = < y∗, u(x) > .

Définition 5.54. Soient E et F deux espaces vectoriels sur K et u une application linéaire de E
dans F. On appelle transposée de u et on note t u , l’unique application linéaire de F ∗ dans E ∗
telle que ∀x ∈ E , ∀y ∗ ∈ F ∗, < tu(f ∗), x > = < f ∗, u(x) > .

Proposition 5.55.
1. L’application tu n’est autre que f ∗ f ∗ ◦ u.

2. L’application u  t
u est linéaire et injective.
3. De plus, IE = IE ∗.
t

4. ∀u ∈ L(E , F ), ∀v ∈ L(F , G), t(v ◦ u) = tu ◦ tv,


5. Ker(tu) = [Im(u)]⊥, Im(tu) = [Ker (u)]⊥ ,
6. Im(u) = [Ker(tu)]⊤, Ker(u) = [Im(tu)]⊤ ,
7. u surjective ⇔ tu injective,
8. u injective ⇔ tu surjective,
9. u bijective ⇔ tu bijective . Dans ce dernier cas, (tu)−1 = t(u −1).

5.1.7.5 Bidual

Définition 5.56. Le dual du dual E ∗ de E s’appelle bidual de E et se note E ∗∗.

Proposition 5.57. Pour tout élément x de E, l’application χ(x): f ∗  <f ,x>



est une forme
linéaire sur E ∗.

Définition 5.58. On appelle injection canonique de E dans E∗∗, l’application χ: x  χ(x)


Proposition 5.59.
1. L’application χ: x  χ(x) est linéaire et injective ;
2. ∀x ∈ E , ∀f ∗ ∈ E ∗, < χ(x), f ∗ >E ∗ = < f ∗, x >E .

5.1.8 Familles génératrices, familles libres


5.1.8.1 Familles génératrices

Définition 5.60. Soit (xi)i∈I, une famille de vecteurs d’un espace vectoriel E sur K. On dit
que cette famille est génératrice si la partie de E constituée des vecteurs xi est génératrice ;
autrement dit, tout vecteur de E est combinaison linéaire des vecteurs xi.
72 Algèbre linéaire et multilinéaire

5.1.8.2 Famille libre

Définition 5.61. Soit (xi)i∈I, une famille de vecteurs d’un espace vectoriel E sur K. On dit
que cette famille est libre si toute relation linéaire entre Ples vecteurs xi est triviale ; autrement
dit, pour toute famille (αi)i∈I, de scalaires à support fini, i∈I αixi = 0 ⇒ ∀i ∈ I , αi = 0.

5.1.8.3 Base et composant d’un vecteur

Définition 5.62. Soit (xi)i∈I, une famille de vecteurs d’un espace vectoriel E sur K.
i. On dit que cette famille est une base si elle est libre et génératrice ; autrement dit, pour
tout vecteur x
Pde E, il existe une famille (αi)i∈I, de scalaires à support fini et une seule
telle que x = i∈I αixi.
ii. Pour tout élément i de I, le scalaire αi s’appelle composant de x relatif à xi.

5.1.8.4 Parties libres

Définition 5.63. Soit S une partie de E. On dit que la partie S est libre si la famille de vec-
teurs de E définie par l’injection canonique de S dans E est libre.

5.1.8.5 Parties basiques

Définition 5.64. On dit que la partie S est basique si elle est libre et génératrice.

5.2 Dimension, rang et codimension

5.2.1 Dimension d’un espace vectoriel


Proposition 5.65. Dans un K-espace vectoriel, toutes les bases sont équipotentes.

Définition 5.66. On appelle dimension d’un K-espace vectoriel, le cardinal d’une de ses
bases, on la note dimK (E) ou dim(E).

Définition 5.67. Un K-espace vectoriel est dit de dimension finie (resp. infinie) ssi ses bases
ont un cardinal fini (resp. infini).

Proposition 5.68. Soit B une partie basique finie de E à n éléments.


i. Alors toute partie libre L de E est finie et le nombre p d’éléments de L est inférieur à n.
ii. De plus, on peut compléter L en une partie basique de E par adjonction de n − p élé-
ments convenablement choisis dans B.

Proposition 5.69. Un espace vectoriel E est de dimension finie si et seulement s’il existe une
partie génératrice finie de E. Cela revient à dire qu’il existe une partie basique finie de E.

5.2.2 Rang d’une partie d’un espace vectoriel


Définition 5.70. Soit S une partie d’un espace vectoriel E. On dit que S est de rang ni si
[S] est de dimension finie.

Définition 5.71. On appelle alors rang de S et on note rang (S) la dimension de [S].
Proposition 5.72.
1. Si E est de dimension finie, S est de rang fini et rang (S) 6 dim E.
2. Si S est finie, S est de rang fini et rang (S) 6 Card (S) alors S est libre si et seulement si
rang (S) = Card (S) .
5.3 Droite, plan et hyperplan vectoriels 73

3. Si S est de rang fini, alors, pour tout vecteur x de E, S ′ = S ∪ {x } est de rang fini :
− rang (S ′) = rang (S), si xs ∈ [S] ,
− rang (S ′) = rang (S) + 1, si x  [S] .

5.2.3 Codimension d’un sous-espace vectoriel


Définition 5.73. Soit E un K-espace vectoriel et E ′ un sous-espace vectoriel de E. On appelle
codimension de E ′ dans E et on note codimE (E ′) la dimension l’espace quotient E/E ′.

Définition 5.74. Soit E un espace vectoriel. On dit qu’un sous-espace vectoriel E ′ de E est
de codimension nie dans E si l’espace vectoriel quotient E/E ′ est de dimension finie.

Proposition 5.75.
1. Pour que E ′ soit de codimension finie dans E, il faut et il suffit que E ′ admette un sous-
espace vectoriel supplémentaire de dimension finie. Alors, pour tout supplémentaire E ′′ de
E ′ dans E, dim E ′′ = codimE E ′ .
2. Si E est de dimension finie, tout sous-espace vectoriel E ′ de E est de dimension finie et
de codimension finie dans E, et dim E ′ + codimE E ′ = dim E , E ′ = E ⇔ dim E ′ = dim E.
3. Soient E un espace vectoriel, E ′ et E ′′ deux sous-espaces vectoriels de E de dimension
finie. Alors E ′ + E ′′ et E ′ ∩ E ′′ sont de dimension finie et dim (E ′ + E ′′) + dim (E ′ ∩
E ′′) = dim E ′ + dim E ′′ (relation de Grassmann).

5.3 Droite, plan et hyperplan vectoriels


Définition 5.76. Soit E un K-espace vectoriel et S un sous-espace vectoriel de E.
• On dit que S est une droite vectorielle ssi il est de dimension 1.
• On dit que S est un plan vectoriel ssi il est de dimension 2.

Définition 5.77. Les sous-espaces vectoriels de codimension 1 dans E s’appellent hyperplans


de E.

Proposition 5.78. Soit E un K-espace vectoriel et H un sous-espace vectoriel de E. H est un


hyperplan si et seulement s’il vérifie l’une des propositions équivalentes suivantes :
i. Il existe un droite vectorielle D telle que D et H soient supplémentaire dans E.
ii. Il existe une forme linéaire ϕ non nulle dont H est le noyau : ∃ϕ ∈ E ∗\{0}; H = Ker(ϕ).

Démonstration. Voir livre Monier, page 4 Tome 6. 

Définition 5.79. L’application ϕ(x) = 0 s’appelle équation de l'hyperplan.


Proposition 5.80. Soit H un hyperplan de E, ϕ ∈ E ∗\{0} tels que H = Ker(ϕ) et ψ ∈ E ∗\{0},
on a :
H = Ker(ψ) ⇔ (∃α ∈ K − {0}; ψ = αϕ).

Remarque 5.81. Un hyperplan donné n’admet à un coefficient près qu’une seule équation.

Proposition 5.82. Si H est un hyperplan de E alors ∀x0 ∈ E − H , H ⊕ (Kx0) = E. Autrement


K } alors H ⊕ D = E, autrement dit H et D
dit H hyperplan et D droite vectorielle et si H ∩ D = {0
sont supplémentaire dans E.

Proposition 5.83. Si E est fini, les hyperplans sont les sous-espaces vectoriels de dimension
n − 1.
74 Algèbre linéaire et multilinéaire

5.4 Applications linéaires et multilinéaires en dimension


finie

5.4.1 Dimension de L(E , F )


Proposition 5.84. Soient E et F deux espaces vectoriels de dimension finie sur K, B = (e j ) j ∈J
une base de E et C = ( fi)i∈I une base de F. Pour tout élément (i, j ) ∈ I × J, soit uij l’unique
application linéaire de E dans F telle que uij (ek) = 0 si k  j , uij (e j ) = fi.
i. Les applications linéaires uij constituent une base de l’espace vectoriel L(E , F ), dite asso-
ciée aux bases B et C.
ii. En particulier, L(E , F ) est de dimension finie, et dim L(E , F ) = (dim E) × (dim F ) .

Définition 5.85. Soient E un espace vectoriel sur K et B = (e j ) j ∈J une base de E. Pour tout
élément j de J, l’unique forme linéaire e∗j sur E telle que, pour tout élément k de J, < e∗j , ek > =
δ jk s’appelle j ièm e forme linéaire coordonnée.

Proposition 5.86.
1. La famille (e∗j ) j ∈J, est libre ;
2. Pour que ce soit une base de E ∗ , il faut et il suffit que E soit de dimension finie.

Définition 5.87. Cette base s’appelle base duale de B et se note B ∗.


Proposition 5.88.
1. En particulier, pour que E ∗ soit de dimension finie, il faut et il suffit que E soit de
dimension finie. Alors dim E ∗ = dim E.
2. Soient E et F deux espaces vectoriels sur K. Si E et F sont isomorphes et si F est de
dimension finie, alors E est de dimension finie et dim E = dim F . Réciproquement, si E
et F sont de dimension finie et si leurs dimensions sont égales, alors E et F sont isomor-
phes.

5.4.2 Rang d’une application linéaire


Définition 5.89. Soient E et F deux espaces vectoriels sur K et u une application linéaire de
E dans F. On dit que u est de rang fini si Im (u) est de dimension finie. La dimension de
Im (u) s’appelle alors rang de u et se note rang (u).

Proposition 5.90.
1. Pour que u soit de rang fini, il faut et il suffit que Ker (u) soit de codimension finie dans
E. Dans ce cas, rang (u) = dim Im (u) = codimE Ker (u) .
2. Si E est de dimension finie, u est de rang fini et rang (u) = dim E − dim Ker (u).
3. Soient E et F deux espaces vectoriels de dimension finie sur K, ayant même dimension
n, et u un élément de L(E , F ) : u isomorphisme ⇔ u injectif ⇔ u surjectif ⇔
rang (u) = n.
4. En particulier, soient E un espace vectoriel de dimension n et u un élément de L(E) : u
automorphisme ⇔ u injectif ⇔ u surjectif ⇔ rang (u) = n .

5.4.3 Dualité en dimension finie


Proposition 5.91. Soit E un espace vectoriel de dimension finie.
1. L’injection canonique de E dans E ∗∗ est alors un isomorphisme d’espaces vectoriels.
5.4 Applications linéaires et multilinéaires en dimension finie 75

2. Il s’ensuit que l’application B B ∗


est une bijection de l’ensemble des bases de E sur
l’ensemble des bases de E ∗.
3. Pour tout sous-espace vectoriel E1 de E : dim E1 + dim E1⊥ = dim E et (E1⊥ )⊤ = E1.
4. Pour tout sous-espace vectoriel G de E ∗ : dim G + dim G⊤ = dim E et (G⊤)⊥ = G.
5. Soient E et F deux espaces vectoriels et u une application linéaire de E dans F. Pour que
u soit de rang fini, il faut et il suffit que tu le soit. Alors rang (tu) = rang (u).

5.4.4 Applications multilinéaires


5.4.4.1 Définition et propriété générale

Définition 5.92. Soit p un entier naturel non nul. Soient E1, E2,  , E p des K − ev.
Soit ϕ une application ϕ: E1 ×  × E p F. 
• ϕ est dite p-linéaire (ou mutlilinéaire) si et seulement si :
ϕ est linéaire par rapport à chaque place (ou : variable), c’est à dire :
ϕ(x1,  , λxi + yi ,  , x p) = λϕ(x1,  , xi ,  , x p) + ϕ(x1,  , yi ,  , x p).
• Si de plus F = K, on dit que ϕ est une forme p-linéaire.
Exemple 5.93.
1. Si p=1, ϕ n’est autre qu’une application linéaire.
2. L’application nulle est p-linéaire.
3. Le produit scalaire canonique sur R2,
ϕ: R2 × R2  R , est une forme 2-linéaire ( dite bilinéaire ).
((x1, x2), (y1, y2))  x 1 y1 + x 2 y2
4. Le produit vectoriel dans R3
Φ: R3 × R3  R333 , est une
((x1, x2, x3), (y1, y2, y3))  (x2 y3 − x3 y2, x3 y1 − x1 y3, x1 y2 − x2 y1)
application bilinéaire.

Proposition 5.94. L’ensemble L p(E ,  , E; F ) des applications p-linéaires de E1 ×  × E p dans


F est un K − ev.

5.4.4.2 Applications multilinéaires alternées

Définition 5.95. Soit ϕ: E p  F une application p-linéaire.


• ϕ est dite alternée si et seulement si pour tout p-uplet (x1,  , x p) ∈ E p, elle vérifie une
des deux propriétés équivalentes suivantes :
i. pour tout couple (i, j) ∈ N2p tel que i  j :
(xi = x j ) ⇒ (ϕ(x1,  , x p) = 0).
ii. pour toute permutation σ ∈ Sn :
ϕ(xσ(1),  , xσ(p)) = ε(σ)ϕ(x1,  , x p)
• Si de plus F = K, on dit que ϕ est une forme p-linéaire alternée.
Autrement dit, ϕ est alternée si et seulement si l’image de tout p-uplet contenant au moins une
répétition est nulle.

Proposition 5.96. Soit ϕ: E p  F une application p-linéaire.


Si p-uplet (x1,  , x p) ∈ E p est lié, alors ϕ(x1,  , x p) = 0.
76 Algèbre linéaire et multilinéaire

Corollaire 5.97. Si p > dim(E), la seule application p-linéaire et alternée de E p dans F est
l’application nulle.

Proposition 5.98. Soit ϕ: E p 


F une application p-linéaire non nulle.
Pour toute base B de E p on a ϕ(B)  0.

5.4.5 Déterminants
5.4.5.1 Déterminant d’une famille de vecteurs
Soit n ∈ N∗, E un K − ev de dimension n.

Définition 5.99. L’ensemble des formes n-linéaires alternées sur E est noté Λn(E).

Proposition 5.100. Λn(E) est un K-e.v. de dimension 1.

Remarque 5.101. Il nous reste qu’à trouver une base de cet space, i.e. une forme n-linéaire
alternée γ. Dans ce cas tout élément de Λn(E) sera le produit de γ par un élément de K.

V 1 = 2 e1 + 3 e2 + 5 e3
Note 5.102. si V2 = 3 e1 + 8 e2 + 1 e3 ?
V3 = 1 e1 + 2e2 + 4 e3

Définition 5.103. Soit B = (e1,  , en) une base de E.


On note detB l’application définie par :
detB : En → K ,
(V1,  , Vn)
P
σ∈Sn ε(σ)a σ(1)1  a σ(n)n
où, ∀j ∈ Nn, (ai jj )ij ∈N n sont les composantes de V j dans B : V j = ni=1 aijj × ei.
P

• L’image detB(V1,  , Vn) = ni=1 ε(σ)aσ(1)1 aσ(n)n de (V1,  , Vn) est appelée
P
détermi-
nant de (V1,  , Vn) dans la base B.
Proposition 5.104. On notera β(E) l’ensemble des bases de E, B et B ′ 2 éléments de β(E).
1. detB est une base de Λn(E).
Autrement dit tout élément de Λn(E), est proportionnel à detB.
2. detB(B) = 0.
3. ∀ϕ ∈ Λn(E), ∀S ∈ E n, ϕ(S) = ϕ(B) × detB(S).
4. ∀S ∈ E n, detB ′(S) = detB ′(B) × detB(S).
5. ∀S ∈ E n, (S est liée) ⇔ (detB(S) = 0).

5.4.5.2 Déterminant d’un endomorphisme

Proposition 5.105. Pour tout f endomorphisme de L(E) et toute forme n-linéaire alternée ϕ de
Λn(E) il existe un unique élément α de K tel que :
ϕ ◦ (f ;  ; f ) = αϕ où ϕ ◦ (f ×  × f ): En → K .
(V1,  , Vn) ϕ(f (V1),  , f (Vn))

Définition 5.106. Cet élément est appelé déterminant de f, et est noté det(f ).

ainsi ϕ ◦ (f ×  × f ) = det(f ) × ϕ.

Proposition 5.107. ∀α ∈ K, ∀(f , g) ∈ L(E)2 , ∀B ∈ β(E) avec B = (e1,  , en) et (V1,  , Vn) ∈
En :
1. ϕ(f (V1),  , f (Vn)) = det(f ) × ϕ(V1,  , Vn).
5.4 Applications linéaires et multilinéaires en dimension finie 77

2. detB(f (V1),  , f (Vn)) = det(f ) × detB(V1,  , Vn)


3. det(f ) = det(e1, ,en)(f (e1),  , f (en)).
4. det(IdE ) = 1.
5. det(α × f ) = αn × det(f ).
6. det(f ◦ g) = det(f ) × det(g).
7. (f ∈ GL(E)) ⇔ (det(f )  0).
8. Si f ∈ GL(E) alors det(f −1) = det(f )−1.

5.4.5.3 Application : Orientation d’un espace vectoriel de dimension finie


Soit n ∈ N∗ et E un R − ev de dimension n. On note β(E) l’ensemble des bases de E.

Définition 5.108. On dit que deux bases B,B ′ de E sont :


• de même sens si et seulement si : detB(B ) > 0. ′

de sens contraires si et seulement si : detB(B ) < 0.



Remarque 5.109.
1. On montre que la relation R "est de même sens que " définie par :

∀B, B ′ ∈ β(E), (B RB ′) ⇔ (detB(B ) > 0) est une relation d’équivalence.
2. On montre que β(E) admet exactement deux classes d’équivalence modulo R.

D’où la définition suivante :

Définition 5.110.
• On appelle orientation de E le choix, dans l’ensemble β(E) des bases de E, de l’une des
deux classes d’équivalence modulo R.
• Les bases de cette classe sont alors dites directes ou positives les autres indirectes ou
négatives.
• Le couple (E , β(E)) formé d’un R-e.v. et d’une orientation est appelé R-e.v. orienté.
Remarque 5.111.
1. Si (a1,  , ai ,  , an) et (a1,  , − ai ,  , an) sont deux bases d’orientations différentes i.e. de
signes contraires.
2. De même pour (a1,  , ai ,  , aj , , an) et (a1,  , a j ,  , ai, , an)

Définition 5.112. Soit f ∈ GL(E). On dit que :


• f conserve l’orientation ( ou est direct ) si et seulement si : det(f ) > 0.
• f change l’orientation (ou est indirect ) si et seulement si : det(f ) < 0.

Proposition 5.113. Soit f ∈ GL(E).


1. Si f conserve l’orientation, alors, pour toute base B de E, f (B) est une base de même
sens que B.
2. Si f change l’orientation, alors, pour toute base B de E, f (B) est une base de sens con-
traire de B.

Proposition 5.114. Soit ϕ: E p R une application p-linéaire non nulle.


Pour toutes bases B, B ′ de E p on a BR B ′ ⇔ ϕ(B) × ϕ(B ′) > 0, autrement ils sont de même
signe.
78 Algèbre linéaire et multilinéaire

5.5 Algèbre

5.5.1 Définition
Définition 5.115. Soient K un corps commutatif, E un ensemble, une loi de composition
interne notée + , une loi externe ( loi d’action) notée · : K × E → E et une loi de compo-
(λ, x) λ·x
sition interne notée × telles que :
• (E , + , · ) est un K-espace vectoriel,
• × est distributive sur + ,
• ∀λ ∈ K, ∀x, y ∈ E , λ · (x × y) = (λ · x) × y = x × (λ · y).
On appelle K-algèbre le quadruplet (E , + , · , × ) et on dit que E a une structure d’algèbre.

Définition 5.116. Une K-algèbre (E , + , · , × ) est dite : .


− associative ssi × est associative,
− commutative ssi + est commutative,
− unitaire (ou unifère) ssi E contient un élément neutre pour ×.

Remarque 5.117. Une algèbre sur un corps commutatif K est un espace vectoriel E sur K
muni d’une application bilinéaire de E × E dans E.

Définition 5.118. On dit que l'algèbre E est de dimension nie sur K si l’espace vectoriel
sous jacent l’est.

Définition 5.119. On appelle base de l'algèbre E une base de l’espace vectoriel sous-jacent.
Proposition 5.120. Munie des deux lois de composition, une algèbre associative est un anneau.

Définition 5.121. On dit alors qu’un élément de E est inversible (resp. un diviseur de 0) s’il
est inversible (resp. un diviseur de 0) dans l’anneau sous jacent.

Proposition 5.122. Si l’algèbre E est associative, unitaire et non réduite à { 0 }, l’application



α α · e est un isomorphisme de K sur une droite de E.

Remarque 5.123. On identifie souvent K à K · e par cette application ; on note alors 1 l’élé-
ment-unité de E.

5.5.2 Sous-algèbre
Définition 5.124. Soient (E , + , · , × ) une K-algèbre, F une partie de E (F ∈ P(E)) et ⊕ , ⊙,
K
⊗ les lois induites par celles de E. On dit que (F , ⊕ , ⊙, ⊗ ) est une sous -algèbre si et seu-
lement si (F , ⊕ , ⊙, ⊗ ) est une K-algèbre.

Définition 5.125. Si l’algèbre E est unitaire, les sous-algèbres de E contenant l’élément unité
de E sont appelées sous-algèbres unitaires de E.

Définition 5.126. On dit qu’une sous-algèbre unitaire E’ de E est pleine si et seulement si,
pour tout élément x de E’ inversible dans E, l’inverse de x appartient à E’.

Proposition 5.127.
Pour qu’une partie F d’une algèbre E soit une sous-algèbre de E, il faut et il suffit que F soit
un sous-espace vectoriel de E stable pour la multiplication induite.
5.5 Algèbre 79

Soient (E , + , · , × ) une K-algèbre, F une partie de E (F ∈ P(E)) et ⊕ , ⊙, ⊗ les lois


K
induites par celles de E. On dit que (F , ⊕ , ⊙, ⊗ ) est une sous -algèbre si et seulement si :
• (F , ⊕ , ⊙) est un K-espace vectoriel,
• ∀x, y ∈ F , x ⊗ y ∈ F, (F est stable pour la troisième loi).
Autrement dit
• F  ∅, (F n’est pas vide)
• ∀x, y ∈ F , x ⊕ λ⊙y ∈ F, (F est stable par combinaison linéaire).
• ∀x, y ∈ F , x ⊗ y ∈ F, (F est stable pour la troisième loi).

Proposition 5.128. Lorsque l’algèbre E est unitaire, pour que F soit une sous-algèbre unitaire
de E, il faut et il suffit que K · e soit contenu dans F et que F soit stable pour les deux lois de
composition.

Remarque 5.129. Les lois induites peuvent être également notées + , · , × .


5.5 Algèbre 81
Chapitre 6
Espaces Vectoriels, Algèbres Normés et
leur topologie

6.1 Espace vectoriel normé


On prendra K = R ou C. Est-il nécessaire d’avoir K = R ou C ? Cela semble le cas, sinon
kλ xk = |λ| kxk n’a pas de sens.

6.1.1 Norme, Espace vectoriel normé


Définition 6.1. Soit E un espace vectoriel sur K.
Une application [nommée par exemple] (n) est une norme et sera notée k.kE si et seulement
si elle vérifie les propriétés suivantes :
1. n: E → R+ ((n) est définie sur E et à valeur(s) dans R+ )
2. (n(x) = 0) ⇒ (x = 0) (séparation),
3. ∀x ∈ E , ∀λ ∈ K, n(λ × x) = |λ| × n(x) (homogénéité),
4. ∀(x, y) ∈ E 2, n(x + y) 6 n(x) + n(y) (inégalité triangulaire).
Les propriétés précédentes s’écrivent alors :
1. ∀x ∈ E , kxkE > 0.
2. (kxkE = 0) ⇒ (x = 0),
3. ∀x ∈ E , ∀λ ∈ K, kλ × xkE = |λ| × kxkE,
4. ∀(x, y) ∈ E 2, kx + y kE 6 kxkE + ky kE.

Remarque 6.2. Pour la définition, on ajuste (kxk = 0) ⇒ (x = 0) mais en fait (kxk = 0) ⇔ (x =


0).

Définition 6.3. On appelle espace vectoriel normé, le couple (E , k.kE) formé d’un K-espace
vectoriel E et d’une norme k.kE.

Note 6.4. Dans un espace normé a-t-on nécessairement l’inégalité de Cauchy Schwarz. Je pense
que non, car pour l’inégalité de Cauchy Schwarz, il faut que la norme soit une norme associée à
un produit scalaire. Autrement dit, elle doit posséder la propriété supplémentaire : par exemple
la linéarité de la forme fshc ou fbsr associée.

Proposition 6.5. Soit (E , k.kE ) un K-espace vectoriel normé.


L’application d: (E)2 → R+ est une distance.
(x, y) kx − y kE

Définition 6.6. Soit (E , k.kE ) un K-espace vectoriel normé.


La distance d définie sur E, d: (R)2 → R+ est appelée distance associée à la
(x, y)  kx − y kE
norme de E. C’est la distance usuelle de E.

Proposition 6.7. Soient (E , k.kE ) un K-espace vectoriel normé et (d) sa distance associée,
elle possède les deux propriétés suivantes :
1. kxkE = d(x; O)

82
6.1 Espace vectoriel normé 83

2. ∀x, y ∈ E , ∀α ∈ K, d(αx, αy) = |α|d(x, y) (homogénéité),


3. ∀x, y, z ∈ E , d(x + z , y + z) = d(x, y) (invariance par translation).

Remarque 6.8. On vient de voir qu’une norme permet toujours de définir une distance. Autre-
ment dit, un espace normé est aussi un espace métrique (conséquence : il possède toutes les pro-
priétés des espaces métriques). Mais une distance peut-elle toujours être définie par une norme ?
Autrement dit un espace métrique est-il également un espace normé. La réponse est non ! Sauf
si la distance vérifie les 2 lois précédentes (2) et (3) homogénéité et invariance par translation. Il
faut également que l’espace métrique soit aussi un espace vectoriel, sinon on ne peut pas définir
d’espace normé. D’où le schéma :

Il existe donc :
− des espaces vectoriels qui sont des espaces métriques sans pour autant qu’il y ait de
norme associée à la distance. Autrement dit, n(x) = d(O, x) n’est pas une norme.
− des espaces métriques qui ne sont pas des espaces normés.
Exemples ?

Exemple 6.9. De normes et par conséquent d’espaces vectoriels normés. Elles sont données en
exemple car les démonstrations seront développées dans les chapitres correspondants.
1. Soit E un espact topologique compact. L’ensemble C(E; K) des fonction continues sur E
à valeur dans K = R ou K = C : l’application n: C(E; K) → R+ est une
f 
supx∈E |f (x)|
norme appelée norme de la convergence uniforme. Attention , on notera que cette norme
n’est définie que si E est un espace topologique compact. En effet, il faut que (n) ne
donne pas de valeurs infinies sinon ce n’est plus une norme ! Voir notes correspondant à
sa distance associée (37 bis). Voir remarque cours de topologie Christel [1.2.C] ... page
133. Sa distance associée est en prenant |.| comme distance sur K (f , g) 
supx∈E |f (x) − g(x)|
2. ... rajouter la norme intégrale (voir cours sur intégrale de Riemann/Lebesgue) + norme
subordonnée (développée dans le chapitre des fonctions linéaires) + norme de la conver-
gence uniforme ... massons page 53 (c’est l’exemple précédent) + norme sur R x |x|. 

qR
b 2
3. Soit E le sous-espace vectoriel des fonctions continues sur [a, b], f a
f (t)dt est une
norme sur E.
4. Nous verrons plus tard que toutes ces normes permettent de définir d’autres normes sur
un espace vectoriel produit.
5. ...

Proposition 6.10. |kxk − ky k| 6 kx − y k.

Démonstration.
a) kxk = kx − y + y k or kx − y + y k 6 kx − y k + ky k d’après l’inégalité triangulaire. Donc
kxk 6 kx − y k + ky k soit kxk − ky k 6 kx − y k.
b) De même en posant ky k = ky − x + xk on a ky k − kxk 6 kx − y k autrement dit − kx −
y k 6 kxk − ky k.
84 Espaces Vectoriels, Algèbres Normés et leur topologie

c) On a finalement − kx − y k 6 kxk − ky k 6 kx − y k ce qui s’écrit |kxk − ky k| 6 kx − y k. 

6.1.2 Autogomie d’espaces vectoriels normés


Comment des espaces vectoriels normés permettent de construire sur un produit direct d’espaces
vectoriels normés, de nouvelles normes et par conséquent de nouveaux espaces vectoriels
normés !

Proposition 6.11. Soit (E1, k.kE1), (E2, k.kE2) 2 espaces vectoriels normés. Sur E = E1 × E2 ,
on peut définir 3 normes :
1. k(x1; x2)k∞ = sup (kx1kE1; kx2kE2), « borne supérieure de normes »
p p p
1
Pn 1
2. k(x1; x2)k p = (kx1kE + kx2kE ) . Pour p > 1, x ∈ Kn , k.kp = i=1 |xi |
p p
.

1 2
Sur R l’inégalité de Minkowsky permet de montrer que l’application k.kp: x
n
Pn 1
i=1 |x i | p p
est une norme, en établissant l’inégalité triangulaire pour k.k p. L’inégalité
de Minkowsky peut donc se retenir sous la forme kx + y k p 6 kxk p + ky k p dans (R, k.kp).
q
3. k(x1; x2)k2 = (kx1k2E1 + kx2k2E2) , « racine carrée de la somme des carrés des normes »

4. k(x1; x2)k1 = kx1kE1 + kx2kE2 , « somme des normes ».


5. De plus on a la relation :
lim p→+∞ kxk p = kxk∞ , si l’on pose kxk∞ = supk∈{1; ;n} |xk |. Pour un ensemble fini,
l’emploi de max ou sup n’a pas d’importance.

Remarque 6.12. A partir d’un même espace vectoriel produit, on peut donc construire plu-
sieurs normes et donc espaces vectoriels normés. Quelle est la relation entre tous ces espaces :
permettent-ils d’obtenir les mêmes résultats d’un point de vu topologique ou métrique (conti-
nuité, convergence ...) c’est le chapitre sur les équivalences qui permettra de répondre.

6.1.3 Limites des applications « somme » et « produit par un scalaire


»
Elles ne pouvaient être définies plus tôt, (c’est à dire dans une structure moins «riche» comme
un espace topologique ou métrique quelconque,) car l’addition et la multiplication par un sca-
laire n’existent pas nécessairement dans un espace métrique ou topologique.

Proposition 6.13. On appelle produit de suite ou somme de suite ! ? (à définir !)

6.1.4 Continuités des applications « somme », « produit par un sca-


laire » et norme
Proposition 6.14. Soit (E , k.kE ) un evn. On munit E × E et K × E de la topologie produit,
alors :

1. L’application : (E)2 → E est uniformément continue.


(x, y) 
x+y

2. L’application : K × E → E est continue. (à vérifier !)


(λ, y) λy
3. L’application k.kE est une application continue sur (E , k.kE ).

Démonstration.
1.
2.
6.1 Espace vectoriel normé 85

3. Soit ∀ε ∈ R+∗; η ∈ R+∗; η 6 ε; (kx − y kE < η) ⇒ |kxkE − ky kE | 6 kx − y kE < η 6 ε on a




bien ∀ε ∈ R+∗; ∃η ∈ R+∗; (kx − y kE < η) ⇒ |kxkE − ky kE | < ε d’où la continuité.





Remarque 6.15. Attention !

1. Les applications : E → E , : K → E sont uniformément continues.


x 
λx λ λx 
2. Mais l’application :K × E → E est seulement continue (propriété précédente), elle
(λ, x)  λx
n’est pas uniformément continue.

Démonstration. Page 36 dans le cours de Ben Abdallah sans doute ! 

6.1.5 Normes équivalentes et topologiquement équivalentes


Définition 6.16. Soit E un espace vectoriel, N1 et N2 deux normes sur E.
1. On dit que N1 et N2 sont dites topologiquement équivalentes si et seulement si leurs
topologies associées sont égales.
2. On dit que N1 et N2 sont équivalentes s’il existe deux constantes λ, µ ∈ R∗+ telle que :
λN1(x) 6 N2(x) 6 µN1(x).

Proposition 6.17. Dans un espace normé : Equivalentes ⇔ Topologiquement équivalentes.

Proposition 6.18. Soit E un espace vectoriel, N1, N2 deux normes sur E et d1,d2 les distances
associées. Les propositions suivantes sont équivalentes :
i. N1, N2 sont équivalentes,
ii. d1, d2 sont uniformément équivalentes,
iii. d1, d2 sont topologiquement équivalentes.

Remarque 6.19. Dans un espace uniquement métrique, il n’y a que ⇒ .

Exemple 6.20. k.k∞ ; k.k1 ; k.k2 ; k.kp sont équivalentes. Leurs distances associées définissent des
topologies identiques à la topologie produit.

6.1.6 Espace normé de dimension finie


6.1.6.1 Equivalence des normes en dimension finie

Théorème 6.21. Pour tout espace normé E de dimension finie n et pour toute base (ei)i=1,  ,n
de E l’isomorphisme vectoriel : Kn → E est bicontinue (i.e. un homéomor-
(x1,  , xn) 
Pn
i=1 xiei
phisme).

Démonstration. Cours de Ben Abdallah page 39-40 

Corollaire 6.22. Tout espace normé de dimension finie (n) est homéomorphe à Kn.

Démonstration. Cours de Ben Abdallah page 39-40 

Théorème 6.23. Sur Kn toutes les normes sont équivalentes.

Démonstration. Cours de Ben Abdallah page 39-40 (on le montre en démontrant qu’une
norme quelconque est équivalente à k.k1). 
86 Espaces Vectoriels, Algèbres Normés et leur topologie

Corollaire 6.24. Toutes les normes sur un e.v. de dimension finie sur K sont équivalentes.

Démonstration. Cours de Ben Abdallah page 39-40 

6.1.6.2 Complétude et fermeture en dimension finie

Proposition 6.25. Soit P une partie d’un espace vectoriel normé de dimension finie :
1. P complète ⇔ P fermée
2. P précompacte ⇔ P bornée
3. P compacte ⇔ P fermée bornée

Corollaire 6.26. Tout sous-espace de dimension finie d’un espace normé E est complet et donc
fermé dans E.

6.1.6.3 Continuité des applications linéaires sur un e.v.n. en dimension finie

Corollaire 6.27. Soient E , F 2 espaces v.n. et f : E → F application linéaire.


Si dim(E) < + ∞ ( dim(E) est finie) alors f est continue, autrement dit toute application
linéaire sur un espace vectoriel de dimension finie et à valeurs dans un e.v.n. quelconque est
continue.

6.1.6.4 Continuité d’une application linéaire sur un produit d’espace vectoriel de


dimension finie

Corollaire 6.28. Soient E1,  , E p , F 2 espaces v.n. et f : pj=1 E j → F application linéaire.


Q

Si dim(E j ) < + ∞ ( dim(E j ) est finie) alors f est continue, autrement dit toute application
linéaire sur un produit d’espaces vectoriels de dimensions finies est continue.

6.1.7 Espace de Banach


Définition 6.29. Un espace vectoriel normé complet est appelé espace de Banach.
Exemple 6.30.
1. R; Rn; C; Cn sont des espaces de Banach (voir cours CTES chapitre 3).
2. Soit X un ensemble, (E , k.kE ) un espace de Banach. L’ensemble B(X , E) des applica-
tions bornées de X → E, muni de la norme kf k∞ = supx∈X kf (x)k est un espace de
Banach. (Preuve CTES Topologie page 101).
3. Si (E , k.kE ) un espace normé et (F , k.kF ) un espace de Banach alors L(E , F ) l’espace des
fonctions linéaires continues de E → F muni de la norme associée à k.kE et k.kF est un
espace de Banach.
P∞ 2
4. Le C-espace vectoreil l2 (des suites complexes (an) telles que n=0 |an | converge) muni
P∞ 1
de la norme k(an)k2 = 2 2
est un espace de Banach. (Preuve CTES page 102).

n=0 |an |

6.2 Algèbre normée

6.2.1 Norme compatible avec la multiplication d’une algèbre


Définition 6.31. Soient A une K-algèbre et N une norme sur le K-e.v. A.
On dit que N est compatible avec la multiplication de A si et seulement si :
∃C ∈ R+; ∀x, y ∈ A, N (x y) 6 C N (x) N (y).
6.3 Applications linéaires sur un K-e.v.n. et L(E , F ) 87

6.2.2 Norme d’algèbre, définition


Définition 6.32. Soient A une K-algèbre et N une norme sur le K-e.v. A.
On dit que N est une norme d'algèbre sur A si et seulement si :
∀x, y ∈ A, N (x y) 6 N (x) N (y).

Définition 6.33. On appelle algèbre normée, un couple formé par une K-algèbre A et une
norme d’algèbre sur A.

Proposition 6.34. Pour tout ensemble non vide X, l’ensemble des B(X , K) est une algèbre
normée, la troisième loi étant la multiplication.

6.3 Applications linéaires sur un K-e.v.n. et L(E , F )


En fait il s’agit d’un exemple d’espace vectoriel normé. Il serait donc intéressant de placer ce
chapitre à part.

6.3.1 C.N.S. de continuité


Théorème 6.35. Soit E , F 2 e.v.n. et f : E → F une application linéaire. On a l’équivalence :
i. f continue
ii. f continue en 0 (ou au moins en un point x0 de E)
iii. ∃k ∈ R+∗; ∀x; kf (x)kF 6 kkxkE (f est lipschitzienne de rapport k)
iv. f est bornée sur la boule unité
v. f est bornée sur la sphère unité.
vi. f est uniformément continue

Démonstration. Cours de Ben Abdallah page 36. 

Remarque 6.36. Soit n1 et n2 2 normes équivalentes sur un K-e.v. E,


l’application Id: (E , n1) → (E , n2 ) est un homéomorphisme.
x  x

Démonstration. Cours de Ben Abdallah page 37. 

6.3.2 L(E , F )
Définition 6.37. On note L(E , F ) le K-e.v. des applications linéaires continues de E → F.

Proposition 6.38. L(E , F ) l’ensemble des applications linéaires continues E → F est un K-e.v.

6.3.3 Norme et Norme d’opérateur ou subordonnée sur L(E , F )


Soient E , F 2 K-e.v.n.. L’ensemble des applications linéaires continues E → F étant un K-e.v.,
peut-on définir sur L(E; F ) une norme : oui ! ce sont les normes d’opérateur dite normes subor-
données.

Proposition 6.39. Soit u ∈ L(E , F ), notons k.kE , k.kF les normes de E et F alors on a :
ku(x)kF
inf {k ∈ R+∗; ∀x ∈ E; ku(x)kF 6 kkxkE } = supx  0 kxkE
= sup kxkE 61 ku(x)kF =
supkxkE =1 ku(x)kF.
Les conditions kxkE 6 1 situent x dans la boule unité et kxkE = 1 dans la sphère unité
88 Espaces Vectoriels, Algèbres Normés et leur topologie

Ce réel est noté kukL(E ,F ) ou kukE ,F ou simplement kuk si aucune confusion n’est possible..

Démonstration. Cours de Ben Abdallah page 37. 

Définition 6.40. Soient E , F 2 K-e.v.n..


On appelle norme d'opérateur dénie à partir de ou subordonnée à k.kE , k.kF d’une
application linéaire continue, l’application notée k.kE ,F telle que :
k.kE ,F : L(E; F ) → R+
u 
kukE ,F

Théorème 6.41. Soit E , F , G 3 e.v.n.


1. L’application k.kE ,F est une norme sur L(E , F ).
2. Si u ∈ L(E; F ), ku(x)kF 6 kukE ,F × kxkE
3. Si u ∈ L(E; F ) et v ∈ L(F ; G) kv ◦ ukE ,G 6 kv kF ,G × kukE ,F
4. Si E  ∅ on a kIdE k = 1.

Démonstration. Cours de Ben Abdallah page 38 TCD. 

Remarque 6.42. Si E = F , k.kE ,F est noté k.ks (à revoir) ?

Proposition 6.43. Toutes les normes subordonnées d’un endomorphisme sont des normes
d’algèbre. Le couple formé par l’ensemble des endomorphismes et la norme subordonnée i.e.
((L(E), + , · , ◦ ); k.ks) est une K-algèbre normée.

6.3.4 Dual d’un espace vectoriel


Définition 6.44. Soit E un K-e.v.n.. L’espace L(E , K) des formes linéaires continues sur E
s’appelle dual de E et est noté E ′.

6.3.5 Isométrie entre E et L( ; E) K


Proposition 6.45. Tout K-espace normé E est isométrique à L(K, E) par l’application Θ:
E → L(K, E) avec x̃(λ) = λ · x
u  x̃

Démonstration. Cours de Ben Abdallah page 38 TCD. 

6.3.6 C.S. de complétude pour L(E; F )


Théorème 6.46. Soit E une espace normé et F un espace de Banach alors l’espace L(E , F ) est
aussi de Banach. En particulier le dual topologique de tout espace normé est un espace de
Banach.

Démonstration. Cours de Ben Abdallah page 38 TCD. 

6.4 Applications multilinéaires sur un K-e.v.n et L(E ,  , 1


En , F )
En fait il s’agit d’un exemple d’espace vectoriel normé. Il serait donc intéressant de placer ce
chapitre à part. Rajouter l’introduction du cours de licence p40.
6.4 Applications multilinéaires sur un K-e.v.n et L(E1,  , En , F ) 89

6.4.1 C.N.S. de continuité


Théorème 6.47. Soient E1,  , En , F (n + 1) espaces normés et f : E1 ×  × En → F une appli-
cation multilinéaire, on a l’équivalence suivante :
1. f est continue dans E1,  , En
2. f est continue en 0 = (0,  , 0)
3. il existe k > 0 tel que kf (x1,  , xn)k 6 kkx1k ×  × kxn k.

Démonstration. Cours de Ben Abdallah page 41 TCD. 

6.4.2 L(E1,  , En, F )


Définition 6.48. On note L(E1,  , En , F ) (resp. L(E , F )) l’ensemble des applications multili-
néaires (resp. n-linéaires continues).

Proposition 6.49. L(E1,  , En , F ) l’ensemble des applications multilinéaires (resp. n-linéaires


continues) est un espace vectoriel sur K.

6.4.3 Norme et Norme d’opérateur ou subordonnée sur L(E1,  , En ,


F)
Soit E1,  , En , F (n+1) K-e.v.n. . On note L(E1,  , En , F ) le K-e.v. des applications linéaires
continues de E1,  , En → F . L’ensemble des applications linéaires continues E → F est un K-
e.v., on peut donc définir la norme d’opérateur dite norme subordonnée. Cette phrase n’a pas de
sens si F n’est pas compact et si F  K.

Proposition 6.50. Pour f ∈ L(E1,  , En , F ), en notant E = E1 ×  × En et x = (x1,  , xn)


kf (x)k
On a inf(x)∈E {k > 0; kf (x)kF 6 k ni=1 kxi kEi } = sup Q n kx Fk =
Q
i=1 i Ei

sup kxkE 61 ou kxk∞ 61 kf (x)kF = sup kxkE =1 kf (x)kF


Ce réel est noté kf kE1,  ,En ,F ou simplement kf k si aucune confusion n’est possible.

Définition 6.51. Soit f ∈ L(E1,  , En , F ).


On appelle norme d'opérateur dénie à partir de ou subordonnée à k.kE1,  , k.kE n ,
k.kF d’une application multilinéaire continue u, l’application :
k.kE1,  ,En,F : f ∈ L(E1,  , En , F ) → R+
f  kf kE1,  ,En ,F

Proposition 6.52. Pour f ∈ L(E1,  , En , F ).


l’application k.kE1,  ,En,F est une norme.

6.4.4 Divers
Théorème 6.53. Pour u ∈ L(E , F , G) et x ∈ E.

1. Si ux: F → G alors ux ∈ L(F , G) et l’application ũ: E → L(F , G) est linéaire


y 
u(x, y) x ux 
continue.

2. De plus l’application O: L(E , F , G) → L(E , L(F , G)) est une bijection linéaire (un
u  ũ
isomorphisme linéaire) conservant les normes et aussi une isométrie. Autrement dit L(E;
F ; G) est isomorphe et isométrique à L(E; L(F ; G)).

Corollaire 6.54. Si l’espace G est de Banach, l’espace L(E , F , G) est aussi de Banach.
90 Espaces Vectoriels, Algèbres Normés et leur topologie

Corollaire 6.55. Si l’espace F est de Banach l’espace L(E1,  , En , F ) est de Banach.

Proposition 6.56. Toute application multilinéaire d’un produit d’espace normé de dimension
finie est continue.

6.5 Topologie des espaces vectoriels normés


Certaines propriétés ont déjà été vues, mais les regrouper dans une partie topologie peut-être
utile ! (Propriétés à mettre également en topologie générale et métrique)

6.5.1 En dimension finie


Corollaire 6.57. Toute application linéaire d’un espace vectoriel normé de dimension finie dans
un espace vectoriel quelconque est continue. Déjà vu page 79.

Démonstration. CTE 2003-2004 page 133 

Corollaire 6.58. Tout espace vectoriel normé de dimension finie est complet.

Démonstration. CTE 2003-2004 page 133 

Corollaire 6.59. Tout sous-espace vectoriel de dimension finie d’un espace vectoriel normé est
fermé.

Démonstration. CTE 2003-2004 page 133 et CTE 2004-2005 page 109. 

Corollaire 6.60. Les parties compactes d’un espace vectoriel normé de dimension finie sont les
parties fermées et bornées.

Démonstration. CTE 2003-2004 page 133 et CTE 2004-2005 page 110. 

6.5.2 En dimension infinie


(Remarque CTE 2003-2004 page 134) Les propriétés précédentes en dimension finie tombent
toutes en dimension infinie. En particulier, nous avons le théorème suivant :

Théorème 6.61. (Riesz) La boule unité fermée dans un espace vectoriel normé de dimension
infinie n’est jamais compacte.

Démonstration. CTE 2003-2004 page 134 

6.6 Série
La définition des séries convergentes est calquée sur le cas des série numériques. Le critère de
Cauchy de convergence des séries s’étend au cas des espaces de Banach. On dit qu’une série de
terme général xn est absolument convergente si la série de terme général kxn k est convergente.
Dans un espace de Banach, la convergence absolue implique la convergence.

6.6.1 Définitions et propriétés générales


Proposition 6.62. Si les séries de terme gé xn , yn sontconvergentes les séries de termes géné-
P P P
(x + yn) = xn + yn
raux xn + yn et λ xn , λ ∈ K sont convergentes et l’on a : P n P .
λ xn = λ xn
Si la série de terme général xn est convergente on a limn→+∞ xn = 0.
6.7 Exponentielle d’un endomorphisme d’un espace de Banach 91

6.6.2 ... dans un espace de Banach


Proposition 6.63. (Critère de Cauchy)
Soit E un espace de Banach et (xn) une suite de E on a l’équivalence
1. la suite de terme général xn est convergente,
Pn
2. ∀ε > 0; ∃n0 ∈ N; (n > m > n0) ⇒

i=m xi < ε

Proposition 6.64. Soit un espace de Banach et (xn) une suite de E, si la série de terme
général xn est absolument convergente cette série est convergente.

Théorème 6.65. Soit E un espace de Banach, u ∈ L(E).


si kuk < 1 alors (Id + u) sont des homéomorphismes de E avec :
( − 1)n(u)n où un = u ◦ u ◦  ◦ u et k(Id + u)−1k 6 1 − kuk .
1
(Id + u)−1 =
P

Proposition 6.66. Soit E , F des espaces de Banach et u0 ∈ IS (E , F ) l’espace des homéomor-


phisme linéaires de E vers F.
1
Si v ∈ L(E , F ) est telle que kvk 6 ku0−1k alors u0 + v ∈ IS (E , F ) et k(u + v)−1k 6 ku k−1 − kv k .
0

Corollaire 6.67. Soit E , F 2 espaces de Banach tels que l’espace IS (E , F ) soit non vide alors
IS (E , F ) est ouvert dans L(E , F ) et l’application : L(E , F ) → IS (E , F ) est continue
y  u−1

6.7 Exponentielle d’un endomorphisme d’un espace de


Banach

6.7.1 Définition
Dans tout ce chapitre E est un espace de Banach réel ou complexe, End(E) est l’ensemble des
endomorphisme de E et GL(E) est le groupe linéaire de E i.e. l’ensemble des automorphismes
de E.
 n 
A
Proposition 6.68. Soient A un endomorphisme de E (A ∈ End(E)) et la série n! ; Sn pour
laquelle on pose A0 = IdE.
 n 
A
1. La série n! ; Sn converge uniformément sur tout ensemble borné contenu dans End(E).

2. Sa somme S(A) vérifie : kS(A)k 6 expkAk.

Définition 6.69. Soit E un espace de Banach. On appelle exponentielle d'un endomor-


End(E) → E
phisme de E l’application : exp: A 
P ∞ An .
n=0 n!

6.7.2 Propriétés
6.7.2.1 Relation entre exponentielles

Proposition 6.70. ∀A ∈ End(E), kexpEnd(E)(A)k 6 expR (kAk).

6.7.2.2 Continuité

Proposition 6.71. L’application exp est continue sur End(E). Elle est aussi localement lip-
schitzienne : kexp(A) − exp(B)k 6 eM × kA − B k si M majore kAk ou kB k.
92 Espaces Vectoriels, Algèbres Normés et leur topologie

6.7.2.3 Commutation avec la conjugaison

Proposition 6.72. ∀(A, B) ∈ (End(E) × GL(E)), exp(B −1 ◦ A ◦ B) = B −1 ◦ exp(A) ◦ B.

6.7.2.4 Exponentielle d’une somme

Proposition 6.73. ∀(A, B) ∈ (End(E) × GL(E)), (A ◦ B = B ◦ A) ⇒ (exp(A + B) = exp(A) ◦


exp(B)).

6.7.2.5 Toute exponentielle est un carré


  2
A
Proposition 6.74. ∀A ∈ End(E), exp(A) = exp 2 .

6.7.2.6 Déterminant d’une exponentielle

Proposition 6.75. Si E est dimension finie alors ∀A ∈ End(E) :


1. det(exp(A)) = exp(tr(A)).
2. det(exp(A)) > 0.

6.7.2.7 Application R → GL(E)


t  exp(t · A)

Proposition 6.76. Soient A ∈ End(E) et l’application f : R → GL(E) alors :


t 
exp(t · A)
1. f est de classe C ∞ ,
2. f ′(t) = A(f (t)).

Note 6.77.
1. Retirer la partie algèbre linéaire du résumé algèbre linéaire du premier semestre.
2. Retirer la partie espace vectoriel du résumé du second semestre.
6.7 Exponentielle d’un endomorphisme d’un espace de Banach 93
Chapitre 7
Les nombres réels et leur topologie
Au cours de mes révisions pour l’agrégation interne de mathématiques, j’ai été confronté à des
exercices faisant intervenir des inégalités. En particulier dans le livre Analyse 1 de J.M. Monier,
l’exercice 1.2.8 m’a posé des problèmes car aucune méthode un peu générale ne semblait se
dégager pour permettre leur résolution. J’ai trouver une solution à mon problème dans le livre
Les Olympiades de Mathématiques de Tarik Belhaj Soulami. (Partie à mettre avec les nombres
réels).

7.1 Inégalité du réordonnement


Théorème 7.1. (Inégalité du réordonnement)

La somme Sσ = i=1 aibσ(i), où σ est une permutation de {1, 2,  , n}, est :


Pi=n
-maximales lorsque les deux suites de nombres a1, a2,  , an et bσ(1), bσ(2),  , bσ(n) sont ran-
gées dans le même ordre d’inégalité,
-minimales lorsque les deux suites sont rangées dans l’ordre inverse.

Démonstration. Voir livre Olympiades de Mathématiques page 119. 

Remarque 7.2. la démonstration fournie également un moyen de démonstration des inégalités


citées précédement, en procédant de proche en proche par transposition de deux termes d’une
des suite. Ce qui permet de se passer du théorème si son utilisation n’est pas possible compte
tenu du programme du concours. En effet aucun autre livre ne le mentionne !

Exemple 7.3. Montrons que ∀(a, b, c) ∈ R 3


+, a3 + b3 + c3 > a2b + b2c + c2a

Appliquons directement le théorème précédent : On peut supposer que a > b > c


a3 + b3 + c3 s’écrit aussi a2a + b2b + c2c
Or a > b > c > 0 par conséquent a2 > b2 > c2,
Les suites a2, b2, c2 et a, b, c donc a3 + b3 + c3 > a2b + b2c + c2a.

Utilisons la méthode de démonstration du théorème : On suppose encore que a > b > c


S1 = a3 + b3 + c3 et S2 = a2b + b2a + c3 pour S2 on a transposé a et b dans la suite a, b, c.
S1 − S2 = (a3 + b3 + c3) − (a2b + b2a + c3) puis on soustrait.
S1 − S2 = (a3 + b3) − (a2b + b2a) ce qui permet de faire disparaître c3.
S1 − S2 = (a2a + b2b) − (a2b + b2a)
S1 − S2 = a(a2 − b2) − b(a2 − b2)
S1 − S2 = (a − b)(a2 − b2) or a > b > 0 donc : S1 − S2 > 0.
autrement dit a3 + b3 + c3 > a2b + b2a + c3
On reproduit le même raisonnement avec S1′ = a2b + b2a + c2c et S2′ = a2b + b2c + c2a
S1′ − S2′ = (b2a + c2c) − (b2c + c2a) cette foi-ci c’est a2b qui disparait,
S1′ − S2′ = a(b2 − c2) − c(b2 − c2)
S1′ − S2′ = (a − c)(b2 − c2) compte tenu des hypothèses on obtient : S1′ − S2′ > 0.
autrement dit a3 + b3 + c3 > a2b + b2c + c2a

7.2 Inégalité de Cheybychev


Théorème 7.4. Si deux suites de nombres a1, a2,  , an et b1, b2,  , bn sont rangées dans le
même ordre d’inégalités au sens large, alors

94
7.6 Inégalité de Hölder 95

Pn Pn  Pn 
i=1 ai b i > i=1 ai i=1 bi

L’inégalité changeant de sens si les deux suites sont rangées dans l’ordre inverse.

Démonstration. Voir livre Olympiades de Mathématiques page 120. 

7.3 Inégalité de la moyenne


Théorème 7.5. Soit (x1, x2,  , xn) ∈ (R∗+)n alors
qQ
n n 1 Pn 
i=1 xi 6 n × i=1 xi

Démonstration. Voir livre Olympiades de Mathématiques page 122. 

7.4 Inégalité de Cauchy-Schwarz


Note 7.6. Ceci est dû à la structure d’espace euclidien de Rn : nh.; .i: (x; y)
Pn

i=1 xi × yi est
un produit scalaire de R, elle vérifie donc : nh.; .i 6 kxk × ky k où k.k est la norme associée à h.; .i

Théorème 7.7. Soient ((x1, x2,  , xn); (y1, y2,  , yn)) ∈ (Rn) alors
2

Pn qP qP
n n
i=1 x i × yi 6 i=1 x2i × i=1 yi2
avec égalité si et seulement si (x1, x2,  , xn) et (y1, y2,  , yn) sont proportionnels.

Démonstration. Voir livre Olympiades de Mathématiques page 126. 

7.5 Inégalité de Minkowski ou triangulaire



1

Note 7.8. Elle permet de montrer que l’application k.kp: x ( |xi |) p vérifie l’inégalité trian-
P
gulaire ce qui par conséquent en fait un élément de la démonstration de (R; k.k2) ou (R; k.k p)
espaces normés. On peut donc la retenir sous la forme : kx + y k p 6 kxk p + ky kp. Même
remarque pour (R; d2) et (R; d p) où l’inégalité permet de montrer que d2 et d p sont des dis-
tances.

Théorème 7.9. Soient ((x1, x2,  , xn); (y1, y2,  , yn)) ∈ (Rn) et p ∈ R; p > 1 alors
2
qP qP qP
p n p p n p p n p
i=1 (xi + yi) 6 i=1 xi + i=1 yi
Attention : l’inégalité est démontrée pour p réel (p ∈ R; p > 1)

Démonstration. Voir livre Olympiades de Mathématiques page 130, pour p = 2. Voir CTE
page 30 autrement. 

7.6 Inégalité de Hölder


n 2
Théorème 7.10. Soient ((x1, x2,  , xn); (y1, y2,  , yn)) ∈

1
R+ et p, q ∈ R; p > 1; q > 1; p +
1
q
= 1 alors
Pn  qp Pn p
qP
q n q
i=1 x i × yi 6 x
i=1 i × i=1 yi
96 Les nombres réels et leur topologie

Note 7.11. Vérifier si en rajoutant des valeurs absolues, on peut élargir l’inégalité à toutes les
valeurs de xi et yi.
Démonstration. Voir livre Olympiades de Mathématiques page 130. 

7.7 Fonction Convexe

Exercice 7.1. Voir Livre Analyse I J.M. Monier


Exercice 7.2. Voir Livre Olympiade de Mathématiques

7.8 Topologie de R
7.8.1 Compact de R
Proposition 7.12.
1. Soit a, b ∈ R, l’intervalle fermé [a; b] est compact.
2. Les sous-espaces compacts de R sont les parties fermées et bornées de R.
Démonstration. Voir cours de licence. 

7.8.2 Compact de R n

Théorème 7.13. Les sous-espaces compacts de Rn sont les parties fermées et bornées.
Exemple 7.14. Soit S n = (x1,  , xn) ∈ Rn+1; ni=1 x2i = 1 , S n est compacte.
 P

7.8.3 Connexité
Théorème 7.15. Une partie A de R ou de R̄ est connexe si et seulement si A est un inter-
valle.
Démonstration. 
Rajouter inf et sup sur une partie de R.

R corps ordoné !
Proposition 7.16. (R; + ; × ; 6 ) est un corps ordonné.
Théorème 7.17. (CTE 2003-2004 ? page 9 Topologie) Toute partie non vide majorée de R
admet une borne supérieure et toute partie non vide minorée de R admet une borne inférieure.
Théorème 7.18. (dit de « passage au sup et à l’inf ») Soit A une parite nonvide de R :
1. Si M ∈ R et tel que ∀x ∈ R, x ∈ a ⇒ x 6 M alors sup (A) existe et sup (A) 6 M.
2. Si m ∈ R et tel que ∀x ∈ R, x ∈ A ⇒ m 6 x, alors inf (A) existe et m 6 inf (A).
Avertissement 7.19. Valable uniquement pour 6 !
Partie entière d’un réel
Proposition 7.20. Pour tout réel x, il existe un et un seul entier relatif n tel que n 6 x < n + 1.
Démonstration. CTE 2003-2004 ? cours de Topologie page 7. 
Définition 7.21. On dira que n est la partie entière de x et on notera n = [x] ou bien x = E(x).
7.8 Topologie de R 97
Chapitre 8
Fonctions
Parmis les fonctions particulières rajouter la fonction indicatrice. Définition, représentation pro-
priété (voir exercice : livre d’exercices Intégrale de Lebesgue). Rajouter également les fonctions
étagées.
Rajouter limite inf (lim) et limite sup lim d’une suite de nombres et d’une fonctions et ?


8.1
sur RFonctions
)
numériques d’une variable réelle (i.e. définie

8.1.1 Propriétés d’une fonction continue sur un intervalle


Proposition 8.1. Soit f une fonction numérique continue sur un intervalle I de R. L’image
f (I) de I par f est encore un intervalle de R.

8.1.2 Propriétés d’une fonction continue sur un fermé borné


Proposition 8.2. Soit f une fonction continue sur une partie fermée bornée P de R. L’image
f (P ) de P par f est encore une partie fermée bornée de R, et la fonction f est uniformément
continue sur P.

8.1.3 Fonction réciproque d’une fonction continue et strictement


monotone
Proposition 8.3. Soit f une fonction continue sur un intervalle I de R. Pour que f admette
une fonction réciproque définie sur f (I), il faut et il suffit que f soit strictement monotone.
Dans ces conditions, f 1 est continue et strictement monotone sur f (I).

8.1.4 Dérivabilité
Définition 8.4. Soit f une fonction numérique définie sur un intervalle I de R non réduit à un
point. On dit que f est dérivable en un point x0 de I si la fonction x 
f (x) − f (x0)
x − x0
a une limite
en ce point.

dérivée de f au point xo et notée f ′(xo).


Définition 8.5. Cette limite est appelée

Définition 8.6. On dit que f est dérivable sur I si f est dérivable en tout point de I.

Définition 8.7. La fonction numérique x  f ′(x) est appelée dérivée de f et notée f ′ , ou


encore Df.

8.1.4.1 Opérations algébrigues sur les fonctions dérivables.

Proposition 8.8.
1. Les fonctions numériques définies sur I dérivables au point x0 constituent une sous-
algèbre pleines des fonctions d’une variable réelle de l’algèbre des fonctions numériques
définies sur I.
2. L’application f  f (x ) est une forme linéaire.

0

98
8.1 Fonctions numériques d’une variable réelle (i.e. définie sur R) 99

3. De même, les fonctions dérivables sur I constituent une sous-algèbre pleine de l’algèbre
des fonctions définies sur I.
4. (αf + βg) ′ = αf + βf ′ ,
5. (f g) ′ = f ′ g + f g ′ ,
 ′
f f ′ g − f g′
6. g = g2

7. (f1 f2  fn) ′ = i=1 f1 f2  fi  fn


Pn

n∈N
8. (f n) ′ = n f n−1 f ′ n ∈ Z, si f ne s ′annule pas

8.1.4.2 Dérivabilité d’une fonction composée.

Proposition 8.9. Soient f une fonction numérique définie sur un intervalle I de R, et g une
fonction numérique définie sux un intervalle J de R contenant f (I).
1. Si f est dérivable en un point x0 de I, et si g est dérivable au point f (x0), alors la fonc-
tion composée g ◦ f est dérivable au point x0.
2. Dans ce cas (g ◦ f )(x0) = (g ′ ◦ f )(x0) × f ′(x0).
3. Si f est dérivable sur I et si g est dérivable sur f (I), alors g ◦ f est dérivable sur I.
4. Et (g ◦ f ) = (g ′ ◦ f ) × f.

8.1.4.3 Dérivabilité d’une fonction réciproque

Proposition 8.10. Soient f une fonction continue et strictement monotone sur un intervalle I
de R, J l’image de I par f, g la fonction réciproque de f, et x0 un point de I.
1. Lorsque f est dérivable au point x0 , g est dérivable au point y0 = f (x0) si et seulement si
f (x0)  0.
1
2. Dans ces conditions, g ′(y0) = f (x ) .
0

3. Par suite, lorsque f est dérivable sur I, g est dérivable sur J si et seulement si f ′ ne
1
s’annule en aucun point de I, et g ′ = f ′ ◦ g .

8.1.4.4 Dérivée logarithmique

Définition 8.11. Soit f une fonction numérique dérivable sur un intervalle I de R, ne s’annu-
lant pas sur I. On appelle dérivée logarithmique de f le quotient de f ′ par f.

Proposition 8.12. Soient (f1, f2,  , fp) une suite de p fonctions numériques dérivables sur un
intervalle I de R, ne s’annulant pas sur I, et (n1, n2,  , n p) une suite de p entiers rationnels.
(f 1 f 2 f p) ′
n n n

Alors 1n1 2n2 pnp = n1 f1 + n2 f2 +  + n p f p .


f′ f′ f′
f1 f2  f p 1 2 p

8.1.5 Fonctions de classe C r


Soit r un entier naturel non nul. La dérivée r-ième d’une fonction r fois dérivable f se note Df
ou f (r).

Définition 8.13. On dit que f est de classe C r si elle est r fois dérivable et si Df est continue.

Définition 8.14. On dit qu’une fonction est de classe C 0 si elle est continue sur I,
Définition 8.15. On dit qu’une fonction est de classe C ∞ si elle est indéfiniment dérivable sur
I.

Proposition 8.16.
1. Les fonctions de classe C r sur I constituent une sous-algèbre pleine de l’algèbre unitaire
des fonctions définies sur I.
100 Fonctions

2. De plus, pour tout couple (f , g) de fonctions de classe C r, (f × g)(r) = f × g (r) + Cr1 f ×


g (r −1) +  + Crsf (s) × g (r −s) +  + f (r) × g (formule de Leibniz).
3. La composée de deux fonctions de classe C r est encore de classe C r.

Définition 8.17. On dit qu’une fonction f est un C r-diéomorphisme de I sur J = f (I) si f


définit une bijection de I sur J et si f et f 1 sont de classe C r.

Proposition 8.18. Lorsque r  0, pour que f soit un C r-difféormorphisme, il faut et il suffit


que f soit de classe C r et que f ne s’annule pas.

8.1.6 Fonctions de classe C r par morceaux


Définition 8.19. On dit que f est de classe C r par morceaux sur un intervalle compact [a, b]
s’il existe une suite strictement croissante (c0, c1,  , cn), où c0 = a et cn = b, telle que la restric-
tion de f à chacun des intervalles ]ci , ci+1[ soit prolongeable en une fonction de classe C r sur [ci ,
ci+1].

Définition 8.20. On dit que f est de classe C r par morceaux sur un intervalle I si la restri-
ction de f à tout intervalle compact contenu dans I est de classe C r par morceaux.

8.1.7 Théorème de Rolle


Soient f une fonction numérique définie sur un intervalle I de R et x0 un point de I.

Définition 8.21. On dit que f admet un maximum au point x0 si, pour tout point x de I,
f (x) 6 f (x0).

Définition 8.22. On dit que f admet un maximum local au point x0 s’il existe un voisinage
V de x0 tel que la restriction de f à I ∩ V admette un maximum au point x0.

Définition 8.23. On dit que f admet un minimum, ou un minimum local, au point x0 si −


f admet un maximum, ou un maximum local, en ce point.

Proposition 8.24. Soient f une fonction numérique définie sur un intervalle I de R, et x0 un


point intérieur à I. Si la fonction f admet un maximum ou un minimum local au point x0 , et si
f est dérivable en ce point, alors f ′(x0) = 0.

Proposition 8.25. Théorème de Rolle. Soit f une fonction numérique continue sur un inter-
valle [a, b] de R, dérivable sur l’intervalle ]a, b[, et telle que f (a) = f (b), il existe alors au moins
un point c de l’intervalle ]a, b[ tel que f ′(c) = 0.

Proposition 8.26. Formule des accroissements finis.


Soit f une fonction numérique continue sur un intervalle [a, b] de R, et dérivable sur l’inter-
f (b) − f (a)
valle ]a, b[. Il existe alors au moins un point c de I’intervalle ]a, b[ tel que f ′(c) = b − a

Proposition 8.27. Formule de Taylor-Lagrange.


Soient n un entier naturel et f une fonction numérique n fois continûment dérivable sur un
intervalle [a, b] et n + 1 fois dérivable sur ]a, b[. il existe alors au moins un point c de l’inter-
− a)2 +  +
f ′(a) f (a) f (n)(a) f (n+1)(a)
valle ]a, b[ tel que f (b) = f (a) + 1!
(b − a) + 2!
(b n!
(b − a)n + (n + 1)!
(b −
a)n+1.

8.1.8 Sens de variation d’une fonction.


Proposition 8.28. Soit f une fonction numérique dérivable sur un intervalle I.
1. Si la dérivée de f est nulle, f est constante.
8.1 Fonctions numériques d’une variable réelle (i.e. définie sur R) 101

2. Si la dérivée de f est positive, f est croissante.


3. Si la dérivée de f est négative, f est décroissante.

8.1.9 Primitives.
Définition 8.29. Soit f une fonction numérique définie sur un intervalle I de R. On dit
qu’une fonction numérique g définie sur I est une primitive de f sur cet intervalle si g est déri-
vable sur I, sa dérivée étant égale à f.

Proposition 8.30. Pour tout nombre réel a, la fonction g + a est encore une primitive de f.
Réciproquement, pour toute primitive h de f, il existe un nombre réel b tel que h = g + b. Autre-
ment dit, deux primitives d’une même fonction diffèrent d’une constante. Plus précisément,
soient x0 un point de I et y0 un nombre réel. Il existe une primitive h de f et une seule telle que
h(x0) = y0.

8.1.10 Développements limités.


Définition 8.31. Soient I un intervalle de R, x0 un point de I et n un entier naturel.
On dit qu’une fonction numérique f définie sur I admet un développement limité à
l'ordre n au voisinage de x0 s’il existe une fonction polynomiale A de degré inférieur à n telle
que f (x) − A(x) soit négligeable devant (x − x0)n au voisinage de x0. Une telle fonction A
s’appelle développement limité de f à l’ordre n au voisinage de x.

Proposition 8.32.
1. L’ensemble Dn(I) des fonctions admettant un développement limité à l’ordre n au voisi-
nage de x0 est un sous-espace vectoriel de l’espace vectoriel des fonctions numériques défi-
nies sur I.
2. L’ensemble des fonctions polynomiales de degré inférieur à n et l’ensemble des fonctions
négligeables devant (x − x0)n au voisinage de x0 sont deux sous-espaces vectoriels supplé-
mentaires dans Dn(I).
3. En particulier, le développement limité à l’ordre n au voisinage de x0 est unique, et
l’application Pn qui à tout élément de Dn(I) associe son développement limité est un pro-
jecteur : P (αf + βg) = αPn(f ) + βPn(g).
4. Pour tout couple (n, p) d’entiers naturels tel que p < n, Dn(I) est un sous-espace vectoriel
de D p(I), et pour tout élément f de Dn(I), P p(f ) = P p[Pn(f )].
5. L’ensemble Dn(I) est une sous-algèbre pleine de l’algèbre des fonctions numériques défi-
nies sur I. Plus précisément, Pn(f g) = Pn[Pn(f )Pn(g)].
f
6. Si g ne s’annule pas sur I, le développement limité de g est le quotient de la division de
Pn(f ) par Pn(g) suivant les puissances croissantes de x − x0 à l’ordre n.
7. Soient f une fonction admettant un développement limité A à l’ordre n au voisinage de
x0 telle que f (x0) = 0, et g une fonction admettant un développement limité B à l’ordre n
au voisinage de 0. Alors g ◦ f admet un développement limité à l’ordre n au voisinage de
x0 , et Pn(g ◦ f ) = Pn(B ◦ A).
8. Soit f une fonction continue strictement monotone sur un intervalle I contenant 0,
admettant un développement limité à l’ordre n au voisinage de 0, n > 0, et telle que
f (0) = 0 et f ′(0)  0. Alors f 1 admet un développement limité à l’ordre n au voisinage de
0. De plus, les coefficients du développement limité de f 1 s’obtiennent en identifiant le

développement limité à l’ordre n de la fonction composée f 1 ◦ f à la fonction x x.
102 Fonctions

Proposition 8.33. (Existence de développements limités)


1. Pour que f admette un développement limité à l’ordre 0 au voisinage de x0 , il faut et il
suffit que f soit continue en ce point.
2. Pour que f admette un développement limité à l’ordre 1 au voisinage de x0 , il faut et il
suffit que f soit dérivable en ce point.
3. Pour que f admette un développement limité à l’ordre n au voisinage de x0 , il suffit que f
soit n − 1 fois dérivable sur un voisinage de x0 et que f soit dérivable en ce point. Dans
ce cas, Pn(f )(x) = f (x0) + 1! 0 (x − x0) + 2! 0 (x − x0)2 +  + n! 0 (x − x0)n ( for-
f ′(x ) f ′′(x ) f (n)(x )

mule de Taylor-Young).

8.1.11 Fonction convexe


Définition 8.34. Soit f une fonction numérique définie sur un intervalle I de R. On dit que f
est convexe si et seulement si l’ensemble des points (x, y) de I × R tels que y > f (x) est con-
vexe.

Proposition 8.35.
1. Cela équivaut à dire que, pour tout couple (x, x ′) de points de I et pour tout nombre réel
α appartenant à [0; 1], f (αx + (1 − α)x ′) 6 αf(x) + (1 − α)f (x ′).
2. Dans ces conditions, pour toute suite (x1, x2,  , xn) de points de I et pour toute suite
(α1, α2,  , αn) de nombres réels positifs de somme égale à 1, f
Pn 
i=1 αixi 6
Pn
i=1 αif (xi).
f (y) − f (x) f (x ′) − f (x)
3. Pour tout triplet (x, x ′, y) de points de I tel que x < y < x ′ , y −x
6 x′ − x
6
f (x ′) − f (y)
x′ − y
.
4. Si l’intervalle I est ouvert, f est continue sur I, et dérivable à gauche et à droite en tout
point de I ; les fonctions fg′ et fd′ sont croissantes.
5. Pour qu’une fonction f dérivable sur I soit convexe, il faut et il suffit que f ′ soit crois-
sante.
6. Pour qu’une fonction f deux fois dérivable sur I soit convexe, il faut et il suffit que f ′′
soit positive.

8.1.12 Fonctions usuelles numériques


8.1.12.1 Fonction affines et linéaires

8.1.12.2 Fonctions exponentielles

Proposition 8.36. Soit a un nombre réel strictement positif, il existe un morphisme monotone
expa et un seul du groupe additif (R, + ) dans le groupe (R∗+, × ) tel que expa(1) = a.

Définition 8.37. On appelle exponentielle de base a et on note expa l’unique morphisme mono-
tone du groupe (R, + ) dans (R∗+, × ) tel que expa(1) = a.

Proposition 8.38.
1. Lorsque a  1, la fonction expa est un isomorphisme de (R, + ) dans (R∗+, × ), croissant
si a > 1 et décroissant si a < 1.
2. La fonction exponentielle de base 1 est constante et égale à 1.
3. La restriction à Z de expa coïncidant avec n  a , la fonction exponentielle de base a se
n


note encore x ax.
4. (a ) = a , (a b)x = axbx.
x y xy
8.1 Fonctions numériques d’une variable réelle (i.e. définie sur R) 103

5. La fonction expa est dérivable sur R, et (expa) ′ = expa′ (0) × expa.


6. Il existe un nombre réel a et un seul, appelé nombre de Neper et noté e, tel que expa′ (0) =
1, e = 2, 718281828459045235360.

8.1.12.3 Fonctions logarithmes

Définition 8.39. Soit a un nombre réel strictement positif et différent de 1. La fonction réci-
proque de expa est un isomorphisme monotone de (R∗+, × ) dans (R, + ) appelé logarithme de
base a et noté loga.

Définition 8.40. La fonction loge s’appelle logarithme népérien et se note ln.

Proposition 8.41.
1. Elle est dérivable sur ]0; + ∞[ et sa dérivée est la fonction x  1
x
.
2. Pour tout couple (a, b) de nombres réels strictement positifs et différents de 1, loga(b) =
1 ln(b)
log (a)
= ln(a) .
b

Définition 8.42. Le logarithme de base 10 s’appelle logarithme décimal.

8.1.12.4 Fonctions puissances

Définition 8.43. Soit α un nombre réel. La fonction f : x x α


est appelé fonction puissance α.

Proposition 8.44.
1. C’est un endomorphisme monotone du groupe multiplicatif (R∗+, × ).
2. Suivant la valeur de l’exposant on a :
i. si α > 0, f est bijective strictement croissante,
ii. si α < 0, f est bijective strictement décroissante,
iii. si α = 0, f est constante et égale à 1.
3. Réciproquement, tout endomorphisme monotone de (R∗+, × ) est de la forme précédente.
4. (Comparaison des fonctions logarithmes, puissances et exponentielles) Soient a un
nombre réel strictement supérieur à 1, α et β deux nombres réels strictement positifs.
Alors :
i. limx→+∞ xαexpa( − β x) = 0,
ii. limx→+∞ x −β (loga(x))α = 0,
iii. limx→0 x β |loga(x)|α = 0,
iv. limx→−∞ |x| β expa(α x) = 0.

8.1.12.5 Fonctions hyperboliques

ex + e−x ex − e−x sh(x) ex − e−x e2x − 1 1 − e −2x


Définition 8.45. ch(x) = 2
, sh(x) = 2
, th(x) = ch(x) = ex + e−x = e2x + 1 = 1 + e−2x .

Proposition 8.46.
1. ex = ch(x) + sh(x),
2. e−x = ch(x) − sh(x),
3. ch2(x) − sh2(x) = 1,
4. Formule d’addition, pour tout couple (a, b) de nombre réels :
i. ch(a + b) = ch(a)ch(b) + sh(a)sh(b),
104 Fonctions

ii. ch(a − b) = ch(a)ch(b) − sh(a)sh(b),


iii. sh(a + b) = sh(a)ch(b) + ch(a)sh(b),
iv. sh(a − b) = sh(a)ch(b) − ch(a)sh(b),
th(a) + th(b)
v. th(a + b) = 1 + th(a)th(b) ,
th(a) − th(b)
vi. th(a − b) = 1 − th(a)th(b) .
5.
1
i. ch(a)ch(b) = 2 [ch(a + b) + ch(a − b)],
1
ii. sh(a)sh(b) = 2 [ch(a + b) − ch(a − b)],
1
iii. sh(a)ch(b) = 2 [sh(a + b) + sh(a − b)].
6. Pour tout couple (a, b) de nombre réels :
   
p+ q p−q
i. ch(p) + ch(q) = 2ch 2 ch 2 ,
   
p+q p−q
ii. ch(p) − ch(q) = 2sh 2 sh 2 ,
   
p+q p−q
iii. sh(p) + sh(q) = 2sh 2 ch 2 ,
   
p−q p+q
iv. sh(p) − sh(q) = 2sh 2 ch 2 ,
sh(p + q)
v. th(p) + th(q) = ch(p)ch(q) ,
sh(p − q)
vi. th(p) − th(q) = ch(p)ch(q) .
7. Pour tout réal a :
i. ch(2a) = ch2(a) + sh2(a) = 2ch2(a) − 1 = 2sh2(a) + 1,
ii. sh(2a) = 2sh(a)ch(a),
ch(2a) + 1
iii. ch2(a) = 2
,
ch(2a) − 1
iv. sh2(a) = 2
,
1 + th 2(a)
v. ch(2a) = 1 − th 2(a) ,
2th(a)
vi. sh(2a) = 1 − th 2(a) ,
2th(a)
vii. th(2a) = 1 + th 2(a) ,
1 + th(a)
viii. exp(2a) = 1 − th(a) ,

si a  0,
sh(2a) ch(2a) − 1
ix. th(a) = 1 + ch(2a) = sh(2a)
,

x. ch(3a) = 4ch3(a) − 3ch(a),


3th(a) + th 3(a)
xi. sh(3a) = 1 + 3th 2(a)
,
 
h nh
Pn sh(n + 1) 2 ch a + 2
xii. p=0 ch(a + p h) =  
h
,
sh 2
 
h nh
Pn sh(n + 1) 2 sh a + 2
xiii. p=0 sh(a + p h) =  
h
.
sh 2

8. Formule de Moivre et applications : Pour tout entier rationnel n, (ch(a) + sh(a))n =


ch(n a) + sh(n a), (ch(a) − sh(a))n = ch(n a) − sh(n a).
8.1 Fonctions numériques d’une variable réelle (i.e. définie sur R) 105

9. Pour tout entier n non nul,


i. ch(n a) = chn(a) + Cn2chn−2(a)sh2(a) +  + Cn2pchn−2p(a)sh2p(a) +  ,
ii. sh(n a) = Cn1chn−1(a)sh(a) + Cn3chn−3(a)sh3(a) +  +
Cn2p+1 n−2p−1
ch (a)sh 2p+1 (a) +  ,
1
Cn 3
th(a) + Cn th 3(a) +  + Cn
2p+1
th 2p+1(a) + 
iii. th(n a) = .
2
1 + Cn th 2(a) +  + Cn
2p
th 2p(a) + 

10. Formule de linéarisation, pour tout entier naturel n :


hP i
1 p−1 q 1 p
i. ch2p(a) = 22p −1 q=0 C2pch[(2p − 2q)a] + 2 C2p ,
hP i
1 p−1 q q ( − 1) p p
ii. sh2p(a) = 22p −1 q=0 ( − 1) C2p ch[(2p − 2q)a] + 2
C2p .

11. Pour tout entier naturel p,


1 Pp q
i. ch2p+1(a) = 22p q=0 C2p+1 ch[(2p + 1 − 2q)a],
1 P
ii. sh2p+1(a) = 22p pq=0 ( − 1) qC2p+1
q
sh[(2p + 1 − 2q)a].

8.1.12.6 Fonctions hyperboliques réciproques



Définition 8.47. Pour tout nombre réel x supérieur à 1, Arg ch(x) = ln(x + x2 − 1 ).

Définition 8.48. Pour tout nombre réel x, Arg sh(x) = ln(x + x2 + 1 ).
 
1 1+x
Définition 8.49. Pour tout nombre réel x appartenant à ] − 1; 1[, Arg th(x) = 2 ln 1 − x .

8.1.12.7 Fonctions circulaires


 
h nh
Pn sin(n + 1) 2 cos a + 2
p=0 cos(a + p h) =
 
h
sin 2
 
h nh
Pn sin(n + 1) 2 sin a + 2
p=0 sin(a + p h) =
 
h
sin 2
Formule de Moivre et applications, pour tout entier rationnel n
(cos(a) + i sin(a))n = cos(n a) + i sin(n a)
(cos(a) − i sin(a))n = cos(n a) − i sin(n a)
Pour tout entier naturel non nul n,
cos(n a) = cosn(a) − Cn2cosn−2(a)sin2(a) +  + ( − 1) pCn2pcosn−2(a)sin2p(a) + 
sin(n a) = Cn1 cosn−1(a)sin(a) − Cn3cosn−3(a)sin3(a) +  + ( −
p
1) Cn 2p+1
cos n−2p−1
(a)sin 2p+1
(a) + 
Cn 1
tan(a) − Cn 3
tan 3(a) +  + ( − 1) pCn
2p+1
tan 2p+1(a) +  π
tan(n a) = , si a, n a 2 (mod.π).
1 − Cn2
tan 2(a) +  + ( − 1) pCn2p
tan 2p(a) + 
Formule de linéarisation,
hP pour tout entier naturel inon nul p,
1 p−1 q 1 p
cos2p(a) = 22p −1 q=0 C 2pcos[(2p − 2q)a] + 2 C2p ,
( − 1) p P p−1 ( − 1) p p
h i
q q
sin2p(a) = 22p −1 q=0 ( − 1) C 2pcos[(2p − 2q)a] + 2
C 2p .
Pour tout entier Pnaturel p,
1
cos2p+1(a) = 22p pq=0 C2p+1 q
cos[(2p + 1 − 2q)a],
p P
( − 1) p q q
sin2p+1
(a) = 22p q=0 ( − 1) C2p+1sin[(2p + 1 − 2q)a].
Valeurs remarquable des fonctions circulaires
π π π π
x 0 6 4 3 2
π

1 1 3
sin(x) 0 2

2
1 0
2

3 1 1
cos(x) 1 2

2
0 −1
2
1 √
tan(x) 0 √ 1 3 0
3
106 Fonctions

8.1.12.8 Fonctions circulaires réciproques


π
Pour tout nombre réel x appartenant à [ − 1; 1], Arc sin(x) + Arc cos(x) = 2
Pour tout nombre réel non nul a,
a ] − ∞; 0[ ]0; + ∞[
 
1 π π
Arc tan(a) + Arc tan a −2 2
Pour tout couple (a, b) de nombres réels tel que a b  1,
a, b a b < 1 a b > 1, a, b > 0 a b > 1, a, b < 0
 
a+b
Arc tan(a) + Arc tan(b) − Arc tan 1 − a b 0 π −π

R
8.2 Fonction vectorielle d’une variable réelle (i.e. définie sur
)
Les définition et les propriétés relatives aux fontions numériques ne faisant intervenir que la
linéarité s’étendent aux fonctions d’une variable réelle à valeurs dans un espace vectoriel normé
F de dimension finie.

8.2.1 Dérivation
8.2.1.1 Dérivée d’un produit

Proposition 8.50. Soient S une application bilinéaire de F × G dans H, f , g des applications


de classe C 1 sur un intervalle I de R à valeurs respectivement dans F , G. Alors h = S(f , g) est
de classe C 1 sur I et Dh = S(Df , g) + S(f , Dg).

8.2.1.2 Inégalité des accroissements finis

Proposition 8.51. Soit f une application continue sur un intervalle [a, b] de R à valeurs dans
Fn dérivable dur ]a, b[ et telle que f ′ soit bornée sur ]a, b[. Alors kf (b) − f (a)k 6 (b −
a)supx∈]a,b[ kf ′(x)k.

8.2.1.3 Caractérisation des applications constantes

Proposition 8.52. Soit f une application continue de I dans F, dérivable sur l’intérieur de I.
Pour que f soit constante, il faut et il suffit que, pour tout point x intérieur à I, f ′(x) = 0.

8.2.1.4 Prolongement des application de classe C 1

Proposition 8.53. Soit f une application de classe C 1 sur I privé d’un point a à valeurs dans
F. Si f ′ admet un limite au point a, alors f se prolonge en une application de classe C 1 sur I.

8.2.2 Intégration
Proposition 8.54. L’application f R b
a
f (t)dt est linéaire. En outre, a 6 b,
R b
a
f (t)dt 6
R

kf (t)kdt.

Remarque 8.55. La théorie des primitives, de l’intégration par parties et du changement de


variable est calquée sur le cas des fonctions à valeurs réelles.

8.2.2.1 Théorème des accroissements finis

Théorème 8.56. Soient f une application de classe C 1 sur [a, b] à valeur dans F et g une fonc-
tion de classe C 1 sur [a, b] à valeurs réelles. Si kf ′k 6 g ′ , alors kf (g) − f (a)k 6 g(b) − g(a).
8.6 Comparaison et évaluation locale des fonctions à valeur dans R (i.e. fonctions numéri-
ques) 107

8.2.2.2 Formule de Taylor

Proposition 8.57. Soit n un entier naturel, f une fonction de classe C n+1 sur un intervalle I.
(x − a)k
Soit a un point de I, pour tout point x de I, on pose rn(x) = f (x) − f (a) − nk=1 f (k)(a) k! .
P

1. Le nombre rn(x) s’appelle reste, on peut l’écrire sous forme intégrale (dite de Laplace) :
R x (x − t)n R 1 (1 − t)n (n+1)
rn(x) = a f (n+1)(t) n! dt = (x − a)n+1 0 n!
f (a + (x − a)t)dt.
(b − a)n+1
2. krn(b)k 6 (n + 1)!
supx∈]a,b[ kf (n+1)(x)k (majoration de Lagrange).

Remarque 8.58. La théorie des développements limités s’étend sans changement, c’est le cas
en particulier pour la formule de Taylor-Young.

8.3 Fonction de plusieurs variables


Insérer ici la notion de différentielle

8.4 Suite numérique

8.5 Fonction réelle ou complexe d’une variable réelle

8.5.1 Continuité
8.5.1.1 Continuité sur un intervalle

Théorème 8.59. ("Théorème des valeurs intermédiaires")


Soit I un intervalle de R, f : I → R une application continue, (a, b) ∈ I 2 tel que f (a) 6 f (b).
Alors f atteint toute valeur intermédiaire entre f (a) et f (b).
Autrement dit ∀γ ∈ [f (a); f (b)], ∃c ∈ I , γ = f (c).

Démonstration. Voir Analyse 1 J.M. Monier p.110 ou Cours mathématiques premier cycle
J.Dixmier 

8.5.1.2 Continuité sur un intervalle fermé

Théorème 8.60. Soient (a, b) ∈ R2 , tels que a 6 b, et f : [a; b] → R une application.


Si f est continue, alors f est bornée et atteint ses bornes.

Démonstration. Voir Analyse 1 J.M. Monier p.113 ou Cours mathématiques premier cycle
J.Dixmier 

8.6 Comparaison et évaluation locale des fonctions à valeur


dans R
(i.e. fonctions numériques)
10.4 ou sous rubrique de 10.3 mais dans ce cas il faudra changer le titre de 10.3. On peut géné-
raliser et définir la domination (une application à valeur dans un e.v.n.) négligeable devant une
application numérique. Puis voir Monier Analyse 3 page 176.
Pour les suites I = R autrement I = R.
108 Fonctions

8.6.1 Négligeabilité, Domination, Equivalence


8.6.1.1 Domination

Définition 8.61. Soit f , ϕ: I → R et x ∈ I − {a} tel que ϕ(x)  0.


On dit que f est dominée par ϕ au voisinage de a si et seulement si il existe une applica-
tion c: I → R telle que ∀x ∈ I; f (x) = c(x)ϕ(x), c bornée au voisinage de a. On note : f 4 ϕ
a
(Notation de Hardy) ou f =O(ϕ) (Notation de Landau).
a

Remarque 8.62. On trouve la définition écrite sous cette forme :


Soit f , ϕ: I → R, et (a) un point de R adhérent à I. On dit que f est dominée par ϕ si et
seulement s’il existe un voisinage V de (a) et un nombre réel positif β tels que ∀x ∈ V ∩ I,
|f (x)| 6 β |ϕ(x)|.

8.6.1.2 Négligeabilité

Définition 8.63. Soit f , ϕ: I → R et x ∈ I − {a} tel que ϕ(x)  0.


On dit que f est négligeable devant ϕ au voisinage de (a) si et seulement s’il existe une
application ε: I → R telle que : ∀x ∈ I , f (x) = ε(x)ϕ(x) et limx→a ε(x) = 0.
On note : f ≪ ϕ (Notation Hardy) ou f = o (ϕ) (Notation Landau).
a a

Remarque 8.64. On trouve la définition écrite sous cette forme :


Soit f , ϕ: I → R, et (a) un point de R adhérent à I. On dit que f est négligeable devant ϕ
si et seulement si pour tout réel ε > 0, il existe un voisinage V de (a) tel que : ∀x ∈ V ∩ I ,
|f (x)| 6 ε|ϕ(x)|.

Proposition 8.65. Si f est négligeable devant ϕ alors f est dominée par ϕ.

8.6.1.3 Equivalence

Définition 8.66. Soit f , ϕ: I → R et x ∈ I − {a} tel que f (x)  0 et ϕ(x)  0.


On dit que f est équivalente à ϕ au voisinage de (a) si et seulement s’il existe une applica-
tion λ: I → R telle que : ∀x ∈ I , f (x) = λ(x)ϕ(x) et limx→a λ(x) = 1.
On note : f∼ ϕ .
a

Remarque 8.67. On dit que f est équivalente à g au voisinage de (a) si et seulement si f =


o(g).

8.6.1.4 Similitude
(définition à revoir)

Définition 8.68. Soit f , ϕ: I → R et x ∈ I − {a} tel que f (x)  0 et ϕ(x)  0.


On dit que f est semblable à ϕ au voisinage de (a) si et seulement s’il existe une applica-
tion λ: I → R telle que : ∀x ∈ I , f (x) = λ(x)ϕ(x) et limx→a λ(x) = 1.
On note : f ≍ ϕ ou f = Θ(ϕ).
a

Remarque 8.69. On dit que f est semblable à g au voisinage de (a) si et seulement si f =


O(g) et g = O(f ).

Remarque 8.70.
1. Voir remarque livre monier page 40 Analyse 2
2. Les relations de similitude et d’équivalence sont des relations d’équivalence, compatible
avec la multiplication mais pas avec l’addition.

8.6.1.5 Propriétés
Rajouter des exemples usuels voir monier analyse 2 et 3. Monier page 41.
8.7 Fonctions et résultats usuels 109

Soit f ; g; ϕ; ψ; u; v sont des fonctions définies au voisinage de a et à valeur réelle. λ ∈ R. h


une fonction définie au voisinage d’un élément b de R̄ à valeur dans R.
 
f = o(ϕ) f = O(ϕ)
g = o(ϕ)
⇒ f + g = o(ϕ) g = O(ϕ)
⇒ f + g = O(ϕ)
f = o(ϕ) ⇒ λ f = o(ϕ) f = O(ϕ) ⇒ λ f = O(ϕ)
 
f = o(ϕ) f = O(ϕ)
g = o(ψ)
⇒ f g = o(ϕ ψ) g = O(ψ)
⇒ f g = O(ϕ ψ)

f = O(ϕ)
ϕ = O(u)
⇒ f = O(u)

f = O(u)
f = o(ϕ) ⇒ f = O(ϕ) g = O( ψ)
⇒ f × g = o(ϕ ψ)
 
f = o(ϕ) f = O(ϕ)
ϕ = O(u)
⇒ f = o(u) ϕ = o(u)
⇒ f = o(u)
( (
f = o (ϕ) f = O(ϕ)
a ⇒ f ◦ h = o (ϕ ◦ h) a ⇒ f ◦ h = O (ϕ ◦ h)
lim b h = a b lim b h = a b

8.6.1.6 Exemples fondamentaux au voisinage de 0


sh(x) ∼ x sin(x) ∼ x
th(x) ∼ x tan(x) ∼ x
Arg sh(x) ∼ x Arc sin(x) ∼ x
Arg th(x) ∼ x Arc tan(x) ∼ x
x2 x2
ch(x) − 1 ∼ 1 − cos(x) ∼ 2
2√ √
Arg ch(1 + x) ∼ 2 x Arc cos(1 − x) ∼ 2 x si x > 0
ln(1 + x) ∼ x ex − 1 ∼ x

8.6.2 Developpement dans une échelle de comparaison


8.6.2.1 Développement limité

8.6.2.2 Développement asymptotique

8.7 Fonctions et résultats usuels

8.7.1 Support d’une fonction numérique


Définition 8.71. On appelle support d'un fonction numérique définie sur un espace topo-
logique E est l’adhérence de l’ensemble des points de E qui ont une image non nulle.

Définition 8.72. On appelle fonction numérique à support compact, une fonction numérique
nulle en dehors d’un intervalle compact.

Remarque 8.73. L’ensemble des fonctions continues et à support compact est noté CC (U ).

8.7.2 Fonctions numériques usuelles définies sur R


8.7.2.1 Fonctions logarithmiques et exponentielles

8.7.2.2 Fonctions puisances

8.7.2.3 Fonctions hyperboliques


ex + e−x ex − e −x ex − e−x ex + e−x
ch(x) = 2
, ch ′(x) = 2
=sh(x), sh(x) = 2
, sh ′(x) = 2
= ch(x)
110 Fonctions

8.7.2.4 Fonctions hyperboliques récriproques



arg ch(x) = ln(x + x2 − 1 )

arg sh(x) = ln(x + x2 + 1 )
1 1+x
arg th(x) = 2 ln 1 − x

8.7.2.5 Fonctions circulaires


Il existe plusieurs constructions du cos(a), sin(a) et tg(a) d’un nombre a.
-L’approche géométrique d’Euclide
-L’approche géométrique vectorielle
-L’approche analytique

Formules élémentaires

cos2(a) + sin2(a) = 1
1
1 + tg2(a) = cos 2(a)
1
1 + cot2(a) = sin 2(x)
sin(a)
tg(a) = cos(a)
cos(a)
cot(a) = sin(a)
1
cos (a) = 1 + tg 2(a)
2

sin (a) = 1 + cot (a)


2 2

Formules d’addition
cos(a + b) = cos(a)cos(b) − sin(a)sin(b)
cos(a − b) = cos(a)cos(b) + sin(a)sin(b)
sin(a + b) = sin(a)cos(b) + cos(a)sin(b)
sin(a − b) = sin(a)cos(b) − cos(a)sin(b)
tg(a) + tg(b)
tg(a + b) = 1 − tg(a)tg(b)
tg(a) − tg(b)
tg(a − b) = 1 + tg(a)tg(b)

Formules de multiplication par 2


cos(2θ) = 2cos2(θ) − 1 = 1 − 2sin2(a) = cos2(a) − sin2(b)
sin(2a) = 2sin(a)cos(a)
2tg(θ)
tg(2θ) = 1 − tg 2(θ)
a
si t = tg( 2 ) alors
1 − t2
cos(a) = 1 + t2
2t
sin(a) = 1 + t2
2t
tg(a) = 1 − t2

Formule de multiplication par 3


cos(3a) = 4cos3(a) − 3cos(a)
sin(3a) = − 4sin3(a) + 3sin(a)
3tg(a) − tg 3(a)
tg(3a) = 1 − 3tg 2(a)

Transformation de produits en sommes


1
cos(a)cos(b) = 2 [cos(a + b) + cos(a − b)]
1
sin(a)sin(b) = − 2 [cos(a + b) − cos(a − b)]
8.7 Fonctions et résultats usuels 111

1
sin(a)cos(b) = 2 [sin(a + b) + sin(a − b)]
1
cos(a)sin(b) = 2 [sin(a + b) − sin(a − b)]
1 + cos(2a)
cos2(a) = 2
1 − cos(2a)
sin2(a) = 2

Transformation de sommes
 en produits
 
a+b a−b
cos(a) + cos(b) = 2cos 2 cos 2
   
a+b a−b
cos(a) − cos(b) − − 2sin 2 sin 2
   
a+b a−b
sin(a) + sin(b) = 2sin 2 cos 2
   
a−b a+b
sin(a) − sin(b) = 2sin 2 cos 2
sin(a + b)
tg(a) + tg(b) = cos(a)cos(b)
sin(a − b)
tg(a) − tg(b) = cos(a)cos(b)
a
1 + cos(a) = 2cos2 2
a
1 − cos(a) = 2sin2 2

Relations trigonométriques vectorielles


cos(u K , Kv ) = kuK kuK×.vKkvK k
K .vK )
sin(u K , Kv ) = detkuK(iKk,×Kj )(u
Kk
kv
K , Kv )  (0K ,K0)
(u

Angles opposés
cos( − x) = cos(x)
sin( − x) = − sin(x)
tg( − x) = − tg(x)

Angles supplémentaires
cos(π − x) = − cos(x)
sin(π − x) = sin(x)
tg(π − x) = −tg(x)

Angles complémentaires
π
cos 2 − x = sin(x)

π
sin 2 − x = cos(x)

π 1
tg 2 − x = tg(x) = cot(x)


Angles de différence π
cos(π + x) = − cos(x)
sin(π + x) = − sin(x)
tg(π + x) = − tg(x)
π
Angles de différence 2
π
cos 2 + x = − sin(x)

π
sin 2 + x = cos(x)

π 1
tg 2 + x = − tg(x) = − cot(x)


Equations de base
cos(u) = cos(v) ⇔ u ≡ v[2π] ou u ≡ − v[2π]
112 Fonctions

sin(u) = sin(v) ⇔ u ≡ v[2π] ou u ≡ π − u[2π]


tg(u) = tg(v) ⇔ u ≡ v[2π] ou u ≡ π + v[2π] autrement dit u ≡ v[π], u, v 
π
2
+kπ

8.7.2.6 Fonctions circulaires réciproques


Rajouter : définition de la dérivée CTE 2003/2004 page 1 chapitre 1.
(f + g) ′ = f ′ + g ′
(λ f ) ′ = λ (f ′)
f , g ∈ C 1(I): f + g ∈ C 1(I).
Ces propriétés permettent de montrer que C n(I) et C ω(I) sont des espaces vectoriels.
Cn × f (n−k)(a) × f (k)(a)
P k
(f × g)n(x) =
Les espaces Cnk ???

8.7.3 Tableau des dérivées usuelles


π
On pose P = 2
+ πZ et Q = πZ.
Fonctions Paramètres Définies sur Dérivables sur Dérivées
xn n∈Z R∗ n xn−1
xα α∈R R∗+ α xα−1
1 1
x
− x2
cx
e c∈C R c ecx
ax a ∈ R∗+ R axln(a)
1
ln|x| R∗ x
1
loga |x| a ∈ R∗+ − {1} R∗ x ln(a)
ch(x) R sh(x)
sh(x) R ch(x)
1
th(x) R ch 2(x)
= 1 − th2(x)
1
coth(x) R∗ − sh 2(x) x = 1 − coth2(x)
cos(x) R − sin(x)
sin(x) R cos(x)
1
tan(x) R−P cos 2(x)
= 1 + tan2(x)
1
cot(x) R−Q − sin 2(x) = − 1 − cot2(x)
1
arg ch(x) ]1, + ∞[ √
x2 − 1
1
arg sh(x) R √
x2 + 1
1
arg th(x) ] − 1, 1[ 1 − x2
1
arccos(x) ] − 1, 1[ −√
1 − x2
1
arcsin(x) ] − 1, 1[ √
1 − x2
1
arctan(x) R 1 + x2
√ 1
x R∗+ √
2 x

8.7.4 Tableau des primitives usuelles


π
On pose P = 2
+ πZ et Q = πZ.
8.7 Fonctions et résultats usuels 113

Fonctions Parmètres Primitives Intervalles


n (x − c)n+1
(x − c) n ∈ Z, − { − 1}, c ∈ C n+1
R
(x − a)α+1
(x − a)α α ∈ R − { − 1}, a ∈ R α+1
]a; + ∞[
1
x−c
c = a + i b; a, b ∈ R, ln|x − c| + i arg(x − c) R
1
x−a
a∈R ln|x − a| R − {a}
cx
e
ecx c ∈ C∗ c
R
x
a
ln(x) x (ln(x) − 1) R∗+
loga |x|
ch(x) sh(x) R
sh(x) ch(x) R
th(x) ln(ch(x)) R
coth(x) ln|sh(x)| R∗
sh(2x) x
ch2(x) 4
+ 2
R
sh(2x) x
sh (x)
2
4
− 2
R
coth2(x) x − coth(x) R∗
1 x
ch(x)
2arctan(ex) = 2arctan th 2
= arctan(sh(x)) R
1 x
sh(x)
ln th 2 R∗
1
ch 2(x)
th(x) R
1
sh 2(x)
− coth(x) R∗
cos(x) sin(x) R
sin(x) − cos(x) R
tan(x) − ln|cos(x)| R−P
cot(x) ln|sin(x)| R−Q
x sin(2x)
cos2(x) 2
+ 4
R
x sin(2x)
sin2(x) 2
− 4
R
tan (x)
2
tan(x) − x R−P
cot2(x) − cot(x) − x R−Q
1 x π
cos(x)
ln tan 2
+4 R−P
1 x
sin(x)
ln tan 2
R−Q
1
cos 2(x)
tan(x) R−P
1
sin 2(x)
− cot(x) R−Q
1 sin(x) 1 x π
cos 3(x) 2cos 2(x)
+ 2 ln tan 2
+ 4
R−P
1 tan 3(x)
cos 4(x)
tan(x) + 3
R−P
1 1 x 1 cos(x)
sin 3(x) 2
ln tan 2
−2 sin 2(x)
R−Q
1 cot 3(x)
sin 4(x)
− cot(x) − 3
R−Q
1
1 + x2
arctan(x) R
1 1 x
a2 + x2
a ∈ R∗+ a
arctan a
R
114 Fonctions

1
1 − x2
arg th(x) ] − 1, 1[
1 1 1+x
1 − x2 2
ln 1−x
R − { − 1; 1}
1 1 a+x
a2 − x2
a ∈ R∗+ 2a
ln a−x
R − { − a; a}
1 1 x
(x2 + 1)2 2
arctan(x) + 2(x2 + 1) R
x2 1 x
(x2 + 1)2 2
arctan(x) − 2(x2 + 1) R
1
√ arg ch(x) ]1, + ∞[
x2 − 1
1
√ − arg ch( − x) ] − ∞, − 1[
x2 − 1
1 √
√ ln|x + x2 − 1 | R − [ − 1; 1]
x2 − 1
1 √
√ a ∈ R∗+ ln|x + x2 − a2 | R − [ − a; a]
x2 − a2
1
√ arg sh(x) R
x2 + 1
1 √
√ a ∈ R∗+ ln(x + x2 + a2 ) R
x2 + a2
1
√ arcsin(x) ] − 1, 1[
1 − x2
1 x
√ a ∈ R∗+ arcscin a
] − a, a[
a2 − x2

eaxcos(b x) a, b ∈ C∗, a2 + b2  0
eax
a2 + b2
(a cos(b x) + b sin(b x)) R
a, b ∈ C∗, a2 + b2  0
eax
eaxsin(b x) a2 + b2
(a sin(b x) − b cos(b x)) R
8.7 Fonctions et résultats usuels 115
Chapitre 9
Série d’un espace vectoriel normé. Suites
et séries d’applications

9.1 Série d’un espace vectoriel normé.


Définition 9.1. Soit E, un espace vectoriel normé. On appellePsérie tout couple A = ((un); (sn))
p
de deux suites de E tel que pour tout entier naturel p, s p = n=0 un. L’élément un s’appelle
terme d’ordre n de A et l’élément sn s’appelle somme partielle d’ordre n de A. La suite (un)
s’appelle terme général de la série A et la suite (sn) suite des sommes partielles de A.

Les suites numériques réelles ou complexes et les suites de fonctions sont des exemples de la
définition précédente. Elles doivent être traitées dans le chapitre des nombres réels, complexes et
des espaces de fonctions par exemple. Dans ce cas E = R ou C  ou un espace de fonction. Pour
ce chapitre, il faudrait reprendre toutes les définitions des suites réelles ou complexes, pour les
adapter. C’est ce qui a était ci-dessous partiellement, peut-être faudra-t-il supprimer certaines
propriétés ou plus simplement les mettre en exemple.

9.1.1 Convergence
Définition 9.2. On appelle série tout couple A = ((un), (sn)) constitué de deux suites de nom-
Pp
bres complexes telles que, pour tout entier naturel p, s p = n=0 un. L’élément un s’appelle
terme d'ordre n de A, et l’élément sn s’appelle somme partielle d'ordre n de A. La suite
(un) s’appelle terme général de la série A, et la suite (sn), suite des sommes partielles de
A.

Définition 9.3. Soit E un K-espace vectoriel. On appelle somme de deux séries A = ((un),
(sn)) et B = ((vn), (tn)) la série de terme général (un + vn).

Proposition 9.4. Il est immédiat que A + B = ((un + vn), (sn + tn)).

Définition 9.5. Soit E un K-espace vectoriel. On appelle produit d'une série A = ((un),
(sn)) par α ∈ K (α un scalaire) la série, notée αA, de terme général (αun).

Proposition 9.6.
1. Il est immédiat que αA = ((αun), (αsn)) .
2. Muni des deux lois précédentes, l’ensemble des séries est un espace vectoriel.

Séries convergentes.

Définition 9.7. Soit E un K-espace vectoriel. On dit qu’une série A = ((un), (sn)) est conver-
gente (resp. divergente) si et seulement si la suite (sn) est convergente (resp. divergente).
Définition 9.8. Soit E un K-espace vectoriel. Lorsque la série A est convergente, la limite de
la suite (sn) s’appelle somme
Pp de la série A et se note s(A), ou encore P+∞ n=0 un, s(A) =
lim p→+∞ sp = lim p→+∞ n=1 un.

Définition 9.9. On appelle reste à l'ordre


P+∞
P q p, et on note r p, ou encore n=p+1 un, le
nombre complexe s(A) − s p : r p = lim q→+∞ n= p+1 un.

116
9.1 Série d’un espace vectoriel normé. 117

Proposition 9.10. Soit E un K-espace vectoriel.


1. L’ensemble c = (C) des séries convergentes est un sous-espace vectoriel de l’espace vec-
P

toriel
P

(C), et l’application s: A s(A) est une forme linéaire sur
P
c (C).
2. (Condition nécessaire de convergence) Le terme général d’une série convergente converge
vers 0.
3. (Critère de Cauchy de convergence des séries) Si E est un esapce de Banach. Soit A =
((un), (sn)) une série de E pour que la série A converge, il faut et il suffit que la suite
(sn) soit une suite de Cauchy, c’est-à-dire que, pour tout nombre réel strictement positif
ε, il existe un entier naturel n0 tel que, pour tout couple (p, q) d’entiers naturels tel que
Pq
q > p > n0 , n=p+1 un 6 ε.
E

Démonstration. Pour la preuve, il suffit d’écrire que sn est une suite de Cauchy. 

9.1.2 Convergence normale et semi-convergence


Dans la version première, il y avait absolue et normale. Il me semble logique que normale soit le
plus adapté car nous sommes dans un espace vectoriel normé. Absolue est reservé à R, pour C
il conviendrait d’utiliser modulaire, mais dans les deux cas, on peut utiliser normale, puique la
valeur absolue et le module sont des normes respectivement sur R et C.

Définition 9.11. On dit qu’une série A = ((un), (sn)) de nombres complexes est normale-
ment convergente si la série de terme général (un) est convergente.
Théorème 9.12. Soit (E , k.kE ) un espace de Banach. Soit ( un) une série à valeur dans E
P
Pm
alors : un converge ⇒ ∀ε > 0, ∃nε ∈ N; ∀(m, n) ∈ N2, (m > n > nε) ⇒
P
k=n+1 uk E

Démonstration. CTES page 100. Topologie. 


?
Note 9.13. En particulier, absolue convergence ⇒ converge. Pas automatiquement, il faut que
E soit un espace de Banach.
P+∞ P+∞
Dans ce cas, la série A est convergente et n=0 un 6 n=0 kun kE , pour tout entier
P+∞ E
naturel p, 6 +∞ n= p+1 kun kE .
P
n= p+1 un E

Proposition 9.14. Soit E un espace de Banach et A = ((un), (sn)) une série de terme général
(un) et dont la suite des sommes partielle est (sn).
Si A est absolument convergente alors A est convergente.

Note 9.15. En particulier, toute série de nombres réels ouh complexes absolument convergente
P ( − 1)n i
est convergente. La réciproque est bien entendu fausse : n
.

Définition 9.16. Une série convergente mais non normalement convergente est dite semi-con-
vergente.
9.1 Série d’un espace vectoriel normé. 119
Chapitre 10
Séries numériques à termes réels ou com-
plexes.

10.1 Séries numériques à termes réels ou complexes

10.1.1 Convergence
Définition 10.1. On appelle série tout couple A = ((un), (sn)) constitué de deux suites de nom-
Pp
bres complexes telles que, pour tout entier naturel p, s p = n=0 un. L’élément un s’appelle
terme d'ordre n de A, et l’élément sn s’appelle somme partielle d'ordre n de A. La suite
(un) s’appelle terme général de la série A, et la suite (sn), suite des sommes partielles de
A.

Définition 10.2. On appelle somme de deux séries A = ((un), (sn)) et B = ((vn), (tn)) la
série de terme général (un + vn).

Proposition 10.3. Il est immédiat que A + B = ((un + vn), (sn + tn)).

Définition 10.4. On appelle produit d'une série A = ((un), (sn)) par un nombre com-
plexe α la série, notée αA, de terme général (αun).
Proposition 10.5.
1. Il est immédiat que αA = ((αun), (αsn)) .
2. Muni des deux lois précédentes, l’ensemble (C) des séries de nombres complexes est
P
un espace vectoriel sur C.

Séries convergentes.

Définition 10.6. On dit qu’une série A = ((un), (sn)) est convergente (resp. divergente) si
et seulement si la suite (sn) est convergente (resp. divergente).

Définition 10.7. Lorsque la série A est convergente, la limite de la suite (sn) s’appelle somme
de la série A et se note s(A), ou encore P+∞
n=0 un, s(A) = lim p→+∞ s p = lim p→+∞
Pp
n=1 un.

Définition 10.8. On appelle reste à l'ordre


P+∞
P q p, et on note r p, ou encore n= p+1 un, le
nombre complexe s(A) − s p : r p = lim q→+∞ n= p+1 un.

Proposition 10.9.
1. L’ensemble c = (C) des séries convergentes est un sous-espace vectoriel de l’espace vec-
P

toriel
P

(C), et l’application s: A s(A) est une forme linéaire sur
P
c (C).
2. (Condition nécessaire de convergence) Le terme général d’une série convergente converge
vers 0.
3. (Critère de Cauchy de convergence des séries) Soit A = ((un), (sn)) une série de nombres
complexes pour que la série A converge, il faut et il suffit que la suite (sn) soit une suite
de Cauchy, c’est-à-dire que, pour tout nombre réel strictement positif ε, il existe un entier
naturel n0 tel que, pour tout couple (p, q) d’entiers naturels tel que q > p > n0 ,
Pq
n= p+1 un 6 ε.

120
10.1 Séries numériques à termes réels ou complexes 121

Séries géométriques.

Définition 10.10. On appelle série géométrique une série A dont le terme général est de la
forme (an), où a ∈ C.

Proposition 10.11.
1. Pour que la série A converge, il faut et il suffit que |a| < 1.
P+∞ n 1
2. Dans ces conditions, n=0 a = 1 − a .
P+∞ a p+1
3. Et, pour tout entier naturel p, n= p+1 a = 1 − a .
n

10.1.2 Séries à termes réels positifs


Soit A = ((un), (sn)) une série de nombres réels positifs pour que la série A converge, il faut et il
suffit que la suite (sn) soit majorée. Plus précisément :
P+∞
− Ou bien la suite (sn) est majorée. Alors la série A converge, et n=0 un = supn∈N (sn).

− Ou bien la suite (sn) n’est pas majorée. Alors sn tend vers + ∞ lorsque n tend vers +
∞.

10.1.2.1 Comparaison avec une intégrale.

Proposition 10.12. Soient f une fonction définie sur [0, + ∞[ à valeurs réelles positives,
décroissante et tendant vers 0 au point + ∞ , et A Rla série de terme général (f (n)). Pour que
+∞
la série A converge, il faut et il suffit que l’intégrale 0 f (t)dt converge.

10.1.2.2 Séries de Riemann.


 
1
Proposition 10.13. Soit α un nombre réel. Pour que la série de terme général nα
con-
n>1
verge, il faut et il suffit que α soit strictement supérieur à 1.

Définition 10.14. La série de terme général n est dite harmonique.


 
1
n>1

10.1.2.3 Séries de Bertrand.

Proposition
  10.15. Soient α et β des nombres réels. pour que la série de terme général
1
n β (ln n)α
converge, il faut et il suffit que β > 1 ou (β = 1 et α > 1).

Comparaison directe des séries de nombres réels positifs.

Proposition 10.16. Soient A et B deux séries de nombres réels positifs, de termes généraux
(un) et (v p).
1. Si A est dominée par B, c’est-à-dire si (un) est dominée par (vn), et si B converge, il en
est de même de A.
2. Si A et B sont semblables, la convergence de la série A équivaut à celle de la série B.

Proposition 10.17. (Règle de Cauchy) Soit (un) une suite de nombres réels positifs telle que
p
n
(un) admette une limite. Si β < 1, la série de terme général (un) converge. Si β > 1, la série
de terme général (un) diverge.

Proposition 10.18. (Règle de Riemann) Soit (un) une suite de nombres réels positifs. On sup-
pose qu’il existe un nombre réel α tel que nαun ait une limite β appartenant à [0, + ∞].
1. Si α > 1 et si β est fini, la série de terme général (un) converge.
2. Si α 6 1 et si β  0, la série de terme général (un) diverge.
122 Séries numériques à termes réels ou complexes.

Proposition 10.19. (Comparaison logarithmique des séries de nombres réels positifs) Soient A
et B des séries de nombres réels strictement positifs, de termes généraux (un) et (vn). On sup-
u
pose qu’il existe un entier naturel n0 tel que, pour tout entier n supérieur ou égal à n0 , un+1 6
vn+1 n

v
. Si la série B converge, il en est de même de la série A.
n

Proposition 10.20.  (Règle


 de D’Alembert) Soit (un) une suite de nombres réels strictement
un+1
positifs telle que u
admette une limite.
n

1. Si β < 1, la série de terme général (un) converge.


2. Si β > 1, la série de terme général (un) diverge.

Proposition 10.21. (Règle de Raabe-Duhamel) Soit (un) une suite de  nombres réels stricte-
u u
ment positifs telle que un+1 tende vers 1 par valeurs inférieures et que n 1 − un+1 admette une
n n
limite β ∈ [0, + ∞].
1. Si β > 1, la série de terme général (un) converge.
2. Si β < 1, la série de terme général (un) diverge.

10.1.3 Convergence absolue et semi-convergence


Définition 10.22. On dit qu’une série A = ((un), (sn)) de nombres complexes est absolument
convergente si la série de terme général (un) est convergente.
P+∞ P+∞
Dans ce cas, la série A est convergente et n=0 un 6 n=0 |un |, pour tout entier naturel
P+∞ P+∞
p, n=p+1 un 6 n= p+1 |un |.

Proposition 10.23. Une série convergente mais non absolument convergente est dite semi-
convergente.
Note 10.24. |.| est une norme donc la convergence absolue correspond à la convergence nor-
male.

10.1.4 Séries de R alternées.


Définition 10.25. On dit qu’une série A = ((un), (sn)) de nombres réels est alternée si la
suite (( − 1)nun) est de signe constant.

Proposition 10.26.
1. Si la suite (un) converge vers 0 et si la suite (|un |) est décroissante, la série A converge
P+∞
et, pour tout entier naturel p, n= p+1 un 6 |u p+1|.

2. De plus, le reste à l’ordre p est de même signe que le premier terme négligé, c’est-à-dire
u p+1.
10.1 Séries numériques à termes réels ou complexes 123
Chapitre 11
Espaces d’applications leurs structures,
leurs topologies ... .
Dans ce cours, on va définir ce qu’est une fonction.
Soit F E = {f : E → F } l’ensemble des applications d’un ensemble E dans un autre ensemble
F . L’image f (x) de x par une application f ∈ F E obéit aux lois présentent sur F . Si F est un
espace métrique, vectoriel, vectoriel normé, algèbre ou algèbre normé, on va pouvoir étendre sur
F E ces lois. Exemple f + g: x  f (x) + g(x)  . Traitons en premier l’exemple des fonctions
réelles (c’est à dire à valeurs dans R). On doit pouvoir montrer que RE est un espace vectoriel
normé et même une algèbre normée totalement ordonné. Parmi les fonctions un cas particulier
est à distinguer celui des suites c’est à dire F N . Les cas à étudier sont donc :
E ↓F → N R e.v. e.v.n. e.m. e.t.
N suites réelles suite vectorielles
R
e.n.
e.v.n.
e.m.
e.t.
D’autre cas sont à examiner par exemples les sous-espaces vectoriels des fonctions bornées.
des fonctions R-intégrables, L-intégrables ...
Ou Topologie défines sur un ensemble d’applications ou de fonctions. Les points des espaces
topologiques et métriques sont ici des applications ou des fonctions. Voir livre Topologie
(Ellipse-p.118)
Je remarque que ces deux types de convergence sur des espaces de fonctions sont définies
sans que ces espaces de fonction ne soient muni d’une topologie. Cependant pour la deuxième,
on verra que cette correspondance correspond en fait à la distance supx∈E {d(f (x); g(x)} et que
la convergence uniforme s’exprime dans ce cas là comme la convergence dans un espace
métrique.

Note 11.1. Certaines notions font déjà partie du chapitre sur les fonctions page 13. Il est plus
logique de définir d’abord que l’espace des fonctions bornées est normée puisque sa structure
métrique découle de la norme définie.

11.1 Suite de fonction dans un espace métrique


Attention, il faut bien avoir en mémoire qu’on se place ici dans le cas des suites à valeurs dans
un espace métrique.

11.1.1 Convergence simple


Définition 11.2. Soit E un ensemble quelconque, F un espace métrique, f : E → F une applica-
tion et (fn) une suite d’application : E → F.
− On dit que la suite (fn) converge simplement vers f si et seulement si pour chaque x
de E, la suite (fn) converge vers f (x).
− Autrement dit : ∀x ∈ E , ∀ε > 0, ∃n0 ∈ N, (n > n0) ⇒ (d(fn(x), f (x)) 6 ε.

Exemple 11.3. fn: [0, 1] → [0, 1] converge simplement vers l’application :


x 
xn

124
11.2 Topologie des espaces de fonctions bornées 125

g: [0, 1] →  [0, 1]
x  0, si x ∈ [0, 1[
1 si x = 1

Avertissement 11.4. La limite simple de fonctions continues n’est pas forcément continue.
C’est le cas de l’application précédente, g n’est pas continue.

11.1.2 Convergence uniforme


Définition 11.5. Soit E un ensemble quelconque, (F , dF ) un espace métrique, f une application
et (fn) une suite d’application. On dit que la suite (fn) converge uniformément vers f si et
seulement si : ∀ε > 0, ∃n0 ∈ N, (n > n0) ⇒ (∀x ∈ E , dF (fn(x), f (x)) 6 ε)

11.1.3 Convergence uniforme sur l’espace des fonctions bornées


Notons B(E , F ) l’ensemble des applications bornées de E → F .

Proposition 11.6. Soit E un ensemble quelconque, (F , dF ) un espace métrique, f ∈ B(E , F )


une application et (fn) une suite d’application de B(E , F ). la suite (fn) converge uniformé-
ment vers f si et seulement si : ∀ε > 0, ∃n0 ∈ N, (n > n0) ⇒ (supx∈E dF (fn(x), f (x)) 6 ε).
Remarque 11.7. Rajouter passage livre Analyse Licence Masson page 53. Toute suite qui con-
verge uniformément, converge simplement.

11.2 Topologie des espaces de fonctions bornées


Note 11.8. On va montrer que les espaces de fonctions peuvent être munis d’une structure
d’espace métrique grâce à la distance d(f ; g) = supx∈E {dF (f (x); g(x))}. Rajouter le passage
cours TCD M. Benabdallah page 32.

11.2.1 Distance définie sur un espace de fonctions


Note 11.9. Le choix de l’ensemble de définition est important car pour une distance la valeur
de la distance ne peut être infinie, sinon on ne défini pas une distance mais plutôt un écart (Voir
Topologie Christol/Cote/Marle page 97 et définir un écart page 26). En prenant B(E; F ) ou un
espace E compact et en s’assurant que f est continue alors f est bornée (elle ne prend donc pas
de aleur infinie) et donc d peut-être une distance.

Proposition 11.10. Soient E un ensemble, (F ; dF ) un espace métrique et B(E; F ) l’ensemble


des applications bornées E → F, ∀f , g ∈ B(E; F ) on pose d(f ; g) = supx∈E {dF (f (x); g(x))}.
L’application ainsi définie est une distance.

Remarque 11.11.
1. Faire attention aux distances dans la définition de la distance sur B(E; F ) : d(f ; g) =
supx∈E {dF (f (x); g(x))} d est une distance sur B(E; F ) alors que dF est une distance sur
F.
2. Si (fn) est une suite de B(E; F ) dire que (fn) converge vers f dans l’espace métrique
B(E; F ) ⇔ (fn) converge uniformément vers f .

11.2.2 C.S. de complétude


Proposition 11.12. Si F est complet alors l’espace métrique B(E , F ) est aussi complet.
126 Espaces d’applications leurs structures, leurs topologies ... .

Proposition 11.13. Soit C ∞(E , F ) = B(E , F ) ∩ C(E , F ) avec E espace topologique, où C(E ,
F ) = {f : E → F , continues}. Alors C ∞(E , F ) est fermé dans B(E , F ), en particulier si F est
complet C ∞(E , F ) est aussi complet.

Remarque 11.14. Utilité ? C ∞ s’agit-il de l’ensemble des fonctions de classe ∞ ???

Proposition 11.15. (Limite uniforme de suite)


1. Soit un intervalle I ⊂ R et (fn) une suite de fonctions complexes tendant uniformément
vers f dans I.
a) Si les fn sont continues alors f est continue
b) Soit x0 ∈ [a, b], Fn primitive de fn nulle Rpour x = x0 ; i.e. x R x
fn(t)dt et F la
primitive de f nulle pour x = x0 i.e. x  x
x
f (t)dt.
0
x0

c) si fn est uniformément continue alors f est uniformément continue.


2. Alors Fn → F dans [a, b].
3. Soit (fn) une suite de fonction complexe sur [a, b] admettant des dérivées continues sur
[a, b] si fn tend uniformément vers f sur [a, b] et fn′ → g sur [a, b] alors f ′ = g et f ′ est
continue sur [a, b].

Remplacer ce qui précède par théorème de Monier page 16 Analyse 4.

Proposition 11.16. Soit X un ensemble , (E; k.k) un espace de Banach l’ensemble B(X , E)
des application bornées de X → E muni de la norme kf k∞ = supx∈X kf (x)k est un espace de
Banach.

Proposition 11.17. Soit (fn): I → E une suite d’application dans un K-e.v. E. Si ∀n, fn ∈ C 1
les fn sont C 1 , (fn) tend simplement vers f sur I et (fn′ ) tend uniformément vers g. Alors (fn)
tend uniformément vers f sur I, f est de classe C 1 sur I, f ′ = g.

11.3 Suites et séries de fonctions


Note 11.18. Ces deux notions ont été définies précédement de manière plus générale.

Exemples d’application voir Ellipse Topoligie Gilles Christol page 145.

Trouver la place de :

Théorème 11.19. Soit (E , k.kE ) un espace de Banach, u ∈ L(E).



Id + u est un homéomorphisme
 E

(kukE < 1) ⇒ (IdE + u) = n=0 ( − 1) oùu = u ◦  ◦ u
 P+∞
−1 n n

1
 (Id + u)−1 6


E 1 − kukE
E

Théorème 11.20. Soit E , F deux espaces de Banach et u0 ∈ Is(E , F ) l’espace des isomor-
phismes linéaires de E → F.
   
1
v ∈ L(E , F ), kvkL(E ,F ) 6 ku0−1kL(E ,F ) ⇒ u0 + v ∈ Is(E , F ), (u0 + v)−1 6 −1 −1
ku0 k − kv k

Corollaire 11.21. Soit E , F deux espaces de Banach tels que Is(E , F ) soit non vide alors Is(E ,
Is(E , F ) → Is(E , F )
F ) est ouvert dans L(E , F ) et l’application :
u  u −1
.
11.3 Suites et séries de fonctions 127

11.3.1 Convergence simple et uniforme des suites de fonctions


Définition 11.22. Soit (fn) une suite de fonctions définies sur un ensemble E à valeurs com-
plexes. On dit que (fn) converge simplement sur E s’il existe une fonction f définie sur E telle
que, pour tout point x de E, la suite (fn(x)) converge vers f (x). ∀ε ∈ R∗+, ∀x ∈ E , ∃n0 ∈ N; ∀n >
n0, |fn(x) − f (x)| 6 ε.

Proposition 11.23. Une telle fonction f est évidemment unique : f (x) = limn→+∞ fn(x).

Définition 11.24. On dit encore que (fn) converge simplement sur E vers f.

Définition 11.25. On dit que (fn) converge uniformément sur E s’il existe une fonction f
définie sur E telle que la suite d’éléments de R̄ de terme général supx∈E |fn(x) − f (x)| converge
vers 0 : ∀ε ∈ R∗+, ∃n0 ∈ N; ∀n > n0, ∀x ∈ E , |fn(x) − f (x)| 6 ε.

Proposition 11.26. Une telle fonction f est unique, et limite simple de la suite (fn);

Définition 11.27. on dit encore que (fn) converge uniformément sur E vers f.

Proposition 11.28. Critère de Cauchy de convergence uniforme.


Pour que (fn) converge uniformément sur E, il faut et il suffit que ∀ε ∈ R∗+, ∃n0 ∈ N; ∀x ∈ E ,
∀p, q > n0 ⇒ |fp(x) − f q(x)| 6 ε.

Convergence uniforme des suites de fonctions bornées.

Proposition 11.29.
1. Soit (fn) une suite de fonctions convergeant uniformément sur E vers f. Si, pour tout
entier naturel n, fn est bornée, il en est de même de f.
2. Sur l’espace vectoriel B(E , C) des fonctions bornées sur E, l’application g  sup
x∈E |g(x)|
est une norme.

Définition 11.30. Sur l’espace vectoriel B(E , C) des fonctions bornées sur E, l’application g 
supx∈E |g(x)| est appelée norme de la convergence uniforme, on la note kg k∞. kg k∞: g 
supx∈E |g(x)|.

Proposition 11.31.
1. La convergence uniforme sur E équivaut à la convergence en norme.
2. Muni de cette norme, l’espace vectoriel B(E , C) est complet.

Limite uniforme de fonctions continues en un point.

Proposition 11.32.
1. Soient (fn) une suite de fonctions définies sur une partie p de C à valeurs complexes et
x0 un point de p. Si (fn) converge uniformément sur p (ou, plus généralement, sur toute
partie fermée bornée contenue dans p) vers une fonction f et si, pour tout entier naturel
n, fn est continue au point x0 , alors f est continue au point x0.
2. L’ensemble BC(P , C) des fonctions bornées continues sur p est un sous-espace vectoriel
de B(P , C)
3. Muni de la norme induite, BC(P , C) est complet.

Continuité de la fonction limite

Théorème 11.33. Soient (E , d) et (E ′, d ′) deux espaces métrique et (fn) une suite de fonc-
tions de E → E ′ si (fn)n converge uniformément sur E vers f : E → F et si toutes les fonctions
fn sont continues en x0 ∈ E alors f est continue en x0.
128 Espaces d’applications leurs structures, leurs topologies ... .

Démonstration. CTE page 165 cours Topologie 2003-2004. 

Limite uniforme de fonctions intégrables.

Théorème 11.34.
1. Soit (fn)n une suite de fonctions continues de [a; b] → K qui converge uniformément vers
R b R b
f sur [a; b] alors f est continue et a f (t)dt = limn→+∞ a fn(t)dt.

2. Plus généralement, la fonction F : [a; b] → K est la limite uniforme de la suite


x R x
a
f (t)dt
de fonctions Fn: [a; b] → K .
x  R x
a
f n(t)dt

Démonstration. CTE 2003-2004 page 165 Cours de topologie. 

Proposition 11.35. Soient [a, b] un intervalle fermé borné de R et (fn) une suite de fonctions
à valeurs complexes intégrables sur [a, b]. Si la suite (fn) converge uniformément sur [a, b] vers
R b R b
une fonction f, alors f est intégrable et a f (t)dt = limn→+∞ a fn(t)dt.

Limite uniforme de fonctions dérivables.

Proposition 11.36. Soient I un intervalle de R et (fn) une suite de fonctions à valeurs com-
plexes continûment dérivables sur I. Si (fn) converge uniformément sur toute partie fermée
bornée contenue dans I vers une fonction g et s’il existe un point x0 de I tel que (fn(x0)) con-
verge, alors :
i. (fn) converge uniformément sur toute partie fermée bornée contenue dans I vers une fon-
ction f,
ii. f est continûment dérivable,
iii. et f ′ = g.

11.3.2 Convergence uniforme des séries de fonctions


Définition 11.37. On appelle série de fonctions tout couple A = ((un), (sn)) constitué de deux
suites de fonctions
Pp définies sur un ensemble E à valeurs complexes telles que, pour tout entier
naturel s p = n=0 un.

Définition 11.38. On dit que A converge simplement (resp. uniformément) sur E vers une
fonction f si la suite (sn) converge simplement (resp. uniformément) sur E vers f.

Proposition 11.39. (Critère de Cauchy de convergence uniforme) Pour que A converge uni-
formément sur E, il faut et il suffit que ∀ε ∈ R∗+, ∃n0 ∈ N; ∀x ∈ E , ∀p > n0, ∀q > p,
Pq
n= p+1 un(x) 6 ε.

Convergence normale.

Définition 11.40. On dit qu’une série de fonctions A = ((un), (sn)) est normalement conver-
gente sur E si la série de terme général (un) est convergente.


Remarque 11.41. Si E = R ou C muni de la norme z |z | les série normalement convergentes
sont les séries absolument convergentes. (Dict. Puf de mathématiques page 515).

Proposition 11.42. Une série normalement convergente est uniformément convergente sur E,
et absolument convergente en tout point de E.
11.3 Suites et séries de fonctions 129

Continuité de la somme d’une série de fonctions.

Proposition 11.43. Soient (un) une suite de fonctions à valeurs complexes définies sur une
partie P de C et x0 un point de P. Si la série de terme général (un) converge uniformément sur
toute partie fermée bornée contenue dans P vers une fonction f et si, pour tout entier naturel n,
un est continue au point x0 , alors f est continue au point x0.

Intégrabilité de la somme d’une série de fonctions.

Proposition 11.44. Soient [a, b] un intervalle fermé borné de R et (un) une suite de fonctions
à valeurs complexes intégrables sur [a, b]. Si la série de
 terme général (u  n) converge uniformé-
R b
menth sur [a, ib], la série de terme général a
un(t) d t est convergente et
R b P+∞ P+∞ R b
a n=0 un(t) dt = n=0 u (t)dt.
a n

Corollaire 11.45. (Interversion des signes de sommation) Si gn est une série de fonctions
P
continues d’un segment [a; b] ⊂ R à valeur dans K qui convergent normalement sur [a; b] alors
R b P+∞ P+∞ R b
a n=0 gn(t)dt = n=0 g (t)dt.
a n

Démonstration. CTE page 165. 

Dérivabilité de la somme d’une série de fonctions.

Proposition 11.46. Soient I un intervalle de R et (un) une suite de fonctions à valeurs com-
plexes continûment dérivables sur I. Si la série de terme général (un) est uniformément conver-
gente sur toute partie fermée bornée contenue dans I et s’il existe un point x0 de I tel que la
série de terme général (un(x0)) converge, alors la série de terme général (un) converge unifor-
mément sur toute partie fermée bornée contenue dans I, sa somme est continûment dérivable et
P
+∞ ′
= +∞ ′
n=0 un.
P
n=0 un

Suite et série de fonctions de X(ensemble quelconque) sur E (un espace vectoriel normé).

Définition 11.47. Soit X un ensemble et E un espace vectoriel normé. On note B(X , E)


l’espace vectoriel des applications bornées de X → E

Proposition 11.48. n(f ) = supx∈E kf (x)kE est une norme sur B(X , E).

Définition 11.49. On note kf k∞ et on appelle norme de la convergence uniforme la norme


définie par kf k∞ = supx∈E kf (x)kE sur B(X , E).

Proposition 11.50.
1. Une suite (fn)n de fonctions bornées de X → E converge uniformément vers (f ) si et
seulement si kfn − f k∞ → 0 lorsque n → + ∞.
2. Si E est un espace de Banach alros B(X , E) est aussi un espace de Banach

Définition 11.51. Soit X un ensemble et E un espace de Banach, on dit qu’une sériePde fonc-
tion gn à terme dans B(X; E) converge normalement si et seulement si la série kgn k∞
P
converge.

Théorème 11.52. Une série de fonction gn à valeurs dans un espace de Banach qui con-
P
verge normalement sur un ensemble X converge uniformément sur X.

Démonstration. CTE page 164. 

Remarque 11.53. La notion de convergence normale permet de montrer la convergence uni-


forme. Il existe des séries de fonctions uniformément convergentes mais non normalement con-
vergente.
130 Espaces d’applications leurs structures, leurs topologies ... .

Dérivabilité et dérivée de la fonction limite.

Théorème 11.54. Soit (fn) une suite de fonctions de classe C 1 de [a; b] → E où E est un
espace de Banach. On suppose que :
i. Il existe x0 ∈ [a; b] tel que la suite (fn(x0))n converge.
ii. La suite de fonctions (fn′ ) converge uniformément sur [a; b] vers une fonction g.
Alors (fn) converge uniformément vers une fonction f de classe C 1 et vérifie f ′ = g

Démonstration. CTE page 165. 

Corollaire 11.55. Une suite de fonctions (fn)n de classe C p (telle que pour tout k = 0, 1,  , p,
(fn(k))n converge uniformément vers une fonction gk) converge uniformément vers une fonction f
de classe C p qui vérifie f (k) = gk pour k = 0; 1;  ; p

Démonstration. CTE page 165 Cours de Topologie 2003-2004. 

11.4 Séries entières

11.4.1 Rayon de convergence


Définition 11.56. On appelle série entière une série A de fonctions définies sur C à valeurs

complexes dont le terme général (un) est de la forme un: z anz n , an ∈ C.

Proposition 11.57. (Lemme d’Abel) Soit z0 un nombre complexe. Si la suite (an z0n) est
bornée, la série entière A est absolument convergente pour tout nombre complexe de module stri-
ctement inférieur à |z0| et uniformément convergente sur tout disque fermé de centre O et de
rayon strictement inférieur à |z0|.

11.4.1.1 Rayon de convergence.

Proposition 11.58. L’ensemble des nombres réels positifs ρ tels que la série de terme général
(|an |ρn) converge est un intervalle d’origine 0

Définition 11.59. La borne supérieure R de cet intervalle (éventuellement égale à + ∞)


s’appelle rayon de convergence de la série entière A.

Définition 11.60. L’ensemble D des nombres complexes z tels que |z | < R s’appelle domaine de
convergence

Définition 11.61. Si R ∈ ]0, + ∞[, c’est un disque ouvert, appelé disque de convergence.

Proposition 11.62.
1. Une série entière converge absolument en tout point de D, diverge en tout point extérieur
à D et converge uniformément sur toute partie fermée bornée de C contenue dans D.
2. La fonction f : z P+∞
n=0 anz est continue sur D.
n

11.4.1.2 Somme et produit de deux séries entières.

Proposition 11.63. Soient A et B deux séries entières, (an) et (bn) les suites de leurs coeffi-
cients, R1 et R2 leurs rayons de convergence.
1. La série A + B est une série entière,
2. Son rayon de convergence R est tel que R > inf (R1, R2) , avec égalité si R1  R2.
11.4 Séries entières 131


 P 
Proposition 11.64. La série dont le terme général est défini par z p+q=n apbq z n est
une série entière.


 P 
Définition 11.65. La série dont le terme général est défini par z p+ q=n a pb q z n est
appelée série produit des séries A et B.

Proposition 11.66.
1. Son rayon de convergence est supérieur à inf (R1, R2).
2. Pour tout nombre complexe z tel que |z | < inf (R1, R2), la somme de la série produit est le
produit des sommes de chaque facteur.

11.4.2 Dérivation et intégration


Proposition 11.67. Soit A une série entière d’une variable réelle, de terme général x a x ,
n
n

de rayon de convergence R et de somme f.


1. La série entière de terme général x  (n + 1)a a pour rayon de convergence R.
n+1x
n

2. La fonction f est dérivable sur ] − R, R[ et f ′(x) = +∞


n=0 (n + 1)an+1x = 0 .
n
P

3. La série entière de terme général x


R x R x  P+∞ 
 an
n+1
xn+1 a pour rayon de convergence R et
an
n
dt = +∞ xn+1.
P
0
f (t)dt = 0 n=0 a nt n=0 n+1

11.4.3 Développement d’une fonction en série entière


Définition 11.68. Soient I un intervalle ouvert de R symétrique par rapport à 0 et f une fonc-
tion définie sur I à valeurs complexes. On dit que f est développable en série entière sur I s’il
existe une suite (an) de nombres complexes telle que
i. le domaine de convergence de la série entière de terme général z a zn
n
contienne I,
P+∞
ii. pour tout point x de I, f (x) = n=0 anxn.

Proposition 11.69. La fonction f est nécessairement indéfiniment dérivable sur I, la suite


f n(0)
(an) est unique et, pour tout entier naturel n, an = n! .

Définition 11.70. La série entière de terme général x  f (n)(0) n


n!
x s’appelle série de Maclaurin
associée à f.

Proposition 11.71. pour que f soit développable en série entière sur I, il faut et il suffit que le
reste de Maclaurin de f à l’ordre n converge simplement vers 0 sur I ; il suffit qu’il existe un
nombre réel positif β tel que, pour tout point x de I et pour tout entier naturel n, |f (n)(x)| 6 β.

Développement en série entière des fonctions rationnelles.

Proposition 11.72. Soit f une fonction rationnelle n’admettant pas 0 pour pôle. Alors f est
développable en série entière sur l’intervalle ] − R, R[, où R est le plus petit des modules des
pôles de f. De plus, le rayon de convergence du développement en série entière de f est égal à R.

Fonction analytique
CTE cours 2003-2004 page 4. Calcul différentiel.

Définition 11.73. On dit que f est analytique sur I si pour tout a ∈ I, f est développable en
série entière convergente sur un intervalle ouvert ]a − ε; a + ε[ ⊂ I où ε = ε(a) > 0. Autrement
Pn=+∞
dit, f (t) = n=−∞ αn(t − a)n. On dit aussi que f est de classe C ω sur I et on note f ∈ C ω.

Remarque 11.74. On sait que αn = f (n)(a) donc C ω(I) ⊂ C ∞.


132 Espaces d’applications leurs structures, leurs topologies ... .


Exemple11.75. Exemple de fonction CR mais pas C ω(R).
 
−1
exp 1 − t2 si t ∈ ] − 1; + 1[

f (t) =
 0 si |t| > 1

Démonstration. Voir cours CTE. 

11.4.4 Développements en série entière usuels


On déduit de ce tableau les développements limités des fonctions usuelles. Les développements
en série entière des fonctions tangente et tangente hyperbolique font intervenir les nombres de
Bernoulli ; les développements à l’ordre 8 de ces fonctions sont les suivants :
x3 2 17
− th(x) ≡ x − 3
+ 15 x5 − 315 x7 (mod.N8),
x3 2 17
− tan(x) ≡ x + 3
+ 15 x5 + 315 x7 (mod.N8),

où N8 désigne l’idéal des fonctions négligeables devant x x 8 au voisinage de 0.

11.4.5 Fonctions transcendantes élémentaires complexes


11.4.5.1 Fonction exponentielle complexe

Définition 11.76. La fonction z e


z
est définie sur C par ez = 1 + 1! +
z z2
2!
+ +
zn
n!
+.

Proposition 11.77.
1. Pour tout nombre complexe ez̄ = ez̄.
′ ′
2. Pour tout couple (z , z ′) de nombres complexes, ez+z = ez ez .
3. Pour tout entier rationnel n, (ez)n = enz.
4. Pour tout nombre complexe z = x + i y, où x et y sont réels, ez = ex+iy = ex(cos(y) +
isin(y)).
π
i2
5. En particulier, e = i, eiπ = − 1, e2iπ = 1.
6. L’application z ez est continue périodique, de période 2π, c’est-à-dire que, pour tout

couple (z , z ′) de nombres complexes, la relation ez = ez équivaut à la relation z ′ − z ∈
2iπZ.
7. Autrement dit, le noyau du morphisme z e z
est 2iπZ.
8. L’application x 
e est un morphisme surjectif du groupe additif (R, + ) sur le groupe
ix

multiplicatif (U , × ) des nombres complexes de module 1.


9. Son noyau est l’ensemble des multiples d’un nombre réel strictement positif, noté 2π.
10. Les fonctions x eix, x 
cos(x) et x  
sin(x) ont pour plus petite période 2π. π ≈ 3,
14159265358979323846264338327950288
11. Par passage au quotient, cette application définit un isomorphisme ϕ du groupe (R/2πZ,
+ ) sur le groupe (U , × ).

Définition 11.78. L’isomorphisme réciproque de ϕ s’appelle argument, et se note arg

Définition 11.79. Le représentant de l’argument d’un élément u de U appartenant à ] − π, π]


s’appelle argument principal de u et se note Arg (u).

Définition 11.80. Soit z un nombre complexe non nul. On appelle argument (resp. argunment
principal) de z et on note arg(z) (resp. Arg(z)) l’argument (resp.l’argunment principal) de z/
|z |.
11.4 Séries entières 133

Proposition 11.81.
1. Pour tout couple (z , z ′) de nombres complexes non nuls, arg(z z ′) = arg(z) + arg(z) , ce
qui équivaut à Arg(z z ′) = Arg(z) + Arg(z ′)(mod.2) .
2. Il en découle que arg(1/z) = − arg(z),
3. et que arg(z/z ′) = arg(z) − arg(z).
4. L’application z  ez est une surjection de C sur C∗ plus précisément, soit u un nombre
complexe non nul; l’équation ez = u admet pour solutions les nombres complexes zk =
ln|u| + i Arg(u) + 2 iπk, où k ∈ Z.

11.4.5.2 Fonctions trigonométriques complexes


ez + e−z ez − e −z eiz + e−iz
Pour tout nombre complexe z, ch(z) = 2
, sh(z) = 2
, cos(z) = 2
, sin(z) =
eiz − e −iz
2i
,

Proposition 11.82.
1. ch(i z) = cos(z), sh(i z) = i sin(z), cos(i z) = ch(z), sin(i z) = i sh(z).
2. Pour tout couple (z , z ′) de nombres complexes,
i. cos(z + z ′) = cos(z)cos(z ′) − sin(z)sin(z ′),
ii. sin(z + z ′) = sin(z)cos(z ′) + cos(z)sin(z ′).
3. Pour tout nombre complexe z = x + i y, où x et y sont réels,
i. cos(x + i y) = cos(x) ch(y) − i sin(x) sh(y),
ii. sin(x + i y) = sin(x) ch(y) + i cos(x) sh(y).
4. De plus, pour tout nombre complexe z, cos(z̄ ) = cos(z) , sin(z̄ ) = sin(z) .
5. Enfin, pour tout nombre complexe z = x + i y ,
i. |cos(z)|2 = cos2(x) + sh2(y) = ch2(y) − sin2(x),
ii. |sin(x)|2 = sin2( x) + sh2( y).
6. Pour tout couple (z , z ′ ) de nombres complexes,
z ≡ z ′ (mo d.2π)

i. cos(z ′) = cos(z) ⇔ z ≡ − z ′ (m o d. 2π)

z ≡ z ′ (m o d.2 π)

ii. sin(z ′) = sin(z) ⇔ z ≡ π − z ′ (m o d.2 π)

7. Soit z un nombre complexe pour que cos(z) = 0, il faut et il suffit que z appartienne à
l’ensemble P des nombres réels congrus à π/2 modulo π.

8. L’application tan: z sin(z)/cos(z) est une application continue de C \P dans C.
π
9. P = x ∈ R; x = 2 + k π . L’image de C\P par cette application est C\{ − i, i}.


10. En outre, cette application est périodique de période n plus précisément, pour tout couple
(z, z ′) d’éléments de C \P, tan(z ′) = tan(z) ⇔ z ≡ z ′ (mod.π).

11.4.6 Série de Fourier


Définition 11.83. Soit f une fonction 2π-périodique continue par morceaux à valeurs com-
1 R 2π
plexes. On appelle coefficients de Fourier de f les nombres : cn = 2π 0 f (t)e−intdt, n ∈ Z.

Remarque 11.84. Dans les applications, on utilise parfois les nombres :


1 R 2π
− a0 = 2π 0 f (t)dt,
1 R 2π
− an = π 0 f (t)cos(n t)dt,
134 Espaces d’applications leurs structures, leurs topologies ... .

1 2π
f (t)sin(n t)dt, n ∈ N∗.
R
− bn = π 0

Lorsque la fonction f est paire (resp. impaire), les coefficients bn (resp. an) sont nuls.

11.4.6.1 Coefficients de Fourier d’une dérivée

Proposition 11.85. Si f est continue et de classe C 1 par morceaux, les coefticients de Fourier
de f ′ sont liés à ceux de f par cn(f ′) = i n cn(f )

11.4.6.2 Convergence simple

Proposition 11.86.
1. (théorème de Dirichlet) Si f est de classe C 1 par morceaux, pour tout nombre réel x, la
Pn f (x + •) + f (x − •)
suite de terme général S(x) = p=−n c peipx converge vers f (x) = 2
f (x + •) + f (x − •)
2. En particulier, si, pour tout nombre réel x, f (x) = 2
(condition de Diri-
chlet), la suite (Sn) converge simplement vers f.
3. (Egalité de parseval) Si f est continue par morceaux, la série de terme général (|cn |2)
P+∞ 2 1 R 2π
converge et n=−∞ |cn | = 2π 0
|fn(t)|2dt.

11.4.6.3 Convergence normale

Proposition 11.87. Si f est continue et de classe C 1 par morceaux, la série de terme général
(|cn |2) est convergente et la série de Fourier de f est normalement convergente sur R.

11.5 Fonctions à valeurs réelles en « treillis » !


Définition 11.88. On notera C(E , R) l’algèbre des applications continues de E → R muni de la
topologie de la convergence uniforme.

Note 11.89. Il convient d’établir auparavant que l’ensemble des applications continues de E →
R à bien une structure d’algèbre.

Définition 11.90. Ensemble réticulé : synonyme de treillis.

Note 11.91. Définition dictionnaire de mathématiques P.U.F.

Définition 11.92. Treillis : Ensemble ordonné E tel que toute partie {x; y } de E, à deux élé-
ments admette une borne inférieure (notée x ∧ y) et une borne supérieure (notée x ∨ y).

Note 11.93. Définition dictionnaire de mathématiques P.U.F.

Définition 11.94. On dit qu’une partie A de C(E , R) est réticulée si et seulement si pour toute
f , g ∈ A, sup (f ; g) et inf (f ; g) appartiennent aussi à A.

Lemme 11.95. Soit A une partie réticulée de C(E , R). Dire qu’une fonction f ∈ C(X; R)
appartient à la fermeture Ā de A équivaut à dire que ∀x; y ∈ E; ∀ε > 0; ∃gx, y ∈ A; |f (x) −
gx,y(x)| < ε et |f (y) − gx, y(y)| < ε.

Remarque 11.96. On note la fonction trouvée gx,y pour bien marquer qu’elle dépend de x, y.

Démonstration. CTES page 166 2003-2004. Cours de Topologie. 

Exemple 11.97. Soit E un intervalle [a; b] de R et A l’ensemble des fonctions f continues sur
E qui sont affines par morceaux (c’est à dire qu’il existe un recouvrement fini de E par des
intervalles dans chacun desquels f est affine). Cet ensemble est évidement réticulé et pour tout
x, y; ∃f ∈ A qui prend en x et y des valeurs données quelconques. Donc Ā = C(E; R).
11.6 Théorème de Stone-Weierstrass 135

Lemme 11.98. Toute sous-algèbre fermée A de C(E; R) est réticulée.

Démonstration. Cours de licence de mathématiques CTE 2003-2004 page 167. 

11.6 Théorème de Stone-Weierstrass


Note 11.99. A mettre dans la partie Espace d’application. Remettre un peu d’ordre le théo-
rème est énoncé plusieurs fois !
Rappel : On désigne par C(X , Z) l’ensemble des fonctions continues définies sur X, à valeurs
dans Z. On travail ici avec la topologie de la convergence uniforme ?
CTES 2003-2004 page 166 ce « théorème ... stupéfia ses contemporains ».

Définition 11.100. On dit que A sépare les points de X si et seulement si ∀x, y ∈ X; x  y,


∃f ∈ A; f (x)  f (y).

Théorème 11.101. Soient X un espace topologique compact et A une partie de C(X , R) [resp.
de C(X , C)] ayant les propriétés suivantes :
i. A est une sous-algèbre de C(X , R) [resp. une sous algèbre autoadjointe de C(X , C) au
sens où f ∈ A ⇒ f¯ ∈ A].
ii. A contient les fonctions constantes.
iii. A sépare les points de X : ∀x, y ∈ X; x  y, ∃f ∈ A; f (x)  f (y).
Alors A est dense dans C(X , R) [resp. de C(X , C)] pour la topologie de la convergence uni-
forme.
Autrement dit une fonction de C(X , C) est limite uniforme d’une suite de fonction de A.

Démonstration. Cours Fack. Licence mathématiques Lyon. Analyse réelle. 

Note 11.102. Applications : voir livre de topologie-ellipse p.129


− Approximation par des fonctions polynômes sur un compact de Rn ou Cn.
− Approximation par des polynômes trigonométriques.
− Approximation de fonctions vectorielles
− Partie dénombrable partout dense.

Note 11.103. Autre formulation CTE page 168


1. Si une famille (fi) d’éléments de C(E , R) sépare les points de E et si les fi ne s’annulent
pas tous en un même point de E, toute fonction f ∈ C(E; R) est limite uniforme de poly-
nômes (sans terme constant) par rapport aux fi.
2. Si A contient les constantes alors Ā = C(E; R). (autrement dit A est dense dans C(E;
R)).

Note 11.104. Corollaire : C’est le théorème de Weierstass ! preuve CTE page 169 cours de
topologie 2003-2004. Soit A une sous-algèbre sur le corps C de C(E; C) telle que :
1. A sépare les points de E.
2. Pour tout x ∈ E, il existe f ∈ A telle que f (x)  0.
3. Pour tout f ∈ A, on a aussi f¯ ∈ A (où f¯ désigne la conjugée de f )
Alors Ā = C(E; C) (autrement dit A est dense dans C(E; C)).

Remarque 11.105. La condition (3) f ∈ A ⇒ f¯ ∈ A du corollaire est essentielle :


Prenons en effet pour E le disque unité C et soit A l’ensemble des polynômes de la variable
complexe z. L’algèbre A vérifie les conditions (1) et (2) mais pas (3). On vérifie que Ā  C(E;
C):
136 Espaces d’applications leurs structures, leurs topologies ... .

1 R 2π
Si f ∈ A alors f (0) = 2π 0 f (eit)d t. En particulier cette identité est valable quelque soit
f¯ ∈ Ā , cependant cette égalité n’est pas valable ∀f ∈ C(E; C). Si par exemple f (z) = z, cette
identité est fausse.

11.7 Approximation de fonction


Prérequis : Théorème de Stone Weierstrass.

11.7.1 ... continue par des polynômes sur un compact de C n

Théorème 11.106. Pour toute fonction continue f : [a, b] → C, il existe une suite (P1, P2,  ) de
polynômes à coefficients complexes telle que :
lim sup |f (x) − Pn(x)| → 0
n→∞ x∈R
Autrement dit la suite de polynôme converge uniformément vers f.

Démonstration. Application directe du théorème de Stone-Weierstrass qui dit que P (C) est
dense dans C([a, b], C). Cours Fack. Licence mathématiques Lyon. Analyse réelle. 

11.7.2 ... continue périodique par des polynômes trigonométriques


Rappel : Un polynôme trigonométrique P est une combinaison linéaire (à coefficient complexes)
d’exponentielles complexes eint , n ∈ Z i.e. X
P (t) = Cn eint
|n|6N

Théorème 11.107. Pour toute fonction continue f : R → C, 2π-périodique, il existe une suite
(P1, P2,  ) de polynômes trigonométriques à coefficients complexes telle que :
lim sup |f (x) − Pn(x)| → 0.
n→∞ x∈R

Démonstration. Même remarque que précédement. Cours Fack. Licence mathématiques Lyon.
Analyse réelle. 
11.7 Approximation de fonction 137
Chapitre 12
Séries entières

12.1 Développements en série entière : DSE

12.1.1 Définitions
Définition 12.1. Soient V ∈ VR (0), f ∈ CV. On dit que f est développable en série entière (cen-
trée) en 0 si et seulement si :
1. il existe une série entière n>0 anx de rayon noté R > 0,
n
P

2. et U ∈ VR (0) tels que ∀x ∈ U ∩ V ∩ ] − R; R[, f (x) = +∞ n


P
n=0 anx

12.1.2 Développements usuels en série entière centrée en 0 : DSE(0)


D.S.E.(0) : Développement en série entière centrée en 0.
R.C. : Rayon de convergence.
E.V. : Ensemble de validité.

Fonctions Séries D.S.E.(0) R.C. E.V.


+
P+∞ xn x x2 x3
ex n=0 n! 1+ 1!
+ 2! + 3! +∞ R

P+∞ x2n x2 x4
ch(x) n=0 (2n)! 1+ 2!
+ 4! + +∞ R

1 + 3! + 5! + 
P+∞ x2n+1 x x3 5
sh(x) n=0 (2n + 1)! +∞ R

1 − 2! + 4! + 
P+∞ ( − 1)nx2n x x2 4
cos(x) n=0 (2n)!
+∞ R

1 − 3! + 5! + 
n 2n+1 3 5
P+∞ ( − 1) x x x
sin(x) n=0 (2n + 1)!
+∞ R
α(α − 1) (α − (n
+
P+∞ − 1))xn αx α(α − 1)x2
(1 + x)α(∈N) n=0 n!
1+ 1!
+ 2!
+∞ R
P+∞ α(α − 1) (α − (n − 1))xn
+
αx α(α − 1)x2
(1 + x)α(∈R ) n=0 n!
1+ 1!
+ 2!
1 ] − 1, 1[
1−x+x −x +
1 P+∞ n n 2 3
1+x n=0 ( − 1) x 1 ] − 1, 1[
1+x+x +x +
1 P+∞ n 2 3
1−x n=0 x 1 ] − 1, 1[

−
n −1 n 2 3
P+∞ ( − 1) x x x
ln(1 + x) n=1 n
x− 2
+ 3
1 ] − 1, 1]
+
P+∞ xn x2 x3
− ln(1 − x) n=0 n
x+ 2
+ 3
1 [ − 1, 1[
+
P+∞ x2n+1 x3 x5
arg th(x) n=0 2n + 1
x+ 3
+ 5
1 ] − 1, 1[

−
n −1 2n+1 3 5
P+∞ ( − 1) x x x
arctan(x) n=0 2n + 1
x− 3
+ 5
1 [ − 1, 1]

+
n −1 n 2
P+∞ ( − 1) (2n + 2)!x x x
1+x n=0 22n −1(n − 1)!n!
1+ 2 − 8
1 − 1, 1

−
1 P+∞ ( − 1)n(2n)!xn x 3x2

n=0 22n(n!)2
1− 2 + 8
1 − 1, 1
1+x

−
n 2n+1 3 5
P+∞ ( − 1) (2n)! x 1 x 3 x
arg sh(x) n=0 22n(n!)2
× 2n + 1 x− 2 · 3
+8· 5
1 [ − 1, 1]

+
2n+1 3 5
P+∞ (2n)! x 1 x 3 x
arcsin(x) n=0 22n(n!)2 × 2n + 1 x+ 2 · 3
+8· 5
1 [ − 1, 1]

138
12.1 Développements en série entière : DSE 139
Chapitre 13
Dérivation

13.1 Théorème de Rolle et des accroissements finis

13.1.1 Théorème de Rolle

Théorème 13.1. (Théorème de Rolle)


2
Soient
 (a, b) ∈ R , tels que a < b, f : [a, b] → R une application.
 f est continue sur [a, b]
si f est dérivable sur ]a, b[ , alors il existe c ∈ ]a, b[ tel que f ′(c) = 0.
f (a) = f (b)

Démonstration. Analyse I J.M. Monier p.137 

13.1.2 Théorème des accroissements finis

140
13.1 Théorème de Rolle et des accroissements finis 141
Chapitre 14
Matrices
Introduite vers 1850 par Sylvester, la notion de matrice, dont la théorie a été développée par
Hamilton et Cayley est un outil efficace en algèbre linéaire et en mathématiques appliqué (Dic-
tionnaire des Mathématiques A. Bouvier et M. George PUF).

Soit n un entier. Notons Nn l’ensemble des entiers inférieurs ou égaux à n : Nn = {1, 2,  ,


n}. Dans ce chapitre K désigne un corps commutatif. Tous les K-ev considérés seront supposés
de dimension finie et supérieure ou égale à 1.

On verra que l’ensemble des matrices est isomorphe à l’ensemble des applications linéaires
continues. Ce qui explique la similitude des définitions et propriétés des deux ensembles.

Rajouter la structure d’espace euclidien.

14.1 Notion de matrice


Définition 14.1. Soit K un corps commutatif,
soient n et p deux entiers naturels non nuls,
soient les ensembles I = Nn et J = N p.
- On appelle matrice à n lignes et p colonnes à éléments dans K ou matrice (n, p)
une application A: I × J  K. .

(i, j) αij
- On la note (αij )(i, j)∈I ×J ou (αi, j ) si aucune confusion n’est à craindre.
- L’image αi,j du couple (i, j) est appelée élément, terme ou coecient de la matrice
A. Il est d’usage de définir une matrice par la liste de ses éléments disposés sous forme d’un
tableau :
α1,1 α1,2  α1,p
 
 α2,1 α2,2  α2,p 
A =      

α1,n α2,n  αn, p


- Pour tout i ∈ I : le p-uple αi,1,  , αi,p s’appelle la ièm e ligne de la matrice A.


- Pour tout j ∈ J : le p-uple α1, j ,  , αn, j s’appelle la j èm e colonne de la matrice A.




- (n,p) est appelé format de la matrice A.


- Si K = R, la matrice A est dite réelle. Si K = C, la matrice est dite complexe.
- Si m = n, la matrice A est dite carrée d'ordre n.
- Si p=1, la matrice A est appelée matrice-colonne ou unicolonne .
- Si n=1, la matrice A est appelée matrice-ligne ou uniligne.
- On appelle matrice élémentaire et on note Eij :
 la matrice dont  le terme αi,j vaut 1 et tous les autres sont nuls :
j
 0 
0 0  0 
  0
 
Eij = i 0 0 1 
    
 
 
0 0  0  0
Note 14.2. On note Mn,p(K), l’ensemble des matrices (n, p) à éléments dans K.

Note 14.3. On note Mn(K), l’ensemble des matrices carrées d’ordre n à éléments dans K.

142
14.2 Exemples d’application 143

Dans ce cas, on a Mn(K) = Mn, p(K).

Proposition 14.4. En utilisant le symbole de Kronecker noté δ et défini par


1 si x = y

δxy = , on a : Eij = (δki δlj)k∈N n;l∈N p.
0 si x  y

14.2 Exemples d’application


Nous allons maintenant établir des relations entre un espace vectoriel de dimension finie,
l’ensemble des applications linéaires L(E , F ) (on peut noter L(E , F ) où L(E , F ) car en dimen-
sion finie toute application linéaire est continue) et l’ensemble des matrices Mn,p(K). Ce qui
permettra de comprendre le choix des définitions des notions de rang, addition et multiplications
des matrices.

14.2.1 ... en algèbre linéaire


14.2.1.1 Matrice associé à un vecteur

Définition 14.5. Soient E un K − ev, n = dim(E).


Soient B = (e1,  , e p) une base de E.
Soit x un vecteur deE, notons (x1,  , xn) les composantes de x dans B : x = ni=1 xi × ei.
P

x1
La matrice colonne   s’appelle la matrice-colonne des composantes de x dans B.
xn
On la note MatB(x).

Remarque 14.6. L’application MatB: E → Mn,1(K) est une bijection.


x X = MatB(x)
On peut donc renforcer le lien entre X et x en disant que " x est représentée par X
dans B ", ou que " X représente x dans la base B ".

14.2.1.2 Matrice associée à une famille de vecteur

Définition 14.7. Soient E un K − ev, n = dim(E).


Soient B = (e1,  , e p) une base de E.
Soit F = {V1,  , V p } une famille non vide de p vecteurs de E.
Notons (a1j ,  , xnj ) les composantes de V j dans B (j ∈ N∗p) : V j = ni=1 aij × ei.
P

a1 1  a1 p
 

La matrice   de Mn,p(K) s’appelle la matrice de la famille {V1,  , V p } de


an 1  an p
x dans B.
On la note MatB(F ).

14.2.1.3 Matrice associée à une application linéaire

Définition 14.8. Soient E, F deux K − ev, p = dim(E), n = dim(F ).


Soient B = (e1,  , e p) et C = (f1,  , fn) deux bases de E et F.
Soit f ∈ L(E , F ) une application linéaire.
Notons (a1j ,  , an j ) les composantes de f (e j ) dans C: f (e j ) = ni=1 (aij × fi).
P
- On appelle matrice de ( ou associé à ) l'application linéaire f relativement aux
bases B et C, et on note MatB,C(f ), la matrice de Mn,p(K) définie par :
MatB,C (f ) = (aij ).

Remarque 14.9. Autrement dit, c’est la matrice dont les colonnes sont les composantes de
f (e j ) dans C:
144 Matrices

 
 
f (e1) f (e j ) f (e p)
 ↓ ↓ ↓

 a1j  a1p
 
 a
 11

 a2j  a2p

 a
 
MatB,C (f ) = 21 .

      
 aij  aip
 
 ai1 
     
 

an1  an j  an p
Esquisse de Relation entre L(E , F ) et Mn,p(K)

Remarque 14.10. L’application MatB,C : L(E , F ) → Mn,p(K) est une bijection.


f 
MatB,C (f )
On peut donc renforcer le lien entre f et A en disant que «f est représentée par A», ou
que «A représente f dans les bases B, C ».
14.2.1.4 Matrice associée à un endomorphisme
Définition 14.11. Soient E un K − ev, n = dim(E).
Soient B = (e1,  , en) une base de E.
Soit f ∈ L(E) un endomorphisme.
On appelle matrice de ( ou associé à ) l'endomorphisme f relativement à la base
B, et on note MatB(f ), la matrice de Mn(K) définie par :
MatB(f ) = MatB,B(f ).

Remarque 14.12. Ce n’est qu’un cas particulier de la section précédente : E=F et B = B ′.

14.2.2 ... en calcul différentiel


Matrice jacobienne.

14.3 Rang d’une matrice


Proposition 14.13. Le rang de la famille de colonnes de A dans Mn,1(K) est égal au rang de
la famille de lignes de A dans M1,p(K). ?????

Définition 14.14. Soit A ∈ Mn,p(K). On appelle rang de A et on note rg(A) :


le rang de la famille de colonnes [lignes] de A dans Mn,1(K)[resp. M1, p(K)].

Proposition 14.15. Soit A ∈ Mn, p(K). rg(A) 6 Min(n, p).


Proposition 14.16. Soient E, F deux K − ev. Soient B et C des bases de E et F.
Si f ∈ L(E , F ) et A = MatB,C (f ). On a rg(f ) = rg(A).

14.4 Construction de l’espace vectoriel normé Mn, p( ) K


Pour munir Mn,p(K) d’une structure d’espace vectoriel, on doit définir une loi de composition
interne et un loi de composition externe. Cette définition ne se fait pas au hasard (voir livre
J.M. Monier Algèbre 1 page 264). Etant donné que l’on a définit une bijection entre l’ensemble
des fonctions linéaires L(E , F ) et l’ensemble des matrices Mn, p(K), on définit sur Mn,p(K) une
addition puis une multiplication par un scalaire de telle manière qu’elles correspondent respecti-
vement avec l’addition puis la multiplication par un scalaire dans L(E , F ) . Conséquence immé-
diate : l’application MatB,C définie précédement devient un isomorphisme. Comme Mn,p(K) est
un e.v. on peut définir sur celui des normes comme sur n’importe-quel e.v.. Dans le cas des
matrices carrées, nous pourrons également définir une structure d’algèbre et les normes subor-
données. ?Lire auparavant le cours sur l’espace vectoriel normé?
14.4 Construction de l’espace vectoriel normé Mn, p(K) 145

14.4.1 Addition et multiplication sur Mn,p( ) K


Définition 14.17. Soit A = (aij) et B = (bij ) deux matrices de Mn, p(K).
- On appelle addition dans Mn, p(K), la loi interne, notée +, définie par :
Mn,p(K)  Mn, p(K)
(A, B) 
A + B = (aij + bij)
- On appelle multiplication par un scalaire, la loi externe, notée par l’absence de symbole ou
un point et définie par :
K × Mn,p(K)  Mn, p(K)
(α, A)  αB = (α × aij)

Remarque 14.18. On ne peut additionner que des matrices de même format.

Proposition 14.19. (Mn,p(K), + , .) est un K − ev.


 L’élément neutre
 pour l’addition est la matrice de Mn,p(K) dont tous les termes sont nuls :
0 0  0
      , on la note 0n, p ou 0.
0 0  0 n, p

Proposition 14.20.
- (Eij )i∈N n; j ∈N p est une base de Mn,p(K), appelée base canonique de Mn,p(K).
- dim(Mn, p(K)) = n × p
       
1 0 0 1 0 0 0 0
Exemple 14.21. E11 = ; E12 = ; E21 = ; E22 = .
0 0 0 0 1 0 0 1
(E11 ; E12 ; E21 ; E22 ) est la base canonique de M2(K).

Renforcement de la relation entre L(E , F ) et Mn,p(K)

Proposition 14.22. Pour tous K − ev E (de dimension p) et F (de dimension n) et pour


toutes bases B de E et C de F, l’application :
MatB,C : L(E , F ) → Mn, p(K) est un isomorphisme de K − ev.
f MatB,C (f )

14.4.2 Normes sur Mn,p( ) K


Comme précédement Mn,p(K) étant isomorphe à L(E , F ), on va définir sur Mn,p(K) le même
type de norme que sur L(E , F ).

Proposition 14.23. Les applications Na: Mn, p(K) → R+ suivantes sont des normes sur
(aij ) 
Na(ai j )
Mn,p(K) :
• N1(aij ) = 16i, j6n, p |aij |,
P
qP
2
• N2(aij ) = 16i, j 6n,p |aij | , norme de Frobenius

• N∞(aij ) = max16i, j 6n,p |aij |

Note 14.24. N1(M 2) 6 (N1(M ))2 ? Est ce vrai aussi pour N2 et N∞ ?

Proposition 14.25. Soient A ∈ Mn, p(K), k.kn , k.kp deux normes de Mn,1(K) et M p,1(K) alors
on a :
kA X kn
infX ∈Mp,1(K) {k ∈ K; kA X kn 6 |k | × kX kp } = sup X 0 kX k
= sup kX k p61 kA X kn =
p
X ∈Mp,1(K) X ∈Mp,1(K)
sup kX k p =1 kA X kn.
X ∈Mp,1(K)
146 Matrices

Ce réel est noté kAkn,p ou simplement kAk si aucune confusion n’est possible.

Définition 14.26. Soient k.kn , k.k p deux normes de Mn,1(K) et M p,1(K).


On appelle norme d'opérateur dénie à partir de ou subordonnée à k.kn , k.k p d’une
matrice, l’application notée k.kn,p telle que :
k.kn,p: Mn,p(K) → R+
A 
kAkn, p

Théorème 14.27.
1. L’application k.kn,p est une norme sur Mn, p(K).
2. Si A ∈ Mn,p(K), X ∈ Mp,1(K), kA X kn 6 kAkn, p × kX kp
3. Si A ∈ Mn,p(K), B ∈ M p, q(K) kA B kn,q 6 kAkn, p × kB kp, q

Proposition 14.28. Toutes les normes sur Mn,p(K) sont équivalentes.

14.5 Multiplication des matrices


Comme précédement cette définition ne se fait pas au hasard. Etant donné que l’on a définit
une bijection entre l’ensemble des applications linéaires L(E , F ) et l’ensemble des matrices
Mn,p(K), on définit la multiplication afin que la composition de 2 applications f ◦ g corresponde
au produit des matrices qui les représentent MatC ,D(f ) × MatB,C (g) = MatB,C (f ◦ g).

Définition 14.29. Soient A = (aik )ik ∈ Mn, p(K), B = (bkj)kj ∈ Mp, q(K).
On appelle produit de A par B et on note A × B ou AB, la matrice de Mn,q (K) définie
par : Pp
A × B = (cij )ij où ∀(i, j) ∈ Nn × N q et cij = k=1 aik × bkj
   
j j
 ↓   ↓ 
       b1j      
    


 i → ai1  aik  aip ×    = i →  

   P p
a × b

k=1 ik kj
       bkj      
   

         
   

 bp j    

Remarque 14.30. Le produit AB existe si et seulement si le nombre de colonne de A est égal


au nombre de ligne de B.

Définition 14.31. Soit A ∈ Mn,p(K).


- On appelle noyau de A le sev de M p,1(K), noté Ker(A), tel que :
Ker(A) = {X ∈ Mp,1(K); AX = 0}.
- On appelle image de A le sev de M p,1(K), noté Im(A), tel que :
Im(A) = {AX; X ∈ M p,1(K)}.

Proposition 14.32.
- (Pseudo-distributivité à gauche) Soient A ∈ Mn,p(K), B, C ∈ M p,q (K) alors
A(B + C) = AB + AC.
- (Pseudo-distributivité à droite) Soient A, B ∈ Mn, p(K), C ∈ M p,q (K) alors
(A + B)C = AC + BC.
- Soient A ∈ Mn,p(K), B ∈ M p, q(K) et λ ∈ K alors
(λA)B = λ(AB) = A(λB).
- (Pseudo-associativité) Soient A ∈ Mn,p(K), B ∈ M p, q(K), C ∈ M q,r(K) alors
(AB)C = A(BC).
14.7 Transconjugaison ou Matrice adjointe 147

Proposition 14.33. Soient E,F,G 3 K-ev; B, C, D des bases respectives de E,F,G et 2 applica-
tions f ∈ L(E , F ) et g ∈ L(F , G). On a :
- MatC,D(f ) × MatB,C (g) = MatB,C (f ◦ g).
- MatC (f (x)) = (MatB,C (f )) × (MatB(x)).

14.6 Transposition et transposée d’une matrice



 
a11 a1p
Définition 14.34. Soit une matrice A =  de Mn,p(K).
an1  anp
On appelle transposée de A la matrice notée t
A de M p,n(K) définie par :
a11  an1
 
t
A = 
a1p  anp  
  1 5
1 2 3 4  2 6 
Exemple 14.35. si A = alors tA = 
5 6 7 8  3 7 
4 8
Remarque 14.36.
-On peut dire que l’on obtient tA en échangeant les lignes et les colonnes ou par symétrie par
rapport à la diagonale.
-La transposée d’une matrice colonne est une matrice ligne et réciproquement.

Proposition 14.37.

-Soit A une matrice de Mn,p(K) alors tt A = A


-Soient A,B deux matrices de Mn,p(K) et α ∈ K alors t(αA + B) = αtA +t B
-Soient A,B deux matrices de Mn,p(K) et Mp,q (K) t(AB) =t B tA
-rg(tA) = rg(A) ?

14.7 Transconjugaison ou Matrice adjointe



 
a1,1 a1,p
Définition 14.38. Soit une matrice A = (ai, j ) 16i6n =  de Mn,p(C).
16 j 6 p an,1  an, p
On appelle transconjuguée ou matrice adjointe de A la matrice notée A∗ de M p,n(C)
définie par :
• A∗ = tA =t Ā

 
a1,1 an,1
• ou A∗ = (ai, j ) 16j 6 p = 
16i6n a1,p  an,p

  1 2−i
1 i 0
Exemple 14.39. si A = alors A∗ = − i 3 
2+i 3 1−i
0 1+i
Proposition 14.40.
1. Soient A,B deux matrices de Mn,p(C) et α ∈ K alors (αA + B)∗ = ᾱA∗ + B ∗ ,
2. Soit A une matrice de Mn,p(C) alors A∗∗ = A,
3. Soient A une matrice de Mn,p(C) alors rg(A∗) = rg(A),
4. Soient A,B deux matrices de Mn,p(C) alors (AB)∗ = B ∗A∗.
148 Matrices

14.8 Opérations élémentaires


Soit A une matrice de Mn, p(K). On appelle opérations élémentaires sur A l’échange de deux
colonnes/lignes, le remplacement d’une colonne/ligne C j par αC j où α ∈ K\{0}, le remplace-
ment d’une colonne/ligne par C j + αCk où α ∈ K et k ∈ N p \{j }.

Proposition 14.41. Les opérations élémentaires sur les colonnes ou sur les lignes ne changent
pas le rang. Autrement dit, si B se déduit de A par des opérations élémentaires alors rg(B) =
rg(A).
 
4 5 10 11
 9 0 0 0 
 , rg(A) = rg(A ) = rg(A ) = rg(A )
Exemple 14.42. A =  5
  ′ ′′ ′′′
 4 2 8 
 7 1 7 2 
20 0 5 1
 
8 5 10 11
 18 0 0 0 
,
′ 
• (2 × C1) → A = 

 10 4 2 8 
 14 1 7 2 
40 0 5 1

4 35 10 11
 
 9 0 0 0 
•  5 10 2 8  ,
(C2 + 3 × C3 → C2) → A ′′ = 
 

 7 22 7 2 
20 15 5 1

4 5 10 11
 
 20 0 5 1 
•  5 4 2 8 .
(L2 ↔ L5) → A ′′′ = 
 

 7 1 7 2 
9 0 0 0

14.9 Spécificités propres aux matrices carrées


On s’intéresse désormais plus spécifiquement à l’ensemble des matrices carrées qui peut être
muni de plusieurs structures, anneau, espace vectoriel et algèbre. Nous avons également
regroupé dans cette partie toutes les définitions et les propriétés vérifiées uniquement par les
matrices carrées.

14.9.1 Construction de l’anneau et de l’algèbre normée Mn( ) K


Proposition 14.43.
- (Mn(K), + , × ) est un anneau unitaire.
- (Mn(K), + , ., × ) est une K-algèbre associative et unitaire.
L’élément neutre pour la multiplication dans Mn(K) est la matrice de Mn(K) notée In telle
que :
1 0  0

 0 1  0 
In =     

0 0  1

Définition 14.44. La norme subordonnée à k.kn et k.kn est appelé norme subordonnée et on la
note k.ks.

Proposition 14.45. Toutes les normes subordonnées sur Mn(K) sont des normes d’algèbre. Le
couple formé par l’ensemble des matrices carrées et la norme subordonnée i.e. (Mn(K), k.ks) est
une K-algèbre normée.

Remarque 14.46.
− Dans le cas des matrices la norme d’algèbre est aussi appelé norme matricielle.
14.9 Spécificités propres aux matrices carrées 149

− Il existe des normes


p matricielles non subordonnées à un norme : exemple la norme de Fro-
bénius F (A) = tr(A∗A) .

Exemple 14.47. rajouter des exemples de normes subordonnées.


Norme de Mn,1(K) Nom Norme subordonnée Nom
Pn Pn
kX k1 = i=1 |xi | convergence moyenne kAks1 = max16 j6n |aij |
Pi=1
kX k∞ = max16i6n (|xi |) convergence absolue kAks∞ = max16i6n nj =1 |aij |

qP
n
kX k2 = i=1 (xi)
2
euclidienne kAks2 = ρ , ρ rayon spectral de A spectrale

Proposition 14.48. Soit E un K-e.v. de dimension n et B une base de E, l’application :


MatB: L(E) → Mn(K) est un isomorphisme de K-algèbre.
f 
MatB(f )

14.9.2 Trace d’une matrice carrée


La notion trace n’est définie que pour les matrices carrées.

Définition 14.49. Soit A = (aij) une matrice de Mn(K).


On appelle trace de A et on note tr(A) l’élément de K défini par : tr(A) = ni=1 aii .
P
Autrement dit, tr(A) est la somme des éléments diagonaux de A.

Proposition 14.50.
1.
2. Soit A une matrice de Mn(K) alors tr(tA) = tr(A),
3. Soit A une matrice de Mn(C) tr(A∗) = tr(A) ?? ou ?? tr(A).

14.9.3 Matrice carrée nilpotente


La notion nilpotence n’est définie que pour les matrices carrées.

Définition 14.51. Une matrice carrée A de Mn(K) est dite nilpotente si et seulement s’il
existe k ∈ N tel que Ak = 0.

Proposition 14.52. L’ensemble {k ∈ N∗; Ak = 0} admet un plus petit élément.

Définition 14.53. Le plus petit élément de l’ensemble {k ∈ N∗; Ak = 0} est appelé indice de
nilpotence et est noté ν(A).
14.9.4 Matrice carrée inversible et groupe linéaire GLn( ) K
La notion de matrice inversible n’est définie que pour les matrices carrées.

14.9.4.1 Matrice carrée inversible

Définition 14.54.
- Une matrice A de Mn(K) est dite inversible si et seulement s’il existe A ′ ∈ Mn(K) telle
que AA ′ = A ′A = In.
- Dans ce cas A ′ est appelée inverse de A et est noté A−1.
- Une matrice A de Mn(K) est dite singulière si et seulement elle n’est pas inversible.

Proposition 14.55. Si A est inversible, alors A−1 est unique


Théorème 14.56. Soit A une matrice de Mn(K), les propriétés suivantes sont équivalentes :
- A est inversible à gauche.
- A est inversible à droite.
150 Matrices

- A est inversible.
- A est régulière à gauche.
- A est régulière à droite.
- A est régulière.

14.9.4.2 Groupe Linéaire


Dénition 14.57. On appelle groupe linéaire et on note GLn(K) :
l’ensemble des matrices carrées inversibles de Mn(K).

Proposition 14.58. Comme son nom l’indique (GLn(K), × ) est un groupe.

Proposition 14.59. Soit E un K − ev de dimension n et B une base de E, l’application :


MatB: (GL(E), ◦ ) → (Mn(K), × ) est un isomorphisme de groupe.
f 
MatB(f )
Autrement dit, chaque matrice inversible représente un automorphisme et inversement

14.9.4.3 Transposé d’une matrice carrée inversible


La définition de tranposée a déjà été vue dans le cas général.
Pour une matrice carrée, on la propriété supplémentaire suivante :

Proposition 14.60. (tA ∈ GLn(K)) ⇔ (A ∈ GLn(K)) et (tA)−1 =t (A −1)


Autrement dit : La transposée de la matrice carrée A est inversible ⇔ La matrice carrée A
est inversible.
De plus : l’inverse de la transposée est égale à la transposée de l’inverse.

14.9.4.4 Transconjugaison et matrice adjointe d’une matrice carrée inversible


La définition de transconjuguée a déjà été vue dans le cas général.
Pour une matrice carrée, on a la propriété supplémentaire suivante :

Proposition 14.61. (A∗ ∈ GLn(C)) ⇔ (A ∈ GLn(C)) et (A∗)−1 = (A−1)∗


Autrement dit : L’adjointe de la matrice carrée A est inversible ⇔ La matrice carrée A est
inversible.
De plus : l’inverse de l’adjointe est égale à l’adjointe de l’inverse.

14.9.4.5 Rang et matrice carrée inversible


La définition de rang a déjà été vue dans le cas général.
Pour une matrice carrée on a les propriétés supplémentaires suivantes :

Proposition 14.62. Soit A une matrice de Mn(K). (rg(A) = n) ⇔ (A ∈ GLn(K)).


Autrement dit le rang d’une matrice carrée inversible correspond à son ordre.

Proposition 14.63. Soit A une matrice de Mn(K), P ∈ GLn(K) et Q ∈ GL p(K).


rg(AP) = rg(A) et rg(QA) = rg(A).
Autrement dit la multiplication par une matrice inversible ne modifie pas le rang d’une matrice.

14.9.5 Matrices carrées symétrique et antisymétrique


Les notions de matrice symétrique et antisymétrique ne sont définies que pour les matrices car-
rées.

14.9.5.1 Matrice carrée symétrique

Définition 14.64. Une matrice carrée de Mn(K) est dite symétrique si et seulement si : tA =
A. On note Sn(K) l’ensemble des matrices symétriques d’ordre n à coefficients dans K.

Proposition 14.65. Sn(K) est un sev de Mn(K).


14.9 Spécificités propres aux matrices carrées 151

Proposition 14.66.
-Soient deux matrices symétriques, (AB ∈ Sn(K)) ⇔ (AB = BA).
autrement dit : dire que leur produit commute équivaut à dire que leur produit est symétrique.
-Si A ∈ Sn(K) ∩ GLn(K) alors A−1 ∈ Sn(K)
autrement dit si A est une matrice symétrique inversible A−1 est aussi symétrique.

14.9.5.2 Matrice carrée antisymétrique

Définition 14.67. Une matrice carrée de Mn(K) est dite antisymétrique si et seulement si :
t
A = − A. On note An(K) l’ensemble des matrices symétriques d’ordre n à coefficients dans K.

Proposition 14.68. An(K) est un sev de Mn(K).

14.9.5.3 Relation entre les deux notions

Proposition 14.69. Les sev Sn(K) et An(K) sont supplémentaires dans Mn(K).

14.9.5.4 Matrice carrée symétrique semi-définie positive et définie positive

Définition 14.70. Une matrice carrée A de Mn(K) est dite :


1. Semi-dénie positive si et seulement si ∀X ∈ Kn , X t A X > 0
2. Dénie positive si et seulement si

Xt A X > 0
− ∀X ∈ Kn , ,
Xt A X = 0 ⇒ X = 0
− Autrement dit ∀X ∈ Kn∗, X t A X > 0

14.9.6 Matrice orthogonale


Définition 14.71. Une matrice carrée inversible A de GLn(K) est dite orthogonale si et seu-
lement si :
A−1 =t A, Matrice dont l’inverse est égale à l’adjointe.

14.9.7 Matrices carrées hermitienne et antihermitienne


Les notions de matrice symétrique et antisymétrique ne sont définies que pour les matrices car-
rées.

14.9.7.1 Matrices hermitiennes

Définition 14.72. Une matrice carrée A de Mn(C) est dite hermitienne si et seulement si :
A∗ = A. On note Hn(C) l’ensemble des matrices symétriques d’ordre n à coefficients dans C.

Remarque 14.73. Si A est hermitienne, alors les éléments diagonaux de A sont réels.
     
1 0 2 1+i 1 0
Exemple 14.74. et sont hermitiennes, mais pas .
0 −3 1−i −5 0 −i

14.9.7.2 Matrices antihermitienne

Définition 14.75. Une matrice carrée A de Mn(C) est dite antihermitienne si et seulement
si : A∗ = − A.

14.9.7.3 Matrice carrée hermitienne semi-définie positive et définie positive

Définition 14.76. Une matrice carrée A de Mn(C) est dite :


1. Semi-dénie positive si et seulement si ∀X ∈ Cn , X ∗ A X > 0
152 Matrices

2. Dénie positive si et seulement si


X∗ A X > 0

− n
∀X ∈ C , ,
X∗ A X = 0 ⇒ X = 0
− Autrement dit ∀X ∈ Cn∗, X ∗ A X > 0

14.9.8 Matrice unitaire


Définition 14.77. Une matrice carrée inversible A de GLn(C) est dite unitaire si et seule-
ment si :
A−1 = A∗ ou A∗A = AA∗ = In, Matrice dont l’inverse est égale à l’adjointe.

14.9.9 Matrice normale


Définition 14.78. Une matrice A carrée de Mn(C) est dite normale si et seulement si :
A∗A = AA∗ , matrice dont le produit avec son adjointe est commutatif.

14.9.10 Matrices carrées triangulaires


La notion de matrice triangulaire n’est définie que pour les matrices carrées.

Définition 14.79. Soit A ∈ Mn(K).


- Une matrice carrée A = (αi, j ) est dite triangulaire ou trigonale inférieure, si tous les
éléments situés au-dessus de la diagonale sont nuls, c’est à dire αi,j = 0 pour i < j.
- L’ensemble des matrices triangulaires inférieures de Mn(K) est noté Tn,i(K).
 
10 0 0 0
 4 7 0 0 
Exemple 14.80. matrice triangulaire inférieure   5 45 3 0 

0 7 6 92
Définition 14.81. Soit A ∈ Mn(K).
- Une matrice carrée A = (αi, j ) est dite triangulaire ou trigonale supérieure, si tous les
éléments situés au-dessous de la diagonale sont nuls, c’est à dire αi, j = 0 pour i > j.
- L’ensemble des matrices triangulaires supérieures de Mn(K) est noté Tn,s(K).

Définition 14.82. Soit A ∈ Mn(K).


Une matrice carrée A = (αi,j ) est dite triangulaire ou trigonale si et seulement si A est
triangulaire supérieure ou inférieure.

10 2 6 12
 
 0 7 −2 0 
Exemple 14.83. matrice triangulaire supérieure 
 0

0 3 i 
0 0 0 92

Remarque 14.84. ∀A ∈ Mn(K), (A ∈ Tn,i(K)) ⇔ (tA ∈ Tn,s(K)).


Autrement dit, si une matrice d’ordre n est triangulaire inférieure, sa transposée est triangu-
laire supérieure.

14.9.11 Matrices carrées diagonales


La notion de matrices diagonales n’est définie que pour les matrices carrées.

Définition 14.85. Soit A ∈ Mn(K).


Les éléments αi,i tels que ( 1 6 i 6 n) sont appelés éléments diagonaux et forment la diago-
nale principale de la matrice.
14.10 Matrices équivalentes, changement de base 153

 
10 2 6 12
4 7 −2 0
Exemple 14.86. Eléments diagonaux 
 

 5 45 3 i 
0 7 6 92
Définition 14.87. Soit A ∈ Mn(K).
- Une matrice carrée A = (αi,j ) est dite diagonale si tous les éléments hors de la diagonale
sont nuls, c’est à dire αi,j = 0 pour i  j. Si ses éléments diagonaux sont λ1,  , λn on la note
diag(λ1,  , λn).
- L’ensemble des matrices diagonales de Mn(K) est noté Dn(K).
 
10 0 0 0
 0 7 0 0 
Exemple 14.88. Matrice diagonale   0 0 3 0 .

0 0 0 92

Remarque 14.89. L’ensemble des matrices diagonales de Mn(K) est l’intersection des ensem-
bles des matrices triangulaires supérieures et inférieures de Mn(K):
Dn(K) = Tn,s(K) ∩ Tn,i(K)

Proposition 14.90. Dn(K)est une sous-algèbre commutative et unitaire de Mn(K) .

Proposition 14.91. Soit D = diag(λ1,  , λn) une matrice diagonale de Dn(K).


- (D ∈ GLn(K))  (∀i ∈ Nn , λi  0).
Autrement dit, si D est inversible et aucun de ses éléments n’est nul.
- (D ∈ GLn(K)) ⇒ (D −1 = diag(λ1−1,  , λn−1)).
Autrement dit, la matrice inverse

de D est diagonale,

ses éléments sont les inverses dans K
λ1−1

des éléments de D. λi  0 alors


 
 
λi−1
 
 
 
 
−1
λn
 
1 0 0 0 0
 0 0 0 0 0 
Exemple 14.92. n’est pas inversible.
 
 0 0 2 0 0 
 
 0 0 0 3 0 
0 0 0 0 4

14.10 Matrices équivalentes, changement de base

14.10.1 Matrices de passage


Définition 14.93. Soient E un K − ev de dimension n. B, B ′ deux bases de E.
On appelle matrice de passage de B à B ′ , et on note Pass(B, B ′), la matrice de Mn(K) dont
les colonnes sont formées des composantes des vecteurs de B exprimés sur la base B’ :
Pass(B, B ′) = MatB(B ′)

Proposition 14.94. Pour toutes bases B, B ′ de E : Pass(B, B ′) = MatB,B ′(IdE )

Proposition 14.95. Soit E un K − ev B, B ′, B ′′ des bases de E.


-Pass(B, B ′′) = Pass(B, B ′)Pass(B ′, B ′′)
-Pass(B, B) = In
-Pass(B, B ′) est inversible et (Pass(B, B ′))−1 = Pass(B ′, B)

Remarque 14.96. L’application : {bases de E } → GLn(K) est une bijection, autrement


B′ Pass(B, B ′) 
dit :
154 Matrices

-Toute matrice de passage est inversible.


-Toute matrice inversible peut être considérée comme matrice de passage (on peut même
choisir la base de départ, ou d’arrivée ???).

14.10.2 Formules de changement de base


Proposition 14.97. Soient E un K − ev, B, B ′ deux bases de E, P = Pass(B, B ′), x ∈ E, X =
MatB(x) et X ′ = MatB ′(x) alors :
X = P × X ′.

Proposition 14.98. Soient E , F deux K − ev. Soient B, B ′ deux bases de E avec P = Pass(B,
B ′) et C , C ′ deux bases de F avec Q = Pass(C , C ′). Soit f ∈ L(E , F ), A = MatB,C (f ) et A ′ =
MatB ′,C ′(f ) alorsx
A ′ = Q−1 × A × P

Proposition 14.99. Soient E un K − ev. Soient B, B ′ deux bases de E avec P = Pass(B, B ′).
Soit f ∈ L(E), A = MatB(f ) et A ′ = MatB ′(f ) alors
A ′ = P −1 × A × P

14.10.3 Matrices équivalentes


Définition 14.100. Soient A,B deux matrices de Mn,p(K).
On dit que A est équivalente à B, et on note A eq B si et seulement si :
∃(P , Q) ∈ GL p(K) × GLn(K) telles que B = Q−1 × A × P

Proposition 14.101.
-La relation eq est une relation d’équivalence dans Mn,p(K).
-Soient A une matrice de Mn, p(K) de rang r=rg(A) alors :
 
Ir 0r,p−r
A est équivalente à la matrice Jn, p,r = .
0n−r,r 0n−r,p−r
En particulier Jn,p,0 = 0.
-Soient A,B deux matrices de Mn,p(K) alors (A eq B) ⇔ (rg(A) = rg(B)).

Proposition 14.102. Deux matrices A,B de Mn, p(K) sont équivalentes, si et seulement si elles
représentent (dans des bases) la même application linéaire.

14.10.4 Matrices carrées semblables


Définition 14.103. On dit que A est semblable à B et on note A ∼ B, si et seulement s’il
existe une matrice P de GLn(K) telle que B = P −1 × A × P.

Proposition 14.104. La relation ∼ (appelée similitude des matrices carrées) est une relation
d’équivalence dans Mn(K).

Proposition 14.105. Soient A, B deux matrices de Mn(K), (A ∼ B) ⇒ (tr(A) = tr(B)).

Dénition 14.106. Soient E un K − ev de dimension finie et f ∈ L(E). On appelle trace de f,


et on note tr(f ), la trace de n’importe quelle matrice représentant l’endomorphisme f.

Proposition 14.107. Soit E un K − ev.


-L’application tr: L(E) → K est une forme linéaire.
f  tr(f )
-Soient f et g deux endomorphismes de E, alors tr(g ◦ f ) = tr(f ◦ g)
-Soit f un endomorphisme de E, pour tout automorphisme de E tr(h−1 ◦ f ◦ h) = tr(f ).
14.12 Déterminant d’une matrice carrée 155

Exercice 14.1. Voir Livre Analyse I J.M. Monier

14.11 Exponentielle d’une matrice carrée

14.11.1 Définition
!
Mn(K) → Mn(K)
Proposition 14.108. La série d’applications
 converge
P
k>0
P+∞ 1 k
A k=0 k! A
normalement sur toute partie bornée de Mn(K).

Définition 14.109. On appelle exponentielle d'une matrice carrée, et on note exp, l’appli-
cation :
P+∞ 1 k
exp: Mn(K) → Mn(K) , exp(A) = k=0 k! A
A 
P+∞ 1 k
k=0 k! A

14.11.2 Propriétés

14.12 Déterminant d’une matrice carrée


Application multilinéaire, Déterminant d’une famille de vecteur et d’un endomorphisme.

14.12.1 Définition
Définition 14.110. Soit A = (aij) une matrice carrée de Mn(K). On appelle déterminant de A,
a11  a1n
et on note det(A), ou ,l’élément de K défini par :
an1  ann
det(A) = ε(σ)aσ(1)1 ×  × aσ(n)n.
P
σ∈Sn
a11  a1n
On dit que det(A) = est un déterminant d’ordre n.
an1  ann

autrement dit, en notant C1, , Cn les colonnes de A et en choisissant B la base canonique de


Mn,1(K), on a det(A) = detB(C1,  , Cn).

Exemple 14.111. Calcul d’un déterminant d’ordre 2 et 3.


1. S2 = {Id {1,2}, τ12 } donc
a b
= ε(Id {1,2})a(1)1b(2)2 + ε(τ12 )a(2)1a(1)2 = ad − bc.
c d
2. S3 = {Id {1,2,3}, τ12 , τ13 , τ23 , τ23 ◦ τ12 , τ23 ◦ τ13 } donc
a11 a12 a13
a21 a22 a23 = a11 a22 a33 − a21 a12 a33 − a31 a22 a13 − a11 a32 a23 + a31 a12 a23 + a21 a32 a13
a31 a32 a33

Proposition 14.112. Soient E un K − ev de dimension n, f un endomorphisme de L(E), B


une base de E, A = MatB(f ). On a : det(f ) = det(A).

Proposition 14.113. Soit n ∈ N, k ∈ Z, α ∈ K, (A, B) ∈ Mn(K)2 , C ∈ GLn(K).


1. det(In) = 1.
156 Matrices

2. det(α × A) = αn × det(A).
3. det(AB) = det(A) × det(B).
4. det(An) = (det(A))n et det(C k) = (det(C))k.
5. (A ∈ GLn(K)) ⇔ (det(A)  0)
6. det(C −1) = (det(C))−1
7. det(tA) = det(A).
8. Si A est nilpotente ou antisymétrique alors det(A) = 0.

14.12.2 Méthodes élémentaires de calcul


14.12.2.1 Lignes ou colonnes liées

Remarque 14.114. (Deux lignes ou deux colonnes sont liées) ⇔ (le déterminant de la matrice
1 2 0 1 2 1 1 2 1
est nul). 2 7 0 = 0, 2 7 2 = 0, 2 7 0 =0
4 4 0 4 4 4 1 2 1

14.12.2.2 Mineur, Cofacteur et Développement par rapport à une rangée

Définition 14.115. Soit A = (aij) une matrice de Mn(K).


• On appelle mineur de la place (i, j) dans A ( ou mineur de aij ) le déterminant noté ∆ij
d’ordre n-1 obtenu en supprimant dans A la ième ligne et la j èm e colonne :
a1,1  a1,j −1 a1, j +1  a1,n

∆ij =
ai−1,1  ai−1, j −1 ai−1,j +1  ai−1,n
ai+1,1 ai+1,j −1 ai+1,j +1 ai+1,n

an,1  an,j −1 an,j +1  an,n

• On appelle cofacteur de la place (i, j) dans A ( ou cofacteur de aij ) le produit noté Aij
de ∆ij par ( − 1)i+ j ainsi : Aij = ( − 1)i+ j.

Proposition 14.116. (Développement par rapport à une rangée)


Soit A = (aij ) une matrice de Mn(K).
1. Developpement par rapport à la j èm e colonne : ∀j ∈ Nn, det(A) = ni=1 aij × Aij .
P

2. Developpement par rapport à la ième ligne : ∀i ∈ Nn, det(A) = nj =1 aij × Aij .


P

2 6 −3 4
1 3 4 −5
Exemple 14.117. A = Developpement de A par rapport à la 4èm e colonne
4 1 2 0
−3 0 3 6
1 3 4 2 6 −3 2 6 −3
A = ( − 1)1+4 × 4 4 1 2 + ( − 1)2+4 × ( − 5) 4 1 2 + 0 + ( − 1)4+4 × 6 1 3 4 .
−3 0 3 −3 0 3 4 1 2
Développons M,N,P par rapport à leur 3èm e ligne :
1 3 4
3 4 1 3
M = 4 1 2 =( − 1)3+1 × ( − 3) + 0 + ( − 1)3+3 × 3
1 2 4 1
−3 0 3
M = − 3 × (3 × 2 − 4 × 1) + 3 × (1 × 1 − 3 × 4) = − 6 − 33 = − 39,
2 6 −3
6 −3 2 6
N = 4 1 2 = ( − 1)3+1 × ( − 3) + 0 + ( − 1)3+3 × 3
1 2 4 1
−3 0 3
14.12 Déterminant d’une matrice carrée 157

N = − 3 × 15 − 3 × 22 = − 111
2 6 −3
6 −3 2 −3 2 6
P = 1 3 4 = ( − 1)3+1 × 4 + ( − 1)3+2 × 1 + ( − 1)3+3 × 2
3 4 1 4 1 3
4 1 2
P = 4 × 33 − 1 × 11 + 2 × 0 = 121
Conclusion : A = − 4 × ( − 39) − 5 × ( − 111) + 6 × 123 = 156 + 555 + 726=1437
Le choix des développements par ligne ou par colonne est arbitraire. D’autres choix auraient pu
être fait pour chacun des déterminants.

Remarque 14.118.
1. Le développements par rapport à une rangée est utile lorsque la rangée contient beaucoup
d’éléments nuls.
2. Nous allons développer par la suite des méthodes plus rapides de calcul des déterminants.

14.12.2.3 Comatrice

Définition 14.119. Soit A = (aij) une matrice de Mn(K). On appelle comatrice de A la


matrice carrée d’ordren, notée com(A),
 définie par :
A11  A1n
com(A) = (Aij )ij = , ou Aij est le cofacteur de la place (i, j) dans A.
An1  Ann

Proposition 14.120. Soit A ∈ Mn(K), A ×t com(A) =t com(A) × A = det(A).


1
Corollaire 14.121. Soit A ∈ GLn(K), A−1 = det(A) ×t com(A).
 
a b
Exemple 14.122. Pourn=2, si ad − bc  0, alors A = est inversible et :
1

d −b c d
−1
A = ad − b c .
−c a

Remarque 14.123. Méthode quasiment inutilisable dès que n > 3. Puisqu’elle nécessite le
calcul de n2 déterminants d’ordre n − 1 et d’un déterminant d’ordre n.

14.12.3 Cas d’une matrice triangulaire


Proposition 14.124. Le déterminant d’une matrice triangulaire est égal au produit des élé-
a11  a1n Qn
ments diagonaux : = i=1 aii .
0 ann

Remarque 14.125. Une matrice diagonale est aussi une matrice triangulaire, son déterminant
est donc aussi égal au produit des éléments diagonaux.

14.12.4 Manipulation de lignes et de colonnes


Remarque 14.126.
1. On peut utiliser la multilinéarité du déterminant d’une matrice pour facilité son calcul :
λa1j + b1j a1j b1j
I II = λ I II + I II
λanj + bnj anj bnj

Exemple 14.127. Calculons le déterminant suivant :


158 Matrices

1 6 1 1 1 4×1+2 1 1 1 1 1 1 1 2 1 1
0 10 2 2 0 4×2+2 2 2 0 2 2 2 0 2 2 2
d= = = 4x + or
0 12 3 3 0 4×3+0 3 3 0 3 3 3 0 0 3 3
0 16 0 4 0 4×4+0 0 4 0 4 0 4 0 0 0 4

1 1 1 1 1 2 1 1
0 2 2 2 0 2 2 2
= 0 (Car deux colonnes sont identiques) et =1×2×3×4=
0 3 3 3 0 0 3 3
0 4 0 4 0 0 0 4
24 donc d=24.
2. On ne change pas la valeur d’un déterminant en remplaçant une colonnes/lignes par la
somme de celle-ci et d’une combinaison linéaire des autres colonnes/lignes.
3. On ne change pas la valeur d’un déterminant en remplaçant (simultanément) chaque
colonne/ligne par la somme de celle-ci et d’une combinaison linéaire des colonnes/lignes
précédentes/suivantes.

14.12.5 Déterminants d’ordre 2 et 3


Les formules vues précédement peuvent être retrouvées grâce à la règle de Sarrus. Attention
celle-ci n’est valable que pour n = 2 ou n = 3.

14.12.6 Déterminant de Vandermonde


Définition 14.128. Soit (x1,  , xn) ∈ Kn.
On appelle déterminant de Wandermonde, et on note V (x1, , xn), l’élément de K
défini par :
1 x1 x21  xn−1
1
V (x1,  , xn) = |
 
= det xij −1 .
1 xn xn  xn−1
i,j ∈N ∗
n
n

Proposition 14.129. ∀n ∈ N∗ ,∀(x1,  , xn) ∈ Kn,V (x1,  , xn) =


Qn
i>j ∈N ∗
n
(xi − x j ).

Corollaire 14.130. ∀(x1,  , xn) ∈ Kn,V (x1,  , xn) est non nul si et seulement si x1,  , xn sont
deux à deux distincts.

14.13 Rang et sous-matrice


Définition 14.131. Soit (n, p) ∈ (N∗)2 et une matrice A = (aij ) de Mn, p(K), (u, v) ∈ (N∗)2 ,
(i1,  , iu) ∈ {1,  , n}u , i1 <  < iu


(j1,  , jv ) ∈ {1,  , n}v , j1 <  < ju


On appelle sous-matrice ( ou matrice extraite ) de A, par utilisation des lignes i1,  , iu et
colonnes j1,  , jv, la matrice (aikj ) 16k6u de Mu,v (K).
16l6v
 
  a b c d
a c d
Exemple 14.132. La matrice est une sous-matrice de  a ′ b ′ c ′ d ′ , par
a ′′ c ′′ d ′′
a ′′ b ′′ c ′′ d ′′
utilisation des lignes 1,3 et des colonnes 1,3,4.

Théorème 14.133. Pour toute matrice A de Mn, p(K), le rang de A est égal à l’ordre
maximum des sous-matrices carrées inversibles extraites de A.
 
2 1 4 −3
Exemple 14.134. Quel est le rang de A = ∈ M2,4(R) ?
4 0 6 1
rg(A) 6 2, puisque A ∈ M2,4(R).
14.14 Réduction des matrices carrées 159

 
2 1
D’autre part la matrice d’ordre 2 extraite de A est inversible ( car son déterminant
4 0
-4 est  0 ).
Conclusion : rg(A) = 2.

Corollaire 14.135. Pour toute matrice A de Mn, p(K), rg(tA) = rg(A).

14.14 Réduction des matrices carrées


Soit K un corps commutatif.

14.14.1 Eléments propres, spectre et rayon spectral


14.14.1.1 Valeur ou vecteur propres

Définition 14.136. Soit n ∈ N∗ et A ∈ Mn(K).


1. Soit λ ∈ K, on dit que λ est une valeur propre (vp) de A si et seulement si :
∃X ∈ Mn,1(K), (X  0 et A.X = λX).
2. Soit X ∈ Mn,1(K), on dit que X est un vecteur propre ( vp) de A si et seulement si :
X  0 et (∃λ ∈ K; A.X = λX).
3. Soit λ ∈ K et X ∈ Mn,1(K) − {0}.
"λ et X sont des valeurs propres et vecteurs propres associés"
si et seulement si : A.X = λX.

Remarque 14.137. Les valeurs propres et vecteurs propres sont globalement appelés éléments
propres.

Proposition 14.138.
1. les valeurs propres d’une matrice hermitiene sont réelles.
2. Les valeurs propres d’une matrice unitaire sont complexes de module 1.
Pn Pn
Remarque 14.139. tr(A) = λii autrement dit i=1 λi, det(A) =
P
i=1 aii =
produit des valeurs propres c.s. page 16

Avertissement 14.140. Vp(A + B)  Vp(A) + Vp(B), Vp(A B)  produit des valeurs propres.

14.14.1.2 Spectre, Sous-espace propre d’une matrice

Définition 14.141. Soit n ∈ N∗ et A ∈ Mn(K).


1. On appelle spectre de A et on note SpK (A) ou Sp(A) l’ensemble des valeurs propres de
A.
2. On appelle rayon spectral de A, et on note ρ(A), le réel > 0 défini par : ρ(A) =
maxλ∈Sp K (A) |λ|.

Proposition 14.142. Soit n ∈ N∗ , A ∈ Mn(K) et λ ∈ K, on a :


”λ ∈ SpK (A)” ⇔ ”Ker(A − λIn)  {0}” ⇔ ”A − λIn  GLn(K)” ⇔ ”rg(A − λIn) < n”.

Proposition 14.143. Soit n ∈ N∗ , A ∈ Mn(K) et λ ∈ K, on a :


Ker(A − λIn) est un sous-espace vectoriel formé des vp pour A associés à λ.

Définition 14.144. Soit n ∈ N∗ , A ∈ Mn(K) et λ ∈ K.


On appelle sous-espace propre pour A associé à la vp λ de A, le sev Ker(A − λIn) de
Mn,1(K). On le note SEP(A, λ).
160 Matrices

SEP(A, λ) = Ker(A − λIn)

14.14.2 Polynôme caractéristique


Proposition 14.145. Soit A ∈ Mn(K), det(A − X.In) est un polynôme à une indéterminée
K[X].

Définition 14.146. Soit A ∈ Mn(K).


Le polynôme det(A − X.In), appelé polynôme caractéristique de A.
Proposition 14.147.
1. Deux matrices carrées semblables ont même polynôme caractéristique.
2. Les racines du polynôme caractéristique d’une matrice carrée A constituent le spectre de
−1
A. Autrement dit SpK (A) = χA ({0}).

Définition 14.148. Soit A ∈ Mn(K), λ0 une valeur propre de A.


On appelle ordre de multiplicité de λ0 , l’ordre de multiplicité de λ0 en tant que racine du
polynôme caractéristique de A.

Proposition 14.149. Soit A ∈ Mn(K), pour toute vp simple λ0 de A, la dimension de SEP(A,


λ0) vaut 1.

14.14.3 Diagonalisabilité
Définition 14.150. Soit A ∈ Mn(K).
On dit que A est diagonalisable si et seulement s’il existe une matrice diagonale D de
Mn(K) telle que A soit semblable à D.
Autrement dit, ∃P ∈ GLn(K) et ∃D ∈ Dn(K) telles que A = PDP −1.

Remarque 14.151.
1. Si A est diagonalisable, on appelle diagonalisation de A, la donnée de P , D, (P −1).
2. Diagonaliser, c’est déterminer P , D, (P −1).
3. Sauf exception, il n’y a pas unicité d’une diagonalisation (P et D ne sont pas uniques).
4. Une matrice est diagonale ⇔ il existe une base de vecteurs propres.

Théorème 14.152. Soit A ∈ Mn(K). A est diagonalisable si et seulement si :


• Le polynôme caractéristique de A est scindé sur K.
• Pour chaque vp λ de A, dim(SEP(A, λ)) est égale à l’ordre de multiplicité de λ.

Corollaire 14.153. Soit A ∈ Mn(K). Si A admet n valeurs propres deux à deux distinctes,
alors A est diagonalisable.

14.14.4 Polynômes de matrices

14.14.5 Application de la diagonalisation

14.14.6 Trigonalisationbilité
Définition 14.154. Soit A ∈ Mn(K).
On dit que A est trigonalisable si et seulement s’il existe une matrice triangulaire T de
Mn(K) telle que A soit semblable à D.
14.16 Valeur singulière d’une matrice rectangulaire 161

Autrement dit, ∃P ∈ GLn(K) et ∃T ∈ Tn,s(K) ∪ Tn,i(K), telles que A = PTP −1.

Remarque 14.155.
1. Si A est trigonalisable, on appelle trigonalisation de A, la donnée de P , T , (P −1).
2. Trigonaliser, c’est déterminer P , T , (P −1).
3.
4.

Théorème 14.156. Soit A ∈ Mn(K).


"A est trigonalisable" ⇔ "Le polynôme caractéristique de A est scindé sur K."

Corollaire 14.157. Toute matrice carrée A ∈ Mn(C) (n > 1) est trigonalisable et la matrice
triangulaire possède une diagonale formée par les valeurs propres

14.14.7 Polynômes annulateurs

14.14.8 Décompostion de Dunford

14.14.9 Réduction de Jordan

14.14.10 Réduction de matrices symétriques réelle

14.14.11 Réduction des matrices hermitienne


Proposition 14.158. Une matrice hermitienne est diagonalisable dans une base orthonormée
de vecteur propre.

14.15 Blocs

14.16 Valeur singulière d’une matrice rectangulaire


Théorème 14.159. Soit A ∈ Mn, p(K)
1. La matrice A∗A est une matrice carrée.
2. Si A est de rang = p alors, la matrice A∗A est hermitienne définie positive.
3. Si A est de rang < p alors, la matrice A∗A est hermitienne semi-définie positive.

Définition 14.160. Soit A ∈ Mn,p(K) et (λi)i=1, ,p les√valeurs propres de A∗A.


On appelle valeurs singulières de A les nombres µi = λi .

Voir cours Schaum. Fiche déterminant rajouter det d’une matrice particulière :
-matrice circulaire,
-matrice de vandermonde.
14.16 Valeur singulière d’une matrice rectangulaire 163
Chapitre 15
Intégration selon Cauchy-Riemann et
Riemann
Rajouter un chapitre pour l’intégration des fonctions d’une variable réelle à valeurs dans un
espace vectoriel . Voir Monier Tome 3 page 138-175 et 181-229

15.1 Intégrale de Riemann


Définition 15.1. Soient a, b ∈ R; a < b.
• On appelle subdivision de l’intervalle [a, b] toute suite finie strictement croissante
(si)06i6n de nombres réels tels que s0 = a et sn = b.
• On appelle pas d'une subdivision la borne supérieure des longueurs des intervalles ]si ,
si+1[.

Définition 15.2. Soient f une fonction f : [a, b] → R numérique et une subdivision S = (si) du
appelle somme de Riemann associée à f relativement à cette subdivision
segment [a, b]. On P
toute somme : R = 16i6n (si − si−1)f (ξi) où ∀i ∈ [1, n], ξi ∈ [si−1, si[.

RAjouter Sommes de Darboux associées à f ... Voir cours Goldman

Définition 15.3. On dit qu’une fonction f : [a, b] → R est intégrable au sens de Riemann-
Cauchy ou Riemann-Cauchy-Intégrable ou encore RC-Intégrable sur [a, b] ssi il existe
un nombre réel α tel que pour tout nombre réel ε > 0, il existe un nombre réel η > 0 tel que, pour
toute subdivision S = (si) de pas inférieur à η et pour toute somme de RRiemann ou de Darboux
b Pn
associée à f relativement à cette division |R − α| 6 ε ou |D − α| 6 ε. a
f (t) dt = i=1 (si −
si−1)f (ξi) où ∀i ∈ [1, n], ξi ∈ [si−1, si[. (à vérifier)
R bDans ce cas α est appelée intégrale dénie de la fonction f sur le segment [a, b] et notée :
a
f (t)dt, a, b sont respectivement les bornes inférieure et supérieure de l’intégrale de f.

Proposition 15.4.
1. f intégrable ⇒ f bornée. Autrement dit : si f n’est pas bornée alors f n’est pas intégrable.

2. Les fonctions continues, les fonctions monotones sont intégrables.


3. Critère de Cauchy (pour les fonctions continues) Cauchy l’a Rmontré pour les fonctions
b
continues sur [a; b], elles sont intégrables sur [a; b]. On a f (t) = lim (xi+1 −
P
a
xi)M (i, n) = lim (xi+1 − xi)m(i, n). Propriété page 7 du cours de Goldman.
P

4. Critère de Riemann (pour les fonctions bornées) Riemann l’a montré pour les fonctions
bornées elles sont intégrables si et seulement si il existe au moins une subdivision telle que
laR somme de Darboux converge vers 0. Dans ce cas pour toute subdivision (Si),
b
f (t) = lim (xi+1 − xi)M (i, n) = lim (xi+1 − xi)m(i, n). Propriété du cours de
P P
a
Goldman.
5. Si une fonction f : [a, b] → R est intégrable au sens de Riemann alors la fonction |f | l’est
R b R b
aussi et l’on a : a
f (t)dt 6 a |f (t)|dt.

6. Conséquence immédiate si f est intégrable alors sup[a,b] (f ) et inf[a,b] (f ) sont aussi inté-
grables. (E([a, b]), + , × ) est un espace vectoriel reticulé (à vérifier et à intégrer dans la
suite).

Remarque 15.5.

164
15.1 Intégrale de Riemann 165

15.1.1 Structures construites sur E([a, b])


Proposition 15.6. Notons E([a, b]) l’ensemble des fonctions intégrables sur [a, b].
1. (E([a, b]), + , × , · ) est une sous-algèbre pleine de l’algèbre unitaire des fonctions numéri-
ques bornées sur [a, b], autrement dit E([a, b]) est stable par addition, multiplication par
un réel, multiplication (l’addition de 2 fonctions intégrables est intégrable, la multiplica-
tion par un réel d’une fonction intégrable sur [a, b] est intégrable, la multiplication de
deux fonctions intégrables est intégrable, l’identité est intégrable, l’application inverse si
elle existe d’une fonction intégrable est intégrable) sans oublier les autres propriétés des
lois : + , × , · . C’est cette propriété qui justifie l’intégrabilité des fonctions construites
uniquement à l’aide des lois : + , × , · .
2. L’application f  R b
a
f (t)d t est une forme linéaire croissante, sa restriction au sous-
espace vectoriel des fonctions continues sur [a, b] est strictement croissante.
3. L’application (f , g)  R b
a
f (t)g(t)d t est une forme bilinéaire symétrique positive sur
(E([a, b]), + , × ) par conséquent (E([a, b]), + , × , < . > ) est un espace préhilbertien réel.

qR
b 2
f a
f (t)dt est une semi-norme. L’inégalité de Schwarz s’écrit :
R 2 R
b b R b
a
f (t)g(t)dt 6 a f 2(t)dt a g 2(t)dt.

4. La restriction de cette forme bilinéaire symétrique positive au sous-espace vectoriel des


fonctions continues sur [a, b] est non dégénérée par conséquent (E([a, b]), + , × , < . > ) est

qR
b 2
un espace euclidien. f a
f (t)dt est une norme.

Remarque 15.7. Dans le cadre de la théorie de Lebesgue, on perd la stabilité des fonctions
Riemann-Intégrables pour la multiplication. Si deux fonctions sont Riemann-Intégrales alors leur
produit est Riemann intégrable.

15.1.2 Première formule de la moyenne


Proposition 15.8. Soient f , g deux fonctions numériques bornées et intégrales sur un intervalle
fermé borné [a, b], a < b. Soit (m, M ) un couple de nombre réels tel que m 6 f 6 M alors :
R b R b R b
i. m × a g(t)dt 6 a f (t) × g(t)dt 6 M × a g(t)dt.
R b
ii. en particulier si g = 1, m × (b − a) 6 a f (t)dt 6 M × (b − a).
1 R b
iii. si f est continue alors il existe un point c de ]a, b[ tel que f (c) = b − a a f (t).

15.1.3 Valeur moyenne d’une fonction


Proposition 15.9. Soit f une fonction intégrable sur un intervalle [a, b]. Alors :
1 P b−a 1 R b
i. limn→+∞ n nk=1 f (a + k n ) = b − a a f (t).
1 P b−a 1 R b
ii. limn→+∞ n + 1 nk=0 f (a + k n ) = b − a a f (t).

Définition 15.10. Soit f une fonction intégrable sur un intervalle [a, b].
1 R b
Le nombre b − a a f (t) est appelé valeur moyenne de la fonction f sur l’intervalle [a, b].

15.1.4 Intégrale sur la réunion de segments adjacents (Relation de Chasles)

Proposition 15.11. Soit a, b, c trois nombres réels tels que a < b < c et f une fonction numé-
rique bornée sur [a, c]. Pour que f soit intégrable sur [a, c], il faut et il suffit qu’elle le soit sur
[a, b] et sur [a, c]. Dans ces conditions :
166 Intégration selon Cauchy-Riemann et Riemann

R c R b R c
a
f (t)dt = a
f (t)dt + b
f (t)dt.

15.1.5 Changement de variable


Proposition 15.12. Soient ϕ une fonction numérique continûment dérivable sur un intervalle
fermé borné [a, b] et f une fonction numérique continue sur un intervalle I contenant l’image de
[a, b] par ϕ alors :
R b R ϕ(b)
a
f (ϕ(t)) × ϕ ′(t)dt = ϕ(a) f (t)dt.

15.1.6 Intégration par parties


Proposition 15.13. Soient f et g deux fonctions numérique continûment dérivables sur un
intervalle
R b fermé borné [a, b]. Alors :R
b b
a
f (t) × g ′(t)dt = [f (t) × g(t)]a − a f ′(t) × g(t)dt.

15.1.7 Fonction définie par une intégrale

15.1.8 Application g: x R x
a
f (t)dt : dite «intégrale de sa borne supérieure»

15.1.8.1 Continuite, variation

Proposition 15.14. Soit f une fonction numérique définie, bornée et intégrable sur un inter-
valle fermé borné [a, b] de R. Alors, pour tout Rpoint x ∈ [a, x]. La fonction :
g: x a
x
f (t)dt 
i. g est définie sur [a, b].
ii. g est continue sur [a, b].
iii. si f est positive g est croissante sur [a, b].
iv. si f est négative g est décroissante sur [a, b].
v. si f est continue en un point x0 ∈ [a, b], g est dérivable en x0 et g ′(x0) = f (x0).

15.1.8.2 Dérivabilité, primitive et intégrale

Proposition 15.15. Soit f une fonction numérique continue sur un intervalle I de R.


i. La fonction f admet une primitive sur I.
ii. L’unique primitive de f s’annulant en a ∈ I est : F : x f (t)dt. R x
a
R x
iii. Réciproquement si F est une primitive de f et a, b ∈ I alors a f (t)dt = F (x) − F (a).

15.1.8.3 Intégrale convergente et intégrale généralisée ou impropre Intégrale sur un


intervalle non borné ou borné ouvert : [a, b[,]a, b], ]a, b[ de R

Définition 15.16. Soit I un intervalle de R de la forme [a, b[ (resp. ]a, b]) où a ∈ R, b ∈ [a, +
∞](resp. b ∈ R, a ∈ [ − ∞, b]) et f une fonction numérique définie sur I, bornée et intégrable sur
tout
R x intervalle fermé borné
R b contenu dans I. Soit g la fonction numérique définie par g: x 
a
f (t)dt (resp. g: x x

f (t)dt).
− On dit que que l’intégrale de f sur [a, b[ (resp. ]a, b]) est convergente ssi g admet un
limite en b (resp. a). Sinon on dit qu’elle est divergente.
R b R x R b
− Cette limite se note alors a
f (t)d t : limx→b a
f (t)d t = a
f (t)d t (resp.
R b R b
limx→a x f (t)dt = a f (t)dt).
15.1 Intégrale de Riemann 167

Définition 15.17. Soit I un intervalle de R de la forme ]a, b[ où a ∈ R, b ∈ [a, + ∞] et f une


fonction numérique définie sur I, bornée et intégrable sur tout intervalle fermé borné contenu
dans I.
− On dit que que l’intégrale de f sur ]a, b[ est convergente ssi il existe un point c ∈ ]a, b[
tel que les intégrales sur ]a, c], [c, b[ soient convergentes. Sinon on dit qu’elle est diver-
gente.
R c R b R b
− Si elle est convergente, la valeur de a f (t) + dt c f (t)dt se note a f (t)dt.

15.1.8.4 Critères de convergence pour des fonctions positives


Plus que les théorèmes se sont les démonstrations qu’il faut retenir. ?A l’laide d’une primitive?

Remarque 15.18. Lorsqu’on connait une primitive de la fonction, on peut utiliser cette primi-
tive pour décider de la convergence.

Rajouter le critère de Cauchy : livre Genet page 31.

Proposition 15.19. Soit f une fonction positive sur un intervalle de la forme [a, b[, bornée et
intégrable sur tout intervalle fermé borné
R x contenu dans [a, b[. L’intégrale de f sur [a, b[ converge
si et seulement si la fonction g: x  a
f (t)dt est majorée.

Proposition 15.20. Pour décider de la convergence d’une intégrale, on peut utiliser les inté-
grales de référence suivantes :
L’intégrale sur avec de la fonction est convergente ssi divergente ssi
1 ]0, b] b>0 
x x α
α>−1 α6−1
2 [a, + ∞[ a>0 
x xα α<−1 α>−1
3 [a, b[ a<b 
x (b − x)α α>−1
4 [a, + ∞[ 
a > 1 x x β(ln(x))α β < − 1 ou (β = − 1, α < − 1)
5 ]0, b[ 
b ∈ ]0, 1[ x x β |ln(x)|α β > − 1 ou (β = − 1, α < − 1)

Monier Analyse 2 page 115

Note 15.21.
i. Les intégrales définies dans les lignes (1), (2) et (3) sont appelées intégrales de Riemann.
ii. Les intégrales définies dans les lignes (4) et (5) sont appelées intégrales de Bertrand.

Exemple 15.22. TD AR p. 28.

Proposition 15.23. (Comparaison des fonctions positives intégrables) Soit f , g des fonctions
positives sur un intervalle de la forme [a, b[, bornées et intégrables sur tout intervalle fermé
borné contenu dans [a, b[.
i. si f 6 g au voisinage de b et si l’intégrale de g est convergente alors l’intégrale de f est
aussi convergente.
ii. si f ∼ g au voisinage de b, alors l’intégrale de f converge ssi l’intégrale de g converge.

Exemple 15.24.

Proposition 15.25. (Règle de Riemann) Soit f une fonction positive sur un intervalle de la
forme ]0, b] (resp. [a, + ∞[), bornée et intégrable sur tout intervalle fermé borné contenu dans
]0, b] (resp. [a, + ∞[).
On suppose qu’il existe α ∈ R tel que xαf (x) ait une limite β ∈ [0, + ∞] en + ∞.
l’intégrale de f sur est convergente si est divergente si
]0, b] α < 1, β ∈ [0, + ∞[ α > 1, β  0
[a, + ∞[ α > 1, β ∈ [0, + ∞[ α 6 1, β  0

Exemple 15.26. sur [1, + ∞[, f (t) = tx−1e−t est positive et bornée sur [1, + ∞[. Soit γ(t) =
t2 f (t) = tx+1e−t, limt→+∞ γ(t) = 0 donc l’intégrale de f converge.
168 Intégration selon Cauchy-Riemann et Riemann

15.1.8.5 Convergence absolue

Définition 15.27. Soit f une fonction numérique définie sur [a, b[, intégrable sur tout inter-
valle fermé et borné contenu dans [a, b[.
On dit que l’intégrale d’une fonction f sur [a, b[ est absolument convergente ssi l’intégrale
de |f | sur [a, b[ est convergente.

Proposition 15.28. Si l’intégrale d’une fonction f sur [a, b[ est absolument convergente
alors l’intégrale de f est convergente. <frak-u>Autrement dit, convergence absolue ⇒ conver-
gence.

Remarque 15.29. La réciproque n’est pas vraie ce qui justifie la définition de la section sui-
vante.

15.1.8.6 Semi-convergence

Définition 15.30. On dit que l’intégrale d’une fonction f sur [a, b[ est semi-convergente ssi
elle est convergente sans être absolument convergente.
+∞ sin(x) π +∞ sin(x)
Exemple 15.31. mais dx n’est pas convergente.
R R
0 x
dx = 2 0 x

15.1.9 Application g: x
mètre»
R b
a
f (x, t)d t : dite «intégrale dépendant d’un para-

Transformer les propositions suivantes en propriétés.

Proposition 15.32. Soit une fonction f : [a, b] → R numérique bornée, pour toute subdivision
S = (si) du segment [a, b] on pose :
i. Sm(f , S) = 16i6n (si − si−1)inf[si−1,si[ (f ),
P

ii. SM (f , S) = 16i6n (si − si−1)sup[si −1,si[ (f ),


P

Sm(f , S) et SM (f , S) admettent respectivement une borne supérieure et une borne inférieure.

Définition 15.33. On dit qu’une fonction f : [a, b] → R est intégrable au sens de Riemann ssi :
i. la fonction f est bornée.
ii. la borne supérieure de m(f , S) est égale à la borne inférieure de M (f , S).
La valeur communeR b de ces bornes est appelée intégrale dénie de la fonction f sur le segment
[a, b] et notée : a f (t)dt.

Définition 15.34. Soit une fonction f : [a, b] → R numérique bornée et A une partie du segment
[a, b]. On appelle oscillation de f dans A et on note ω(f , A) la différence supA (f ) − infA (f ).

Proposition 15.35. Soit une fonction f : [a, b] → R numérique bornée. Pour que f soit inté-
grable au sens de Riemann, il faut et il suffit que la condition suivante soit satisfaite :
P Lorsque le pas de la subdivision S tend vers 0, la quantité SM (f , S) − Sm(f , S) =
16i6n (si − si−1)ω(f , [si−1, si[) tend vers 0.

15.1.10 Intégrales classiques


15.1.10.1 Intégrale de Walis
R π R π
In = 02 cosn(x)dx = 02 sinn(x)dx, ∀n ∈ N.
15.1 Intégrale de Riemann 169

(2p)! π 22p(p!)2
I2p = 22p(p!)2 2
et I2p+1 = (2p + 1)!

15.1.10.2 Intégrales d’Euler


R π R π π
2 ln(cos(x))d x = 2 ln(sin(x))d x = − ln(2).
0 0 2

15.1.10.3 Intégrale de Poisson


R π
0 R
ln(x2 − 2x cos(t) + 1)dt = 0, si |x| 6 1,
π
0
ln(x2 − 2x cos(t) + 1)dt = 2πln|x|, si |x| > 1

15.1.10.4 Fonction gamma (ou Fonctions eulériennes de deuxième espèce)


R +∞ −t x−1
Γ(x) = 0 e t dt, x > 0.
Γ(x + 1) = xΓ(x); Γ(n  ∈ N. 
+ 1) = n!, n
√ (2 n)! √
  R +∞ −u2
1 1
Γ 2 =2 0 e du = π , Γ n + 2 = 22n n! π
π
Formule des compléments : Γ(x)Γ(1 − x) = sin(πx) , 0 < x < 1

Formule de Stirling : Γ(x + 1) ∼ xxe−x 2πx au voisinage de + ∞.

15.1.10.5 Fonction bêta (ou Fonctions eulériennes de première espèce)


Γ(p)Γ(q)
B(p, q) = Γ(p + q)
, p > 0, q > 0.
R 1 p−1 +∞ u q −1 1
(1 − t) q −1dt = (cos(x))2p−1(sin(x))2q −1dx.
R R
B(p, q) = 0 t 0 (1 + u) p+ q
du = 2 0

15.1.10.6 Intégrale de Dirichlet


R +∞ sin(x) R +∞ sin 2(x) π
0 x
dx = 0 x2
dx = 2
15.1 Intégrale de Riemann 171
Chapitre 16
Mesure et Intégrale de Lebesgue
Lire le livre de J. Genet (important pour tout ce qui est terminologie). Attention aux termes :
ensembles et familles !
Quelle surprise ! Il existe d’autres intégrales que l’intégrale de Riemann que l’on enseigne en
classe Terminale ou en premier Cycle. Ce qui me révolte c’est qu’il faut arriver à la fin du pre-
mier cycle pour que ces intégrales soient évoquées. Voici donc une introduction qui pourrait
servir à plusieurs cours sur l’intégration. Les intégrales sont présentées par ordre chronologique
de découverte.
L’intégrale de Cauchy,
L’intégrale de Riemann,

L’intégralle de Lesbesgues que l’on enseigne en deuxième cycle à été découverte par Les-
besgues en 1902. Elle étend le domaine d’intégration de l’intégrale de Riemann tout en coïnci-
dant avec elle sur ce domaine ( ont dit qu’elle est plus puissante ). Son enseignement repose sur
la théorie de la mesure ce qui rend son enseignement assez complexe.
L’intégrale de Kurzweil et Henstock n’est apparemment pas enseignée en France, elle a
été découverte par Kurzweil et Henstock respectivement en 1957 et 1961. Ils ont utilisé des che-
mins différents mais leurs constructions se sont avérées équivalentes. Elle étend également de
domaine d’intégration de l’intégrale de Lesbesgues tout en coïncidant avec elle ( elle est donc
plus puissante ). Le seul livre en langue française est imprimé par un éditeur belge puisque c’est
à l’université de Louvain que son auteur l’enseigne. Elle se définie à un détail près comme une
intégrale de Riemann, ce qui rend sa construction assez aisée.
C’est à travers plusieurs articles que j’ai pu les découvrir et prendre conscience des problèmes
liés à leur enseignement.

16.1 Enseignement de l’intégration


En l’an 2001 l’intégrale de Lebesgue fêtait son centième anniversaire, l’académie des sciences et
d’autres établissements comme l’ENS de Lyon n’ont pas manqué de le célébrer. Mais force est
de constater qu’un élève arrêtant ses études en terminale ne connaitra ni Cauchy, ni Riemann,
qu’un étudiant de DEUG ignorera l’existence de l’intégrale de Lebesgue pourtant mondialement
connue et enfin un étudiant de licence n’entendra pas parler des extensions ultimes de cette inté-
grale que sont les intégrales de Denjoy, Perron, Kurzweil et Henstock. L’enseignement du calcul
intégral suit actuellement, dans le programme français, un cheminement tortueux et certains
enseignants le trouvent déroutant pour les étudiants. Mais les difficultés liées à l’enseignement
rendent cette progression indispensable. L’intégrale de Kurzweil et Henstock semble, pour cer-
tains, être l’opportunité idéale pour remettre un peu d’ordre. C’est cette quête, je me propose
de faire découvrir à travers ce mémoire.
Dans un premier temps, il semble indispensable de retracer à travers un bref historique, la
découverte de chacune des théories de l’intégration en essayant de faire apparaître la motivation
de chaque approche. Puis nous ferons le constat sur l’enseignement de l’intégration, les motiva-
tions et difficultés liées à cet enseignement qui poussent à enseigner une approche plutôt qu’une
autre. Enfin nous donnerons la définition de base de chaque théorie ainsi qu’une illustration de
chaque concept. On exposera les avantages et inconvénients de chaque intégrale. Il s’agira d’un
simple rappel avec un renvoi au cours cités précédemment, sauf pour l’intégrale de Kurzweil et
Hentosck qui sera développée plus en détail avec quelques exemples.

172
16.1 Enseignement de l’intégration 173

16.1.1 Bref Historique


16.1.1.1 Mise en place intuitive
Le signe est introduit par Leibniz en 1675, le mot "intégrale" apparaît avec Jacques Bernouilli
R

en 1690. Mais pendant toute cette période, le calcul intégral relève de la démarche expérimen-
tale et aucune définition formelle n’est donnée.

La notion de fonction continue, nécessaire à la définition de l’intégrale, n’est pas encore éta-
blie; elle est perçue intuitivement mais n’est pas définie. Il faut attendre Bolzano (1817) et
Cauchy (1821) pour une formulation plus précise.
b
La notation f (t)dt est employée par Fourier en 1822.
R
a

16.1.1.2 Première définition par Cauchy


C’est en 1823 que les bases de l’intégration sont posées par Augustin Cauchy (Voir Annexe 1).
Voici comment Henri Lebesgue décrira plus tard cette étape :
« Avant Cauchy il n’y avait pas de définition de l’intégrale, au sens actuel du mot définition.
On se bornaitR b à dire quelles étaient les aires qu’il fallait additionner ou soustraire pour obtenir
l’intégrale a
f (t)d t. Pour Cauchy, une définition est nécessaire car avec lui apparait le souci
de rigueur qui est la caractéristique des mathématiques modernes. Cauchy définit, à peu près
comme nous le faisons maintenant, les fonctions continues et lesPintégrales de ces fonctions. Pour
arriver à l’intégrale de f (x), il suffit de former les sommes S = f (ξi)(xi+1 − xi) que les arpen-
teurs et tous les Rmathématiciens de tous les siècles ont utilisées pour le calcul approché des aires
b
et d’en déduire a f (x)dx par un passage à la limite.
Seulement tandis que la légitimité d’un tel passage était évidente pour qui partait de la
notion d’aire, Cauchy doit démontrer que les S tendent bien vers une limite dans les conditions
qu’il envisage. Une nécessité analogue s’impose chaque fois qu’on remplace par une définition
purement logique l’emploi d’une notion expérimentale.»
(Conférence faite à Copenhage, le 8 mai 1926).

16.1.1.3 Généralisation par Riemann


Cauchy est relayé par Riemann en 1854 et le concept se généralise. Les sommes indiquées dans
la définition de Cauchy, permettaient depuis longtemps de calculer des intégrales. Riemann
s’emploiera à revoir cette définition et à utiliser la convergence des sommes S = fi(xi+1 − xi)
P
P ¯ ¯
et S = fi (xi+1 − xi) comme condition nécessaire et suffisante d’intégrabilité ( fi et f¯i sont
¯
respectivement les bornes inférieure et supérieure de f (x) dans (xi , xi+1).
L’analyse de Lebesgue toujours au cours de la conférence de Copenhage n’est pas tendre :
« Du point de vue logique, voici des définitions très naturelles, n’est ce pas ? Pourtant, on
peut dire qu’elles n’ont pratiquement servi à rien. Celle de Riemann, en particulier, a l’inconvé-
nient de ne s’appliquer que rarement et, en quelque sorte, par hasard.»

16.1.1.4 Nouvelle approche de Lebesgue


A peine en place, l’intégrale de Riemann doit faire face à la multiplication des contre-exemples,
aux difficultés de mise en oeuvre pour des opérations dénombrables. La notion d’intégrale n’a
donc cessé d’évoluer jusqu’à atteindre sa forme optimale grâce à Lebesgue en (1901,1902). Por-
teur d’une idée simple et géniale, il lance le calcul intégral sur une nouvelle voie qui reste tout de
même difficilement praticable.
Mais l’intégrale de Lebesgue a marqué un net progrès par rapport à l’intégrale de Riemann,
en ce qu’elle s’est révélée capable d’intégrer une classe bien plus étendue de fonctions, qu’elle a
résolu le problème des primitives pour les fonctions bornées, qu’elle a permis d’énoncer des théo-
rèmes de convergence très efficaces, et qu’elle a produit une Théorie de la Mesure apte à se géné-
raliser dans diverses situations.
Dans son intervention à Copenhage, Lebesgue présente sa démarche de la manière suivante :
174 Mesure et Intégrale de Lebesgue

«... avec le procédé de Riemann, on essayait de sommer les indivisibles en les prenant dans
l’ordre où ils étaient fournis par la variation de x, on opérait donc comme le ferait un commer-
çant sans méthode qui compterait pièces et billets au harsard dans l’ordre où ils lui tomberaient
sous la main, tandis que nous opérons comme le commerçant méthodique qui dit :
− j’ai m(E1) pièces de 1 couronne valant 1 · m(E1),
− j’ai m(E2) pièces de 2 couronnes valant 2 · m(E2),
− j’ai m(E3) pièces de 5 couronnes valant 5 · m(E3),
− etc, j’ai donc en tout :
− S = 1 · m(E1) + 2 · m(E2) + 5 · m(E3) +  .
Les deux procédés conduiront, certes, le commerçant au même résultat parce que si riche qu’il
soit, il n’a qu’un nombre fini de billet à compter; mais pour nous, qui avons à additionner une
infinité d’indivisible, la différence entre les deux façons de faire est capitale.»
16.1.1.5 On peut encore faire mieux !
Mais même l’intégrale de Lebesgue doit faire face à certaines difficultés: elle ne permet par
d’intégrer toutes les dérivées, d’autre part si deux fonctions sont intégrables au sens de
Lebesgue, leur produit ne sera pas necéssairement intégrable au sens de Lebesgue (alors que
cette propirété est vraie pour l’intégrale de Riemann). Ce sont Arnaud Denjoy (1912) et Oskar
Perron (1914) de manières indépendantes mais équivalentes qui la perfectionneront (l’équiva-
lence des intégrales de Denjoy et Perron est établi par Hake 1921 et 1925).
Leurs constructions sont encore plus compliquées que celle de l’intégrale de Lebesgue. De
plus, il s’agit d’intégrales non absolues : l’intégrabilité de f n’implique pas celle de |f |. En fait,
c’est la rançon à payer pour que toutes les dérivées soient KH-intégrables or cette propriété est
R b R b
importante en analyse pour toutes les démonstrations utilisant la relation a
fdt 6 a |f |dt.
On montre également que les fonctions f qui sont L-intégrables sont exactement les fonctions
f intégrables au sens de Denjoy-Perron telles que |f | soit aussi KH-intégrable.
Tout ceci limitera l’utilisation de cette extension.
16.1.1.6 Ce n’est pas fini ... Riemann est de retour !
Mais voici que deux mathématiciens Jaroslav Kurzweil et Ralph Henstock découvrent à quelques
années d’intervalle (resp. 1957 et 1961,1963) une nouvelle intégrale «plus puissante que l’inté-
grale de Lebesgue». Nouvelle pas exactement en fait, il s’avère qu’elle est équivalente aux inté-
grales de Denjoy et Perron. La nouveauté c’est son extrême simplicité puisqu’elle se définit à un
détail près comme une intégrale de Riemann. Voilà donc une intégrale qui fédère toutes les défi-
nitions vues précédemment et dont la facilité d’apprentissage est incomparable par rapport à
celle de ces concurrentes.

16.1.2 Photographie de l’enseignement actuel


Comment enseigne-t-on l’intégrale de nos jours ? La démarche semble respecter une progression
historique.
16.1.2.1 Premier contact en terminale
Il faut attendre la classe de terminale pour découvrir la notion d’intégrale (voir annexe 2) les
directives en limitent l’étude aux fonctions continues, à priori la définition de Cauchy suffirait,
mais aucune définition n’est donnée. Les textes précisent d’ailleurs que tout développement
théorique est exclu, le nom même de Cauchy n’est pas mentionné. On insiste sur la nécessité
d’une approche intuitive en associant l’intégrale à «l’aire sous la courbe», aire qui peut être
approchée par l’encadrement par deux suites adjacentes construites en quadrillant le plan. On
peut donc dire qu’historiquement nous nous trouvons dans l’ère pré-Cauchy.
Les propriétés générales comme la linéarité, la relation de Chasles et l’inégalité de la
moyenne, ne sont même pas démontrées.
Et enfin on établit un lien entre primitive, intégrale d’une fonction, c’est le premier théorème
démontré (partiellement) ce qui en fait le point central de ce cours.
16.1 Enseignement de l’intégration 175

Théorème 16.1. Si f est continue sur un intervalle I et si a ∈ I la fonction F définie par F :


x R x
a
f (t)dt est l’unique primitive de f sur I s’annulant en a.
R b
Puis on aborde le calcul de a f (t)dt à l’aide de primitive c’est à dire le «théorème fonda-
mental du calcul différentiel et intégral» :

Théorème 16.2. Si f une fonction numérique continue sur un intervalle I de R, et admet une
R b
primitive F alors a f (t)dt = F (b) − F (a).

Le calcul intégral se limite donc à une recherche de primitive. Pour finir, on étudie une tech-
nique très courante du calcul intégral, l’intégration par partie.

16.1.2.2 Apparition du formalisme en BAC+2


A la trappe Cauchy. En DEUG/Classe préparatoire, on enchaîne directement sur Riemann. On
retrouve la définition tant méprisée par Lebesgue :
A partir de là, on développe la théorie de l’intégrale de Riemann en n’oubliant pas de pré-
ciser que les fonctions continues (autrement dit les fonctions Cauchy-intégrables) ne sont qu’une
partie des fonctions R-intégrables :
...

Proposition 16.3. Si une fonction f : [a, b] → R est intégrable au sens de Riemann alors la fon-
R b R b
ction |f | l’est aussi et l’on a : a
f (t)dt 6 a |f (t)|dt.

...
On construit sur l’ensemble un structure d’algèbre (les propriétés pressenties en Terminale
sont formalisées) et en particulier, :
...

Proposition 16.4. Si deux fonctions sont Riemann-intégrables alors leur produit est Riemann-
intégrable.

On peut même obtenir une structure d’espace préhilbertien et d’espace normé. Relation de
Chasles, changement de variable.

On étudie également des fonctions définies par une R-intégrale


− application g: x  R x
a
f (t)d t dite «intégrale de sa borne supérieure» déjà vue en termi-
R b
nale et permettant d’établir le théorème fondamental a f (t)dt = F (b) − F (a), on rajou-
tera ici la notion de R-intégrale généralisée dite également R-intégrale impropre ou encore
intégrale convergente, de convergence absolue, de semi-convergence en donnant certains
critères.
− application g: x  R b
a
f (x, t)dt dite «intégrale dépendant d’un paramètre».

16.1.2.3 Au delà, il faut tout reprendre !


Les étudiants arrivent en licence/école d’ingénieur et la première citation qu’on leur offre à
propos des acquis précédents c’est la réflexion de Lebesgue : « Du point de vue logique, voici des
définitions très naturelles, n’est ce pas ? Pourtant, on peut dire qu’elles n’ont pratiquement servi
à rien. Celle de Riemann, en particulier, a l’inconvénient de ne s’appliquer que rarement et, en
quelque sorte, par hasard.»
Puis on ajoute, il faut tout reprendre en commençant par la théorie de la mesure puis en
donnant la construction de Lebesgue.
J’ai déjà exposé l’idée de Lebesgue, il réarrange l’espace de départ de la fonction à intégrer
afin de regrouper les valeurs ayant la même image et faire un compte d’épicier selon son expres-
sion. Si le principe semble simple, la mise en oeuvre est toute autre car il faut introduire toute
une gamme d’outils :
− algèbre, anneau, tribu d’ensemble,
176 Mesure et Intégrale de Lebesgue

− fonction mesurable,
− mesure.
Pour pouvoir enfin définir l’intégrale de Lebesgue et les fonctions Lebesgue-intégrables (L-inté-
grables).
Sur l’ensemble des fonctions L-intégrables, pour les fonctions définies par une intégrale, on
obtient les théorèmes de convergence dominée en particulier le plus «célèbre» :

Proposition 16.5. (Théorème de convergence dominée de Lebesgue)


Soit (fn) une suite de fonctions mesurables et la suite définie par ( fndµ). On suppose que
R
(fn) vérifie les hypothèses suivantes :
i. (fn) converge µ.p.p. vers une fonction mesurable f.
ii. ∃g ∈ L1(E , T , µ); g > 0, |fn | 6 g, µ.p.p., ∀n).
Il existe une fonction positive µ-intégrable g majorant tous les termes de la suite et
indépendante de l’indice de la suite.
(condition de dominationR : existence d’une majorante µ-intégrable) R
Alors f est µ-intégrable, fndµ converge vers fdµ, autrement dit,
R
fdµ < + ∞,
limn→+∞ |fn − f |dµ = 0 et limn→+∞ fndµ = fdµ .
R R R

Remarque 16.6. Dans le cadre de la théorie de Lebesgue, on perd la stabilité des fonctions
Riemann-intégrables pour la multiplication.

16.1.3 Exposé rapide des différentes théories


16.1.3.1 Intégrale de Riemann

Définition 16.7. Soient a, b ∈ R; a < b.


• On appelle subdivision pointée ou P-subdivision de l’intervalle [a, b] toute suite finie
strictement croissante Π = ((xi)06i6n , (ζ j )I 6 j 6n) de couples de nombres réels tels que
x0 = a et xn = b et ζi ∈ [xi−1, xi].
• On appelle pas d'une subdivision la borne supérieure des longueurs des intervalles ]xi ,
xi+1[.

Définition 16.8. Soient I = [a, b] un intervalle de R, f une fonction f : I → R numérique et une


Psomme de Riemann associée
subdivision Π = ((xi)06i6n , (ζ j )I 6 j 6n) du segment I. On appelle
à f relativement à cette subdivision toute somme : S(I , f , Π) = 16i6n (xi − xi−1)f (ζi).

Définition 16.9. Soit I = [a, b] un intervalle de R. On dit qu’une fonction f : I → R est inté-
grable au sens de Riemann ou Riemann-intégrable ou encore R-intégrable sur I si et
seulement s’il existe un nombre réel α tel que pour tout nombre réel ε > 0, il existe un nombre
réel δ > 0 tel que, pour toute P-subdivision Π de I de pas inférieur à δ et pour toute somme de
Riemann associée à f relativement à cette division, on ait : |S(I , f , Π) − α| 6 ε.
R bDans ce cas α est appelée intégrale dénie de la fonction f sur le segment [a, b] et notée :
a
f (t)dt, a, b sont respectivement les bornes inférieure et supérieure de l’intégrale de f.

Pour une fonction positive, cela revient à calculer tout simplement l’aire «sous la courbre
représentative de f ». La surface entre la courbe et l’axe des abscisses est découpée suivant la
subdivision de I, en rectangle dont on somme l’aire.

16.1.3.2 Intégrale de Lebesgue


...
On commence à la définir pour une fonction étagée positive : c’est à dire une fonction ne pre-
nant qu’un nombre fini de valeurs : (mk)16k6n.
16.1 Enseignement de l’intégration 177

Définition 16.10. Soit µ une mesure sur une tribu T de Ω, f une application étagée positive
telle que f = mk1Ak.
P
On appelle intégrale définie par rapport ou associée à µ l’application :
L µ: E¯+(T ) → [0,P + ∞] avec pour convention 0 × ( + ∞) = + ∞ × 0 = 0
f  mkµ(Ak)
L µ(f ) est appelée intégrale de f par rapport à µ. On la note fdµ ou
R R
f (x)dµ(x).

... et on étend la définition à une fonction mesurable positive :

Définition 16.11. Soit µ une mesure sur une tribu T de Ω.


Soit f une application mesurable positive.
On appelle intégrale définie par rapport ou associée à µ l’application :
L µ: L+(T ) → [0, + ∞]
f 
sup g ∈E+(T );g6 f (L µ(g))
L µ(f ) est appelée intégrale de f par rapport à µ. On la note fdµ ou
R R
f (x)dµ(x)

...
Une fonction intégrale est définie par :

Définition 16.12. Soit f : E → R̄+ une fonction mesurable réelle et µ une mesure.
• On Rdit que f est µ-intégrable par rapport à µ si et seulement si :
|f |dµ < + ∞.
Dans ce cas le nombre réel noté f dµ est appelé intégrale (de Lebesgue abstraite)
R

ou L-intégrale de f pour la mesure µ.

Encore un fois, on a calculé l’aire «sous la courbe», et λkµ(Ak) représente une approximation
P
de cette aire, correspondant à l’idée de réarrangement de Lebesgue.

16.1.3.3 Kurzweil-Henstock
Les sommes de Riemann sont la notion-clé de cette nouvelle intégrale!
Nous avons vu dans le cas de l’intégrale de Riemann que pour une fonction f positive, son
intégrale représente l’aire située sous la courbe représentative de cette fonction, et que la somme
de Riemann est une approximation de cette aire.
Supposons que l’on veuille empiriquement dessiner une somme de Riemann qui approche
cette intégrale du mieux possible. Spontanément, nous ferons varier le pas x j − x j −1 de la sub-
division en fonction de la manière dont varie f sur le segment [x j −1, x j ] qui contient ζ j : si f
subit là de grandes variations, il faudra prendre un pas petit pour que f (x) ne puisse trop s’éloi-
gner de la valeur f (ζ j ) ; si f ne varie pas beaucoup, un pas plus grand est possible.
C’est cette simple observation (qui se trouvait déjà dans un écrit d’Euler de 1768) qui a con-
duit à la définition de la nouvelle intégrale découverte par Kurzweil et Henstock en 1957 et
1961.
L’idée est la suivante : un réel ε > 0 étant donné, on ne va pas majorer uniformément le pas
x j − x j −1. de la subdivision Π par un réel constant δ > 0, mais par une fonction strictement
positive δ(ζ j ), plus capable de s’adapter aux variations de la fonction f : cette fonction, on
l’appellera une jauge.

Définition 16.13. On appelle jauge sur I = [a, b] toute fonction S définie sur I et à valeurs
réelles strictement positives.

Définition 16.14. Une telle jauge δ étant définie sur un segment I = [a, b], une P-subdivision
Π = ((x j )06 j 6n , (ζ j )16 j 6n) de I sera dite δ-ne si et seulement si elle vérifie : 0 < x j − x j −1 6
δ(ζ j ) pour tout j ∈ {1, 2, , n}.
178 Mesure et Intégrale de Lebesgue

Nous pouvons désormais définir l’intégrale de Kurzweil-Henstock (ou KH-intégrale).

Définition 16.15. Soit I = [a, b] un intervalle de R. On dit qu’une fonction f : I → R est inté-
grable au sens de Henstock ou Kurzweil ou encore KH-intégrable sur I si et seulement
s’il existe un nombre réel α tel que pour tout nombre réel ε > 0, il existe une jauge δ sur I telle
que pour toute P-subdivision δ-fine Π de I et pour toute somme de Riemann associée à f relati-
vement à cette division, on ait :
|S(I , f , Π) − α| < ε.
R b Dans ce cas α est appelée KH-intégrale de la fonction f sur le segment [a, b] et notée :
a
f (t)dt, a, b sont respectivement les bornes inférieure et supérieure de l’intégrale de f.

Proposition 16.16. Ce réel α, s’il existe, est unique.

Pour que cette définition ait un sens, il faut établir le lemme de Cousin :

Lemme 16.17. Pour toute jauge δ sur un segment I, il existe au moins une P-subdivision δ-fine
Π de I.

A la lumière de cette définition, l’intégrale de Riemann n’est autre qu’une KH-intégrale dont
la jauge est fixe.

16.1.3.4 Relations entre toutes ses intégrales


La KH-intégrale possède les propriétés classiques
− L’ensemble P (I , R) des fonctions KH-intégrables sur un segment I = [a, b] et à valeurs
réelles est un R-espace vectoriel.
− On a la linéarité et la positivité de l’intégrale.
− On a la propriété de restriction : une fonction KH-intégrable sur un segment I = [a, b] est
KH-intégrable sur tout segment inclus dans I.
− On
R b a aussi Rl’additivité Rrelative aux segments d’intégration : si c ∈ [a, b], alors :
c b
a
f (t)dt = a f (t)dt + c f (t)dt (Théorème de Chasles).
− La fonction x  R x
a
f (t)d t est continue sur I, et dérivable en tout point où f est con-
tinue.

Pour démontrer la KH-intégrabilité d’une fonction sans connaître à priori la valeur de l’inté-
grale, on dispose du critère de Cauchy :

Proposition 16.18. La fonction f est KH-intégrable sur I = [a, b] ssi pour tout réel ε > 0, il
existe une jauge δ sur I = [a, b] telle que, quelles que soient les P-subdivisions δ-fnes Π et Π ′ du
segment I=[a,b], on ait : |S(I , f , Π) − S(I , f , Π ′)| < ε.

Remarque 16.19. Ceci peut se démontrer progressivement en reprenant mot pour mot les
exposés traditionnels de l’intégrale de Riemann.

− Toute fonction R-intégrable sur un segment est KH-intégrable sur ce segment : les fonc-
tions R-intégrables sont celles pour lesquelles il existe une jauge δ constante. On peut
dire que ce sont les fonctions uniformément KH-intégrables.
− Les fonctions réglées sur un segment y sont donc KH-intégrables, ce qui comprend les fon-
ctions en escalier, monotones, à variation bornée, continues par morceaux, continues, et
leur KH-intégrale est égale à leur R-intégrale.
Nouveautés apportées par la KH-intégrale.
− Un exemple bien connu de non R-intégrabilité est celui de la fonction indicatrice des
rationnels, de Dirichlet. Prenons un exemple un peu plus général, qui comprend cette
fonction comme cas particulier.
16.1 Enseignement de l’intégration 179

Exemple 16.20. Soit un segment I = [a, b] de R, avec a < b, soit D = {a0, a1, a2,  } une
partie infinie dénombrable de I, et soit une fonction f définie sur I, nulle sur I \D et non
nulle sur D : f (ak) = ck  0. Pour chaque ε > 0, on définit une jauge δ sur I en posant :

 δ(ak) = ε
, pour x ∈ I \D. Soit Π une P-subdivision δ-fine de I, et soit la somme de
2k+2|ck |
 δ(x) = 1, x ∈ I \D
Pn
Riemann S(I , f , Π) = j =1 f (ζ j )(x j − x j −1). Si ζ j ∈ I \D alors f (ζ j )(x j − x j −1) = 0. Si
ε
ζ j ∈ D, alors f (ζ j ) = ak pour certain k ∈ N d’où 0 < x j − sj −1 6 δ(ζ j ) = δ(ak) = 2k+2|c | et
ε ε k
donc |f (ζ j )|(x j − x j −1) 6 |ck | 2k+2|c | = 2k+2
k
Attention, le même ζ j = ak peut être élément de deux segments de la subdivision (qui
sont alors consécutifs ), mais pas de plus, et sa contribution à la somme de Riemann est
ε
donc majorée par le double du majorant que nous venons de trouver, soit 2k+1 . On en
Pn P+∞ ε
déduit : |S(I , f , Π)| = j =1 |f (ζ j )|( x j − x j −1) 6 j=1 2k+1 = ε. Cette fonction f se
trouve ainsi KH-intégrable avec une KH-intégrale nulle, alors qu’elle n’est pas R-inté-
grable dans beaucoup de cas, notamment si D̄ = I.

− On a le corollaire suivant :

Corollaire 16.21. si l’on modifie les valeurs d’une fonction KH-intégrable sur I en des
points de I qui forment un ensemble infini dénombrable, alors la nouvelle fonction est
encore KH-intégrable, et sa KH-intégrale reste la méme.

− Il n’y a pas de KH-intégrale impropre ou plus exactement, i1 n’y en a pas besoin, en


vertu du théorème de Hake (1921)

Théorème R b 16.22. si une fonction f est KH-intégrable sur tout [x, b] ⊆ ]a, b], et si
limx→a− x f (t) dt = H ∈ R, alors la fonction f est KH-intégrable sur [a, b], et bien sûr
R b
a
f (t)dt = H

Puissance de la KH-intégrale par rapport à l’intégrale de Lebesgue


Comme pour l’intégrale de Denjoy-Perron, une différence importante avec la R-intégrale et la
L-intégrale, c’est que la KH-intégrale est une intégrale non-absolue.
Mais cette fois-ci la facilité de mise en oeuvre suffit à imposer son utilisation quitte à se res-
treindre aux fonctions intégrables naturellement et absolument.
Les théorèmes de convergence, qui constituent l’un des grands progrès de la L-intégrale par
rapport à la R-intégrale, sont satisfaits par la KH-intégrale. On a le Théorème de convergence
monotone, de Beppo Levi :

Théorème 16.23. Soit (fn)n∈N une suite monotone de fonctions KH-intégrables sur I = [a, b],
qui converge
 R simplement  vers une fonction f; la fonction f est KH-intégrable si etR seulement si
b b
la suite a
fn(t)d t admet une limite finie, et dans ce cas, limn→+∞ a fn(t)d t =
R b n∈N
a
f (t)dt.

Le Théorème de convergence dominée, de Lebesgue, doit subir une modification pour tenir
compte du fait que la KH-intégrale est une intégrale non absolue (comme nous le verrons plus
loin). Il devient le Théorème de convergence majorée et minorée :

Théorème 16.24. Soit (fn)n∈N b une suite de fonctions KH-intégrables sur I = [a, b], qui con-
verge simplement vers une fonction f; on suppose qu’il existe deux fonctions KH-intégrables g et
R b
R btelles que g 6 f 6 h; alors, la fonction f est KH-intégrable et limn→+∞ a fn(t)d t =
h
a
f (t)dt.

C’est déjà un progrès, mais il y a plus : toute fonction dérivée est KH-intégrable. D’une
façon plus précise :

Proposition 16.25. soitR b F une fonction dérivable sur I = [a, b], et soit F = f ; alors, f est
KH-intégrable sur I, et a f (t)dt = F (b) − F (a).
180 Mesure et Intégrale de Lebesgue

En résumé
On montre que toute fonction C-intégrable est R-intégrable, que toute fonction R-intégrable
est L-intégrable et que toute fonction L-intégrable est KH-intégrable.

16.1.4 Conclusion
La KH-intégrale assure donc la synthèse des trois grands concepts d’intégrale qui ont marqué
successivement la progression de la théorie de l’intégration : les intégrales de Cauchy, de Rie-
mann, de Lebesgue. De façon plus précise, les fonctions f qui sont L-intégrables sont exacte-
ment les fonctions f KH-intégrables telles que |f | soit aussi KH-intégrable or les fonctions L-
intégrables sont les fonctions L-intégrables. Ainsi, on peut donc définir l’intégrale de Lebesgue
au moyen de la KH-intégrale, et en déduire tout ce qui s’ensuit : la théorie de la mesure, la
notion de propriété vraie presque partout, les théorèmes classiques de convergence presque par-
tout, etc. On obtient un exposé plus simple que tous ceux que l’on a pu lire auparavant, et qui
est cohérent avec les autres modes classiques d’intégration. Alors pourquoi attendre ? Certains
professeur pensent que la KH-intégrale peut être enseignée au niveau BAC+1; leur réticence :
elle n’est pas au programme des concours, l’enseigner se serait pénaliser leurs élèves. Cependant
il parait difficile de l’ignorer c’est pourquoi certaines universités l’ont tout de même mise au pro-
gramme de la licence en complément de l’enseignement de l’intégrale de Lebesgue : de futurs
professeurs, qui risquent de l’enseigner, doivent au moins connaître son existence !

Prérequis :
1. Anneau, Algèbre et tribu de parties d’un ensemble.
2. Application mesurable.

16.2 Convention de calcul dans R̄


0 × ( + ∞) = ( + ∞) × 0 = 0 ( − ∞) × 0 = 0 × ( − ∞) = 0
∀x ∈ ]0, + ∞] x × ( + ∞) = ( + ∞) × x = + ∞ x × ( − ∞) = ( − ∞) × x = − ∞
∀x ∈ [ − ∞, 0[ x × ( + ∞) = ( + ∞) × x = − ∞ x × ( − ∞) = ( − ∞) × x = + ∞
∀x ∈ ] − ∞, + ∞] x + ( + ∞) = ( + ∞) + x = + ∞
∀x ∈ [ − ∞, + ∞[ x + ( − ∞) = ( − ∞) + x = − ∞

16.3 Anneau, Algèbre et Tribu de parties d’un ensemble


Cette section est à mettre avec le chapitre sur les ensembles.

16.3.1 Anneau ou clan de parties d’une ensemble


Définition 16.26. On appelle anneau ou clan ou anneau algébrique de partie d’un
ensemble E, toute famille de parties C tel que :
• C ⊂ P(E), " C est un ensemble de partie de E "
• (A, B ∈ C) ⇒ (A ∪ B ∈ C et A − B ∈ C), " C stable par réunion et différence ".

Exemple 16.27.
1. Soit E admettant une infinité d’éléments. Coit C la famille des sous-ensembles de E ne
comportant qu’un nombre fini d’élément de E. C est un clan (J. Genet page 11).
2. ∅ est un anneau ? (à vérifier)
3. Soit A ∈ P(E) alors C = {∅, A} est un anneau.
16.3 Anneau, Algèbre et Tribu de parties d’un ensemble 181

4. Définissons les ensembles A1, A2, A3, A4, A5, par :


• A1 = P(E)
• A2 = {∅, E , A, E − A} avec A ∈ P(E)
A3 = A = i∈I Ai; I ⊂ {1,  , n} ∪ {∅} avec A1,  , An une partition finie de E .
 S

«A3 ensemble des réunions finies d’éléments de la partition, ∅ compris»
• On prend E = R et C = {]a; b]; a, b ∈ R; a < b} ∪ {] − ∞; b]; b ∈ R} ∪ {]a; + ∞[} alors
A4 = A = i∈I Ai; Ai ∈ C; Ai ∩ A j = ∅; si i  j; card(I) < + ∞ ∪ {∅} est une
 S

algèbre. Elle permet de construire la mesure d’une longueur. «A4 est l’ensemble
des runions finies d’intervalle disjoints de la forme ] − ∞; a]; ]a; b]; ]b; + ∞[; a, b ∈ R;
a < b, ∅ compris.
• Soit E =E1 × E
S2 puis C = {B × C; B ⊂ E1 et C ⊂ E2} alors
A5 = A = i∈I Ai; Ai ∈ C; card(I) < + ∞ est une algèbre.
Elle permet de construire les mesures produits. «A5 est l’ensemble des réunions
finies des produits d’une partie de E1 et d’une partie de E2».
A1, A2, A3, A4, sont des anneaux.
5. L’ensemble des intervalles (a, b) de R, sans préciser si ce sont des intervalles ouverts,
fermés ou bornés est un anneau.
6. Contre exemple : Les espaces topologiques ne sont pas des clans (J. Genet page 12), en
fait il ne suffit pas d’assurer la stabilité par rapport à 2 quelconques des lois ( ∩ , ∪ et ∆, −
).

Proposition 16.28. Une famille de parties de E est un clan ou un anneau d’ensemble si et


seulement si elle est stable par ∆ ou ∩ .

Proposition 16.29. Soit C un anneau de partie d’un ensemble E.


1. ∅ ∈ C.
2. (A, B ∈ C) ⇒ (A ∩ B ∈ C) ( C stable par intersection ).
3. (A, B ∈ C) ⇒ (A∆B ∈ C) ( C stable par différence symétrique ).
4. (A1,  , An ∈ C) ⇒
Sn Tn
i=1 Ai ∈ C et (Stabilité par intersection et réunion

i=1 Ai ∈ C
finies).
5. L’image réciproque d’un clan est un clan.

Démonstration. J. Genet page 11. 

Note 16.30. Sur le terme Anneau : (Livre J. Genet page 12) On peut définir sur P(E) une
structure d’anneau au sens algébrique à l’aide des deux lois de composition :

− loi additive + : P(E) → P(E) i.e. A + B = A∆B


(A, B) 
A∆B

− loi multiplicative × : P(E) → P(E) i.e. A × B = A ∩ B


(A, B) 
A∆B

16.3.2 Algèbre de partie d’un ensemble


Définition 16.31. On dit qu’un ensemble A est une algèbre (ou algèbre de boole ou anneau
de boole unitaire ou clan unitaire) de partie d’une ensemble E si et seulement si :
− il vérifie les conditions suivantes :
• A ⊂ P(E), " A est un ensemble de partie de E "
182 Mesure et Intégrale de Lebesgue

• E ∈ A, " A contient E "


• (A, B ∈ A) ⇒ (A ∪ B ∈ A et A − B ∈ A), " A stable par réunion et différence ".
− Autrement dit, A est un anneau de partie de E, contenant E.

Remarque 16.32. On aurait pu définir une algèbre à partir des conditions suivantes.
− Le terme algèbre de boole est justifié par l’exercice (affirmation à vérifier) 1.06 Intégrale
de Lebesgue édition Cépadues - Edition Michel Bouyssel page 24-25.
− On aurait pu définir une algèbre à partir des conditions suivantes.

Proposition 16.33. (Autres Conditions nécessaires et suffisantes) A est une algèbre ... si et
seulement si :
• A ⊂ P(E), " A est un ensemble de partie de E "
• E ∈ A, " A contient E "
• (A, B ∈ A) ⇒ (A ∪ B ∈ A et AC ∈ A), " A stable par réunion et complémentarité ".
• De manière plus complète A est une algèbre si et seulement si : A est stable pour ( ∪ ou ∩
) et (CE ou − ou ∆)

Démonstration.



• Exercice (affirmation à vérifier) 1.06 Intégrale de Lebesgue édition Cépadues - Edition
Michel Bouyssel page 24-25. 

Exemple 16.34.
1. A1, A2, A3, A4, A5 sont des anneaux mais ce sont aussi des algèbres.
2. L’ensemble des réunions finies d’intervalles (au sens algébrique) est un clan unitaire.
3. L’ensemble des réunions finies d’intervalles de [α; β[ du type [a, b[ est une algèbre clan
unitaire de parties de [α; β[.
4. Par contre, il n’en est pas de même de l’ensemble des intervalles ouverts (ou fermés) de R
qui n’est pas un clan.

Théorème 16.35. (Stabilité par intersection et réunion finies)


Soit A une algèbre alors (A1,  , An ∈ A) ⇒
Sn Tn
i=1 Ai ∈ A et

i=1 Ai ∈ A

16.3.3 σ-Anneau ou σ-clan de partie d’un ensemble. Espace et


ensemble mesurables
Définition 16.36. On appelle σ-anneau ou σ-clan de partie d’un ensemble E :
− tout fammile S tel que :
• S ⊂ P(E), « S est une fammille de partie de E ».
S∞
i=1 An ∈ S , « S est stable par réunion dénombrable ».

• (An ∈ S) ⇒
• (A, B ∈ S) ⇒ (A − B ∈ S), « S stable par différence ».
− Tout anneau S de partie de E stable par réunion infinie dénombrable.

Remarque 16.37. remarque, on aurait pu définir un σ-anneau à partir des conditions sui-
vantes.
16.3 Anneau, Algèbre et Tribu de parties d’un ensemble 183

Proposition 16.38. (Autres Conditions nécessaires et suffisantes) S est un σ-anneau ... si et


seulement si :
• S ⊂ P(E), " S est un ensemble de partie de E "

i∈I Ai ∈ S et A ∈ S , " S stable par réunion dénombrable et complé-


C
S 
• (A, Ai ∈ S) ⇒
mentarité ". complémentarité ?

Théorème 16.39. (Stabilité par intersection infinie dénombrable)


Soit S un σ-anneau alors (A1,  , An ∈ S) ⇒
T∞
i=1 Ai ∈ S .


Définition 16.40. On appelle espace mesurable un couple (E , T ) où T est un σ-anneau d’un


ensemble E. Les éléments de T sont appelés ensembles mesurables de (E , T ) ou T-mesurables.

Remarque 16.41.
1. Certains ouvrages emploient mesurable à la place de probabilisable.
2. A ne pas confondre avec µ-mesurable ou µ est une mesure.

16.3.4 Tribu ou σ-algèbre ou corps de Borel de partie d’un ensemble.


Espace probabilisable
Définition 16.42. On appelle Tribu (ou σ-algèbre ou corps de Borel) de partie d’un ensemble
E:
− tout ensemble T tel que :
• T ⊂ P(E), " T est un ensemble de partie de E "
• E ∈ T, " T contient E "
S∞
i=1 An ∈ T , " T est stable par réunion dénombrable "

• (An ∈ T ) ⇒
• (A, B ∈ T ) ⇒ (A − B ∈ T ), " T stable par différence ".
− tout ensemble T à la fois σ-anneau et algèbre de partie de E, autrement dit
− tout ensemble T σ-anneau de partie de E, contenant E, ou encore
− tout ensemble T algèbre de partie de E stable par réunion infinie dénombrable.

Remarque 16.43. remarque, on aurait pu définir une tribu à partir des conditions suivantes.

Proposition 16.44. (Autres Conditions nécessaires et suffisantes) T est une tribu ... si et seu-
lement si :
• T ⊂ P(E), " T est un ensemble de partie de E "
• E ∈ T, " T contient E "

i∈I Ai ∈ T et A ∈ T , " T stable par réunion dénombrable et complé-


C

• (A, Ai ∈ T ) ⇒
S
mentarité ".

Exemple 16.45.
1. A1 = P(E) est une tribu.
2. Soit An , n > 1 une partition de E alors A2 = A = i∈I Ai; I ∈ P(N∗) est une tribu.
 S

3. A4 et A5 ne sont pas des tribus.

Théorème 16.46. (Stabilité par intersection Tinfinie dénombrable)


Soit C une tribu alors (A1,  , An ∈ T ) ⇒ ∞
i=1 Ai ∈ T .


Définition 16.47. On appelle espace probabilisable un couple (E , T ) où T est une tribu d’un
ensemble E. Les éléments de T sont appelés ensembles mesurables de (E , T ) ou T-mesurables.
184 Mesure et Intégrale de Lebesgue

Remarque 16.48.
1. Certains ouvrages emploient mesurable à la place de probabilisable.
2. A ne pas confondre avec µ-mesurable ou µ est une mesure.

16.3.5 Anneau, algèbre, σ-Anneau et Tribu engendrés par C ⊂ P(E)


Proposition 16.49. Soit {E j }j ∈J une famille d’anneau, d’algèbre, de σ-anneau ou de tribu,
alors
1. j ∈J Ei n’est pas vide.
T

2. c’est également un anneau, une algèbre, un σ-anneau ou une tribu.


3. Soit C ∈ P(E), C ∈ E j , ∀j ∈ J, j ∈J Ei alors est le plus petit anneau, algèbre, σ-anneau
T
ou tribu contenant C.

Définition 16.50. Soit C ⊂ P(E) une classe d’ensemble de E. On appelle :


Anneau, Algèbre, σ-Anneau engendrés ou Tribu engendré(e) par C :
le plus petit anneau, algèbre, σ-anneau ou tribu d’ensemble contenant C.
Autrement dit c’est aussi l’intersection des anneau, algèbre, σ-anneau ou tribu contenant C.
l’Algèbre engendrée par C est notée a(C). la tribu engendrée par C est notée σ(C).

Théorème 16.51. Tout Anneau, Algèbre, σ-Anneau engendrés ou Tribu engendré(e)


par C est contenu dans une réunion finie d’élément de C.
Démonstration. 

Théorème 16.52. L’image réciproque d’un anneau, d’une algèbre, d’un σ-anneau ou d’une
tribu est un anneau, une algèbre, un σ-anneau ou une tribu.

Démonstration. 

16.3.6 Tribu produit


Rajouter page 22 définition 2.9 livre exercice calcul intégral Joël Benoist, rajouter la défintion
d’un espace produit page 187.

16.3.7 Tribu engendrée par une topologie


La notion de tribu a été définie jusqu’à présent sur des espaces E amorphes, i.e. que l’on a pas
muni d’une topologie. Cependant dans les situations usuelles E = R = Rn = Z ou N il est donc
fréquent de supposer que E est un espace topologique ou même métrique; il est alors souhaitable
de disposer d’une tribu compatible avec la topologie de E.

16.3.7.1 Définition générale

Théorème 16.53. Soit T un espace topologique, O l’ensemble de ses ouverts et F l’ensemble de


ses fermés alors σ(O) = σ(F ).

Démonstration. Voir cours licence 

Définition 16.54. Soit T un espace topologique, O l’ensemble de ses ouverts et F l’ensemble de


ses fermés.
1. On appelle tribu borélienne de T la tribu engendrée par les ouverts ou les fermés de T.
On la note B(T ). Ainsi B(T ) = σ(O) = σ(F ).
2. Les éléments d’une tribu borélienne sont appelés boréliens.
16.4 Fonctions étagées 185

16.3.7.2 Cas d’un Espace métrique

Théorème 16.55. Soit (T , d) et (S , d ′) 2 espaces métriques; B(T ), B(S) leurs tribus boré-
liennes respectives et f : T → S une application continue.
On a alors : ∀A ∈ B(S), f −1(A) ∈ B(T ). Autrement dit f −1(B(S)) ⊂ B(T ).

Démonstration. Voir cours de licence 

Remarque 16.56. Autrement dit une application continue conserve la borélienité d’une partie.

16.3.7.3 Tribu borélienne de R


Théorème 16.57. La tribu borélienne de R est engendrée par :
1. La classe des intervalles bornés : [x; y]; ]x; y]; ]x; y[; [x; y[ où (x, y) ∈ R2 et x < y.
2. Les classes des intervalles ] − ∞; x[; ] − ∞; x]; [x; + ∞[; ]x; + ∞[ où x ∈ R.
3. A4

Démonstration. Voir cours de licence. 

Rajouter tribu borélienne de [0, + ∞] où R̄ page 190.

16.3.7.4 Tribu borélienne de R n

Théorème 16.58. La tribu borélienne de Rn est engendrée par :


1. La classe
Q n des intervalles
Qn bornésQ n: Qn 2
i=1 [x; y]; i=1 ]x; y]; i=1 ]x; y[; i=1 [x; y[ où (x, y) ∈ R et x < y.
2. Les classes
Q n des intervalles
Qn Qn Qn
i=1 ] − ∞; x[; i=1 ] − ∞; x]; i=1 [x; + ∞[; i=1 ]x; + ∞[ où x ∈ R.
Qn
3. i=1 Bi tel que Bi ∈ B(R).

Remarque 16.59. Du fait que ]a; b] = ]a; c] et ]a; c] = ]d; c], on peut se limiter,
T S
c∈Q d∈Q
c>b d>b
dans l’énoncé des théorèmes précédents à prendre des bornes rationnelles.

Rajouter tribu borélienne de C page 190.

R
16.3.7.5 P( ) = B( )? R
Théorème 16.60. Soit E un ensemble (Cn)n>1 une suite d’éléments de P(E) distincts. On a
alors card(σ {Cn , n > 1}) = card(R).

En particulier card(B(R)) = card(B(Rn)) = card(R) = card(Rn)


or card(P(R)) = card(P(Rn)) > card(R)
Conclusion : il existe donc des sous-ensembles de R non boréliens !, mais pour l’instant, on
ne sait pas le montrer, on ne dispose que de preuves indirectes voir commentaires JP Marco
page 189.

16.3.7.6 σ-Anneau engendré par les compacts

16.3.8 π-Classe et λ-Classe

16.4 Fonctions étagées


A mettre avec les fonctions.
186 Mesure et Intégrale de Lebesgue

16.4.1 Définitions
Définition 16.61. Soit E1 et E2 deux ensembles et f : E1 → E2.
f est une application étagée ⇔ f (E1) est un partie finie de E2
Autrement dit, elle ne prend qu’un nombre fini de valeurs.

Définition 16.62. Soit f : E1 → E2 une application étagée, {y1, y2,  , yn } l’ensemble des valeurs
de f (i.e. f (E1)) et Ω une classe de partie de E1.
f est une application étagée sur Ω ou Ω-étagée ⇔ ∀k ∈ {1,  , n}, f −1({yk }) ∈ Ω

16.4.2 Fonctions numériques étagées (Cas E2 = R , R̄)


Théorème 16.63.
1. Soit f : E1 → R, R̄ une application étagée et {α1, α2,  , αn } l’ensemble de ses valeurs.
Pn
f = i=1 αi × 1Ai avec Ai = f −1({αi }) (c’est la décomposition canonique de f).
2. Soit E un espace muni d’une tribu borélienne B et f : E → R, R̄ une application étagée.
f est B-mesurable ⇔ f est étagée sur B .
Autrement dit les fonctions étagées sur B sont toutes des fonctions mesurables.
3. Soit (E , B) un espace probabilisable. L’ensemble E(B) des fonctions étagées sur B est un
espace vectoriel.

16.5 Applications mesurables et espace L0


A mettre avec les fonctions.
Les applications mesurables sont à la théorie des mesures ce que sont les fonctions continues
pour la topologie, elle conserve la mesurabilité d’un ensemble, par rapport à des σ-anneaux ou
tribu.

16.5.1 Définition
Définition 16.64. Soit (E1, T1) et (E2, T2) deux espaces mesurables.
On appelle application (T1 − T2 mesurable) ou mesurable, toute application f : E1 → E2
telle que :
• ∀A ∈ T2, f −1(A) ∈ T1 ,
• autrement dit, f −1(T2) ⊂ T1 ou encore si A et T2-mesurable alors f −1(A) est T1-mesu-
rable.

Remarque 16.65.
1. Si E2 est muni d’une topologie O, on convient de dire qu’une application f : E1 → E2 est
mesurable ou T1-mesurable si et seulement si elle est T1 − σ(O) mesurable.
2. Si T1 , T2 sont les tribus boréliennes de deux espaces topologiques E1, E2, on dit que
l’application est borel-mesurable ou borélienne.
3. Entre deux espaces mesurables, il n’existe pas forcément d’application mesurable !
4. Si T1 = P(E), alors au contraire toute application f : E1 → E2 est mesurable.
5. f −1(T2) est une tribu, c’est la plus petite tribu rendant f mesurable, dite tribu engendrée
par f , on la note σ(f ).
6. En pratique, T2 sera une tribu borélienne de R, il sera donc nécessaire de supposer (E1,
T1) probabilisable.
16.5 Applications mesurables et espace L0 187

16.5.2 Propriétés générales


16.5.2.1 "Critère de mesurabilité"

Théorème 16.66. Soit (E1, T1) et (E2, T2) deux espaces probabilisables, Ω un sous-ensemble de
P(E2) engendrant T2.
( l’application f : E1 → E2 est mesurable ) ⇔ ( f −1(Ω) ⊂ T1 )

16.5.2.2 Composition d’applications mesurables

Théorème 16.67. Soit (E1, T1), (E2, T2) et (E3, T3) trois espaces mesurables.
Si f : E1 → E2 et g: E2 → E3 sont deux applications mesurables alors :
l’application g ◦ f : E1 → E3 est mesurable.

16.5.2.3 Applications continues et mesurabilité

Proposition 16.68. Soit (E1, B1) et (E2, B2) deux espaces probabilisables, munis de leurs tribus
boréliennes respectives.
Toute application f : E1 → E2 continue est borélienne.

16.5.2.4 Notation

Définition 16.69. On désignera par L0(E1, T1, E2, T2) l’ensemble des applications mesurables de
(E1, T1) dans (E2, T2).

Remarque 16.70. Les ensembles L0(E , T , R, B(R)), L0(E , T , R̄, B(R̄)), L0(E , T , R+, B(R+))
et L0(E , T , R̄+, B(R̄+)) pourront être notés L0(T ), L0(T ), L0+(T ), L0+(T ) si aucune confusion
n’est possible.

16.5.3 Applications mesurables à valeurs dans un espace métrique


Théorème 16.71. Soit (fn) une suite de fonctions mesurables E → F où E est un espace mesu-
rable et F un espace métrique.
Si (fn) converge simplement vers f, alors f est également mesurable.

16.5.4 Application à valeurs dans un espace produit


16.72. Soient (E , T ), (E1, T1),  , (En , Tn) des espaces probabilisables,
Qn
Proposition i=1 Ei ,

Nn
l’espace probabilisable produit et des applications mesurables

i=1 Ti f i: E → E i , i = 1, , n
alors l’application f¯ : E →
Qn
Ei est mesurable.

i=1
x (fi(x),  fn(x))

Où est défini la tribu produit ! ou alors définir la tribu produit auparavant. A déplacer vers
intégration.

16.5.5 Applications numériques mesurables


Il s’agit d’étudier le cas particulier des applications de E → R ou R̄ mesurables où R, R̄ sont
munis de leurs tribus boréliennes. On a vu que dans ce cas E doit être un espace probabilisable
(dans le cas contraire, il est impossible de définir des applications de E → R mesurables).

16.5.5.1 "Critère de mesurabilité"

Proposition 16.73. Soit T une tribu de partie de E.


L’application f : E → R̄+ est dite T -mesurable si et seulement si :
i. ∀(a, b) ∈ R+; f −1([a, b[) ∈ T, ce qui peut s’écrire [a 6 f < b] ∈ T,
188 Mesure et Intégrale de Lebesgue

ii. ∀(a, b) ∈ R+; f −1([a, b]) ∈ T,ce qui peut s’écrire [a 6 f 6 b] ∈ T,


iii. ∀(a, b) ∈ R+; f −1([a, + ∞[) ∈ T,ce qui peut s’écrire [a 6 f < + ∞] ∈ T,
iv. ∀(a, b) ∈ R+; f −1(]a, + ∞[) ∈ T,ce qui peut s’écrire [a < f < + ∞] ∈ T,
v. ∀(a, b) ∈ R+; f −1([a, + ∞]) ∈ T,ce qui peut s’écrire [a 6 f ] ∈ T,
vi. Idem en remplaçant R+ par Q+
vii. Idem en remplaçant Q+ par l’ensemble des nombres dyadiques D+ = {k × 2−n; k, n ∈ N}.
viii. ∀B ∈ B(R+) on a f −1(B) ∈ T, l’espace R̄+ étant muni de la topologie d’alexandroff.
ix. Si C est une classe de partie de R+ vérifiant σ(C) = B(R+) alors on a f −1(B) ∈ T pour
tout B ∈ C, l’espace R̄+ étant muni de la topologie d’alexandroff.

Démonstration. 

Remarque 16.74.
1. C’est une application directe du théorème précédent puisque [a, b[,  engendrent la tribu
borélienne de R.
2. Une application indicatrice 1A est mesurable, si et seulement si A ∈ T , (à mettre dans
une section précédente, lire intégrale de Lebesgue).

16.5.5.2 Opérations sur les applications numériques mesurables

Théorème 16.75.
1. Si f et g sont des fonctions mesurables sur (E , B) à valeur dans R̄ alors les fonctions sui-
vantes sont mesurables :
− f + g (quand elle existe) ; c × f (c ∈ R) ; f ×g ; f2
− sup (f ; g) ; inf (f ; g)
− f+ ; f−
− |f |
2. Pour que f soit mesurable, il faut et il suffit que f + et f − le soient.

Remarque 16.76.
1. (|f | mesurable ) ; (f + et f − mesurables) et par conséquent : f mesurable.
2. L’expression "quand elle existe" se rapporte aux cas où f (x) = ± ∞ et g(x) = ± ∞ pour
lequel (f + g)(x) n’a pas de sens.
3. Lorsqu’il s’agit de R au lieu de R̄, il n’y évidement aucune restriction.
4. Le théorème précédant peut se résumer en disant que :
"M(B) est une algèbre réticulée sur R pour la relation d’ordre naturelle f 6 g".

16.5.5.3 Suite d’applications numériques mesurables

Théorème 16.77. Soit (fn) une suite de fonctions mesurables E → R̄ où E est un espace
mesurable.
1. Les fonctions suivantes sont mesurables :
− sup (fn), inf (fn)
− limn→∞(fn), limn→∞(fn)
2. Soient f , g: (E , T ) → R̄ des fonctions mesurables et h: R̄ → R̄, k: R̄ × R̄ → R̄ des fonc-
tions continues, alors h ◦ f et k ◦ (f , g) sont mesurables.
3. Si (fn) converge simplement vers f, alors f est également mesurable.
16.7 Mesures 189

4. Si ∃A ∈ T ; ∀x  A, fn(x)converge dans R̄ alors la fonction définie par


f (x) = limn↑+∞ fn(x), ∀x  A

est mesurable.
f (x) = 36, ∀x ∈ A

Remarque 16.78.
1. On peut résumer ce théorème en écrivant que :
"M(B) est fermé au sens de la convergence simple des suites".
2. Ce théorème reste valable pour lim (fn) = f pour des fonctions à valeur dans un espace
métrique.
3. Une application immédiate de ce théorème est le lemme suivant :

Exemple 16.79.
1. Prenons (E , B) = (Rp , B(R p)), les fonctions mesurables définies sur R p sont alors boré-
liennes (ou boréliennes-mesurables).
2. La compléxité des fonctions boréliennes apparait lorsqu’on constate :
− que toute limite simple d’une suite (fn) de fonctions continues définies sur R p est
borélienne,
− et que toute limite simple d’une suite de telles fonctions est aussi borélienne etc ...

Théorème 16.80. (Trouver un emplacement)


1. Soit E un espace muni d’une tribu borélienne B et f : E → R, R̄ une application étagée.
f est B-mesurable ⇔ f est étagée sur B .
Autrement dit les fonctions étagées sur B sont toutes des fonctions mesurables.
2. Soit (E , B) un espace probabilisable. L’ensemble E(B) des fonctions étagées sur B est un
espace vectoriel.

fonctions fonctions étagées


16.6 Approximation de par des
mesurables mesurables

A revoir !

Théorème 16.81. (d’approximation) Soit (E , B) un espace probabilisable.


1. Toute application f : E → R̄+ B-mesurable est limite simple d’une suite croissante de fonc-
tions étagées mesurables à valeurs dans R+.
2. Toute application f : E → R+? B-mesurable est limite simple d’une suite de fonctions éta-
gées mesurables à valeurs dans R+.
( il suffit d’écrire f = f + − f − et d’appliquer (1) à f + puis f −.
3. Toute application f : E → R̄+ B-mesurable et bornée est limite uniforme d’une suite crois-
sante de fonctions étagées mesurables à valeurs dans R+.
4. Toute application f : E → R+? B-mesurable et bornée est limite uniforme d’une suite de
fonctions étagées mesurables à valeur dans R+.
( il suffit d’écrire f = f + − f − et d’appliquer (3) à f + puis f −.

Remarque 16.82. Entre (1) et (2) on a perdu la monotonie.

16.7 Mesures
Les boréliens de R sont indescriptibles de manière explicite.
190 Mesure et Intégrale de Lebesgue

Par contre les intervalles R sont facilement descriptibles [a, b[, ]a, b[,  et l’application :
I → R est une mesure au sens de la théorie de la mesure sur l’ensemble de ces inter-
[a, b[  b−a
valles (qui est un anneau mais pas une tribu comme ?) de même pour A4 et sa mesure. L’exten-
sion permettra de l’étendre aux tribus.
On préfère travailler dans une algèbre car les éléments de cette algèbre sont des réunions
finies d’éléments de cette algèbre. Pour définir une mesure c’est beaucoup plus simple.

Nous allons définir la notion de mesure sur une tribu. Mais les tribus sont très/trop com-
plexes, pour pouvoir définir directement de manière explicite une mesure sur elle. Nous allons
donc définir des mesures sur des ensembles moins complexe (comme un anneau, voir une algèbre
une algèbre) puis l’étendre à la tribu. Par exemple la mesure de Lebesgue (voir page 15).

16.7.1 Application additive d’ensemble


Définition 16.83. Soient E un ensemble, C un anneau d’ensemble sur E et F un ensemble
muni d’une loi additive (groupe, e.v., ...).
On appelle application additive d'ensemble toute application µ: C → F satisfaisant l’axiome :
µ(A ∪ B) = µ(A) + µ(B), si A ∩ B = ∅.

Remarque 16.84. En pratique F = R̄+, R, R̄, C.

Proposition 16.85. Posons F = R̄+. Hypothèses.


1. µ(∅) = 0 ou µ(A) = + ∞, ∀A ∈ C. (le deuxième cas conduit à une situation triviale, on
pourra donc dans les définitions suivantes imposer µ(∅) = 0 ou ∃A ∈ C; µ(A)  + ∞ i.e. µ
non identiquement infinie).
2. (A ⊂ B) ⇒ (µ(A) 6 µ(B)). (monotonie-croissante).
3. (A ⊂ B et µ(A) < + ∞) ⇒ (µ(B − A) 6 µ(B) − µ(A)).
Sn
4. Pour toute réunion finie i=1 Ai d’éléments C,
− Si ces éléments
Sn  Psont 2 à 2 disjoints Ai ∩ A j = ∅, ∀i  j ∈ {1,  n} on a
n
µ i=1 Ai = i=1 µ(A i) (additivité finie).
Sn  Pn
− Autrement µ i=1 Ai 6 i=1 µ(Ai) (sous-additivité).

16.7.2 Application σ-additive d’ensemble


Définition 16.86. Soient E un ensemble, C un anneau d’ensemble sur E et F un ensemble
topologique muni d’une loi additive (groupe, e.v., ...).
On appelle application σ-additive d'ensemble toute application µ: C → F telleSque :
pour toute suite (Ai)i>1 d’éléments disjoints de A (Ai ∩ A j = ∅ si i  j) et telle que ∞
i=1 Ai ∈
S  P A.
+∞
On a : µ i=1 A i = +∞i=1 µ(Ai) (σ-additivité).

Remarque 16.87. Les propositions précédentes restent valables.


S∞
Proposition 16.88.
! Posons F = R̄+. Soit une suite d’élément de A telle que i=1 Ai ∈ A. On

[ ∞
X
a alors µ Ai 6 µ(Ai) (σ-sous-additive).
i=1 i=1

16.7.3 Mesure sur un anneau d’ensemble


Définition 16.89. Soient E un ensemble, C un anneau d’ensemble sur E.
16.7 Mesures 191

On appelle mesure toute application µ: C → R̄+, R, R̄, C telle que :


− µ(∅) = 0
− S ∞: pour toute suite (Ai)i>1 d’éléments disjoints de A (Ai ∩ A j = ∅ si i  j)
et µ σ-additive
et telle que Ai ∈ C.
S ∞ i=1  P∞
On a : µ i=1 Ai = i=1 µ(Ai) (σ-additivité).

Remarque 16.90. Suivant l’ensemble des valeurs on a :


µ est une mesure si l’ensemble de valeur est
positive R̄+
réelle R
réelle positive finie R+
signée ou réelle généralisée R̄
complexe C

Définition 16.91. Une mesure sur C est dite bornée ou nie si et seulement si ∃M ∈ R+;
∀A ∈ C; |µ(A)| < M, est-ce équivalent à |µ(C)| < + ∞ ? oui ! (évident) !

Définition 16.92. Une mesure sur C est appelée probabilité si et seulement si |µ(C)| < 1
Définition 16.93. µ est dite σ-bornée ou σ-nie si et seulement si ∃(Ai)i>1 une suite d’élé-
ments de A telle que :
S∞
i. E = i=1 Ai «(Ai)i>1 recouvre E»
ii. µ(Ai) < + ∞

Proposition 16.94. Soit µ une mesure. Si µ est bornée alors µ est σ-bornée.

Exemple 16.95.
1. Soit E = {1,  , n}, n > 1, n fixé et A = P(E).
l’application µ: A → R+ est une mesure bornée.
A 
card(A)
2. Soit E = N et A = P(N).
l’application µ: A → R+ est une mesure σ-bornée.
A 
card(A)
3. Soit E = R et A = A4.
l’application µ: A4 → R+ définie par :
A 
µ(A)
i. µ(A) = + ∞ si A contient un intervalle de la forme ]b; + ∞[ ou ] − ∞; a],
Xn n
[
ii. µ(A) = (bi − ai) si A = ]ai; bi[
i=1 i=1
µ est une mesure σ-bornée.
4. Rajouter page 15, calcul intégral de Buchwalter.
5. L’application δx: A 1 A(x) est appelée mesure de Dirac au point x.
6. Soit E un ensemble quelconque, A = P(E), n > 1 un nombre entier fixé, (αi)i=1,  n une
suite finie d’élément de R+ et (xi)i=1,  n une suite finie de point de E.
l’application µ: A → R+ est une mesure positive et bornée.
n

X
A 1A(xi)
i=1
192 Mesure et Intégrale de Lebesgue

16.7.4 Mesures définies sur une algèbre


Soit (E , A) un espace mesurable.

Théorème 16.96. Soit µ une mesure définie sur une algèbre A d’un ensemble E.
µ est σ-finie ⇔ µ(E) < + ∞.

Théorème 16.97. Soit µ: A → R+ une mesure définie sur une algèbre A et (Ai)i>1 une suite
croissante d’élément de A convergent vers un ensemble A ∈ A. On a alors limi→+∞ µ(Ai) =
µ(A).

Théorème 16.98. Soit µ: A → R+ une mesure définie sur une algèbre A et (Ai)i>1 une suite
décroissante d’élément de A convergent vers un ensemble A ∈ A. Si de plus ∃i0; µ(Ai0) < + ∞,
on a alors limi→+∞ µ(Ai) = µ(A).

16.7.5 Mesures définies sur une tribu


Remarque 16.99. Comme A est une tribu, on n’est S ∞ plus obligé de s’assurer dans la définition
de la mesure que pour la σ-additivité on a bien : i=1 Ai ∈ A. On obtient la C.N.S. (qui pour-
rait servir de définition) suivante :

Théorème 16.100. Soit µ: T → R̄+ une mesure définie sur une tribu T = σ(A) engendrée par
une algèbre A.
Si il existe une suite (Ai)i>1 d’éléments de A telle que :
S∞
i. E = i=1 Ai,
ii. µ(Ai) < + ∞.
Alors ∀A ∈ T et ε > 0 fixé, il existe un ensemble B(ε) ∈ A tel que µ(A∆B(ε)) 6 ε.

Théorème 16.101. Soit µ, µ ′: T → R̄+ 2 mesures définies sur une tribu T = σ(A) engendrée
par une algèbre A.
Si les conditions suivantes sont vérifiées :
1. µ(A) = µ ′(A), ∀A ∈ A,
2. il existe une suite (Ai)i>1 d’éléments de A telle que :
i. E = ∞ i=1 Ai,
S

ii. µ(Ai) = µ ′(Ai) < + ∞, ∀i > 1.


Alors µ(A) = µ ′(A), ∀A ∈ T.

Remarque 16.102. On vient de montrer qu’une mesure définie naturellement sur une algèbre
admet au plus 1 prolongement à la tribu engendrée. Ainsi si le prolongement existe il est unique.
Reste à prouver qu’il en existe effectivement une ! Cette construction est faite à l’aide de la
notion de mesure extérieure.

16.7.6 Espace mesuré


Définition 16.103. Soit E un ensemble, S un σ-anneau/tribu et µ une mesure positive.
On appelle espace mesuré/probabilisé le triplet (E,S,µ).

16.8 Mesures extérieures, ensemble négligeable


C’est une notion indépendante ! qui peut se comporter comme une mesure dans certains cas
précis. Comme on ne dispose pas de mesure sur une tribu, on va étendre la mesure définie ? On
part d’une mesure connue sur des ensembles simples pour l’étendre le plus possible !
16.8 Mesures extérieures, ensemble négligeable 193

16.8.1 Mesure extérieure


Définition 16.104. Soit E un ensemble quelconque.
On appelle mesure extérieure toute application µ: P(E) → R̄+ vérifiant les axiomes sui-
vants :
1. µ(∅) = 0,
2. (A ⊂ B) ⇒ (µ(A) 6 µ(B)), ∀A, B ∈ P(E) (monotonie-croissante).
S  P
+∞ +∞ ∗
3. µ i=1 Ai 6 i=1 µ (Ai), ∀Ai ∈ P(E) (σ-sous additivité), la mesure extérieure d’une
somme dénombrable et plus petite que la somme dénombrable des mesures extérieures.

Exemple 16.105. La mesure extérieure associée à une mesure (notion définie dans la section
suivante) est une mesure extérieure.

Remarque 16.106.
1. Attention, l’appellation mesure extérieure est un abus de vocabulaire puique µ∗ n’est pas
une mesure (elle n’est pas σ-additive mais seulement σ-sous-additive).
2. Par contre, si la mesure extérieure est additive alors elle est une mesure positive.

16.8.2 Mesure extérieure associée à une mesure et ensemble négli-


geable
Définition 16.107. Soit µ: A → R+ une mesure σ-bornée définie sur un anneau/algèbre/tribu A
d’un ensemble E.
On appelle mesure extérieure associée à µ l’application : µ∗: P(E) → R̄+ telle que :
A µ∗(A)
• Si A est un 
anneau
 + ∞, si E ne peut pas être recouvert par une suite d’éléments de A
µ∗(A) = n P
+∞ S +∞ o
 inf i=1 µ(A i); A ⊂ i=1 A i; A i=1,  n ∈ A , sinon

• Si A est une algèbre,


n P o
+∞ S +∞
µ∗(A) = inf i=1 µ(Ai); A ⊂ i=1 Ai; Ai=1,  n ∈ A
C’est la borne inférieure des sommes des mesures des recouvrements de A par des élé-
ments de l’algèbre.
• Si A est une tribu, on a plus simplement
µ∗(A) = inf ({µ(B); A ⊂ B , B ∈ A})
C’est la borne inférieure de toutes les mesures des ensembles de la tribu contenant A.

Proposition 16.108.
1. µ∗(∅) = 0,
2. (A ⊂ B) ⇒ (µ∗(A) 6 µ∗(B)), ∀A, B ∈ P(E) (monotonie-croissante).
S  P
+∞ +∞ ∗
3. µ∗ i=1 Ai 6 i=1 µ (Ai), ∀Ai ∈ P(E) (σ-sous additivité).

Autrement dit, la mesure extérieure associée une mesure est une mesure extérieure.

Remarque 16.109. Comme précédement pour la mesure extérieure, la mesure extérieure asso-
ciée à une mesure n’est pas d’une manière générale une mesure.

Définition 16.110. On dit qu’un ensemble A ∈ P(E) est µ-négligeable si et seulement si


µ∗(A) = 0. Autrement dit il est contenu

Remarque 16.111. Dans le cas d’une tribu A est µ-négligeable si et seulement si il est contenu
dans une ensemble de mesure nulle. ?????
194 Mesure et Intégrale de Lebesgue

Proposition 16.112. Soit µ∗ la mesure extérieure associée à une mesure µ σ-bornée définie sur
une algèbre A d’un ensemble E.
1. µ∗(A) = µ(A), ∀A ∈ A, " la mesure extérieure et sa mesure associée coïncident sur A "
2. (µ∗(A) = 0) ⇒ (∃B ⊃ A; µ∗(B) = 0), autrement dit "A µ-négligeable ⇒ A est contenu dans
un ensemble B µ-négligeable",
S 
+∞
3. ∀Ai ∈ P(E), i > 1 tels que µ∗(Ai) alors µ∗ i=1 A i = 0.

Rajouter la définition d’un espace complet ici, livre de JP. Marco Mathématique pour la licence.

16.8.3 Ensembles µ-mesurables (au sens de Carathéodory)


Théorème 16.113. Soit µ∗ la mesure extérieure associée à une mesure µ bornée définie sur
une algèbre A d’un ensemble E.
On note M = {A ∈ P(E); µ∗(A) + µ∗(Ac) = µ(E)} et on a alors :
1. M = {A ∈ P(E); A = B ∪ N ; B ∈ σ(A) et µ∗(N ) = 0}
2. La classe M est une tribu et M ⊃ σ(A).

3. l’application µ∗: M → R̄+ est une mesure bornée sur M, c’est l’unique mesure
A  µ∗(A)
bornée qui coïncide avec µ sur A.

Théorème 16.114. Soit µ∗ la mesure extérieure associée à une mesure µ σ-bornée définie sur
une algèbre A d’un ensemble E.
On note M = {A ∈ P(E); µ∗(Ai ∩ A) + µ∗(Ai \A) = µ(Ai), ∀i > 1} et on a alors :
1. La classe M ne dépend pas du choix de la suite (Ai)i>1 d’éléments de A,
2. M = {A ∈ P(E); A = B ∪ N ; B ∈ σ(A) et µ∗(N ) = 0}
M = {A ∈ P(E); A = B ∪ N ; B ∈ σ(A) et µ∗(N ) = 0 et B ∩ N = ∅},
3. La classe M est une tribu et M ⊃ σ(A).

4. l’application µ∗: M → R̄+ est une mesure σ-bornée sur M, c’est l’unique mesure σ-
A  µ∗(A)
bornée qui coïncide avec µ sur A.

Définition 16.115. Les éléments de M sont appelés ensembles µ-mesurables.


Remarque 16.116. Attention à ne pas confondre avec les ensembles T -mesurable ou T est un
σ-anneau ou une tribu.

16.8.4 Mesure canonique de Lebesgue


Lire livre d’André Gramain Intégration p. 111,...,117 (en suspend)
Appliquons ce que nous venons de voir à la mesure de longueur µ: A4 → R̄+.

Définition 16.117. Soit une mesure définie sur une algèbre engendrant la tribu borélienne de
R (par exemple µ: A4 → R̄+ ), on appelle mesure canonique de Lebesgue et on note µl (d x
ou encore λ), la mesure extérieure associée à µ. Autrement dit c’est l’unique mesure prolongeant
µ. Les ensembles A ∈ M sont dits mesurables.

Remarque 16.118. M  P(E).

Comment utilise-t-on la mesure ainsi construite ?


Propriété de la mesure de Lebesgue :
Voir livre André Gramain page 120,
16.9 Intégrale 195

Trouver la démonstration de : f (x + a)dx = f (a − x)d x = f (x)dx comme annoncée


R R R

par Buchwalter page 115 Calcul Intégral. (Démonstration n’utilisant pas le théorème de change-
ment de variable). Lire LIvre Daniel Revuz page 80, + d’autre propriété sur Intégration par
rapport à la mesure de Lebesgue. Créer ce chapitre.

16.8.5 Propriété vraie presque partout


Définition 16.119. Une propriété dépendant d’un point x est dite µ-p.p. si et seulement si {x;
¬P (x)} est µ-négligeable.

Exemple 16.120.
− f 6 g, µ-p.p. ⇔ [f > g] est µ-négligeable, définit sur un espace ordonné.
− f = g, µ-p.p. ⇔ [f  g] est µ-négligeable, défini sur toute partie de E Ω.

16.9 Intégrale
Soit (E , T ) un espace probabilisable, on désignera par :
− L̄ (T ) l’ensemble des applications mesurables de (E , T ) → (R̄, B(R̄))
− L̄+(T ) l’ensemble des applications mesurables de (E , T ) → (R̄+, B(R̄+))
− E+(T ) l’ensemble des applications positives et étagées sur T .

16.9.1 Intégrale supérieure sur un espace probabilisable


Définition 16.121.
On appelle intégrale (supérieure) sur (Ω, T ) toute application L: L̄+(T ) → [0, + ∞] telle que :
− L(0) = 0,
 P 
− n>1 L(fn), (fn) est une suite d’application de L̄+. (Convergence
P
L n>1 fn =
Monotone pour les séries)

Théorème 16.122. (de Beppo Levi) Soit (Ω, T ) un espace probabilisable.


L’application L: L̄+(T ) → [0, + ∞] est une intégrale supérieure sur (Ω, T ) si et seulement si :
− L(0) = 0,
− L(f + g) = L(f ) + L(g).

Théorème 16.123. (de Beppo Levi) Soit (fn) une suite croissante de fonctions mesurables
positives. (fn ↑f ) ⇒ (L(fn)↑L(f )) .

Remarque 16.124. C’est un théorème de convergence monotone pour les suites de fonctions mesurables
positives. Le théorème de Beppo Levi peut aussi s’écrire L(sup (fn)) = sup (L(fn)). Attention : ne concerne que
les fonction mesurables positives, pour les fonctions mesurables de signe quelconque, on dispose d’un autre théo-
rème de Beppo Levi où il faut ajouter des hypothèses plus fortes : fn suite de fonctions µ-intégrables.

Proposition 16.125. Soit (Ω, T ) un espace probabilisable.


Soit L une intégrale supérieure sur (Ω, T ) alors
− ∀λ > 0, L(λf ) = λL(f ),
− ∀f , g; (f 6 g) ⇒ (L(f ) 6 L(g)).

Remarque 16.126. Compte tenu des propriétés précédentes une intégrale supérieure est une
application linéaire.
196 Mesure et Intégrale de Lebesgue

P∞
Proposition 16.127.
R R
S∞
Aj
fdµ = j =1 Aj
fdµ
j =1

Autrement dit Livre Genet page 107.

16.9.2 Mesure positive définie par une intégrale supérieure


Théorème 16.128. (Fondamental) Pour toute fonction positive l’application
v f : B → R̄+ est une mesure positive sur B.
A 
R ∗
A
fdµ

Définition 16.129. Soit L une intégrale supérieure sur (Ω, T ).


On appelle mesure définie relativement à L et on note µL l’application
µL: Ω → .
A 
L(1A)

Proposition 16.130. L’application µL est une mesure.

Remarque 16.131. On vient d’établir que toute intégrale sup. permet de définir une mesure.

16.9.3 Intégrale définie par une mesure positive


On fera attention au fait que ces définitions et ces propriétés sont établies pour des fonctions
positives.

16.9.3.1 Pour une fonction étagée

Définition 16.132. Soit µ une mesure sur une tribu T de Ω. f une application étagée positive
telle que f = λk1Ak.
P
On appelle intégrale définie par rapport ou associée à µ l’application :
L µ: E¯+(T ) → [0,P + ∞] avec pour convention 0 × ( + ∞) = + ∞ × 0 = 0
f  λkµ(Ak)
L µ(f ) est appelée intégrale de f par rapport à µ. On la note fdµ ou
R R
f (x)dµ(x).

Remarque 16.133.
1. L’intégrale définie d’une fonction étagée par rapport ou associée à µ est une intégrale.
2. Si f = 1A, on a L µ(1A) = µ(A) i.e.
R
1A dµ = µ(A).
3. On notera A fdµ ou A f (x)dµ(x) l’intégrale 1A fdµ.
R R R

4. On vient de définir que toute mesure positive permet de définir une intégrale d’une fonc-
tion étagée.

16.9.3.2 Pour une fonction mesurable

Définition 16.134. Soit µ une mesure sur une tribu T de Ω.


Soit f une application mesurable positive.
On appelle intégrale de f définie par rapport ou associée à µ l’application :
L µ: L+(T ) → [0, + ∞]
f  sup g ∈E+(T );g6 f (L µ(g))
L µ(f ) est appelée intégrale de f par rapport à µ. On la note fdµ ou
R R
f (x)dµ(x)

Remarque 16.135.
1. Soit f une application mesurable quelconque f + − f − dµ
R R
fdµ =
16.9 Intégrale 197

2. L’intégrale d’une fonction mesurable définie par rapport ou associée à µ est une intégrale
(rajouter les propriétés et conclure).
3. Si f = 1A, on a L µ(1A) = µ(A) i.e.
R
1A dµ = µ(A).
4. On notera A fdµ ou A f (x)dµ(x) l’intégrale 1A dµ = nk=1 λkµ(Ak ∩ A).
R R R P

5. On vient de définir que toute mesure positive permet de définir une intégrale d’une fonc-
tion étagée.

16.9.3.3 Propriétés générales

Proposition 16.136. (Lemme de Fatou) Soit (fn) une suite quelconque de L̄+ ,
− alors, limn→∞ (fn)dµ 6 limn→∞
R R
fndµ.
− en particulier, si fn → f et si fndµ 6 M alors
R R
fdµ 6 M.

Théorème 16.137. Soit f ∈ L̄+ , alors : ( fdµ = 0) ⇔ f = 0 µ.p.p.


R

Remarque 16.138. Attention cette propriété est valable uniquement pour une fonction mesu-
rable positive ! (i.e. à valeur dans R+)

Proposition 16.139. Soit f , g ∈ L̄+ et une suite (fn) une suite de L̄+ , alors
R R
− (f 6 g) µ.p.p. ⇒ ( fdµ 6 gdµ),
R R
− (f = g) µ.p.p. ⇒ ( fdµ = gdµ),
R
− ( fdµ < + ∞) ⇒ (f < + ∞) µ.p.p.
− Si (fn) est croissante et fndµ bornée dans R alors (fn) est µ.p.p. convergente dans
R
R.
− Si (fn) est quelconque et si ( fndµ) convergente alors fn est µ.p.p. conver-
P R P
gente dans R et fn → 0 µ.p.p. .

16.9.3.4 Relation entre mesure et intégrale

Théorème 16.140. Soit (E , T ) un espace mesuré. Il existe une bijection entre l’ensemble des
mesures positives sur T et l’ensemble des intégrales sur (E , T ).

Exemple 16.141.
Mesure associée Intégrale
Mesure de Dirac δa R
a ∈ E; T = P(E) → fdδa = f (A)
δa(A) = 1A(a)
Mesure discrète
(an)Psuite de E, (αn) suite positive
R
→ fdµ = αkf (ak)
µ= αkδak
Mesure de dénombrement alors L̄+(T ) est l’ensemble des suites
E = N, T = P(N), µ = Σδk → à Rvaleurs dans R̄+
µ(A) = card(A) si A fini, + ∞ sinon
P
xn dµ = xn
Mesure image

ν(A) = µ(f −1(A))
MesureR à densité

ν(A) = A hdµ
16.9 Intégrale 199
Chapitre 17
Espace L1 des fonctions µ-intégrables
Note 17.1. On étudie maintenant les ensembles de fonctions pour lesquelles l’intégrale est finie,
puis celle dont l’intégrale d’une de ses puissances est fine. Les problèmes apparaissent lors des
opérations infinies sur les intégrales qui même si leurs valeurs deviennent de plus en plus petites
1
ne donnent pas toujours des résultats finies. Par exemple limn→+∞ dt est finie. Ces
R
n(t)
ensembles possèdent des structures que nous mettrons en évidences (espace vectoriel, espace vec-
toriel normé, espace de Hilbert ..) ainsi que des théorèmes de convergences très pratiques. On
dispose ainsi d’outils qui permettent d’affirmer que les calculs faisant intervenir des intégrales
donneront des résultats finis.

17.1 Fonction µ-intégrable et espace L1

17.1.1 Définition
Soit (E , T ) un espace probabilisable, on désignera par :
− L̄ (T ) l’ensemble des applications mesurables de (E , T ) → (R̄, B(R̄))
− E¯ (T ) l’ensemble des applications étagées sur T .
− f + = sup (0, f ) et f − = − inf (0, f ).
Conventions :

Définition 17.2.
1. Soit f : E → R̄+ une fonction mesurable réelle positive et µ une mesure.
• On Rdit que f est µ-intégrable par rapport à µ si et seulement si :
f dµ < + ∞.
Dans ce cas le nombre réel noté fdµ est appelé intégrale (de Lebesgue abstraite)
R

de f pour la mesure µ.
2. Soit f : E → R̄ une fonction mesurable réelle et µ une mesure.
• On dit que f est µ-intégrable par Rrapport à µ si et seulement si :
f + et f − sont µ-intégrables i.e. f +dµ < + ∞ et
R −
f dµ < + ∞.
Dans ce cas le nombre réel noté f dµ tel que f dµ = f +dµ − f −dµ est
R R R R

appelé intégrale (de Lebesgue abstraite) de f pour la mesure µ.
3. Soit f : E → C une fonction mesurable complexe et µ une mesure.
• On dit que f est µ-intégrable par Rrapport à µ si etRseulement si :
Im(f) et Re(f) µ-intégrables i.e. |Re(f )|dµ et |Im(f )|dµ
Dans ce cas le nombre réel noté f dµ tel que Re(f )dµ + i
R R R R
• f dµ =
Im(f )dµ est appelé intégrale (de Lebesgue abstraite) de f pour la mesure µ.

Remarque 17.3.
1. Pour montrer qu’une application est µ-intégrable bien s’assurer que cette fonction est
mesurable, l’intégrale n’étant définie que pour ce type de fonction !
2. Dans la définition précédente pour une fonction réelle ou complexe écrire :
f +, f − ou (Im(f ), Re(f )) µ-intégrables équivaut à écrire |f | dµ < + ∞
 R

200
17.2 Théorèmes de convergence dominée 201

3. On a pris une fonction f : E → [ − ∞; + ∞], on peut donc se retouver avec des opérations
du type : + ∞ + ( − ∞). Or on montre (voir cours de licence p. retrouver la page et
mettre cette propriété en théorème) que l’ensemble des points de valeur infinie pour une
fonction µ-intégrable est de mesure nulle, or par convention on a posé : 0 × ( + ∞) = 0, on
peut donc également par convention décider que + ∞ + ( − ∞) = 0. En fait on aurait pu
donner n’importe qu’elle valeur à cette opération : 26 ou même + ∞, on choisit la plus
simple. Autrement dit, pour une fonction f µ-intégrable l’ensemble des points de mesure
infinie est invisible , ils n’influent pas le résultat.
4. On désignera par L1(E , T , µ, K) ou L1(µ) ou L1 ou L1(K) l’ensemble des fonctions µ-
intégrables (K = R ou C).
5. Si µ est la mesure de Lebesgue, on dit que f est Lebesgue intégrable.

17.1.2 Propriétés
+
Proposition 17.4.
R Soient (E , µ) un espace mesuré et h, g deux fonctions : E → R̄ telles que :
hdµ < + ∞ et
R
gdµ < + ∞
Alors :
R R R
(h − g)dµ = hdµ − gdµ.

Proposition 17.5.
1. Toute fonction mesurable µ.p.p.-nulle est µ-intégrable et d’intégrale nulle.
2. Si f est une fonction mesurable telle qu’il existe une fonction g µ-intégrable avec |f | 6 g
alors : f est µ-intégrable.
3. Si f est µ-intégrable et g mesurable bornée, alors f × g est µ-intégrable.

Proposition 17.6.
1. L1 est un sous-espace vectoriel réticulé de l’algèbre L.
2. (Inégalité de la moyenne) L’intégrale de Lebesgue abs. : f
R
fdµ est une forme linéaire
positive sur L1. En particulier si f ∈ L1 , on a | fdµ| 6
R R
|f |dµ

17.1.3 Fonction localement µ-intégrable


Définition 17.7. Soit (E , O) un espace topologique séparé localement compact, µ une mesure
sur E, définie sur une tribu T contenant la tribu borélienne T (O) et f : E → C une application
mesurable. On dit que f est localement µ-intégrable si et seulement si :
∀x ∈ E , ∃V un voisinage de x tel que f × 1V soit µ-intégrable.

Remarque 17.8.
1. f est localement µ-intégrable ⇔ pour tout compact K, f × 1K est µ-intégrable.
2. Soit I un intervalle de R, une application mesurable f : E → C est localement λ-inté-
grable ⇔ f est λ-intégrable sur tout segment [a, b] inclus dans I.

17.2 Théorèmes de convergence dominée

17.2.1 ... pour une suite définie par N


R 
fndµ n∈
Nous sommes ici dans L et nous travaillons sur des fonctions de signe quelconque. Il existe un
1

autre théorème de Beppo-Levi pour les fonctions mesurables positives.

Théorème 17.9. (de convergence monotone de Beppo Levi) Soit (fn) une suite croissante de
fonctions fn: U → R µ-intégrables sur un ouvert U de Rn et telle que :
202 Espace L1 des fonctions µ-intégrables

supn>1 fndµ < + ∞ (la suite des intégrales de fn est majorée) alors
R
U

1. La suite (fn) converge en moyenne vers une fonction f finie pour presque tout x et f est
p.p.
intégrable R: limn→+∞ fn(x) = supn>1 (fn(x)) = f (x) < + ∞, (f ∈ L1 ) de plus
limn→+∞ |f − fn |dµ → 0,
2. La suite ( fndµ)n converge vers fdµ i.e. limn→+∞ (fn)dµ = (limn→+∞ fn)dµ.
R R R R

Démonstration. Enoncé d’après le cours ARN Licence de Math 2001-2001 M.Fack, polycopié
page (12). 

Remarque 17.10. Convergence en moyenne d’une suite de fonctions : convergence dans L1 des
fonctions réelles Lebesgue intégrables au sens de la semi-norme de la convergence moyenne
R i.e.
la suite (fn)n>0 de fonctions de L1 converge en moyenne vers f ∈ L1 ⇔ la suite générale |f −
fn |dµ converge vers 0 quand n tend vers + ∞.

Proposition 17.11. (Théorème de convergence dominée de Lebesgue) R


Soit (fn) une suite de fonctions mesurables et la suite définie par ( fndµ). On suppose que
(fn) vérifie les hypothèses suivantes :
i. (fn) converge µ.p.p. vers une fonction mesurable f.
ii. ∃g ∈ L1(E , T , µ); g > 0, |fn | 6 g, µ.p.p., ∀n).
Il existe une fonction positive µ-intégrable g majorant en valeur absolue tous les
termes de la suite et indépendante de l’indice de la suite presque partout.
(condition de dominationR : existence d’une majorante µ-intégrable) R
Alors f est µ-intégrable, fndµ converge vers fdµ, autrement dit,
R
fdµ < + ∞,
limn→+∞ |fn − f |dµ = 0 et limn→+∞ fndµ = fdµ .
R R R

17.2.2 ... pour une suite définie par N


R P 
fndµ n∈

Proposition 17.12. (Théorème de convergence dominée pour P les séries)


Soit (fn) une suite de fonctions µ-intégrables telle que : n>1 (
R
|fn |dµ) < + ∞,
Alors la série est absolument convergente dans R et
P
fn µ.p.p.
R P  R n>1
fn dµ) .
P
n>1 fn dµ = n>1 (

17.2.3 ... pour une fonction définie par x  R


E
f (x, t)dµ(t)

Problème : Intéressons-nous à la fonction définie par : F : D → R C .


x E
f (x, 
t)dµ(t)
− Quand est-elle définie ?
Sous quelles conditions peut-on écrire lim x→x0 lim x→x0 f (x,
R R
− E
f (x, t)dµ(t) = E
x∈D x∈D
t)dµ(t) i.e. converge-t-elle au voisinage d’un point x0 ?
d R ∂f
Sous quelles conditions peut-on écrire dx E f (x, t)dµ(t) = E t)dµ(t) i.e. est-elle
R
− ∂x
(x,
dérivable ?

Pour cela considérons la fonction f : D × E → C et ses applications partielles associées,


(x, t) 
f (x, t)
f (•, t), f (x, •). Par rapport à la valeur F (x) et pour éviter toute confusion, nous dirons que la
variable x est le paramètre et t la variable d’intégration puisque l’on intégre la fonction f (x, •)
dont x est le paramètre. Enfin f (•, t) est l’application partielle définie par rapport au para-
mètre, f (x, •) l’application définie par rapport à la variable d’intégration que nous pourrons
aussi noter fp et fi.
Rajouter l’introduction Buchwalter page 42.
17.3 Théorème de dérivation pour une fonction définie par x  R
E
f (x, t)dµ(t) 203

17.2.3.1 Limite
Le théorème ci-dessous répond à ces deux questions.

Théorème 17.13. (Théorème de convergence dominée)


Soit (E , T , µ) un espace mesuré, T un espace métrisable, D une partie de T, les applications
f: D × E → C , F: D → R C et x0 un point adhérent de D. On suppose
(x, t)  f (x, t) x  E
f (x, t)dµ(t)
que f vérifie les hypothèses suivantes :
1. ∀x ∈ D, f (x, •) ∈ L1(E , T , µ). (La fonction F est bien définie et finie)
l’application partielle définie par rapport à la variable d’intégration est µ-intégrable.
2. lim x→x0 f (•, t) = ϕ, µ-p.p., ϕ ∈ L1(E , T , µ). (L1 ou L0 ) ?
x∈D
L’application partielle définie par rapport au paramètre converge µ-p.p. vers une appli-
cation mesurable ϕ.
3. ∃g ∈ L1(E , T , µ); ∀t ∈ D, |f (x, •)| 6 g, µ-p.p..
La valeur absolue de l’application partielle définie par rapport à la variable d’intégra-
tion admet une dominante intégrable indépendante du paramètre.
Alors
F est définie et finie sur D, ϕ est µ-intégrable et F converge vers ϕdµ en x0.
R

et lim x→x0 F (t) = E ϕdµ i.e.lim x→x0 E f (x, t)dµ(t) = E lim x→x0 f (x, t)dµ(t).
R R R

x∈D x∈D x∈D

17.2.3.2 Continuité

Remarque 17.14. Ainsi, dans le cas particulier où le point x0 ∈ D, le théorème précédent


devient un théorème de continuité, la conclusion exprimant dans ce cas la continuité de F en x0.

Enoncé de la C.N. de continuité dans le cas d’une fonction f : I × E → R et x0 ∈ I.

Théorème 17.15. (Théorème de continuité)


Soient (E , T , µ) un espace mesuré, I = ]a; b[; a, b ∈ R̄ , les applications f :
I ×E → C , F: I → R C et t0 un point de I. On suppose que f vérifie les
(x, t)  f (x, t) x E
f (x, t)dµ(t)
hypothèses suivantes :
1. ∀x ∈ I , f(x, •) ∈ L1(E , T , µ). (La fonction F est bien définie et finie).
l’application partielle définie par rapport à la variable d’intégration est µ-intégrable.
2. f (•, t) est continue, limx0 f (•, t) = f (x0, t). (Condition de continuité)
l’application partielle définie par rapport au paramètre est continue en x0.
3. ∃g ∈ L1(E , T , µ); ∀x ∈ ]x0 − ε, x0 + ε[, |f (x, •)| 6 g, µ-p.p. (Condition de Domination).
La valeur absolue de l’application partielle définie par rapport à la variable d’intégra-
tion admet une dominante intégrable indépendante du paramètre.
Alors
• l’application F est définie et continue au point x0 ,
i.e.lim x→x0 E f (x, t)dµ(t) = E lim x→x0 f (x, t)dµ(t).
R R

x∈I x∈I

x
R

17.3 Théorème
E
de dérivation pour une fonction définie par
f (x, t)dµ(t)
Proposition 17.16. (Théorème de dérivation sous le signe )
R
204 Espace L1 des fonctions µ-intégrables

Soient (E , T , µ) un espace mesuré, I un intervalle ouvert de R et les applications f :


I ×E → C , F: I → R C . On suppose que f vérifie les hypothèses sui-
(x, t) 
f (x, t) x  E
f (x, t)dµ(t)
vantes :
1. ∀x ∈ I, f (x, •) ∈ L1(E , T , µ). (La fonction F est bien définie et finie)
l’application partielle définie par rapport à la variable d’intégration est µ-intégrable.
∂f df (•, t)
2. ∂x
i.e. d x existe ∀(x, t) ∈ I × E.
la dérivée partielle de f par rapport au paramètre existe.
∂f
3. ∃g ∈ L1(E , T , µ); ∀x ∈ I , ∂x
6 g sur E.
La valeur absolue de la dérivée partielle de f par rapport au paramètre admet une
dominante intégrable indépendante du paramètre.
Alors
• l’application : F est définie, finie, continue et dérivable sur I
d R R ∂f
• et ∀x ∈ I , d x E f (x, t)dµ(t) = E ∂x (x, t)dµ(t).

Rajouter remarque Buchwalter page 43-44.

Remarque 17.17. En passant sous le signe la dérivée devient logiquement une dérivée par-
R
tielle.

Rajouter : Intégrale convergente de Lebesgue voir livre d’intégration Méthode Hermann page
135.
Rajouter : Holomorphie page 44 Livre Buchwalter.

17.4 Relation entre l’intégrale de Lebesgue et l’intégrale ...


L’intégrale absolument convergente de Riemann est un intégrale de Lebesgue, l’intégrale semi-
convergente de Riemann est un intégrale de Lebesgue convergente (traduire alors les critères de
convergence)..

17.4.1 ... de Riemann sur [a, b] ∈ C


Qu’est-ce qu’une fonction intégrable au sens de Riemmann du point de vue de la thoérie de la
mesure ? En utilisant la notion de mesure, on peut obtenir une C.N.S. d’intégrabilité au sens de
Riemann.

Théorème 17.18. (CNS de Riemann-intégrabilité) Soit f : [a, b] → C une application bornée.


f est intégrable au sens de Riemann si et seulement f est continue λ-presque partout ( c’est
à dire que l’ensemble D f des points de discontinuité est λ-négligeable ).

Proposition 17.19. Soit f : [a, b] → C une application bornée.


Si f est Riemann-intégrable, alors f est mesurable et λ-Lebesgue-intégrable et :
R b R
a
f (x)dx = [a,b] fdλ.

Remarque 17.20. Concernant les autres intégrales ( fonctions réglées et fonctions continues
par morceaux ) elles sont prolongées par l’intégrales de Riemann et l’on peut énoncer pour ces
intégrales : si une fonction réglée ou une fonction continue par morceaux f est intégrable, alors
R b
elle est λ-intégrable et : a f (x)dx = [a,b] fdλ .
R
17.5 Construction de mesures particulières et leur applications 205

[a, b[ ]a, b] ]a, b[


17.4.2 ... généralisée de Riemann sur
a∈ R, b ∈ R a∈ R, b ∈ R a∈ R, b ∈ R a < b
Attention ! Une intégrale généralisée n’est pas une intégrale, c’est la limite d’une fonction définie
par une intégrale (voir sections précédentes sur l’intégrale de Riemann)
Pour décrire le lien entre l’intégrale de lebesgue et l’intégrale antérieure généralisée (ou
imprope), il est utile de faire appel à l’intégrabilité locale :

Proposition 17.21. Soit f : [a, b[ → C une application Riemann-intégrable sur tout segment [a,
m] inclus dans [a, b[. Alors :
f est L-mesurable et localement intégrable, de plus :
R t R b−
|f |dλ = limt→b− a |f (x)|dx = a |f (x)|dx,
R
[a,b[

R b−
Remarque 17.22. On ne sait pas a |f (x)| d x est absolument convergente ou pas. Dans ce
cas la valeur peut être finie ou infinie.

Théorème 17.23. Soit f : [a, b[ → C une application Riemann-intégrable sur tout segment [a, m]
inclus dans [a, b[. Alors :
R b−
f est λ-intégrable sur [a, b[ si et seulement si l’intégrale généralisée a f (x)d x est absolu-
R t R b−
ment convergente, et si c’est le cas : [a,b[ fdλ = limt→b− a f (x)dx = a f (x)dx
R

On obtient des propriétés identiques pour les autres intervalles...

Remarque 17.24.
1. Si f : [a, b] → R est Riemann-intégrable alors |f | l’est également.
2. Attention ! Une fonction f : I → R vérifiant :
 R β
la fonction f (R) α fdx, α → a+, β → b− est convergente dans R
n’est pas pour autant, intégrable au sens de Lebesgue. C’est le cas, par exemple de la

fonction f : x
sin(x)
x
R +∞ sin(x)
: 0 x
π
dx = 2 , mais ]0,+∞[
R sin(x)
x
dλ(x) = + ∞.

17.5 Construction de mesures particulières et leur applica-


tions

17.5.1 Mesures définies par des densités


17.5.1.1 Définitions

Définition 17.25. Soit f : (E , T , µ) → R̄+ une application mesurable positive.


On appelle mesure densité de f par rapport à la mesure µ l’application ν:
T → R R+ . L’application f est appelée densité de ν par rapport à µ.
A  1Afdµ
On la note : ν = f · µ .

Remarque 17.26. (f · µ)(E) = fdµ


R

17.5.1.2 Propriétés générales

Proposition 17.27. La mesure de densité d’une application par rapport à une mesure est une
mesure.

Proposition 17.28. Soit ν = f · µ une mesure de densité. Pour toute fonction mesurable g: (E ,
T ) → R̄ on a :
1.
R R
|g |dν = |g |fdµ
206 Espace L1 des fonctions µ-intégrables

2. et si g ∈ L1(R, T , ν) on a :
R R
gdν = gfdµ

17.5.1.3 Cas particulier de la mesure de Lebesgue


n
Théorème
R
17.29. Soient f : (R n
,
o B(R n
), d x) → R une fonction intégrable et D 0 = x ∈ Rn;
1 B(x,ε) fdy
R
1 dx
→ f (x), si ε → f (a) . Alors D0 est mesurable (pour la mesure de Lebesgue) et
B(x,ε)

Rn \D0 est négligeable.

17.5.1.4 Mesures absolument continues

Définition 17.30. Soient ν , µ deux mesures sur (E , T ). On dit que ν est absolument continue
par rapport à µ et on note ν ≪ µ si et seulement si : µ(A) = 0 ⇒ ν(A)?.

Proposition 17.31. (Randon-Nikodym) Soient ν , µ deux mesures σ-additives et σ-bornées sur


(E , T ) telles que ν ≪ µ. Il existe alors une fonction f : (E , T ) → R̄+ mesurable et telle que ν =
f · µ.

17.5.2 Mesures images


Si l’on dispose de deux ensembles E1, E2, si E1 est muni d’une mesure µ, si de plus on dispose
d’une application mesurable I: E1 → E2 entre ces deux espaces, on va pouvoir munir l’espace E2
d’une mesure par simple transport sur E2 de la mesure µ, par l’application I.

17.5.2.1 Définition

Définition 17.32. Soit I: (E1, T1, µ) → (E2, T2) une application T1-T2-mesurable.
On appelle mesure image l’application définie par : T2 → R̄+ .
A  µ(I −1(A))
On la note notée I ∗ µ, I[µ], I(µ) ou encore µI.
Ainsi avec ces notations, on peut écrire : (I ∗ µ)(A) = I[µ](A) = I(µ)(A) = µI (A) = µ(I −1(A))

17.5.2.2 Propriété générale

Théorème 17.33. La mesure image est une mesure.

17.5.2.3 C.S. d’intégration par rapport à une mesure image

Proposition 17.34. (Théorème de transfert) Soit (E1, T1, µ) un espace mesuré, (E2, T2) un
espace mesurable, I: E1 → E2 une application T1-T2-mesurable, K = R̄ ou C et f : E2 → K une
application T 2 − B(K) − mesurable. Sous ces hypothèses on a :
1. si f Rest de signe quelconque
R alors f ◦ I est T 1 − B(K)-mesurable et :
E
|f |d(I ∗ µ) = E
|f ◦ I |dµ.
2 1

2. si f Rest positive, alors


R f ◦ I est T 1 − B(K)-mesurable, positive et :
E
fd(I ∗ µ) = E
f ◦ Idµ.
2 1

3. (f est I ∗ µ-intégrable) ⇔ (f ◦ I est µ-intégrable); et dans ce cas, on a encore la formule :


R R
E
fd(I ∗ µ) = E f ◦ Idµ.
2 1

17.5.2.4 Mesure image et formalisme probabiliste


Lire cours polycopié licence page 6 du même chapitre.

17.5.2.5 Mesure image et mesure de courbes et de surface de R n

Lire cours polycopié licence page 8 du même chapitre.


17.5 Construction de mesures particulières et leur applications 207

17.5.2.6 Mesure image et formule du changement de variable dans R̄


Proposition 17.35. Soit H: U → V une application bijective entre deux ouverts U , V ∈ Rn , n >
?. On suppose que H est un difféomorphisme. Pour toute fonction mesurable f : V → R̄ (relative-
ment aux tribus boréliennes) on a en notant J (x) le déterminant jacobien de H:
1. V |f (x)|dx = U |f (H(x))| |J(x)|dx
R R

2. et siR f est intégrable


R sur V (pour la mesure de Lebesgue dx) alors
V
f (x)dx = U
f (H(x)) |J(x)|dx

Remarque 17.36. H est bijective donc V = H(U ).

Exemple 17.37.
dans Rn
H H: U → V ; U , V ⊂ Rn
x kx
k 0
J J(x) = = kn
0 k
n
R R
f (x)dx = |k |f (k x)dx
Passage en coordonnées polaires dans R2
H H: U → V
(ρ, θ) 
(ρcosθ, ρsinθ)
cosθ − ρsinθ
J J(ρ, θ) = =ρ
sinθ ρcosθ
R R R +∞ R π
f (x, y)dxdy = 0 −π
f (ρcosθ, ρsinθ)ρdρdθ
Passage en coordonnées sphériques dans R3
H H: U → V
(ρ, θ, ϕ) 
(ρsinθcos ϕ, ρsinθsin ϕ, ρcosθ)
sinθcosϕ ρcosθcosϕ − ρsinθsinϕ
J J(ρ, θ) = sinθsinϕ ρcosθsinϕ ρsinθcosϕ = ρ2sinθ
cosθ − ρsinθ 0
R +∞ R π R π
f (ρsinθcosϕ, ρsinθsinϕ, ρcosθ)ρ2sinθdρdθdϕ
R R R
f (x, y, z)dxdydz = 0 0 −π

17.5.3 Mesures produits


La mesure produit est une mesure particulière sur un espace produit qui permettra de facilité
l’intégration sur un espace identifié comme étant un espace produit.

17.5.3.1 Existence et Définition

Proposition 17.38. Soient (Xi , Ci , µi) (i = 1, 2) deux espaces mesurés tels que les mesures µi
soient σ-finies. Il existe une unique mesure µ sur l’espace mesurable produit (X1 × X2, T1 ⊗ T2),
vérifiant la condition µ(T1 × T2) = µ1(T1) · µ2(T2), pour tout T1 ∈ C1 et T2 ∈ C2.

Remarque 17.39. L’unicité de la mesure produit est assurée par le fait que l’on a pris soin de
choisir µ1 et µ2 σ-finies.

Définition 17.40. Soient (Xi , Ci , µi) (i = 1, 2) deux espaces mesurés tels que les mesures µi
soient σ-finies. On appelle mesure produit des mesures µ1 et µ2 l’unique mesure sur
l’espace mesurable produit (X1 × X2, T1 ⊗ T2) notée µ1 ⊗ µ2 , vérifiant la condition µ1 ⊗ µ2(T1 ×
T2) = µ1(T1) · µ2(T2), pour tout T1 ∈ C1 et T2 ∈ C2.
208 Espace L1 des fonctions µ-intégrables

17.5.3.2 Mesure produit et intégration sur un espace produit (théorèmes de


Fubini)

Remarque 17.41. Il existe deux énoncés du théorème de Fubini qui permet de calculer les
intégrales sur un espace produit :
− l’un pour les fonctions positives mesurables, connu aussi sous le nom de théorème de
Fubini-Tonelli où les hypothèses à vérifier sont quasi inexistantes,
− l’autre pour les fonctions mesurables de signe quelconque, où il faudra vérifier que la fonc-
tion est intégrable par rapport à la mesure produit.

Théorème 17.42. (Théorème de Fubini-Tonelli)


Soit f : (E1 × E2, T1 ⊗ T2, µ1 ⊗ µ2) → R̄+ une fonction T1 ⊗ T2-mesurable positive, alors les
applications partielles sont Ti-mesurables ainsi que les intégrales définies par ces applications
partielles et l’intégrale par rapport à la mesure produit peut alors s’obtenir par double intégra-
tion :
1. Pour tout x1 ∈ E1 fixé, l’application x2  f (x , x ) est T
1 2 2 − B(R̄
+
)-mesurable;
2. Pour tout x2 ∈ E2 fixé, l’application x1  f (x , x ) est T
1 2
+
1 − B(R̄ )-mesurable;

3. l’application x1 R
f (x1, x2)dµ2(x2) est T1 − B(R̄+)-mesurable;
4. l’application x2 R
f (x1, x2)dµ1(x1) est T2 − B(R̄+)-mesurable;
5. et enfin fdµ1 ⊗ dµ2 = ( fdµ2)dµ1 = ( fdµ1)dµ2.
R R R R R

Proposition 17.43. (Théorème R de Fubini) Soit f : (E1 × E2, T1 ⊗ T2, µ1 ⊗1 µ2) → R̄ une fonction
mesurable. On suppose que : |f |dµ1 ⊗ µ2 < + ∞, autrement dit R : f ∈ L (E1 × E2, T1 ⊗ T2, µ1 ⊗
µ2) ou encore f est µ 1 ⊗ µ2-intégrable alors en notant N 1 = {x 1; |f (x1, x2)|dµ2(x2) = + ∞} et
|f (x1, x2)|dµ1(x1) = + ∞} on a :
R
N2 = {x2;
1. µ1(N1) = µ2(N2) = 0
2. et
R R R R R
fdµ1 ⊗ dµ2 = N c ( fdµ2)dµ1 = N c ( fdµ1)dµ2
1 2

17.5.3.3 Mesure produit et intégration sur un produit fini d’espaces


Le théorème précédent se généralise immédiatement aux produits finis

Proposition 17.44. (Théorème de Fubini-Tonelli) Soient (Ei , Ti , µi), 1 6 i 6 n, E = ni=1 Ei,


Q
Nn Nn
T = i=1 Ti, µ = i=1 µi alors pour toute fonction positive f : (E , T , µ) → R̄ intégrable pour µ,
on
R a: R
( ( fdµ1)dµ2 )dµn.
R
fdµ =

17.5.3.4 Cas particulier de la mesure de Lebesgue sur R n

Nn
Proposition
Nn 17.45. (Théorème de Fubini-Tonelli) Soient E = Rn, B(Rn) = i=1 B(Ri), µ =
µi alors pour toute fonction positive f : (E , B(R n
), µ) → R̄ intégrable pour µ, on a :
R i=1
fdx = ( ( fdx1)dx2 )dxn.
R R

Proposition 17.46. Soit f1 et f2 deux fonctions numériques définies sur Ω1, Ω2 notons f1 ⊗ f2

la fonction définie sur Ω = Ω1 × Ω2 par : (x1, x2) f1(x1) × f2(x2)
i. Si f1 et f2 sont à valeurs dans [0, + ∞] etR si f1, f2 sont mesurables, alors fR = f1 ⊗ f2 est
Σ-mesurable, à valeur positive ou non et
R
(f1 ⊗ f2)d(µ ⊗ µ) = f1 dµ1 × f2 dµ2
ii. Si f1 et f2 sont à valeurs dans R et si f1, f2 sont intégrables respectivement par rapport à
, alors est intégrable par rapport à et
R
µ
R 1 , µ2 R f = f 1 ⊗ f 2 µ = µ1 ⊗ µ 2 (f 1 ⊗ f 2)d(µ ⊗ µ) =
f1 dµ1 × f2 dµ2

Démonstration. Buchwalter page 82 et 83. 


17.5 Construction de mesures particulières et leur applications 209
Chapitre 18
Les coniques

210
Les coniques 211
Chapitre 19
Calcul scientifique
Livre Analyse Numérique Michelle Schatzmann p.218-243
Recherche de méthodes efficaces (c’est à dire en temps polynomial) permettant de résoudre
des problèmes mathématiques. Certains théorèmes d’autre cours apparaissent indaptés dans le
résolution car leur mise en application est irréalisable : soit le temps de d’éxéctuion des algo-
rithme est trop important (en temps exponentiel) soit il monopolise trop de ressources machine.
Le but de ce chapitre est de faire le tri de l’ensemble des cours d’analyse pour rechercher tous
les outils efficaces et les mettre en application.
Voir Document téléchargé G. Bontempi page 52.

19.1 Résolution numérique d’équations et systèmes d’équa-


tions non linéaires
Un des principaux objectifs du calcul numérique est la résolution de l’équation f (x) = 0, x ∈ [a,
b].
Soit f : R → R et F : Rn → Rn deux applications pour lesquelles on souhaite résoudre les
équations : f (x) = 0 et F (x) = 0. (1.1)
De quels outils dispose-t-on ?

19.1.1 Cas scalaire f : R → R


19.1.1.1 Théorème des valeurs intermédiaires et dichotomie (Algorithme de dicho-
tomie)

Théorème 19.1. (Rappel) Soit f une fonction continue : [a; b] → R si f (a) × f (b) < 0 alors il
existe α ∈ ]a; b[ tel que f (α) = 0.

Le théorème des valeurs intermédiares permet de prouver l’existence d’au moins une solution.

19.1.1.2 Méthode du point fixe attractif contractions Théorème du point fixe con-
tractant et suite (Algorithme des approximations successives)
Ramener l’équation f (x) = 0 à la recherche d’un point fixe d’une fonction g contractante sur un
intervalle I à définir.
− Méthode (1) :
Ecrire l’équation f (x) = 0 sous la forme : x − f (x) = x. En posant g(x) = x − f (x), on remarque
que résoudre l’équation f (x) = 0 c’est trouver le point fixe de g.

Définition 19.2. Prérequis : rappeler la définition d’une contraction. (1.2)

Méthode :

Théorème 19.3. Si g est une contraction :


− il existe un unique point fixe x∗ tel que g(x∗) = x∗. (1.3)

x0 ∈ E
− de plus la suite (xn): converge vers x∗ pour tout x0 de E. (1.4)
x p+1 = g(x p)

Démonstration. 

212
19.1 Résolution numérique d’équations et systèmes d’équations non linéaires 213

Définition 19.4. Point fixe attractif et répulsif. Voir cours Bontempi

19.1.1.3 Méthode de la corde

Remarque 19.5. Soit l’équation f (x) = 0 peut s’écrire x − λf (x) = x.


Si on pose gλ(x) = x − λf (x) alors (f (x) = 0) ⇔ ( gλ(x) = x).
Autrement dit on transforme la résolution d’une équation en problème de recherche de point
fixe.

Théorème 19.6. Soit g une contraction sur [a, b] pour λ fixé et gλ[a, b] ⊂ [a, b].
Alors (1.4) x p+1 = x p − λf (x p) est convergente et converge vers l’unique point fixe de gλ.

19.1.1.4 Méthode de Newton

Définition 19.7. (Formule de Newton) x p+1 = x p − f ′(xp ) avec f ′(x p)  0. (1.5)


f (x )
p

f (x)
Théorème 19.8. (de Convergence globale) Soit g(x) = x − f ′(x) avec f 2 fois dérivable.
f (z)f ′′(z)
 
f ′(z)2
6 k < 1, ∀z ∈ R ⇒ (∀x0 ∈ R, , (1.5) converge vers l ′unique solution de (1.1)).

Avec des contraintes moins fortes on a tout de même.

Théorème 19.9. (de Convergence local) Soit f ∈ C 2([a; b]).


"(1.1) a une solution x∗ dans [a; b] f (x∗) = 0 avec x∗ ∈ [a; b], telle que f ′(x∗)  0"

− "(1.5) converge vers l’unique solution de (1.1), si on part suffisament près de x∗"
− Autrement dit "∃ε > 0; ∀x0 ∈ [x∗ − ε; x∗ + ε],(1.5) est définie et
∀p ∈ N, x p ∈ [x∗ − ε; x∗ + ε] et x p → x∗".

19.1.2 Cas Vectoriel F : R n


→ R n

19.1.2.1 Méthode de la corde

19.1.2.2 Méthode de Newton-Raphson

19.1.3 Ordre (de convergence) d’une méthode itérative


19.1.3.1 Définition

Définition 19.10. Soient une suite d’approximation (yn) d’un nombre ou d’un vecteur x
donnée par une méthode itérative M et (en) la suite des erreurs en = |yn − x|.
S’il existe λ = sup {α ∈ R; ∃C ∈ R; ∃N ∈ N; n > N ⇒ en+1 6 C (en)α } et tel que λ > 1,
on dira alors que λ est l'ordre de la méthode M ou que M est d'ordre λ > 1 .

Exemple 19.11.
1. La méthode de Newton est d’ordre 2,
2. La méthode de la sécante est d’ordre 1,618,
3. La méthode des contractions est d’ordre 1.

19.1.3.2 Condition de convergence suivant l’ordre


Pour qu’une méthode d’ordre
− égal à 1, converge il faut que C < 1,
− supérieur strictement à 1 converge, il suffit seulement que l’erreur initiale soit suffisament
petite.
214 Calcul scientifique

19.1.3.3 Ordre et vitesse de convergence


Proposition 19.12. Pour une méthode itérative d’ordre λ, yn+1 a λ fois plus de décimales exa-
ctes que yn.

19.2 Résolution numérique d’équation et système linéaire.


 a11 x1 +  + a1px p = b1

Soit le système d’équation : (S) .


an1x1 +  + anp x p = bn

Il s’agit de mettre en oeuvre (i.e programmer) les différentes méthodes de résolution (i.e pro-
grammer) d’équation et système linéaire.
Notons S l’ensemble des solutions de (S). Quels sont les éléments de S s’ils existent !

19.2.1 Interprétations
19.2.1.1 Interprétation Affine
Résoudre (S) revient à déterminer l’intersection d’une famille finie d’hyperplans affines.
19.2.1.2 Interprétation matricielle
a11  a1p
     
b1 x1
Soit A =   la matrice de Mn, p(K) et B =  . En notant X =  ∈
an1  anp bn xp
M p,1(K). (x1,  , x p) est une solution de (S) si et seulement si : AX = B.

19.2.1.3 Interprétation vectorielle


La résolution de (S) revient à déterminer l’image réciproque du singleton {b} par f.

19.2.2 Méthode directe de résolution. Cas r=n=p dit Système de


Cramer
19.2.2.1 Méthode de Cramer
Définition 19.13. Le système (S) est dit de Cramer si et seulement si A est carrée et inver-
sible, c’est à dire : n = p = r.

Proposition 19.14. Si A ∈ GLn(K) et (b1,  , bn) ∈ K .


n

 a11 x1 +  + a1px p = b1
Le système (S) admet une solution et une seule, et, pour tout k ∈
an1x1 +  + anp x p = bn

{1,  , n} :
a11  a1k−1 b1 a1k+1  a1n
1
xk = det(A)
an1  ank −1 bn ank +1  ann

Remarque 19.15. Pour n > 3, les formules de Cramer sont pratiquement impraticables. On
préfère souvent une méthode de combinaison d’équations et délimination d’inconnues.
19.2.2.2 Méthode d’élimination de Gauss
Voir page 18 du cours de Calcul scientifique.

19.2.2.3 Méthode de Cholesky


Théorème 19.16. Si A est une matrice hermitienne définie positive alors il existe une matrice
R = (rij ) triangulaire supérieure avec ∀i, ri i > 0, telle que A = R∗ R ou (L L∗avec L triangulaire
inférieur)
19.2 Résolution numérique d’équation et système linéaire. 215

19.2.2.4 Méthodes Itératives Jacobi/Gauss-Seidel/Relaxation

19.2.3 Méthodes itératives Jacobi/Gauss-Seidel/Relaxation; gradiant;


gradian conjugué
Principe
1. Découper la matrice A : A = M − N .
Le découpage suivant M et N peut se faire suivant 3 méthodes
Méthode de Jacobi Méthode de Gauss-Seidel Méthode de la relaxation
1
M D L M = ωD − L
  
1
N L+U U N= ω
−1 D+U

2. Remarquer que l’équation A X = B s’écrit M X = N X + B puis X = M −1 N X + M −1B


si M −1 existe.
Jacobi Gauss-Seidel Relaxation
 −1 
D 1−ω
Matrice de J = D (L + U ) G = (D − L) U Lω = ω − L
−1 −1
ω
D + U

3. Se ramener à un problème de point fixe en posant Xk+1 = M −1 N Xk + M −1B et en don-


nant une valeur à X0.
4. La convergence est donnée par l’un des théorèmes suivants :

Proposition 19.17. S’il existe une norme subordonnée telle que kM −1N ks < 1 alors l’itéra-
tion Xk+1 = M −1 N Xk + M −1B converge vers l’unique solution du système.

Théorème 19.18. L’itération Xk+1 = M −1 N Xk + M −1B converge vers la solution du système


linéaire si et seulement si ρ(M −1 N ) < 1.

Théorème 19.19.

Proposition 19.20. S’il existe une norme subordonnée telle que kJ ks < 1, kGks < 1, kLω ks < 1
alors l’itération les méthodes de Jacobi, Gauss-Seidel et de la relaxation convergent vers l’unique
solution du système.

Théorème 19.21. Les méthode de Jacobi, Gauss-Seidel et de la relaxation convergent si et seu-


lement si ρ(J ) < 1, ρ(G) < 1, ρ(Lω) < 1.

Proposition 19.22. Si A est une matrice HDP et si M + N ∗ est aussi HDP alors l’itération
Xk+1 = M −1 N Xk + M −1B converge.

Proposition 19.23. Si A est une matrice HDP et si 0 < ω < 2 alors la méthode de la relaxation
est convergente.

Remarque 19.24.
1. Le théorème implique que Guass-Seidel est convergente pour A HDP.
2. Pour la méthode de Jacobi le théorème ne s’applique pas (voir exemple TD).

19.2.3.1 vitesse asymptotique de convergence

Définition 19.25. Soit l’itération Xk+1 = B Xk + C , k > 0 convergeant vers un point fixe X ∗.
On appelle vitesse asymptotique de convergence de la méthode itérative associée à la
matrice B le nombre − ln(ρ(β)).

Exemple 19.26.
π 2h2
1. ρ(J) = 1 − 2
+ O(h4)
216 Calcul scientifique

2. ρ(L1) = 1 − π 2h2 + O(h4)

19.2.3.2 Conditionnement d’un système

Définition 19.27. On appelle conditionnement de la matrice A le nombre noté γ(A) tel que :
γ(A) = kAk kAk−1.

Remarque 19.28.
1. Un système linéaire est bien conditionné si γ(A) est petit .
2. Un système linéaire est mal conditionné si γ(A) est grand .
3. Les matrices unitaires sont celles qui sont le mieux conditionné.

Exemple 19.29. Le conditionnement de la matrice suivante est γ(A) > 4000. On vérifie par le
calcul que l’erreur s’amplifie avec un facteur de 30000.
10
 
7 8 7
 7 5 6 5 
 
 8 6 10 9 
7 5 9 10

19.2.4 Résolution : cas r = n < p


On se ramène à un système de Cramer en permutant les inconnues.

19.2.5 Résolution : cas r < n


On procèdera par combinaison linéaire d’équations pour se ramener au cas (2), ou à un système
n’ayant pas de solution.

19.2.6 Cas des systèmes linéaires-homogènes


Définition 19.30. Le système (S) est dit homogène (ou linéaire ou encore homogène) si et seu-
lement si : b1 =  = bn = 0.

Proposition 19.31. L’ensemble des solutions d’un système linéaire (S 0) =


 a11 x1 +  + a1px p = 0 a11  a1p

est un sev de K p, de dimension p − r, où r = rg .


an1x1 +  + anp x p = 0 an1  anp

En particulier, (S0) admet une solution autre que (0,  , 0) si et seulement si : r < p.

19.3 Equation différentielle à conditions initiales

19.4 Approximation polynomiale

19.4.1 Introduction

19.4.2 Approximation par le polynôme d’interpolation de Lagrange


Notons Pn l’espace vectoriel des polynômes de degré 6 n.
Problème : Soient f une fonction, x0,  , xn n + 1 points distincts appelés point d’interpola-
tion et f (x0),  , f (xn) leurs images correspondantes.
19.4 Approximation polynomiale 217

19.4.2.1 Existence, unicité et définition

Proposition 19.32. Il existe un unique polynôme p de degré 6 n (p ∈ Pn) tel que f (xi) = p(xi),
∀i = 0,  , n.

Définition 19.33. Ce polynôme s’appelle le polynôme d'interpolation de Lagrange de la


fonction f aux points xi.

Définition 19.34. Ce polynôme est appelé approximation de f de degré au plus n au sens des
moindres carrés discrets.

19.4.2.2 Calcul effectif


Qn x − xi
Proposition 19.35. Notion l j le polynôme l j (x) = i=0 x j − xi
.
i j
L’ensemble des polynômes {l j } j=0,  ,n est une base de Pn.
Pn
Théorème 19.36. Le polynôme p(x) = j=0 f (x j )l j (x) est le polynôme d’interpolation de
Lagrange.

19.4.2.3 Calcul d’erreur


Soit f ∈ C n+1[a, b], x0,  , xn n + 1 points distincts de [a, b].

Proposition 19.37. Si p est le polynôme d’interpolation de f, ∀x ∈ [a, b],∃zx dans l’intervalle


ouvert contenant tous les points x0,  , xn et x tel que :
f n+1(z )
(2.3) f (x) − p(x) = nj =0 (x − x j ) (n + 1)!x .
Q

Corollaire 19.38. Soit M = sup y ∈[a,b] f n+1(y) .


M Qn
∀x ∈ [a, b], f (x) − p(x) 6 (n + 1)! × sup y∈[a,b] j =0 (y − x j )

19.4.2.4 Choix optimal des points d’interpolation


On choisit les xi comme étant les zéros d’un polynôme de degré (n + 1) de Chebychev.

19.4.3 Approximation au sens des moindres carrés discret (MCD)


Problème : On veut faire passer une courbe définie par un polynôme, le plus près possible des
valeurs (xi , yi). Autrement dit

19.4.3.1 Existence et unicité

Définition 19.39. Pour une fonction f définie sur I (xi ∈ I , ∀i = 0,  , n). On appelle :
qP
n 2
1. Norme des moindres carrés discrets (NMCD) : kf kN M CD = i=0 f (xi) .

2. Produit scalaire aus sens des MCD : < f , g > = ni=0 f (xi)g(xi)
P

Proposition 19.40. (de minimisation) Il existe un unique polynôme p de degré 6 n (p ∈ Pn)


tel que :
• (3.1) ∀p ∈ P p; kp̄ − Y k2 6 kQ − Y k2 ,
1 x0 x20 
   
p(x0) x0p
x1 x21  p 
Pp n p 1
de plus si P (x) = i=0 αix , p̄ = 
i
i=0 αix j , A = 
x1 
et
 
• = P 

 
  p(xn) 1 xn x2n  xnp
α0
α=   ∈R p+1
alors le vecteur α s’obtient en résolvant l’équation normale :
αn
(3.2) AtAα = AtY.
218 Calcul scientifique

Définition 19.41. Ce polynôme est appelé approximation de f de degré au plus n au sens des
moindres carrés continus.
19.4.3.2 Calcul effectif
19.4.3.3 Droite de régression
Meilleur approximation au sens des moindres carrés discrets pour p=1.
On cherche donc un polynôme de la forme p(x) = α0 + α1x.
covariance xy − x̄ȳ
Proposition 19.42. Equation de la droite : α1 = variance
= x2 − x̄ 2
et p(x) = α1(x − x̄ ) + ȳ.

19.4.4 Approximation au sens des moindres carrés continu (MCC)


19.4.4.1 Définition
Définition 19.43. Pour une fonction f définie sur I (xi ∈ I , ∀i = 0,  , n). On appelle :
qR
b 2
1. Norme des moindres carrés continus (NMCC) : kf kNM C C = a
f (xi)w(x)dx , w(x) >
0, fonction poids (continue par morceau).
w ≡ 1,{f ; kf kNM CC < + ∞} ≃ L2[a, b] espace de Hilbert associé au produit scalaire avec
R b
∀f , g ∈ L2[a, b], < f , g >L2[a,b] = a f (x)g(x)dx.
R b
2. Produit scalaire aus sens des MCC : < f , g >w = a f (x)g(x)w(x)dx.
Définition 19.44. Ce polynôme est appelé approximation de f de degré au plus n au sens des
moindres carrés continus.
19.4.4.2 Problème de meilleur approximation au sens de MCC (pour f donné)
On suppose f ∈ L2w[a, b], ∃!p ∈ Pp tel que : ||f − pkNM C C = inf q∈Pp kf − qkNM CC (4.1).
Il est la projection orthogonale au sens de cette norme de f sur P p
(4.2) p ∈ P p , < f , q >w = < p, q >w , ∀q ∈ P p.
19.4.4.3 Calcul effectif de P
Pp
1. Recherche en fonction des coefficients P (x) = j =1 a jx j
x w(x)dx a j = a xif (x)w(x)dx i = 0,  , p.
R 
b i+ j R b
(4.2) ⇒ pj =0
P
a
Ce système est mal conditionné donc les méthodes de Gauss sont inadaptées. On
cherche un base particulière de P p pour calculer P .
2. Définir des polynômes orthogonaux par rapport au produit scalaire de MCC : P0, ,
Pn , 
1. Pn est un polynôme de degré n,
2. ∀n fixé Pn est orthogonal à Pn−1 donc à P0, P1, Pn−1.
3. Une condition : par exemple : le coefficent du terme de plus haut degré est 1 ou la
valeur en un point Pn(1) = 1 ou kPn kM C C = 1.
P meilleurePapproximation : solution de (4.1) :
p
P (x) = j =0 c jP j (x) où {P j } base orthogonale de P p.
p, q > , ∀q
< f , q >w = < P
< f , Pj > = < cjP j ; P j > , ∀j = 0,  , p
< f , P j >w
cj = < P
j , P j >w

Exemple 19.45.
• si [a, b] = [ − 1, 1] w(x) = 1 polynôme de Legendre.
• si [a, b] = [0, + ∞] w(x) = ex polynôme de Laguerre.
2
• si [a, b] = [ − ∞, + ∞] w(x) = x−x polynôme de Hermite.
1
• si [a, b] = [ − 1, 1] w(x) = √ polynôme de Tchebitchef.
1 − x2
19.4 Approximation polynomiale 219
Chapitre 20
Applications dérivables et différentiables
Je pense que le nom de cette partie devrait être «Outils d’étude d’une fonction sur un espace
vectoriel normé». Ce serait par conséquent une partie du cours sur les espaces vectoriels normés.
On va définir deux notions : la dérivée et la dérivée directionnelle. Si elles ont toutes les deux
des expressions différentes, leur valeur pour un même point (a) et une direction (k) sont identi-
ques.
Rajouter les définitions d’une submersion/immersion et compléter si nécessaire les remarques
35.131 et 35.134.

20.1 Dérivée directionnelle et G–dérivée

20.1.1 Dérivée directionnelle


Définition 20.1. Soient (E; k.kE ), (F ; k.kF ) deux e.v.n. sur K = C ou R, U un ouvert non vide
de E, f : U → F une application, a ∈ U un point, h ∈ E un autre point et α ∈ F. On dit que f
admet une dérivée directionnelle α au point a dans la direction h si et seulement si :
f (a + t h) − f (a)
la fonction t
converge lorsque t ∈ K\{0K } tend vers 0.
df f (a + t h) − f (a)
On la notera f ′(a, h) ou dh
(a). Dans ce cas f ′(a, h) = limt→0K ,t  0K t
.

Remarque 20.2.
f (a + t h) − f (a)
1. Il me semble que l’on peut écrire que puisque f ′(a, h) = limt→0K ,t  0K t
, on
df (a + t h)
doit pouvoir écrire que f ′(a, h) = dt
(0K ). Voir Avez cours Calcul différentiel.
2. f ′(a, h) est un élément de F .

Proposition 20.3. Si cette limite existe, elle est unique.

Remarque 20.4. On peut donc définir une application à partir de cette notion.

Définition 20.5. L’application : E → F est appelée dérivée directionnelle, au point a


df
h f ′
(a, 
h)
et sera notée : f ′(a; .) ou dh .

20.1.2 Dérivée au sens de Gâteaux


Définition 20.6. On dit que f est dérivable au sens de Gâteaux (ou faiblement dérivable ou G-
dérivable) au point a si et seulement si f ′(a; .) (la dérivée directionnelle au point a) est définie,
linéaire et continue sur tout E. Dans ce cas f ′(a; .) est appelée dérivée au sens de Gâteau ou
dérivée faible ou G-dérivée.

Lemme 20.7. Soit λ ∈ K, si f ′(a, h) existe alors f ′(a; λh) aussi et f ′(a; λh) = λf ′(a; h).

Démonstration. Voir CTES 2004-2005 page ? Calcul différentiel. 

Remarque 20.8.
1. Ce lemme permettra de montrer les points 3 et 4.
2. Attention λ ∈ R ou C.

220
20.1 Dérivée directionnelle et G–dérivée 221

3. Si f ′(a; h) existe pour tout h ∈ S(O; 1) (sphère unité de centre O et de rayon 1) l’applica-
tion dérivée directionnelle au point a : f (a; .): E → F est bien définie sur E par

u
 h f′
(a, h)
f ′(a; u) = kukE f a; kuk .
E

Autrement dit, si la dérivée directionnelle est calculable pour toute direction de la


sphère unité alors, on peut la calculer pour n’importe quelle direction.
4. Si E est complexe E = C, on peut choisir t ∈ R ou t ∈ C, ce qui donne des dérivées R ou
C-directionnelles.
5. f ′(a; h) n’existe pas nécessairement ∀h ∈ E.
6. De plus si f ′(a; h) existe ∀h ∈ E l’application dérivée directionnelle (f ′(a; .)) n’est pas à
priori linéaire (le corps de E et F étant le même).
7. Si toutefois f ′(a; .) est linéaire rien n’implique qu’elle soit continue.

20.1.3 Points critiques, Extremums


20.1.3.1 Cas général : points critiques

Définition 20.9. Les points où f ′(u; .) = 0 (i.e. ∀v; f ′(u; v) = 0) sont appelés points critiques ou
point stationnaires.

Remarque 20.10.
1. Dans le cas où F = R, on utilisera cette notion pour trouver des extrémums (maximum
ou minimum).
2. Ce qui est remarquable c’est qu’il n’est pas nécessaire que f soit différentiable pour
rechercher les points stationnaires. Il suffit qu’elle soit dérivable au sens de Gâteau.

20.1.3.2 Cas ou E est quelconque et F = R


Lemme 20.11. Soit f : U ⊂ E → R qui atteint un extrémum en un point m ∈ U. Si f est déri-
vable au sens de Gâteaux au point m, alors f ′(m; .) = 0. Autrement dit la dérivée directionnelle
est nulle dans toutes les directions.

Remarque 20.12.
1. Attention ! il n’y a pas de réciproque. Contre-exemple : f : t → t3, f ′(0) = 0, mais f
n’atteint pas de minimum ou de maximum.
2. Supposons que f soit dérivable en tout point u ∈ U les points où f atteint éventuellement
un extrémum sont parmi les points qui sont solutions de l’équation f ′(u; .) = 0, c’est à
dire les points critiques (ou points stationnaires).

20.1.4 Dérivabilité sur un espace produit


Soit f : U → F1 × F2 ×  × Fn

Proposition 20.13. f ′(a; h) existe i.e. a une dérivée directionnelle si les fi′(a; h) existent dans
ce cas f ′(a; h) = (f1′(a; h);  ; fn′ (a; h)).

Démonstration. CTES Calcul différentiel page 18. 

Proposition 20.14. Les fi′(a; .) existent et sont linéaires continues si et seulement si f ′(a; .)
existe i.e. f est G-dérivable. (Formulation à vérifier).

Démonstration. CTES Calcul différentiel page 18. 


222 Applications dérivables et différentiables

20.2 Différentielle ou F-dérivée


20.2.1 Différentiabilité et différentielle en un point
20.2.1.1 Définition
Définition 20.15. Soit un e.v.n. E, U un ouvert non vide de E, F un e.v.n. et f : U → F une
application. On dit que f est différentiable en a (a ∈ U ), si et seulement si, il existe une applica-
tion linéaire (par rapport au corps de définition de E , F) continue (l) (l ∈ L(E , F )) telle que :
kf (a + h) − f (a) − l(h)kF
limh→0;h 0 khkE
=0
L’application (l) est appelée application linéaire tangente à f en a, différentielle de f en a ou
dérivée de f en a. On la note f ′(a), daf ou Df(a).
Remarque 20.16. Voir cours CTES Mme Dulac et page 208 (bis).
• La CNS précédente s’écrit aussi : f (a + h) − f (a) = l(h) + khkEε(h) avec limh→0 ε(h) = 0F
i.e. o(khkE ) (à revoir ! J’avais écrit que cette relation n’est vraie que si f est à valeurs
dans R, autrement dit pour une fonction numérique. Voir cours Avez Calcul Différentiel
page 11. Dans ce cas, f (a) + daf apparait comme une approximation de f . Si la défini-
tion n’est pas limité aux fonctions numériques, il faudrait que ε soit une fonction à
valeurs dans F !)
• ou kf (a + h) − f (a) − l(h)kF = o(khkE ).
• Une application différentiable est dite quelques fois « fortement dérivable » ou « dérivable
au sens de Fréchet ». (Lu pour la première fois dans le cours CTES de calcul différentiel
2004-2005 page 3).
• La CNS peut aussi s’écrire :
− ∃p: U → F ; ∀x ∈ U , f (x) − f (a) = l(x − a) + kx − akE p(x), limx→a p(x) = 0. p(x) est
f (x) − f (a) − l(x − a)
déterminée par : p(x) = kx − akE
si x ∈ U − {a}, p(a) = 0 sinon.
kf (x) − f (a) − l(x − a)kF
− ou limx→a;x  a kx − akE
= 0 c’est la définition que j’ai retenue, puisque
f (x) − f (a) − l(x − a)
c’est ladéfinition de limx→a;x  a kx − akE
(condition énoncée dans
= 0F
certains cours, qui a l’inconvénient de faire oublié les arguments utiliser pour mon-
trer la convergence vers 0F ).
• L’utilisation de la limite montre que la différentielle est une notion locale ?
• Pourquoi imposer à U d’être un ouvert ? C’est ce qui assure l’unicité ! ? ? ? (personne
ne m’a donné de preuve de cette affirmation !) J’ai posé la question à M. Domergue
(CTES cours calcul différentiel) : Pourquoi la différentielle est-elle toujours définie pour
une fonction définie sur un ouvert. La réponse est-elle dans le remarque que vous faites
page 10 : «Remarquons que f (a + h) est bien définie ...» autrement dit, est-ce pour
s’assurer que l’ensemble de définition de f contienne des points dans un voisinage de a et
qu’il contienne encore les points a + h même si h → 0F ? Réponse : oui !
• On peut étendre la définition à une partie quelconque U à condition que a soit un point
intérieur (ce qui me semble logique puisque dans ce cas, il existe par définition un ouvert
U ′ contenant (a) et contenu dans U . L’existence de l’ouvert est donc assuré par le fait
que a est un point intérieur, il ne reste plus qu’à définir la différentiabilité sur cet ouvert
(faire le raisonnement sur cet ouvert).
• Si a n’est pas un point intérieur et si l’approche de a sur U est trop « étroite » l’unicité
de l n’est plus assurée, ce qui diminue l’intéret de ce cas.
• Pourquoi impose-t-on à l d’être continue ? Si ce n’était pas le cas, ce qui peut se passer si
E n’est pas en dimension finie, elle ne serait pas continue en 0. La différentiabilité en a
ne permettrait pas d’assurer la continuité de f . Ce qui sera l’un des intérets de la diffé-
rentiabilité (propriété à suivre dans le cours). Voir également cours CTES de Mme Dulac
cours à conserver !
20.2 Différentielle ou F-dérivée 223

Exemple 20.17.
1. Différentielle de γ: Mn(K) → Mn(K) corrigé cassette 1 calcul différentiel (Licence) ou
A 
A2
TD.
2. Différentielle de ?: C 1 → C0 corrigé même cassette.
y y + y2

20.2.1.2 Unicité
Proposition 20.18. Si f : U → F est différentiable en a.
elle admet une et une seule différentielle en a (daf est unique). Autrement dit, si la différen-
tielle en un point existe, elle est unique. C’est parce que U est un ouvert que l’on a l’unicité.
20.2.1.3 Relation entre différentielle et dérivée directionnelle
Proposition 20.19. Si f : U → F est différentiable en a alors f admet une dérivée directionnelle
i.e. K (a) i.e. f ′(a; kK ) existe et de plus l’on a :
df
dk
K ) − f (a) df (a + t kK )
daf (kK ) = limt→0 K ) = f ′(a; kK ).
f (a + t k df
t
= dt
(0K ) = K (a
dk
Relation entre différentielle en un point et dérivée directionnelle, autre notation :
K)
d f (a + t k K + t × kK )
df (a
dt
(0K ) = K) ?
Autrement dit, c’est la dérivée en 0K de la fonction t → f0(a + t kK ).
d(k

Démonstration. CTES Calcul différentiel 2004-2005 + note jointe. 


Remarque 20.20.
1. La dérivée au sens de Gâteaux n’est pas équivalente à la dérivabilité au sens de Fréchet.
La dérivabilité au sens de Gâteaux peut avoir lieu, sans que la dérivabilité au sens de Fré-
chet soit vraie. En fait l’existence de la dérivée au sens de Gâteaux au point a n’implique
pas la continuité de f au point a. (Voir CTE + exercices page 11, 35 et 36).
2. Si K = R, il n’y a qu’une possibilité pour la dérivabilité au sens de Fréchet.
3. Mais si K = C, on peut considérer l comme C-linéaire ou bien l est seulement R-linéaire
en considérant les structures réelles sous-jacentes (CTES Cours calcul différentiel 2004-
2005 page 11).
4. Les deux notions sont complétement différentes.
5. Les deux définitions (? Gâteaux et Fréchet) coïncident si f : K → F .
6. Attention, la réciproque n’est pas vraie : si f admet en (a) une dérivée directionnelle
(même linéaire et continue), on ne peut pas conclure que f est différentiable en a (voir
x3 y
exercice : x → x4 y2 G-dérivable en (0;0) mais non différentiable en (0;0) preuve CTES
calcul différentiel page 35 n°1). Sauf si E = R, il y a équivalence entre différentiabilité et
dérivabilité. Df(t0) · δ = δ × f ′(t0), f ′(t0) = Df(t0) · 1 = dtf (1).
7. En revanche l’existence de la différentielle assure la continuité et la linéarité de la dérivée
directionnelle. Par conséquent, la différentiabilité entraîne la dérivabilité au sens de
Gâteaux.
20.2.1.4 Différentiabilité et continuité en un point
Proposition 20.21. Soit f : U → F une application.
(f différentiable en a) ⇒ (f continue en a)
Démonstration. CTES 2004-2005 page 10 + note page 4. 

20.2.2 Différentiabilité et Différentielle sur un ouvert d’un e.v.n.


Définition 20.22. Soit U un ouvert non vide d’un e.v.n. E, F un e.v.n. et f : U → F une appli-
cation.
224 Applications dérivables et différentiables

(On dit que f est différentiable sur un ouvert U) ⇔ (f est différentiable en tout point de U).

Définition 20.23. Soit U un ouvert non vide d’un e.v.n. E, F un e.v.n. et f : U → F une appli-
cation.
U → L(E , F )
Si f est différentiable sur un ouvert U l’application :
x dxf est appelée différen-
tielle de f sur U. On la note df ainsi (df (x) = dxf).

Remarque 20.24. La différentielle est parfois appelée dérivée forte ou F-dérivée ou dérivée au
sens de Fréchet (lu pour la première fois dans cours CTES 2004-2005 page 10).

20.2.3 Différentielle partielle


Soient E = E1 ⊕  ⊕ En une somme directe d’e.v.n. (ou plutôt l’espace produit E1 × E2 ×  ×
En ce qui en principe revient au même voir annexe A Cours Calcul différentiel Avez), de normes
respectives k.k1,  , k.kn, U un ouvert de E, l’application f : U → F , a=
(x1,  , xn) f (x1,  , xn)
(a1,  , an) un point de E et Ir: Er → E . Ainsi fr = f ◦ Ir est
xr 
(a1,  , ar −1, xr , ar+1,  , an)
l’application partielle déduite de f sur U . Elle est définie sur l’ouvert I −1(U ) de Er, qui contient
ar .

Définition 20.25. Soit fr une application partielle déduite de f sur U. Si fr est différentiable
en ar sa différentielle en ar est appelée diérentielle partielle de f par rapport à la rèm e
variable au point a. On la note dr,af ou Drf (a) ainsi dr,af = darfr et dr,af ∈ L(Er , F ).

Remarque 20.26. Si E1 =  = En = K dr,af (h) = ∂x (a) × hr dérivée partielle de f par rapport


∂f
r
à xr la r èm e variable au point a.

Exemple 20.27. Mettre un exemple.

Proposition 20.28. Important. S’il existe un ouvert V ⊂ U tel que les fonctions dérivée par-
tielles X ∈ V 
∂1 f (x) et X ∈ V 
∂2 f (x) existent sur V et sont continues au point a ∈ V alors f
est dérivable (au sens de Fréchet) au point a.
De plus si les dérivées partielles sont continues sur V alors l’application X ∈ V 
Df (X) est
continue sur V, i.e. f ∈ C 1(V ).

20.2.4 Remarques générales


Remarque 20.29. Attention si la différentielle en a d’une application f est une application
linéaire, ce n’est pas le cas de la différentielle de f .

1. La différentiabilité et la différentielle d’une fonction en a sont indépendantes des normes


choisies sur E et F pour les définir, si ces normes sont respectivement équivalentes entre
elles. Considérons E = (E; k.kE ), (F ; k.kF ) et E ′ = (E; k.kE

), (E; k.kF′ ) des e.v.n. tels que
les normes sur E et sur F soit équivalentes. Alors :
i. tout ouvert U de E est aussi un ouvert de E ′.

ii. si f est (k.kE ; k.kF )-différentiable sur U , f est aussi (k.kE ; k.kF′ )-différentiable sur
U.

iii. si l est la (k.kE ; k.kF )-différentielle de f en a, l est aussi la (k.kE ; k.kF′ )-différen-
tielle de f en a.
et réciproquement.
2. Conséquence de la remarque précédente : Si en particulier E et F sont finis, la différentia-
bilité ne dépend pas des normes.
3. De même si E et F sont finis, l’hypothèse de continuité de l dans la définition est super-
flue, car dans ce cas toutes les applications linéaires sont continues.
20.2 Différentielle ou F-dérivée 225

4. La notion de différentielle, s’étend aux espaces affines. Soit U un ouvert d’un espace
affine normé E (E dont l’espace vectoriel associé E K est normé). Soit F un espace affine
K
normé (i.e. dont l’e.v. associé F est normé). On dit que l’application f : U → F est diffé-
K , FK ) telle que f (a + hK ) = f (a) + l ·
rentiable en a (a ∈ U ) si et seulement s’il existe l ∈ L(E
K + o(khK k). Voir cours de licence de géométrie affine.
h

20.2.5 Cas E = K (où K = R ou K = C)


Note 20.30. On obtient une relation très utile entre dérivée et différentielle

Théorème 20.31.
1. (f différentiable en a) ⇔ (f dérivable en a).
2. et daf (h) = f ′(a) × h. ainsi daf (1) = f ′(a).

20.2.6 Cas d’une application constante


Proposition 20.32. Soit U un ouvert non vide d’un e.v.n. E, F un e.v.n. et f : U → F une
application.
(f constante sur U) ⇒ (f est différentiable sur U et df = 0U →F )
où est l’application nulle de E dans F.

Remarque 20.33. La réciproque n’est vraie que si U est un ouvert connexe.

20.2.7 Cas d’une application linéaire


Proposition 20.34. Soit U un ouvert non vide d’un e.v.n. E, F un e.v.n. et f : U → F une
application.
(Si f ∈ L(E; F ) i.e. f linéaire continue) ⇒ (f est différentiable sur E et daf = f , ∀a ∈ E).

20.2.8 Cas d’une application bilinéaire


Proposition 20.35. Soient E1, E2 et F 3 e.v.n., E = E1 × E2.
(Si f ∈ L(E; F ) i.e. f bilinéaire continue) ⇒ (f est différentiable sur E et daf (h) = f (h1,
a2) + f (a1, h2), ∀a = (a1, a2) ∈ E et ∀h = (h1, h2)).

20.2.9 Généralisation : Cas d’une fonction n-linéaire


Proposition 20.36. Soient E1,  , En et F n e.v.n., E = E1 ×  × En.
Pn(Si f ∈ L(E; F ) i.e. f n-linéaire continue) ⇒ (f est différentiable sur E et daf (h) =
k=1 f (a1,  , ak −1, hk , ak+1,  , an), ∀a = (a1,  , an) ∈ E et ∀h = (h1,  , hn)).

20.2.10 Trace d’une application différentiable

20.2.11 Linéarité de la différentielle en un point a (sur l’ensemble des


fonctions différentiables)
Proposition 20.37. L’ensemble des applications différentiables en a ou sur U est un K-e.v..
En effet on montre que :
1. da(f + g) = daf + dag.
2. da(λf ) = λ daf.

Démonstration. Sans doute évidente. 


226 Applications dérivables et différentiables

20.2.12 Différentielle d’une application composée


Proposition 20.38. Soient E , F et G des K-e.v.n., U un ouvert de E, f : U → F une applica-
tion différentiable sur U telle que f (U ) ⊂ F et g: F → G telle que g soit différentiable sur F.
alors g ◦ f est différentiable sur U et da(g ◦ f ) = d f (a) g ◦ daf.

Démonstration. Voir Cours de calcul différentiel Avez page 14. Dans le cours de licence de
lyon, il semble que la démonstration soit faite pour une seule norme ! 

Application : cas particuliers et définition :


• Cas où g est une application linéaire continue :
g ∈ L(E , F ) si f est différentiable en a on a : da(g ◦ f ) = g ◦ daf .
• Cas où E = K:
f : K → F si g est différentiable en f (a) alors da(g ◦ f ) = f ′(a) × d f (a) g ou (g ◦
x  f (x)
f ) ′(a) = (f ′(a) × d f (a) g)(1).
• Cas où E = F = K:
da(g ◦ f ) = f ′(a) × (g ′ ◦ f (a)) × IdK i.e. (g ◦ f ) ′(a) = (f ′(a) × g ′ ◦ f (a)).
• Application tangente :

Définition 20.39. Soit U un ouvert de E et f : U → F différentiable sur U. L’application


Tf : U × E → F2 est appelée application tangente.
(a; h) 
(f (a); daf (h))

Interprétation géométrique :

20.2.13 Cas d’une application dans une somme directe (espace pro-
duit)

Figure 20.1. Espace à 2 dimensions Figure 20.2. Espace à 3 dimensions


On aurait pu simplement définir F par un espace produit ! (à vérifier !). Cette partie est
tirée du livre de calcul différentiel d’Avez : en fait Avez fait référence à l’espace F1 × F2 ×  × Fn
lorsqu’il écrit F1 ⊕  ⊕ Fn sinon cela n’a pas de sens avec la définition qu’il donne de F .
Soient F = F1 ⊕  ⊕ Fn une somme directe d’e.v.n., de normes respectives k.k1,  , k.kn, la
projection pr: F → Fr , l’application injective ir: F → Fr , U
(x1,  , xr ,  , xn)  xr xr 
(0,  , xr ,  , 0)
un ouvert de E et f : U → F . On désignera par f r la r èm e composante de f :
x  (f1(x),  , fn(x))
f = (f 1,  , f r ,  , f n). Ainsi fr = pr ◦ f et f = nr=1 ir ◦ daf r.
P

Théorème 20.40. Soit E un e.v.n., U un ouvert de E, F = F1 ⊕  ⊕ Fn une somme directe


d’e.v.n. et f : U → F .
x 
(f1(x),  , fn(x))
20.2 Différentielle ou F-dérivée 227

(f différentiable en un point a de U (resp. sur U)) ⇔ (f 1,  , f r ,  , f n sont différentiables en


a (resp. sur U)). De plus daf = r=1 ir ◦ daf r ou daf = (daf 1,  , daf n).
Pn

Démonstration. Avez page 15. 

Remarque 20.41. Soit f : Rn → Rm , si (f est différentiable en (a)) ⇒ la


x (f (x),  , f m(x))
1

r ème ligne de sa matrice jacobienne en (a) est la matrice jacobienne de f r en (a).

20.2.14 Formule de Leibniz


Proposition 20.42. Soient E , F1, F2, G des e.v.n., U un ouvert de E, f : U → F1 , g: U → F2
deux applications différentiables en un point (a) de U (ou sur U) et k: F1 × F2 → G une applica-
tion bilinéaire continue alors p = k ◦ (g; f ) qui est l’application : U → G est diffé-
x 
k(f (x); g(x))
rentiable en (a) (ou sur U). dap(h) = k(daf (h); g(a)) + k(f (a); dag(h)).

application : cas particuliers


• Cas où E = F1 = F2 = G = K et k = u × v
p ′(a) = (f ′ × g + f × g ′)(a)
(f ◦ g) ′ = f ′ × g + f × g ′
• Cas où E = K (k quelconque)
p ′(a) = k(f ′(a); g(a)) + k(f (a); g ′(a))
• Cas où F1 = F2 = G (où G = Rm, orienté et muni de son produit scalaire usuel)
(f |g) ′(a) = (f ′|g)(a) + (f |g ′)(a) si on pose b = (.|.).
(f ∧ g) ′(a) = (f ′ ∧ g)(a) + (f ∧ g ′)(a) si on pose b = ∧ .
• Cas où F1 = F2 (où F2 est l’espace Rm orienté et muni de son produit scalaire usuel)
(f |g) ′(a) = (f ′|g)(a) + (f |g ′)(a) si on pose b = (.|.).

20.2.15 Cas d’une application définie sur une somme directe

Figure 20.3. Espace de dimension 2

Théorème 20.43. (Condition nécessaire de différentiabilité) Soit E = E1 ⊕  ⊕ En une somme


directe d’e.v.n., U un ouvert de E, F un espace vectoriel normé et f :
U → F . Si f est différentiable en a, alors chacune des différentielles
(x1,  , xn)  f (x1,  , xn)
dr,af existe et si h = (h1,  , hn), h ∈ E. r ∈ {1,  , n} alors daf (h) = r=1 dr,af (hr).
Pn

Remarque 20.44. La réciproque est vraie si les dr,af sont continues en a. Voir réciproque
cours M. Avez Calcul différentiel page 20 + remarque et contre-exemples. Mais la démonstra-
tion nécessite sans doute le théorème de la moyenne, donc ne peut se démontrer à priori. Autre-
ment dit, on obtient une c.n.s. si les différentielles partielles sont continues.
228 Applications dérivables et différentiables

20.3 Matrice jacobienne

20.3.1 Définition
Définition 20.45. Soit E = Kn et F = Km et f différentiable en un point a de E. On appelle
matrice jacobienne de f en a, la matrice (m, n) de l’application daf dans les bases canoniques de
E et F.

20.3.2 Calcul de la matrice jacobienne


Soit f : Rn → Rm où x = (x1,  , xn). Si f est différentiable sur un ouvert con-
x 
(f1(x),  , fm(x))
tenant
 a alors la matrice jacobienne de f est 
de la forme :

∂f 1
∂x1
(a)
∂f 1
∂x2
(a)  . . . 
 .  
 ∂f 2 ∂f 2 

∂x1
(a) ∂x2
(a) 
   
 
 
 
   ∂f i
 
 

∂x j
(a) 
    
 
 
 
     ∂f n
 
∂xm
(a) 16i6n
16j 6m

20.3.2.1 Théorème de changement de variable

Proposition 20.46. Soient g,  , g: Rn → R toutes différentiables en (a) et f : Rm → R une


application
Pn différentiable en b = (g1(a),  , gm(a)). Si F = f ◦ (g1,  , gm) alors di,aF =
r=1 dr,bf × di,agr.
∂f i
Remarque 20.47. Si les ∂x j
sont continues alors f est différentiable.

20.4 Théorèmes des accroissements finis


E \F R e.v.n.
R f (a) − f (b) = f ′(c) × (b − a) kf (b) − f (a)k 6 g(b) − g(a)
e.v.n. f (a) − f (b) = dcf (b − a) kf (b) − f (a)k 6 supx∈[a;b] kdxf k × kb − ak

20.4.1 Cas des fonctions à valeurs dans R (F = R)


20.4.1.1 Fonction définie sur R

Figure 20.4.

Proposition 20.48. Soit f une fonction d’une variable réelle à valeurs réelles, définie et con-
tinue sur le segment [a, b] et dérivable sur ]a, b[ alors : ∃c ∈ ]a, b[; f (a) − f (b) = f ′(c) × (b − a).
20.4 Théorèmes des accroissements finis 229

Remarque 20.49. Géométriquement cela signifie qu’il existe un point C(c, f(c)) de C f où la
tangente est parallèle au segment [A, B]. (A, B points de Cf d’abscisses respectives a et b).
20.4.1.2 Fonction définie sur un e.v.n.
Remarque 20.50. On retrouve cette propriété pour des fonctions définies sur un e.v.n. et à
valeurs dans R : en remplaçant (f ′(c), (b − a)) par (dcf (U ), kb − ak).

Figure 20.5.

Proposition 20.51. Soient U un ouvert d’un e.v.n. E, [a, b] un segment de U et f : [a, b] → R


une application continue sur [a, b] et différentiable sur ]a, b[, alors :
b−a
∃c ∈ ]a, b[; f (a) − f (b) = dcf (u) × kb − akE où u = kb − ak
E
ou f (a) − f (b) = dcf (b − a).

20.4.2 Cas des fonctions à valeurs dans un e.v. F quelconque


Remarque 20.52. Mais pour les fonctions à valeurs dans Rn, la propriété géométrique précé-
dente n’est plus valable. (Voir contre-exemple ci-dessous).

Figure 20.6. Contre-exemple


Autre approche : Supposons que la courbe Cf ci-contre représente, la trajectoire d’un mobile
(M1). kf ′k représente alors sa vitesse. Soit un second mobile (M2) partant du même point A
que (M1) et décrivant la trajectoire représentée par la droite C g, si kg ′k > kf ′k (Vitesse M1 >
Vitesse M2) alors (M2) s’éloignera plus vite de A que (M1). (Voir exemple ci-dessous).

Figure 20.7. Fonction dans un e.v.n. Figure 20.8. Fonction sur et dans R.
230 Applications dérivables et différentiables

20.4.2.1 Applications d’une variable réelle

Note 20.53. Vérifier ces énoncés.

Lemme 20.54. Soient [a, b] un segment de R, où a < b, F un e.v.n., f : [a, b] → F et g: [a, b] →


R deux applications continues sur [a, b] et différentiable sur ]a, b[.
Si ∀t ∈ ]a, b[, kf ′(t)k 6 g ′(t) alors kf (b) − f (a)k 6 g(b) − g(a).

Proposition 20.55. (+ forte que la précédente) Soient [a, b] un segment de R, où a < b, F un


e.v.n., f : [a, b] → F et g: [a, b] → R deux applications continues sur [a, b] mais différentiable sur
[a, b] privé d’une ensemble dénombrable de valeurs que nous appellerons E.
Si ∀t ∈ ]a, b[, kf ′(t)k 6 g ′(t) alors kf (b) − f (a)k 6 g(b) − g(a).

Corollaire 20.56. Soient F un e.v.n., f : [a, b] → F une application continue sur [a, b] et déri-
vable sur ]a, b[. Si : (∃k ∈ R; ∀x ∈ ]a; b[, kf ′(x)k 6 k) alors kf (b) − f (a)k 6 k × (b − a)

20.4.2.2 Applications définies sur un ouvert d’un e.v.n. quelconque

Corollaire 20.57. Soient E un espace vectoriel normé, U un ouvert non vide de E, f : U → F


une application différentiable sur U et [a, b] un segment de U alors kf (b) − f (a)kF 6
supx∈[a,b] kdxf kL(E ,F ) × kb − akE ou kf (b) − f (a)kF 6 sup06t61 kda+(1−t)(b−a) f kL(E ,F ) × kb −
akE.

Corollaire 20.58. Soient f : U → F une application différentiable sur U, [a, b] un segment de U,


un point c ∈ [a, b] alors kf (b) − f (a)kF 6 kb − akE × supx∈]a,b[ kdxf − dcf kL(E ,F ).

Lemme 20.59. Soient f : U → F une application différentiable sur U, [a, b] un segment de U et


u ∈ L(E , F ) une application linéaire continue alors kf (b) − f (a) − u(b − a)k 6 kb −
aksupx∈[a,b] kdxf − uk.

Remarque 20.60. Cas particulier : Prenons E = K et b = a + h. Le corollaire devient :


x ∈ [a, b] alors kf (a + h) − f (a) − h f ′(c)k 6 |h|supθ ∈[0,1] kf ′(a + θh) − f ′(c)k.

20.4.2.3 Applications définies sur un convexe

Note 20.61. Convexe ou connexe ? Un résultat de topologie affine dit que : U convexe ⇒ U
connexe. On peut donc remplacer la condition U connexe par U convexe et obtenir le même
résultat. + Voir contre-exemple livre Avez Calcul diffférentiel page 13 2.2.

Proposition 20.62. (des accroissement finis) Soient E , F deux e.v.n., U un ouvert connexe de
E, f : E → F une application différentiable.
Si (∃k ∈ R∗+; ∀u ∈ U ; kduf kF = ?k) ⇒ (∀(a, b) ∈ U 2, kf (b) − f (a)kF 6 k × kb − akE ).

Corollaire 20.63. Soient E , F deux e.v.n., U un ouvert connexe de E, f : U → F une application


différentiable sur U.
Si (∀(a, b, c) ∈ U 3, kf (b) − f (a) − dcf (b − a)kF 6 supx∈U kdxf − dc k × kb − akE ).

20.4.3 Applications
20.4.3.1 Application de différentielle 0: x 0
Réciproque du théorème vu au chapitre précédent, ce n’est pas tout à fiat une réciproque car
dans le précédent théorème la condition de convexité ? connexité n’est pas présente.

Proposition 20.64. Soient E , F deux e.v.n., U un ouvert connexe de E et f : U → F une appli-


cation différentiable sur U.
Si (∀u ∈ U ; duf = 0) ⇒ (f est constante sur U). 0 est ici l’application nulle
20.6 Théorème d’inversion locale 231

20.4.3.2 Comportement d’une application d’une variable réelle

Théorème 20.65. Soient ]α, β[ ⊂ R et g: ]α, β[ → R dérivable à droite sur ]α, β[ alors :
(g croissante sur ]a, β[) ⇔ ( ∀x ∈ ]α, β[, gd′ (x) > 0).

20.4.4 Relation entre différentiabilité et Lipschitziennité


20.4.4.1 Condition suffisante pour qu’une application soit lipschitzienne.

Proposition 20.66. Soient un ensemble convexe A tel que A ⊂ O avec O ⊂ R × E, f : O → E


une application et ft: E → E différentiable sur E, de différentielle D2 f.
x  f (t, x)
Si (D2 f est bornée) ⇒ (f est Lipschitzienne par rapport à x dans A).

20.4.4.2 Condition suffisante pour qu’une application soit localement lipschitzienne

Proposition 20.67. Soient O ⊂ R × E, f : O → E une application et ft: E → E diffé-


x 
f (t, x)
rentiable sur E, de différentielle D2 f.
Si (D2 f est localement localement bornée dans O ou D2 f est continue dans O) ⇒ (f est Lip-
schitzienne par rapport à x dans A).

20.5 Difféomorphisme
Définition 20.68. Soient E , F deux espaces normés, U un ouvert de E, V un ouvert de F.
On dit qu’une application f : U → V est un diéomorphisme si et seulement si f est bijec-
tive et si f puis f −1: V → U (son application inverse) sont différentiables sur U et V.

Définition 20.69. On dit qu’un difféomorphisme f est de classe C 1 si et seulement si f et f −1


sont de classe C 1.

Définition 20.70. Soient E , F deux espaces normés, U un ouvert de E et f : U → F une applica-


tion de classe C 1. On dit que f est un diéomorphisme local au point a si et seulement s’il
existe un ouvert U1 avec a ∈ U1 et U1 ⊂ U dont l’image V1 = f (U1) soit un ouvert contenant f (a)
tel que f |U1: U1 → V1 soit un difféomorphisme de classe C 1.

Remarque 20.71. Si f est un difféomorphisme local au point a alors ∀x ∈ U1, dxf ∈ Is(E , F );
en particulier si E = Rn et F = Rm, on a n = m et la matrice jacobienne de f est inversible en
tout point x de U1.

20.6 Théorème d’inversion locale


Remarque 20.72. Soit U un ouvert de R, a ∈ U et f : U → R de classe C 1 telle que f ′(a)  0. Il
existe donc un intervalle ouvert I contenant a où f ′ garde un signe constant (positif par
exemple). Ainsi f est croissante sur I. On sait que f (I) = J est un intervalle, ouvert contenant
1
f (a) et que f est un homéomorphisme de classe C 1 de I sur J, avec (f −1)y = f ′(x) pour y =
f (x). En particulier pour y ∈ J l’équation y = f (x) a une solution unique dans I x = f −1(y).
C’est ce résultat qu’on propose de généraliser.

Théorème 20.73. Soient E , F deux espaces de Banach, U un ouvert de E, a ∈ U et f : U → F


une application de classe C 1. On suppose daf ∈ Is(E , F ). Alors f est un C 1 difféomorphisme local
au point a. De plus la différentielle de f −1 au point y = f (x) ∈ J est donnée par D yf −1 =
−1
[Dxf ]
232 Applications dérivables et différentiables

Démonstration. Avez page 28. 

Remarque 20.74. Le théorème précédent affirme que l’équation f (x) = y admet une solution
unique, pourvu que y soit choisi assez voisin de f (a) et que x soit cherché voisin de a.

Corollaire 20.75. Soient E , F deux espaces de Banach, U un ouvert de E et f : U → F une


application de classe C 1 les conditions suivantes sont équivalentes :
1. f est un difféomorphisme de clase C 1 de U sur un ouvert de F.
2. f injective et ∀x ∈ U , dxf ∈ Is(E , F ).

20.7 Théorème des fonctions implicites


Remarque 20.76. Soient E , F , G trois espaces de Banach, U un ouvert de E × F (a, b) ∈ U et
f : U → G une application de classe C 1. Dans l’équation f (x, y) = f (a, b) suppose que a varie
dans un voisinage de a. On cherche à déterminer y en fonction de a. On a résolu ce problème
dans le cas particulier où f (x, y) = x − g(y) avec y application de classe C 1 d’un ouvert de F
dans E vérifiant dbg ∈ Is(E , F ) et g(b) = a.

Théorème 20.77. Soient E , F , G trois espaces de Banach, U un ouvert de E × F (a, b) ∈ U et


f : U → G une application de classe C 1. On suppose que D2 f (a, b) ∈ Is(F , G). Alors il existe un
ouvert V = J × K de (a, b) contenu dans U et une application g: J → K de classe C 1 tel que les
conditions suivantes soient équivalentes :
a) (x, y) ∈ J × K et f (x, y) = f (a, b).
b) x ∈ J et y = g(x).
En particulier f (x, g(x)) = f (a, b) pour x ∈ J. Avec dxg = − [D2 f (x, g(x))]−1 ◦ D1 f (x, g(x))(x).

Définition 20.78. La fonction y = g(x) s’appelle fonction implicite définie par l’équation
f (x, y) = f (a, b).

Remarque 20.79. Si E = Rn, F = G = R et f = (f1,  , fp) U ⊂ Rn × R p → Rp. La condition de


 
∂f
D2 f (a, b) inversible s’exprime par le Jacobien partiel : det ∂x (a, b) .
j 16i, j 6p

Exemple 20.80. f (x, y) = x + y . 2 2

20.8 Différentielle d’ordre supérieur


Dans ce chapitre, on définit les notions de différentielles d’ordre n et d’applications de classe C n.
On y aborde également les règles de calcul les concernant.
Dans la suite du cours, on adoptera les conventions suivantes : E , F sont des espaces vecto-
riels normés, U un ouvert de E et f : U → F une application différentiable.
La différentielle de f est une application U → L(E , F ). On peut donc se demander si df est
différentiable en a, a ∈ U ou même en tout point de U .
Par convention : on note L2(E , F ) l’ensemble des application multilinéaire de E n → F . Pro-
priété : Mn(E , F ) est un sous-espace vectoriel normé de F (E p , F ).

20.8.1 Différentielle d’ordre 2


20.8.1.1 Définition

Définition 20.81.
1. Soit a un point de U. On dit que f est deux fois différentiable en a si et seulement si :
− df est définie sur un ouvert U ′ de U (contenant a)
20.8 Différentielle d’ordre supérieur 233

− df est différentiable en a.
La différentielle de d f en a est notée d2af, elle appartient à L(E , L(E , F )). On l’appelle
diérentielle seconde de f en a (d2af = da(df )).
2. On dit que f est 2 fois différentiable dans U si et seulement si d f est différentiable en
chaque point de U.
Dans ce cas, l’application d2 f : U → L(E , L(E , F )) est appelée diérentielle
x  d2xf
seconde de f. (d2f (x) = d2xf).
Remarque 20.82. Si f ∈ L(E , F ) alors d f : x df x or dxf = f donc f est constante d’où
d2 f = 0.

20.8.1.2 Interprétation de d2af : Application bilinéaire associée à d2af


Rappelons que L(E , L(E , F )) est canoniquement isomorphe à l’e.v.n. L2(E , F )) (ensemble des
applications bilinéaires sur E à valeurs dans F , cela veut dire qu’une application de L(E , L(E ,
F )) permet de définir de manière très simple une application ayant les propriétés d’une applica-
tion bilinéaire ). L’image de d2af ∈ L(E , L(E , F )) dans cet isomorphisme ( .̂ ) est donc une appli-

cation bilinéaire de E × E → F définie par d2af : E × E → F d2af est appelé applica-


(h, k) 2
(daf (h))(k) 
tion bilinéaire associée à daf . Conséquence, on peut travailler indifférement avec d2af ou d2af .
2

On peut même utiliser la notation d2af pour d2af (dans ce cas d2af représente à la fois la différen-
tielle seconde de f en a et l’application bilinéaire associée d2af ). On les différencie par les élé-
ments qu’elles manipulent (d2af (h))(k), d2af ∈ L(E , L(E , F )) et pour d2af (h, k), d2af ∈ L2(E , F ).
d2af (h; k) = (d2af (h))(k) = (dadf (h))(k).

20.8.1.3 Calcul de d2af

d2 f (a + x th + xsk) d2 f (a + xth + xsk)


Proposition 20.83. d2af (h; k) = (d2af (h))(k) = dt d s
i.e. dt ds
(0, 0)
s=0
t=0

20.8.1.4 Théorème de Schwarz

Proposition 20.84. Si f : U → F est deux fois différentiable en a (a ∈ U ) alors :


kf (a + u + v) − f (a + u) + f (a) − d2af (u, v)k
1. lim v→0 (kuk + kv k)2
=0
u→0

2. L’application d2af ∈ L2(E , F ) est une application bilinéaire symétrique.


d2af (u, v) = d2af (v, u)

Rappel : d2af désigne aussi bien la différentielle seconde de f en a que l’application bilinéaire
associée ( c’est la suite de l’énoncé qui nous indique qu’il s’agit de cette dernière ).
Rajouter règle de calcul comme pour les différentielles d’ordre n.

20.8.2 Différentielle d’ordre n


20.8.2.1 Définition
Convention : f est une fois différentiable si et seulement si f est différentiable . d1 f = df .

Définition 20.85. Soit n ∈ N, n > 2,


1. Soit a un point de U. On dit que f est n fois différentiable en a si et seulement si :
− d(n−1) f est définie sur un ouvert U ′ de U (contenant a)
234 Applications dérivables et différentiables

− d (n−1) f est différentiable en a.


La différentielle de d (n−1) f en a est notée dna f, elle appartient à L(E , L(E ,  L(E , F ) ).
On l’appelle diérentielle d'ordre n de f en a (dna f = da(dn f )).
2. On dit que f est n fois différentiable dans U si et seulement si d(n−1) f est différentiable
en chaque point de U.
Dans ce cas, l’application dnf : U → L(E , L(E ,  L(E , F ) ) est appelée diéren-
x  dnx f
tielle d'ordre n de f.(dnf (x) = dnx f).
3. On pose d0 f = f.

20.8.2.2 Interprétation de dn n
a f : Application multilinéaire associée à da f

Rappelons que L(E , L(E ,  , L(E , F ) ) est canoniquement isomorphe à l’e.v.n. Ln(E , F ))
(ensemble des applications n-linéaires sur E à valeurs dans F , cela veut dire qu’une application
de L(E , L(E , F )) permet de définir de manière très simple une application ayant les propriétés
d’une application n-linéaire ). En ayant toujours présent à l’esprit les remarques faites précéde-
ment, on peut définir l’application dna f : En → F ce n’est

(h1,  , hn) ( ((dna f (h1))(h2))(h3) )(hn)
plus la différentielle d’ordre n de f , mais une application multinéaire définie à partir de celle-ci
et dna f (h1,  , hn) = ( ((dna f (h1))(h2))(h3) )(hn). dna f est appelé application n-linéaire associée
à dna f . Conséquence, on peut travailler indifférement avec dna f ou dna f . On peut même utiliser la
notation dna f pour dna f (dans ce cas dna f représente à la fois la différentielle seconde de f en a et
l’application bilinéaire associée dna f ). On les différencie par les éléments qu’elles manipulent.

20.8.2.3 Calcul de dn
af

Proposition 20.86. ( ((dna f (h1))(h2))(h3) )(hn) =  , 0).


dnf (a + n
P
i=1 xtihi)
d tn dt1
(0,

20.8.2.4 Théorème de Schwarz

20.8.2.5 Propriétés

Proposition 20.87. Si f : U − F est n fois différentiable en a (a ∈ U ) alors :


L’application dna f ∈ Ln(E , F ) est une application n-linéaire symétrique.
Autrement dit, pour toute permutation σ de {1,  , n} on a :
dna f (h1,  , hn) = dna f (hσ(1),  , hσ(n))

Théorème 20.88. Les deux propositions suivantes sont équivalentes.


1. f est différentiable en a (a ∈ U)
2. f est différentiable dans un voisinage ouvert de U ′ (U ′ ⊂ U) contenant a, df : U ′ → L(E ,
F ) est (n − 1) fois différentiable en a et dnf = d(n−1)(df ).

Conséquence : dm(dnf ) = dm+nf .

20.8.2.6 Règles de calcul


1. Applications linéaires continues : Soit f ∈ L(E , F ) ( une application linéaire continue E →
F ) alors dnf = 0, ∀n > 2.
2. Applications bilinéaires continues : Soit f ∈ L(E1, E2, F ) ( une application bilinéaire con-
tinue E1 × E2 → F ) alors dnf = 0, ∀n > 3.
3. Différentielle d’ordre supérieur d’un produit
4. ?
5. Différentielle d’application composée :
20.9 Formules de Taylor 235

Proposition 20.89. Soient E , F , G trois e.v.n. sur Λ, O un ouvert de E, O ′ un ouvert


de F. Si f : O → O ′ est une application n fois différentiable dans O et g: O ′ → G est une
application n fois différentiable dans O ′ alors g ◦ f est n fois différentiable dans O.

6. Différentielle d’une combinaison linéaire d’application

Proposition 20.90. Soient E , F deux e.v.n. sur Λ, O un ouvert de E, λ, µ ∈ Λ. Si f et


g sont n fois différentiable dans O alors dn(λf + µg) = λ dnf + µ dng.

20.8.3 Application de classe C 1,  ; C n;  ; C ∞


20.8.3.1 Définition

Définition 20.91. Soit E , F deux e.v.n. sur Λ, U un ouvert de E et f : U → F une application.


1. On dit que f est de classe C n dans U ⇔ dnf existe et est continue sur U (f est différen-
tiable sur U et dnf est continue sur U).
2. On dit que f est de classe C ∞ dans U ou f est indéfiniment différentiable ⇔ f est de
classe C n , ∀n ∈ N.

Remarque 20.92.
1. f est de classe C 0 sur U signifie f est continue sur U .
2. f est de classe C 1 sur U signifie f est continuement différentiable sur U .

20.8.3.2 Les espaces C ∞(U , F )


1. On note C n(U , F ), l’ensemble {f : U → F ; f est de classe C n }.
2. La linéarité de la différentiation permet de montrer que C n(U , F ) est un e.v. sur Λ.
3. L’intersection n>0 C n(U , F ) n’est autre que l’ensemble C ∞(U , F ).
T

20.8.3.3 Propriété

Théorème 20.93. Soit F = F1 × F2 et f = (f1, f2) alors :


f est de classe C n ⇔ f1, f2 sont de classe C n.

Proposition 20.94. (Composition d’applications C n) Soient f , g deux applications de classe


C n ⇒ g ◦ f est de classe C n.

20.8.3.4 Cas où E = Λ

Théorème 20.95. Soient f : Λ → F une application et O un ouvert de Λ.


f est n fois dérivable sur O ⇔ f est n fois différentiable sur O ⇔ f n(x) = dnx f (1,  , 1)

Théorème 20.96. En conservant les mêmes hypothèses on a :


f est de classe C n ⇔ f n est continue.

20.9 Formules de Taylor

20.9.1 Formule de Taylor asymptotique


Proposition 20.97. Soient E , F deux espaces normés, U un ouvert de E a ∈ U et f : U → F une
application différentiable n fois au point a. Alors pour h dans E tel que a + h ∈ U, on a : f (a +
h) = f (a) + D1 f (a)(h) + 2! D2 f (a)(h, h) +  + n! Dnf (a)(h,  , h) + khknε(h) ou f (a + h) =
1 1

f (a) + daf (h) + 2! daf (h, h) +  + n! da f (h,  , h) + khknε(h). Avec ε(0) = 0 et limh→0 ε(h) = 0.
1 2 1 n
236 Applications dérivables et différentiables

20.9.2 Formule de Taylor avec reste de Lagrange


Lemme 20.98. Soit f une fonction (n + 1) fois dérivable sur un voisinage ouvert de [0, 1] dans
R, à valeur dans un espace normé. On suppose qu’il existe M > 0 telle que kf (n+1)(t)k 6 M
pour tout t ∈ [0, 1] alors on a : kf (t) − f (0) − f ′(0) −  − n! f n(0)k 6 (n + 1)! .
1 M

Proposition 20.99. Soient E , F deux espaces normés, U un ouvert de E et f : U → F une appli-


cation différentiable (n + 1) fois dans U. On suppose qu’il existe M > 0 tel que kDn+1 f (x)k 6 M
ou kdn+1
x f k 6 M pour x ∈ U alors :
kf (a + t h) − f (a) − Df (a)(h) −  − n! Dnf (a)(h,  , h)k 6 (n + 1)! ou kf (a + t h) − f (a) −
1 M

daf (h) −  − n! dna f (a)(h,  , h)k 6 (n + 1)! .


1 M

20.9.3 Formule de Taylor avec reste de Intégrale


Lemme 20.100. Soit u une fonction de classe C n+1 sur un voisinage ouvert I de [0, 1] dans R,
à valeur dans un espace normé.
Alors on a : f (1) − f (0) − f ′(0) −  − n! f n(0) = 0
1 R 1 (1 − t)n (n+1)
n!
f (t)dt.

Proposition 20.101. Soient E , F deux espaces normés, U un ouvert de E et f : U → F une


application une fonction de classe C n+1 sur U.
∀a ∈ U et h ∈ E tels que [a, a + h] ⊂ U on a :
f (a + th) = f (a) + Df (a)(h) +  + n! Dnf (a)(h,  , h) + 0 f (a + t h)(h,  , h)dt
1 R 1 (1 − t)n (n+1)
n!
D
f (a + th) = f (a) + daf (h) +  + n! da f (h,  , h) + 0 da f (a + t h)(h,  , h)dt.
1 n R 1 (1 − t)n n+1
n!

20.10 Maxima et minima relatifs (ou local) libre


Dans tout ce qui suit, on considère des applications continues f : U → R où U est un ouvert d’un
espace normé E.

20.10.1 Première condition nécessaire


Définition 20.102. On dit que f admet un minimum (resp. un maximum) relatif (ou
local) en a ∈ U, s’il existe un voisinage V de a, V ⊂ U tel que f (x) > f (a) (resp. f (x) 6 f (a))
pour tout x ∈ V. On dit que l’extremum est strict si et seulement si ∀x ∈ V, f (x) > f (a) (resp.
f (x) < f (a)).

Remarque 20.103. f admet un maximum relatif équivaut à − f admet un minimum relatif

Note 20.104. A mettre avec les fonctions numériques ! Cette définiton garde un sens si U est
juste un ouvert d’un espace topologique.

Définition 20.105. On dit que a ∈ U est un point critique de f si et seulement si f est différen-
tiable en a et si daf = 0.

Proposition 20.106. Si f : U → R admet un minimum relatif au point a ∈ U et si f différen-


tiable. On a alors a est un point critique de f (i.e. Daf = 0).

20.10.2 Condition du second ordre


Rappel : Soit ϕ̃ une forme bilinéaire symétrique de E × E → R. A ϕ̃ correspond la forme qua-
dratique associée ϕ(x) = ϕ̃(x, x). On dit que la forme quadratique ou que la forme bilinéaire sys-
métrique est positive et on écrit ϕ > 0 si ϕ(x) > 0, ∀x ∈ E.
20.11 Maxima et minima relatifs (ou local) liés (ou avec contraintes) 237

Pour une forme quadratique positive on a l’inégalité de Cauchy-Schwartz : |ϕ̃(x, y)|2 6


ϕ(x) × ϕ(y), ∀(x, y) ∈ E.

Théorème 20.107. Soient U un ouvert d’un espace normé E et f : U → R une fonction 2 fois
différentiable en a ∈ U. Si f admet un minimum relatif au point a alors la forme quadratique
associée à la forme bilinéaire symétrique D2 f (a) est positive i.e. D2 f (a)(h)(h) > 0 ∀h ∈ E.

20.10.3 Condition suffisante pour le minimum relatif


Si E est un espace normé rappelons que l’application O: L(E , E , R) → L(E , L(E , R)) est
b  b(x, x)
une isométrie.

Définition 20.108. Un forme bilinéaire continue b sur E × E est non dégénérée si O(b) ∈ Is(E ,
L(E , R)) i.e. O(b): E → L(E , R) = E ∗ est une bijection bicontinue.

Proposition 20.109. Soit b une forme bilinéaire continue positive et non dégénérée alors il
existe une constante δ > 0 telle que b(x, x) > δ kxk2 pour tout x ∈ E.

Proposition 20.110. (condition suffisante) Soit U un ouvert d’un espace normé E et f : U → E


une fonction 2 fois différentiable en a ∈ U. Si daf = 0, si d2af est positive et non dégénérée, alors
f admet un minimum strict au point a.

20.11 Maxima et minima relatifs (ou local) liés (ou avec contraintes)

Introduction : Soit E , F deux espaces normés, U un ouvert de E, f : U → R continue et H un


sous-ensemble de E. On s’intéresse à l’étude des extremums relatifs de f |U ∩H . On dit que ces
extremums sont lorsqu’ils existent sont liés ( par le fait qu’ils sont tous les deux dans H). Nous
nous interessons à deux cas :
1. H est un sous-espace vectoriel de E.
2. H = g −1(0) où g: U → F de classe C 1 et Dg(x) est surjective pour tout x ∈ U .

Proposition 20.111. Soit E un espace normé, U un ouvert de E, H un sous-espace vectoriel


de E, f : U → R de classe C 1. Si la restriction de Df(a) à l’espace H est nulle alors f présente un
extremum lié en ????????????????????????? ∈ H.

Proposition 20.112. Sous les mêmes hypothèses, si f est de classe C 2. D(f |H )(a) = 0 et
D2 f (a) |H ×H est positive et non dégénérée alors f admet un minimum strict au point a.

Proposition 20.113. Soient U un ouvert de Rn, g: U → Rm avec m 6 n de classe C 1 et a ∈ U.


On suppose que Dg(a) est surjective alors ∃U ′ ∈ ouvert contenant a. Soit θ un difféomorphisme
de classe C 1 de U ′ sur ? ouvert de Rn tel que si π1 est la projection canonique de Rn = Rm ×
Rn−m sur Rm ? restriction de f à U ′ soit égale à π1 ◦ θ. En particulier on a : θ(U ′ ∩ g −1(0)) =
θ(U ′) ∩ Rn−1.

Proposition 20.114. Soit U un ouvert de Rn, g: U → Rm (m 6 n) de classe C 1 et a ∈ U tel que


f (a) = 0 et Dg(a) surjective. Soit également f : U → R différentiable en a. Ainsi a extremum
relatif et f |g −1(0) KerDg(a) ⊂ KerDf(a).

Lemme 20.115. Soit ϕ ∈ L(Rn , R) et γ ∈ L(Rn , Rm) (m 6 n) surjective alors si Kerγ ⊂ Kerϕ,
il existe λ ∈ L(Rm , R) unique tel que ϕ = λ ◦ γ.

Proposition 20.116. Soit U un ouvert de Rn, g: U → Rm (m 6 n) une application de classe


C 1a ∈ U tel que f (a) = 0 et enfin g: U → R une application différentiable. On a alors si l’applica-
tion linéaire Df(a) est surjective et si a est extremum de f |U ∩g ′(0) il existe une application
linéaire λ: Rm → R telle que D(f − λ ◦ g)(a) = 0.

Définition 20.117. λ s’appelle multiplicateur de Lagrange.


20.11 Maxima et minima relatifs (ou local) liés (ou avec contraintes) 239
Chapitre 21
Equation différentielle

21.1 Définitions et remarques générales


Définition 21.1. Soient n ∈ N∗ , I un intervalle de R, E , F deux K-evn de dimension finies, U
une partie de R × E n+1 et g: U → F une application.
1. On appelle équation diérentielle d'ordre n toute équation de la forme : g(x, y, y ′,  ,
y (n)) = 0 où l’inconnue y est une fonction n fois dérivable.
2. On appelle solution sur I de l'équation diérentielle toute application y: I → E telle
que :
− y soit n fois dérivable sur I,
− ∀x ∈ I , (x, y(x), y ′(x),  , y (n)(x)) ∈ U,
− ∀x ∈ I , g (x, y(x), y ′(x),  , y (n)(x)) = 0.
3. Résoudre l'équation, c’est déterminer toutes les solutions de l’équation.
Remarque 21.2.
1.
2.
3.
4.

21.2 Equation différentielle d’ordre 1


Définitions

Définition 21.3. Soient E un espace de Banach sur R, O un ensemble ouvert de R × E et f :


O → E . On appelle équation différentielle du premier ordre, une équation de la
(x, y)  f (x, y)
forme : y ′ = f (x, y). y ′:nombre dérivé d’une fonction ϕ en x. y:valeur numérique la fonction ϕ
en x.

Solution d’une équation différentielle du premier ordre

Définition 21.4. On appelle solution d’une équation différentielle du premier ordre toute fonc-
tion ϕ telle que : ∀x ∈ I; ϕ ′(x) = f (x, ϕ(x)) où I est un intervalle de R.

ϕ est une application I → E, dérivable sur I.


(Problème de Cauchy) On appelle problème de  Cauchy la recherche d’un intervalle I = [t0 −
ϕ ′(t) = f (t, ϕ(t))
α; t0 + α], B̄ = B̄ (x0, β) tels que ∃(ϕ: I → B̄ ); ∀t ∈ I , .
ϕ(t0) = x0, x0 ∈ B̄
Existence et unicité d’une solution locale
(Théorème de Caucy-Lipschitz) Soient E un espace de Banach, O un ouvert de R × E et f :
O → E continue sur O localement Lipschitzienne par rapport à x (i.e. Lipschitzienne dans un
voisinage V de (t0, x0)) alors ∀S  ⊂′ V , S est un cylindre de sécurité et S = I × B̄ (x0, β) et ∃!ϕ:
ϕ (t) = f (t, ϕ(t))
I → B̄ ;ϕ est dérivable sur I et .
ϕ(t0) = x0

240
21.3 Equation différentielle linéaire homogène d’ordre 1 à coefficients constants 241

(Théorème de Peano) Dans le cas où E est de dimension finie, la continuité de f dans O


suffit à assurer l’existence d’une solution, mais on perd l’unicité. On obtient alors le théorème de
Peano.
(Théorème de Peano) Soient f : O → E continue dans O, V un voisinage d’un point (t0, x0) et
O un ouvert de R × E alors  ∀S′ ⊂ V , S est un cylindre de sécurité et S = I × B̄ (x0, β) et ∃ϕ: I →
ϕ (t) = f (t, ϕ(t))
B̄ ;ϕ est dérivable sur I et .
ϕ(t0) = x0
Autre théorème
Soit
 ′f : ]a, b[ × E → E continue, bornée et Lipschitzienne alors ∃!ϕ: ]a, b[ → E dérivable telle
ϕ (t) = f (t, ϕ(t))
que .
ϕ(t0) = x0
Exemple d’application
Application du théorème de Cauchy Lipschitz
Application du théorème de Peano
Equation de Ricati
Les théorèmes précédents prouvaient l’existence locale d’une solution, mais cette solution est
complète ou partielle, c’est l’objet du chapitre suivant.
Existence et unicité globale d’une solution
Solution prolongeable

Définition 21.5. Soit U un ouvert d’un espace de Banach E; I , I1 deux intervalles de R et f :


I → U, f1: I1 → U deux solutions de l’équation différentielle du premier ordre y ′ = f (x, y).
(f prolonge f1 ) ⇔ (I1 ⊂ I et f = f1 sur I1 ) ⇔ (f1 est contenue dans f).

Définition 21.6. Une solution est maximale si elle n’est pas prolongeable.
Théorème d’unicité globale
Soient E un espace de Banach, O un ouvert  de R ×E, f : O → E continue sur O localement
ϕ1: I → E
Lipschitzienne et I un intervalle de R. Si sont deux solutions de l’équation y ′ =
ϕ2: I → E
f (t, y) telle que (∃t0 ∈ I; ϕ1(t0) = ϕ2(t0) alors ϕ1 = ϕ2 sur I.
Théorème d’existence globale
Soient E un espace de Banach, O un ouvert de R × E, f : O → E localement Lipschitzienne, I
un intervalle de R et (t0, x0) un point de O alors il existe une solution maximale unique ψ: J →
E contenant toute solution de l’équation y ′ = f (t, y) avec la condition initiale ψ(t0) = x0.

21.3 Equation différentielle linéaire homogène d’ordre 1 à


coefficients constants
Définitions
Soit I un intervalle de R, E un espace de Banach. On appelle équation différentielle linéaire
homogène à coefficients constants, toute équation de la forme : y ′ = A(y) où y ′ est la valeur de
la dérivée d’une application ϕ: I → E en un point t, A un endomorphisme de E et y: valeur de
l’application au point t.
C’est une équation du premier ordre où f (x, y) = A(y).

On appelle solution de l’équation différentielle linéaire homogène d’ordre 1 à coefficient cons-


tant définie précédement : toute application différentiable f : I → E telle que ϕ ′(t) = A(ϕ(t)).

Si E = Rn ou Cn, l’équation est équivalente au système : dt = nj=1 aijϕ j , i = 1,  , n.


dϕi P

Soit SI l’espace des solutions de I → E, c’est un espace vectoriel.


Toute solution f est C ∞ (On démontre cette propriété par récurence).
Théorème fondamental
242 Equation différentielle

Soient E un espace de Banach, A un endomorphisme de E, x0 un point de E, I un intervalle


de R (quelconque) et t0 un éléments de I. alors il existe une application f différentiable unique

 ′
ϕ (t) = A(f (t))
vérifiant : cette application est : f : t exp((t − t0)A)(x0). On dit que f est la
f (t0) = x0
solution définie sur I de l’équation y ′ = A(y), qui vérifie les conditions initiales f (t0) = x0.
Remarques : Les solutions maximales de l’équation y ′ = A y sont définies sur R (tout entier).
Prenonons I = R, l’équation y ′ = A y admet une solution définie ∀t ∈ R et vérifiant f (t0) = x0,
∀(t0, x0). Soit un intervalle I de R contenant t0, f |I vérifie aussi l’équation et les conditions ini-
tiales. Soit ϕ = f |I sur I. (Théorème de l’unicité). On dit alors que toute solution de y ′ = A y
est prolongeable sur R.
Soit SI e.v. des applications I → E solutions de l’équation y ′ = A(y) et t0 ∈ I. L’application
ψt0: SI → E est un isomorphisme d’espace vectoriel. Donc dim(SI ) = dim(E).
f  f (t0)
Une fois obtenu, la solution générale t  exp(t · A)(x) de l’équation y ′ = A(y), on pourrait
P (t · A)n
croire la résolution achevée. Il n’en est rien, car la somme exp(t · A) = ∞ n n!
peut être diffi-
cile à calculer. Si l’on garde la solution sous cette forme, il y a des questions auxquelles il sera
difficile de répondre : exp(t · A)x est-elle périodique ? reste-t-elle bornée si t → ∞?

Calcul explicite des solutions : On suppose ici que la dimension de E est finie.
Cas où A est un endomorphisme nilpotent
Soit {ek } une base de vecteurs propres. On a alors A(ek) = akek et An(ek) = ank ek, d’où exp(t ·
A)(ek) = exp(t · ak)(ek). Les fonctions exp(t · ak) · ek sont donc solutions de y ′ = A y. Comme elles
sont au nombre de n = dim(E) et qu’elles sont linéairement indépendantes, elle forment un base
de l’espace des solutions. Dans la pratique les valeurs propres étant déterminées, on cherchera
les ek par la méthode des coefficients indéterminés en écrivant que exp(t · ak)ek vérifie y ′ = A y.
Cas où A est un endomorphisme nilpotent
Si A est un endomorphisme nilpotent d’indice N alors exp(t · A) = IdE + t A +  + (N − 1)! .
(t A)N −1

La solution générale de y ′ = A y est une fonction vectorielle dont les composantes sont des poly-
nômes en t de degré strictement inférieur à N . On recherchera les composantes de cette fonction
par la méthode des coefficients indéterminés.(Voir cours Calcul diff. Avez page 53).
Cas général sur le corps des complexes
Soit E un espace de Banach de dimension finie n sur le corps C.
La solution générales de y ′ = A y est donc la somme des m fonctions vectorielles t 
etλiXi(t).
Cas général sur le corps des réels (Voir cours Calcul diff. Avez page 54).

21.4 Equation différentielle d’ordre supérieur


Jusqu’ici, les équations différentielles considérées ne faisaient intervenir que la dérivéee première
de la fonction inconnue; elles étaient dites du premier ordre. Si l’on considère des équation fai-
sant intervenir les dérivées seconde, troisième, ... d’une fonction inconnue, on obtient des équa-
tion différentiellles d’ordre 2, 3, ... . Un artifice permet de ramener une équation différentielle
d’ordre p à un système différentiel d’ordre 1. Par la suite, nous limiterons notre étude aux équa-
tions différentielles linéaires d’ordre.

21.4.1 Définition

21.4.2 Réduction à un système d’équa. diff. d’ordre 1


Les relation que nous allons établir pour une équation d’ordre p peuvent aussi s’applicauer à un
système d’équation, qui se ramène également à un système d’ordre 1. Nous allons construire un
système d’équation différentielles du premier ordre et montrer qu’il existe des bijections entre
l’ensemble de ses solutions et l’ensemble des solutions de l’équation différentielle d’ordre supé-
rieur p définie précédement.
21.4 Equation différentielle d’ordre supérieur 243

Nous utiliserons dans ce paragraphe le système (1) de p équations différentielles d’ordre 1 et


l’équation différentielle (2) d’ordre p.


 y0′ = y1
 y1′ = y2

(2) y(p) = f (x, y, y ′,  , y p−1)




(1) 
 y p −2 = y p −1
 y p′ −1 = f (x, y0, y1,  , y p −1)


21.4.2.1 Equipotence des ensembles de solution

Théorème 21.7. Pour qu’une application ϕ, p fois dérivalbe sur un intervalle, soit solution de
(2), il faut et il suffit que la suite des p applications (ϕ, ϕ ′, ϕ ′′,  , ϕ p−1) soit solution de (1).
Autrement dit, soit M l’ensemble des solutions de (2), M ′ l’ensemble des solutions de (1) et
T l’application définie par :
T: M → M′ est une bijection.
ϕ 
(ϕ, ϕ , ϕ ′′,  , ϕ p−1)

21.4.2.2 Equipotence des ensembles de solution maximale

Théorème 21.8. Soit ϕ1, ϕ2 deux solutions de (2) pour que ϕ2 prolonge ϕ1 , il faut et il suffit
que la solution (ϕ2, ϕ2′ , ϕ2′′,  , ϕ2p−1) de (1) prolonge la solution (ϕ1, ϕ1′ , ϕ1′′,  , ϕ1p−1).

Théorème 21.9. Ainsi pour que ϕ soit solution maximale de (2), il faut et il suffit que (ϕ, ϕ ′,
ϕ ′′,  , ϕ p−1). Autrement dit, soit N l’ensemble des solutions maximales de (2), N ′ l’ensemble
des solutions maximales de (1) et T l’application définie par :
T: N → N′ est une bijection.
ϕ 
(ϕ, ϕ , ϕ ′′,  , ϕ p−1)

Résoudre l’équation différentielle d’ordre p : (2) y (p) = f (x, y, y ′,  , y p−1)


m 

 y0′ = y1
 y1′ = y2



Résoudre le système différentielle d’ordre 1 : (1) 
 y p −2 = y p −1
 y p′ −1 = f (x, y0, y1,  , y p −1)


La réduction d’un système d’équation différentielle d’ordre supérieur p à un système d’équa-


tion différentielles du premier ordre se traduit par une augmentation du nombre des inconnues.

21.4.3 Equa. diff. d’ordre sup. linéaire, homogène et à coefficients


constants

21.4.4 Définitions

Définition 21.10.

On appelle équation différentielle linéaire homgène d’ordre p, à coefficient constants, toute


équation différentielle supérieur de la forme : y (p) + a1 y (p−1) +  + a py = 0
y (i) valeur de la dérivée d’une fonction ϕ: I → E où I est un intervalle de R et E un espace
de Banach. (a1, a2,  , an) sont les coefficients.
On appelle soltuion de l’équation différentielle homogène d’ordre p à coefficent constant (a1,
a2,  , an), toute application ϕ: I → E p fois dérivable (i.e. différentiable) telle que : ϕ(p) +
a1 ϕ(p−1) +  + a pϕ = 0.
Résoudre une équation différentielle linéaire homogène d’ordre p à coefficients constants,
c’est trouver toutes les solutions de l’équation.
244 Equation différentielle

21.4.5 Méthode de résolution


On transforme cette équation d’ordre p en un système de p équation d’ordre 1, en un posant :
y = x1, y ′ = x2, y ′′ = x3,  , y (n−1) = xn (1). Alors x = (x1, x2,  , xn) ∈ E n vérifie le système diffé-
rentielhomogène du premier ordre :
x ′ = x2
 0′



x1 = x3
(2)  Réciproquement, si y vérifie le système précédent alors il
= − anx1 − an −1x2 −  − a1x p −1


 xn−1

vérifie aussi (1). Posons A ∈ End(E n) notons aussi A sa matrice associée A =


 0

0 1 0
 0 0 1  0   on a (2) ⇔ x ′ = A x. Or l’équation caractéristique de A est :


 
− an − an −1 − an −2  − a1
det(A − λId) = 0 i.e. λn + a1λn−1 +  + an = 0. PDonc si λi est une racine d’ordre ri de ce poly-
n
nôme, la solution générale de (2) si E = C est : i=1 exp(λit) × Pi(t) où Pi est un polynôme de
degré ri−1 à coefficient dans E . n

21.5 Equation différentielle linéaire d’ordre 1

21.5.1 Définitions
Définition 21.11.

Définition 21.12. Soit I un intervalle de R, E un espace de Banach. On appelle équation dif-


férentielle linéaire du premier ordre de la forme : y ′(t) = A(t)y(t) + B(t).
Soit l’équation différentielle linéaire du premier ordre : y ′ = A(y) et appelée équation homo-
gène associée.
On appelle solution de l’équation différentielle linéaire y ′ = A(y) + B(t) définie précédement,
toute application ϕ dérivalbe telle que ∀t ∈ I; ϕ ′(t) = Aϕ(t) + B(t).

21.5.2 Théorème d’existence


Théorème 21.13. Soient I un intervalle de R, t0 de I, E un espace de Banach, x0 un point de
E et y ′ = A(y) + B(t) une équation différentielle linéaire du premier ordre où A et B sont défi-
nies sur E et I.
 ′
Alors le problème de Cauchy admet une solution unique, définie sur I tout
(t) = A(ϕ(t)) + B(t)
entier. tel que ϕϕ(t ) = x
.
0 0

Remarque 21.14. Ce théorème ne donne aucune idée de la soltuion sauf si A est constant et
B = 0. Dans ce cas la solution est exp(t − t0)A. Cependant en général, on ne pourra pas être
explicite. On procède donc comme suit :
a) Etude de l’équation homogène associée, transformation et introduction d’un outil (appelé
résolvante) permettant de décrire la solution.
b) Etude avec un second membre.

21.5.3 Etude de l’équation homogène : y ′ = At(y) (*)


Soit SI l’espace des solution définies sur l’intervalle I. SI est un espace vectoriel. Si (t0, x0) ∈
E 2, on sait que l’équation admet une unique solution ϕ appartenant à SI telle que : ϕ(t0) = x0.
L’application wt0: SI → E est un isomorphisme d’espace vectoriel. En particulier si
ϕ  ϕ(t0)
dimE = n et si dimSI = n.
Remarque
 ′
: Soit t0 ∈ I et ϕ(t; x0) la solution de l’équation homogène prenant la valeur x0 en
ϕ (t, x0) + ϕ(t, x0) = ϕ(t, x0 + x)
t0. On a : ϕ(t + λx ) = λϕ(t, x ) ϕ est linéaire en x0. En particulier ϕ(t, 0) = 0.
0 0
21.5 Equation différentielle linéaire d’ordre 1 245

Résolvante d’une équation linéaire


Introduction
Considérons l’équation (**) y = A(t)(y) associée à (*) où y est la valeur de wt0:
I → End(E) . C’est encore une équation linéaire homogène de la forme R ′(t) = A(t)R(t).
t  R(t)
Avec A(t): End(E) → End(E) . A(t) est linéaire et continue puisque kA(t) · f k 6
f 
A(t) · f = A(t) ◦ f
kA(t) q kf k. Donc A(t) est à valeur dans L(E , E) = End(E) avec E ′ = End(E). On vérifie que A:
I → End(E) est continue. Finalement, (**) est linéaire homogène et possède une solution unique
associée au couple (t0, ϕ0) vérifiant R(t0) = ϕ0.
Définition
On appelle résolvante de (*) la solution de (**) qui prend la valeur Id pour tout t = t0. On la
note R(t, t0).
théorème
La solution de l’équation différentielle y ′ = A(t)(y) prenant la valeur x0 en t0 est égale à R(t,
t0) est la résolvante de (*).
remarque : A ce stade, on n’a pas d’information explicite sur la solution du problème.
Cependant, on va voir que l’on peut tirer de ce résultat des informations intéressantes :
Cas trivial : A(t) = A alors R(t, t0) = exp(t − t0)exp(t − t0)A.
Propriété de la résolvante
∀(t0, t1, t) ∈ I 3 on a R(t, t0) = R(t, t1) ◦ R(t1, t0)
∀(t, t0) ∈ I 2 on a R(t, t0) est un isomorphisme de E dans E et R −1(t, t0) = R(t0, t).
Déterminant de la résolvante
Soit un espace Banach, de dimension finie A: I → End(E) une fonction réglée continue :
R t
Det R(t, t0) = exp t Tr(A(o))ds.
0
Equation différentielle linéaire avec second membre y ′ = A(t) + B(t)
Théorème
Soient E un espace de Banach, I un intervalle de R la solution au problème de Cauchy
ϕ ′(t) = A(t)(ϕ(t)) + B(t)

est ϕ: I → E .

ϕ(t0) = x0 R t
t R(t; t0)(x0) + t R(t, τ ) ◦ B(τ )dτ
0
Cas particulier A constant
 ′
ϕ (t) = A(t)(ϕ(t)) + B(t)
R t
ϕ(t ) = x
la solution s’écrit alors : ϕ(t) = t (exp(t − τ )A)B(τ )dτ + (exp(t −
0 0 0

t0)A)(x0).
Résumé :  ′ R t
ϕ (t) = A(t)(ϕ(t)) + B(t)
Pour résoudre (*) ϕ(t )=x
la solution de (*) s’écrit R(t; t0)(x0) + t R(t, s) ◦
0 0 0

B(s)ds. Le second membre est la somme : de la solution


R t R(t, t0)(x0) de l’équation sans second
ϕ ′(t) = A(t)ϕ(t)
membre ϕ(t ) = x
et de la solution t
R(t, s) ◦ B(s)ds de l’équation
0 0 0
ϕ ′(t) = A(t)ϕ(t) + B(t)


ϕ(t0) = 0
.
Equation différentielle Expression
de Bernouilli a(t)y m + b(t)y + y ′ = 0 m 1
λ2
 
1
de Bessel y ′′ + x y ′ + 1 − x2 y = 0
de Clairaut y − x y ′ = A(y ′)
de Euler a x y + b x y ′ + c y = f (x)
2 ′′

de Hill y ′′ + Φ(t)y = 0 Φ fonction réelle de période π


de Lagrange f (y )t + g(y ′)y = h(y ′)

de Mathieu y ′′(t) + [λ − 2 h2cos(2t)]y(t) cas particulier de Hill


de Ricatti y ′ = A(x)y 2 + B(x)y + C(x)
de à variables séparées g(y) · y ′ = f (x)
21.5 Equation différentielle linéaire d’ordre 1 247
Chapitre 22
Théorie des Graphes

22.1 Notion de Graphe

22.1.1 Graphes non orientés


Définition 22.1. On appelle graphe non orienté ou multigraphe le triplet G = (S, A, e) où :
− S est un ensemble fini ou dénombrable dont les éléments sont appelés sommets.
− A est un ensemble fini ou dénombrable dont les éléments sont appelés arêtes.
− e: A → P2(S) ∪ ∆ est une application où P2(S) est l’ensemble des paires d’éléments de S
et où ∆ est la diagonale de S × S.

Remarque 22.2.
− Pour lever toute ambiguité S, A peuvent être notés S(G), A(G) pour dire qu’il s’agit de
l’ensemble des sommet et des arêtes du graphe G.
− Les arêtes sont donc des couples de sommets et peuvent être notés (u, v).
− En tenant compte de la symétrie, elles peuvent être vues plus simplement comme de
paires de sommets : on remplace les deux couples (u, v) et (v, u) par une seule paire {u,
v }, qu’on écrit uv pour simplifier la notation.

extrémités de l’arête uv.


Définition 22.3. Soit une arête uv les sommets u et v sont appelés

Définition 22.4. Deux sommets u et v sont dits adjacents ou voisins et on note u ∼ v si et


seulement s’ils appartiennent à la même arête.

Définition 22.5. Une boucle est une arête (u, v) si et seulement si u = v.


Définition 22.6. Une arête (u, v) est un lien si et seulement si u  v.

Remarque 22.7.
− L’ensemble des voisins du sommet v est noté N (v).
− Le nombre de sommets d’un graphe G est noté s(G), le nombre d’arête a(G).

Définition 22.8. Soient G = (SG , AG) et H = (SH , AH ) deux graphes. On appelle isomor-
phisme de G dans H toute bijection f : SG → SH telle que uv ∈ AG si et seulement si f (u)f (v) ∈
AH. Dans ce cas, s’il existe un isomorphisme entre G et H, on dit que G est isomorphe à H et
on écrit G @ H.

Définition 22.9. On appelle graphe simple un graphe non orienté (i.e. un multigraphe) (S ,
A) sans boucle et tel que pour deux sommets x, y quelconques, il existe au plus une arête admet-
tant x et y comme extrémités. (e injective ?)

Remarque 22.10. Dans ce cas A est identifiable à une partie de l’ensemble P2(S) des paires
d’éléments de S.

Définition 22.11. Un graphe est dit complet si et seulement si pour toute paire (x; y) de som-
mets du graphes, il existe au moins une arête d’extrémité x; y. (Cela veut-il dire que (e) est inje-
ctive ?)

248
22.1 Notion de Graphe 249

Définition 22.12.
− On appelle clique un graphe simple et complet (Cela veut-il dire que (e) est bijective ?)
− Une clique à n-sommets est appelée n-clique, on la note [Kn].

Figure 22.1. Cliques : [K3], [K4], [K5] et contre-exemples.

22.1.2 Graphe orienté


Définition 22.13. On appelle graphe ou graphe orienté le quadruplet G = (V , E , o, e) où :
− V est un ensemble fini ou dénombrable dont les éléments sont appelés sommets.
− E est un ensemble fini ou dénombrable dont les éléments sont appelés arcs(ou arêtes).
− o: E → V est une application appelée application-origine (ou application initiale).
− e: E → V est une application appelée application-extrémité (ou application terminale).

Remarque 22.14.
− Pour lever toute ambiguité V , E peuvent être notés V (G), E(G) pour dire qu’il s’agit de
l’ensemble des sommets et des arêtes du graphe G.
− Souvent un arc est identifié avec le couple de ses extrémité; E est alors une famille finie
ou dénombrable d’éléments de V × V et le graphe est noté G = (V , E)
− Les arcs sont donc des couples de sommets et peuvent être notés (u, v).

Définition 22.15. Un graphe orienté est dit n-graphe si et seulement si pour tout couple de
sommets (x, y), le nombre d’arcs d’extrémité initiale x et d’extrémité finale y est inférieur à n,
le nombre n étant atteint pour au moins un couple de sommet.

Remarque 22.16. En identifiant un arc, avec le couple de ses extrémités, les 1-graphes sont les
graphes des relations binaires sur un ensemble fini ou dénombrable.

Définition 22.17. Soit un arc (u, v), les sommets u et v sont appelés extrémités de l’arc (u,
v) ou sommets adjacents dans ce cas on note u ∼ v. Plus précisément, on dit que :
− u domine v et on note u → v,
− u est l’extrémité initiale et v est l’extrémité terminale.
− u est un voisin intérieur de v et v est un voisin extérieur de v.

Remarque 22.18. Les ensembles des voisins intérieurs et extérieurs d’un sommet v sont notés
respectivement N −(v) et N +(v).

La définition d’isomorphisme reste valable pour les graphes orientés, en remplaçant les paires
uv et f (u) f (v) par des couples.

Définition 22.19. Soient G = (VG , EG) et H = (VH , EH ) deux graphes. On appelle isomor-
phisme de G dans H toute bijection f : VG → VH telle que (u, v) ∈ EG si et seulement si (f (u),
f (v)) ∈ EH. Dans ce cas, s’il existe un isomorphisme entre G et H, on dit que G est isomorphe à
H et on écrit G @ H.
250 Théorie des Graphes

22.1.3 Définitions Communes


Définition 22.20. On appelle noeud du graphe un sommet qui admet plus de 2 arcs incidents.

Figure 22.2. Noeuds

Définition 22.21. On appelle ordre d’un graphe le nombre de sommet du graphe.


Définition 22.22. Un graphe est dit ni si et seulement si l’ensemble des sommets est fini.

Définition 22.23. On dit que deux sommets x, y sont réliés par un fuseau si et seulement si
ils existe au moins deux arêtes. Un fuseau est dans ce cas l’ensemble des arêtes reliant x, y.

Figure 22.3.

Définition 22.24. On appelle graphe biparti, tout graphe admettant une partition de
l’ensemble S de ses sommets en deux classes S1 et S2 telles que tout arc du graphe ait une de
ses extrémités dans S1 et l’autre dans S2. Si A est l’ensemble des arcs, il est noté (S1, S2, A).

Figure 22.4. Graphe biparti

Définition 22.25. Un graphe est dit complet si et seulement si 2 sommets distincts sont tou-
jours adjacents.

Note 22.26. (Voir si cette définition n’est pas en contradiction avec la définition de la page
153).
22.2 Représentation de graphes 251

Définition 22.27. Un 1-graphe(S,A) est dit symétrique si et seulement si (x, y) ∈ A ⇒ (y,


x) ∈ A.

Définition 22.28. On appelle Graphe k-chromatique un graphe dont on peut colorier les
sommets à l’aide de k couleurs de manière que deux sommets adjacents distincts ne soient
jamais de la même couleur.

22.2 Représentation de graphes

22.2.1 Graphes non orientés (i.e. multigraphes)


22.2.1.1 Matrice d’incidence

Définition 22.29. La matrice d'incidence d’un graphe non orienté est la matrice M =
(mve) où
− mve = 2, si v est l’extrémité de la boucle e
− mve = 1, si v est l’une des extrémités du lien e,
− mve = 0, sinon.

Exemple 22.30. Nombre d’arête a(G) = 7. 3 + 3 + 4 + 2 + 2 = 14 ↔ 2 × a(G) = 14.


2

a 1 2 3 4 5 6 7
1 a 1 2 0 0 0 0 0 
1 2 0 0 0 0 0
 
3

4
b 1 0 1 0 0 0 1  1 0 1 0 0 0 1   3 
degré des sommets →  4 
→
   
0 0 1 2 1 0 0
b 3
c c 0 0 1 2 1 0 0 
 0 0 0 0 1 1 0


 
 2 

7
d 0 0 0 0 1 1 0 0 0 0 0 0 1 1 2

5 e 0 0 0 0 0 1 1
e
6
d

Définition 22.31. La somme des coefficients de la ligne v de M s’appelle le degré du sommet


v, on le note d(v).

Définition 22.32. Un sommet de degré nul est un sommet isolé.


Définition 22.33. Un graphe est régulier si et seulement si ses degrés sont tous égaux.
Théorème 22.34. Pour tout graphe G
P
v ∈V d(v) = 2 e(G).

22.2.1.2 Matrice adjacente

Définition 22.35. La matrice d'adjacente d’un graphe non orienté est la matrice A =
(auv), où
− auv = 1 si u ∼ v,
− auv = 0 sinon.

Exemple 22.36.
a
b

d
c
252 Théorie des Graphes

a b c d
a 0 1 0 1
 
0 1 0 1
1 0 1 1 
b 1 0 1 1 →


 0 1 0 0 
c 0 1 0 0 1 1 0 0
d 1 1 0 0

22.2.1.3 Liste d’adjacence

Définition 22.37. Une liste d'adjacence d’un sommet v est une liste L(v) de ses voisins
N (v).

Remarque 22.38. Une suite (L(v); v ∈ V ) de telles listes est une structure plus concise que
celles des matrices d’incidences et d’adjacence, donc plus adaptée aux algorithmes.

22.2.2 Graphes orientés (i.e. graphes)


22.2.2.1 Matrice d’incidence

Définition 22.39. La matrice d'incidence d’un graphe orienté sans boucle est la matrice
M = (mve) où
− mve = 1, si v est l’extrémité initiale de l’arc e
− mve = − 1, si v est l’extrémité terminale du l’arc e,
− mve = 0, sinon.

Définition 22.40.
− La somme des coefficients négatifs de la ligne v de M s’appelle le degré intérieur du
sommet v, on le note d −(v).
− La somme des coefficients positifs de la ligne v de M s’appelle le degré extérieur du
sommet v, on le note d+(v).

Définition 22.41.
− Un sommet de degré intérieur nul est une source isolé.
− Un sommet de degré extérieur nul est un puits.

22.2.2.2 Matrice adjacente

Définition 22.42. La matrice d'adjacente d’un graphe orienté sans boucle est la matrice
A = (auv), où
− auv = 1 si u → v,
− auv = − 1 si v → u
− auv = 0 sinon.

Remarque 22.43. C’est une matrice antisymétrique.

22.2.2.3 Liste d’adjacence

Définition 22.44. Une liste d'adjacence d’un sommet v est une liste L(v) de ses voisins
extérieurs N +(v).

22.3 Chaînes, cycles, circuits et chemins


Pour ces définitions, on peut considérer soit les sommets, soit les arcs ou les arêtes.
22.3 Chaînes, cycles, circuits et chemins 253

Définition 22.45. Une chaîne dans un graphe ou graphe orienté est une suite (v0, v1 , vm) de
sommets distincts, où vi−1 ∼ vi , 1 6 i 6 m,
− le sommet v0 est le sommet initial de la chaîne,
− le sommet vm son sommet terminal.
Quand on veut expliciter ces deux sommets, on parle d’une v0vm-chaine.

Figure 22.5.

Définition 22.46. (A revoir) On appelle cycle d’un graphe une chaine u1, u2,  , u q où les arcs
ui sont distincts et telle que l’extrémité de u1 non commune avec u2 coïncide avec l’extrémité de
u q non commune avec u q −1

Définition 22.47. Un circuit dans un graphe ou graphe orienté est une suite (v0, v1 , vm) de
sommets, où vi−1 ∼ vi , 1 6 i 6 m, dont tous sont distincts sauf v0 et vm qui sont confondus.

Théorème 22.48. Les conditions suivantes sont équivalentes :


1. G est biparti ;
2. tout circuit de G est de longueur paire.

Définition 22.49. Un chemin dans un graphe orienté est une suite (v0, v1 , vm) de sommets
distincts, où vi−1 → vi , 1 6 i 6 m.

Définition 22.50. Un circuit orienté dans un graphe orienté est une suite (v0, v1 , vm) de
sommets, où vi−1 → vi , 1 6 i 6 m, dont tous sont distincts sauf v0 et vm, qui sont confondus.

Définition 22.51. La longueur d'une chaîne (ou chemin ou circuit ou circuit orienté) est
son nombre d’arêtes.

Définition 22.52. La distance d(u, v) entre deux sommets u et v d’un graphe (ou orienté)
est la longueur d’une plus courte uv-chaîne (plus court (u, v)-chemin).

Définition 22.53.
− Une chaîne, un cycle, un circuit ou un chemin sont dits hamiltoniens si et seulement
s’ils passent une et une seule fois par chaque sommet du graphe.
− Un graphe possédant un cycle hamiltonien est dit hamiltonien.
Exemple 22.54. Une chaîne hamiltonienne dans un graphe est indiquée dans la figure 2.4.

Définition 22.55.
− Une chaîne, un cycle, un circuit ou un chemin sont dits eulériens si et seulement s’ils
utilisent une et une seule fois chaque arêtes du graphe.
− Un graphe possédant une chaine eulérienne est dit eulérien.
Définition 22.56. On appelle racine d’un graphe orienté, un sommet r tel que pour tout
sommet x il existe un chemin de r à x.
254 Théorie des Graphes

22.4 Sous graphes


Définition 22.57. On appelle sous-graphe H d’un graphe, tout graphe obtenu par suppression
d’arètes ou de sommets du graphe G. On écrit dans ce cas : H ⊆ G

Soit G = (V , E) un graphe, et soient v ∈ V et e ∈ E. On considère deux graphes associés:


− le graphe G\e, défini par V (G\e) = V (G) et E(G\e) = E(G)\{e}, est obtenu à partir de
G par la suppression de l’arête e.
− le graphe G − v, défini par V (G − v) = V (G)\{v} et E(G − v) = E(G) ∩ [V (G\v)]2, est
obtenu à partir de G par la suppression du sommet v.
On appelle sous graphe de G tout graphe H obtenu par une suite de telles opérations. Cette
relation est notée H ⊆ G.

Exemple 22.58. Les sommets et les arêtes de la suite définissant une chaîne ou un circuit cons-
tituent les ensembles de sommets et d’arête d’un sous graphe. On peut donc considérer comme
sous graphe toute chaîne et tout circuit d’un graphe.

Définition 22.59. Un sur-graphe d’un graphe G est un graphe H dont G est un sous-graphe.
On écrit dans ce cas : H ⊇ G.

Il existe deux types particuliers de sous graphes :

Définition 22.60. Un sous graphe obtenu uniquement par la suppression d’arêtes s’appelle
sous-graphe couvrant.
Exemple 22.61. Une chaine ou un circuit hamiltonien sont donc des sous graphes couvrants.

Définition 22.62. Un sous graphe obtenu uniquement par la suppression de sommets s’appelle
sous-graphe induit.
Exemple 22.63. Dans un graphe simple, tout plus court circuit est un sous-graphe induit.

Figure 2.4: Une chaîne hamiltonienne dans un graphe.

Figure 2.5: Le sous-graphe induit par V − {x, y }.

Si S est l’ensemble de sommets ou d’arêtes supprimés, le sous-graphe obtenu est noté G − S.


Quand S est un ensemble de sommets, on dit que G − S est induit par son ensemble de sommets
V \S, et on le note également G[V \S]. Le sous graphe induit obtenu suite à la suppression de
deux sommets est indiqué dans la figure 2.5.
Soient G et H deux sous graphes d’un graphe.
− L’union de G et H est le sous-graphe G ∪ H avec V (G ∪ H) = V (G) ∪ V (H) et E(G ∪
H) = E(G) ∪ E(H).
− L’intersection de G et H est le sous-graphe G ∩ H avec V (G ∩ H) = V (G) ∩ V (H) et
E(G ∩ H) = E(G) ∩ E(H).

22.5 Connexité et forte connexité

22.5.1 Graphe connexe


Proposition 22.64. Soit G = (V , E) un graphe. La relation binaire ∼ ∼ , sur V définie par :
( u ∼ ∼ v ⇔ existe une uv-chaîne dans G ) est une relation d’équivalence.

Définition 22.65. Les sous-graphes induits par les classes d’équivalence de ∼ ∼ s’appellent les
composantes de G. On note c(G) le nombre de composantes de G.
22.5 Connexité et forte connexité 255

Définition 22.66. Un graphe est dit connexe si et seulement si c(G) = 1 (autrement dit il
possède une seule composante).

Figure 22.6. Connexité.

22.5.2 Graphe orienté fortement connexe


Proposition 22.67. Soit G = (V , E) un graphe orienté. La relation ↔ sur V définie par :
( u ↔ v ⇔ ∃ un (u, v)-chemin et un (v, u)-chemin dans G) est une relation d’équivalence.

Définition 22.68. Les sous graphes induits par les classes d’équivalence de ∼ ∼ s’appellent les
composantes fortes de G.
Définition 22.69. Un graphe orienté est fortement connexe si et seulement s’il a une
seule composante forte.

22.5.3 Arêtes/sommets séparat(eur/rices), graphe séparable, bloc


Définition 22.70. Une arête séparatrice d’un graphe G est une arête (e) telle que c(G \e) >
c(G).

Théorème 22.71. Les conditions suivantes sont équivalentes :


1. e est une arête séparatrice de G
2. e n’appartient à aucun circuit de G

Définition 22.72. Soit G un graphe connexe.


Un sommet séparateur de G est un sommet v tel que G\ v est non connexe.

Exemple 22.73. Les sommets séparateurs d’un graphe sont indiqués dans la figure 3.6.

Définition 22.74. Un graphe est séparable si et seulement s’il contient un sommet séparateur,
sinon il est non séparable.

Définition 22.75. Un bloc d’un graphe est un sous-graphe non séparable maximal.

22.5.4 Excentricité d’un sommet, diamètre, rayon et centre d’un


graphe
Définition 22.76. Soit v un sommet d’un graphe G. L’excentricité de v est définie par :
− ex(v) = max {d(u, v): u ∈ V }.

Définition 22.77. Le rayon et le diamètre d’un graphe G = (V, E) sont définis par :
− ray(G) = min {ex(v); v ∈ V },
− diam(G) = max { ex(v); v ∈ V }.
256 Théorie des Graphes

Définition 22.78. Un centre d'un graphe est un sommet dont l’excentricité est égale au
rayon du graphe.

22.5.5 Forêts, Arbres


Définition 22.79. Une forêt est un graphe sans circuit.

Figure 22.7.

Définition 22.80. Un arbre est un graphe connexe sans circuit.


Définition 22.81. On appelle hauteur d’un arbre le maximum des longueurs des chemins issus
de la racine.

Définition 22.82. Un arbre binaire est un arbre où tout nœud admet soit 0 ou 2 fils.
Théorème 22.83. Les conditions suivantes sont équivalentes :
1. G est un arbre;
2. G est connexe et toute arête de G est arête séparatrice;
3. pour toute paire de sommets de G, il existe une et une seule chaîne qui les relie.

La figure 2.6 montre la suppression d’une arête séparatrice d’un arbre.


Figure 2.6: La suppression d’une arête séparatrice d’un arbre

Proposition 22.84. Pour tout arbre G, e(G) = v(G) − 1.

Figure 2.7: Un arbre couvrant d’un graphe

Définition 22.85. Un arbre couvrant d’un graphe G est un arbre qui est un sous-graphe cou-
vrant de G.

Exemple 22.86. Un arbre couvrant dans un graphe est indiqué dans la figure 2.7.

Définition 22.87. Soient G un graphe et H un sous graphe de G.


Soit P une propriété des graphes ( être connexe, contenir un circuit,  ).
− On dit que H est minimal pour P si et seulement si
i. H satisfait P,
ii. et aucunsous-graphe propre de H ne satisfait P.
− On dit que H est maximal pour P si et seulement si
i. H satisfait P
ii. et aucun sur-graphe propre de H ne satisfait P.
22.5 Connexité et forte connexité 257

Définition 22.88. On appelle sous-graphe propre, (à définir !).


Théorème 22.89. Soit G un graphe connexe. Les conditions suivantes sont équivalentes :
1. T est un arbre couvrant de G;
2. T est un sous graphe couvrant connexe de G, et minimal pour cette propriété;
3. T est un sous graphe couvrant de G sans circuit, et maximal pour cette propriété.

La figure 2.8 montre le circuit obtenu en ajoutant une arête de G à un arbre couvrant T .

Définition 22.90. On appelle circuit fondamental d’un graphe G par rapport à un arbre
couvrant T, tout circuit obtenu par rajout d’une arête à T..

Arbre couvrant Circuit fondamental


Figure 2.8. L’addition d’une arête à un arbre couvrant

Corollaire 22.91. Les conditions suivantes sont équivalentes :


1. G est connexe;
2. G contient un arbre couvrant.
22.5 Connexité et forte connexité 259
Chapitre 23
Hypergraphes, Systèmes d’indépendants
et matroïdes
23.1 Hypergraphe
Définition 23.1. Soient E un ensemble et F une famille de parties de E. On appelle système
d'ensemble ou hypergraphe le couple (E , F ).
Définition 23.2. On appelle système d'indépendant ou graphe héréditaire tout hyper-
graphe (E , F ) vérifiant les propriétés suivantes :
• ∅ ∈ F, (F contient l’ensemble vide)
• A ∈ F , (B ⊆ A ⇒ B ∈ F), (axiome d’hérédité).
Dans ce cas les éléments de F sont appelés indépendants de (E , F ).
Définition 23.3. (Définition à préciser) On appelle base d'un système d'indépendant (E ,
F ), (l’ensemble des ?) les indépendants maximaux de (E , F ) pour l’inclusion.

Définition 23.4. Soit (E , F ) un hypergraphe.


On appelle fonction de poids ou fonction de coût sur l’ensemble E, toute application c:
E → R+ ou son prolongement c: F → P R+ .
A 
x∈A c(x)

Définition 23.5. On appelle hypergraphe pondéré tout hypergraphe (E , F ) muni d’une fonc-
tion de coût c. On le note (E , F , c)

Définition 23.6. Soient (E , F , c) un hypergraphe pondéré et A ∈ F.


On dit que A est une partie optimale par rapport à c si et seulement si :
c(A) = max {c(F ), F ∈ F }.

23.2 Matroïde
Nous définissons ici un type particulier de système d’indépendance appelé matroïde. Les
matroïdes ont été introduits et étudiés pas H. Whitney dans les années 1930. Ils possèdent
maintes belles propriétés et sont d’une improtance capitale dans la combinatoire pure et appli-
quée, ainsi que dans des domaines tels que la géométrie, la statique et l’électrotechnique.

23.2.1 Définition
Définition 23.7. On appelle matroïde tout système d’indépendance (E , F ) qui satisfait la pro-
priété suivante :
∀A, B ∈ F , (card(A) < card(B) ⇒ ∃x ′ ∈ B \A; A ∪ {x ′} ∈ F) (axiome d’existence d’un transfert
stable).

23.2.2 Propriété
Lemme 23.8. Soit M = (E , F ) un matroïde alors M satisfait la propriété suivante :
(M ′): ∀A, B ∈ F , (card(A) < card(B) ⇒ ∃C ∈ F; A ⊆ C ⊆ A ∪ B; card(C) = card(B))

260
23.2 Matroïde 261

Toutes les bases d’un matroïde ont le même cardinal

Proposition 23.9. Soit M = (E , F ) un matroïde dont B est l’ensemble des bases. Alors M
satisfait les deux propriétés suivantes :
1. Soit B , B ′ deux bases, tout élément x de B \B ′ peut être remplacé par un élément x ′
de B ′\B tel que (B \{x}) ∪ {x ′} reste une base :
B , B ′ ∈ B, ∀x ∈ B \B ′ ⇒ ∃x ′ ∈ B ′\B , (B \{x}) ∪ {x ′} ∈ B.
2. Soit B, B ′ deux bases, tout élément x de B \B ′ peut remplacer un élément x ′ de B ′\B
tel que (B ′\{x ′}) ∪ {x} reste une base :
B , B ′ ∈ B, ∀x ∈ B \B ′ ⇒ ∃x ′ ∈ B ′\B , (B ′\{x ′}) ∪ {x} ∈ B.

Proposition 23.10. Soient (E , B) un clutter ? non nul, satisfaisant la propriété (1) du théo-
rème 31.9, et M = (E , F ) le système d’indépendance pour lequel B est la famille des bases. Alors
M est un matroïde.

23.2.3 Exemples
• Matroïdes graphiques

Théorème 23.11. (A revoir) Soit G un graphe connexe. On considère le système


d’indépendance M (G) = (E , F ), où E = E(G) (ensemble des arètes) et F est la famille
des ensembles des arêtes des forêts de G (donc ,B est la famille des ensembles des arêtes
des arbres couvrants de G, un clutter) .
M(G) est un matroïde.

• Ordonnancement des tâches


Soit E un ensemble de n tâches à exécuter sur un processeur unique, une tâche à la
fois. Chaque tâche demande une unité de temps pour s’exécuter. A chaque tâche est
associée une date limite de terminaison d(x).

Exemple 23.12.
Date d’exécution f (x) 1 2 3 4 5 6 7
x x1 x2 x3 x4 x5 x6 x7
Date souhaitée d 1 2 3 4 4 4 6

Définition 23.13. On dira qu’un ensemble de tâches X ⊆ E est réalisable s’il existe un
ordonnancement de E pour lequel les tâches de X sont exécutées toutes avant leurs dates
limites.

Posons Ei = {x ∈ E; d(x) 6 i}.

Lemme 23.14. X est réalisable si et seulement si card(X ∩ Ei) 6 i, 0 6 i 6 n.

Théorème 23.15. Soient E un ensemble de tâches et F la famille de parties réalisables


de E.
(E , F ) est un matroïde.
23.2 Matroïde 263
Chapitre 24
Théorie des langages formels

24.1 Définitions
Définition 24.1. Un alphabet est un ensemble Σ.
Définition 24.2. Un mot sur Σ est une suite finie d’éléments de Σ; sa longueur est la lon-
gueur de la suite. L’ensemble des mots sur Σ (y compris le mot ε de longueur nulle) est noté
Σ ∗.

Définition 24.3. Un langage sur Σ est une partie L de Σ∗.

264
24.1 Définitions 265
Chapitre 25
Informatique

25.1 Survol du Cours

25.1.1 Sujet, Livres, Site Internet


Sujet : Aspects algorithmiques de l’informatique.
Livres : Thomas Cormen, Charles Leiserson and Ronald Rivest, Introduction to Algorithms,
MIT Press, Cambridge Mass.,1990.
Edition française: Thomas Cormen, Charles Leiserson et Ronald Rivest, Introduction à
l’Algorithmiqne, Dunod Paris,1994.
Site Internet: al.ei.tuat.ac.jp/~sekisita/ (animations des algorithmes).

25.1.2 Algorithmes et Heuristiques : Philosophie et Terminologie


Un algorithme est une procédure de calcul bien définie pour résoudre un problème. Une instance
du problème est un cas particulier du problème, représenté par des données que l’algorithme
accepte comme entrée. La sortie de l’algorithme est constituée de la valeur ou des valeurs calcu-
lées par l’algorithme comme solution de cette instance du problème. L’algorithme est correct si
pour toute instance du problème, la sortie de l’algorithme résoud en effet le problème. Evidem-
ment, la fiabilité d’un algorithme dépend de cette propriété. Il est donc impératif de toujours
s’efforcer de démontrer l’exactitude des algorithmes. Parfois, aucun algorithme convenable ne se
présente pour résoudre un certain problème. Dans ce cas-là, on se contente d’une heuristique,
une procédure de calcul bien définie qui n’aboutit pas forcément à une solution exacte du pro-
blème, mais dont la sortie a des chances d’être une bonne approximation de la solution exacte.
Ici aussi, l’analyse mathématique de l’heuristique est fort souhaitable, afin de mieux interpréter
ses résultats. Une heuristique dont la sortie est proche de la solution exacte, pour n’importe
quelle entrée, est appelée un algorithme approché. Une démarche alternative est de considérer
des algorithmes probabilistes, des procédures de calcul dont les choix à certaines étapes dépen-
dent de mécanismes aléatoires. Le but est que la sortie soit presque toujours proche de la solu-
tion exacte, c’est-à-dire, avec une probabilité très élevée. Un aspect essentiel de l’algorithmique
est l’étude de la performance des algorithmes, c’est-à-dire leurs temps d’exécution. Ce temps est
calculé en fonction de la taille de l’entrée. Si le temps d’exécution est très élevé, l’algorithme
peut s’avérer impraticable, donc inutile. Une approche heuristique serait alors le seul moyen
d’aborder le problème. Dans ce cours, on traitera généralement d’algorithmes efficaces, dont le
temps d’exécution est borné par une fonction polynômiale en la taille de l’entrée. Plusieurs algo-
rithmes pour trier des suites de nombres réels seront étudiés, ainsi que des algorithmes de par-
cours des graphes, pour en déterminer diverses propriétés structurelles. On traitera également
l’heuristique gloutonne et ses liens avec les matroïdes (une abstraction des espaces vectoriels). Il
existe néanmoins une classe importante de problèmes de base pour lesquels on ne connait aucun
algorithme efficace. On étudiera cette classe de problèmes, dits NP-complets, à la fin du cours.

25.2 Pseudocode
Afin de décrire précisément un algorithme, nous adoptons un format appelé pseudocode, sem-
blable aux codes employés par de nombreux languages de programmation, tels PASCAL, FOR-
TRAN et MAPLE. En particulier, il y a des instructions échanger, des boucles pour, tant que et
répéter/jusqu’à, et des séquences si/alors/sinon. La structure des blocs de l’algorithme est indi-
quée par des indentations plutôt que par des instructions début/fin. Une suite s’appelle un
tableau, et les notations ci-dessous sont employées.

266
25.2 Pseudocode 267

Notations pseudocode.

Tableaux
A tableau
longueur(A) nombre d’éléments du tableau A
A[i] élément du tableau A en position i
A[p..q] tableau de longueur q - p + 1 dont les éléments sont A[p], . . . , A[q]
Attributions.
Les symboles flèche ← et ↔ H ont des interprétations variées, selon le contexte. Par exemple:
i← j attribuer la valeur j à i, poser i égal à j
pour i ← 1 à n attribuer successivement les valeurs 1, 2,  , n à i
i↔j j échanger i
Commentaires sont précédés par le symbole #.

25.2.1 Analyse d’Algorithmes


ll y a deux aspects principaux de l’analyse d’algorithmes :
Exactitude. On entend par celle-ci:
− l’efficacité de l’algorithme comme procédure,
− la justesse du code de programmation de l’algorithme.
Evidemment les deux aspects sont primordiaux. On se penchera uniquement sur le premier. La
vérification du code est un travail assez difficile et élaboré en général.
Efficacité. On entend par celle-ci le temps d’exécution pris par l’algorithme, mesuré par le
nombre de calculs élémentaires effectués. Le temps d’exécution est une fonction de la taille de
l’entrée. Il dépend du modèle de machine utilisé :
1. Modèle de machine d’accés aléatoire (RAM: Les instructions sont exécutées de façon con-
secutive, une à la fois.
2. Modèle de machine parallèle: Des instructions indépendantes peuvent être exécutées
simultanément. Ce modèle nécessite des algorithmes et des ordinateurs sur mesure.
On traitera le sujet du temps d’exécution seulement dans le modèle RAM. Plusieurs mesures du
temps d’exécution sont envisageables :
Meilleur des cas. Il s’agit du plus petit temps d’exécution possible, parmi toutes les
entrées d’une taille donnée. L’intérêt de cette mesure est minime. Elle n’est que rarement repré-
sentative de l’efficacité d’un algorithme.
Pire des cas. En tant que borne supérieure du temps d’exécution, valable pour toute entrée
d’une taille donnée, ce paramètre est clairement intéressant.
Cas moyen. On entend par ceci le temps d’exécution espéré, en supposant toutes les entrées
équiprobables. Bien que cette dernière supposition n’est que rarement satisfaite dans la pra-
tique, on peut souvent l’imposer en perturbant de manière aléatoire l’entrée , comme on le verra
plus tard dans l’étude de Tri Rapide. Le temps d’exécution moyen est donc une mesure d’effica-
cité informative.
Pour comparer l’efficacité des algorithmes, on regarde d’habitude le comportement asympto-
tique de leurs temps d’exécution. Ce point de vue est plutôt théorique, et ne correspond pas
toujours à la réalité pratique.
Efficacité d’un algorithme : Durée d’exécution de cet algorithme en fonction de la taille du
problème. On considère comme efficace [resp. inefficace] un algorithme dont le temps d’exécu-
tion croit polynomialement [resp. exponentiellement] avec la taille du problème. On parle alors
d’algorithme de type polynomial [resp. exponentiel]. Cette notion est utilisée pour donner une
classification des problèmes.
Le prochain paragraphe présente les notations requises.
268 Informatique

25.2.2 Rappel : Taux de Croissance des Fonctions


Prérequis : voir chapitre comparaison et évaluation locale

Remarque 25.1. Ces notations asymptotiques ne font pas la distinction entre des constantes
multiplicatives positives, qu’elles soient grandes ou petites. Or, si la taille d’entrée, n n’est pas
très élévée, ces constantes cachées peuvent se révéler cruciales dans la pratique.

Exemple 25.2.
1. Quoique 1010 lg n = o(n), pour n < 235 on a 1010 lg n > n .
2. Un problème de programmation linéaire consiste à maximiser (ou minimiser) une fonction
linéaire de plusieurs variables positives satisfaisant une collection d’inéquations linéaires.
Formellement:
maximiser : cx avec : Ax 6 b et x > 0
où x est le vecteur des variables, b et c sont des vecteurs à valeurs réelles, et A est une
matrice à valeurs réelles. Deux algorithmes pour résoudre des programmes linéaires, tota-
lement différents l’un de l’autre, sont la méthode du simplexe, développée par G. Dantzig
il y a une cinquantaine d’années, et la plus récente méthode de l’ellipsoïde de H. Kha-
chian. La méthode du simplexe a un temps d’exécution qui est exponentiel dans le pire
des cas. Or, dans la pratique, elle s’avère très rapide, avec un temps d’exécution moyen
qui est linéaire. La méthode de l’ellipsoïde, en revanche, a un temps d’exécution qui est
polynomial dans le pire des cas, mais elle s’avère bien moins efficace que la méthode du
simplexe sur des problèmes réels.

25.3 Algorithmes de Tri

25.3.1 Enoncé du Problème de Tri


Problème de Tri. Etant donné un ensemble fini S = {zl , z2,  , zn } et une pondération f : S → R,
ranger les membres de S par ordre croissant de poids. Autrement dit, étant donnée une suite
(a1, a2, ..., an) de nombres réels (où ai = f (xi)), les trier par ordre croissant.

Remarque 25.3. Trier (a1, a2, ..., an) par ordre décroissant équivaut à trier ( − a1, − a2, ..., −
an) par ordre croissant; les deux problèmes sont donc équivalents.

On étudiera plusieurs algorithmes de tri, ayant chacun ses atouts et ses inconvénients. L’opé-
ration de base utilisée sera la comparaison de deux nombres. Pour la clarté de l’exposition, on
supposera que les nombres à trier sont distincts. D’ailleurs, dans nos exemples, ces nombres
seront tout simplement les entiers 1, 2,  , n dans un certain ordre.

25.3.2 Tri par Insertion


Cet algorithme est peut-être le plus simple et le plus naturel des algorithmes de tri : les nombres
sont insérés un par un à la bonne position. Considérer des patients qui entrent dans la salle
d’attente d’un médecin un par un, pas forcément dans l’ordre de l’heure de rendez-vous. Quand
un nouveau patient arrive, il vérifie les heures de rendez-vous des personnes déja assises, com-
mençant avec celle de la fin de la rangée, jusqu’à ce qu’il trouve sa propre place. Ensuite, il
demande à celles ayant des rendez-vous plus tard que lui de se déplacer vers l’arrière d’une
place, et il s’asseoit à la place ainsi libérée.

L’algorithme TRI INSERTION fait des appels récursifs à lui-même et à une sous-routine
INSERER, qui accepte comme entrée un tableau trié, et insère un seul nouvel élément à la
bonne place.
25.3 Algorithmes de Tri 269

INSERER(A, p, q)
01 # Insérer nouvel élément A[q + 1] dans tableau trié A[p q]
02 i ← q + 1
03 tant que i > p et A[i] < A[i − 1] faire
04 A[i] ↔ A[i − 1]
05 i←i −1

TRI INSERTION(A, p, q)
01 # Trier le tableau A[p q]
02 si q > p
03 alors
04 TRI INSERTION(A, p, q − 1)
05 INSERER(A, p, q − 1)

25.3.3 Tri par Division-Fusion


Cet algorithme de tri emploie une technique appelée Diviser pour Régner . Le problème est
divisé récursivement en sous-problèmes. Dès que les sous-problèmes sont suffisament petits, ils
sont résolus, puis fusionnés pour produire la solution au problème original. Ce processus peut
être représenté par un couple d’arbres binaires (voir la figure 1.1) :

FUSIONNER(A, p, q, r)
01 # Fusionner sous tableaux triés A[p q], A[q + 1 r]
02 i ← p
03 # A[i] est le plus petit élément de son sous tableau.
04 j ← q + 1
05 # A[j] est le plus petit élément de son sous tableau.
06 k ← p
07 tant que i 6 q et j 6 r faire
08 si A[i]C < A[j]
09 alors
10 B[k] ← A[i]
11 i←i+1
12 sinon B[k] ← A[j]
13 j←j +1
14 k ← k + 1
15 si j = r + 1
16 alors
17 pour s ← 0 à r − k faire
18 A[r − s] ← A[q − s]
19 pour s ← p à k − 1 faire
20 A[s] ← B [s]

Exemple 25.4. A[1..4] = 2458, A[5..8] = 1367. Le plus petit élément de chacun des deux
tableaux est indiqué en gras.
A1 A[2] A[3] A[4] A[5] A[6] A[7] A[8] B[1] B[2] B[3] B[4] B[5] B[6] B[7]
5 2 4 8 1 6 3 7
5 2 4 8 1 6 3 7
4 8 2 5 1 6 3 7

TRI FUSION(A, p, r)
01 # Trier tableau A[p r]
02 si p < r
03 alors
270 Informatique

j k
q+r
04 q← 2
(diviser)
05 TRI FUSION(A, p, q) (régner)
06 TRI FUSION(A, q + 1, r) (régner)
07 FUSIONNER(A, p, q, r)

Cet algorithme a un inconvénient. Les éléments du tableau A ne sont pas triés sur place,
mais sont placés dans un nouveau tableau B. On peut contourner ce problème en utilisant la
sous-routine suivante au lieu de la sous-routine FUSIONNER.

FUSIONNER SUR PLACE(A, p, q, r)


01 # Fusionner sous tableaux triés A[p q], A[q + 1 r] sur place
02 i ← p
03 # A[i] est le plus petit élément de son sous tableau.
04 j ← q + 1
05 # A[j] est le plus petit élément de son sous tableau.
06 si p 6 q < r
07 alors
08 si A[i] < A[j]
09 alors
10 FUSIONNER SUR PLACE(A, p + 1, q, r)
11 sinon
12 pour k ← j à i + 1 faire
13 A[k] ↔ A[k − 1]
14 FUSIONNER SUR PLACE(A, p + 1, q + 1, r)

Exemple 25.5. A[1 4] = 2458, A[5 8] = 1367. Les plus petits éléments des deux tableaux, A[i]
et A[j], sont indiqués en gras. 2 4 5 8 1 3 6 7 1 2 4 5 8 3 6 7 1 2 4 5 8 3 6 7 1 2 3 4 5 8 6 7 1 2 3
45867123458671234568712345678

En revanche, cette sous routine a aussi un inconvénient, dont on se rendra compte lorsqu’on
étudiera son temps d’exécution.

25.3.4 Tri Rapide


Il a un net avantage sur Tri Fision dans la mesure qu’il trie des tableaux sur place. Comme
dans le cas de Tri Fusion, il emploie une stratégie du type diviser pour régner , bien que les sous
problèmes dans lesquels le problème se divise ne sont pas normalement de tailles égales. Le
coeur de l’algorithme est la sous routine de division, PARTITIONNER(A, p, r).

PARTITIONNER(A, p, r)
01 # Permuter le tableau A[p r] sur place, et retourner un entier q tel que A[p] remplace A[q]
02 # et A[i] 6 A[q] < A[j], p 6 i < q < j 6 r.
03 i ← p + 1
04 # Tout élément à gauche du curseur i est inférieur où égal à A[p]
05 j ← r
06 # Tout élément à droite du curseur j est supérieur à A[p]
07 répéter
08 tant que A[j] > A[p] et j > i faire
09 j← j −1
10 tant que A[i] 6 A[p] et i < j faire
11 i←i+1
12 si j 6 i
13 alors
14 A[p] ↔ A[j]
15 q←j
25.3 Algorithmes de Tri 271

16 retourner q
17 sinon A[i] ↔ A[j]
18 i← i+1
19 j← j −1

Exemple 25.6. Les positions des curseurs i et j sont indiquées en gras.


12345678 - 12345678 - 12345678 87654321– 87654321 87654321- 17654328 - 1765432 8
62473185 - 62473185 62473185 -62453187 62453187 62453187 12453 6 87

Le premier élément du tableau d’entrée, A[p], s’appelle le pivot. Les longueurs des tableaux
de sortie A[p q − 1] et A[q + 1 r] dépendent uniquement de la taille du pivot par rapport aux
autres éléments. Si le pivot est l’élément médian du tableau d’entrée, par exemple, les deux
tableaux de sortie auront une même longueur. En revanche, si le pivot est le plus petit ou le
plus grand élément du tableau d’entrée, l’un des deux tableaux de sortie sera de longueur nulle.
La façon dans laquelle PARTITIONNER divise le tableau peut donc varier énormément. Afin de
vérifier le bon fonctionnement de PARTITIONNER, il convient de focaliser sur l’ensemble S des
éléments du tableau qui ne sont pas plus grands que le pivot A[p], et son complémentaire L,
l’emsemble constitué des éléments du tableau qui sont plus grands que A[p] :
S = {A[i]; A[i] 6 A[p]},
L = {A[i]; A[i] > A[p]}.
A tout moment, les éléments strictement à gauche du curseur i appartiennent à S et les élé-
ments strictement à droite du curseur j appartiennent à L. Jusqu’à la fin de l’avant dernière ité-
ration de la boucle, la situation est comme indiquée dans le dernier dessin de la figure 1.2, où les
curseurs i et j se situent éventuellement à la même position.

Positions initiales des curseurs


Le curseur j se déplace vers la gauche
Le curseur i se déplace vers la droite
A[i] et A[j] échangés
Les curseurs i et j se déplacent chacun d’un cran
Figure 1.2: PARTITIONNER : la situation générale intermédiaire

Les déplacements possibles à la dernière itération sont indiqués dans la figure 1.3. La situa-
tion finale, aprés le dernier échange (ligne 9), est montrée dans la figure 1.4. L’algorithme TRI
RAPIDE fait des appels récursifs à lui-même et à la sous routine PARTITIONNER.

Situation à la fin de l’avant dernière itération


Le curseur j se déplace à la même position du curseur i
Le curseur j se déplace juste à gauche du curseur i
Le curseur i se déplace à la même position du curseur j
Figure 1.3: PARTITIONNER:l’itération finale

TRI RAPIDE(A, p, r)
01 # Trier le tableau A[p r]
02 si p < r
03 alors
04 q = PARTITIONNER(A, p, r)
05 TRI RAPIDE(A, p, q − 1)
06 TRI RAPIDE(A, q + 1, r)

25.3.5 Analyse du Tri par Insertion


Meilleur des cas Θ(n)
Pire des cas Θ(n2)
Cas moyen ?
272 Informatique

25.3.6 Analyse du Tri par Fusion


Meilleur des cas
Pire des cas O(n lg n)
Cas moyen

25.3.7 Analyse du Tri Rapide


Meilleur des cas
Pire des cas Θ(n2)
Cas moyen Θ(n lg n)
Tri Rapide est un algorithme de tri dont le temps d’exécution au pire des cas est de Θ(n2),
comparable à celui de Tri Insertion, mais dont le temps d’exécution espéré est de Θ(n lg n), com-
parable à celui de Tri Fusion.

25.4 Heuristique GLOUTON

25.4.1 Définition
Dans ce chapitre, on traitera une heuristique très simple et assez générale appelée l’heuristique
gloutonne. On verra que pour une certaine classe de problèmes cette heuristique rend toujours
la solution exacte. Dans un tels cas, l’heuristique est appelée algorithme glouton.

GLOUTON(E , F , c)
01 # Déterminer une base optimale B d’un système d’indépendance pondéré (E , F ) avec
02 # une fonction de coût c.
03 Trier les éléments de E par ordre décroissant de coût : c(x1) >  c(xn)
04 F ← ∅
05 pour i ← 1 à n faire
06 si F ∪ {xi } ∈ F
07 alors
08 F ← F ∪ {xi }
09 B ← F
10 retourner B

25.4.2 Heuristique GLOUTON appliquée aux Matroïdes


25.4.2.1 Propriétés

Proposition 25.7. Soient M = (E , F ) un matroïde pondéré avec une fonction de coût c et B la


sortie retournée par GLOUTON(E , F , c). Alors B est une base optimale de M.

Proposition 25.8. Soit (E , F ) un système d’indépendance. Supposons que, pour toute fonction
de coût c: E → R+ , l’heuristique GLOUTON(E , F , c) retourne une base optimale. Alors (E , F )
est un matroïde.

25.4.2.2 Exemples :
• Recherche d’un arbre couvrant de coût minimum
Problème : Soit G = (V , E) un graphe connexe avec une fonction de coût c: E → R.
Déterminer un arbre couvrant de G de coût minimum.

Théorème 25.9. (Rappel) Soit G un graphe connexe. On considère le système d’indé-


pendance M (G) = (E , F ), où E = E(G) et F est la famille des ensembles des arêtes des
forêts de G (donc ,B est la famille des ensembles des arêtes des arbres couvrants de G, un
clutter) .
25.4 Heuristique GLOUTON 273

M(G) est un matroïde.

Grâce au théorème précédant et aux résultats de la section 4, l’heuristique


GLOUTON est parfaitement adaptée à ce problème. On a donc l’algorithme suivant,
inventé par J.B. Kruskal.

KRUSKAL(G,c)
01 # Déterminer un arbre couvrant de G = (V , E) de coût minimum.
02 Trier E sous forme de tableau E[1 m] par ordre croissant des coûts.
03 F ← ∅
04 # F est l’ensemble des arêtes de la forêt déjà construite.
05 pour tout v ∈ V faire
06 r(v ) ← v
07 # r(v) est la racine de la composante de F contenant v.
08 pour i ← 1 à m faire
09 si E[i] = xy et r(x)  r(y)
10 alors
11 F ← F ∪ {E [i]}
12 pour tout v ∈ V \{y } faire
13 si r(v) = r(y)
14 alors
15 r(v) ← r(x)
16 r(y) ← r(x)
17 retourner F

La figure 2.9 montre un tri par ordre croissant des arêtes d’un graphe, et la figure 2.10
indique l’arbre optimal retourné par KRUSKAL.

Figure 2.9: Un tri des arêtes par ordre croissant des poids

Figure 2.10: Un arbre optimal


• Ordonnancement des tâches
Problème : Soit E un ensemble de n tâches à exécuter sur un processeur unique, une
274 Informatique

tâche à la fois. Chaque tâche demande une unité de temps pour s’exécuter. A chaqce
tâche est associée une date limite de terminaison d(x) ainsi qu’une pénalité c(x) à
imposer au cas ou cette date limite ne soit pas respectée.
Déterminer un ordonnancement f : E → {1, 2,  , n} de tâches qui minimise
P
{c(x):
f (x) > d(x)}, la somme des pénalités imposées.

Date d’exécution f (x) 1 2 3 4 5 6 7


x x1 x2 x3 x4 x5 x6 x7
Date souhaitée d 1 2 3 4 4 4 6
Pénalité c 3 6 4 5 7 2 1 Total : 10
Si les tâches étaient exécutées dans cet ordre, la pénalité totale serait 7 + 2 + 1=10.
Date d’exécution f (x) 6 7 1 2 3 4 5
x x1 x2 x3 x4 x5 x6 x7
Date souhaitée d 1 2 3 4 4 4 6
Pénalité c 3 6 4 5 7 2 1 Total : 9
Si elles étaient exécutuées dans l’ordre 3, 4, 5, 6 7 1 2 la pénalité totale serait 3 + 6
= 9.
Définition 25.10. (Rappel) On dira qu’un ensemble de tâches X ⊆ E est réalisable s’il
existe un ordonnancement de E pour lequel les tâches de X sont exécutées toutes avant
leurs dates limites.
Théorème 25.11. (Rappel) Soient E un ensemble de tâches et F la famille de parties
réalisable de E.
(E , F ) est un matroïde.
On conclut que pour résoudre le problème d’ordonnancement, il suffit de trier les
tâches par ordre décroissant de leurs pénalités, puis appliquer GLOUTON.

x x1 x2 x3 x4 x5 x6 x7
Date souhaitée d 1 2 3 4 4 4 6
Pénalité c 3 6 4 5 7 2 1

x x5 x2 x4 x3 x1 x6 x7
Date souhaitée d 4 2 4 3 1 4 6
Pénalité c 7 6 5 4 3 2 1

Date d’exécution f (x) 1 2 3 4 5 6 7
x x3 x2 x4 x5 x7 x1 x6
Date souhaitée d 3 2 4 4 4 1 6
Pénalité c 4 6 5 7 1 3 2 Total : 5

25.5 Algorithmes de parcours dans les graphes


25.5.1 Arbres de parcours
Soit G = (V , E) un graphe. On peut construire un arbre dans G comme suit. On commence par
un arbre constitué d’un seul sommet r. A chaque étape, on construit l’arbre par extension, c’est-
à dire, en ajoutant un nouveau sommet et une nouvelle arête qui relie ce sommet à un sommet
de l’arbre déjà construit. Le sous graphe ainsi obtenu est connexe et sans circuit, donc un arbre.
Un tel arbre T s’appelle un arbre de parcours de G, et le sommet r la racine de T . Le sommet x
est le prédécesseur de y dans T, noté x = p[ y] (voir la figure 3.1). Il est clair que T est complète-
ment déterminé par sa fonction prédécesseur .
25.5 Algorithmes de parcours dans les graphes 275

Figure 3.1: Construction d’un arbre de parcours de racine r

Un pseudocode pour cet algorithme est comme suit:

PARCOURS(G, r).
01 # Construire un arbre couvrant p de racine r dans la composante connexe de G contenant r.
02 # Les sommets incorporés dans l’arbre sont marqués en rouge, les autres en blancs
03 Pour tout v ∈ V \{r}
04 faire couleur[v] ← blanc
05 couleur[r] ← rouge
06 # p est la fonction prédécesseur de l’arbre.
07 # La racine n’a pas de prédécesseur
08 p[r] ← 0
09 tant que vrai
10 si il existe une arête e = xy avec couleur[x] = rouge et couleur[y] = blanc
11 alors
12 couleur[y] ← rouge
13 p[y] ← x
14 sinon
15 retourner p.

Remarquons que cet algorithme s’arrête quand il ne reste aucune arête reliant un sommet
rouge à un sommet blanc. Si tout sommet est rouge, p est un arbre couvrant de G, qui est par
conséquent un graphe connexe. Sinon, le graphe G ne peut contenir aucune chaîne entre un
sommet rouge et un sommet blanc; par définition, il est donc non connexe. On vient de démon-
trer le théorème suivant:

Théorème 25.12. Les conditions suivantes sont équivalentes :


1. G = (V , E) est connexe;
2. pour toute partition (R, B) de V avec ∅ ⊂ R ⊂ V, il existe une arête de G dont une extré-
mité appartient à R et une extrémité appartient à B.

Remarque 25.13. L’algorithme PARCOURS peut être affiné de plusieurs façons en imposant
des contraintes supplémentaires sur le choix de l’arête : ( ligne 6 )
− PARCOURS EN LARGEUR: le sommet x est le plus ancien sommet rouge pour lequel il
existe une arête y avec un sommet blanc;
− PARCOURS EN PROFONDEUR: le sommet est le plus récent sommet rouge pour lequel
il existe une aréte xy avec y un sommet blanc;
− Algorithme de PRIM (dans le cas d’un graphe pondéré): l’arête y est une arête de coût
minimum reliant un sommet rouge à un sommet blanc.
On verra par la suite que les arbres de parcours qui en résultent possèdent des propriétés parti-
culières qui permettent de résoudre plusieurs questions fondamentales sur la structure des gra-
phes.

25.5.2 Parcours en largeur


25.5.2.1 Algorithme PARCOURS EN LARGEUR
Pour améliorer l’efficacité de l’algorithme décrit ci-dessous, on se servira d’une structure de don-
nées appelée file, un ensemble totalement ordonné i muni de deux opérations:
- ENFILER(Q, y): ajouter l’élément y comme dernier élément de Q;
- DEFILER(Q): supprimer le premier élément x de Q et retourner comme sortie.
Ces opérations sont illustrées dans la figure 3.2.
276 Informatique

PARCOURS EN LARGEUR(G, r)
01 # Construire un arbre de parcours en largeur p de racine r dans un graphe connexe G.
02 # Les sommets incorporés dans l’arbre sont marqués en rouge, les autres en blancs.
03 pour tout v ∈ V \{r} faire
04 couleur[v] ← blanc
05 couleur[r] ← rouge
06 # p est la fonction prédécesseur de l’arbre.
07 # La racine n’a pas de prédécesseur
08 p[r] ← ∅
09 # n[v] est le niveau du sommet v dans l’arbre, la distance de r à v dans l’arbre.
10 # La racine est au niveau 0
11 n[r] ← 0
12 # t est le temps, augmenté par une unité pour chaque sommet a jouté à l’arbre.
13 t ← 0
14 t[r] ← t
15 Q ← {r}
16 tant que Q  ∅ faire
17 x ← DEFILER(Q)
18 #L[x] est la liste des voisins du sommet
19 pour tout y ∈ L[x] faire
20 si couleur[y] = blanc
21 alors
22 couleur[y] ← rouge
23 p[y] ← x
24 n[y] ← n[x] + 1
25 t←t+ 1
26 t[y] ← t
27 ENFILER(Q, y)
28 retourner (p, n, t).

Un arbre de parcours en largeur de racine r dans un graphe, avec le temps de l’addition de


chaque sommet ainsi que son niveau, est indiqué dans la figure 3.3. Notons r le nombre de som-
mets et m le nombre d’arêtes de G. Le temps d’exécution de PARCOURS EN LARGEUR est
alors O (m) : l’initialisation (lignes 1-8) et les opérations DEFILER (lignes 9-10) se font en
temps O (n), et un temps constant (lignes 11-16) est dépensé pour chaque voisin de chaque
sommet .

Temps t[v] de l’addition du sommet v Niveau n[v] du sommet v

Figure 3.3 : Un arbre de parcours en largeur de racine T

25.5.2.2 Propriétés de PARCOURS EN LARGEUR

Proposition 25.14.
1. n[x] < n[y] ⇒ t[x] < t[y].
2. xy ∈ E(G) ⇒ |n[x] − n[y]| 6 1.
3. d(r , v) = n[v] = dT (r, v), pour tout v ∈ V (où dT (r, v) désigne la distance de r à v dans T).

25.5.2.3 Applications de PARCOURS EN LARGEUR


• Excentricité d’un sommet, du diamètre, du rayon et centre d’un graphe

Définition 25.15. (Rappel) Soit v un sommet d’un graphe G. L’excentricité de v est


définie par :
− ex(v) = max {d(u, v): u ∈ V }.
25.5 Algorithmes de parcours dans les graphes 277

Ce paramètre se calcule en temps O (m) par un parcours en largeur de racine v.

Définition 25.16. (Rappel) Le rayon et le diamètre d’un graphe G = (V, E) sont définis
par :
− ray(G) = min {ex(v); v ∈ V },
− diam(G) = max { ex(v); v ∈ V }.

Ces deux paramètres se calculent donc en temps O (mn) : un parcours en largeur depuis
chaque sommet v, suivi par le calcul du maximum et du minimum d’un ensemble de n
nombres, ce qui se fait en temps O(n).

Définition 25.17. (Rappel) Un centre d'un graphe est un sommet dont l’excentricité
est égale au rayon du graphe.

Ces sommets peuvent être déterminés en temps O(mn) .


• Circuits pairs, impairs et graphes bipartis

Théorème 25.18. (Rappel) Les conditions suivantes sont équivalentes :


1. G est biparti ;
2. tout circuit de G est de longueur paire.

25.5.3 Parcours en profondeur


25.5.3.1 Algorithme PARCOURS EN PROFONDEUR
L’algorithme PARCOURS EN PROFONDEUR(G, T) est un algorithme récursif : dès qu’un
nouveau sommet est ajouté à l’arbre, un parcours en profondeur PP() de racine démarre dans le
sous graphe de G induit par les sommets non encore explorés.

PP (x)
01 # Construire un arbre de parcours en profondeur T (x) de racine x,
02 # dans le sous graphe induit par les sommets non encore explorés.
03 t ← t + 1
04 # d[x] est le temps de découverte du sommet .
05 d[x] ← t
06 # Le sommet x est ajouté à l’arbre.
07 couleur[x] ← rouge
08 pour tout y ∈ L[x] faire
09 si couleur[y] = blanc
10 alors
11 p[y] ← x
12 PP(y)
13 t ← t + 1
14 # f [x] est le temps de fin d’exploration du gaphe à partir de x.
15 f [x] ← t

PARCOURS EN PROFONDEUR(G, r)
01 # Construire un arbre de parcours en profondeur p de racine r dans un graphe G.
02 # Les sommets incorporés dans l’arbre sont marqués en rouge, les autres en blancs.
03 pour tout v ∈ V faire
04 couleur[v] ← blanc
05 p[r] ← ∅
06 t ← 0
07 PP(r)
08 retourner (p, d, f )
278 Informatique

Cet algorithme est illustré dans la figure 3.4; le couple (d[v], f [v]) est indiqué pour chaque
sommet v. Le temps d’exécution de l’algorithme PARCOURS EN PROFONDEUR(G, r) est
O (m), comme pour PARCOURS EN LARGEUR(G, r).

25.5.3.2 Propriétés de PARCOURS EN PROFONDEUR

Proposition 25.19.
1. d[x] < d[y] ⇒ soit d[x] < d[y) < f [y] < f [x] soit d[x] < f [x] < d[y] < f [ y].
2. y ∈ E(G) ⇒ x, y parents.

Remarque 25.20. Soit G un graphe orienté. Si L[x] désigne la liste des voisins extérieurs du
sommet dans G, l’algorithme PARCOURS EN PROFONDEUR(G, r) construit une arbores-
cence de racine r dans G, c’est-à-dire, un arbre orienté (pas forcément couvrant) dont tout
sommet sauf la racine a un degré intérieur de un.

25.5.3.3 Applications de PARCOURS EN PROFONDEUR


• Tri topologique d’un graphe orienté

Définition 25.21. Soit G = (V , E) un graphe orienté sans circuit orienté.


Un tri topologique de G est un ordre total  de V tel que (x, y) ∈ E(G) ⇒ x  y.

Cette notion est illustrée dans la figure 3.5.

Figure 3.5 : Tri topologique

Exercice 25.1. Soit G un graphe orienté sans circuit orienté.


a) Montrer que G a une source (un sommet de degré intérieur nul).
b) En déduire que G admet un tri topologique.
Exercice 25.2. Soit G un graphe orienté sans circuit orienté.
a) Montrer que, par rapport à une arborescence de parcours en profondeur de G, (x, y) ∈ E(G)
⇒ soit est un ancêtre de y, soit d[x] > d[y].
b) Ecrire un pseudocode ponr déterterminer un tri topologique de G en faisant une seule passe de
PARCOURS EN PROFONDEUR(G, r).

Figure 3.6: Sommets séparateurs


• Détermination des sommets séparateur d’un graphe connexe

Définition 25.22. (Rappel) Soit G un graphe connexe.


Un sommet séparateur de G est un sommet v tel que G\ v est non connexe.

Remarque 25.23. On peut répérer les sommets séparateurs de G en faisant une seule
passe de PARCOURS EN PROFONDEUR(G, r). Par rapport à l’arbre retourné par
l’algorithme :
1. La racine r est un sommet séparateur si et seulement si elle a au moins deux fils.
2. Un sommet v  r est un sommet séparateur si et seulement si il a un fils dont
aucun descendant n’est relié à aucun ancêtre strict de v.

Exercice 25.3. En utilisant la propriété (2) de PARCOURS EN PROFONDEUR, vérifier que ces
deux conditions caractérisent bien les sommets séparateurs.
Exercice 25.4. Ecrire un pseudocode pour déterminer les sommets séparateurs d’un graphe G en
faisant une seule passe de PARCOURS EN PROFONDEUR(G, r).

Définition 25.24. (Rappel) Un graphe est séparable si et seulement s’il contient un


sommet séparateur, sinon il est non séparable.
25.5 Algorithmes de parcours dans les graphes 279

Définition 25.25. (Rappel) Un bloc d’un graphe est un sous graphe non séparable
maximal.

Exercice 25.5. Montrer que deux blocs d’un graphe ont au plus un sommet commun, et qu’un tel
sommet est un sommet séparateur du graphe.
Exercice 25.6. Ecrire un pseudocode pour déterminer les ensembles des sommets des blocs d’un
graphe G en faisant une seule passe de PARCOURS EN PROFONDEUR(G, r).

25.5.4 Algorithme de Prim


Dans le cas d’un graphe connexe G avec une fonction de coût c, une heuristique gloutonne qui
généralise la procédure PARCOURS s’impose : choisir comme arête y à rajouter à l’arbre une
arête de coût minimum. Cette heuristique a été introduite par R.C. Prim, qui a montré qu’elle
retourne toujours un arbre couvrant de coût minimum. Elle est illustré dans la figure 3.7. Pour
des raisons d’efficacité, le pseudocode utilise une structure de données appelée file de priorité. Il
s’agit d’une file dont les éléments sont ordonnés par ordre croissant selon une pondération réelle,
appelée clé. Une file de priorité est munie de quatre opérations (dont deux nous seront utiles):

Le choix d’une aréte de l’arbre Arbre optimal de poids 30


Figure 3.7: Construction d’un arbre optimal par l’algorithme de Prim

− INSERER(Q, y) : insérer un nouveau élément y dans Q (à la bonne place)


− METTRE-A-JOUR(Q, y): mettre à jour Q suite à un changement de la clé de y;
− MIN(G) : retourner le premier élément x de Q (celui pour lequel la clé est minimum) ,
− EXTRAIRE-MIN(Q): supprimer le premier élément x de Q et retourner x comme sortie.

Remarque 25.26. Une file de priorité peut être mise à jour en utilisant la sous routine
ENTASSER de l’algorithme TRI PAR TAS.

PRIM(G, r, c)
01 # Construire un arbre couvrant de G = (V , E , c) de racine r et de coût minimum.
02 # Les sommets incorporés dans l’arbre sont marqués en rouge, les autres en blancs.
03 pour tout v ∈ V faire
04 couleur[v] ← blanc
05 # clé[v] est le poids minimum d’une arête reliant le sommet blanc v à un sommet rouge.
06 clé[v] ← ∞
07 p[r] ← ∅
08 clé[r] ← 0
09 # Q est une file prioritaire des sommets blancs.
10 Q ← V
11 tant que Q  0 faire
12 x ← EXTRAIRE − MIN(Q)
13 # Le sommet x est a jouté à l’arbre.
14 couleur[x] ← rouge
15 pour tout y ∈ L[x] faire
16 si couleur[y] = blanc et c(xy) < clé[y]
17 alors
18 p[y] ← x
19 clé[y] ← c(xy)
20 METTRE-A-JOUR(Q, y)
21 retourner p.

Remarque 25.27. Bien que cette heuristique ne rentre pas parfaitement dans le cadre de l’heu-
ristique GLOUTON introduite dans le chapitre 2, on peut montrer assez facilement qu’elle
retourne toujours comme sortie un arbre couvrant de coût minimum.
280 Informatique

Théorème 25.28. PRIM (G, r, c) retourne un arbre couvrant de coût minimal.

25.6 Complexité algorithmique

25.6.1 Problèmes de Décision


Exemple 25.29. Considérons deux problèmes que nous avons déjà rencontrés :
• CIRCUIT HAMILTONIEN.
Soit G = (V , E) un graphe. Existe-t-il un circuit hamiltonien dans G ?
• ARBRE COUVRANT DE COÛT MINIMUM.
Soit G = (V , E , c) un graphe connexe pondéré. Déterminer le cout minimum d’un
arbre couvrant de G.
Remarquons que le premier problème demande une réponse "oui" ou "non" , le second un
nombre réel.

Définition 25.30. Un problème qui demande une réponse oui ou non s’appelle un problème
de décision.
Remarque 25.31. Le second problème contient de façon implicite une infinitude de tels pro-
blèmes, un pour chaque r ∈ R : existe-t-il un arbre couvrant de coût inférieur ou égal à r ? Dans
ce chapitre, on verra comment classifier les problèmes de décision selon leur complexité algorith-
mique. Pour cela il conviendra d’employer le vocabulaire de la théorie des langages formels.
Pour les besoins de ce chapitre, il suffira de considérer l’alphabet {0, 1}. Un langage sera alors
une partie de {0, 1}∗.

25.6.2 Codages
Soit maintenant Q un problème de décision. Une instance I de Q est un cas spécifique du pro-
blème, par exemple un certain graphe, ou un certain graphe connexe pondéré. Un codage de
l’ensemble I des instances de Q est une injection c: I → {0, 1}∗ . L’ensemble c(I) est donc un
langage. La taille d’une instance I est la longueur de son codage c(I). Ce codage sera supposé
économe.

Exemple 25.32. Dans le cas d’un graphe, par exemple, bien qu’il y a un nombre illimité de
codages possibles, il nous suffit d’en prendre un dont la taille est bornée par une fonction poly-
nomiale du nombre n de sommets et du nombre m d’arêtes.
Un exemple d’un tel codage est la concaténation des lignes de la matrice d’adjacence, une
suite de longueur n2 (voir la figure 4.1 ) .

a b c d
a 0 1 0 1
 
0 1 0 1
 1 0 1 1
b 1 0 1 1 →  → 0101101101001100

 0 1 0 0 
c 0 1 0 0 1 1 0 0
d 1 1 0 0
Figure 4.1: Codage de graphes en mots de {0, 1}∗

Un problème de décision Q ainsi codé peut être vu comme une fonction Q: c(I) → {0, 1}, où
Q(x) = 1 si la réponse est oui et Q(x) = 0 si la réponse est non. On étend le domaine de à {0, 1}∗
en posant Q(x) = 0 si x ∈ {0, 1}∗\c(I) , et on associe à Q le langage L(Q) = {xE {0, 1}∗; Q(x) =
1}.
De même, un algorithme dans ce contexte de langages formels est une fonction A : {0, 1}∗ →
{0, 1}.
25.6 Complexité algorithmique 281

Définition 25.33. On dit que A accepte un mot si A(x) = 1 et que A rejette sinon.
Définition 25.34. On dit que l’algorithme A décide L ou que A est un algorithme de déci-
sion si et seulement si A accepte tout mot d’un langage L et rejette tout mot x ∈ f {0, 1}\ L.

25.6.3 Les classes de complexité P, NP et co-NP


25.6.3.1 La classe P
On s’intéressera par la suite aux algorithmes qui fonctionnent en temps polynomial.

Définition 25.35. Un algorithme de décision A décide un langage L en temps polyno-


mial s’il existe un polynôme p tel que, pour tout l ∈ N et tout mot dans {0, 1}∗ de longueur l :
− A accepte x en temps au plus p(l) si x ∈ L, et
− A rejette x en temps au plus p(l) si x ∈ {0, 1}∗\L.

Définition 25.36. L’ensemble des langages pour lesquels il existe des algorithmes de décision
en temps polynomial est noté P.

Par un abus de langage, on dit que le problème Q appartient P à si L(Q) ∈ P.

Exemple 25.37. On a déjà rencontré, dans le cadre des graphes, plusieurs problèmes de déci-
sion qui appartiennent à P, dont :
− Est-ce que le graphe G est connexe ?
− Est-ce que le graphe G est biparti ?

25.6.3.2 La classe NP

Définition 25.38. Un algorithme de vérication est une application V : {0, 1}∗ × {0, 1}∗ →
{0, 1}.

Définition 25.39. L’algorithme V vérie le mot x si et seulement s’il existe un mot y tel que
V (x, y) = 1. Dans ce cas, le mot y s’appelle un certicat pour x.

Définition 25.40. On dit qu’un algorithme vérie un langage L si et seulement si V vérifie


tout mot de L et ne vérifie aucun mot de {0, 1}∗\L. Dans ce cas, on dira que V est un algo-
rithme de véricateur pour L.
Définition 25.41. Un algorithme de vérification A vérie un langage L en temps polyno-
mial s’il existe un polynôme p tel que, pour tout l ∈ N et tout mot dans {0, 1}∗ de longueur l :
− A vérifie x en temps au plus p(l) si x ∈ L, et
− A ne vérifie pas x si x ∈ {0, 1}∗\L.

Définition 25.42. L’ensemble des langages pour lesquels il existe des algorithmes de vérifica-
tion en temps polynomial est noté NP.

Remarque 25.43.
− Par définition, tout langage L décidé par un algorithme A en temps polynomial est égale-
ment vérifié par ce même algorithme (avec le certificat nul) en temps polynomial, c’est-à-
si y = ε
dire, la fonction V définie par V (x, y) = 0A(x),
sinon
est un algorithme de vérification
pour L en temps polynomial. On a donc l’inclusion P ⊆ NP.
− En revanche, il existe des langages dans la classe NP pour lesquels on ne connait aucun
algorithme de décision polynomial.
282 Informatique

Exemple 25.44.
− Un exemple est le problème CIRCUIT HAMILTONIEN, pour lequel un certificat conve-
nable est la suite des sommets d’un circuit hamiltonien. Evidemment, on peut vérifier en
temps polynomial qu’il s’agit bien d’un circuit hamiltonien du graphe.
− Un autre exemple est le problème: FACTORABILITE :
Soit n un entier positif. Existe-t-il des entiers p > 1 et q > 1 tels que p × q = n ?
Dans ce cas, un certificat pourrait consister tout simplement en les facteurs p et q. Il
suffirait de multiplier p et q et vérifier que leur produit est en effet n. Cette opération
peut se faire en temps p(lg n), pour un certain polynôme (la longueur de l’instance n
étant lg n). En revanche, un entier premier n’aurait pas un tel certificat, évidemment.
Pour illustrer la différence entre la décidabilité d’un langage et sa vérification considérer l’énoncé
d’une conjecture difficile.
− Décider si l’énoncé est exact, est équivalent à démontrer la conjecture ou éventuellement
de trouver un contre-exemple.
− En revanche, muni d’une preuve de la conjecture (le certificat), vérifier son exactitude est
une tâche beaucoup plus facile.
Remarque 25.45. On ne sait pas s’il existe des langages qui appartiennent à NP mais pas à P.
En effet, la question P = NP ? est une des principales questions ouvertes en mathématiques.
Une réponse affirmative à cette question aurait des conséquences algorithmiques majeures. Pour
cette raison, une réponse négative est plus probable.
25.6.3.3 La classe co-NP
Soit un problème de décision. La négation de Q est le problème de décision Q̄ défini par Q̄ (x) =
1 − Q(x) pour tout x ∈ c(I); autrement dit, la réponse à est oui si et seulement si la réponse à
est non .
Exemple 25.46. Si Q est le problème CIRCUIT HAMILTONIEN, L(Q̄ ) est le langage défini
par l’ensemble des graphes non hamiltoniens.
Définition 25.47. On définit la classe de langages co-NP par co-NP = {L(Q̄ ); L(Q) ∈ NP}.
25.6.3.4 Remarques
− Le problème de non existence dans un graphe d’un circuit hamiltonien appartient donc à
la classe co-NP. Tandis que la vérification de l’existence d’un circuit hamiltonien est
facile, on ne connait pas de certificat vérifiable en temps polynomial pour la non existence
d’un circuit hamiltonien. Autrement dit, on ne sait pas si CIRCUIT HAMILTONIEN
appartient à co-NP. Plus généralement, la question NP = co-NP ? est ouverte. Il est fort
probable que la réponse sera négative.
− En principe, on pourrait définir de manière analogue la classe co-P : co-P = {L(Q̄ ) ;
L(Q) ∈ P } . Or un algorithme de décision en temps polynomial pour L(Q) se transforme
facilement en un tel algorithme pour L(Q̄ ). Donc NP = co-P, ce qui entraîne la relation
P ⊂ NP ∩ co-NP.
− Il est naturel de demander si cette inclusion est stricte : P ⊂ NP ∩ co-NP ? Encore une
question ouverte! Or cette fois-ci on pense que la réponse sera affirmative. Pour la plu-
part des problèmes appartenant à la fois à NP et à co-NP, on connait en effet des algo-
rithmes polynomiaux.
Exemple 25.48.
• Le problème de décider si un graphe est biparti appartient à NP : une bipartition
sert comme certificat. Ce problème appartient également à co-NP, un certificat
convenable étant un circuit de longueur impaire. Le problème appartient donc à
NP ∩ co-N . Or ce problème appartient en fait à P, puisqu’il existe un algorithme
polynomial pour décider si un graphe est biparti (par exemple, en utilisant un par-
cours en largeur).
25.6 Complexité algorithmique 283

• Une instance moins évident de ce phénomène est le problème de couplages. Un


couplage dans un graphe est un ensemble d’arêtes sans extrémité commune. Le
problème de décider si un graphe contient un couplage de cardinalité k appartient
clairement à NP, un tel couplage servant comme certificat. Grâce à un théorème
de W.T. Tutte démontré en 1947, on sait que ce problème appartient également à
co-NP. Tutte a montré qu’un graphe G = (V , E) contient un couplage de cardina-
lité k si et seulement si, pour tout S ⊆ V , le nombre cim p (G\S) de composantes de
G\S ayant un nombre impair de sommets est inférieur ou égal à card(V ) +
card(S) − 2k. Un ensemble S ⊆ V tel que cim p (G\S) > card(V ) + card(S) − 2k sert
donc comme certificat que G ne contient aucun couplage de cardinalité k. Presque
vingt ans plus tard, en 1965, J. Edmonds découvre un algorithme polynomial pour
déterminer un couplage de cardinalité maximum dans un graphe, ce qui montre
que le problème appartient à P.
• Une exception notable à cette règle est le problème de PRIMARITÉ : Soit n un
entier positif. Est-ce-que n est un nombre premier ? On a vu que ce problème
appartient à co-NP, sa négation étant le problème FACTORABILITÉ. Son appar-
tenance à NP, bien que moins évident, a été démontré par V. Pratt. Néanmoins,
on ne connait aucun test de primarité qui se fait en temps polynomial. Un tel
algorithme aurait des conséquences majeures en cryptographie (sécurité internet,
...).

25.6.4 Réductibilité, NP-complétude et la classe NPC


25.6.4.1 Réductibilité

Définition 25.49. Soient L et L’ deux langages.


1. On dit que L ′ est réductible (en temps polynomial) à L, et on le note L ′ 4 L, si et seu-
lement s’il existe une fonction r: {0, 1}∗ → {0, 1}∗ , calculable en temps polynomial, telle
que : (x ∈ L ′) ⇔ (r(x) ∈ L).
2. Une telle fonction r s’appelle une fonction de réduction de L ′ à L,
3. et un algorithme qui calcule r un algorithme de réduction.

Puisque la composition de fonctions polynomiales est une fonction polynomiale, la relation 


est réflexive et transitive (un préordre). Les langages L ′ et L sont polynomialement équivalents
si L ′  L et L  L ′.

Exemple 25.50. Les problèmes de l’existence d’un circuit hamiltonien dans un graphe et de
l’existence d’un circuit hamiltonien orienté dans un graphe orienté sont polynomialement équiva-
lents. Pour réduire le premier au dernier, il suffit de remplacer chaque arête x y par deux arêtes
(x, y) et (y, x). Pour réduire le dernier au premier, on pourrait remplacer chaque sommet par
une chaîne de longueur deux x−x x+, et remplacer chaque arête (x, y) par une arête x+x−. Ces
réductions sont illustrées dans la figure 4.2.

Si L ′  L, le langage L ′ est en quelque sorte moins complexe que L. On a, par exemple, le


résultat suivant :

Théorème 25.51. Soient L ′ et L deux langages. Si L ′  L et L ∈ P , alors L ∈ P .

Figure 4.2: Equivalence polynomiale de CIRCUIT HAMILTONIEN et CIRCUIT HAMILTO-


NIEN ORIENTE

25.6.4.2 NP-complétude

Définition 25.52. Un langage L est appelé NP-dur si et seulement si L ′  L pour tout L ∈


NP.
284 Informatique

Définition 25.53. Si d’ailleurs L ∈ NP , le langage L est NP-complet.


La classe des langages NP-complets est notée NPC.

Ces langages sont alors les langages les plus complexes de la classe N . Selon le théorème
4.2.1, si l’un entre eux appartenait à řP, tout langage dans N s’y retrouverait, et on aurait P =
NP.

25.6.5 Satisfaisabilité
25.6.5.1 Le problème SAT
Une formule booléenne est satisfaisable s’il existe une interprétation pour laquelle la formule
s’évalue à 1. Le problème de satisfaisabilité de formules booléennes, noté SAT, s’énonce comme
suit:
SAT
Soit f une formule booléenne. Est-ce que f est satisfaisable ?
Il est clair que le problème SAT appartient à NP, une interprétation satisfaisante étant un
certificat convenable. Le théorème clé de la théorie de complexité dit que ce problème appartient
en fait à la classe NPC.

Théorème 25.54. (Théorème de Cook) Le problème SAT est NP-complet.

On s’intéressera par la suite aux formules booléennes d’une forme particulière. Un littéral est
une variable x ou sa négation x̄ . Une clause disjonctive est une disjonction de littéraux, une
clause conjonctive une conjonction de littéraux. Une formule est en forme normale conjonctive si
elle est une conjonction de clauses disjonctives. Elle est en forme normale disjonctive si elle est
une disjonction de clauses conjonctives.

Exemple 25.55. La formule


f = (x1 ∨ x 2 ∨ x3) ∧ (x2 ∨ x¯3 ∨ x4) ∧ (x¯1 ∨ x¯3 ∨ x¯4) est en forme normale conjonctive.

Exercice 25.7. Soient f = f1 ∧ f2 ∧  ∧ fk et g = g1 ∧ g2 ∧  ∧ gl des formules booléennes en forme normale


conjonctive. Montrer que :
a) (f ∧ g) est en forme normale conjonctive.
b) (f ∨ g) est équivalente à une formcle booléenne en forme normale conjonctive.
c) (¬f ) est en forme normale disjonctive, et elle est équivalente à une forme booléenne en forme normale
conjonctive.
En déduire que toute formule booléenne est équivalente à une formule booléenne en forme normale conjonc-
tive.

25.6.5.2 Le problème k-SAT


Le problème de k-satisfaisabilité, noté k-SAT, est défini comme suit:
k-SAT
Soit f une formule booléenne en forme normale conjonctive avec k littéraux par clause. Est-
ce que f est satisfaisable?

Proposition 25.56. Toute formule booléenne est équivalente, par une réduction polnomiale, à
une formule booléenne en forme normale conjonctive avec trois littéraux par clause. Autrement
dit, SAT  3-SAT.

Par le théorème de Cook, la proposition 4.3.1 et la transitivité de la relation de réductibilité


 , on déduit la NP-complétude de 3-SAT.

Théorème 25.57. Le problème 3-SAT est NP-complet.

Exercice 25.8. Montrer que 2-SAT ∈ P .


25.6 Complexité algorithmique 285

25.6.6 Problèmes NP-complets


25.6.6.1 COUVERTURE EXACTE
A l’instar de ce dernier théorème, on peut montrer que beaucoup de problèmes de la classe NP
appartiennent en fait à la sous classe NPC. L’intérêt de ce type de résultats est l’indice qu’ils
apportent quant à la difficulté de ces problèmes. Lorsqu’on sait qu’un certain problème est NP-
complet, on ne cherche plus à le résoudre au moyen des algorithmes polynomiaux, on cherche
plutôt des heuristiques ou des algorithmes d’approximation.
Un exemple type est le problème :
COUVERTURE EXACTE
Soit A une famille de parties d’un ensemble X . Est-ce qu’il existe une partition P de X
telle que P ⊆ A ?

Théorème 25.58. 3-SAT  COUVERTURE EXACTE.

Corollaire 25.59. Le problème COUVERTURE EXACTE est NP-complet.

25.6.6.2 CIRCUIT HAMILTONIEN ORIENTÉ


Une différente construction nous permet de démontrer la NP-complétude du problème CIR-
CUIT HAMILTONIEN ORIENTÉ.

Théorème 25.60. COUVERTURE EXACTE  CIRCUIT HAMILTONIEN ORIENTÉ.

Corollaire 25.61. Le problème CIRCUIT HAMILTONIEN ORIENTÉ est NP-complet.

Corollaire 25.62. Le problème CIRCUIT HAMILTONIEN est NP-complet.


Chapitre 26
Domaine opérateur

26.1 Définition
Définition 26.1. On appelle loi de composition externe ou action d'une ensemble Ω
(dit domaine opérateur) sur un ensemble E, toute application de Ω × E → E. On dit dans ce cas
que Ω opère E.

Exemple 26.2. Voir les groupes opérants sur un ensemble.

287
26.1 Définition 289
Chapitre 27
L.C.I., Magma, Semi-groupe, Monoïde
27.1 Loi de composition interne ou loi de composition
Définition 27.1. On appelle loi de composition interne sur E (l.c.i.), toute application f:
E × E → E . Si l’on désigne par ∗ cette loi alors ∀a, b ∈ E , f (a, b) est noté a ∗ b.

Remarque 27.2. f étant une application s’assurer que a ∗ b est unique ∀a, b ∈ E avant
d’affirmer que la loi ∗ est une loi de composition interne.

27.2 Magma
Définition 27.3. Soit E un ensemble, ∗ une loi de composition interne.
Le couple (E , ∗ ) est appelé magma.

Définition 27.4. Soit (E , ∗ ) un magma et a un élément de E.


On appelle translation à droite [resp. à gauche] par a et on note δa [resp. γa] l’application :
E → E E → E
x  x∗A
[resp.
x 
A∗x
].

Définition 27.5. Etant donné deux magmas (E , ∗ ) et (F , ⊤). On appelle :


− morphisme de magmas (ou homomorphisme) de (E , ∗ ) dans (F , ⊤) toute application
f : E → F telle que : ∀x, y ∈ E , f (x ∗ y) = f (x)⊤f (y).
− endomorphisme d'un magma (E , ∗ ) est un morphisme de magmas de (E , ∗ ) dans
(E , ∗ ).
− isomorphisme de magmas est un morphisme bijectif de magmas.
− automorphisme d'un magma (E , ∗ ) est un endomorphisme bijectif du magma (E , ∗ ).
Exemple 27.6. 1. L’application ln : R∗+ → R est un isomorphisme du magma (R∗+, ∗
) sur le magma (R, + ).
2. Soient E un ensemble, ∗ et ⊤ deux l.c.i. dans E. Pour que ⊤ soit distributive à gauche
[resp. à droite] sur (E , ∗ ); il faut et il suffit que, pour tout a de E l’application γa:
E → E [resp. δa: E → E ] soit un endomorphisme du magma (E , ∗ ).
x 
a⊤x x x⊤a 
Définition 27.7. Soient X un ensemble, (E , ∗ ) un magma.
On peut munir E X d’une l.c.i., encore notée ∗ , définie par :
∀f , g ∈ E X , ∀x ∈ X , (f ∗ g)(x) = f (x) ∗ g(x)
et appelée extension à E X de la loi ∗ de E.

Exemple 27.8. f , g ∈ RR , f + g: R → R
x 
f (x) + g(x)
Définition 27.9. Soit (E , ∗ ) un magma.
On peut munir P(E) d’une l.c.i., encore notée ∗ , définie par :
∀A, B ∈ P(E), A ∗ B = {x ∈ E; ∃(a, b) ∈ A × B; x = a ∗ b} = {a ∗ b; (a, b) ∈ A × B }
et appelée extension à P(E) de la loi ∗ de E.

Exemple 27.10.
− Dans R, {1, 2} + {4, 9} = {5, 6, 10, 11}, ] − ∞; 0[ + ]0; + ∞[ = R.

290
27.4 Monoïde 291

− Pour A ∈ P(E) et a ∈ A, on peut noter a ∗ A au lieu de {a} ∗ A; par exemple, dans (R, · )
usuel, pour tout x de R, x · Z = {x · n; n ∈ Z }.

Définition 27.11. Soit (E , ∗ ) un magma.


− Une partie A de E est dite stable pour ∗ si et seulement si A ∗ A ⊂ A, i.e. ∀a, b ∈ A, x ∗
y ∈ A.
− Si A est une partie stable de E pour (E , ∗ ), la l.c.i. dans A définie par :
A × A → A est appelée l.c.i. induite sur A par ∗ de E et encore notée ∗ .
(x, y) 
x∗ y

Définition 27.12. On appelle produit de deux magmas (E , ⊤) et (F , ⊥) le magma (E × F , ∗


) où ∗ est la l.c.i. dans E × F définie par :
∀(x, y), (x ′, y ′) ∈ E × F , (x, y) ∗ (x ′, y ′) = (x⊤x ′, y⊥y ′).

Exemple 27.13. R2, muni de la l.c.i. + définie par :


∀(x, y), (x ′, y ′) ∈ R, (x, y) + (x ′, y ′) = (x + x ′, y + y ′) est appelé le produit du magma (R, + )
par lui-même.

Proposition 27.14. Soit E un ensemble muni d’une l.c.i. associative et commutative


1. (Linéarité de la composition finie)
2. (Invariance par permutation des signes de composition)
∀(n, p) ∈ (N∗)2, ∀(xi, j ) 16i6n ∈ E (n×p)
16 j 6n
Qn Q 
p
xi,j = pj =1
Qn
i=1 xi, j (en notation multiplicative)
Q 
i=1 j =1
Pn  P p  P
p Pn
i=1 xi, j (en notation additive)

i=1 j=1 xi, j = j =1
...
Lors de compositions (additions, multiplications ...) finies d’élément de E, on conserve le
résultat en permuttant les signes de composition.
3. (Invariance par permutation des indices)

Remarque 27.15. On retrouvera donc cette propriété dans un groupe commutatif, un espace
vectoriel, un anneau ou un corps pour la première loi et pour la deuxième loi s’il sont commuta-
tifs.

Démonstration. (par récurrence) 

27.3 Semi-groupe
Définition 27.16. Soit E un ensemble (E , ∗ ) une loi de composition interne associative.
Le couple (E , ∗ ) est appelé semi-groupe.

Remarque 27.17. En fait, il s’agit d’un magma dont la loi de composition est associative

27.4 Monoïde
Définition 27.18. Soit E un ensemble (E , ∗ ) une loi de composition interne associative admet-
tant un élément neutre le triplet (E , ∗ , e) est appelé monoïde.

Remarque 27.19.
1. Il s’agit en fait d’un semi-groupe possédant un élément neutre pour (E , ∗ ).
2. Demi-groupe : synonyme de monoïde selon le dictionnaire de Mathématiques PUF. Bou-
vier et George.
292 L.C.I., Magma, Semi-groupe, Monoïde

Proposition 27.20. Soit (E , ∗ ) un monoïde.


i. a inversible ⇒ a régulier
ii. a inversible ⇒ a admet un unique inverse
iii. a et b inversibles ⇒ a ∗ b inversible et [(a ∗ b)−1 = b−1 ∗ a−1]
iv. a inversible ⇒ l’équation a ∗ x = b [x ∗ a = b] admet un solution unique x = a−1 ∗ b [x = b ∗
a−1 ].
v. ∗ commutative et a symétrisable à droite ou à gauche ⇒ a admet un symétirique

Proposition 27.21. La propriété d’associativité dans un monoïde entraine que :


1. Le produit dans E de n éléments x1; x2; ...; xn peut s’écrire simplement x1 ∗ x2 ∗ ... ∗ xn.
Quel que soit l’ordre des calculs. Démonstration (Cours de Licence).
2. On peut adopter la notation exponentielle :
− xn = x ∗ x ∗ ... ∗ x ( n facteurs ) avec x1 = x et x0 = e
− et avoir xm ∗ xn = xm+n = xn ∗ xm (xm)n = xm×n = (xn)m où m, n ∈ N

Remarque 27.22. Attention :


− si (E , ∗ ) n’est pas commutative alors (x ∗ y)n  (xn ∗ yn)
− si x et y commutent alors (x ∗ y)n = xn ∗ y n et xm ∗ y n = y n ∗ xm.

Note 27.23. Dans la suite acu sera l’abréviation pour anneau commutatif unitaire et acui celle
pour anneau commutatif unitaire intègre. D p désignera l’ensemble des diviseurs de p. "ou" dési-
gnera le ou inclusif et "ou bien" le ou exclusif.

27.4.1 Eléments premiers dans un monoïde commutatif


[Document, de les-mathématiques.net]
A l’origine de cet article, il y a un certain malaise que j’ai éprouvé (et je ne dois pas être le
seul) en constatant que la définition d’élément premier d’un acui, qui est censée généraliser celle
d’entier premier dans N, fluctuait suivant les auteurs avec des propositions qui n’étaient pas tou-
jours logiquement équivalentes. Ceci m’a amené à proposer une définition ne faisant appel qu’à
l’inversibilité en partant du principe que ce qui caractérise un élément premier c’est le fait qu’il
ne puisse se factoriser en un produit de 2 facteurs que si l’un des facteurs est inversible et pas
l’autre. D’où le titre.
[Note personnelle Guy : Pour montrer qu’un nombre n’est pas premier, il suffit de montrer
qu’il existe une décomposition en produit de 2 nombres inversibles ou non inversibles (c’est à
dire composés)

Exemple 27.24. 1 = 1 × 1 inversibles, 14 = 2 × 7 non inversibles.

Autrement dit, il faut montrer que les seuls décompositions possibles en produit de 2 fac-
teurs soient le produit de 2 facteurs inversibles ou de 2 facteurs non inversibles.]
Par négation, un élément non premier n sera donc un élément pour lequel il existera une fac-
torisation en 2 facteurs inversibles (n sera alors inversible) ou en 2 facteurs non inversibles(on
dira alors que n est un élément composé). La structure la plus générale où l’on puisse déve-
lopper ces idées est celle de demi-goupe multiplicatif abélien, comme (N, × ), pour disposer de la
notion d’élément inversible. On se retrouve ainsi dans le cadre naturel où s’est forgé le concept
de nombre entier premier. Formalisons cela en considérant un demi-groupe abelien (E , × ) d’élé-
ment neutre 1. On notera U l’ensemble des éléments inversibles de E (1 ∈ U) et P(E) l’ensemble
des éléments premiers de E obtenu grâce à l’une des 2 définitions équivalentes suivantes :

27.4.2 Définition
Définition 27.25.
• ∀p ∈ E p premier  ∀(a, b) ∈ E 2
p = a b ⇒ (a, b)  U 2
S
(E \U)2 (I)
27.4 Monoïde 293

• ∀p ∈ E p premier  ∀(a, b) ∈ E 2
p = a b ⇒ a ou bien b ∈ U.

C’est à dire que p ne peut s’écrire comme produit de 2 facteurs que si l’un est inversible et pas
l’autre. D’où par négation: ∀p ∈ E, p non premier 
∃(a, b) ∈ E 2 p = a b et (a, b) ∈ U 2
S
(E \U)2.
On obtient ainsi une classification des éléments d’un demi-groupe abélien multiplicatif.
Chaque élément d’un tel demi-groupe est :
− soit premier,
− soit inversible,
− soit composé (i.e. factorisable en un produit de 2 éléments non inversibles).
Chaque cas excluant les deux autres.

Remarque 27.26.
− On peut remarquer facilement que tout élément inversible x n’est pas premier, car il est
produit de 2 inversibles x = x × 1. Donc dans un groupe, il n’y a pas d’éléments premiers.
− Un carré x2 n’est jamais premier, car suivant que x est inversible ou pas, x2 est le produit
de 2 inversibles ou de 2 non inversibles.
− D’autre part, pour le demi-groupe (A, × ) d’un acui A l’élément 0 n’est pas premier, car il
est produit de 2 non inversibles 0 = 0 × 0. Donc 0 est même un élément composé.
− Si A est un acu, on pourra bien sûr appliquer cette définition au demi-groupe abelien (A,
× ) i.e. hors intégrité de l’anneau.

27.4.3 Définitions consensuelles


Note 27.27. A étant un acu rappelons 2 définitions pour lesquelles il y a consensus de tous les
auteurs cités dans cet article.

Définition 27.28. A intègre  A  {0} et ∀(a, b) ∈ A a b = 0  a = 0 ou b = 0


2

Définition 27.29. I idéal premier de A  A/I est intègre  A/I  {0}(A  I) et ∀(x,
y) ∈ A/I x.y = 0  x = 0ou y = 0  A/I  {0}(A  I) et ∀(a, b) ∈ A a b ∈ I  a ∈ I
2

ou b ∈ I.

Par conséquent si A est intègre l’idéal nul I = {0} est premier.

27.4.4 Quelques liens logiques


p étant un élément d’un acui A considérons 3 propositions utilisées par différents auteurs pour
définir un élément premier.

Proposition 27.30. p  0 et p  U et D p = U pU (II) Maclane et Birkhoff [1]


S

Proposition 27.31. p A est un idéal premier (III) Arnaudiès et Bertin [2], Bouvier ,George, ...
[3]

Proposition 27.32. p  U et ∀(a, b) ∈ A2, p|a b  p|a ou p|b (IV) Duverney [4]
Montrons que (III)  (IV).
Démonstration.
1. (III) ?
(IV) :
On utilisera les équivalences suivantes qui caractérisent un idéal (principal) premier :
p A idéal premier  A/p A est intègre  
A/p A  {0} et ∀(a, b) ∈ A2, a b ∈ p A a∈
p A ou b ∈ p A.
294 L.C.I., Magma, Semi-groupe, Monoïde

D’abord p  U (sinon p ∈ U  pA=A  A/p A = {0} ce qui contredirait (III)).


Ensuite p|a b  a b ∈ p A d’où d’après (III) a ∈ p A ou b ∈ p A c’est à dire p|a ou p|b
et ainsi (IV) est bien vérifié.

2. (IV) ?
(III) :
D’abord A/p A  {0}(sinon p A = A  p ∈ Uce qui contredirait (IV)) Ensuite a b ∈
pA  p|a b d’où d’après (IV) p|a ou p|bc’est à dire a ∈ p A ou b ∈ p Aet ainsi (III) est
bien vérifié. 

Remarque 27.33. En définissant un élément premier p d’un acui A grâce à l’une des 2 propo-
sitions équivalentes (III) ou (IV) on aurait l’inconvénient que 0 soit premier. En effet 0A = {0}
est un idéal premier vu que A/0A = A qui est intègre. Des lors (III) < (II) car pour p = 0 (III)
est vraie alors que (II) est fausse. Et même si on ajoutait à (III) p A  {0} l’équivalence avec (II)
serait encore fausse. (II) < p A est un idéal premier non nul.

Exemple 27.34. On peut s’en convaincre avec l’acui Z(i 5 ) :
Il est facile de montrer qu’avec p = 3 (II) est vraie.

En posant N (a + i 5 b) = a2 + 5b2, il est immédiat que N (z z ′) = N (z)N (z ′) d’où si z z ′ = 1

avec z = a + i 5 b, N (z) = a2 + 5b2 = 1, ce qui entraîne b = 0, a = ( ± )1.

Les inversibles de Z(i 5 ) sont donc 1 et − 1.
Soit U = {1, − 1}. p = 3  0 et p = 3  U = {1, − 1}.

De plus a + i 5 b ∈ D3  √ √
(a + i 5 b)(x + i 5 y) = 3 ⇒ N (3) = 9 = (a2 + 5b2)(x2 + 5y2) 
a2 + 5b2 ∈ D 9 = {1, 3, 9}.
Or a2 + 5b2 = 1  b = 0 et a = ± 1 √
a + i 5 b = ± 1 ∈ U et a2 + 5b2 = 3 b = 0 et a2 = 3 ce
qui est impossible dans Z.
√ Enfin a + 5b = 9
2 2
 
x2 + 5y 2 = 1 y = 0 et x = ± 1 d’où avec l’égalité souslignée a +
i 5 b = ± 3 ∈ 3 U.
On a donc prouvé l’inclusion : D 3 ⊂ U 3 U et comme l’inclusion contraire est immédiate
S
(II) est bien vraie √ avec p = 3. √ √
Pourtant 3 Z(i 5 ) est un idéal non nul qui n’est pas premier vu que (2 − i 5 )(2 + i 5 ) = 9 ∈
√ √ √ √ √
3 Z(i 5 ) bien que ni (2 − i 5 ), ni (2 + i 5 ) ∈ 3 Z(i 5 ) compte tenu que 2 − i 5 = 3(a +

i 5 b)  √
2 = 3a ce qui est impossible dans Z et idem avec 2 + i 5 .

Le but recherché étant de trouver une définition générale d’un élément premier valable aussi
bien pour les entiers naturels que pour les éléments d’un acui quelconque il reste la proposition
(II) et on remarque qu’elle S dans l’introduction. p 
est équivalente à la proposition (I) proposée
0 et p  U et D p = U
S
pU (II) ∀(a, b) ∈ A2 p = a b 
(a, b)  U 2 (A\U)2 (I).
Montrons que (II) ⇔ (I)

Démonstration.

1. (II)
?

(I) : p = a b a et b ∈ D p = U
S
pU alors (a, b)  U 2. Sinon on aurait p = a b ∈ U
ce qui contredirait (II). On a aussi (a, b)  (A\U)2. Sinon a et b  U et comme a et b ∈
pU on aurait donc a et b ∈ pU soit a = p ε, b = p θ puis a b = p = p2εθ et p(1 −
S
Dp = U
pεθ) = 0 enfin comme A est intègre et p  0, 1 = pεθ. On aurait donc p ∈ U ce qui contre-
dirait (II). Finalement (I) est vérifiée.

2. (I) ?
(II) : p  0 sinon p = 0.0 avec (0, 0) ∈ (A\U )2 ceSqui contredirait (I). p  U sinon
p = p.1 avec (p, 1) ∈ U 2 ce qui
S contredirait (I). D p ⊂ U pU . En effet a ∈ D p p=ab
d’où d’après (I) (a, b)  U 2 (A\U )2. D’autre part, on a l’alternative : ou bien a ∈ U et
alors a ∈ U pU, ou bien a  U et alors b ∈ U sinon (a, b) ∈ (A\U)2 ce qui contredirait (I).
S
Donc il existe c ∈ Atel queSb c = 1 d’où p = a b  p c = a b c = a.1 = a et a ∈ pU vu que c ∈
U . Par conséquent a ∈ U pU. Finalement, l’inclusion annoncée est prouvée et comme
l’inclusion contraire est immédiate, on a montré que (II) est vérifiée ce qui termine la
preuve de l’équivalence annoncée. 
27.4 Monoïde 295

Note 27.35. Malgré l’équivalence des propositions (II) et (I) dans un acui, où l’intégrité a été
utilisée, on peut remarquer que (II) fait référence à la structure d’anneau à cause de 0 qui y
figure alors que ce n’est pas le cas de (I) qui se réfère seulement à un demi-groupe abélien multi-
plicatif. On pourrait aussi définir un élément premier, hors intégrité, dans un acu grâce à (I),
mais on perdrait la règle des degrés deg(PQ) = deg(P ) + deg(Q) pour P et Q non nuls qui
découle de l’intégrité or cette règle est fondamentale pour l’arithmétique dans les anneaux de
polynômes A[X1, X2,  , Xn]. Il semble dès lors raisonnable de définir un élément premier dans
un acui avec la proposition (II) ou la (I), c’est le choix fait dans ce qui suit. Montrons qu’avec la
proposition (I), on retrouve les caractérisations usuelles des éléments premiers dans N et dans les
demi-groupes multiplicatifs d’anneaux (acui) classiques comme Z, et A[X1, X2...Xn] avec n ≥ 1
et A un acui , éventuellement un corps. Ici je préfère dire polynôme premier que polynôme irré-
ductible qui pourrait faire référence à la notion d’élément irréductible d’un acui dont je préfère
ne pas parler ici, même si , pour p  0 les 2 notions coïncident sur un acui factoriel([2] page 50).

27.4.5 Applications à quelques ensembles particuliers


27.4.5.1 Premiers dans N
Dans N il n’y a qu’un inversible : 1 donc U = {1}. La définition élémentaire pour qu’un entier
psoit premier est: card(D p) = 2. Montrons que pour p ∈ N, card(D p) = 2 
∀(a, b) ∈ N2, p =
ab  
a ou bien b est inversible i.e. a ou bien b est égal à 1 (
?
) On a c a r d(D p) = 2 d’où D p =
{1, p}et donc p  1. Si on a p = a b alors aet b ∈ D p = {1, p} ou a = 1et alors b = p  1 par con-
séquent aou bien b est bien inversible. ou b = 1et alors a = p ensuite même raisonnement.
( ?) Si a ∈ D palors il existe b tel que p = a b d’où aou bien b est inversible i.e. aou bien
b est égal à 1. Soit a = 1 et b = p soit b = 1 et a = p.Les seuls diviseurs de p sont donc:1 et
p et comme p  1(sinon p = 1.1,p serait produit de 2 inversibles)on a bien card(D p) = 2.

27.4.5.2 Premiers dans Z


Il est facile de montrer que p ∈ P(Z)  |p| ∈ P(N).
27.4.5.3 Premier dans A[X1, X2,  , Xn]
our simplifier , A[X1, X2....Xn] sera noté A[Xi], c’est l’anneau des polynômes à coéfficients dans
un acui A en les indéterminées X1, X2, ...Xn où n ≥ 1. Avec la règle des degrés, il est immédiat
que les inversibles de A[Xi] sont les inversibles de A. On rappelle que :

Définition 27.36. Un polynôme de A[Xi] sera dit primitif si et seulement si ses coefficients ne
sont divisibles que par les inversibles de A avec la convention que le polynôme nul n’a que le
coefficient 0.

Par conséquent le polynôme nul n’est pas primitif car o|o et o n’est pas inversible. Il est
clair qu’un polynôme dont l’un des coéfficients est inversible comme 1 ou -1 est primitif. Il est
aussi clair qu’un polynôme non nul à coéfficients dans un corps est primitif car il admet un coéf-
ficient ak  0 et un diviseur d de ce polynôme divisera akdonc d  0et par suite dest inversible.

Proposition 27.37. Les premiers de A[Xi] sont :


− Soit les polynômes constants, quand la constante est un élément premier de A.
− Soit les polynômes non constants, primitifs et ne pouvant s’écrire comme produit de 2
polynômes non constants.
Autrement dit :
deg(P ) = 0 et P ∈ P(A)
P ∈ P(A[Xi]) ⇔ ou bien
deg(P ) > 1, P est primitif et P = Q R ⇒ deg(Q) ou bien deg(R) = 0
296 L.C.I., Magma, Semi-groupe, Monoïde

Démonstration.
1. (?
) P étant premier, P  0 et donc P admet un degré. Si deg(P ) = 0 alors P ∈ A et si
on a P = Q R dans A comme A ⊂ A[Xi], on a aussi P = Q R dans A[Xi] or P ∈ P(A[Xi])
donc Q ou bien R est inversible dans A[Xi] et par suite dans A ce qui assure la primalité
de P dans A. Si deg(P ) ≥ 1 alors P est primitif. En effet, soit D ∈ A un diviseur de P .
On a alors P = D Q dans A[Xi] avec deg(Q) = deg(P ) ≥ 1 d’où Q n’est pas inversible et
par conséquent D est inversible sinon P serait produit de 2 non inversibles ce qui contre-
dirait sa primalité. De plus, si on a P = Q R dans A[Xi] et comme P ∈ P(A[Xi]), Q ou
bien R est inversible donc deg(Q) ou bien deg(R) = 0.

2. (
?
) Si deg(P ) = 0 et P ∈ P(A), on a P  0 soit P = Q R dans A[Xi] alors Q  0 et R  0
d’où Q et R ont un degré et comme deg(P ) = deg(Q) + deg(R) on a deg(Q) = deg(R) = 0
et donc Q et R ∈ A. Or P ∈ P(A) d’où Q ou bien R est inversible dans A et donc dans
A[Xi] ainsi on a bien P ∈ P(A[Xi]. Si deg(P ) ≥ 1, P est primitif et P = Q R  deg(Q)
ou bien deg(R) = 0 soit P = Q R dans A[Xi], on a par hypothèse deg(Q) ou bien deg(R) =
0 par exemple deg(Q) = 0 d’où deg(R) ≥ 1 et ainsi R n’est pas inversible. De plus la cons-
tante Q divise le polynôme primitif P donc Q est inversible ce qui prouve bien que P ∈
P(A[Xi]). 

Exemple 27.38. Les polynômes primitifs de degré 1 sont premiers(c’est clair)comme: P = −


3X + 5Y + 2Z avec A = Z Par contre P = 5X − 10Y + 15Z est de degré 1 mais n’est pas pre-
mier car il n’est pas primitif vu que 5|P et 5 n’est pas inversible dans Z.

Traitons maintenant le cas particulier des polynômes à coéfficients dans un corps commutatif
K. Un élément de K est soit 0 donc non premier soit inversible donc non premier aussi et par
conséquent P(K) = ∅. De plus ∀P ∈ K[Xi] avec d e g(P ) ≥ 1 P est primitif d’où l’équivalence
précédente devient:
P ∈ P(K[Xi]) d e g(P ) ≥ 1 et P = Q R  d e g(Q)ou bien d e g(R) = 0

Exemple 27.39. les polynômes de degré 1 à une ou plusieurs indéterminées et à coéfficients


dans un corps sont premiers.

Comme application de la classification des éléments d’un demi-groupe abélien multiplicatif et


pour terminer, donnons une caractérisation des corps parmi les acui nœthériens :

Proposition 27.40. Pour qu’un acui nœthérien soit un corps il faut et il suffit qu’il n’ait pas
d’élément premier. Autrement dit, pour un acui nœthérien A: A est un corps 
P(A) = ∅.

Démonstration. On a déjà remarqué que si A est un corps alors P(A) = ∅. Il reste donc à
montrer que si A est un acui nœthérien et P(A) = ∅ alors A est un corps. A est intègre donc par
définition A  {0} dès lors on peut choisir un élément non nul a0 ∈ A et en raisonnant par
l’absurde on va montrer que a0 est inversible. En effet si a0 n’était pas inversible comme il n’est
pas premier (P(A) = ∅) il serait composé donc il s’écrirait a0 = a1b1 avec a1 et b1 non inversibles
d’où a0A ⊂ a1A. On pourrait alors recommencer avec a1 à la place de a0 soit a1 = a2b2 avec a2 et
b2 non inversibles d’où a1A ⊂ a2A etc ... A chaque étape, on obtiendrait un élément ak non
inversible et non premier donc il serait composé et pourrait s’écrire ak = ak+1bk+1 avec ak+1 et
bk+1 non inversibles et bien sûr akA ⊂ ak+1A. On construirait ainsi une suite croissante d’idéaux
qui serait stationnaire à partir d’un certain rang n vu que A est nœthérien; par conséquent
anA = an+1A d’où il existerait x ∈ A tel que an+1 = anx et comme par construction an =
an+1bn+1 on aurait an = anx bn+1 puis an(1 − x bn+1) = 0. De plus comme on aurait a0A ⊂ akA
pour tout entier k on aurait an  0 (sinon a0A ⊂ 0A = {0} et donc a0 = 0 et la contradiction) or
A est intègre d’où 1 − x bn+1 = 0 et enfin 1 = x bn+1 d’où bn+1 serait inversible et la contradic-
tion. Finalement A est bien un corps. Par conséquent un acui nœthérien autre qu’un corps
admet au moins un élément premier. 
27.4 Monoïde 297

On peut alors montrer que tout élément ni nul ni inversible admet une décomposition pri-
maire qui n’est pas unique en général en s’inspirant de la méthode précédente.
La propriété précédente permet aussi de prouver qu’un acui n’est pas nœthérien effet un acui
autre qu’un corps qui n’a pas d’élément premier n’est pas nœthérien.

Exemple 27.41. L’anneau Ẑ des entiers algébriques sur C.

Démonstration. D’abord Ẑ est un acui (bien connu) mais ce n’est pas un corps, sinon, comme
l’intersection de 2 corps est un corps on aurait Ẑ Q qui serait un corps or Ẑ Q = Z. En
T T
p
effet soit la fraction irréductible q ∈ Ẑ Q. Il existe donc un polynôme unitaire P ∈ Z[X] de
T
p p p
degré > 1 tel que P ( q ) = 0. D’où, avec des notations évidentes a0 + a1 q + a2( q )2 + ... +
p p
an−1( q )n−1 + ( q )n = 0. Après multiplication par q n, on obtient : a0 q n + a1 p q n−1 + a2 p2 q n−2 +
...an−1 pn−1 q + pn = 0. Dès lors q divise pn et en appliquant le théorème de GAUSS à répétition
comme p ∧ q = 1, on a q|pn  q |pn−1  q |pn−2...  q|p p
q
∈ Z ce qui prouve une inclu-
sion, l’autre étant évidente. Ẑ n’est donc pas un corps. De plus P(Ẑ) = ∅ sinon soit p ∈ P(Ẑ)
comme p ∈ Ẑ, il existerait P ∈ Z[X] unitaire et de degré ≥ 1 tel que P (p) = 0 d’où avec les nota-
tions précédentes a0 + a1 p + a2 p2 + ...an−1 pn−1 + pn = 0. Or dans C tout complexe est un carré
d’où p = q 2 avec q ∈ C. On aurait donc a0 + a1 q 2 + a2 q 4 + ...an−1 q 2n−2 + q 2n = 0 par conséquent
q ∈ Ẑ et finalement p serait un carré dans Ẑ donc ne pourrait être premier d’où la contradic-
tion. 

Ẑ est un bon exemple d’acui sans éléments premiers qui n’est ni nœthérien ni bien sûr facto-
riel. J’espère avoir convaincu le lecteur de l’intérêt d’utiliser la proposition (I) pour définir les
éléments premiers et de l’intérêt de la classification des éléments d’un demi-groupe abélien mult-
plicatif qui s’y rapporte car ce sont des facteurs de clarté et de simplification des preuves en
arithmétique élémentaire ou plus élaborée. Pour me contacter guyphilippe@les-mathemati-
ques.net
Bibliographie
1 S.MACLANE et G.BIRKHOFF Algèbre 1/structures fondamentales GAUTHIER-VIL-
LARS 1970 p171
2 J-M.ARNAUDIES et J.BERTIN Groupes, algèbres et géométrie T1 ELLIPSES 1993 p 48
3 A.BOUVIER, M.GEORGE ET F.LE LIONNAIS Dictionnaire des mathématiques PUF
1996 p670
4 D.DUVERNEY Théorie des nombres DUNOD 1998 p53
Chapitre 28
Théorie des Groupes

28.1 Structure de groupe

28.1.1 Définition d’un groupe


Définition 28.1. Soit (E , ∆) un magma.
On dit que le couple (E , ∆) est une structure de groupe , (ou est un groupe) ssi:
− la loi ∆ est associative dans E
− E admet un élément neutre e pour ∆
− tout élément a de E admet un symétrique noté a−1 pour la loi ∆.

Remarque 28.2.
1. (E , ∆) est un monoïde dont tout élément admet un symétrique.
2. Si l’on note · , × , + la loi, l’élément symétrique a−1 est appelé inverse ou opposé.

Exemple 28.3.
1. (Z, + ) est un groupe.
2. Les éléments inversibles (i.e. les unités) d’un anneau (A, + , × ) forment un groupe.
3. (Mn(K, + )) est un groupe.

28.1.2 Groupe fini


Définition 28.4. On appelle groupe ni un groupe qui a un nombre fini d’éléments:
28.1.3 Ordre d’un groupe
Définition 28.5. Soit G un groupe fini.
On appelle ordre de G, le cardinal de G, on le note o(G) ou |G|.

28.1.4 Groupe commutatif


Définition 28.6. Soit (E , ∆) un groupe, (E , ∆) est un groupe commutatif (ou abélien)
lorsque ∆ est commutative.

28.1.5 Propriétés
Proposition 28.7.
1. l’élément neutre e et l’inverse (je préfère l’opposé) sont uniques;
2. Tout élément de E a un symétrique unique b et (a ∗ b)−1 = b−1 ∗ a−1. Il n’est pas néces-
saire que a, b commutent. Cependant, si a et b commutent alors (a∆b)−1 = (b∆a)−1 =
b−1∆a−1 = a−1∆b−1.

299
300 Théorie des Groupes

3. tout élément de E est simplifiable ( ou régulier ).


4. l’équation a∆x = b (x∆a = b) admet un solution unique x = a−1∆b (x = b−1∆a) (égales si
∆ est commutative).

Remarque 28.8. Un groupe est un monoïde donc il possède les mêmes règles de calcul (pour
la règle (2) m et n ∈ Z)

Démonstration.
1.
2. (a ∗ b)−1 ∗ (a ∗ b) = e → (a ∗ b)−1 ∗ a ∗ b ∗ b−1 = e ∗ b−1 → (a ∗ b)−1 ∗ a = b−1
(a ∗ b)−1 ∗ a ∗ a−1 = b−1 ∗ a−1 → (a ∗ b)−1 = b−1 ∗ a−1.
3.
4. 

28.1.6 Table de Cayley d’un groupe fini


Définition 28.9. Soit (G, ∆) un groupe fini.
On appelle table de Cayley de (G, ∆), la table de Pythagore de la loi de composition
interne sur G.

Proposition 28.10.
1. Les tables de Cayley sont des carrés latins. (i.e. tableaux carrés à n2 cases où sont
répartis n nombres ou symboles qui n’apparaissent qu’une seule fois par ligne ou colonne).
2. L’inverse est faux.

28.2 Structure de sous-groupe

28.2.1 Définition d’un sous-groupe


Définition 28.11. Soit F un sous-ensemble de E, (F , ∆) est un sous-groupe de (E , ∆) ssi
(F , ∆) est un groupe.

Remarque 28.12. Dans un but de simplification, on note de manière identique la loi ∆ de E


et ∆ |F sa restriction à F .

Proposition 28.13. Soit un sous-ensemble de E, (F , ∆) est un sous-groupe de (E , ∆) ssi l’une


des trois conditions suivantes est réalisée :
1.
− F est stable pour la loi ∆
− tout élément de F doit avoir son symétrique pour la loi ∆ dans F.
2. e ∈ F , ∀x, y ∈ F , x∆y −1 ∈ F.
3. F  ∅, ∀x, y ∈ F , x∆y −1 ∈ F. Idem (2) sauf que e ∈ F est remplacé par F  ∅.
Notation : On écrit : F 6 G pour exprimer que F est un sous-groupe de G.

Remarque 28.14. Soit H l’ensemble des sous-groupes de G. Dans H, 6 est une relation
d’ordre partiel.

Proposition 28.15. Si de plus (E , ∆) est un groupe commutatif alors (F , ∆) est un sous-


groupe commutatif de (E , ∆).
28.2 Structure de sous-groupe 301

28.2.2 Intersection de sous-groupes


Proposition 28.16. L’intersection d’une famille de sous-groupe de G est un sous-groupe de G.

28.2.3 Sous-groupe propre


Définition 28.17. F est un sous-groupe propre de G ssi F  G.
Notation : On écrit F < G pour exprimer que F est un sous-groupe propre de G.

28.2.4 Sous-groupe maximal


Vérifer cette définition, pourquoi imposer que H soit l’ensemble des sous-groupes ?

Définition 28.18. Soit G un groupe et H l’ensemble des sous-groupes propres de G. Soit 6 la


relation d’ordre partiel « est un sous-groupe propre de G».
Un sous-groupe M de G est dit maximal ssi
1. M est maximal dans H
2. i.e. ∀L ∈ H; (M 6 L) ⇒ (L = M )

Remarque 28.19.
1. Autrement dit, il n’existe pas d’élément strictement supérieur à M dans H.
2. Rien de nouveau dans cette définition, qui reprend la définition d’un élément maximal
d’un ensemble quelconque et qui l’applique à l’ensemble H des sous-groupes propres de
G.
3. Attention : M est un sous-groupe propre de G ? (Pourquoi cet avertissement ? : rien
n’empèche d’avoir M = G).
4. Un groupe de + d’1 élément n’a pas nécessairement de sous-groupe maximal.
Cependant ...

Proposition 28.20. Si G est un groupe fini d’ordre > 1, alors tout sous-groupe propre de G est
contenu dans un sous-groupe maximal de G.

Attention : Dire que le sous-groupe propre de M de G n’est pas maximal ⇒ ∃L ∈ H; M < L.

28.2.5 Sous-groupe de Frattini


Définition 28.21. Soit G un groupe de plus d’1 élément, M l’ensemble vide ou non des sous-
groupe maximaux( de G. T
Φ(G) = M ∈M M ⇔ M  ∅
est appelé sous-groupe de Frattini.

L’ensemble
(Φ(G) = G) ⇔ M = ∅
En d’autres termes : c’est l’intersection des sous-groupes maximaux de G.
M∅

Remarque 28.22. Si G  {e}
, ϕ(G) est un sous-groupe propre de G.

Φ(G) = M ∈M M ⇔ M  ∅
( T 
Proposition 28.23. L’ensemble est un sous-groupe de G.
(Φ(G) = G) ⇔ M = ∅

28.2.6 Sous-groupe G engendré par A


28.2.6.1 Cas Général

Note 28.24. Posons pour la suite A Sous-ensemble de G. G Groupe d’élément neutre e.


302 Théorie des Groupes

Proposition 28.25. Les propositions suivantes sont équivalentes (A  ∅) :


1. H l’intersection de tous les sous-groupes de G contenant A.
2. H est le plus petit sous-groupe contenant A.
3. H est l’ensemble des éléments de G qui peuvent s’écrire :
a11 ∗ a22 ∗  ∗ aεnn
(
ε ε

+1 −1 .
ai ∈ A; εi ∈ { − 1; + 1}; ai = ai; ai = ai ???

Par convention si A = ∅ alors les 3 propositions sont équivalentes.

Démonstration. CTES envoi 4 th. 2.8. Principe :


1. Montrer que H contient A.
2. Montrer que H est un sous-groupe de G .
3. Montrer que tout sous-groupe de G contenant A contient H. 

Définition 28.26. L’ensemble H vérifiant l’une des 3 propositions (ou seulement la CNS(2)
précédente, dans ce cas les autres CNS sont à mettre en propriété) précédentes est appelé sous-
groupe engendré par A. On le note < A > .
28.2.6.2 Parties génératrices, générateurs ( cas particulier )

Définition 28.27. Si et seulement si G est un sous-groupe engendré par A ( < A > = G), on dit
que : A est un partie génératrice de G. Les éléments de A sont des générateurs de G.

Remarque 28.28.
− si A = {x} le sous-groupe de G engendré {x} par est noté < x > et < x > = {xn; n ∈ Z},
c’est nous le verrons plus loin un groupe monogène.
Hi où Hi est une famille de sous-groupe de G. < A > = {x1 x2 xn; n ∈ N∗; xα ∈
[
− si A =
i∈I
Hα , ∀α, 1 6 α 6 n}.

Remarque 28.29. En résumé pour construire le sous-groupe de G engendré par A, on prend :


les éléments de A + leurs inverses (pas nécessairement dans A) + les produits possibles de 2 élé-
ments précédents.
Cas particuliers : (Rappel) Etant données 2 parties non vides d’un groupe (G, ∗ ) : X , Y ,
notons X ∗ Y = {x ∗ y; (x; y) ∈ X × Y } extension de la loi de groupe à P(G) voir page 184.

Proposition 28.30. Soit (G, ∗ ) un groupe H et K 2 sous-groupes de (G, ∗ ) alors


( H ∗ K est un sous-groupe de G ) ssi (H ∗ K = K ∗ H)

28.2.6.3 Ordre d’un élément dans un groupe

Définition 28.31. Soit G un groupe quelconque x un élément de G


1. Si le sous-groupe de G engendré par x est de cardinal infini, on dit que x est d’ordre
inni dans G.
2. Si le sous-groupe de G engendré par x est fini, on dit que x est d’ordre ni dans G.
Le cardinal de < x > est appelé ordre de x dans G, on le note o(x).

28.2.7 Groupes Monogènes


Définition 28.32. On appellera groupe monogène tout groupe G pouvant être engendré par
un singleton {x}. On le note h{x}i ou plus simplement hxi. G = hxi.

Remarque 28.33. L’ordre du groupe monogène engendré par x est l’ordre de x. C’est la défi-
nition donnée précédement.
28.2 Structure de sous-groupe 303

Exemple 28.34.
1. (Z, + ) = h1i on a aussi (Z, + ) = h − 1i
2.
3. (Zn , + ) n’est pas monogène.

rajouter les propriétés des groupes monogènes page 90.

Proposition 28.35. L’ordre de < x > est :


i. s’il existe le plus petit entier positif tel que xn = e,
ii. sinon l’ordre est infini.
 n
 a ≡1
Proposition 28.36. a engendre G d’ordre n, ssi ak 1  ? à compléter
k<n

Proposition 28.37. Soit (G; .) = < x > . C’est à dire un groupe monogène engendré par x alors
(G; · ) est isomorphisme à (Z, + ) ou (Z/nZ; + ), pour n fixé.

28.2.8 Groupes Cycliques


28.2.8.1 Définition

Définition 28.38. On appellera groupe cyclique, tout groupe fini pouvant être engendré par
un singleton {x} (i.e. tout groupe monogène fini).

28.2.8.2 Propriétés

Proposition 28.39. Soit (G, · ) un groupe, l’ordre de x est le plus petit entier positif tel que
xn = e.

Proposition 28.40. Soit G un groupe et x un élément de G d’ordre n, alors tout entier k tel
que xk = e est un multiple de n, autrement dit n divise k, n|k.

Note 28.41. Les 2 propriétés précédentes sont-elles à leur place. S’appliquent-elle à tous les
groupes ou seulement aux groupes cycliques. Dans le premier livre, je proposais de transférer
28.31 avec 28.2.4.3.

Proposition 28.42. Soit G un groupe cyclique d’ordre n et G = < a > , pour tout k ∈ Z, l’ordre
n n
de ak est n ∧ k (i.e. pgcd(n; k) ). En particulier :
• ak est un générateur de G ssi n ∧ k = 1, pgcd(n; k) = 1, autrement dit n et k sont premiers
entre eux.
• il existe ϕ(n) générateurs distincts de G.

Corollaire 28.43. Soit G un groupe cyclique d’ordre n et G = < a > . n


Soient x ∈ G et d un diviseur de n alors il existe y ∈ G tel que y d = x ssi x d = e.

Proposition 28.44. Soit G un groupe cyclique d’ordre n et G = < a > .


i. Tout sous-groupe de G est cyclique
ii. et pour tout diviseur d de n, il existe un unique sous-groupe Hd de G d’ordre d,
n
iii. en posant δ = d ce groupe est caractérisé par : Hd = {x ∈ G; xd = e} = {x ∈ G; ∃y ∈ G, y δ =
x} = < aδ > . ?????????????????????????

Exemple 28.45.
1.
2.
304 Théorie des Groupes

28.2.9 Sous-groupes particuliers


28.2.9.1 Centre d’un groupe

Définition 28.46. On appelle centre d’un groupe G et l’on note Z(G) le sous-ensemble de G
défini par : Z(G) = {x ∈ G; ∀a ∈ G, a ∗ x = x ∗ a}. C’est l’ensemble des éléments de G qui commu-
tent avec tous les éléments de G.

Exemple 28.47. Z(G) contient au moins l’élément neutre du groupe G : e.

Proposition 28.48.
1. Z(G) est un sous-groupe abélien de G.
2. Si G est abélien alors Z(G) = G.

28.2.9.2 Centralisateur de A dans G

Définition 28.49. Soit A une partie non vide d’un groupe G.


On appelle centralisateur de A dans G et on note ZG(A) le sous-ensemble de G défini par :
ZG(A) = {x ∈ G; a ∈ A, a ∗ x = x ∗ a}, c’est l’ensemble de éléments de G qui commutent avec
tous les éléments de A.

Proposition 28.50. ZG(A) est un sous-groupe de G.

28.2.9.3 Normalisateur de A dans G

Définition 28.51. Soit A un partie non vide d’un groupe G.


On appellera normalisateur de A dans G et on note NG(A) le sous-ensemble de G défini
par :
NG(A) = {x ∈ G; x ∗ A = A ∗ x}

Remarque 28.52. Cette notion sera utile pour caractériser les sous-groupes normaux.

Proposition 28.53. NG(A) est un sous-groupe de G.

28.3 Morphisme de groupe


Attention les notions de morphisme, d’endomorphisme, d’isomorphisme, d’épimorphisme et de
monomorphisme, ne sont pas propre aux groupes. Elle concerne un domaine plus général que
celui qui est développé ici (Voir chapitre sur les catégorie). Intéressons-nous à la catégorie des
groupes. Rappelons toutefois les définitions et déterminons quelles sont les propriétés qui carac-
térisent les morphismes de groupe ?

28.3.1 Définitions générales et propriétés


Définition 28.54. Soient (G, ∆) et (G ′, ∗ ) 2 groupes.
On appelle morphisme de groupe, toute application f de G dans G ′ telle que f (x∆y) =
f (x) ∗ f (y).
On dit aussi que f est compatible avec le couple ∆, ∗ .

Remarque 28.55. On définit également :


− Un morphisme de groupe est un morphisme de Magma.
− Un endomorphisme si G = G ′
− Un isomorphisme si f est bijective
− Un automorphisme si f est bijective et G = G ′
− Un endomorphisme involutif si f ◦ f = IdG
28.3 Morphisme de groupe 305

Définition 28.56. Soit (G, ∆) et (G ′, ∗ ) deux groupes. On appelle image du morphisme de


groupe f : G → G ′ l’ensemble des images des points de G par f. On le note Im(f ).
Im(f ) = {f (a); a ∈ G}.

Définition 28.57. Soit (G, ∆), (G ′, ∗ ) deux groupes et e ′ l’élément neutre de (G ′, ∗ ). On


appelle noyau du morphisme de groupe f : G → G ′ l’ensemble des points de G qui ont pour
image par f l’élément neutre de G ′. On le note Ker(f ).
Ker(f ) = {a ∈ G; f (a) = e ′}.

Proposition 28.58. Soient (M , #) un magma (G, ∆) et (G ′, ∗ ) 2 groupes homomorphes.


1. s’il existe un épimorphisme de magma ϕ de (G, ∆) sur (M , #) alors (M , #) est un
groupe.
2. si e est un élément neutre de G, alors f (e) est égal à l’élément neutre e ′ de G ′.
3. si a et a ′ sont symétriques dans G, f (a) et f (a ′) le sont dans G ′ et ϕ(a−1) = ϕ(a)−1.
4. L’ensemble Ker(f ) est un sous-groupe de G.
5. L’ensemble Im(f ) est un sous-groupe de G ′.
6. f est injective [surjective] ssi soit un morphisme de groupe. ?????????

Exemple 28.59.
(Z; + ) → (Z/nZ; +̄)
1. ϕ:
a  ā
; ā = a + n Z
Im(ϕ) = Z/nZ et Ker(ϕ) = nZ.
2.

Remarque 28.60. Soit f un morphisme de groupe alors :


− si H est un sous-groupe de G alors f (H) est un sous-groupe de G ′
− si H ′ est un sous-groupe de G ′ alors f −1(H ′) est un sous-groupe de G.

28.3.2 Epimorphisme et Monomophisme de groupes


Définition 28.61. Soit G et G’ 2 groupes.
On dit que f est un monomorphisme de groupe ssi :
− f ∈ Hom(G; G )′

− ∀ le groupe de T, on a : (u, ν ∈ Hom(T , G); f ◦ u = f ◦ ν) ⇒ (u = ν)

Définition 28.62. Soit G et G ′ deux groupes.


On dit que f est un épimorphisme de groupe ssi :
− f ∈ Hom(G; G ′)
− ∀ le groupe de T, on a : (u, ν ∈ Hom(T , G); u ◦ f = ν ◦ f ) ⇒ (u = ν)

Proposition 28.63. On montre la propriété suivante :


Soit f une application de G dans G’
1. f est un homomorphisme injectif ssi f est un monomophisme.
2. f est un homomorphisme surjectif ssi f est un épimorphisme.

C’est pour cette raison que dans le cas des groupes, on est autorisé à dire qu’un : monomor-
phisme est un homomorphisme injectif. épimorphisme est un homomorphisme surjectif.
Quel est le rôle de u et v ? S’agit-il de fonctions quelconques ou construites pour. ?

Proposition 28.64. Soit (G, · ) un groupe monogène tel que G = < x > (i.e. engendré par x)
alors G est soit isomorphe à (Z, + ) soit isomorphe à (Z/nZ, + ) pour n fixé.
306 Théorie des Groupes

28.3.3 Groupe des automorphismes, automorphisme intérieur


Rajouter le passage sur les automorphismes page 20 et 21 du cours de licence.

Proposition 28.65. L’ensemble des automorphismes de G, muni de la loi de composition des


applications est un groupe. On le note Aut(G).

Définition 28.66. On note Aut(G) le groupe des automorphismes de G.

Proposition 28.67. L’application i g: G → G est un automorphisme.


x 
g x g −1

Définition 28.68.

• L’application i g : G → G est appelée automorphisme intérieur de G.


x g x g −1
• L’ensemble des automorphismes intérieurs est noté int(G).

Proposition 28.69. L’application Φ: (G; ∗ ) → (Aut(G); ◦ ) est un morphisme de groupe,


x ix 
− Im(Φ) = int(G),
− ker(Φ) = Z(G).

28.3.4 Eléments et ensembles conjugés


Définition 28.70. Soit (G, · ) un groupe. Deux éléments x, y de G sont conjugés dans G ssi
∃g ∈ G; g · x · g −1 = y . autrement dit g · x = y · g.

Remarque 28.71. x et y sont conjugés si et seulement s’il existe un automorphisme intérieur


i g tel que i g (x) = g.

Définition 28.72. Soit (G, · ) un groupe, deux H , K parties de G sont dit conjugés dans
P(G) si et seulement si ∃x ∈ G; K = x · H · x−1.

Définition 28.73. L’ensemble des éléments conjugés à x ∈ G s’appelle (la classe de) conju-
gaison notée Cx : Cx = {g · x · g −1; g ∈ G}.
Proposition 28.74. La relation de conjugaison dans un groupe G est une relation d’équivalence
de G (ce qui justifie l’appellation « classe de conjugaison » vu ci-dessus.

28.4 Sous-groupe normaux (ou distingués)


Note 28.75. Mettre l’introduction (Elément de théorie des groupes page 136) Josette Calais.

Définition 28.76. On appelle sous-groupe normal (ou distingué) de G tout sous-groupe H


de G tel que xhx−1 ∈ H , ∀(h; x) ∈ H × G i.e. x H x−1 ⊂ H. On écrit H ⊳ G pour dire que H est
un sous-groupe distingué de G.

Note 28.77.
1. Rajouter théorie des groupes page 137, voir aussi page 28 ?
2. Les ensembles (pour a ∈ G) Ha = {x a x−1; x ∈ G} (c’est à dire les classes de conjugaison
suivant x, voir livre I volume 2 page 192 bis ) sont-ils des sous-groupes distingués ? Ha ⊂
G or a−1 = x a x−1; a−1 x = x a; y ∈ Ha ⇒ ∃x ∈ G; y = x · a · x−1. Non je ne crois pas, cela
pose un problème de construction a ∈ Ha mais a−1 ?
28.4 Sous-groupe normaux (ou distingués) 307

Proposition 28.78. Tout sous-groupe H de G est distingué si et seulement s’il satisfait l’une
des conditions équivalentes suivantes :
1. Hx = xH , ∀x ∈ G
2. xHx−1 = H , ∀(x ∈ G
3. x −1Hx = H , ∀x ∈ G
4. x −1hx ∈ H , ∀(h, x) ∈ H × G i.e. x −1 H x ⊂ H

Proposition 28.79. Dans un groupe G, on a H ⊳ G ssi il existe un groupe G ′ et un homomor-


phisme f : G → G ′ tel que H = ker(f ).

Note 28.80. Voir application cours de géométrie car c’est un cas particulier + à insérer entre 7
et 8 de (7) ?

Remarque 28.81.
1. Dans tout groupe G, {e} et G sont des sous-groupes normaux.
2. Dans un groupe abélien, tout sous-groupe est normal.

Proposition 28.82.
1. Si H et K sont 2 sous-groupes d’un groupe G tels que H ⊆ K alors H ⊳ K ⇒ H ⊳ K.
2. Pour un groupe G de centre Z(G) on a : G/Z(G) monogène ⇒ G abélien.
3. Soit G un groupe et une famille de sous-groupe de G alors
4. Z(G) ⊳ G.
5. soit H et K deux sous-groupes d’un groupe G alors
− H ⊳ G ⇒ (H ∩ K) ⊳ K
− H ⊳ G ⇒ H.K 6 G et K ⊳ H.K
6. Soit A une partie non vide d’un groupe CG(A) ⊳ NG(A).
7. soit H un sous-groupe de G alors H ⊳ G ⇒ NG(H) = G.
8. Soient G, G ′ deux groupes et f : G → G ′ un homomorphisme alors
i. H ⊳ G ⇒ f (H) ⊳ f (G)
ii. H ′ ⊳ G ′ ⇒ f −1(H ′) ⊳ G
9. Soit G un groupe.
i. Si H est un sous-groupe de G alors ([G: H] = 2) ⇒ (H ⊳ G).
ii. Pour tout sous-groupe H de G, on a 1 ∈ NH et H ⊳ NG(H).
iii. Si H et K sont deux sous-groupes de G tel que H 6 K, alors (H ⊳ K) ⇒ (K 6
NG(H)).

H.K 6 G
iv. K 6 NG(H) ⇒ H ⊳ H.K
.

10. Dans une groupe fini, tout sous-groupe normal propre de G est contenu dans un sous-
groupe normal maximal de G.

Proposition 28.83. (Caractérisation du produit direct) Soient G un groupe, H , K deux sous-


groupes si : H ⊳ G, K ⊳ G, H K = G, H ∩ K = {1} alors :

ϕ: (h, k) h k est un isomorphisme de groupe H K → G.

Proposition 28.84. (Théorème de Nother) Soit G un groupe, H , K deux sous-groupes de G


tels que K ⊂ NH, alors :
i. On a HK = KH et c’est le sous-groupe engendré par H et K.
308 Théorie des Groupes

ii. H ∩ K ⊳ K et H ⊳ HK.
iii. Les groupes HK/H et K/HK sont canoniquement isomorphes.
|H | |K |
Proposition 28.85. Soient H et K deux sous-groupes finis de G alors |HK| = |H ∩ K | .

28.5 Groupes simples


Définition 28.86. Un groupe G est dit simple si et seulement si :
i. G  {e}
ii. il n’y a pas d’autre sous-groupe normal que G et {e}.

Proposition 28.87. Les seules groupes simples abéliens sont les groupes cycliques d’ordre pre-
mier.

Proposition 28.88. Soit G  {e} un groupe alors G n’a pas d’autre sous-groupe que G et {e}
si et seulement si G est cyclique d’ordre premier.

Proposition 28.89. Si G est un groupe fini d’ordre n > 1 contenant un sous-groupe propre H
tel que : [G: H] = k > 1 et n ne divise pas k! alors G n’est pas simple.

28.6 Groupe quotient


Soit (G, .) un groupe d’élément neutre e, nous sommes amenés à nous poser les questions sui-
vantes :
1. Quelles sont les relations d’équivalence R compatible avec la l.c.i. de G qui permettent de
définir une loi quotient sur l’ensemble (G/R) ?
2. Cette loi confère-t-elle à (G/R) une structure de groupe ?
Nous allons montrer que ces relations sont des bijections, avec une classe de sous-groupes parti-
culiers, les sous-groupes distingués.

28.6.1 Relation d’équivalence modulo un sous-groupe


Soit H un sous-groupe de G. On peut définir (sur G deux relations RH et HR telles que :
y −1 ∈ H
∀(x, y) ∈ G2 xRHy ⇔ x−1
xHRy ⇔ x y∈H

28.6.1.1 Propriété

Proposition 28.90. RH et HR sont des relations d’équivalence.

28.6.1.2 Définitions

Définition 28.91. Soit H un sous-groupe de (G, RH et HR 2 relations telles que :


2 xRHy ⇔ x y −1 ∈ H
∀(x, y) ∈ G
xHRy ⇔ x −1 y ∈ H

• RH est appelé relation d'équivalence ou congruence à droite modulo H.


• H R est appelé relation d'équivalence ou congruence à gauche modulo H.

Remarque 28.92.
1. Rappel : On note H · {x} ou H · x ou encore H x l’ensemble {h x; h ∈ H }, c’est l’exten-
sion de la loi du groupe à G à P(G). De même pour {x} · H,x · H et x H.
28.6 Groupe quotient 309

2. Puisque RH et HR sont appelées congruences modulo H, par analogie avec la congruence


modulo n dans Z , on écrit :
− y ≡ x(RH ) ⇔ y ∈ H x où H x = {h x; h ∈ H }
− y ≡ x(HR) ⇔ y ∈ x H où x H = {x h; h ∈ H }
3. Les ensembles quotients (G/ RH ) et (G/ H R) sont notés (G/H)d et (G/H) g autrement
dit : (G/H)d = {Hx; x ∈ G} et (G/H) = {xH; x ∈ G} g ce sont les ensembles des classes à
droite et à gauche.
4. Si G est abélien alors RH = H R, (G/H)d = (G/H) g on le note alors (G/H).
5. En notation additive x ≡ y (RH ) s’écrit x − y ∈ H
6. Notation x̄ RH et x̄ H R sont les classes à droites et à gauche de x modulo H
7. En notation additive x̄ RH = H + x
8. Les H x sont des classes d’équivalence donc
si H x  H y alors H x ∩ Hy = ∅ (elles sont distinctes)
{H x; x ∈ G} est une partition de G.
Ces remarques sont aussi valables pour les x H ( Classe à gauche de x modulo H ).
9. Si H = G alors ∀x ∈ G, G x = x G or (G x = X et x G = G) d’où G x = x G et RG = GR
10. Si H = {e} ⇒ ∀x ∈ G, x̄ = {x} donc x̄ est à la fois classe à droite et à gauche (RH = H R).
On en déduit également que RH est l’égalité dans G.
h ′H = H

11. ∀h ′ ∈ H , H h′ = H
(puisque . est une l.c.i.), donc H est à la fois classe à gauche/droite de
h modulo H et on écrira x ≡ y mod (H).

Exemple 28.93. Z/nZ.

28.6.2 Théorème de Lagrange


Lemme 28.94. Soit G un groupe et H un sous-groupe de G, alors toute classe à droite H x (
respectivement à gauche xH) est équipotente à H.

Remarque 28.95. Autrement dit, il y autant d’éléments dans x · H que dans H. C’est à dire
card(x · H) = card(H) ou #(x · H) = #(H). Attention, ces propriétés n’imposent pas à H ou à G
d’être finis.

Corollaire 28.96. Dans un groupe deux classes à droite ou à gauche modulo un sous-groupe H
sont équipotentes.

Ces deux propriétés permettent d’établir le théorème de Lagrange :

28.6.2.1 Enoncé

Théorème 28.97. (Théorème de Lagrange) Si G est un groupe fini, alors l’ordre de tout sous-
groupe H de G divise l’ordre de G.

Corollaire 28.98.
1. Si G est un groupe fini, ∀x ∈ G, l’ordre de x divise l’ordre de G.
2. Si G est un groupe fini, pour tout sous-groupe H de G, le nombre de classe à droite
modulo H est égal au nombre de classe à gauche modulo H.

28.6.2.2 Equipotence de (G/H)d et (G/H) g

Théorème 28.99. Pour tout sous-groupe H de G, les ensembles (G/H)d et (G/H) g sont équi-
potents.
310 Théorie des Groupes

Remarque 28.100. en langage ensembliste on a : card((G/H)d ) = card((G/H) g ).

28.6.2.3 Indice d’un sous-groupe

Définition 28.101. Soit H un sous-groupe de G.


On appelle indice de H dans G le cardinal de (G/H)d ou (G/H) g. On le note [G: H].
[G: H] = card((G/H)d) = card((G/H) g).
c’est à dire, le nombre de classe à gauche ou à droite modulo H.

Remarque 28.102. On ne peut pas utiliser la notation o((G/H)d ) car G/H n’est pas automa-
tiquement un groupe !

Proposition 28.103. Si G est un groupe fini, alors pour tout sous-groupe H de G on a :


o(G)
o(G) = o(H) × [G: H] ou [G: H] = o(H)

28.6.2.4 Formule des indices

Théorème 28.104. Si H est un sous-groupe d’indice fini dans un groupe G et si K est un


sous-groupe de G contenant H alors,
1. K est d’indice fini
2. [G: H] = [G: K] × [K: H]

28.6.3 Compatibilité de RH et de HR avec la loi de composition


interne de G et premier théorème d’isomorphisme
Note 28.105. (Voir loi quotient Formulaire). Rappel : On dit que la relation R est compatible
à gauche avec la l.c.i. · si et seulement si : ∀a, a ′ ∈ G; ∀x ∈ G; aRa ′ ⇒ (x · a)R(x · a ′). Pourquoi
étudier la compatibilité ? C’est la compatibilité avec la loi qui assure l’existence de la loi quo-
tient. On va plus loin (CTES envoi 4 2.18). Les seules relations d’équivalence compatible avec la
loi d’un groupe G sont les relations modulo un sous-groupe H de G distingué dans G.

28.6.3.1 Cas général

Théorème 28.106.
− Pour tout sous-groupe H de G, la relation d’équivalence H R est compatible à droite (res-
pectivement à gauche) avec la l.c.i. de G : aH Ra ′ ⇒ (a · b)H R(a ′ · b) (resp. aH Ra ′ ⇒ (b ·
a)H R(b · a ′)). Même chose avec RH.
− Réciproquement : Soit R un relation d’équivalence définie sur un groupe G, compatible à
droite (resp. à gauche) avec la l.c.i. de G alors il existe un unique sous-groupe H de G tel
que R = RH (resp. HR).

Remarque 28.107.
1. Si la loi est compatible avec la l.c.i. (c’est à dire compatible simultanément à droite et à
gauche), on en déduit immédiatement que R = RH = H R.
2. Il serait donc intéressant d’étudier tous les groupes pour lesquels HR = RH , c’est le cha-
pitre sur les groupes distingués.

28.6.3.2 Cas où le groupe G est abélien

Corollaire 28.108. Soit G un groupe abélien et H un sous-goupe de G, alors :


1. RH =H R. Notons R cette relation.
2. R est compatible avec la l.c.i. de G.
3. (G/H) muni de la loi quotient l.c.i.a une structure de groupe abélien.
28.6 Groupe quotient 311

4. p: G → (G/H) est un homomorphisme surjectif de groupe.


x x̄

28.6.3.3 Cas où H = ker(f ) où f est un morphisme de groupe

Proposition 28.109. Pour tout morphisme f d’un groupe G dans un groupe G ′ ,


G
− L’ensemble quotient ker(f ) est un groupe par rapport à la loi de composition quotient
G
définie par : x̄ȳ = x y , ∀x̄ , ȳ ∈ ker(f ) ,
G
− La surjection canonique π: G → ker(f )
est un épimorphisme de groupes.
x  x̄

Théorème 28.110. ( 1er théorème d’isomorphisme) Pour tout morphisme f d’un groupe G dans
G
un groupe G ′ , on a : ≃ Im(f ) ψ: G/ker(f ) → Im(f ) . G/ker(f ) est isomorphe à
ker(f )
x̄  f (x)
Im(f ).

Démonstration. Elément de théorie des groupes (josette calais, puf-p.84) 

28.6.3.4 Cas où H est sous-groupe normal (i.e. distingué)

Théorème 28.111.
1. Soit H un sous-groupe normal d’un groupe (G, ∗ ), G/H l’ensemble quotient et la loi de
composition quotient ∗
¯ définie par x̄ ∗¯ ȳ = x ∗ y , ∀x̄ , ȳ ∈ G/H alors (G/H , ∗¯) est un
groupe.
2. Sous les mêmes conditions l’application π: G → G/H est un épimorphisme de groupe.

Remarque 28.112. Avec l’habitude, on peut aussi noter ∗ la loi ∗¯. En gardant toujours en
mémoire qu’il s’agit bien de deux lois différentes, car elles ne s’appliquent pas aux mêmes objets.

Proposition 28.113. La l.c.i. de G est compatible avec les relations HR et RH ⇔ H ⊳ G.

Remarque 28.114. si H ⊳ G alors on notera x ≡ y (mod H) x équivalent à y modulo H au lieu


de xRHy ou xHRy.

28.6.4 Définition
Note 28.115. Donnons un nom au groupe défini précédement et étudions ses propriétés.

Définition 28.116. Soit (G, ∗ ) un groupe, H ⊳ G et ¯∗ la loi de composition interne définie par
x̄ ¯∗ ȳ = x ∗ y, où x̄ = {y; xRHy }. On appelle groupe quotient de G par le sous-groupe normal
H, le groupe (G/H , ¯ ∗).

Remarque 28.117. Avec l’habitude, on peut aussi noter ∗ la loi ∗¯. En gardant toujours en
mémoire qu’il s’agit bien de deux lois différentes, car elles ne s’appliquent pas aux mêmes objets.

28.6.5 Propriété universelle du groupe quotient


Proposition 28.118. (Universelle du groupe quotient) Soit G un groupe, H un sous-groupe
normal de G, π: G → G/H l’épimorphisme canonique. Alors ∀le groupe G’ et l’homomorphisme
f : G → G ′ tel que H ⊂ ker(f ), il existe un unique homomorphisme ϕ: G/H → G ′ tel que : ϕ ◦ π =
f de plus :
i. f surjectif ⇒ ϕ surjectif.
312 Théorie des Groupes

ii. H = ker(f ) ⇒ ϕ injectif.

28.6.6 Sous groupe d’un groupe quotient


Proposition 28.119. Soit G un groupe, H ⊳ G et π: G → G/H l’épimorphisme canonique.
i. Tout sous-groupe K̄ de G/H est l’image par π d’un unique sous-groupe de G contenant
H. Plus précisément on a : K̄ = π(K) = K/H où K = π −1(K̄ ).
ii. si K1 est un sous-groupe de G tel que H K1 alors H · K1 est un sous-groupe de G conte-
nant H et : π(K1) = H · K1/H.

Proposition 28.120. Soit G un groupe et H ⊳ G.


i. Si K et K ′ sont 2 sous-groupes de G contenant H alors (H 6 K 6 K ′) ⇒ (K/H 6 K ′/H).
ii. (H 6 K , K ⊳ G) ⇔ (K/H ⊳ G/H).

28.6.7 Théorème d’isomorphisme


Théorème 28.121. (Théorème de factorisation des morphismes) Soit G et G ′ deux groupes.
Pour tout homomorphisme f : G → G ′ on a : G/ker(f ) ≈ Im(f ) (est isomorphe à). On peut
trouver un isomorphisme est tel que f¯ : G/ker(f ) → Im(f ) = f (G), f = i ◦ f¯ ◦ s où s: G → G/
ker(f ) est la surjection canonique et i: f (G) → G ′ est l’injection canonique.

Lemme 28.122. Soit G et G ′ 2 groupes, H ⊳ G, H ′ ⊳ G ′ et f : G → G ′ un morphisme tel que


f (H) ⊂ H ′. Il existe un unique morphisme f¯ : G/H → G ′/H ′ tel que : f¯ ◦ π = π ′ ◦ f (où π, π ′
sont les épimorphismes canoniques). De plus
i. π ′ ◦ f surjectif ⇒ f¯ surjectif.
ii. (f −1(H ′) = H) ⇒ f¯ injectif.

Théorème 28.123. Soit G un groupe, H et K 2 sous-groupes de G avec H ⊂ K , H ⊳ G, K ⊳ G


G/H
alors G/K ≈ K/H .

Théorème 28.124. Soit G un groupe, H ⊳ G alors pour tout sous-groupe K de G, les groupes
quotients K/(H ∩ K) et H · K/H existent et sont isomorphes : K/(H ∩ K) ≈ H · K/H.

28.7 Exemples et études de groupes finis

28.7.1 Groupes symétriques et le groupe symétrique (Sn, ◦ )


Rappel : on appelle permutation de E toute bijection de E dans E.
Soit E un ensemble vide (fini ou non). Notons SE l’ensemble de permutations de E.
Notation : Nn = {1; 2;  ; n}.

Proposition 28.125. (SE , ◦ ) est un groupe ( ◦ est la loi de composition des applications).

Définition 28.126. Le groupe (SE , ◦ ) est appelé groupe symétrique de E ou groupe des
permutations de E.
Cas particulier : le groupe symétrique de Nn est appelé groupe symétrique de degré n, on
le note SN n ou plus simplement Sn.

Proposition 28.127. Soient 2 ensembles E et E’ s’il existe une bijection ϕ: E → E ′ (i.e. E


équipotent à E ′ ) alors SE et SE ′ sont isomorphes.
28.7 Exemples et études de groupes finis 313

Théorème 28.128. (Théorème de Cayley) Tout groupe G est isomorphe à un sous-groupe de


son groupe symétrique SG.

Note 28.129. Il serait utile de donner un exemple d’isomorphisme !


Conséquence : tout sous-groupe fini d’ordre n est isomorphe à un sous-groupe symétrique Sn.
Cas particulier : Si E est fini, si card(E) = n est si E = {x1, x2,  , xn }
Soit ϕ: Nn → E alors Ψ: Sn → SE ∀xi ∈ E , Ψ(σ)(xi) = xσ(i).
i xi  σ xσ◦ϕ−1 
Tout ensemble des permutations (d’un ensemble de cardinal n) est isomorphe à l’ensemble
des permutations de Nn. On peut donc identifier SE à Sn en notant σ l’élément Ψ(σ) de E.
Conséquence : pour n > 1, nous considèrerons, le groupe Sn comme étant le groupe symé-
trique de tout ensemble de cardinal n. Etudier SE revient à étudier Sn. Dans la suite du cours
toute permutation sera par conséquent une permutation du groupe Sn.

28.7.2 Etude de Sn
Rappel : Sn est un groupe fini d’ordre n.

Notation : Soit σ ∈ Sn, σ: [1; n] → [1; n] on écrira alors que :


i σ(i) 

σ = σ(1) σ(2) σ(3)  σ(n) ou σ = (σ(1); σ(2); σ(3);  ; σ(n))
 
1 2 3 n

Remarque 28.130. pour n > 2, Sn n’est pas un groupe commutatif.


Contre exemple :Soient σ, τ ∈ Sn définies par :
σ = 12 12 33  1 2 3  n
  

 4
n
et τ = 3 1 2  4

alors σ ◦ τ = 3 2 1  4 mais τ ◦ σ = 11 32 32 
1 2 3  n
  
n
 4
conclusion : σ ◦ τ  τ ◦ σ

Notation : Soient σ ∈ Sn et k ∈ N alors on notera :


− σk = σ ◦ σ ◦  ◦ σ
− σ −k = σ −1 ◦ σ −1 ◦  ◦ σ −1
− σ 0 = IdSn

Proposition 28.131. On en déduit que ∀σ ∈ Sn, on a σ n! = Idn.

Note 28.132. Pourquoi « on en déduit » ? cela est-il évident ? Je ne trouve pas de propriété
des groupes permettant de répondre aussi rapidement !

28.7.2.1 Support d’une permutation

Définition 28.133. Soit σ ∈ Sn, on appelle support de σ est l’ensemble noté supp(σ) des élé-
ments qui ne sont pas l’image d’eux même par σ. supp(σ) = {i ∈ Nn; σ(i)  i}.
 
1 2 3 4 5 6 7 8
Exemple : Définissons σ par σ =
 1 5 2 4 8 3 7 6
on a :

 σ(2) = 5 
 σ(3) = 2  σ(1) = 1


σ(5) = 8 et σ(4) = 4 donc supp(σ) = {2; 3; 5; 6; 8}.
 σ(6) = 3 σ(7) = 7

 

σ(8) = 6

Remarque 28.134.
− Dans Sn, σ = Id ssi supp(σ) = ∅.
− Si σ  Id dans Sn alors la restriction de σ à supp(σ) est une permutation sur supp(σ).
− supp(σ k) ⊂ supp(σ).
314 Théorie des Groupes

− i ∈ supp(σ) ⇔ σ(i) ∈ supp(σ).


− hσi opère sur supp(σ).

Proposition 28.135. Dans tout groupe Sn deux permutations σ1 et σ2 de supports disjoints


commutent. On a alors σ1 ◦ σ2 = σ2 ◦ σ1.

Exemple 28.136.
1 2 3 4 5 6 7 8 9 10
 
1. Soit la permutation σ de Sn définie par σ = 10 9 4 7 5 6 1 8 2 3
Par définition supp(σ) = {1; 2; 3; 4; 7; 9; 10}.
puisque σ(1)  1; σ(2)  2; σ(3)  3; σ(4)  4; σ(7)  7; σ(9)  9; σ(10)  10.
On vérifie également que σ est une bijection de supp(σ) → supp(σ), i.e. une permuta-
tion de supp(σ).
2. Soit σ1 et σ2 deux permutations de Nn telles que :
σ1 = (9; 2; 1; 4; 5; 6; 7; 8; 3; 10) et σ2 = (1; 10; 3; 4; 8; 6; 7; 2; 9; 5).
supp(σ1) = {1; 3; 9}
supp(σ2) = {2; 8; 10; 5}
supp(σ1) et supp(σ2) sont bien disjoints.
Calculons σ1 ◦ σ2 et σ2 ◦ σ1
2 3 4 5 6 7 8 9 10

σ1 ◦ σ2 = 19 10 1 4 8 6 7 2 3 5
1 2 3 4 5 6 7 8 9 10
 
σ2 ◦ σ1 = 9 10 1 4 8 6 7 2 3 5

Conclusion : on vérifie bien que σ1 et σ2 commutent si leurs supports sont disjoints

28.7.2.2 σ-orbite ( ou orbite d’un élément de E suivant σ )

Proposition 28.137. Soit σ une permutation et Rσ la relation définie par (xRσ y) ⇔ (∃k ∈ Z;
σ k(x) = y). Rσ est une relation d’équivalence.

Définition 28.138. On appelle orbite d’un élément a de E suivant σ la permutation (ou σ-


orbite de a) la classe d’équivalence de a modulo Rσ. On la note Ωσ (a). On a ainsi Ωσ(a) = ā.

Proposition 28.139. Les éléments de l’ensemble quotient E \Rσ (ensemble des σ-orbites de E)
réalisent une partition de E.

Exemple 28.140.
1 2 3 4 5 6 7 8 9 10
 
Si E = N10 définissons σ par σ = 3 10 6 4 2 1 7 5 8 9
.
On a σ(1) = 3 ; σ(3) = 6 ; σ(6) = 1 d’où 1̄ = {1; 3; 6}.
De même on a 2̄ = {2; 5; 8; 9; 10}.
puisque 3 ∈ 1̄ on a 3̄ = 1̄.
par contre σ(4) = 4 d’où 4̄ = {4}.
comme précédement puisque 5 ∈ 2̄ on a 5̄ = 2̄ de même 6̄ = 1̄ ; 7̄ = 7̄ ; 8̄ = 9̄ = 2̄
On dénombre 4 σ-orbites 1̄ = {1; 3; 6} ; 2̄ = {2; 5; 8; 9; 10} ; 4̄ = {4} ; 7̄ = {7}.

 1̄ ∪ 2̄ ∪ 4̄ ∪ 7̄ = E
On vérifie que l’on a bien ∀(i; j) ∈ E 2, i  j ⇒ i¯ ∩ j¯ = ∅ en d’autres termes 1̄; 2̄; 4̄; 7̄ est une parti-
∀i ∈ E; i  ∅

tion de E.

Proposition 28.141. Soit Ωσ (a) une σ-orbite de a.


− alors Ωσ(a) est invariante par σ.
− l’application induite par σ sur Ωσ(a) est une bijection.
− si Ωσ (a) n’est pas un singleton, aucun de ses éléments n’est invariant par σ.

Proposition 28.142. Soit Ωσ(a) une σ-orbite de a. Si p = card(Ωσ(a)) avec p > 1 alors
Ωσ (a) = {a; σ(a);  ; σ p−1(a)}.
28.7 Exemples et études de groupes finis 315

28.7.3 Cycle et longueur d’un cycle


Définition 28.143. Une permutation σ de Sn est un cycle de longueur r ou r-cycle, ssi il
existe un ensemble ordonné de r entiers de Nn : {j1; j2;  ; jr } tels que :

σ(j1) = j2; σ(j2) = j3;  ; σ(jr) = j1




σ(k) = k; ∀k ∈ Nn \{j1; j2;  ; jr }

ce cycle sera noté σ = (j1; j2;  ; jr).

Remarque 28.144. Le support de σ est l’ensemble {j1; j2;  ; jr } est appelé ?.

Exemple 28.145. La permutation σ: 1 


3 est un cycle, σ s’écrit (1; 3; 5). On ne note pas
2 2
3 5
4 4
5 1
les valeurs invariantes. Puis on 1; σ(1) = 3 et σ(3) = 5.

Exemple 28.146. ... de composition de cycles dans S5. c1(1; 2) et c2(3; 4; 5).
c1

c2
 1  2
1 2
 
2
2  1
On a
2 1
 
1
c ◦c : 3  4 . (3; 4; 5) ◦ (1; 2) = ?
3 3
 
4 2 1
4  5
4
5
4
5 
5
3
5  3

Proposition 28.147. Si σ et σ ′ sont deux cycles de supports disjoints, on a : σ ◦ σ ′ = σ ′ ◦ σ (les


cycles de supports disjoints commutent).

Proposition 28.148. Soit σ un cycle de longueur p alors σ p = IdE.

Définition 28.149. Dans un groupe Sn, on dira que deux cycles sont disjoints ssi leur sup-
ports sont disjoints.

Proposition 28.150. L’ordre d’un r-cycle est r.

Théorème 28.151. Soit σ ∈ Sn un k − cycle. c = (c1,  , ck) alors σ ◦ c ◦ σ −1 est aussi un k-


cycle et σ ◦ c ◦ σ −1 = (σ(c1);  ; σ(cn)).

Démonstration. Cours de licence de mathématique page 47 (Zeng) 

Proposition 28.152.
1. Le conjugué d’un k-cycle est un k-cycle.
2. Deux k-cycles quelconques sont conjugués.
3. Deux permutations (  Id) sont conjuguées si et seulement si dans leur décomposition
apparait le même nombre de k-cycles.

Remarque 28.153. Appliquons les propositions précédentes : Soit i¯ , j¯ ∈ Z/nZ, (i¯ , j¯ ) = c ◦


(j − 1, j) ◦ c−1, c = (i¯ , i + 1,  , j − 1).

28.7.4 Transposition
Définition 28.154. On appelle transposition, tout cycle de longueur 2.
On notera τa,b ou (a, b) la transposition telle que τa,b(a) = b et τa,b(b) = a.
316 Théorie des Groupes

 
1 2 3 4 5
Exemple 28.155. Pour n = 5, τ2,4 = 1 4 3 2 5
.

Proposition 28.156. − τa,b ◦ τa,b = IdE


− τa,b ◦ τa,c ◦ τa,b = τb,c, pour tout Sn où n > 2.

Définition 28.157. On appelle transposition simple , toute transpositions de la forme (i; i +


1) telles que (1 6 i 6 n − 1).

28.7.5 Décomposition d’une permutation


28.7.5.1 Décomposition en cycle

Théorème 28.158. Soit une permutation σ telle que σ  IdN n et σ ∈ Sn alors σ se décompose
de manière unique (à l’ordre des facteurs près) en un produit de cycles disjoints, différent de
IdN n.

Remarque 28.159.
− Etant donné son unicité, la décomposition d’une permutation σ sera appelée : Décomposi-
tion canonique de σ en produit de cycles.
− Le théorème précédent entraîne que tout groupe Sn est engendré par l’ensemble de ses
cycles.

Théorème 28.160. Soit une permutation σ de Sn telle que σ  IdN n avec n > 1.
Si σ = γ1 ◦ γ2 ◦  ◦ γs est la décomposition canonique de σ alors l’ordre de σ dans le groupe
Sn est égal au ppcm des longueurs des cycles γ q , (1 6 q 6 s).

28.7.5.2 Décomposition en transposition

Remarque 28.161. (i1,  , ik) = (i1,  , ik−1) ◦ (ik−1, ik).

Théorème 28.162. Pour tout n dans N, toute permutation σ de Sn, se décompose (de manière
non unique), en un produit de transposition (non permutable, en général).

Théorème 28.163. Tout groupe symétrique Sn , (n > 2) est engendré par l’ensemble des (n − 1)
transpositions de la forme (1; i) tel que (2 6 i 6 n − 1).

28.7.5.3 Décomposition en transposition simple

Théorème 28.164. Tout sous-groupe Sn , (n > 2) est engendré par les (n − 1) transpositions
simples.

Exemple 28.165.

28.7.6 Inversion d’une permutation


Définition 28.166. soit σ ∈ Sn.
On dit que l’élément σ(j) possède une inversion avec l’élément σ(i) ssi on a :
i < j et σ(i) > σ(j)

28.7.7 Signature d’une permutation


Définition 28.167. On appelle signature d’une permutation σ le nombre noté ε(σ) tel que :
ε(σ) = ( − 1)I (28.1)
Où I est le nombre total d’inversions de la permutation σ.
28.7 Exemples et études de groupes finis 317

Définition 28.168. Soit une permutation σ.


− on dit que la permutation est paire ssi ε(σ) = 1.
− on dit que la permutation est impaire ssi ε(σ) = − 1.

Proposition 28.169.
1. Toute transposition est impaire : ε(σ) = − 1.
2. Soit σ une permutation de Sn, τ une transposition alors ε(τ ◦ σ) = − ε(σ).
3. Si la permutation σ est la composée de h transpositions, on a alors : ε(σ) = ( − 1)h.
4. Soient σ1 et σ2 deux permutations de Sn. On a ε(σ1 ◦ σ2) = ε(σ1) × ε(σ2) autrement dit
Sn → { − 1, + 1}
l’application : ε:
σ  ε(σ)
est un homomorphisme ( plus exactement un épi-
morphisme ) de groupe.
5. Soit σ une permutation de Sn, on a ε(σ) = ( − 1)n−t où t est le nombre des σ-orbites dis-
Y σ(k) − σ(i)
tinctes. ε(σ) = ??????????????????????????.
k−i
16i6k6n

6. La signature d’un k-cycle est ( − 1)k −1.

28.7.8 Groupe alterné An


Définition 28.170. Pour tout n ∈ N ′ , on appelle Groupe µAlterné de degré n et on note
An, l’ensemble des permutations paires de Sn.

Remarque 28.171. Il faut maintenant justifier ce nom ! que designe N’ ????

Proposition 28.172. Pour tout n > 2, le groupe alterné de degré n An


1. forme un sous-groupe de Sn,
n!
2. d’autre part c’est un sous-groupe d’ordre 2
.

Remarque 28.173. An est le noyau de ε.

Proposition 28.174. Pour n > 2, le groupe An est simple.

Démonstration. Cours de licence ATN page 52 

Note 28.175. Importante, car c’est le point de départ de la théorie de Galois.

Lemme 28.176. Pour n > 5 les 3-cycles sont conjugués dans An.

Lemme 28.177. Le commutateur de s et c; ρ = s c s−1 c−1 appartient à H. ρ  Id et ρ laisse


fixe au moins n − 5 élément de [n].

Lemme 28.178. H contient un 3-cycle.

Lemme 28.179. Pour n > 3, les 3-cycles engendrent An.

28.7.9 Groupes diédraux Dn


Soient P le plan affine et I(2) le groupe des isométries du plan P (exemple (1.34)). On rappelle
que I(2) est un sous-groupe du groupe symétrique SP et que, dans le plans P , toute rotation,
toute symétrie par rapport à une droite est un élément du groupe I(2) (exercice 26, chap. I).
Pour n > 2 dans N, notons Pn un polygone régulier à n sommets dans le plan P . Soit Dn
l’ensemble des isométries du plan P qui conservent le polygone, autrement dit, qui conservent
globalement l’ensemble de ses n sommets.
318 Théorie des Groupes

Proposition 28.180. On vérifie facilement que Dn est un sous-groupe de I(2).

Définition 28.181. Pour tout n > 2 dans N, le groupe Dn est appelé groupe diédral de degré
n.

Proposition 28.182. Pour tout n > 2 dans N, le groupe diédral Dn est fini d’ordre 2n.

Proposition 28.183. Les notations sont celles de la proposition précédente.


1. Dans tout groupe diédral Dn , (n > 2), tout élément ρk1 ◦ σ(0 6 k 6 n − 1)est d’ordre 2.
2. Dn est non abélien pour n > 3.

Proposition 28.184. Tout groupe G engendré par deux éléments a et b tels que o(a) = n, (n >
2); o(b) = 2 et o(a b) = 2 est isomorphe au groupe diédral Dn.

Définition 28.185. ?

28.8 Groupe opérant sur un ensemble


Note 28.186. Deux points de vue permettent d’aborder cette notion. Le plan proposé par
Zeng et repris initiallement ici me semble le plus simple. Mais il faut retenir la méthode de pas-
sage de l’un à l’autre.

28.8.1 Définitions
Définition 28.187. On dit qu’un groupe (G, ∗ ) d’élément neutre ε opère ou agit à gauche
sur un ensemble E ou que G est muni d'une action de groupe ou encore que G est le
groupe opérateur à gauche ssi il existe une application de G × E → E dite action à gauche
de G sur E et notée · telle que :
i. ∀x ∈ E , ∀α, β ∈ G, α · (β · x) = (α ∗ β) · x (associativité de l’action)
ii. ∀x ∈ E , ε · x = x. (action de l’élément neutre)

Définition 28.188. Les éléments d’un groupe opérateur sont les opérateurs.
Remarque 28.189.
1. On définit de la même manière un groupe opérant à droite. Dans la suite, nous convien-
drons de dire qu’un groupe opére sur un ensemble ssi il opére à gauche sur E. Dans ce
cas, E est appelé un G-ensemble.
2. Voir exemples cours Puf Théorie des groupes p.176.
3. Ces définitions ne sont pas exclusives aux groupes voir : Action d’Ensemble et Domaine
Opérateur. Elles traduisent simplement l’existence d’une loi de composition externe sur
un ensemble donné dont l’ensemble des opérateurs est un groupe.
4. Seconde approche : On dit que G opère sur E à l’aide d’une application bijective ϕ: E →
E ou l’... On appelle action à gauche du groupe G sur un ensemble E, un homomor-
phisme ϕ: G → SE (SE étant le groupe des permutations i.e. des bijections de E → E).
Autrement dit ∀α, β ∈ G, ϕ(α ∗ β) = ϕ(α) ◦ ϕ(β). Dans le cours de Zeng cette approche
est aussi abordée 28.153 et 28.155 ci-après. Si ϕ est injective alors l’action est dite fidèle
c’est à dire ∀α, β ∈ G, ∀x ∈ E , ϕ(α; x) = ϕ(β ; x) ⇒ (α = β). Si

Définition 28.190. On dit que (G, ∗ ) opère dèlement à gauche si et seulement si :


∀α, β ∈ G, ∀x ∈ E , (α · x = β · x) ⇒ (α = β)

Définition 28.191. On dit que (G, ∗ ) opère librement à gauche si et seulement si :


∀α ∈ G, ∀x, y ∈ E , (α · x = α · y) ⇒ (x = y) ou ∀α ∈ G, ∀x, y ∈ G, (x  y) ⇒ (α · x  α · y)
28.8 Groupe opérant sur un ensemble 319

Définition 28.192. On dit que (G, ∗ ) opère transitivement à gauche si et seulement si :


∀x, y ∈ E , ∃α ∈ G, y = α · x.

Remarque 28.193. L’unicité de α n’est pas imposée !

Définition 28.194. On dit que (G, ∗ ) opère simplement à gauche si et seulement si :


∀x ∈ E , ∀α ∈ G, (α · x = x) ⇒ (α = ε), ε élément neutre de G.

Note 28.195. Selon CTES cette définition équivaut à dire que la loi est fidèle. Pour d’autre,
simplement signifie librement et transitivement. Quelle est la bonne définition ?

Remarque 28.196. Seconde approche

Proposition 28.197. Soit (G, ∗ ) un groupe opérant sur E.

1. ∀m ∈ G, l’application γ g : E → E est une permutation de E.


x m·x
2. Soit (SE , ◦ ) le groupe des permutations de E, l’application γ: G → SE est un mor-
g 
γg
phisme de groupe et Ker(γ) est appelé le noyau de l’action de G sur E.

Remarque 28.198. Autrement dit à toute action de G → E correspond un homomorphisme de


groupes, γ: G → SE appelé représentation de G. On montre que l’existence d’un tel homomor-
phisme permet de définir une action de groupe d’où le corollaire suivant :

Corollaire 28.199. Un groupe (G, ∗ ) opère sur un ensemble E ssi il existe un homomorphisme
γ: G → SE où (SE , ◦ ) est le groupe des permutations de E.

Proposition 28.200.
1. γ opère fidèlement si et seulement si sont application partielle γ(•; x) est injective par
rapport aux opérateurs c’est à dire : ∀α, β ∈ G, ∀x ∈ E , γ(α; x) = γ(β ; x) ⇒ (α = β).
2. γ opère librement si et seulement si sont application partielle γ(•; x) est injective par rap-
port aux éléments de l’ensemble c’est à dire : ∀α ∈ G, ∀x, y ∈ E , γ(α; x) = γ(α ; y) ⇒ (x =
y).
3. γ opère transitivement si et seulement si sont application partielle γ(•; x) est surjective
par rapport aux opérateurx c’est à dire : ∀x, y ∈ E , ∃α ∈ G, y = γ(α; x).
4. γ opère simplement si et seulement si (γ(α; x) = x) ⇒ (α = ε).

Exemple 28.201.

1. Tout groupe opère (G, ∗ ) sur lui même par translation : · : G × G → G


(m, x) m∗x
2. Tout groupe opère (G, ∗ ) sur lui même par conjugaison : · : G × G → G
(m, x) 
m ∗ x ∗ m−1
3. Tout groupe opère (G, ∗ ) sur P(G) par conjugaison : · : G × P(G) → P(G)
(m, S) 
m ∗ S ∗ m−1
4. Soit (H , ∗ ) un sous-groupe de (G, ∗ ) alors (G, ∗ ) opère sur l’ensemble (G/H) g des classe
à gauche modulo H par : · : G × G/H → G/H
(m, x H) m∗xH
5. Soit E un ensemble non vide alors le groupe (SE , ◦ ) des permutations de E opère sur E
par · : SE × E → E .
(σ, x) 
σ(x)
320 Théorie des Groupes

6. Soit un groupe G et H 6 G. Alors le noyau de l’action de G sur QH = (G/H) g est :


i. −1
.
T
x∈G x H x
ii. c’est le plus grand sous-groupe de G, normal dans G et contenu dans H.

28.8.2 Fixateur

Définition 28.202. Soit (G, ∗ ) un groupe opérant sur E d’action · : G × E → E et g ∈


(m, x) m·x 
G.
On appelle xateur de m, l’ensemble noté fix(m) tel que ∀m ∈ E , fix(g) = {x ∈ E; m · x = x}.
C’est l’ensemble des éléments de E qui sont fixes par l’action de l’élément m de G (du groupe
d’opérateurs).

28.8.3 Stabilisateur
Définition 28.203. Soit (G, ∗ ) un groupe, E un G-ensemble. L’ensemble {m ∈ G; m · x = x} de
G associé à un élément x de E est appelé sous-groupe d'isotropie ou stabilisateur de x, on
le note stab(x) ou Sx et ∀x ∈ E , stab(x) = {m ∈ G; m · x = x}. Autrement dit c’est l’ensemble des
éléments de G (groupe opérateur) qui laissent fixe l’élément x de E par la loi d’action.

Proposition 28.204. Soit (G, ∗ ) un groupe opérant sur E d’action · : G × E → E .


(m, x) m·x 
L’ensemble : {m ∈ G; m · x = x} (i.e. les stabilisateur de x) est un sous-groupe de G.

Remarque 28.205. C’est cette proposition qui justifie le terme de sous-groupe (d’isotropie).

28.8.4 Orbite
Définition 28.206. Soit E un G-ensemble. On appelle orbite de x suivant G ou G-orbite
de x et on note Ωx l’ensemble des éléments de E qui sont obtenus par action d’un élément de G
sur x. Ωx = {m · x; m ∈ G}.

Définition 28.207. Si E est un G-ensemble, toute G-orbite reduite à un seul élément sera dite
ponctuelle.

Remarque 28.208. Voir cours Puf Théorie des groupes p.179.

28.8.5 Exemples classiques


Exemple stabilisteur Notes Orbite Notes
1 stab(x) = {1G } Ωx = G
2 stab(x) = Z(G) centre de G Ωx = {g ∗ x ∗ g −1; g ∈ G} classe de conjugaison de x
3 stab(S) = NG(S) normalisateur de S Ωx = {g ∗ S ∗ g −1; g ∈ G} classe de conjugaison de S
4 stab(x H) = x H x −1 Ωx = G/H
5 stab(x) = SE Ωx = E

28.8.6 Propriétés des stabilisateurs et orbites


Proposition 28.209. Soit E un G-ensemble et ρG la relation binaire dans E telle que
(xρGy) ⇔ (∃m ∈ G; y = m · x) alors
1. ρG est une relation d’équivalence dans E.
2. Les classes d’équivalence sont les ensembles Ωx = {m · x; m ∈ G}, autrement dit les orbites
de x suivant G.
28.9 Groupes finis, p-groupe, p-sous-groupe et théorèmes de Sylow 321

Proposition 28.210. (Evident) Les orbites des éléments sous l’action de G forment une parti-
tion de E.

Théorème 28.211. Soit G un groupe, E un G-ensemble alors ∀(x, y) ∈ E 2, (xρGy) ⇔ y ∈


(Ωx ou x ∈ Ω y) ⇒ ( stab(x) et stab(y) conjugués dans P(G)).

Théorème 28.212. Soit G un groupe, E un G-ensemble alors ∀x ∈ E, on a :


1. card(Ωx) = [G: stab(x)]
2. si G est d’ordre fini card(stab(x)) et card(Ωx) divisent o(G), puisque card(Ωx) =
card(G)
card(stab(x))
(o(G) c’est ...).

Remarque 28.213. Si G est fini card(Ωx) et card(stab(x)) divisent card(G). C’est le théorème
précédent.

Théorème 28.214. Soit E un ensemble fini et G un groupe opérant sur E. Si {xi }16i6r est
une famille de représentants des G-orbites distinctes, alors :
Xr r
X
card(E) = [G: stab(xi)] i.e. card(Ωxi). (Equation des classes)
i=1 i=1

Proposition 28.215. Soit G un groupe fini opérant sur un ensemble fini E. Soit (Ωi)16i6k les
orbites sous cette action.
1 X
Le nombre d’orbite est k = card(fix(g)) (formule de Burnside).
card(G)
g ∈G

Note 28.216. Pourquoi avoir introduit les orbites dans cette définition ?

Exemple 28.217. Examinons quelques cas particuliers :


1. E = P(G) :
Soit G un groupe opérant sur P(G) par conjugaison. ∀S ∈ P(G), on a : card(ΩS ) =
[G: NG(S)].
2. E = G :
i. Soit G un groupe fini opérant sur lui-même par conjugaison si {xi }16i6r est une
famille de représentants de classe de conjugaison distinctes dans G :
Xr
o(G) = [G: ZG(xi)] (équation aux classes (1)).
i=1
ii. Soit G un groupe fini opérant sur lui-même, de centre Z(G) et {xi }16i6k une
famille de représentants de classes de conjugaison distinctes et non ponctuelles de
G, alors : k
X
o(G) = o(Z(G)) + [G: ZG(xi)] (équation aux classes (2)).
i=1
iii. Soit G un groupe fini opérant sur un ensemble fini E. Soit (Ωi)16i6k les orbites
1 X
sous cette action. Le nombre d’orbite est k = card(fix(g))
card(G)
g ∈G

Note 28.218. D’où vient cette différence de forme ! ? La formule (2) vient uniquement du fait
que l’on ne considère que les classes non ponctuelles. Exercice associé : annales licence maths
sujet avril 2001 ATN.

28.9 Groupes finis, p-groupe, p-sous-groupe et théorèmes de


Sylow
p-torsion ?
322 Théorie des Groupes

28.9.1 p-sous-groupe d’un groupe fini


Définition 28.219. Soit G un groupe fini. On dit que G est un p-groupe ssi o(G) = pn, où p est
un nombre premier, n ∈ N.

Définition 28.220. Soit G un groupe fini et H un sous-groupe de G.


i. H est un p-sous-groupe de G ssi H est un p-groupe.
ii. si o(H) = pn et si pn est la plus haute puissance de p divisant l’ordre de H, on dit que H
est un p-groupe de Sylow de G.

28.9.2 Premier théorème de Sylow


Théorème 28.221. Soit G un groupe fini et p un nombre premier divisant l’ordre de G.
Si o(G) = s pn avec s non divisible par p alors ∀r ∈ {1;  ; n}, il existe un sous-groupe de G
d’ordre pr.

Théorème 28.222. (Théorème de Cauchy) Soit G un groupe fini. Si p est nombre premier
divisant o(G) alors G a au moins un élément d’ordre p.

Démonstration. Algèbre et géométrie Bréal page 45. Cours licence ATN page 31. 

Enoncé Soit G un groupe fini d’ordre spn où p est premier et ne divise pas s alors G contient
au moins un sous-groupe d’ordre pn.

28.9.3 Second théorème de Sylow


Théorème 28.223. Soit G un groupe fini et p un nombre premier divisant o(G) alors
i. Tout sous-groupe de G est contenu dans un p-sous-groupe de Sylow de G.
ii. Les p-sous-groupes de Sylow de G sont conjugés.
iii. Le nombre des p-sous-groupes de Sylow de G est congru à 1 modulo p et divise l’ordre de
G.

Remarque 28.224.
1. Un groupe fini G a un unique p-sous-groupe de Sylow ssi S est normal dans G.
2. Dans un groupe fini abélien G, pour tout nombre premier p divisant l’ordre de G, il
n’existe qu’un seul p-sous-groupe de Sylow.
3. Application voir Puf théorie des groupes p.212.

Définition 28.225. Soit p un nombre premier et G un groupe abélien. Un élément x ∈ G est dit
p-torsion ssi l’ordre de x est une puissance de p. On note : G p = {x ∈ G; x est p − torsion}.

Proposition 28.226. Si G est abélien, G p est un sous-groupe de G.

Proposition 28.227. Si un nombre premier p ∤ |G| alors G p = {OG }.

Théorème 28.228. (Théorème de Cauchy) Soit G un groupe fini et p un nombre premier. Si p


divise O(G), alors G contient un élément d’ordre p.

Proposition 28.229. Le groupe produit direct (G1 × G2) de deux groupes cycliques G1 et G2
d’ordre m et n est cyclique ssi pgcd(m, n) = 1.

Corollaire 28.230. Si n = pn1 1 ×  × pnmm est la factorisation en nombres premiers de n alors :


28.10 Produit direct de groupes 323

Z/nZ @ Z/pn1 1Z ×  × Z/pnmmZ.

Exemple 28.231.
• Z/5Z × Z/5Z × Z/9Z non cyclique et Z/25Z × Z/9Z cyclique donc non isomorphes.
• Z/2Z × Z/2Z non cyclique et Z/4Z cyclique donc non isomorphes.

28.10 Produit direct de groupes


(à déplacer)

28.10.1 Produit direct de deux groupes


Proposition 28.232. Soient (G1, · ) et (G2, + ) deux groupes.
Si ∗ est la loi :
∗: (G1 × G2)2 → G1 × G2 alors (G1 × G2, ∗ ) est un groupe.
((x1, x2); (y1, y2)) (x1 · y1; x2 + y2)

Définition 28.233. Soient (G1, · ) et (G2, + ) deux groupes.


On appelle groupe produit direct des groupes (G1, · ), (G2, + ) le groupe (G1 × G2, ∗ ) où ∗
est la loi de composition interne définie par :
∗: (G1 × G2)2 → G1 × G2 .
((x1, x2); (y1, y2)) (x1 · y1; x2 + y2)

Proposition 28.234.

i. Les projections canoniques : p1: G1 × G2 → G1 et p2: G1 × G2 → G2 sont des épi-


(x1, x2) x1  (x1, x2) 
x2
morphismes de groupes.

ii. Les injections canoniques : q1: G1 → G1 × G2 et q2: G2 → G1 × G2 sont des mono-


x1 
(x1, 1G2) x2 (1G1, x2) 
morphismes de groupes.

Remarque 28.235. G1 @ Im(q1) et G2 @ Im(q2).

Proposition 28.236. o(G1) × o(G2) = o(G1 × G2)

Proposition 28.237. Soient deux groupes G1 et G2. Un groupe G est isomorphe à G1 × G2 ssi
il contient deux sous-groupes H1 et H2 tels que :
i. Hi @ Gi , i = 1, 2.
ii. ∀hi ∈ Hi , h1h2 = h2h1.
iii. G = H1H2.
iv. H1 ∩ H2 = {1G }.

Exemple 28.238.
1. G = (R∗, · ) est un groupe multiplicatif, il suffit de prendre G1 = { − 1, + 1}, G1 6 G, G2 =
 
R∗+. G @ G1 × G2 , x (signe(x), |x|) , x · y (sign(x y), |x y|) = (sign(x), |x|) · (sign(y),
|y |).
2. G = (C∗, · ) G1(R∗+, · ), G1 6 G, G2 = {z ∈ C; |z | = 1} 6 G. G @ G1 × G2 , z  (|z |, z
|z |
).

Remarque 28.239. On peut généraliser la définition et les propositions précédentes à une


famille finie de groupes, c’est l’objet de la section suivante.
324 Théorie des Groupes

28.10.2 Produit direct d’un nombre fini de groupe


Proposition 28.240. Soient I un ensemble fini ,((Gi , ∗i ))i∈I une famille finie de groupes.
Si ∗ est la loi définie par :
( i∈I Gi)2 i∈I Gi alors ( i∈I Gi , ∗ ) est un groupe.
Q Q Q
∗: →
((xi)i∈I ; (yi)i∈I ) 
(xiyi)

Définition 28.241. Soient I un ensemble fini ,((Gi , ∗i ))i∈I une famille finie de groupes.
QOn appelle groupe produit direct de la famille fini de groupe ((Gi , ∗i ))i∈I le groupe
( i∈I Gi , ∗ ) où ∗ est la loi de composition interne définie par :
( i∈I Gi)2 i∈I Gi .
Q Q
∗: →
((xi)i∈I ; (yi)i∈I ) (xiyi)

28.11 Structure des groupes abéliens finis


Lemme 28.242. Soit m premier avec n et x, y ∈ G d’ordres respectifs m, n tels que x y = y x.
Alors o(x y) = o(x)o(y).

Lemme 28.243. Soit x d’ordre m, y d’ordre n tel que x y = y x alors ∃z ∈ < x, y > tel que
o(z) = ppcm(m, n).

Lemme 28.244. Soit G un groupe abélien fini tel que m soit le maximum des ordres des élé-
ments de G alors pour tout x ∈ G, on a (xm = 1) ⇔ (o(x)|m)

Lemme 28.245. Soit x1 un élément de G(abélien) d’ordre maximum d1 et H1 = < x1 > . Pour
tout ȳ ∈ G/H1, ∃y ∈ G; o(ȳ ) = o(y).

Lemme 28.246. Soient (d1,  , dr) et (δ1,  , δs) deux suites décroissantes d’entiers > 0 telles
que di+1|di; i = 1,  , r − 1; dr > 2 et δ j +1|δi; j = 1,  , r − 1; dn > 2.
Ces deux suites sont égales ssi ∀m > 1, ri=1 pgcd(m, di) = si=1 pgcd(m, δi).
Q Q

Théorème 28.247. Soit G un groupe abélien fini d’ordre n > 2. Il existe une suite finie et
décroissante d’entiers (d1,  , dr) telle que :
1. d2|d1; d3|d2;  ; dr |dr −1 et dr > 2.
2. G = Z/d1Z ×  × Z/drZ
3. La suite (d1,  , dr) est unique et donc caractéristique de la classe d’isomorphisme de G.

Exemple 28.248. Quel est le nombre de groupes abéliens d’ordre 100 ?


Les groupes cycliques intervenant dans la décomposition sont Z/nZ tel que :
100 = n1 ×  × nk et nk |nk−1,  , n2|n1. Quels sont les diviseurs de 100 vérifiant cette pro-
priété : 1, 2, 5, 10, 20, 25, 50, 100. Les factorisations possibles sont : 100 = 100 × 1 = 50 × 2 = 20 ×
5 = 10 × 10.
28.11 Structure des groupes abéliens finis 325
Chapitre 29
Structure d’Anneau
29.1 Généralités sur les anneaux

Anneau commutatif
Anneau

Anneau factoriel

Anneau principal

Anneau intègre

Anneau euclidien

Anneau unitaire

29.1.1 Définitions de base


Attention : La norme AFNOR a retenu une des défintions et qualifie d’ancienne la première.
Certains cours désignent par anneau un anneau unitaire (exemple une partie du cours de licence
CTE) voir même un anneau unitaire commutatif (par exemple une partie du cours licence
UCBL). Avant toute lecture, il convient donc d’être attentif à ce point. Dans la suite, il faut
toujours se demander si la condition Anneau unitaire n’a pas été oubliée.

Définition 29.1. Soient A un ensemble, + , · 2 lois de composition interne. On dit que le tri-
plet (A, + , · ) est une structure d’anneau (ou un anneau) si et seulement s’il vérifie les pro-
priétés suivantes :
− (A, + ) est un groupe commutatif.
Le couple formé par l’ensemble et la première loi est un groupe commutatif.
− · est associative et distributive par rapport à + .
La deuxième loi est associative et distributive par rapport à la première loi.

Définition 29.2. Un anneau (A, + , · ) est dit commutatif si et seulement si sa deuxième loi
est commutative.

Définition 29.3. Un anneau (A, + , · ) est dit unitaire ou unifère si et seulement si sa


deuxième loi possède un élément neutre, contenu dans A.

Remarque 29.4.
1. Rien ne permet de dire que l’élément neutre est unique.

326
29.1 Généralités sur les anneaux 327

2. L’intéret des anneaux unitaires c’est d’assurer l’unicité des éléments inversibles (s’ils exis-
tent). C’est sans doute pour cette raison que l’on choisit dans un cours de considérer tous
les anneaux comme unitaire. ??? Cette remarque a-t-elle un sens : si l’anneau n’est pas
unitaire, on ne peut pas définir d’inverse ! Dans ce cas l’anneau unitaire permet de
s’assurer uniquement de l’existence d’un élément neutre pour la 2ème loi.

Proposition 29.5. Soit x un élément d’un anneau unitaire (A, + , · ), il existe au plus un élé-
ment y tel que x · y = 1A = y · x.

Définition 29.6. On appelle inverse d’un élément x d’un anneau unitaire (A, + , · ) l’unique
élément y (s’il existe) tel que x · y = 1A = y · x, dans ce cas cet inverse est noté x−1. Dans ce cas
x est dit élément unitaire ou élément unité ou encore élément inversible. L’ensemble des
éléments inversibles de l’anneau unitaire (A, + , · ) sera noté A∗.

Remarque 29.7. Attention ! Ne pas confondre avec unité d’un magma qui est l’élément
neutre. Il faut donc distinguer l’unité de l’anneau (qui signifie inversible) et l’unité du magma
qui signifie élément neutre.

Proposition 29.8. Si (A, + , · ) n’est pas réduit à ({0}, + , · ) et si ( · ) n’est pas définie par :
∀(a, b) ∈ A2, a · b = 0 alors l’élément neutre de A pour l’addition n’admet pas de symétrique pour
la multiplication (pas d’inverse) lorsque l’anneau est unifère (unitaire).

Exemple 29.9. Exemples classiques d’anneaux :


1. Z, Q, R, C sont des anneaux commutatifs unitaires intègres
2. Mn l’ensemble des matrices carrées (m, n) à coefficients dans l’un des anneaux précé-
dents, muni de l’addition et de la multiplication des matrices est un anneau unitaire com-
mutatif mais non intègre.
3. Soit l’ensemble {0} et les lois + , · telles que 0 + 0 = 0, 0 × 0 = 0, dans ce cas ({0}, + , · )
est un anneau commutatif unitaire où (1A = 0). C’est l’anneau nul.
4. Pour n > 2, nZ est un partie de Z stable pour l’addition et la multiplication, (nZ, + , · )
est un anneau commutatif non unitaire.
5. (Z/nZ; +̄; ¯)
· est un anneau commutatif unitaire avec +̄; ¯· définies par :
x̄ +̄ȳ = x + y et x̄ ¯· ȳ = x · y .

29.1.2 Elément premier


Remarque 29.10. Cette définition est due à Guy Philippe (www.les-mathématiques.net). La
structure générale dans laquelle où l’on puisse définir cette notion est celle de demi-groupe. Elle
est reprise ici, mais elle devra être placée également dans le chapitre sur les demi-groupes encore
appelés monoïdes. La définition ci-dessous est donc un rappel adapté aux anneaux.

Définition 29.11. Un élément de l’anneau (A, +S, × ) est premier si et seulement si :


∀(a, b) ∈ A2, (p = a × b) ⇒ (a, b) ∈ A∗ × (A\A∗) (A\A∗) × (A∗).
C’est à dire si et seulement si l’un des facteurs est inversible et pas l’autre. Autrement dit p
est premier si et seulement s’il ne peut s’écrire comme produit de 2 facteurs inversibles ou de 2
facteurs non inversibles.

29.1.3 Division, divisibilité, diviseur et élément irréductible


Note 29.12. Ces définitions peuvent être développées dans le cadre d’un monoïde. Elles sont
placées ici pour que la leçon puisse être indépendante. Voir livre I volume (2) page 213 bis.

29.1.3.1 Division

Définition 29.13. Soit A un anneau. Effectuer la division de a par b c’est trouver q ∈ A tel que
a = b · q l’élément q s’appelle quotient de a par b.
328 Structure d’Anneau

Note 29.14. Attention ! Nous sommes dans un anneau, les éléments ne sont pas nécessaire-
ment tous inversibles (si tous les éléments étaient inversibles nous serions dans un corps). La
division de a par b, c’est trouver q ∈ A tel que a = b · q. La division est-elle l’opération inverse de
la multiplication ? Non ! (Voir remarque ci-dessous, ce n’est pas une application sur A  A).

Cependant, en définissant l’application fb par : (q) b · q, on peut considérer l’image réciproque
f −1({a}) (c’est à dire la multiplication inverse ou division du singleton {a} par b). La division
f −1 de {a} par b c’est trouver l’ensemble des q ∈ A tels que a = b × q. La division n’est pas
définie sur A mais sur P(A). On peut aussi définir aussi l’ensemble des paires ou couples (a; c)
tels que a · c = b et M −1 l’ensemble des valeurs de A telles que ∀x ∈ M , ∀a ∈ A, x · a ∈ M c’est la
notion d’idéal. Arrêt

Remarque 29.15. L’unicité du quotient n’est pas assurée : Si


1. b · q1 = b · q2 ⇒ q1 et q2 sont associés.
2. b · q1 − b · q2 = 0 ⇒ b · (q1 − q2) = 0. A = {0}, b = q1 = q2 = 0. A  {0} b et q1 − q2 sont des
diviseurs de 0. Enfin si b n’est pas diviseur de 0 et A intègre a = 0 ???? ⇒ q = 0, a 
0???? ⇒ q1 = q2 1 seul élément ????.

29.1.3.2 Diviseur

Définition 29.16. Soit (M , · ) ou (M ; + ; · ) resp. un monoïde ou un anneau. Soit x; y ∈ M, s’il


existe un élément q de M tel que x = q · y (resp. x = y · q), on dit que y est un diviseur à droite
(resp. à gauche) de x.

Remarque 29.17. Si M est commutatif les notions de diviseurs à droite et à gauche coïncident
et on parle de diviseur.

29.1.3.3 Divisibilité

Définition 29.18. On appelle divisibilité, la relation notée |, définie dans un anneau commu-
tatif par x|y (« x divise y») si et seulement si x est un diviseur de y.

Remarque 29.19. C’est un pré-ordre, mais dans N par exemple c’est un ordre.

Remarque 29.20. 0A ne divise aucun autre nombre sauf lui-même.

Démonstration. Si b = 0 b = 0A · 0A donc 0|bA, 0|b ⇒ ∃m; b = 0 · m ⇒ b = 0. Supposons 0|b ⇔ b =


0 ⇒ b = 0. 

29.1.3.4 Divisible

Définition 29.21. On dit qu’un élément x d’un anneau commutatif A est divisible par un
élément y de A si et seulement si y est un diviseur de x.

29.1.3.5 Diviseur de zéro d’un anneau

Remarque 29.22. Remplacer l’appellation de diviseur de 0 par couple (a, b) diviseur de 0 ou


paire de diviseur de 0. Un couple diviseur de 0 est dit nul ssi il est égal à (0A; 0A). Pour intègre
et diviseur de 0 ne faudrait-il pas supprimer a  0A et b  0A de la définition des diviseurs de 0A
et rajouter dans l’intégrité : n’admet pas de couple diviseur de 0A non nul. Réciproquement :
dans un anneau A unitaire rien n’empêche 1A = 0A soit b ∈ A; 1A · b = 0A; A = {0A }. Important,
conclusion pour éviter les cas triviaux (exemple : si A = {0} on a vu que 0A = 1A donc 0A est
inversible 0A ∈ A∗, si A  {0} et unitaire alors 29.4 ⇒ 0A ∈ A∗), il faut supposer dans chaque
définition que A  {0} ⇒ 1A = 0A (à mettre avec remarque 29.7.3 ??? livre I).

Définition 29.23. Soit (A, + , · ) un anneau, a un élément non nul de A. S’il existe b ∈ A, b  0
tel que a · b = 0 [resp. b · a = 0] alors a est appelé diviseur de 0 à gauche [resp. à droite].
29.1 Généralités sur les anneaux 329

Remarque 29.24. Pourquoi ne pas écrire : Soit (A, + , · ) un anneau a, b ∈ A; a  0; b  0 tel que
a · b = 0 alors a est appelé diviseur de 0 à gauche et b est appelé diviseur de 0 à droite.

Proposition 29.25. Un élément non nul a d’un anneau est régulier à gauche [resp. à droite]
ssi il n’est pas diviseur de 0 à gauche [resp. à droite].

29.1.4 Eléments premiers entre eux


Définition 29.26. On dit que deux éléments d’un anneau commutatif unitaire sont des élé-
ments premiers entre eux (ou étrangers) entre eux si et seulement si leurs seuls diviseurs com-
muns sont les unités de l’anneau.

29.1.5 Sous-anneau
Définition 29.27. Soient (A, + , · ) une anneau, H une partie non vide de A, (H , + , · ) est un
sous-anneau de (A, + , · ) ssi : (H , + , · ) est un anneau (où
+ , · sont les restrictions des opé-
rations à H des opérations définies sur A).

Remarque 29.28. Suivant la définition, il faut rajouter le fait que 1A appartienne à A.

Proposition 29.29. (H , + , · ) est un sous-anneau de (A, + , · ) ssi :


i. (H , + ) est un sous-groupe de (A, + ) : ∀(x, y) ∈ H 2, x − y ∈ H,
ii. H est stable pour la multiplication : ∀(x, y) ∈ H 2, x · y ∈ H.

Exemple 29.30.
1. Z est un sous-anneau de R.
2. Les sous-anneaux de Z sont k Z; k ∈ N, car les sous-groupes de Z sont les kZ; k ∈ N qui
sont stables par produit.

Proposition 29.31.
i. Si (A, + , · ) est unifère et si l’élément neutre pour ( · ) appartient à H alors (H , + , · ) est
unifère.
ii. L’intersection d’une famille de sous-anneau de l’anneau (A, + , · ) est un sous-anneau de
A.

29.1.5.1 Sous-anneau engendré par une partie non vide

Proposition 29.32.
i. Soit X une partie non vide d’un anneau (A, + , · ), il existe un plus petit sous-anneau de
(A, + , · ) contenant X,
ii. à savoir l’intersection de tous les sous-anneaux de (A, + , · ) contenant X.
iii. Ses éléments sont les sommes finies des produits finis d’éléments de X ∪ ( − X).

Définition 29.33. Le plus petit sous-anneau de (A, + , · ) contenant une partie non vide X de
A est appelé sous-anneau engendré par X.

29.1.6 Anneau produit


Proposition 29.34. Soient A1; A2;  ; An des anneaux et les lois + , · définies sur le produit
cartésien A = A1 × A2 ×  × An par :
∀a ∈ A; a = (ai)i et ∀b ∈ A; b = (bi)i a + b = (ai + bi)i ; a · b = (ai · bi)i
alors (A; + ; · ) est un anneau.
330 Structure d’Anneau

Définition 29.35. L’anneau défini précédement est appelé anneau produit de A1; A2;  ; An ou
produit direct de A1; A2;  ; An.

29.1.7 Centre d’un anneau


Définition 29.36. Soit (A, + , · ) un anneau. On appelle centre de A et on note Z(A)
l’ensemble des éléments de A qui commutent avec tous les éléments de A : {x ∈ A; ∀y ∈ A, x · y =
y · x}.

Proposition 29.37. Le centre d’un anneau (A, + , · ) est un sous anneau de (A, + , · ).

29.1.8 Propriétés dans un anneau quelconque


29.1.8.1 Règles de calcul

Remarque 29.38.
• On dispose de toutes les règles valables pour les groupes abéliens.
• Mais aussi des propriétés dues au caractère associatif de la multiplication.

Proposition 29.39. Soit (A, + , · ) un anneau :


1. Règle des signes ∀x, y ∈ A
a) x · ( − y) = ( − x) · y = − x · y
b) ( − x) · ( − y) = x · y
2. x · (n y) = (n x) · y = n(x · y), n ∈ Z.
3. 0A · x = x · 0A = 0A
4. x(y − z) = x y − x z

Démonstration.
1. ( − x + x) = 0A → ( − x + x) + x = x → (( − x + x) + x) · y = x · y = ( − x + x) · y + x · y = x · y
en ajoutant − (x · y) à chaque membre on a : ( − x) · y + x · y = 0A ajoutons encore − (x ·
y) à chaque membre on obtient ( − x) · y = − (x · y).
(y + ( − y)) = 0A → y + (y + ( − y)) = y → x · (y + (y + ( − y))) = x · y → x · y + x · (y +
( − y)) = x · y en ajoutant − (x · y) à chaque membre on a : x · y + x · ( − y) = 0A ajoutons
encore − (x · y) à chaque membre on obtient x · ( − y) = − (x · y)
2.
3. ∀m, x ∈ A, 0A + m = m → (0A + m) · x = m · x → 0A · x + m · x = m · x ajoutons − (m · x) à
chaque membre on a : 0A · x = 0A.
∀m, x ∈ A, m + 0A = m → x · (m + 0A) = x · m → x · m + x · 0A = x · m ajoutons − (x · m)
à chaque membre on a : x · 0A = 0A.
4. 

Remarque 29.40. Dans un anneau non nul, 0 n’est régulier ni à droite ni à gauche. (n’est ce
pas la propriété 29.4 du livre 1 volume 2) ?

Remarque 29.41.
1. Si le produit de n facteurs indentiquesP : a · a ·  a = a alors : a · a = a , (an)m =
n n m n+m

a n×m
, (a1 +  + an) · (b1 +  + bn) = 16i6n,16 j 6m ai · b j .
2. Attention lorsque l’anneau n’est pas unitaire 1A n’existe pas, par conséquent, on ne peut
pas définir a0.
29.1 Généralités sur les anneaux 331

29.1.8.2 Binôme de Newton dans un anneau quelconque

Théorème 29.42. Soit A un anneau, a, b deux éléments de A permutables (a · b = b · a),


∀n ∈ N, n > 2, (a + b)n = an + bn + (Cnk × (an−k · bk))
P

Remarque 29.43. Une autre formule sera donnée pour les anneaux unitaires.

29.1.9 Propriétés dans un anneau unitaire


29.1.9.1 Règles de calcul

Proposition 29.44.
i. ( − 1A) · a = a · ( − 1A) = − a,
ii. n · a = (n · 1A) · a = a · (1A · n) ???? n ∈ ? dans ce cas faire attention aux signes · et × .
iii. ∀a ∈ A, on peut définir a0 par a0 = 1A.
iv. Si a est un élément inversible de (A, · ), on peut définir a−m, (m ∈ N).
a) a1+(−1) = a1 · a−1 = a0 = 1A, a−1 est l’inverse de a.
b) am+(−m) = a0 = 1A = am · a−m, a−m est l’inverse de am.
c) (a · a−1)m = 1A = am · (a−1)m, a−m = (a−1)m.
v. (am) p = amp.

29.1.9.2 Formule du binôme de Newton

Proposition 29.45.
i. Soit A un anneau, a, b 2 éléments de A qui commutent (a · b = b · a) alors ∀n ∈ N, (a +
b)n = np=0 (Cnp × (a p · b(n− p))).
P

ii. Conséquences :
Pn k
a) k=0 Cn = 2 ,
n

Pn k p
b) k=0 ( − 1) Cn = 0,
h iP
n n−1 p Pq
c) si p = 2 , q = 2 , k=0 Cn2k = k=0 Cn2k+1 = 2(n−1).
Pn−1 P p+1
d ) Posons : S p = l=0 (a + l r) p alors (a + n r) p+1 − ap+1 = k=1
k
C p+1 r kS(p+1−k) ,
p ∈ N.
e)
iii. Généralisation : Soit (A, + , · ) un anneau et a1,  , an des éléments 2 à 2 permutables
pour n ∈ N∗ , on a (a1 +  + a p)n = |P p αi |=n α ! α ! aα
1 ·  · ap .
P n! 1 αp
i=1 1 n

29.1.9.3 Groupes des éléments inversibles, ou groupe des unités

Note 29.46. Valable uniquement pour un anneau unitaire.

Proposition 29.47. A∗ , l’ensemble des éléments inversibles de l’anneau (A, + , · ), A∗ est


stable pour la multiplication, (A∗, · ) est un groupe d’élément neutre 1A.

Définition 29.48. (A∗, · ) est appelé groupe des éléments inversibles ou groupes des
unités.
Remarque 29.49.
1. Les éléments inversibles de (A, + , · ) sont parfois appelés unités de A.
332 Structure d’Anneau

2. C’est aussi l’ensemble des diviseurs de (1A) l’unité.


3. Si A∗ = A\{0A }, on a un corps.
4. Les éléments unités divisent tous les éléments de A. (Preuve : Soit ε un élément unité, il
existe ε ′ un autre élément unité tel que ε · ε ′ = 1A ainsi ∀x ∈ A, x = 1A · x = (ε · ε ′) · x = ε ·
(ε ′ · x).
5. A∗ n’est définie que dans un anneau unitaire.
6. A∗  ∅ puisque 1A ∈ A∗.

Exemple 29.50.
• Z∗ = { − 1; 1}.
• R∗ = R\{0}.
• (Z/nZ)∗ = {k¯ ; 1 6 k 6 n − 1, pgcd(k, n) = 1}, card(Z/nZ)∗ = ϕ(n).

29.1.9.4 Caractéristique d’un anneau unitaire

Définition 29.51. On appelle caractéristique d’un anneau unitaire :


− l’entier 0 si ∀k ∈ N , k × 1A  0A autrement dit 1A + 1A +  + 1A  0A

k fois

− sinon le plus petit entier k tel que k × 1A = 0A autrement dit 1A + 1A +  + 1A = 0A.


k fois
On le note caract(A).

Remarque 29.52. Etudier le déplacement dans la partie morphisme.

1. l’application ϕ: Z → A est un morphisme d’anneau ( n × 1A = 1A + 1A +  + 1A,


n 
n × 1A n fois,n>0

n × 1A = 0A, − n × 1A = − 1A + ( − 1A) +  + ( − 1A) ). Il existe donc un unique entier


n=0 n fois, n>0
m > 0 tel que ker(ϕ) = (m) (c’est dire ker(ϕ) = mZ, car l’idéal principal (m) n’est autre
que mZ) m est la caractéristique de A. ker(ϕ) est un sous-groupe de Z, ker(ϕ) = {n ∈ Z;
n × 1A = 0A }.
2. Z/(m) (autrement dit Z/mZ même remarque que précédement) s’identifie alors à un
sous-anneau de A. (C’est le plus petit sous-anneau de A c’est à dire ker(ϕ) = m · Z car
l’idéal principal (m) n’est autre que m · Z). On a m · a = (m · 1A) · a = 0 · a = 0.
3. Si A est intègre, sa caractéristique est soit 0, soit un nombre premier p (en effet Z/(m)
est un sous-anneau de A donc aussi intègre car si q divise m m = a q, ainsi modulo m :
ā q̄ = 0̄ d’où ā = 0 ou q̄ = 0 c’est à dire m divise q ; ainsi q = ± 1 ou q = ± m) Dans ce
dernier cas l’application σ: a  a p est un morphisme d’anneau (injectif) de A dans A (le
morphisme de Frobenius). En effet on a bien pour tout a, b ∈ A, σ(a b) = (a b) p = a pb p =
Pp
σ(a)σ(b) et aussi σ(1) = 1 de plus σ(a + b) = (a + b) p = i=1 Cipaib p−i, dans cette somme
pour tout i, 1 6 i 6 p − 1, Ci est divisible par p, donc 1 6 i 6 p − 1, Cipaibp−i = 0, il reste
p

donc σ(a + b) = ap + b p = σ(a) + σ(b).

Exemple 29.53.
1. Z est un anneau de caractéristique nulle. Caract(Z) = 0
2. Z/nZ est un anneau de caractéristique n, pour n > 2. Caract(Z/nZ) = n.
3. R est un anneau de caractéristique nulle. Caract(R) = 0.

29.1.9.5 Eléments associés

Définition 29.54. Deux éléments x, y ∈ A sont dits associés ssi il existe ε ∈ A∗ [groupe des
éléments inversibles de A] tel que y = ε · x autrement dit x = ε−1 · y.
29.1 Généralités sur les anneaux 333

Proposition 29.55.
i. L’association définie précédement est une relation d’équivalence.
ii. Si l’anneau commutatif A est intègre x et y sont associés ssi x A = y A.

Exemple 29.56. Dans l’anneau (Z; + ; · ) a, b sont associés si et seulement si a = ± b. Notons ∼


la relation d’équivalence ainsi définie. 2 ∼ − 2 et 2 ∼ 2. − 3, 3 sont associés dans Z.

29.1.10 Anneau intègre


Dans un anneau considérons l’équation du type a x = a y. En général (même si a  0), on ne
peut pas simplifier par a et en déduire x = y. Remarquons toutefois que cette équation équivaut
à : a(x − y) = 0.

Définition 29.57. Un anneau (A, + , · ) est dit intègre ssi A  {0} et :


− il n’admet pas de diviseur de 0,
− Autrement dit : a · b = 0 ⇒ a = 0 ou b = 0,
− ou encore : a  0 et b  0 ⇒ a · b  0

Avertissement 29.58.
1. Attention, que l’anneau soit intègre ou pas, on a vu que dans un anneau quelconque a ·
0A = 0A !
2. Conclusion dans un anneau intègre, il y a équivalence : (a · b = 0) ⇔ (a = 0 ou b = 0)

Proposition 29.59.
1. Si un anneau (A, + , · ) est intègre alors tout élément de A  0 est simplifiable : x  0 et
x · a = x · b ⇒ a = b, (bien que x ne soit pas forcément inversible).
2. Un sous-anneau d’un anneau intègre est intègre.
3. Si A est intègre et si caractéristique(A) = p  0 alors p est un nombre premier.

Démonstration.
1. (x · a = x · b) ⇒ (x · a − x · b = 0A) ⇒ (x · (a − b) = 0A) ⇒ (a − b = 0A ou x = 0A) ⇒ (a = b).
2.
3. si p = q × r avec q, r ∈ N, q, r premiers entre eux, caract(A) = p.
0A = p × 1A = (q × r) × 1A = (q × 1A) × (r × 1A) ????
A est intègre ⇒ q × 1A = 0A ou r × 1A = 0A
⇒ q ∈ ker(f ) ou r ∈ ker(f ) = p Z ????
⇒ p|q ou r|q comme p = q × r, on a p = q ou p = r ainsi p est premier 

Proposition 29.60. Si A est intègre de caractéristique p  0 alors (x + y) p = x p + y p.

Exemple 29.61.
• (Z; + ; × ) est un anneau intègre.
• (R; + ; × ) est un anneau intègre.
• (Z/nZ) est un anneau intègre si et seulement si n est premier.
exemple : (Z/6Z) n’est pas intègre puisque 6 n’est pas premier. Contre-exemple : 2̄ ×
3̄ = 6̄
donc 2̄ × 3̄ = 0̄, 2̄ et 3̄ sont des diviseurs de 0̄.
• L’anneau
 Mn des
 matrices
 carrées
 n’est
 pas intègre : contre-exemple
−a a a a 0 0
× = .
a −a a a 0 0
334 Structure d’Anneau

• Tout corps est un anneau intègre, mais la réciproque n’est pas vraie. Voir remarque
CTES page 16, envoi 1. Par contre tout anneau intègre peut se « plonger » dans un
corps. Exemple : la construction du corps des fractions.

29.1.11 Idéal d’un anneau


Note 29.62. Idéal=division d’une partie M d’un anneau A par A ??? On ne peut pas définir
M
de division directement sur les éléments donc on le fait sur des parties de A : A = {a ∈ A; ∀m ∈
M ; a m ∈ M }. Utilité ? Trouver un ensemble I tel que pour l’anneau A; A/I soit aussi un
anneau. Rappel : A/I = {x̄ ; x ∈ A}, x̄ = {y ∈ A; x · y ∈ I }. L’idéal c’est la seule manière de
s’assurer que le produit x̄ · ȳ soit toujours dans A. On veut reproduire l’effet de nZ sur Z où
nZ agit comme un idéal et permet à Z/nZ d’être aussi un anneau.
Idéal inverse de la multiplication inverse d’une partie Q d’un anneau A par l’anneau (A). On
a montrer que la multiplication n’admet pas d’opération inverse, toutefois l’idéal est là pour
représenter cette notion; les remarques précédentes 213 bis (livre I volume 2), on montrées que
certains cas triviaux sont à exclure, c’est pour cela que l’on définira : les anneaux intègre et
principaux. On définit alors une division d’un ensemble par l’anneau A.

29.1.11.1 Idéal à gauche, à droite et bilatère

Définition 29.63. Soit (A, + , · ) un anneau, I ⊂ A et I  ∅. (I , + , · ) est un idéal à gauche


[resp. à droite] de (A, + , · ) ssi :
− ∀x; y ∈ I , x − y ∈ I ( autrement dit (I , + ) est un sous-groupe de (A, + ) ) ou (I , + ) stable
pour + .
− ∀a ∈ A et ∀x ∈ I , a · x ∈ I , [x · a ∈ I], i.e. A I ⊂ I , [I A ⊂ I]. Il contient tous les produits
d’un élément de A par un de ses éléments [ou d’un de ses éléments par un élément de A]
I est absorbant à droite [à gauche] expression à vérifier.

Définition 29.64. Un ensemble est dit idéal bilatère ou simplement idéal de (A, + , · ) ssi
c’est un idéal à droite et à gauche.

Remarque 29.65.
1. Attention à la définition du sous-anneau ! ici un idéal est un sous-anneau, mais dans cer-
tains cours, on impose au sous-anneau de contenir un élément neutre, dans ce cas bien
que l’idéal I soit stable pour + , · , ce n’est pas un sous-anneau de (A, + , · ), puisqu’il ne
peut contenir 1A. Attention, si c’est le cas la réciproque est fausse : Z est un anneau de
R, mais Z n’est pas un idéal de R.
2. Est-ce important que l’idéal ait une structure d’anneau ? Non, mais il faut simplement
faire remarquer que suivant la définition d’un anneau, l’idéal peut-être un anneau.
3. Soit (A, + , · ) un anneau et B une partie de A, l’ensemble des x ∈ A, tels que x · b = 0, [b ·
x = 0] pour tout b ∈ B est un idéal à gauche [resp. à droite] de (A, + , · ) dit annulateur à
gauche [à droite] de B.
4. On peut construire une c.n.s. pour qu’un idéal soit un corps; c’est que les seuls idéaux de
K soient {0} et K.
5. Dans un anneau commutatif tous les idéaux sont bilatères.

Exemple 29.66.
1. nZ est un idéal de Z.
2. Dans un anneau A, il existe au moins 2 ideaux bilatères {0} et A.

Proposition 29.67. Soit I ⊂ A, pour que I  ∅ soit un idéal de A, il faut que :


− ∀x; y ∈ I ⇒ x + y ∈ I
− ∀a ∈ A, ∀x ∈ I ⇒ x · a ∈ I; a · x ∈ I; I A = I; A I = I, I est absorbant ???
29.1 Généralités sur les anneaux 335

Remarque 29.68. Vérifier si on peut utiliser le terme absorbant. C’est comme I absorbant :
seulement absorbant est réservé à une l.c.i..

Proposition 29.69. Si un idéal I à gauche (resp. droite) d’un anneau (A, + , · ) contient soit
l’identité soit un élément inversible (autrement dit une unité) de (A, + , · ), alors I = A.

Démonstration.
1. Par définition I ⊂ A, montrons que A ⊂ I. ∀a ∈ A, a = a · 1A ⇒ a ∈ I.
2. 1A = u −1 · u donc 1A ∈ I et I = A. 

Théorème 29.70. Soient I et J 2 idéaux d’un anneau A tel que I ⊂ J alors :


• J/I est un idéal de A/I,
• A/J ≈ (A/I)/(J/I) ( ≈ « est isomorphe à » ).

Exemple 29.71. A = Z; I = 6Z = {0̇; 1̇; 2̇; 3̇; 4̇; 5̇}; J = 3Z = {0̄, 1̄; 2̄}; A/J = ?
Z ϕJ

ϕJ
Z/3Z
Diagramme : ϕI ↓ ր ↑ϕJ = ?
Z/6Z 
ϕJ /I
(Z/6Z)/(3Z/6Z) = ?
→ → →
ϕJ :
x  ϕ :
x + 3Z I x  ϕ :
x + 6Z J ẋ x̄
ker ϕJ = {ẋ ∈ Z/6Z; ϕJ (ẋ) = 0̄} = {0 + 6Z; 3 + 6Z} = {0̇; 3̇} = 3Z/6Z
d’où (Z/6Z)/(3Z/6Z) = {0̇; 3̇}; {1̇; 4̇}; {2̇; 5̇} = {0̃; 1̃; 2̃} ≃ {0̄; 1̄; 2̄}.


Proposition 29.72. (A placer !) Un élément a non et non inversible de A est irréductible si et


seulement si pour toute écriture a = u v, l’un des éléments et un seul (soit u soit v) est une unité
et l’autre est associé à a.

29.1.11.2 Intersection, somme d’ideaux et idéal engendré

Proposition 29.73. Soit (Ik)k∈K, un famille d’idéaux à gauche de l’anneau A.


i. i∈I Hi est un idéal à gauche de A,
T

ii. L’ensemble k∈K Ik des éléments x ∈ A qui sont somme finie xi1 +  + xi p d’éléments
P

de , est un idéal à gauche de A. C’est le plus petit idéal à gauche de A conte-


S
k∈K kI
nant Ik pour tout k ∈ K. En particulier, la somme I + J = {x + y; x ∈ I , y ∈ J } de deux
idéaux à gauche I et J de A, est un idéal à gauche de A.

Note 29.74. Donner plus de cohérence, certaines définitions sont énoncées plusieurs fois. Idéa
engendré par A : l’ensemble des sommes de multiplications à gauche et à droite, ou les deux, des
éléments de A. (Est-ce une définition ou simplement une remarque ??)

Corollaire 29.75. Soit A un anneau unifère. Pour toute partie non vide X de A, il existe un
plus petit idéal à gauche I de A contenant X, à savoir l’intersection de tous les idéaux à gauche
de A contenant X. De plus, I est l’ensemble des éléments de A de la forme a x1 +  + a px p où
p ∈ N∗ , x1,  , x p ∈ X et a1,  , a p ∈ A.

Définition 29.76. Dans un anneau unifère (pourquoi unifère ?) A, ce plus petit idéal à gauche
de A contenant une partie X  ∅ de A est appelé l’idéal à gauche engendré par X.

Remarque 29.77. Il existe des énoncés analogues pour les idéaux à droite, d’où une notion
d’idéal à droite egendré par X, dont les éléments sont de la forme x1a1 +  + x pa p.
Il en va de même pour les idéaux bilatères. L’idéal bilatère engendré par X est l’ensemble
des a1x1b1 +  + a px pb p où p ∈ N∗, x1,  , x p ∈ X , a1,  , a p , b1,  , b p ∈ A. Si I , I ′ sont deux idéaux
à gauche (resp. à droite, bilatères), l’idal à gauche (resp. à droite, bilatère) engendré par I ∪ I ′
est I + I ′ = {x + x ′; x ∈ I , x ′ ∈ I ′}.
336 Structure d’Anneau

Cas où A n’est
X ni commutatif,
X ni unitaire
Xvoir CTES Exercice
X 2.1 page 16, les éléments sont
de la forme x = a+ α1 · a + a · α2 + α2 · a · α3.
a∈I a∈I ,α1 ∈A a∈I ,α2 ∈A a∈I;α2,α3 ∈A

Proposition 29.78. (Déjà comprise dans la remarque ci-dessus) L’intersection d’une famille
d’idéal d’anneaux est un idéal d’anneau : Si (Hi)i∈I est une famille d’idéaux de (A, + , · ) alors
i est un idéal.
T
i∈I H

Définition 29.79. (Déjà comprise dans la remarque ci-dessus) Soit P une partie de A, on
appelle idéal engendré par P, le plus petit idéal (au sens de l’inclusion) de A contenant P.

Proposition
T 29.80. (Déjà comprise dans la remarque ci-dessus) Soit IP l’idéal engendré par P
alors IP = P ⊂H H, H idéal de A.

Proposition 29.81. (Déjà comprise dans la remarque ci-dessus) Plus généralement, si x1,  ,
Pn Pn
xn sont les (?) éléments de A, le plus petit idéal contenant A est : i=1 A · xi = { i=1 ai · xi;
∀i, ai ∈ A}.

Démonstration. CTES, mais dans le cas où A est un anneau commutatif unitaire. 

Proposition 29.82. Deux éléments associés engendrent le même idéal.

29.1.11.3 Produit d’idéaux

Proposition 29.83. Si I , J sont deux idéaux alors I J = { xi · yi; xi ∈ I , yi ∈ J } est un


P
finie
idéal de A contenu dans I ∩ J.

29.1.11.4 Idéal principal d’un anneau commutatif

Définition 29.84. Un idéal I d’un anneau commutatif A est dit principal ssi il peut être
engendré par un seul élément x ∈ A, on le note (x).

Proposition 29.85.
1. Si I est un idéal principal, ∃α ∈ A tel que I = αA.
2. Réciproquemet soit x ∈ A, A x = {a · x; a ∈ A} est un idéal de A noté (x), c’est l’idéal
principal engendré par x.

Remarque 29.86. Important ! On vient de montrer que les idéaux principaux sont exactement
les ensembles m A avec m ∈ A.

Exemple 29.87.
1. (0) et (1) sont des idéaux, avec en particulier (1) = A.
2. Les idéaux de (Z; + ; × ) sont donc les ensembles n Z, n ∈ Z, i.e. tous les sous-groupes de
Z.
3. Tous les idéaux de l’anneau (Z, + , · ) sont principaux.

29.1.11.5 Idéal maximal

Note 29.88. La définition d’un ensemble maximal n’est pas propre aux idéaux, c’est donc un
rappel.

Définition 29.89. Un idéal M d’un anneau A est maximal ssi :


M ⊂ I ⊂ A, I idéal de A ⇒ I = M ou I = A ou si I est un idéal M ⊂ I , M  I ⇒ I = A.

Proposition 29.90. (Condition


 nécessaire et suffisante)
∃a ∈ A
I maximal ⇔ ∀x ∈ A\I , ; i + a x = 1.
∃i ∈ I
29.2 Anneau factoriel 337

Démonstration. Voir fiche 7 exercice 8, pour la démonstration. 

Proposition 29.91. Un idéal I d’un anneau commutatif unitaire A est maximal si et seulement
si l’anneau quotient A/I est également un corps.

Démonstration. CTES M51M page 2 envoi (2). 

Exemple 29.92. Soit p premier alors I = p Z est un idéal maximal de Z. Réciproquement : nZ


est maximal dans Z si n est premier, on a donc équivalence.

29.1.11.6 Idéal premier d’un anneau commutatif

Définition 29.93. Soit (A, + , · ) un anneau commutatif, On appelle idéal premier de


l’anneau (A, + , · ), tout idéal I tel que ∀x, y ∈ A, x · y ∈ I ⇒ x ∈ I ou y ∈ I.

Remarque 29.94. (Ce qui revient à dire :) I est premier si et seulement si A/I est un anneau
intègre.

Corollaire 29.95. Tout idéal maximal est un idéal premier.

Remarque 29.96. La réciproque est fausse. Par exemple : {0} est un idéal premier de Z, mais
il n’est pas maximal, {0} ⊂ 2Z ⊂ Z ou Z/{0} = Z (a ≡ b[0] ⇔ a = b ⇔ a − b ∈ {0}) qui n’est pas un
corps (tout élément  0 n’est pas inversible).

29.1.11.7 Idéaux étrangers ou comaximaux

Définition 29.97. On dira que 2 idéaux I et J d’un anneau A sont étrangers ou comaxi-
maux si et seulement si I + J = A.
Exemple 29.98.
1. Pour A = Z, (a) et (b) sont étrangers si et seulement si a et b sont premiers entre eux par
le théorème de Bézout puisque dans ce cas, on peut trouver α, β tels que α × a + β × b =
1 ⇒ 1 ∈ (a) + (b). Donc (a) + (b) = A. 8Z et 15Z.
2. Dans K[X; Y ], les idéaux (X) et (Y ) ne le sont pas.

29.2 Anneau factoriel


Section à mettre avant anneau principal et divisibilité.
C’est difficile de montrer qu’un anneau est factoriel. On définit donc des classes d’anneaux
qui seront factoriels : Anneaux principaux, anneaux euclidiens.

Définition 29.99. Soit (A, + , · ) un anneau intègre, On dit que (A, + , · ) est un anneau fac-
toriel ssi :
− Tout élément a  0 de A et non inversible admet une factorisation de la forme a = p1 ·
p2 ·  · pm , m > 0 et p j irréductibles.
− Si a admet une autre factorisation a = q1 · q2 ·  · qn , n > 0 alors m = n et il existe une per-
mutation σ ∈ Sn telle que q j et pσ(j) soient associés : q j = ε j · pσ(j) où 1 6 i 6 n et ε j ∈ A∗.

Remarque 29.100. Dans un anneau factoriel A, on a : a = ε · p1 · p2 ·  · pr où ε ∈ A∗ et pi est


irréductible. Si l’on choisit un représentant dans chaque classe « association » des éléments irré-
ductibles, la factorisation est unique. Exemple : Dans Z p̄ = { − p; p} 6 = 2 × 3 = ( − 1) × 2 × ( −
3).

Exemple 29.101.
1. Z est factoriel (par le théorème fondamental de l’arithmétique)
338 Structure d’Anneau

√ √ √ √
2. A = Z[i 5 ] = Z + i 5 Z, (i2 = − 1) n’est pas factoriel : Montrer que (1 + i 5 )(1 − i 5 ),
√ √
montrer
√ que 2, 3, 1 + i 5 , 1 − i 5 sont irréductibles dans A, mais que
√ par exemple 1 +
i 5 n’est associé ni à 2, ni à 3 (utiliser pour cela que ∀a = λ + µi 5 ∈ A, le carré du
module |a|2 = λ2 + µ25 ∈ N.

Proposition 29.102. Dans un anneau factoriel A, un élément p non nul est irréductible ssi
l’idéal p · A est premier.

Proposition 29.103. Les diviseurs d de a ∈ A sont donnés (à association près) par d|a ⇔ d ∼
pd11 · pd22 ·  · pdr r où 0 6 di 6 ai , ∀i ?????????????

29.3 Anneau principal et théorème de Bezout


Définition 29.104. Un anneau commutatif est dit principal ssi :
− il est intègre,
− tous ses idéaux sont principaux.

Exemple 29.105.
1. Z est principal. Tout idéal est de la forme I = m Z; m ∈ N. (preuve CTES Structure algé-
brique envoi 2 page 3).
2. Soit K un corps, l’anneau des polynômes à coefficients dans K est principal.

Proposition 29.106. Si A est principal, toute suite croissante d’idéaux I0 ⊂ I1 ⊂ I2 ⊂  est sta-
tionnaire : ∃k ∈ N; In = Ik , ∀n > k.

Théorème 29.107. (... de Bezout)


Si a et b sont 2 éléments d’un anneau principal A, les conditions suivantes (i) et (ii) sont
équivalentes :
i. a et b sont premiers entre eux,
ii. il existe x, y ∈ A tels que a x + b y = 1A (Relation de Bezout).

Démonstration. LM3-M51M CTE page 9 2ème envoi. 

Note 29.108. Je ne trouve pas la définition d’éléments premiers entre eux dans mon résumé.
Dans le cours CTE LM3-M51M page 9 il les définisse ainsi : Si deux éléments ont un pgcd égal à
1A ou n’importe quel inversible, on dit qu’ils sont premiers entre eux.

Remarque 29.109. Plus généralement, dans un anneau principal A si un pgcd de n éléments


a1, a2,  , an est inversible, on dit que a1, a2,  , an sont premiers entre eux. Le théorème de
Bezout se généralise alors sous la forme :
a1, a2,  , an sont premiers entre eux si et seulement si il existe n éléments x1;  ; xn ∈ A tels
que a1x1 +  + anxn = 1A. Démonstration similaire au cas n=2.

Lemme 29.110. (... de Gauss)


Dans un anneau principal, si a et b sont premiers entre eux et si a divise le produit b · c alors
a divise c.

Proposition 29.111. Tout anneau principal est factoriel, (principal) ⇒ (factoriel).

29.3.1 Divisibilité dans les anneaux intègres


Remarque 29.112.
1. Dans un anneau intègre, le quotient lorsqu’il existe est unique.
29.3 Anneau principal et théorème de Bezout 339

2. Soit (A, + , · ) un anneau intègre, si a ∈ A, on note (a) = A · a = {x · a; x ∈ A} l’idéal prin-


cipal engendré par a. Soit b ∈ A, remarquons que (a) ⊆ (b) ⇔ a ∈ (b) ⇔ ∃x ∈ A, a = x · b
autrement dit que b divise a dans A ou que a est un multiple de b dans A.

Exemple 29.113. b divise 1 ssi b ∈ A∗.

Définition 29.114. On dit que a divise strictement b ssi a non unitaire et a n’est pas associé à
b.

Proposition 29.115. Dans un anneau intègre. Si a divise b et b divise a, c’est à dire (a) = (b),
il existe u ∈ A∗ tel que a = u · b, autrement dit a et b sont associés dans A.

Exemple 29.116. ?

29.3.2 Éléments irréductibles


Définition 29.117. Un élément a de A est dit irréductible (dans A) ssi a  A∗ et ∀b, c ∈ A;
a = b · c avec b, c ∈ A ⇒ b ∈ A∗ ou c ∈ A∗. Autrement dit c’est un élément non inversible (unitaire)
qui ne possède pas de diviseur stricts, i.e qui ne possède comme diviseur que des éléments inver-
sibles (unitaires) et ses éléments associés, ou encore ssi dans sa décomposition en produit de
deux facteurs au moins un des facteurs est inversible (unitaire).

Exemple 29.118. Dans Z, les éléments irréductibles sont les ± p, avec p premier, 0 n’est pas
irréductible.

Définition 29.119. On dit qu’un élément est réductible ssi il est non unitaire et non irréduc-
tible.

Exemple 29.120.
1. 5 est irréductible car il ne possède comme diviseurs que les éléments unitaires 1 et − 1.
2. 12 est réductible car 12 = 3 × 4 et 3, 4 ne sont pas unitaires.

29.3.3 PGCD (DMTD) et PPCM (MDTM)


Note 29.121. Il vaut mieux parler de DMTD «Diviseur Multiple de Tout Diviseur». De même,
ne faudrait-il pas remplacer PPCM par MDTM «Multiple Diviseur de Tout Multiple».

Avertissement 29.122. Dans ce qui suit l’anneau peut ne pas être principal. Peut-être que le
fait d’imposer à A d’être principal apporte de nouvelles possibilités comme :
− l’intégrité,
− l’énoncé du théorème de Bezout page 215 bis (livre I),
− le PGCD et le PPCM ne sont pas nécessairement uniques. Dans un anneau principal, il
sont définis à un facteur inversible près. CTES page 7 envoi 2. Structure algébrique.
Résultat obtenu pour un anneau principal.

Définition 29.123. On appelle PGCD de deux éléments a et b d’un anneau A, s’il existe ! Un
diviseur de a et b, multiple de tout autre diviseur commun à a et b.

Remarque 29.124. On définit le PGCD de n éléments a1, a2,  , an d’un anneau par récur-
rence. PGCD(a1;  ; an) = PGCD(PGCD(a1;  ; an−1); an). Il vaut mieux parler de DMTD
«Diviseur Multiple de Tout Diviseur».

Définition 29.125. On appelle PPCM de deux éléments a et b d’un anneau A, s’il existe ! Un
multiple m de a et b, diviseur de tout autre multiple commun à a et b.
340 Structure d’Anneau

Remarque 29.126. On définit le PPCM de n éléments a1, a2,  , an d’un anneau par récur-
rence. PPCM(a1;  ; an) = PPCM(PPCM(a1;  ; an−1); an). Il vaut mieux parler de MDTM «
Multiple Diviseur de Tout Multiple».

Avertissement 29.127. Voir CTE page 8 envoi 2. La relation « est multiple de » n’est pas une
relation d’ordre sur A, mais sur A/R (où R: aRb ⇔ (a) = (b). Dans le cas d’un anneau prin-
cipal ??? relire livre I page 218 bis pour comprendre !

29.3.4 Morphisme d’anneaux


Sous quelles conditions peut-on identifier deux anneaux ?

Définition 29.128. Soit (A, + , · ) et (A ′, ⊕ , ⊙) deux anneaux. Une application A → A ′ est un


morphisme d’anneau ssi ∀a, b ∈ A, f (a + b) = f (a) ⊕ f (b), f (a · b) = f (a)⊙f (b).

Exemple 29.129. π: Z → Z/nZ est un homéomorphisme de groupe, puisque π(x + y) =


x x̄
π(x) ⊕ π(y) et π(x · y) = π(x)⊙π(y).

Proposition 29.130. Soit (A, + , · ) et (A ′, ⊕ , ⊙) deux anneaux. Une application A → A ′ est


un morphisme d’anneau ssi f est un morphisme du groupe (A, + ) sur le groupe (A, ⊕ ) et si ∀a,
b ∈ A, f (a · b) = f (a)⊙f (b).

Remarque 29.131. Dans le cas d’un anneau unitaire, si f est un morphisme d’anneau f (1A) =
1A ′, f (a × 1) = f (a) × f (1), f (a) = f (a) × f (1)

Définition 29.132. Un isomorphisme d'anneau est un morphisme d’anneau bijectif.


Définition 29.133. Endomorphisme A = A ′.

Définition 29.134. Deux anneaux A et A ′ sont isomorphes ssi il existe au moins un isomor-
phisme f : A → A ′.

Remarque 29.135. Dans ce cas, on ne peut plus distinguer de part les propriétés de leurs lois :
toute propriété vraie sur l’un sera vraie pour l’autre ssi on ne prend en compte que ces deux lois.
On peut donc essayer de classer les anneaux modulo un isomorphisme.

Proposition 29.136. Soit f : A → B un homomorphisme d’anneaux


i. Si A, B sont unifères et si f (1A) = 1B alors f (A∗) ⊂ f (B ∗)
ii. Si A1 sous-anneau de A, alors f (A1) est un sous-anneau de B
iii. Si B1 sous-anneau de B, alors f −1(B1) est un sous-anneau de A
iv. En particulier ker(f ) = f −1({0}) est un sous-anneau de A et
v. Im(f ) = {f (x); x ∈ A} est un sous-anneau de B.
vi. f (0A) = 0A ′, f ( − x) = − f (x), f (x−1) = (f (x))−1.
vii.
viii. Soit f : A → A ′ un morphisme d’anneau, I ′ un idéal bilatère (resp. à gauche ou à droite)
de A ′ [I un idéal bilatère (resp. à gauche ou à droite) de A] alors :
− f −1(I ′) est un idéal bilatère (resp. à gauche ou à droite) de A contenant N (f ) qui
est un idéal bilatère (resp. à gauche ou à droite) de A.
− f (I) est un idéal bilatère du sous-anneau f (A) de A ′ et par conséquent un idéal
bilatère de A ′ si f est surjectif.
ix. Si f : A → A ′ est un morphisme d’anneaux. Ker(f ) = {a ∈ A; f (a) = 0} est un idéal bilatère
de A.
29.3 Anneau principal et théorème de Bezout 341

Exemple 29.137. (Est-ce bien sa place ?) A = {a + i b; a, b ∈ Z} = Z + i Z alors A est un sous-


anneau de C. On l’appelle l’anneau des entiers de Gauss. Quels sont les éléments inversibles de
A ? Quelles sont les unités de A : z = a + i b ∈ A est inversible ↔ A∗ = {1; − 1; i; − i}.

29.3.4.1 Prolongement isomorphe d’un anneau dans un anneau unitaire

Proposition 29.138. Etant donné un anneau (A, + , · ), il existe un anneau unitaire (Au , ⊕ ,
⊙) tel que A soit isomorphe à une partie B de Au.

Note 29.139. Morphisme de Frobenius σ: x x . p

29.3.5 Anneau quotient


Proposition 29.140. Soit (A, + , · ) un anneau, R une relation d’équivalence dans A, I la
classe de 0 et si R est compatible avec les lois de A :
i. alors I est un idéal bilatère de (A, + , · ).
ii. La relation xRy (autrement dit x̄ = ȳ) équivaut à x − y ∈ I. Rappel : en utilisant la ter-
minologie des ensembles quotients, on dit que x et y sont congrus modulo I.
iii. La classe de tout élément x de A est notée x + I (i.e. x̄), c’est l’ensemble des éléments de
la forme x + y où y ∈ I.

Réciproquement

Proposition 29.141. Soit (A, + , · ) un anneau, I un idéal bilatère de A et la relation binaire R


définie par ∀x, y ∈ A, xRy ⇔ x − y ∈ I,
1. est une relation d’équivalence dans A compatible avec les lois de A,
2. d’autre par I = 0A.

Remarque 29.142. On vient de montrer que les seuls ensembles quotients définis par une loi
compatibles avec les lois de l’anneau sont les ensembles quotients A/I.

Définition 29.143. Soient (A, + , · ) un anneau, I un idéal bilatère de A et R une relation


compatible avec les lois + et · telle que xRy ⇔ x − y ∈ I. On note A/I l’ensemble quotient A/
R.

Remarque 29.144. On peut donc définir les lois quotients +̄ et ¯· à partir de celle de A :
+̄: A/I × A/I → A/I , ¯: · A/I × A/I → A/I . Lois qui vont permettre de définir sur
(x̄ , ȳ ) 
x+y (x̄ , ȳ ) x· y
A/I une structure d’anneau.

Proposition 29.145. Soit I un idéal d’un anneau A. Sur le groupe additif quotient A/I, il
existe une unique multiplication qui fait de A/I un anneau. A combiner avec 29.79 (livre I).
Enoncé à revoir ! Peut-être faut-il préciser unitaire ?

Proposition 29.146. L’ensemble quotient (A/I , +̄, ¯)


· est un anneau unitaire. 1̄ est l’élément
neutre de A/I.

Définition 29.147. Soit (A, + , · ) un anneau, I un idéal bilatère de A. L’anneau (A/I , +̄, ¯)
·
est appelé anneau quotient.

Remarque 29.148. Soit A un anneau, on sait qu’il existe au moins 2 idéaux A et {0A }.
• A/A = {x̄ = x + A} = {A}; ∀x ∈ A, x̄ = A. ????
• A/{0A } = {x̄ = x + {0A }} = ; ∀x ∈ A, x̄ = {x}. ????
342 Structure d’Anneau

Proposition 29.149. Soit (A, + , · ) un anneau, I un idéal bilatère de A.

i. La surjection canonique ϕ: A → A/I est un morphisme d’anneau, tel que I = ker(ϕ)


a  ā
ii. Si de plus A est commutatif alors A/I est commutatif.

Exemple 29.150. Si A = Z, I = (n), (n ∈ Z), l’anneau quotient A/I est l’anneau des entiers
modulo n. La notion d’anneau quotient généralise bien les proprités des anneaux quotients des
entiers.

Remarque 29.151. Si A est un anneau intégre alors A/I l’anneau quotient défini par l’idéal I
n’est pas nécessairement intègre.

Exemple 29.152.
• Z est un anneau intègre.
• Z/2Z; Z/3Z;  ; Z/pZ avec p premier sont intègres (évident puisque p n’est pas le produit
de 2 autres nombres autre que 1 et lui-même).
× 1̄ 2̄
× 1̄
Z/2Z: ; Z/3Z 1̄ 1̄ 2̄ .
1̄ 1̄
2̄ 1̄ 1̄
• mais Z/6Z n’est pas intègre puisque 6 = 3 × 2.

29.3.6 Factorisation canonique d’un morphisme d’anneaux commutatifs


Remarque 29.153. Le noyau d’un morphisme d’anneau ϕ est un ideal de l’ensemble de défini-
tion de ϕ. On peut donc construire l’anneau quotient (A/ker(ϕ), +̄, ¯)
·

Proposition 29.154. Soit (A, + , · ) et (A ′, ⊕ , ⊙) deux anneaux commutatifs et f un mor-


phisme de A → A ′. La relation dans A définie par ∀x, y ∈ A, xRy ⇔ f (x) = f (y) est une relation
d’équivalence compatible avec + et · , puisque f est un morphisme d’anneaux. Soit B le noyau
de f, B est un idéal de A et A/R = A/B. (A, +̄, ¯) · est un anneau commutatif. On a donc le
schéma suivant :
f f
A → A′ x → f (x)
g↓ ↑j , g↓ ↑j avec j = Id f (A) homomorphisme injectif, où f¯ est
f¯ f¯
A/B → f < A > x̄ → f¯ (x) = f (x)
un isomorphisme d’anneau de A/B → f < A > . Tout morphisme se décompose de la manière
suivante : f = j ◦ f¯ ◦ g.

Proposition 29.155. Soit (A, + , · ) et (A ′, ⊕ , ⊙) deux anneaux commutatifs, f un morphisme


de A → A ′ , ϕ la surjection canonique de A → A/Ker(f ), j l’injection canonique de Im(f ) → A ′
alors : Il existe un et un seul morphisme d’anneau f¯ : A/Ker(f ) → Im(f ) tel que : f = j ◦ f¯ ◦ ϕ
et f¯ est un isomophisme.

Proposition 29.156. Soit I un Idéal, I est premier ⇔ A/I est intègre.

Démonstration. Cours CTES licence de mathématiques exercice 3 chapitre 8. Propriété déjà


notée page 214 en remarque 29.53 (livre 1). 

29.4 Théorème chinois


Note 29.157. Soit A un anneau, I1; I2;  ; In des idéaux de A et πi: A → A/Ii la surjection cano-
nique. On définit un morphisme d’anneaux surjectif :
29.5 Anneau euclidien et division euclidienne 343

i=1 Ii) → A/I1 ×  × A/In


Tn
A/(
ϕ:
ā  (πi(a))
On peut alors généraliser le théorème des restes chinois dans Z.

Théorème 29.158. (théorème chinois) Soit A un anneau T I1;  ; In des idéaux étrangers deux à
i=1 Ii = I1 .In.
n
deux alors le morphisme ϕ est un isomorphisme, de plus :

Note 29.159. En d’autres termes un système de congruences x ≡ ai(mod Ii), 1 6 i 6 n, a une


solution unique dans A modulo (I1;  ; In)

Corollaire 29.160. (Version classique) si (m, n) = 1 alors Z/m nZ ≈ Z/mZ × Z/nZ.

Démonstration. A = Z; I = mZ; J = nZ, I + J = mZ+ nZ = pgcd(m, n)Z = Z ⇒ I ∩ J = m nZ =


x ≡ a[m]
ppcm(m, n)Z. Remarque si (m,n)=1, le système admet une solution dans Z/
x ≡ b[n]
m nZ. 

29.5 Anneau euclidien et division euclidienne


Note 29.161. C’est tout simplement un anneau sur lequel, on va pouvoir définir la division
euclidienne ! À mettre juste après anneau principal et surtout avec section divisibilité et divi-
sion.

Définition 29.162. Soit (A, + , · ) un anneau commutatif intègre, il est dit euclidien ssi il
existe une fonction ϕ: A\{0} → N (appelée algorithme ou stathme euclidien ou encore
norme)telle que ∀a ∈ A et ∀b ∈ A\{0}, ∃q, r ∈ A avec a = b q + r et r = 0 et ϕ(a) 6 ϕ(b) ou ϕ(r) <
ϕ(b) et r  0. Définition à revoir Bréal page 238, Dico puf page 276.

Remarque 29.163. Pour qu’il y ait une division euclidienne sur l’anneau, il faudrait l’existence
d’une relation d’ordre or ce n’est pas généralement le cas. ϕ est censé jouer ce rôle (commen-
taire personnel). Inutile après le rajout de la définition (1 livre I) ci-contre ou à modifier pour
faire le lien avec la division euclidienne dans Z.

Proposition 29.164. Tout anneau euclidien est principal, euclidien ⇒ principal ⇒ factoriel.

Exemple 29.165.
1. Z est euclidien, on prend ϕ(x) = |x|.
2. Soit K un corps, l’anneau des polynômes K[X] est euclidien, on prend ϕ(P ) = deg(P ).
3. Z[i] est euclidien : Considérons, Z[i] = Z + Zi, (i2 = − 1) (anneau des entiers de
Gauss),∀a ∈ Z[i]; a = λ + µi, µ, λ ∈ Z, posons ϕ(a) = |a|2 = λ2 + µ2 ∈ N. C’est à dire on
prend ϕ(λ + i µ) = λ2 + µ2. Soient a, b ∈ Z[i]; b  0 alors a b−1 = a b¯ϕ−1(b) ∈ Q[i] = Q + Qi
1 1
a b−1 = x + i y avec x, y ∈ Q. Choisissons α, β ∈ Z avec |x − α| 6 2 et |y − β | 6 2 . Notons
q = α + iβ ∈ Z[i]. On obtient ϕ(a b−1 − q) = |(x − α) + i(y − β)|2 = (x − α)2 + (y − β)2 6
1 1 1
4
+ 4 6 2 < 1 donc ϕ(a − b q) = ϕ(a b−1 − q)ϕ(b) < ϕ(b). Ainsi Z[i] est euclidien.

1 + i 19
4. Il existe des anneaux principaux qui ne sont pas euclidiens exemple : θ = 2
, A = Z|θ]
est principal mais non euclidien.

29.5.1 Division euclidienne dans un anneau euclidien A


Définition 29.166. Soient a et b deux éléments de A, avec b non nul et ϕ le stathme euclidien
de A.
− Effectuer la division eculidienne de a par b c’est déterminer l’unique couple (q, r) d’élé-
ment de A tels que a = b q + r avec r = 0 et ϕ(a) 6 ϕ(b) ou ϕ(r) 6 ϕ(b).
344 Structure d’Anneau

− q s’appelle le quotient euclidien de la division, r s’appelle le reste euclidien.

Remarque 29.167. CTES LM3 page 5 envoi 2. «q et r ne sont pas nécessairement uniques,
par contre dans K[X] il y a unicité. Dans l’anneau euclidien K[X] des polynômes à coefficients
dans K, la division euclidienne est encore appelée division suivant les puissances décroissantes.

29.6 Propriétés des éléments premiers, des éléments pre-


miers entre eux, des PPCM et PGCD
Définition 29.168. Soit A un anneau intègre, un élément p de A est dit premier dans A ssi
l’anneau quotient A/(p) est intègre. Autrement dit ∀a, b ∈ A, p divise a b ⇒ p divise a ou b.

Définition 29.169. Soit A un anneau commutatif unitaire. On appelle élément premier tout
élément p non inversible engendrant un idéal premier (nécessairement principal) de A. (A véri-
fier Puf (p) premier ⇔ ∀x; y ∈ A; x · y ∈ (p) ⇔ x ∈ (p) ou y ∈ (p).

Note 29.170. Pourquoi ne pas définir un élément premier p sur un anneau comme dans (Z; + ;
× ) ? C’est à dire card({diviseur de p}) = 2. Cela n’a pas de sens puisque la décomposition
dépend du nombre d’éléments inversibles. Voir définition guy.philippe@les-mathématiques.net
ou les imprimés ci-joints et éventuellement Quadrature décembre 2002. Les définitions en cour
sont exposées et comparées à celle qu’il propose. La définition est placée juste après la notion
d’inversibilité.

Remarque 29.171. Soit A un anneau intègre. Si p est premier et p  0, alors p est irréduc-
tible. La réciproque sera vraie que pour un anneau factoriel.

Proposition 29.172. (Lemme d’Euclide) Si A est un anneau factoriel tout élément irréductible
de A est premier dans A. (Il y a équivalence).

Proposition 29.173. Soit A un anneau factoriel a, b ∈ A\{0}, les conditions suivantes sont
équivalentes :
i. a, b n’ont pas de facteurs irréductibles commun dans A.
ii. ∀c ∈ A, si a divise bc alors a divise c. (lemme d’Euclide)
iii. ∀c ∈ A, si a, b divise c alors a b divise c.

Proposition 29.174. Soit A un anneau factoriel, deux éléments non nuls a, b ∈ A ont un ppcm
et un pgcd (unique à un facteur inversible près). On a : d = pgcd(a, b) = p∈P pinf (Vp(a),Vp(b)) et
Q

m = ppcm(a, b) = p∈P psup (Vp(a),Vp(b)). En terme d’idéaux (m) = (a) ∩ (b), (d) est le plus petit
Q

idéal principal de A contenant (a) et (b), (a, b) = (d m).

Exemple 29.175. Z.

Remarque 29.176. Attention ! On n’a pas ppcp × ppcm = a × b. Plus généralement, on voit
que dans un anneau factoriel A, une famille finie d’élément a1, a2,  , an possède un pgcd et un
ppcm. On dit que les (ai)i sont premiers entre eux (dans leurs ensembles) si les ai n’ont aucun
facteur irréductible commun.

Théorème 29.177. Soit A un anneau principal et soit d ∼ ? pgcd(a1;  ; an) où 0  ai ∈ A. Il


existe alors ri ∈ A tel que d = r1a1 +  + rnan.

29.6.1 Elément nilpotent


Définition 29.178. Un élément a d’un anneau (A, + , · ) est dit nilpotent ssi il existe n ∈ N∗
vérifiant an = 0.
29.8 Anneau des fractions d’un anneau commutatif unitaire A 345

Exemple 29.179. Dans Z/9Z, 3 est nilpotent puisque 32 = 0.

29.7 Eléments algébriques, transcendants


Définition 29.180.
• On dit qu’un élément x ∈ B estPalgébrique sur A ssi il vérifie (i.e. est solution d’) une
p
équation non triviale du type i=0 aix = 0, p ∈ N (les ai, ai ∈ A non tous nuls). Il est
i

solution d’un polynôme non nul.

i=0 ai · x = 0, p ∈ N ⇒ ∀i, ai = 0), on dit que x est trans-


Pp
• Dans le cas contraire (i.e. i

cendants sur A. (i.e. Il n’est pas solution d’un polynôme non nul, autrement dit le seul
polynôme dont il est solution est le polynôme nul).

Note 29.181. Voir CTE page 10 envoi 3 structure algébrique (remarque).

Exemple 29.182.
√ √
1. Z √
sous-anneau de√ C, soit a ∈ Z, a ∈ C a est algébrique sur Z puisque ( a )2 − a = 0 et
Z[ a ] = Z + Z · a .
2. Z sous-anneau de Q, soit a ∈ Z, a  0, a−1 ∈ Q a est algébrique sur Z puisque (a · a−1) −
1 = 0 et Z[a−1] = {b · a−1; b ∈ Z, n > 0}, pour a = 10, on obtient l’anneau des nombres déci-
maux.
3. π est transcendant sur Q. J.C. Carréga Théorie des corps-La règle et le compas.

Remarque 29.183. L’ensemble des nombres algébriques (nombres racines d’un polynôme à
coefficients entiers) est dénombrable, il y a plus de nombres transcendants que de nombres algé-
briques.

Définition 29.184. On appelle fonction polynomiale toute fonction x


P
 aixi , ai ∈ A.

Définition 29.185. On appelle polynôme minimal d’un élément algébrique α d’un corps K,
tout polynôme irréductible et unitaire de K[X] admettant α pour racine.

29.8 Anneau des fractions d’un anneau commutatif unitaire


A
Note 29.186. Note voit Puf (Dictionnaire) page 321 ou Algèbre et géométrie (Bréal) page 202.

Définition 29.187. A trouver.

Définition 29.188. Un élément d’un anneau de fraction est appelé fraction.

Exemple 29.189. Exemples fondamentaux


1. Si A est intègre et si S = A∗ alors B est le corps de fraction de A.
h i h i h i
1 1 1
2. Si A = Z et si S = {2}; {3} ou {10} alors B = Z 2 ; Z 3 ou D = 10 i.e l’anneau de
nombre rationnels dyadiques, triadiques ou décimaux.
3. Si S est le complémentaire de (p) i.e. pZ avec p > 0 entier premier alors B = Z(p) est le
localisé de Z en p ??????

Définition 29.190. Polynôme unitaire, polynôme dont le coefficient du monôme non nul de
plus haut degré est égal à 1.

Définition 29.191. Degré d’un nombre algébrique (Voir CTE M51M page 2 envoi 3). Dic. Puf
degré de son polynôme minimal. Les nombres algébriques de degré 1 sont les nombres rationnel.
346 Structure d’Anneau

29.9 Construction d’anneau par ajout d’élément (Extension


algébrique). Extension par adjonction d’un élément
Proposition 29.192.
Pp Soit un anneau (B, + , · ), (A, + , · ) un sous-anneau de (B , + , · ) et x ∈
B, notons A[x] = { i=0 aixi , ai ∈ A, p ∈ N} est le plus petit sous-anneau de B contenant A et x.

Note 29.193. Définir les opérations sur cet anneau.


Pp
Remarque 29.194. En général, l’écriture d’un élément de A[x] sous le forme a xi , p ∈ N
P pi
i=0
n’est pas unique. Autrement dit, x peut vérifier une équation non triviale du type i=0 aix =
i

0, p ∈ N (les ai non tous nuls). Attention, il s’agit de sommes finies.

29.9.1 Extension algébrique


Voir encyclopédie p.u.f. ou cours d’algèbre pour l’agrégation.

Définition 29.195. Extension d’un anneau : si A est un sous-anneau de A ′. On dit que A ′ est
une extension de l’anneau A.

Définition 29.196. Extension algébrique d’un anneau A : Extension d’un anneau A dont tous
les éléments sont algébriques sur A.

29.9.2 Extension transcendante (Anneau des polynômes sur un anneau


commutatif)
Note 29.197. On Monday 13 May 2002 21:44, you wrote:
Question :
Monsieur,
Dans votre cours sur les anneaux vous définissez un anneau de polynômes A[x] comme le plus petit anneau
contenant un anneau A (sous anneau d’un anneau B) et un élément transcendant x dans A. Puis l’anneau des
polynômes A[X] par identification par un isomorphisme.
- je remarque que cette définition est différente de celle couramment utilisée dans la littérature, où l’on utilise
les suites, pourquoi avez vous choisi cette approche.
- cette démarche peut-elle se généraliser à un anneau non commutatif ?
Dans l’attente de votre réponse veuillez agréer, Monsieur, mes salutations distinguées.

Réponse :
J’ai volontairement choisi cette approche pour essayer de faire comprendre que ce qui était important dans un
anneau de polynômes était la propriété universelle sur les prolongements de morphismes que j’ai énoncée. Vous
remarquerez cependant que pour prouver l’existence d’un tel anneau de polynomes, j’ai utilisé la construction
classique avec les suites. Cette demarche peut se généraliser pour des anneaux A et B non commutatifs, mais à
condition de prendre pour x , par exemple un élément qui commute avec tous les éléments de A.
Meilleures salutations.
Marc Chamarie.
Commentaire personnel : il existe plusieurs voies pour obtenir des anneaux de polynôme.
Étendre un anneau existant en définissant des propriétés pour cet élément par rapport aux élé-
ments natifs ou alors repérer un élément possédant déjà ces propriétés dans l’anneau choisi.

29.9.2.1 Définition

Définition 29.198. Soit un anneau A possédant un élément transcendant les autres éléments
de A sont appelés coefficients de x. A\{x} est l’ensemble des coefficients.

Définition 29.199. Un anneau M est dit anneau de polynôme, s’il possède un élément trans-
cendant noté x dont les coefficients forment un sous-anneau A de M.
29.9 Construction d’anneau par ajout d’élément (Extension algébrique). Extension par adjonc-
tion d’un élément 347

Proposition 29.200. Soit A un anneau,


i. Tout anneau de polynôme A[x] vérifie la propriété suivante : pour tout morphisme
d’anneau f : A → A ′ , f se prolonge d’une manière unique en un morphisme d’anneaux : f˜:
A[x] → A ′ qui vérifie f˜(x) = x ′. Il suffit de poser f˜(x) = x ′ où x ′ est un point quelconque
de A ′.
ii. Il existe au moins un anneau de polynôme à coefficient dans A.

Remarque 29.201.
Si A[x], A[x ′] sont deux anneaux de polynômes, d’après la propriété (i) de la proposition pré-
cédente, on voit qu’il existe un unique isomorphisme d’anneau : A[x] → A[x ′] .
a a, ∀a ∈ A 
x x′ 
Proposition 29.202. Tous les anneaux de polynôme A[x]; A[x ′] sont isomorphes. Donc, si on
montre que M = A[x] = A[x ′], on peut étudier M indépendament de x. ??? Cela n’a pas de
sens !

Définition 29.203. On note A[X] tout anneau de polynôme M [x] dont l’anneau des coefficients
de l’éléments transcendant x est isomorphe à A. On parle donc de l’anneau de polynôme A[X] à
une indéterminée X et à coefficients dans A.

Note 29.204. Peut-on définir une relation d’équivalence entre anneaux de polynôme ?

Remarque 29.205.
1. Attention : A[X 2] ⊂ A[X], A[X 2]  A[X] mais A[X 2] ≈ A[X].
2. On définit par récurrence sur n > 1, l’anneau des polynômes à n indéterminées X1, X2,  ,
Xn et à coefficients dans A comme étant (A[X1,  , Xn−1])[X Pn] on le note A[X1,  , Xn].
tout élément de A[X1,  , Xn] s’écrit de manière unique f = ν ∈N n aνX ν ou aν ∈ A, ∀ν =
(ν1,  , νn) on a noté X ν = X ν1 · X ν2 ·  · X ν3.

29.9.2.2 Construction d’un anneau de polynôme utilisant les suites

Proposition 29.206. Soit (A; + ; · ) un anneau; M l’ensembles des suites de A nulles à partir
d’un certain rang et les opérations ⊕ et ⊙ définies sur M par :
(a0; a1; a2;  ) ⊕ (b0; b1; b2;  ) = (a0 + b0; a1 + b1; a2 + b2;  )
(a0; a1; a2;  )⊙(b0; b1; b2;  ) = (a0 · b0; a1 · b0 + a0 · b1; a2 · b0 + a1 · b1 + a0 · b2;  )
alors (M , ⊕ , ⊙) est un anneau. m, m ′ ∈ A; m · m ′ = m ′ · m.
Si A est unitaire posons X = (0; 1; 0; 0; 0;  ); X 0 = (1; 0; 0; 0; 0;  ).

Démonstration.
• (M , ⊕ ) est un groupe (facile à prouver).
⊕ est une lci (les suites restent nulles à part d’un certain rang par ⊕ )
La suite nulle (0; 0; 0;  ) est l’élément neutre de ⊕ .
La suite ( − a0; − a1; − a2;  ) est l’élément symétrique de (a0; a1; a2;  ).
• ⊙ est une l.c.i., il existe N ; ∀n > A, an = 0 donc la suite produit est encore nulle.
A⊙B = (a0 · b0; a1 · b0 + a0 · b1; a2 · b0 + a1 · b1 + a0 · b2; a3 · b0 + a2 · b1 + a1 · b2 + a0 · b3;  )
C = (c0; c1; c2; c3;  )
(A⊙B)⊙C = (a0 b0 c0; a1b0c1 + a0b1c0 + a0b0c1; a2b0c0 + a1b1c0 + a0b2c0 + a1b0c1 +
a0b1c1 + a0b1c1 + a0b0c2;  )
Soit les produits (A⊙B)⊙C A⊙(B⊙C), par permutation de ai; bi; ci on montre que :
(A⊙B)⊙C = A⊙(B⊙C).
Montrons qu’elle aussi distributive :
A ⊕ B = (a0 + b0; a1 + b1; a2 + b2; a3 + b3;  )
C = (c0; c1; c2; c3;  )
348 Structure d’Anneau

(A ⊕ B)⊙C = ((a0 + b0) · c0; (a1 + b1) · c0 + (a0 + b0) · c1; (a2 + b2) · c0 + (a1 + b1) · c1 +
(a0 + b0) · c2;  )
(A ⊕ B)⊙C = (a0 · c0 + b0 · c0; (a1 · c0 + a0 · c1) + (b1 · c0 + b0 · c1); (a2 · c0 + a1 · c1 + a0 ·
c2) + (b2 · c0 + b1 · c1 + b0 · c2);  )
Ainsi (A ⊕ B)⊙C = A⊙C ⊕ B⊙C, elle est bien distributive.
Si A est unitaire posons X = (0; 1; 0; 0; 0;  ) ainsi :
X 2 = (0 · 0; 0 · 1 + 1 · 0; 0 · 0 + 1 · 1 + 0 · 0; 0; 0;  ) = (0; 0; 1; 0; 0;  )
X 3 = (0; 0; 0; 1; 0;  )
Par convention X 0 = (1; 0; 0; 0; 0;  ) et l’on note 0X l’élément (0; 0; 0; 0; 0;  ).
(m; 0; 0; 0; 0;  )⊙X 0 = (m; 0; 0; 0; 0;  ) notons le m X 0.
Soit l’ensemble des m · X 0, il est isomorphe canoniquement à A par :
f : A → (f (A); ⊕ ; ⊙) . (f (A); ⊕ ; ⊙) est un sous-anneau de M .
m  m X0
(m; 0; 0; 0; 0;  )⊙(0; 1; 0; 0; 0;  ) = (0; 1; 0; 0; 0;  )⊙(0; m; 0; 0; 0;  )??? = f (m)⊙X 1
n’est-ce pas plutôt (0; 1; 0; 0; 0;  )⊙(m; 0; 0; 0; 0;  ) ? notons le m X 1.
Ainsi de suite. Donc toute suite (a0; a1; a2; a3;  ) nulle à partir du rang n s’écrit sous
Ln Ln
la forme i=1 f (ai)⊙X ou
i
i=1 ai X en adoptant les notations introduites précédem-
i

ment.
i=1 ai X = 0X , ∀n ⇒ (a1; a2; a3; a4;  ) = (0; 0; 0; 0;  ) ⇒ a1 =
Ln
Supposons que i

a2 =  = 0 donc X est transcendant sur M . 

Note 29.207. Pour tout anneau A unitaire, on peut construire un anneau M également uni-
taire, possédant un élément transcendant noté X, un élément unité 1M noté aussi X 0 et tel qu’il
existe un sous-anneau de M isomorphe à A.

29.9.2.3 Degré d’un polynôme

 0, P =
Pn
Définition 29.208. Soit P ∈ A[X], P i=0 ai · X i , ai ∈ A, ∀i.
• Le degré de P est le plus grand entier n tel que an  0, on le note deg(P )
• an est appelé coecient dominant.
• Si an = 1, le polynôme P est dit unitaire.

Remarque 29.209. Par convention, on pose deg(0) = − ∞.

Proposition 29.210. Soit A un anneau intègre,


i. ∀P , ϕ ∈ A[X], deg(Pϕ) = deg(P ) + deg(ϕ),
ii. l’anneau A[X] est intègre et (A[X])∗ = A∗. Si K = Frac(A), noté K(X), c’est le corps des
fractions rationnelles à une indéterminée X.

29.9.2.4 Division euclidienne

Proposition 29.211. (Division euclidienne) Soit (A, + , · ) un anneau. Soit P ∈ A[X] dont le
coefficient dominant est inversible dans A, alors ∀Q ∈ A[X], il existe un couple unique de poly-
nôme R, S ∈ A[X] tel que Q = P S + R et deg(R) < deg(P ). De plus, on a deg(S) = deg(Q) −
deg(P ).

29.9.2.5 Polynôme irréductible

Proposition 29.212. Soit P ∈ K[X] tel que deg(P ) > 1. P est irréductible si et seulement si
ses seuls diviseurs sont les constantes et les polynômes associés à P.

29.9.2.6 Polynôme scindé

Définition 29.213. Soit P ∈ K[X] un polynôme. P est scindé sur K ou pour K[X] si et seule-
ment s’il est un produit de polynôme de K[X] de degré 1.
29.9 Construction d’anneau par ajout d’élément (Extension algébrique). Extension par adjonc-
tion d’un élément 349

Proposition 29.214. Dans K[X], il y a équivalence entre :


1. Les seuls polynômes irréductibles de K[X] sont ceux de degré 1.
2. Tout polynôme non constant a une racine dans K.
3. Tout polynôme non constant est scindé.

29.9.2.7 Evaluation ou fonction d’évaluation


p.u.f. dictionnaire page 284.

Définition 29.215. Soit E un ensemble de fonctions toute définie sur E et à valeur dans un
ensemble F. L’application : E × E → F s’appelle la fonction d’évaluation relative à E et E.
(f , x) 
f (x)

Proposition 29.216. Soit (A, + , · ) un sous-anneau B et x ∈ B. Soit P ∈ A[X], P = ai X i ,


P

on note P (x) = aixi, l’application ex: A[X] → B est un morphisme d’anneau.


P
P 
P (x)

Avertissement 29.217. Examinons les écritures suivantes P = aiX i et de P (x) = ai · xi .


P P
Dans le première écriture aiX est une convention d’écriture : par définition de A[X], il existe un
i

isomorphisme f entre (A[X]; ⊕ ; ⊙) et (A; + ; · ), la convention est alors aiX i = f (ai)⊙X i. En


résumé tout se passe comme si on identifiait ai et f (ai).

Définition 29.218. On appelle évaluation ou fonction d’évaluation de x le morphisme d’anneau


ex: A[X] → B .
P 
P (x)

Proposition 29.219.
i. Ker(ex) = {P ∈ A[X]; P (x) = 0} est un idéal de A[X].
ii. et par la propriété universelle du quotient : A[X]/Ker(ex) est isomorphe à A[x],
f (A[X]) = A[x].

Définition 29.220. Si P (x) = 0, on dit que x est une racine dans B du polynôme P.

Exemple 29.221.
1. Soit a ∈ A, alors Ker(ea) = (X − a) et A[X]/(X − a) ≃ A (en effet par division euclidienne)
∀P ∈ A[X], ∃S ∈ A[X], b ∈ A; P = (X − a)S + b, (b ∈ A) en fait b = P (a) donc a est racine
de P ssi P ∈ (X − a). P ∈ ker(ea) ⇔ P (a) = 0 ⇔ (a − a)S + b = 0 ⇔ b = 0 ⇔ P = (X − a)S
autrement dit P ∈ (X − a)A[X] ou encore P ∈ (X − A), où (X − A) est l’idéal engendré
par X − a
√ √
2. a ∈ Z, considérons a ∈ C et a  Z alors Ker(e√a ) = (X 2 − a) et Z[X]/(X 2 − a) = Z ⊕

Z · a (en effet, par division euclidienne, ∀P ∈ Z[X], P = (X 2 − a)S + λX + µ avec λ, µ ∈
√ √ √ √
Z donc P ( a ) = λ a + µ ainsi a est racine de P ssi λ a + µ = 0, c’est à dire λ = µ =
0.
3. R[X]/(X 2 − 1) = R + R · i ≃ C.

Proposition 29.222. Soit A un anneau intègre, Q n P ∈ A[X], p  0. Supposons que P ait n


racines distinctes a1, a2,  , an dans A. Alors i=1 (X − ai) divise P dans A[X]. En particulier
des (P ) > n ???.

Remarque 29.223.
1. Ce résultat prouve que dans un anneau intègre, un polynôme P  0 a au plus n = deg(P )
racines distinctes.
350 Structure d’Anneau

2. C’est faux en général, par exemple l’anneau Z/8Z n’est pas intègre (2̄, 4̄ sont des divi-
seurs de 0̄ : 2̄ · 4̄ = 0̄) X 2 = 1 à 4 racines distinctes dans Z/8Z, voir tableau ci-dessous ou
les solutions sont : 1̄, 3̄, 5̄, 7̄).
0̄ 1̄ 2̄ 3̄ 4̄ 5̄ 6̄ 7̄
0̄ 0̄ 0̄ 0̄ 0̄ 0̄ 0̄ 0̄ 0̄
1̄ 0̄ 1̄ 2̄ 3̄ 4̄ 5̄ 6̄ 7̄
2̄ 0̄ 2̄ 4̄ 6̄ 0̄ 2̄ 4̄ 6̄
3̄ 0̄ 3̄ 6̄ 1̄ 4̄ 7̄ 2̄ 5̄
4̄ 0̄ 4̄ 0̄ 4̄ 0̄ 4̄ 0̄ 4̄
5̄ 0̄ 5̄ 2̄ 7̄ 4̄ 1̄ 6̄ 3̄
6̄ 0̄ 6̄ 4̄ 2̄ 0̄ 6̄ 4̄ 2̄
7̄ 0̄ 7̄ 6̄ 5̄ 4̄ 3̄ 2̄ 1̄

Définition 29.224. Soit (A, + , · ) un anneau, P ∈ A[X], a une racine de P dans A, le plus
grand entier k > 1 tel que (X − a)k divise P dans A[X] s’appelle la multiplicité de a dans P. Si
k = 1, a est une racine simple de P.

Proposition 29.225. Soit un corps K de caractéristique nulle, a ∈ K[X] et λ ∈ K, pour que λ


soit racine d’un polynôme a, avec au moins la multiplicité k ∈ N∗ , il faut et il suffit que a(λ) =
a ′(λ) =  = a(k −1)(λ) = 0.

Corollaire 29.226. Pour que λ ∈ K soit une racine simple (multiplicité égale à 1) de a ∈ K[X],
il faut et il suffit que a( λ) = 0et a ′(λ)  0.

Corollaire 29.227. Pour qu’une racine λ ∈ K de a soit exactement de multiplicité k, il faut et


il suffit que 0 = a (λ) = a ′(λ) =  = a(k−1)(λ) et a(k)(λ)  0.

29.9.2.8 Dérivée formelle d’un polynôme

Définition 29.228. On définit le polynôme dérivé de P = aiX i par P ′ = i × ai × X i−1.


P P
i i

On vérifie facilement la propriété suivante


Pn
Proposition 29.229. (Formule Leibniz) (p · q)(n) = k=0 Cnk × pk × q (n−k).

Proposition 29.230. ∀P , Q ∈ A[X], ∀λ ∈ A, (λP + Q) ′ = λP ′ + Q ′ et (P Q) ′ = P ′ Q + P Q ′.

Proposition 29.231. Soit P ∈ A[X] et a ∈ A, une racine de P, alors a est racine simple de P
ssi P ′(a)  0.

Proposition 29.232. (Formule de Taylor) Soit K un corps de caractéristique nulle et p ∈ K[X]


1 (k) 1 (k)
de degré n. Alors p(X) = nk=0 k! p(0) × k, P (a + Y ) = kk=0 k! p(a) × Y k.
P P

29.9.2.9 Interpolation de Lagrange

Proposition 29.233. Soit (A, + , · ) un anneau a1, a2,  , an des éléments de A tels que ∀i  j ,
ai − a j est inversible dans A, alors ∀b1, b2,  , bn ∈ A, il existe un unique polynôme P ∈ A[X] de
degré < n avec P (ai) = bi , ∀i, 1 6 i 6 n.

Remarque 29.234.
.Q
1. Explicitement, on peut prendre pour P : P = j b j h  j (a j − ak) (X − ak) ou
P Q
h j
.Q
bien n’est-ce pas plutôt P = j b j h  j (X − ak) (a j − ak) ???? .
P Q
h j

2. L’interpolation de Lagrange est valable en particulier si A est un corps et si les ai sont


tous distincts.
29.9 Construction d’anneau par ajout d’élément (Extension algébrique). Extension par adjonc-
tion d’un élément 351

3. Soit K un corps (ex: Z/pZ, p premier, R, C) si K est infini alors l’égalité formelle des
polunômes de K[X] est équivalente à l’égalité des fonctions polynômes associées ??? dans
Z/2Z)

29.9.2.10 Contenu d’un polynôme

Définition 29.235. Soit A un anneau factoriel. P ∈ A[X], P  0, on note c(P ) et on appelle


contenu de P le pcgd (dans A) des coefficients de P (défini à un facteur inversible près).
29.9.2.11 Polynôme primitif

Définition 29.236. On dit qu’un polynôme est primitif ssi c(P ) ∈ A∗ autrement dit les coeffi-
cients de P sont premiers entre eux.

Remarque 29.237. ∀p, c(P )−1P ∈ A[X] et est primitif.

Lemme 29.238. (Gauss) Soit A un anneau factoriel, p, q ∈ A[X]\{0},


i. P , Q sont primitifs ⇒ P Q primitifs.
ii. c(P Q) et c(P )c(Q) sont associés dans A.

Théorème 29.239. Soit A un anneau factoriel de corps des fractions K alors :


i. L’anneau des polynômes A[X] est factoriel.
ii. Les éléments irréductibles de A[X] sont d’une part les éléments irréductibles de A et
d’autre part les polynômes primitifs de A[X] qui sont irréductibles dans K[X].

Corollaire 29.240.
i. Pour tout corps K et pour tout entier n > 1, K[X1, X2,  , Xn] est factoriel (non principal
dès que n > 2).
ii. Z[X1, X2,  , Xn] est factoriel (non principal).

X 4 + 4 = (X 2 − 2X + 2)(X 2 + 2X + 2)

29.9.2.12 Critères d’irréductibilité

Théorème 29.241. (Critère Pn d’Eisenstein) Soit A un anneau factoriel, K son corps de frac-
tions. Soit P ∈ A[X], P = i=1 aiX i , an  0. Supposons qu’il existe un élément irréductible p ∈
A avec p ne divise pas an (dans A), p divise ai , ∀i, 0 6 i 6 n − 1 et p2 ne divise pas a0. Alors P
est irréductible dans K[X].

Exemple 29.242.
1. P = X 5 − 16 est irréductible sur Q, en effet posons Y = X − 1 alors P = Y 5 + 5Y 4 +
10Y 3 + 10Y 2 + 5Y − 15, on peut appliquer les critères d’Einsenstein avec p = 5 ∈ A.
2. ∀p nombre premier X p−1 + X p−2 +  + 1 est irréductible sur Q (même méthode).

Proposition 29.243. (Réduction modulo p) Soit A un anneau principal, K son corps des frac-
tions. Soit P ∈ A[X]; P = i aiX i avec an  0. On suppose qu’il existe un élément irréductible
P
p ∈ A avec p ne divise pas an. T = i anX −1 ∈ (A/p)[X] est irréductible alors P est irréductible
P
dans K[X].

Exemple 29.244.
1. 4X 3 − 10X 2 + 6X+1=P irréductible sur Q, on prend A = Z et p = 3, p ∤ 4 et modulo S.
P̄ = X 3 − X 2 + 1 est irréductible car il n’a pas de racine dans Z/3Z.
2. X 2 + Y 2 + X Y + 1 est irréductible dans R[X , Y ] (on prend A = R[Y ] et P = Y alors si
P = X 2 + Y X + (Y 2 + 1) et modulo Y , P̄ = X 2 + 1 est irréductible sur A/Y = R donc P
est irréductible dans R(Y ) donc aussi sur R[Y ] (car P est primitif).
352 Structure d’Anneau

29.9.2.13 Polynôme symétrique

Définition 29.245. Soit A un anneau, B = A[X1, X2,  , Xn] l’anneau des polynômes à n élé-
ments à n indéterminées et à coefficients dans A. Le groupe symétrique Sn agit sur B par per-
mutations verticales : ∀p ∈ B, ∀σ ∈ Sn, on pose σ(P ) = P [Xσ(1),  , Xσ(n)]. On dit que P est
symétrique ssi σ(P ) = P.

Exemple 29.246. X1X2 + X1X3 + X2X3.

∀P ∈ B, on peut écire P = ν ∈N n aνX ν où X ν = X1ν1 ×  × Xnνn pour ν = (ν1,  , νn) et aν ∈


P
A. Chaque terme aνX ν est un monôme. Si P  0, on définit le degré (total) de P par deg(P ) =
maxaν  0 (|ν |) avec |ν  ν1 +  + νn. On dira qu’un polynôme P est homogène ssi tous ses
monômes ont le même degré d. Il est claire que ∀P  0, P s’écrit de manière unique comme
somme de polynômes homogènes.

Soit T Q une autre indéterminée Pet considérons dans l’anneau des polynômes B[T ] le polynôme
n n
suivant : i=1 (T − X) = T +
n k
k=1 ( − 1) σkT
n−k
avec ∀k, 1 6 k 6 n, σk ∈ B. Un calcul facile
(récurrence sur n par exemple) montre que σ1 = X1 +  + Xn , σ2 = 16i< j6n XiX j ,  , σk =
P

16i1 <  <ik 6n Xi1 Xik ,  , σn = X1 Xn. Chaque σk est symétrique, homogène de degré k, les
P

(σk)16k6n sont les polynômes symétriques élémentaires. En particulier, si K est un corps etP ∈
K[T ] un polynôme de degré n : P = ni=0 λiT i. Supposons que P a tous ses facteurs irréducti-
P
Qn
bles de degré 1. P = λn i=1 (T − ai) avec ∀i, 1 6 i 6 n, ai ∈ K. Alors ∀i0 6 i 6 n − 1, on obtient
λi = λn( − 1)n−iσn−1(a1, a2,  , an). (Relation entre les coefficients et les racines).

Définition 29.247. Soit M (X1, X2,  , Xn) = aXu1 1X2u2 Xnun un monôme remarqu’on que
M (σ1, σ2,  , σn) = a ∈ σ1u1σ2u σnun et homogène de degré total 1u1 + 2u2 +  + n un ce nombre
s’appelle le poids du monôme M.

Définition 29.248. Le poids d'un polynôme sera le maximum des poids de ses monômes.
Remarque 29.249. L’ensemble de tous les polynômes symétriques est un sous-anneau Bsym de
B = A[X1, X2,  , Xn].

Théorème 29.250. Soit P ∈ A[X1,  , Xn] un polynôme symétrique de degré total d, il existe un
unique polynôme Q ∈ B de poids d tel que P (X1,  , Xn) = Q(σ,  , σd).
Pn
Exemple 29.251. i=1 Xi3 = σ13 − 3σ1σ2 + 3σ3.

29.9.3 Cours d’Émilie


Cette partie est à associer au cours sur les anneaux de polynômes. Ce dernier n’est pas organisé
correctement. Doit-il être séparé du cours sur les anneaux ou pas ?

29.9.3.1 Factorisation dans A[X]

Note 29.252. A = K est un corps.

Définition 29.253. P ∈ K[X]; P est irréductible sur K si :


1. deg(P ) > 1.
2. si p = f × g dans K[X] alors deg(f ) = 0 ou deg(g) = 0.
Les seuls diviseurs de P sont des constantes et des polynômes associés.

Théorème 29.254. Soit P ∈ K[X] de deg > 2. Si P a une racine dans K alors il n’est pas irré-
ductible sur K.
1. Si P a une racine dans K alors il n’est pas irréductible sur K.
29.9 Construction d’anneau par ajout d’élément (Extension algébrique). Extension par adjonc-
tion d’un élément 353

2. Si P est irréductible sur K alors P n’a pas de racine dans K.


3. Si deg(P ) = 2 ou 3 alors P est irréductible sur K si et seulement si P n’a pas de racines
dans K. Réciproque partielle de (1)

Exemple 29.255.
1. X 2 + 1 est irréductible dans R[X], car il n’a pas de racine dans R et de degré est égale à
2.
2. f (X) = X 4 + 3X 3 + 2 = (X 2 + 1)(X 2 + 2) n’a pas de racines dans R mais il n’est pas irré-
ductible dans R[X].
3. (X 2 + X + 1)2 n’a pas de racine dans R[X] et pourtant X 2 + X + 1 qui n’est ni constant,
ni associé à (X 2 + X + 1)2 divise ce polynôme !

29.9.3.2 Irréductibilité sur Q[X]


Lemme 29.256. (Lemme de Gauss) Soit f (X) = g(X)h(X) dans Z[X] si un nombre premier
p divise tout coefficient de f (x) alors p divise tout coefficient de g(x) ou bien p divise tout coeffi-
cient de h(x).

Théorème 29.257. Soit f un polynôme de Z[X] de degré > 1


1. si f (X) = g(X)h(X) dans Q[X] alors f (X) = g0(X)h0(X) dans Z[X] et d0 g0 = d0 g;
2. f (x) est irréductible dans Q[X] si et seulement si il n’y a pas de factorisation propre (i.e.
f = g h avec deg(h) < deg(f ) et deg(h) < deg(f ).

Théorème 29.258. (Critère d’irrecductibilité modulo p) Soit f ∈ Z[X] et p un nombre premier


tel que :
1. p ne divise pas le coefficient dominant de f (X).
2. La réduction f (X) modulo p est irréductible dans Z p[X], alors f est irréductile dans
Q[x]).

Exemple 29.259.
1. f (X) = X 3 + 4X 2 + 6X + 2 est irréductible dans Q[X], p = 3, f (X) = X 3 + X 2 + 2 n’a pas
de racine dans Z3 = {0̄; 1̄; 2̄}, 4 ≡ 1[3] donc est irréductible

Théorème 29.260. (Critère d’Eisentein) Soit f (X) = a0 + a1X +  + anX n ∈ Z[X](n > 1). S’il
existe un nombre premier p tel que :
1. p divise a0; a1;  ; an−1 ,
2. p ne divise pas an,
3. p2 ne divise pas a0
Alors f est irréductible dans Q[X].

Exemple 29.261. f (x) = 2X 5 + 27X 3 − 18X + 12 ∈ Q[X] est irréductible. p = 3 ne divise pas 2,
p2 = 9 ne divise pas 12, mais p = 3 divise 27, 18 et 12

Remarque 29.262. Q est le corps des fractions de Z.


Soit A un anneau factoriel et K son corps de fractions. La factorisation dans K[X] équivaut
à la factorisation dans A[X] (la factorisation dans Q[X] équivaut à la factorisation dans Z[X])
car Q corps de fraction de Z car Z est factoriel.
29.9 Construction d’anneau par ajout d’élément (Extension algébrique). Extension par adjonc-
tion d’un élément 355
Chapitre 30
Corps

30.1 Corps
Définition 30.1. Soient A un ensemble, + , · 2 lois de composition interne. On dit que le tri-
plet (A, + , · ) est une structure de corps (ou un corps) si et seulement s’il vérifie les propriétés
suivantes :
− (A, + ) est un groupe commutatif (notons 0 son élément neutre).
Le couple formé par l’ensemble et la première loi est un groupe commutatif.
− (A\{0}, · ) est un groupe.
Le couple formé par l’ensemble privé de 0 et la deuxième loi est un groupe.
− · est distributive par rapport à + .

Exemple 30.2. Q, R, C et Z/pZ pour p premier ou p ? voir CTES page 13 envoi 2 2004-2005.
Q est le plus petit corps contenant Z.

Remarque 30.3.
1. le triplet (A, + , · ) est un corps si et seulement si :
− (A, + , · ) est un anneau unitaire (notons 0 l’élément neutre pour la loi + )
− (A\{0}, · ) est une groupe.
2. Autrement dit c’est un anneau unitaire dont le groupe des unités est (A\{0}; .}
3. le triplet (A, + , · ) est un corps si et seulement si :
− (A, + , · ) est un anneau non nul.
− Tout élément non nul de A est inversible A∗ = A\{0}.
4. le triplet (A, + , · ) est un corps si et seulement si : l’anneau (A, + , · ) n’a que deux idéaux
(0) et A (à gauche ou a droite).

Démonstration.
1.
2.
3.
4. ( ⇐ ) Si A n’est pas un corps, il existe x  0 ∈ A; ∀y ∈ A, x y  1. Posons Ix = {x y1 + y2 x;
y1 ∈ A; y2 ∈ A}, Ix est un idéal. Or 1  Ix ⇒ I  E et x ∈ Ix; x = 0 ⇒ Ix  {0}. 

Définition 30.4. Un corps (A, + , · ) est dit commutatif si et seulement si sa deuxième loi est
commutative.

Proposition 30.5. Soit A un anneau et I un idéal de A alors A/I est un corps si et seulement
si I est un idéal maximal.

Théorème 30.6. (Théorème de Wedderburn) Tout corps fini est commutatif.

Corollaire 30.7. Soit A un anneau intègre alors A[X] est principal ssi A est un corps.

Remarque 30.8. R[X], Q[X], C[X] sont donc principaux.

Proposition 30.9. Si A n’est pas un corps, p irréductible ⇔ (p) maximal.

356
30.3 Corps des fractions d’un anneau intègre A 357

Définition 30.10. Un anneau est intègre si et seulement si : (x · y = 0; x  0) ⇒ (y = 0).

Remarque 30.11. En particulier un corps est un anneau intègre ! Attention l’inverse n’est pas
vrai. Exemple : Z.

Proposition 30.12. Si (A; + ; · ) est un corps alors (A; + ; · ) est un anneau intègre. Autrement
dit a · b = 0 ⇒ a = 0 ou b = 0.

Proposition 30.13. page 200 Algèbre et géométrie Bréal ou CTES page 16 envoi 1 structures
algébriques.

Proposition 30.14. Soit K un corps. L’anneau K[X] des polynômes à coefficient dans K est
euclidien.

Démonstration. CTES page 4 M51M 2004-2005. 

Proposition 30.15. Soit K[X] un corps. L’anneau K[X] est principal.

Démonstration. CTES page 5 M51M 2004-2005. 

30.2 Sous-corps engendré par une partie


Proposition 30.16.
1. L’intersection d’une famille de sous-corps d’un corps A est un sous-corps de A.
2. L’intersection de sous-corps contenant une partie X non vide de A est le plus petit sous-
corps de A contenant X.

Définition 30.17. Le plus petit sous-corps de A contenant une partie non vide de A est appelé
sous-corps engendré par X.

Proposition 30.18. Soit K0 un corps et A un sous-anneau de K0. Si A engendre K0 , alors K0


est isomorphe au corps des fractions de A.

30.3 Corps des fractions d’un anneau intègre A


Remarque 30.19. Soit A un anneau, comment construire un corps K tel que K ⊃ A ? On pro-
pose une solution qui abouti au plus petit corps contenant A. Que l’on appelle corps des frac-
tions de l’anneau A. Construction sans doute à l’origine de la définition de l’anneau des frac-
tions (sans nécessité d’intégrité de A).

Proposition 30.20. Si A est un anneau intègre et A∗ = A\{0}.


′ ′ ′ ′
i. La relation binaire R définie par (a; s)R(a
 ; s ) ⇔ a · s = a · s est une relation d’équiva-
′ a a′ ′ ′
lence sur A × A . s = s ′ ⇔ a · s = a · s ,

ii. Les opérations (a1; s1) + (a2; s2) = (a1 · s2 + a2 · s1; s1 · s2) puis (a1; s1) · (a2; s2) = 
(a1 · a2; s1 ·
a1 a2
s2) sont compatibles
 avec R et définissent des opérations sur K = (A × A∗)/R. s1
+ s2
=
a1s2 + a2s1
s s
.
1 2

iii. Muni de ces opérations K est un corps.

iv. L’application ϕ: A → K est un morphisme injectif respectant l’unité de A dans K


a (a; 1)
a

tel que ϕ(A ) ⊂ K. (a; 1) peut être également noté 1 .
358 Corps

v. Le couple (K; ϕ) possède la propriété universelle suivante (P) : si f ∈ Hom(A; B) tel que
f (1A) = 1B et f (A∗) ⊂ B ∗ , il existe un morphisme unique f de K dans B tel que f¯ ◦ ϕ = f
de plus si f est injective alors f¯ est injective.
f
A → B
ϕ
ց ↓f¯
K

Remarque 30.21. K est le plus petit corps contenant A.


La proposition précédente vient du cours d’Emilie et peut être utilisée pour définir un
anneau de fraction. La différence entre anneau de fraction et corps de fraction c’est l’intégrité
imposée à A pour définir le corps des fractions.

Proposition 30.22. L’anneau des fractions de A par rapport à A∗ est un coprs.

Définition 30.23. Ce corps est appelé corps des fractions de A.

Proposition 30.24. Le corps des fractions de l’anneau A est le plus petit corps K contenant
les éléments de A. Tout élément x ∈ K s’écrit x = a · b−1 avec a, b ∈ A, b  0.

Définition 30.25. Soit (A, + , · ) un anneau unitaire commutatif, le plus petit corps K conte-
nant les éléments de A est appelé corps des fractions de A.

Exemple 30.26.
√ √
1. Soit a ∈ Z fixé. A = Z + Z · a = {λ + µ · a ; λ, µ ∈ Z} est un sous-anneau de C. Le corps

des fractions de A est : K = Q + Q · a .
2. Le corps des fractions de Z est Q.

Remarque 30.27. Rajouter la remarque page 203 Algèbre et Géométrie Bréal.


Lire également Atlas de mathématiques page 81. Corps de fraction et des quotients.

30.4 Extension algébriques

30.4.1 Extension
Définition 30.28. Soit L un corps et K un sous-corps de L. On dit que L est une extension de
K.

Remarque 30.29. On peut voir en particulier L comme un K-espace vectoriel (l’addition est
celle du corps et la multipliaction externe est donnée par ∀λ ∈ L, ∀k ∈ L, λ · x = λx. La dimension
du K-ev L est appelée degré de L sur K et notée [L: K].

Théorème 30.30. Soit K ⊆ L ⊆ M deux extensions du corps. Alors [M : K] est fini ssi [M : L]
et [L: K] sont finis, dans ce cas on a [M : K] = [M : L][L: K].

Théorème 30.31. Les conditions suivantes sont équivalentes :


i. x est algébrique sur K,
ii. K[x] est un corps (i.e. K[X]=K(x)),
iii. dim(K[x]) < + ∞.

3
√ √ √
Exemple 30.32. 43 et 5 39 sont algébriques sur Q; 3 43 + 5 39 est algébrique sur Q.
30.4 Extension algébriques 359

Remarque 30.33. Soit X ∈ L algébrique sur K le noyau du morphisme (surjectif) d’anneaux :


K[X] → K[X]
P  P (x)
est un idéal principal engendré par un unique polynôme unitaire sur K,
appelé, le polynôme minimal de x sur K et noté Px. On a donc un isomorphisme d’anneaux
K[X]/(Px) ≃ K[x]. comme K[x] est un corps, on voit que Px est irréductible sur K. De plus par
division euclidienne, on voit que deg(Px) = [K[x]: K]. En fait {1, x,  , xn−1}, (n = deg(Px)) est
une base de u K-e.v. K(x), on dit que x est algébrique de degré n.

Exemple 30.34.
1. X 2 + 1 est irréductible sur R et on a R[X]/(X 2 + 1) ≃ R[i] = C.

2. 4 2 est algébrique de degré 4 sur Q (car X 4 − 2 est irréductible sur Q par le critère
√ √ √ √
d’Eisernstein). On a Q ⊆ Q( 2 ) ⊆ Q(4 2 ), 4 2 est algébrique de degré 2 sur Q( 2 ), le

polynome minimal x2 − 2 .

30.4.2 Extension algébrique


Définition 30.35. Une extension K ⊆ L est dite algébrique sur K ssi tout élément x ∈ L est
algébrique sur K.

Proposition 30.36. Soit K ⊆ L une extension,


i. Si [L: K] est fini alors L est algébrique sur K.
ii. Soit x1, x2,  , xn des éléments de L. Notons K[x1,  , xn] le plus petit sous-anneau (resp.
K(x1,  , xn) le plus petit sous-corps) contenant K et les xi. Alors les xi sont algébriques
sur K, alors K[x1,  , xn] = K(x1,  , xn) et c’est une extension de degré fini de K.
iii. Si x, y ∈ L sont algébriques sur K, alors x + y, − x, x y, x−1 sont aussi algébriques sur K,
autrement dit {x ∈ L, x algébrique sur K } est un sous-corps de L, extension algébrique de
K.

30.4.3 Adjonction de Racines


Proposition 30.37. Soit K un corps et P ∈ K[X] un polynôme non constant. Il existe une
extension L de K et a ∈ L avec L = K(a) et P (a) = 0. (On dit que L est un corps de rupture de
P sur K).

Définition 30.38. Soit K un corps, on dit qu’un polynôme P ∈ L ′[X] non constant est scindé
sur K ssi P ′′ a toute ses racines dans K ′′ , c’est à dire si tous facteurs irréductibles de P dans
K[X] sont degré 1.

Corollaire 30.39. Soit K un corps, P ∈ K[X] non constant. Il existe une extension de degré
fini L telle que p soit scindé sur L.

Proposition 30.40. Soit K un corps. Les conditions suivantes sont équivalentes :


i. ∀P ∈ K[X] non constant P est scindé sur K.
ii. Tout (ou les seuls) polynôme(s) irréductible(s) dans K[X] est (sont) de degré 1.
iii. Si L est extension algébrique de K, alors L = K.
iv. Tout polynôme non constant a une racine dans K.

Définition 30.41. Si K vérifie ces conditions, on dit que K est algébriquement clos.

Proposition 30.42. K un corps algébriquement clos. Tout polynôme p = anX n +  + a0 de


degré n > 1 se factorise sous la forme an(X − α1) ·  · (X − αn)

Démonstration. Pas mise en facteur succ ??? comme dans le corollaire 1. 


360 Corps

Proposition 30.43. Soit K un corps et p ∈ K[X]. Si on a deg(p) 6 n et si p admet (n + 1)


racines distinctes alors p = 0.

Remarque 30.44.
1. 0 est racine de a ⇔ ã(0) = ? ⇔ X |a ⇔ le terme constant de a est nul.
2. ∀a ∈ A[X]; a  0, (X − λ)n |a ⇒ n 6 deg(a). Contraposée deg(a) < n et (X − λ)n |a ⇒ a = 0.

Exemple 30.45.
1. C est algébriquement clos (Théorème d’Alembert).
2. Soit K un sous corps de C alors K̃ = {x ∈ C, algébrique sur K } est un corps algébrique-
ment clos, extension algébrique de K: K̃ est une clôture algébrique de K. Par exemple
K̃ = C mais Q̃  C (Il exites des nombres réels non transcendants sur Q.
3. (Théorème de Stenitz)(admis) : tout corps a une clôture algébrique.

30.5 Corps finis


Définition 30.46. Soit p un nombre premier. On note F p le corps Z/pZ.

Remarque 30.47. On sait que l’anneau quotient Z/pZ est un corps à p éléments.

Proposition 30.48. Soit K un corps fini : alors caract(K) est un nombre premier p. En parti-
culier [K: F p] = f < + ∞, donc card(K) = p f.

Démonstration. car sinon K contient Q ce qui est absurde puisque Q est infini par suite K
contient Fp. 

Réciproquement :

Théorème 30.49. Soit p un nombre premier et f > 1 un entier. Il existe un corps fini à q =
p × f éléments. De plus ce corps est unique à un isomorphisme près. On le note F q.

Corollaire 30.50. Soit K un corps fini alors ∀n > 1 il existe un polynôme P ∈ K[X] irréduc-
tible de degré n.

Remarque 30.51. Le résultat précédent est encore vrai pour K = Q (prendre par exemple
X n − 2) mais est faux en général par exemple K = R, les polynômes irréductibles sont exacte-
ment les polynômes de degré 1 et les polynômes de degré 2 a x2 + b x + c avec b2 − 4a c < 0.

Proposition 30.52. Soit A un anneau principal :


i. Un élément p de A est irréductible ssi l’anneau quotient de A/(p) est un corps.
ii. Soient a, b ∈ A/{0} de pgcd(a, b) alors (d) = (a) + (b).

En particulier a, b sont premier entre eux ssi ∃λ, µ ∈ A avec λa + µb = 1 (Identité de Bezout).

Démonstration. Preuve page 93 cours CTES. 

30.6 Corps ordonné


Définition 30.53. Soit (K; + ; × ) un corps et 6 une relation d’ordre K. On dit que (K; + ; ×
; 6 ) est un corps ordonné si et seulement si :
∀(x; y; z) ∈ K 3, x 6 y ⇒ x + z 6 y + z; x 6 y et o 6 z ⇒ x × z 6 y × z.
30.6 Corps ordonné 361
Chapitre 31
Divers

31.1 Loi de compostion externe ou loi d’action


A mettre à part.

Définition 31.1. Soient Ω un ensemble appelé domaine opérateur et E un autre ensemble.


On appelle action, loi d'action ou encore loi de composition externe de Ω sur E toute
application f : |Ω × E → E. Si l’on désigne par ∗ cette loi alors ∀(λ, a) ∈ Ω × E , f (λ, a) est noté
λ ∗ a.

31.2 Module
Définition 31.2. On appelle module sur un anneau commutatif unitaire (A; ⊕ ; ⊗ )(d’élément
neutre 1A), tout groupe Abélien E muni d’une action (loi de composition interne) (α; x) 
α·x
de A sur E telle que pour tout couple (α; β) d’élements de A et tout couple (x; y) d’élément de
E:
• α · (β · x) = (α ⊗ β) · x
• (α ⊕ β) · x = α · x + β · x
• α · (x + y) = α · x + α · y
• 1A · x = x

Remarque 31.3. Un module sur un corps commutatif K est un K-espace vectoriel. Le défini-
tion entre Module et espace vectoriel sont pratiquement identiques. La seule différence étant la
nature du domaine opérateur. C’est un anneau pour un module et un corps pour un espace vec-
toriel.

31.3 Espace vectoriel


Dans ce chapitre K désigne un corps commutatif. En pratique K = R ou C. Déjà dans le 1er
volume page 39 à 51.

Définition 31.4. Soit (K, ⊕ , ⊗ ) un corps commutatif, d’élément neutre 1K , E un ensemble,


une loi de composition interne notée + , une loi externe (action) notée · : K×E → E
(λ, x) 
λ·x
telles que :
• (E , + ) est un groupe abélien
• ∀λ, µ ∈ K, ∀x ∈ E , (λ ⊕ µ) · x = λ · x + µ · x,
• ∀λ ∈ K, ∀x, y ∈ E , λ · (x + y) = λ · x + λ · y,
• ∀λ, µ ∈ K, ∀x ∈ E , λ(µ · x) = (λ ⊗ µ) · x,
• ∀x ∈ E , 1K · x = x.
On appelle K-espace vectoriel le triplet (E , + , · ) et on dit que E a une structure d’espace vecto-
riel.

362
31.4 Algèbre 363

Définition 31.5. Soient (E , + , · ) un K-espace vectoriel, F une partie de E (F ∈ P(E)) et ⊕ ,


K
⊙ les lois induites par celles de E. On dit que (F , ⊕ , ⊙) est un sous -espace vectoriel si et
seulement si (F , ⊕ , ⊙) est un K-espace vectoriel.

Proposition 31.6. Soient (E , + , · ) un K-espace vectoriel, F une partie de E (F ∈ P(E)) et


K
⊗ , ⊙ les lois induites par celles de E. On dit que (F , ⊕ , ⊙) est un sous -espace vectoriel
si et seulement si :
• F  ∅, (F n’est pas vide)
• ∀x, y ∈ F , x ⊕ λ⊙y ∈ F, (F est stable par combinaison linéaire).

Remarque 31.7. Les lois induites peuvent être également notées + , · .

Proposition 31.8. Soient E un K-espace vectoriel, F1, F2 deux sous K-espaces vectoriels de E.
L’ensemble {x1 + x2; (x1, x2) ∈ F1 × F2} est un sous K-espace vectoriel de E.

Définition 31.9. Soient E un K-espace vectoriel, F1, F2 deux sous K-espaces vectoriels de E.
Le sous K-espace vectoriel de E {x1 + x2; (x1, x2) ∈ F1 × F2} est appelé somme de F1 et F2.
On le note F1 + F2. Ainsi F1 + F2 = {x1 + x2; (x1, x2) ∈ F1 × F2}.

Définition 31.10. Soient E un K-espace vectoriel, F1, F2 deux sous K-espaces vectoriels de E.
On dit que F1 et F2 sont en somme directe si et seulement si tout élément de F1 + F2
s’écrit comme somme unique d’un élément de F1 et d’une élément de F2 :
Autrement dit ∀x ∈ F1 + F2, ∃!(x1, x2) ∈ F1 × F2; x = x1 + x2.
Dans ce cas F1 + F2 s’écrit F1 ⊕ F2 et on dit que F1 ⊕ F2 est la somme directe de F1 et F2.

Proposition 31.11. Soient E un K-espace vectoriel, F1, F2 deux sous K-espaces vectoriels de
E.
F1 et F2 sont en somme directe si et seulement si F1 ∩ F2 = {0}.

Définition 31.12. Soient E un K-espace vectoriel, F1, F2 deux sous K-espaces vectoriels de E.
Deux espaces vectoriels sont dits supplémentaires si et seulement si leur somme directe est
égale à E : E = F1 ⊕ F2 autrement dit E = F1 + F2 et F1 ∩ F2 = {0}.

31.4 Algèbre
Même remarque que précédement.

Définition 31.13. Soient K un corps commutatif, E un ensemble, une loi de composition


interne notée + , une loi externe (action) notée · : K × E → E et une loi de composition
(λ, x) 
λ·x
interne notée × telles que :
• (E , + , · ) est un K-espace vectoriel,
• × est distributive sur + ,
• ∀λ ∈ K, ∀x, y ∈ E , λ · (x × y) = (λ · x) × y = x × (λ · y).
On appelle K-algèbre le quadruplet (E , + , · , × ) et on dit que E a une structure d’algèbre.
− Une K-algèbre est dite associative ssi × est associative,
− Une K-algèbre est dite commutative ssi + est commutative,
− Une K-algèbre est dite unitaire (ou unifère) ssi E contient un élément neutre pour × .

Remarque 31.14.

Définition 31.15. Soient (E , + , · , × ) une K-algèbre, F une partie de E (F ∈ P(E)) et ⊕ , ⊙,


K
⊗ les lois induites par celles de E. On dit que (F , ⊕ , ⊙, ⊗ ) est une sous -algèbre si et seu-
lement si (F , ⊕ , ⊙, ⊗ ) est une K-algèbre.
364 Divers

Proposition 31.16. Soient (E , + , · , × ) une K-algèbre, F une partie de E (F ∈ P(E)) et ⊕ ,


K
⊙, ⊗ les lois induites par celles de E. On dit que (F , ⊕ , ⊙, ⊗ ) est une sous -algèbre si et
seulement si :
• (F , ⊕ , ⊙) est un K-espace vectoriel,
• ∀x, y ∈ F , x ⊗ y ∈ F, (F est stable pour la troisième loi).
Autrement dit
• F  ∅, (F n’est pas vide)
• ∀x, y ∈ F , x ⊕ λ⊙y ∈ F, (F est stable par combinaison linéaire).
• ∀x, y ∈ F , x ⊗ y ∈ F, (F est stable pour la troisième loi).

Remarque 31.17. Les lois induites peuvent être également notées + , · , × .


31.4 Algèbre 365
Chapitre 32
Arithmétique
Note 32.1. Cette leçon doit s’intituler N et Z ensembles des entiers naturels et relatifs. Défini-
tions, propriétés et arithmétique des entiers. Ces définitions et propriétés peuvent se retrouver
dans les leçons sur les groupes, les anneaux ou d’autres comme exemples.
Il manque le début du cours ! RAjouter la construction de N puis la notion de divisibilité.

32.1 Principe de récurrence et axiome d’ordre


Note 32.2. (Rappel) Propriété héréditaire : Soit P une propriété portant sur n ∈ Z, notée
P (n). Soit n0 ∈ Z, P est héréditaire à partir du rang n0 si et seulement si ∀n ∈ Z: n > n0, P (n) ⇒
P (n + 1). (Cours Émilie).

Théorème 32.3. ( ... de récurrence) Si P (n0) est vraie et si P est héréditaire à partir du rang
n0 alors ∀n ∈ Z; n > n0; P (n) est vraie. (Cours Émilie).

Proposition 32.4. Toute partie non vide de N admet un élément minimal (Cours Émilie).

Proposition 32.5. Les trois propositions suivantes sont équivalentes :


i. (1er principe de récurrence) Soit A une partie non vide de N et m ∈ N, si n0 ∈ A et
∀n > n0; n ∈ A ⇒ n + 1 ∈ A alors A = N ∩ [n0; + ∞[ = {n0; n0 + 1;  }.
ii. (2ème principe de récurrence) Soit A une partie non vide de N et n0 ∈ N, si n0 ∈ A et
∀n > n0, n0; n0 + 1;  ; n ∈ A ⇒ n + 1 ∈ A alors A = N ∩ [n0; + ∞[.
iii. (axiome du bon ordre) Toute partie non vide de N admet au plus un plus petit élément.

Démonstration. Cours de licence Maths arithmétique algèbre (Zeng). 

32.2 Z possède une structure de groupe.


Proposition 32.6. (Z; + ) est un groupe.

Proposition 32.7. (a Z; + ) est un sous-groupe de (Z; + ), ∀a ∈ Z.

Remarque 32.8. En fait, ce sont les seuls sous-groupe de Z et tout sous-groupe de (Z; + )
s’écrit sous cette forme. C’est ce qu’énonce la propriété suivante :

Théorème 32.9. Soit A un partie non vide de Z.


(A sous-groupe de Z) ⇔ (∃!a ∈ N; A = a Z).

32.3 Division euclidienne


Théorème 32.10. Étant donné 2 entiers a et b avec b > 0, il existe un unique couple (q; r) tel
que a = b q + r avec 0 6 r < b.

Définition 32.11. On appelle division euclidienne ... voir page 217 et 218.

366
32.4 Z possède une structure d’anneau. L’anneau (Z, + , × ) 367

32.4 Z possède une structure d’anneau. L’anneau (Z, + , × )


32.4.1 Diviseur, multiple, PPCM et PGCD
Définition 32.12. Soit a; b ∈ Z, on dit que « b divise a » si et seulement si, il existe q ∈ Z tel
que a = b × q. On dit aussi que « b est un diviseur de a » ou encore « a est un multiple de b ».

Théorème 32.13. (Identité de Bezout) Soit a et b 2 entiers non nuls. Il existe un diviseur
commun d > 0, tel que tout diviseur commun à a et b divise d. De plus, il existe des entiers u et
v tels que a × u + b × v = d.

Définition 32.14. L’entier d s’appelle le plus grand diviseur commun à a et b, noté PGCD(a;
b) ou plus simplement (a; b).

Remarque 32.15. Le couple (u; v) n’est pas unique !

Lemme 32.16. (Algorithme d’Euclide) Soit a; b; c 3 entiers tels que a = b × q + c avec q ∈ Z


alors PGCD(a; b) = PGCD(b; c).
|a × b|
Corollaire 32.17. (a; b) × [a; b] = |a × b| et [a; b] = (a; b)
.

Proposition 32.18. Les seuls éléments inversibles de Z sont : − 1 et 1.

32.4.2 Nombres premiers entre eux


Définition 32.19. Deux éléments sont premiers entre eux si et seulement si, leur pgcd est 1.

Théorème 32.20. (Théorème de Bezout) Deux éléments sont premiers entre eux si et seule-
ment si, il existe un couple d’entiers (u; v) tel que a × u + b × v = 1.

Note 32.21. Attention : (a × u + b × v = d) ; (pgcd(a; b) = d).

Théorème 32.22. aZ + bZ = PGCD(a; b)Z et aZ ∩ bZ = PPCM(a; b)Z.

Théorème 32.23. (Théorème de Gauss) (a|(b × c), a ∧ b = 1) ⇒ (a|c).


Autrement dit, si a divise un produit et si a et premier avec un des facteurs alors a divise le
second.

Théorème 32.24. (Equation diophantienne) L’équation a × x + b × y = c a des solutions


entières si et seulement si pgcd(a,b) divise c. Si (x0, y0) est une solution entière, alors toute
solution s’exprime comme suit :

 x = x0 − b × t
d
 y = y0 + a × t
où t ∈ Z.
d

Théorème 32.25. Soient a, b deux entiers non nuls. Il existe un unique multiple commun à a
et b tel que tout multiple commun à a et b est un multiple de m.

Définition 32.26. L’entier m > 0 s’appelle le plus petit multiple commun à a et b. On le note
m = ppcm(a, b).

Proposition 32.27. kZ; k ∈ N est un sous-anneau de Z.

32.4.3 Nombres premiers


Définition 32.28. Un élément p ∈ N est dit premier si et seulement si :
368 Arithmétique

il n’est pas factorisable en produit de 2 entiers inversibles ou de 2 entiers non inversibles.


Autrement dit, p n’est factorisable en un produit de 2 facteurs, que si l’un des facteurs est
inversible et pas l’autre.

Remarque 32.29. Rappelons que 1 est l’unique élément inversible de N.

Exemple 32.30.
Nombre Décomposition Premier Raison
1 1×1 non Produit de 2 nombres inversibles
2 1×2 oui Uniquement produit d’1 inversible et 1 non inversible
3 1×3 oui Id em

4 1×4; 2 × 2 non Produit de 2 nombres non inversibles


5 1×5 oui U n iq u em en t P ro d u it d ’1 inversib le et 1 n o n inve rsib le

6 1×6; 2 × 3 non P ro d u it d e 2 n o m b res n o n inversib le s

7 1×7 oui U n iq u em en t P ro d u it d ’1 inversib le et 1 n o n inve rsib le

8 1×8; 2 × 4 non P ro d u it d e 2 n o m b res n o n inversib le s

   
Pour caractériser un nombre premier, on préfèrera les proprositions suivantes :

Proposition 32.31. Un entier p est premier si et seulement si il vérifie l’une des propositions
suivantes :

p>2
1.
∀a ∈ N∗, (a|p) ⇒ (a = 1 ou a = p)
2. Il n’a que deux diviseurs.

Remarque 32.32. Dans une proposition, si la condition pour une variable est d’être un
nombre premier on la notera p et n dans le cas contraire.

Lemme 32.33. Si p|a × b et (p; a) = 1 alors p|b. (Lemme de Gauss).

Proposition 32.34. Soit p en entier premier,!n ∈ N et x1, x2,  , xn ∈ Z.


Yn
On a p| xi ⇔ (∃j ∈ Nn , p|x j )
i=1
Autrement dit, si p divise un produit et p premier alors p divise au moins un des facteurs.

Démonstration. Monier livre Analyse 1, page 121. 

Rajouter les propostions page 121

Proposition 32.35. Tout entier n > 2 admet√au moins un diviseur premier. De plus si n n’est
pas premier, il admet un diviseur premier d 6 n .

Théorème 32.36. (Théorème d’Euclide) La suite des nombres premiers est illimitée.

Théorème 32.37. (Théorème fondamentale de l’arithmétique) Tout entier > 1 se factorise


d’une manière unique comme un produit de nombres premiers.

Proposition 32.38. Si les décompositions en facteurs premiers de 2 entiers a et b s’écrivent :


a = pa1 1 ×  × par r et b = pb11 ×  × pbrr alors :
pcgd(a, b) = pm1
in (a1,b1)
×  × pmr
in (ar ,br)
, ppcm(a, b) = pm
1
ax (a1,b1)
×  × pmax
r
(ar ,br)

Corollaire 32.39. a × b = pgcd(a, b) × ppcm(a, b).

Remarque 32.40. E = 2Z = {0; ± 2; ± 4;  }.


On appelle nombre premier de E s’il n’est pas produit de deux entiers pairs :
− 840 = (2 × 3) × (2 × 5) × (2 × 7)
32.5 Z/nZ définition et propriétés. L’anneau (Z/nZ, + , · ) 369

− 840 = (2 × 1) × (2 × 7) × (2 × 15)
 
d|a
d|b
⇒ d|pgcd(a, b) et a|m
b|m
⇒ ppcm(a, b)|m

Proposition 32.41. Toute partie non vide majorée de Z a un plus grand élément. (Origine
axiome de construction de N).

32.5 Z/nZ définition et propriétés. L’anneau (Z/nZ, + , · )


Table de Pythagore par l’addition et la multiplication pour Z/4Z.
+̄ 0̄ 1̄ 2̄ 3̄ ׯ 0̄ 1̄ 2̄ 3̄
0̄ 0̄ 1̄ 2̄ 3̄ 0̄ 0̄ 0̄ 0̄ 0̄
1̄ 1̄ 2̄ 3̄ 0̄ 1̄ 0̄ 1̄ 2̄ 3̄
2̄ 2̄ 3̄ 0̄ 1̄ 2̄ 0̄ 2̄ 0̄ 2̄
3̄ 3̄ 0̄ 1̄ 2̄ 3̄ 0̄ 3̄ 2̄ 1̄
Définir homomorphisme :

Proposition 32.42. Application π: Z → Z/nZ est un homomorphisme d’anneau appelé pro-


x x̄ 
jection canonique de Z sur Z/nZ.

Note 32.43. π est surjective et non injective. Autrement dit, on montre que :
• π(x + y) = π(x)+̄π(y)
• ¯ π(y)
π(x × y) = π(x)×

Remarque 32.44. En particulier sa structure d’anneau (Z/nZ, + , · ). Base de construction


d’un anneau, d’un groupe.

Proposition 32.45. Soit un entier n. La relation Rn dans Z définie par :


(aRnb) ⇔ (n|(a − b)) ou ((a − b) ∈ nZ) est une relation d’équivalence sur Z.
On écrit alors a ≡ b[n] pour exprimer que a, b sont congrus modulo n.

Définition 32.46. L’ensemble quotient Z/Rn est noté Z/nZ.

Z/nZ = {0̄, 1̄, 2̄,  , n − 1}

Exemple 32.47. L’heure est comptée dans Z/12Z ou Z/24Z.

Remarque 32.48. La relation de congruence est plus faible que l’égalité :


En fait (a = b) ⇔ (a ≡ b[n], ∀n > 1).

Proposition

32.49.

Soit un entier n > 1 et a, b, c, d des entiers quelconques alors :
a≡b a+c≡b+d
c≡d
[n] ⇒ a·c≡b·d
[n]. À vérifier !

Remarque 32.50.
• En particulier ∀m, a ≡ b[n] ⇒ a × m = b × m[n].
• A-t-on aussi ? ∀m, a ≡ b[n] ⇒ am ≡ bm[n] (voir Monier) La propriété est-elle vraie pour
d’autres opérations.
• Cela signifie que la relation d’équivalence est compatible avec l’addition et la multiplica-
tion de Z.

Proposition 32.51.
1. Les loi + et · définies sur Z/nZ par : ā + b¯ = a + b et ā · b¯ = a × b sont des lois de
composition interne sur Z/nZ.
370 Arithmétique

2. (Z/nZ, + , · ) est un anneau.

Remarque 32.52. Si dans l’anneau (Z, + , × ) on a : (a b = 0) ⇒ (a = 0 ou b = 0), ce n’est pas le


cas dans Z/nZ. Autrement dit, il n’est pas intègre.

Exemple 32.53. Soit Z/6Z = {0̄, 1̄, 2̄,  , 5̄}. 2̄ · 3̄ = 6̄ = 0̄ or 2̄  0̄, 3̄  0̄.

Définition 32.54. Un élément ā d’un anneau (Z/nZ, + , · ) est dit inversible si et seulement si :
∃b¯ ∈ Z/nZ; ā · b¯ = 1̄ autrement dit a · b ≡ 1 [n].

Définition 32.55. Soit un entier n > 2.


L’ensemble (Z/nZ, · ) des éléments inversibles de Z/nZ est noté (Z/nZ)∗.

Proposition 32.56. Soit un entier n > 2.


L’ensemble des éléments inversibles (Z/nZ)∗ de l’anneau (Z/nZ, + , · ) est un groupe pour la
multiplication : ((Z/nZ)∗, · ) est un groupe.

Proposition 32.57. Soit un entier n > 2 et ā ∈ Z/nZ alors :


( ā est inversible ) ⇔ ( a est premier avec n ).

Corollaire 32.58. Soit un entier p premier, alors Z/pZ est un corps (on le note F p), i.e. tous
ses éléments sauf 0̄ sont inversibles, (Z/pZ)∗ = {1̄,  , p − 1}, il y a donc p − 1 éléments inversi-
bles.

Définition 32.59. Soit un entier n > 2,


• On appelle indicatrice d'Euler, et on note ϕ(n) le nombre d’élément inversible de Z/
nZ :
ϕ(n) = card({1 6 k 6 n − 1; pgcd(k, n) = 1}), c’est le cardinal i.e. l’ordre de l’ensemble
des nombres premiers avec n.
• On appelle fonction indicatrice d'Euler l’application :
ϕ: N\{0, 1} → N∗
n ϕ(n)
Remarque 32.60. ϕ(p) = p − 1 si p est premier.

Théorème 32.61. (Théorème d’Euler) Soient n > 2 et a deux entiers premiers entre eux alors :
a ϕ(n) ≡ 1 [n].

Remarque 32.62. Attention ! Cela ne signifie pas que ϕ(n) soit nécessairement le plus petit
entier m tel que am ≡ 1[n], c’est à dire l’ordre de a dans Z/nZ. Une recherche manuelle
s’impose. Exemple : dans Z/25Z, ϕ(25) = 20 et 1920 ≡ 1[25] mais aussi 1910 ≡ 1[25].

Corollaire 32.63. (Petit théorème de Fermat) Soit p un nombre premier alors :


1. Sans condition supplémentaire :
a p ≡ a, [p].
2. si de plus pgcd(a, p) = 1 (a, p premiers entre eux) :
on a toujours ap ≡ a, [p] mais aussi a p−1 ≡ 1, [p].

Démonstration. CTES 2004-2005 envoi 2 page 12 ou cours Zeng. 

Théorème 32.64. (Théorème de Wilson) Soit un entier p.


p premier ⇔ (p − 1)! ≡ − 1, [p].

Proposition 32.65. Soient a, b, d des entiers quelconques et r, s des entiers positifs alors :

a ≡ b [r]
1. a ≡ b [s]
⇔ a ≡ b, [ppcm(r, s)].
32.5 Z/nZ définition et propriétés. L’anneau (Z/nZ, + , · ) 371

h i
r
2. a d ≡ b d [r] et d 0[r] ⇒ a ≡ b pgcd(r, d)
. Autrement dit, si d, r sont premiers a ≡ b [r]
et on a : a ≡ b[r] ⇒ a × d = b × d[r].

a ≡ b [r]
Note 32.66. a ≡ b [s]
⇒ ? ⇐ a ≡ b, [r; s] Quelle propriété a-t-on ? si on remplace ppcm(r,s) par
r × s.

Proposition 32.67. L’équation a x ≡ b [n] admet des solutions si et seulement si pgcd(a, n)


divise b.

Remarque 32.68. Si a est inversible (i.e.) a et n premiers entre eux alors a × x = b[n] ⇔ x ≡
a−1 × b[n] où a−1 est l’inverse de a modulo n.

Théorème 32.69. (Théorème des restes chinois) Soient le système S où m1,  , mγ sont des
entiers positifs deux à deux premiers entre eux
 :
 x ≡ b1 [m1]
(S) 
x ≡ bγ [m γ ]
Le système (S) admet une unique solution x0 modulo m = m1 ×  × m γ.
Autrement dit une seule solution x0 dans Z/mZ et dans Z toutesP γi les solutions sont données
par x = x0 + k × (m1 ×  × m γ ). Méthode pour trouver x0 : x0 = i=1 bi ci mi′ où pour mi donné,
γ
′ m
X m m
ci est l’inverse de mi = m [mi] ou x0 = bi × × ci avec ci inverse de m modulo [mi]. γi =
i mi i
bi × M i=1
m
× c i.
i

Proposition 32.70. Soient m et n deux entiers premiers entre eux alors :


ϕ(m n) = ϕ(m) × ϕ(n)

Proposition 32.71. Soit p un nombre premier et un entier n > 0 alors :


ϕ(pn) = (p − 1)pn−1
32.5 Z/nZ définition et propriétés. L’anneau (Z/nZ, + , · ) 373
Chapitre 33
Analyse Réelle
Fonctions mesurables
Anneau, Algèbre
* Intégrale et tribu
d'ensemble

Fonctions d'intégrable
de Lebesgue convergente

Fonctions Lebesgue intégrables


* Théorèmes de convergence

Fonctions Riemann-intégrables
Fonctions dont l'ensemble des points de
discontinuité est de mesure nullel
Fonctions
d'intégrable de
Riemann Fonctions continues à
convergente support compact
Fonctions de
carré
Fonctions presque-partout intégrable
nulles

Fonctions de puissance p intégrable

Fonctions
Théorie de la mesure
* Ensemble mesurable
* Propriété vraie presque partout

L1:Espace quotient des


L2:Espace quotient des
fonctions intégrables
fonctions de carré intégrable
(quotienté par l'espace des
(quotienté par l'espace des
fonctions presque partout nulles)
fonctions presque partout nulles)

Lp:Espace quotient des


fonctions de puissance p intégrable
(quotienté par l'espace des
fonctions presque partout nulles)

Synthèse des classes de fonctions du point de vue de l’intégration.


Deux fonctions continues égales presque partout sont égales partout ? ! !.

33.1 Objectifs
Transformée de Fourier dans R et S1 (cercle unité).

33.1.1 Plan d’étude


Espace L p(Rn) : L p(Rn) = {f : R → C; f ∈ L0, R n |f (x)| pdx < + ∞}. Ce sont des espaces
R

vectoriels de dimension infinie, où l’on définit une semi-norme N p(f ) =
 p1
|f (x)| dx . N p(f ) sera une norme sur L .
p p
R
Rn

374
33.1 Objectifs 375

− On quotiente par N espace des fonctions négligeables et on note : Lp(Rn) = L p(Rn)/N .


Sur Lp on récolte alors une norme dite norme de L p ou d’indice p : appelée norme de
Hölder : si [f ] ∈ Lp on note k[f ]k p = Np(f ), si p = 1, 2 on dit que N p est la norme de la
convergene en moyenne et en moyenne quadratique . Attention [f ] est une classe d’équi-
valence alors que f n’est qu’un représentant de cette classe.
− On obtient le résultat : Théorème de Riesz : (L p(Rn), k.kp) est un espace de Banach.
− On obtient des théorèmes de densité : Les espaces Lp admettent des sous-espaces denses

remarquables : en désignant par CC (Rn), CC (Rn) les espaces des fonctions indéfiniment
dérivables et resp. continues à support compact, par Escλd(Ω, K), l’ensemble des fonctions
en escalier λd-intégrable sur Ω et par ETµ (Ω, K), l’ensemble des fonctions T -étagée µ-inté-
grable sur Ω. CC ∞
(Rn), CC (Rn), Escλd(Ω, K), ETµ(Ω, K), Lp(Rn) ∩ L q(Rn) sont denses dans
L (R ) au sens de la norme k.k p , p ∈ [1, + ∞[ pour (? p = + ∞ pour ETµ(Ω, K) ?).
p n

Remarque 33.1. Dans cette étude, on prendra la plus part du temps : n = 1, la généralisation
ne posant pas de problème. Et p sera un réel p > 1 la plus part du temps on prendra p = 1, 2 ou
∞. Une grande partie du cours sera consacrée à p = 1, car les autres cas se ramènent au cas p =
1.

33.1.2 Le cas p = 1
L1(Rn) est le plus intéressant Soit deux fonctions f , g ∈ L1(Rn), f × g  nécessairement à
L1(Rn), × n’est pas une loi de composition interne par contre le produit de convolution défini
par ∗ : L1(Rn) × L1(Rn) → R L1(Rn) on note dans ce cas (f ∗ g)(x) = R n f (x −
R

(f , g)  f (x − y)g(y)dy
y)g(y)dy. On a alors les résultats suivants :
L’uplet suivant est
(L1(Rn), + , · ) un Espace vectoriel
(L1(Rn), + , ∗ ) un Anneau commutatif
(L1(Rn), + , · , ∗ ) une Algèbre commutative non unitaire
Il existe une fonction appelée transformée de Fourier qui vérifie les lois + , · , ∗
F : L1(Rn)(+,·,∗) → C0(Rn)(+,·,×). Qui permet le transport de la structure ( + , · , ∗ ) → ( + , · ,
× ) où C0 est l’ensemble des fonctions continues sur Rn.
Théorème de densité :
On a le résultat de densité suivant :

Soit CC (Rn) l’adhérence pour la norme k.kp de l’ensemble des fonctions infiniment dériva-
∞ ∞
bles à support compact, CC (Rn) = L p(Rn). Autrement dit CC (Rn) est dense dans L p(Rn) ou

les fonctions de L (R ) peuvent être approchées par une suite de fonctions de CC
p n
(Rn).

Corollaire 33.2. CC (Rn), Lp(Rn) ∩ Lq (Rn) sont denses dans Lp(Rn).

33.1.3 Le cas p = 2
L2(Rn) est intéressant dans le sens Hilbertien, i.e. on peut définir sur L2(Rn) un produit sca-
laire : < f , g > = R n f (x)g(x) dx. (L2(Rn), < .|. > ) est alors complet et on obtient un espace
R
de Hilbert.

33.1.4 Le cas p ≖ ∞
L∞(Rn) = L∞(Rn)/N , k[f ]k∞ = inf {α ∈ [0, + ∞]; |f | 6 α, p.p.} = sup Ess|f (x)|( sup essentiel)

33.1.5 le groupe ( S ,×)


1

On va définir un autre groupe que (Rn , + ), c’est le groupe (S1, × ) où S1 = {z ∈ C; |z | = 1} =


{eiθ; θ ∈ [0, 2π[} est le cercle trigonométrique. On passe de R à S1 par un quotient, si on quo-
tiente par z n, on obtient un tore.
Sur L p(S1) la transformée de Fourier n’est autre que la transformée de Fourier vue en Deug :
376 Analyse Réelle

F: L1(Sn)(+,·,∗) → C0(Z)(+,·,×) , F n’est pas surjective, S1 est compact mais pas Rn,
f  fˆ
l’espace d’arrivée est C0(Z) et non C0(Rn).

33.1.6 Méthode de résolution des exercices par densité:


On veut montrer une propriété P pour toute fonction de L p(Rn), p > 1, sachant que A ⊂ L p(Rn)
est dense dans L p(Rn) alors :
i. On montre la propriété pour A (si c’est possible), par exemple A = Esc(Rn) espace des

fonctions escaliers sur Rn, ou CC (Rn) ensemble des fonctions de classe C ∞ à supports
compacts, ou encore A = L (R ) ∩ L2(Rn).
1 n

ii. Puis on applique un raisonnement topologique de densité : On essaie de déduire la pro-


priété P pour toute fonction en l’approchant par des fonctions de A.

33.2 Espace L0
... Cours de calcul intégral 1er semestre (Fonctions mesurables + définition de l’intégrale sur
L0+)
Prérequis cours sur le calcul intégral :
− Théorème de convergence monotone de Beppo Levi.
− Théorème de convergence dominée de Lebesgue.
− Lemme de Fatou.
− Théorème de fubini.
− Théorème de Tonelli.
− Théorème du changement de variable.
− Théorèmes relatifs à une certaine classe de fonction définie par une intégrale : théorème
de convergence, continuité et de dérivation.

Remarque 33.3.
− On notera L0 l’ensemble des fonctions mesurables.
− Rajouter le passage sur les majorants essentiels p.151 Intégration Hermann.

33.3 Applications mesurables et espace L0


(A remettre dans la partie mesure et intégrale de Lebesgue).
Les applications mesurables sont à la théorie des mesures ce que sont les fonctions continues
pour la topologie, elle conserve la mesurabilité d’un ensemble, par rapport à des σ-anneaux ou
tribu.

33.3.1 Définition
Définition 33.4. Soit (E1, T1) et (E2, T2) deux espaces mesurables.
On appelle application (T1 − T2 mesurable) ou mesurable, toute application f : E1 → E2
telle que :
• ∀A ∈ T2, f −1(A) ∈ T1 ,
• autrement dit, f −1(T2) ⊂ T1 ou encore si A et T2-mesurable alors f −1(A) est T1-mesu-
rable.
33.3 Applications mesurables et espace L0 377

Remarque 33.5.
1. Si E2 est muni d’une topologie O, on convient de dire qu’une application f : E1 → E2 est
mesurable ou T1-mesurable si et seulement si elle est T1 − σ(O) mesurable.
2. Si T1 , T2 sont les tribus boréliennes de deux espaces topologiques E1, E2, on dit que
l’application est borel-mesurable ou borélienne.
3. Entre deux espaces mesurables, il n’existe pas forcément d’application mesurable !
4. Si T1 = P(E), alors au contraire toute application f : E1 → E2 est mesurable.
5. f −1(T2) est une tribu, c’est la plus petite tribu rendant f mesurable, dite tribu engendrée
par f , on la note σ(f ).
6. En pratique, T2 sera une tribu borélienne de R, il sera donc nécessaire de supposer (E1,
T1) probabilisable.

33.3.2 Propriétés générales


33.3.2.1 "Critère de mesurabilité"

Théorème 33.6. Soit (E1, T1) et (E2, T2) deux espaces probabilisables, Ω un sous-ensemble de
P(E2) engendrant T2.
( l’application f : E1 → E2 est mesurable ) ⇔ ( f −1(Ω) ⊂ T1 )

33.3.2.2 Composition d’applications mesurables

Théorème 33.7. Soit (E1, T1), (E2, T2) et (E3, T3) trois espaces mesurables.
Si f : E1 → E2 et g: E2 → E3 sont deux applications mesurables alors :
l’application g ◦ f : E1 → E3 est mesurable.

33.3.2.3 Applications continues et mesurabilité

Proposition 33.8. Soit (E1, B1) et (E2, B2) deux espaces probabilisables, munis de leurs tribus
boréliennes respectives.
Toute application f : E1 → E2 continue est borélienne.

33.3.2.4 Notation

Définition 33.9. On désignera par L0(E1, T1, E2, T2) l’ensemble des applications mesurables de
(E1, T1) dans (E2, T2).

Remarque 33.10. Les ensembles L0(E , T , R, B(R)), L0(E , T , R̄, B(R̄)), L0(E , T , R+, B(R+))
et L0(E , T , R̄+, B(R̄+)) pourront être notés L0(T ), L0(T ), L0+(T ), L0+(T ) si aucune confusion
n’est possible.

33.3.3 Applications mesurables à valeur dans un espace métrique


Théorème 33.11. Soit (fn) une suite de fonctions mesurables E → F où E est un espace mesu-
rable et F un espace métrique.
Si (fn) converge simplement vers f, alors f est également mesurable.

33.3.4 Application à valeurs dans un espace produit


33.12. Soient (E , T ), (E1, T1),  , (En , Tn) des espaces probabilisables,
Qn
Proposition i=1 Ei ,

Nn
l’espace probabilisable produit et des applications mesurables

T
i=1 i f i: E → E i , i = 1, , n
¯
alors l’application f : E →
Qn
Ei est mesurable.

i=1
x (fi(x),  fn(x))
378 Analyse Réelle

Où est défini la tribu produit ! ou alors définir la tribu produit auparavant. A déplacer vers
intégration.

33.3.5 Applications numériques mesurables


Il s’agit d’étudier le cas particulier des applications de E → R ou R̄ mesurables où R, R̄ sont
munis de leurs tribus boréliennes. On a vu que dans ce cas E doit être un espace probabilisable
(dans le cas contraire, il est impossible de définir des applications de E → R mesurables).

33.3.5.1 "Critère de mesurabilité"

Proposition 33.13. Soit T une tribu de partie de E.


L’application f : E → R̄+ est dite T -mesurable si et seulement si :
i. ∀(a, b) ∈ R+; f −1([a, b[) ∈ T, ce qui peut s’écrire [a 6 f < b] ∈ T,
ii. ∀(a, b) ∈ R+; f −1([a, b]) ∈ T,ce qui peut s’écrire [a 6 f 6 b] ∈ T,
iii. ∀(a, b) ∈ R+; f −1([a, + ∞[) ∈ T,ce qui peut s’écrire [a 6 f < + ∞] ∈ T,
iv. ∀(a, b) ∈ R+; f −1(]a, + ∞[) ∈ T,ce qui peut s’écrire [a < f < + ∞] ∈ T,
v. ∀(a, b) ∈ R+; f −1([a, + ∞]) ∈ T,ce qui peut s’écrire [a 6 f ] ∈ T,
vi. Idem en remplaçant R+ par Q+
vii. Idem en remplaçant Q+ par l’ensemble des nombres dyadiques D+ = {k × 2−n; k, n ∈ N}.
viii. ∀B ∈ B(R+) on a f −1(B) ∈ T, l’espace R̄+ étant muni de la topologie d’alexandroff.
ix. Si C est une classe de partie de R+ vérifiant σ(C) = B(R+) alors on a f −1(B) ∈ T pour
tout B ∈ C, l’espace R̄+ étant muni de la topologie d’alexandroff.

Démonstration. 

Remarque 33.14.
1. C’est une application directe du théorème précédent puisque [a, b[,  engendrent la tribu
borélienne de R.
2. Une application indicatrice 1A est mesurable, si et seulement si A ∈ T , (à mettre dans
une section précédente, lire intégrale de Lebesgue).

33.3.5.2 Opérations sur les applications numériques mesurables

Théorème 33.15.
1. Si f et g sont des fonctions mesurables sur (E , B) à valeur dans R̄ alors les fonctions sui-
vantes sont mesurables :
− f + g (quand elle existe) ; c × f (c ∈ R) ; f ×g ; f2
− sup (f ; g) ; inf (f ; g)
+ −
− f ; f
− |f |
2. Pour que f soit mesurable, il faut et il suffit que f + et f − le soient.

Remarque 33.16.
1. (|f | mesurable ) ; (f + et f − mesurables) et par conséquent : f mesurable.
2. L’expression "quand elle existe" se rapporte aux cas où f (x) = ± ∞ et g(x) = ± ∞ pour
lequel (f + g)(x) n’a pas de sens.
33.3 Applications mesurables et espace L0 379

3. Lorsqu’il s’agit de R au lieu de R̄, il n’y évidement aucune restriction.


4. Le théorème précédant peut se résumer en disant que :
"M(B) est une algèbre réticulée sur R pour la relation d’ordre naturelle f 6 g".

33.3.5.3 Suite d’applications numériques mesurables

Théorème 33.17. Soit (fn) une suite de fonctions mesurables E → R̄ où E est un espace
mesurable.
1. Les fonctions suivantes sont mesurables :
− sup (fn), inf (fn)
− limn→∞(fn), limn→∞(fn)
2. Soient f , g: (E , T ) → R̄ des fonctions mesurables et h: R̄ → R̄, k: R̄ × R̄ → R̄ des fonc-
tions continues, alors h ◦ f et k ◦ (f , g) sont mesurables.
3. Si (fn) converge simplement vers f, alors f est également mesurable.
4. Si ∃A ∈ T ; ∀x  A, fn(x)converge dans R̄ alors la fonction définie par
f (x) = limn↑+∞ fn(x), ∀x  A

est mesurable.
f (x) = 36, ∀x ∈ A

Remarque 33.18.
1. On peut résumer ce théorème en écrivant que :
"M(B) est fermé au sens de la convergence simple des suites".
2. Ce théorème reste valable pour lim (fn) = f pour des fonctions à valeur dans un espace
métrique.
3. Une application immédiate de ce théorème est le lemme suivant :

Exemple 33.19.
1. Prenons (E , B) = (Rp , B(R p)), les fonctions mesurables définies sur R p sont alors boré-
liennes (ou boréliennes-mesurables).
2. La compléxité des fonctions boréliennes apparait lorsqu’on constate :
− que toute limite simple d’une suite (fn) de fonctions continues définies sur R p est
borélienne,
− et que toute limite simple d’une suite de telles fonctions est aussi borélienne etc ...

Proposition 33.20. Justifier l’existence des fonctions dans la définition suivante.


i.
ii.

Définition 33.21. Soit (Ω, T , µ) un espace mesuré, p ∈ ]0, + ∞].


On définit sur L0 les applications Np par :

• N p: L0(U ) → [0, + ∞]
1

Z
p
p
f |f | dµ
U

• N∞: L0(U ) → [0, + ∞]


f 
inf {α ∈ [0, + ∞]; |f | 6 αµ.p.p.}

Définition 33.22. (Locale) Désignons par N l’espace des fonctions mesurables nulles presque
partout. N = {f ∈ L0(U ); f = 0 µ.p.p.}.
380 Analyse Réelle

33.3.6 Inégalité de convexité sur L0+


On utilise des valeurs absolues dans les inégalités. Véfirer si le + est nécessaire.
1 1
Proposition 33.23. (Inégalité de Hölder) Soit p, q ∈ [1, + ∞] tels que p
+ q = 1 avec la conven-
1
tion + ∞ = 0 et f , g ∈ L0(U ) alors on a :
− N1(f × g) 6 Np(f ) × N q(g),
− ce qui s’écrit également de manière explicite sous la forme
Z Z
• |f (x)g(x)|dx 6 |f (x)| pdx × inf {α ∈ [0, + ∞]; |f | 6 α }, si p = 1, q = + ∞
U U µ.p.p.
Z Z 1 Z 1
p q
• |f (x)g(x)|dx 6 |f (x)| pdx |g(x)| qdx , si p, q ∈ ]1, + ∞[.
U U U

Corollaire 33.24. (Inégalité de Minkowski) Soient p ∈ ]1, + ∞[ f , g ∈ L0+(U ) on a :


− N p(f + g) 6 N p(f ) + N p(g),
− ce qui s’écrit également de manière explicite sous la forme
Z 1  Z 1  Z 1
p p p
2 2
p
|f (x) + g(x)| dx 6 |f (x)| dx + |g(x)| dx .
U U U

33.4 Espaces L1,L2 et L p


Nous commençons cette section par une étude des deux plus importants espaces L p : L1 et L2.
Puis nous généraliserons. On désignera par K l’ensemble R ou C, si une définition ou une pro-
priété est valable pour chacun d’entre eux ????.

33.4.1 Etude de L1
On rappelle des résultats vus dans le cas général en les complétant éventuellement.

33.4.1.1 Définition
... Cours de calcul intégrale 1er semestre

Définition 33.25. On désigne par L1(U ) l’espace des fonctions intégrables f : U → C.


33.4.1.2 Structure d’espace vectoriel, Semi-norme et inégalités convexes sur L1

Proposition 33.26. L1(U ) est un espace vectoriel sur C.

Proposition 33.27. N est un sous espace vectoriel de L1(U ).

Proposition 33.28. La restriction de N1 à L1(U ) est une semi-norme sur L1(U ).

Proposition 33.29. (Inégalité de Hölder) Soit f , g ∈ L0(U ) alors on a :


• N1(f × g) 6 N1(f ) × N∞(g), ce qui s’écrit également de manière explicite sous la forme :
Z Z
• |f (x)g(x)|dx 6 |f (x)| pdx × inf {α ∈ [0, + ∞]; |f | 6 αµ.p.p.}.
U U

33.4.2 Etude de L2
On rappelle des résultats vus dans le cas général en les complétant éventuellement.
33.4 Espaces L1,L2 et L p 381

33.4.2.1 Définition

Définition 33.30. On désigne par L2(U ) l’espace des fonctions de carrés intégrables f :
U → C.

33.4.2.2 Exemple de fonction de L2

Exemple 33.31. La fonction f (x) = xα est de carré intégrable sur ]1; + ∞[ ssi 2α + 1 < 0, i.e.
1
α < − 2.

Remarque 33.32. Si f est L2 ⇒ |f 2|dµ < + ∞ autrement dit |f 2| ∈ L1.


R

33.4.2.3 Structure d’espace vectoriel, Semi-norme et inégalités convexes sur L2

Proposition 33.33. L2(U ) est un espace vectoriel complexe.

Proposition 33.34. La restriction de N2 à L2(U ) est une semi-norme sur L2(U ).

Proposition 33.35. (Inégalité de Cauchy-Schwarz) Soient f , g ∈ L2(U ) alors f × g est inté-


grable sur U i.e. f × g ∈ L1(U ) et on a :
Z Z 1  Z 1
2 2
2 2
• f (x) × g(x)dx 6 |f (x)| dx × |g(x)| dx
U U U

• autrement dit : N1(f × g) 6 N2(f ) × N2(g).


si f ∈ L2, g ∈ L2 on peut en déduire que f × g ∈ L1.

Remarque 33.36. La proposition précédente peut donc servir de critère d’intégration pour un
produit de fonctions.

Corollaire 33.37. (Inégalité de Minkovsky) Soient f , g ∈ L2(U) on a :


Z 1  Z 1  Z 1
2 2
• |f (x) + g(x)|2dx 6 |f (x)|2dx + |g(x)|2dx 2
U U U

• autrement dit : N2(f + g) 6 N2(f ) + N2(g).

33.4.2.4 Existence d’une forme hermitienne

33.4.3 Etude générale


33.4.3.1 Définitions

Définition 33.38. Soit U un ouvert de Rn, p ∈ ]0, + ∞].


On dit qu’une fonction f : U → K est p-intégrable ssi :
i. elle est mesurable : f ∈ L0
Z 1
p
ii. N p(f ) est majorée : p
|f | dµ < + ∞
U

Remarque 33.39.
1. si p = 1, on parle de fonction µ-intégrable.
2. si p = 2, de fonction de carré µ-intégrable.

Définition 33.40. L’ensemble des fonctions p-intégrables f : U → K, p ∈ ]0, + ∞] est noté


K
L pµ(U , ), L p(U ) ou simplement L p si aucune confusion n’est possible.

Proposition 33.41. L p(U , C) est un espace vectoriel complexe.


382 Analyse Réelle

33.4.3.2 Semi-norme et inégalités convexes sur L p


On obtient à partir de Np une semi-norme et comme dans L0 on retrouve les inégalités convexes.

Proposition 33.42. La restriction de N p à L p(U ) est une semi-norme sur L p(U ).


1 1
Proposition 33.43. (Inégalité de Hölder) Soit p, q ∈ [1, + ∞] tels que p
+ q = 1 avec la conven-
1
tion + ∞ = 0 et f , g ∈ L0(U ) alors on a :
N1(f × g) 6 Np(f ) × N q(g),
si f ∈ L p , g ∈ L q on peut en déduire que f × g ∈ L1.

Remarque 33.44. La proposition précédente peut donc servir de critère d’intégration pour un
produit de fonctions.

Corollaire 33.45. (Inégalité de Minkowski) Soient p ∈ ]1, + ∞[ f , g ∈ L0(U ) on a :


N p(f + g) 6 N p(f ) + N p(g).

33.4.3.3 Relation d’équivalence sur L p

Proposition 33.46.
i. N = {f ∈ L p(U ); N p(f ) = 0 µ.p.p.}.
ii. N est un sous espace vectoriel de L p(U ).

Proposition 33.47. la relation : f ∼ g ⇔ f (x) = g(x) i.e. f (x) − g(x) = 0, pour presque tout x ∈
U ou encore f − g ∈ N est une relation d’équivalence sur L p(U ).

33.5 Espace L1, L2 et L p, p ∈ [1, + ∞]


Dans cette section, on désignera par K l’un des ensembles suivants : R ou C.

33.5.1 Etude de L1
Remarque 33.48.
1. L1(U ) est encore un espace vectoriel complexe pour les lois quotients : f˙ + ġ = f +˙ g ;
λ ḟ = λ ˙f .
2. Comme U f (x)dx ne change pas quand on remplace f ∈ L1(U ) par une fonction qui lui
R

est égale presque partout, il y a un sens à parler de l’intégrale U f˙ dx.


R

3. Dans tout ce qui suit, on identifiera tout élément de L1(U ) à un de ses représentant f ∈
L1(U ) et on adoptera aussi la notation f pour désigner l’élément de L1(U ) et l’élément de
L1(U ), c’est le contexte qui précisera la nature de l’élément que l’on manipule (il ne peut
y avoir d’ambiguité).
4. on écrira f ∈ L1(U ) et si x ∈ U est fixé, on ne peut pas parler de valeur de f (x) de f en
x, car si on change cette valeur uniquement en x, on obtient une fonction équivalente (car
{x} est négligeable de sorte que la classe f ∈ L1(U ) est inchangée).
5. Si f est continue sa classe comporte-t-elle un seul élément ?

33.5.1.1 L1 espace normé

Définition 33.49. On appelle norme L1 ou d'indice 1 ou norme de la convergence en


moyenne et on note k.k1 la norme définie par :
k.k1: L1(U ) → R ainsi kf k1 = U |f (x)|dx.
R
R
f U
|f (x)|dx
33.5 Espace L1, L2 et L p, p ∈ [1, + ∞] 383

Remarque 33.50. Ainsi (L1(U ), k.k1) est un espace normé, il y a donc un sens à parler de con-
vergence Rd’une suite (f1, f2,  ) de L1(U ) vers f ∈ L1(U ) : cela signifie que limx→∞ kfn − f k1 =
limx→∞ U |fn(x) − f (x)|dx = 0, on dit que la suite converge au sens de la norme k.k1 d’indice
1 ou que la suite converge en moyenne.

Exemple 33.51. Exemples de suites convergentes ou non convergentes dans L1(R)

33.5.1.2 L1 espace de Banach


Le théorème de convergence dominée de Lebesgue donne des conditions qui peuvent être consi-
dérées comme optimales pour que la convergence presque partout d’une suite de fonctions de
L1(U ) entraine sa convergence en norme L1.
L’espace L1(U ) est un espace de Banach pour la norme L1.

Théorème 33.52. (Théorème de Fischer-Riesz) Soit (f1, f2,  ) une suite de Cauchy de L1(U ).
Alors il existe f ∈ L1(U ) telle que kfn − f k → 0, n → ∞. En outre, il existe une suite extraite
(fn1, fn2,  ) de (fn) telle que :
i. fnk(x) → f (x) pour presque tout x ∈ U.
ii. |fnk(x)| 6 h(x) où h ∈ L1(U ) pour presque tout x ∈ U et pour tout k > 1.

Corollaire 33.53. En particulier, (L1(U ), k.k1) est un espace de Banach.

Remarque 33.54. Ce théorème affirme non seulement que L1(U ) est un espace de Banach,
mais qu’en outre si (f1, f2,  ) est une suite de fonctions de L1(U ) qui converge vers f ∈ L1(U )
au sens de la norme L1, alors il existe une sous-suite (fn1, fn2,  ) qui converge vers f presque
partout. On ne peut pas espérer en général que (fn(x))n>1 converge vers f (x) pour presque
tout x, comme le montre l’exemple suivant :
f1 = 1[0,1] ∈ L1(R); f2 = 1h 0, 1 i; f3 = 1h 1 ,1 i; f4 = 1h 0, 1 i; f5 = 1h 1 , 2 i; f6 = 1h 2 ,1 i; 
2 2 3 3 3 3

Comme kfn k → 0, n → ∞, la suite (fn) converge vers 0 dans L1(R). Mais la suite (fn(x))n>1
est pour tout x ∈ [0, 1], une suite qui comporte un nombre infini de 0 et de 1, donc elle ne con-
verge pas. Par contre la sous-suite :
fn1 = 1[0,1]; fn2 = 1h 0, 1 i; fn3 = 1h 0, 1 i;  converge presque partout vers 0, ce qui est conforme à
2 3

l’énoncé du théorème de Fischer-Riesz.

33.5.1.3 Théorème de densité dans L1


Soit U un ouvert de Rn. On a vu que toute fonction continue à support compact f : U → C est
intégrable pour la mesure de lebesgue, donc définit un élément de L1(U ). En outre, si f , g sont
deux fonctionsR à supports compacts sur U telles que f˙ = ġ dans L1(U ) on a f = g presque par-
tout et donc U |f (x) − g(x)|dx = 0. Il s’ensuit que f (x) = g(x) pour tout x ∈ U car s’il existe

α

x0 ∈ U tel que f (x0)  f (x), il existe par continuité de x |f (x) − g(x)| au
R point x0 un réel ε >
0; kx − x0k 6 ε ⇒ |f (x) − g(x)| > 2 , α = |f (x0) − g(x0)|. Mais alors 0 = U |f (x) − g(x)|dx >
R α α
U 2
d x = 2 vol(B(x0, ε)) > 0 ce qui est absurde. Ceci montre que, si l’on note CC (U ) l’espace
vectoriel des fonctions complexes continue à support compact sur U , l’application
CC (U ) → L1(U ) est une injection. On peut donc sans inconvénient identifier CC (U ) à un
f  f˙
sous espace vectoriel de L1(U ).

Théorème 33.55. CC (U ) est dense dans L1(U ) pour la norme (L1(U ), k.k1), i.e. pour toute
f ∈ L1(U ), il existe une suite (f1, f2,  ) de fonctions continues à supports compacts sur U telle
que kf − fn k1 → 0 pour n → + ∞. En particulier, on a : U f (x)dx = limn→+∞ U fn(x)dx.
R R

Remarque 33.56.
1. Pour tout ouvert U de Rn, l’espace CC (U ) muni de la norme k.k1 est un espace normé
qui n’est pas complet.
384 Analyse Réelle

2. Le complété de CC (U ), pour la norme k.k1 (que l’on pourrait construire formellement à


l’aide des suites de Cauchy de CC (U ) tout comme on construit R à partir de Q) s’iden-
tifie à L1(U ) et CC (U ) est dense dans L1(U ) pour la norme k.k1.
3. Construire l’intégrale U f (x)dx d’une fonction f ∈ CC (U ) est une chose aisée (la cons-
R

truction est faite en DEUG) on dispose alors d’une forme linéaire : L:


CC (U ) → R C qui est continue pour la norme k.k1, puisque l’on a |L(f )| =
f  U
f (x)dx
| U f (x)dx| 6 U |f (x)|dx = kf k1.
R R

4. Le théorème de prolongement des applications linéaires continues permet alors de mon-


trer l’existence d’une unique forme linéaire continue L̃ sur L1(U ) rendant le diagramme
suivant commutatif.
5. On a bien sûr L̃(f ) = U f (x)d x, de telle sorte que cette construction fonctionnelle
R

permet facilement d’obtenir L1(U ) et l’intégrale des fonctions intégrables.

33.5.2 Etude de L2
Remarque 33.57.
1
1. Dans ce qui précède, on déduit immédiatement que si l’on pose kf k2 = |f (x)|2dx 2
R
U
pour f ∈ L2(U ) alors on a : kf k2 > 0, kλf k2 = |λ| kf k2 et kf + g k2 6 kf k2 + kg k2.
2. Mais la relation kf k2 = 0 n’implique pas f = 0 mais seulement f (x) = 0 pour presque tout
x ∈ U.
3. C’est pourquoi, l’on a introduit L2(U ) quotient de L2(U ) par la relation d’équivalence
f ∼ g ⇔ f (x) = g(x) pour presque tout x ∈ U afin que L2(U ) soit un espace normé pour la
1
norme kf¯ k2 = kf k2 = |f (x)|2dx 2 .
R
U

33.5.2.1 L2 espace normé, L2 espace de Banach, théorème de densité

Définition 33.58. On appelle norme L2 ou d'indice 2 ou norme de la convergence en


moyenne quadratique et on note k.k2 la norme définie par :
1
k.k2: L2(U ) → ainsi kf k2 = |f (x)|2dx 2 .
R
R U
f 
R
U
|f (x)|2
dx
1
2

Théorème 33.59. Soit U un ouvert de Rn alors on a ∀f , g ∈ L0 :


i. (Inégalité de Cauchy-Schwarz) kf × g k1 6 kf k2 × kg k2 ,
ii. (Inégalité de Minkovsky) kf + g k2 6 kf k2 + kg k2
Z 1
2
iii. L (U ) est un espace de Banach pour la norme kf¯ k2 = kf k2 =
2 2
|f (x)| dx .
U

iv. L’espace CC (U ) des fonctions continues à support compact sur U est un sous-espace dense
de L2(U ) pour la norme kf k2.

33.5.2.2 Relation entre L2 et L1

Théorème 33.60. Si U est un ouvert borné de Rn, on a :


i. L2(U ) ⊂ L1(U ).
1
ii. et kf k1 6 mes(U ) 2 kf k2 pour tout f ∈ L2(U ).

Remarque 33.61. On prendra garde au fait que la dernière proposition est fausse si U n’est
1
pas borné. Par exemple la fonction f (x) = x est de carré intégrable sur ]1, + ∞[, mais elle n’est
pas intégrable sur ]1, + ∞[.
33.5 Espace L1, L2 et L p, p ∈ [1, + ∞] 385

33.5.2.3 L2 espace de Hilbert

Proposition 33.62.
Z
i. < f |g > = f (x)ḡ (x)d x est une forme hermitienne (positive) complexe non dégénérée
U
(i.e. un produit scalaire suivant les définitions).
ii. (L2(U ), < f |g > ) est un espace de Hilbert.

Remarque 33.63.
1. De nombreuses propriétés géométriques de L2(U ) résultent de cette propriété.
2. En posant g = f , on a bien < f |f > = kf k22, kf k2 est donc la norme associée au produit
scalaire.

33.5.3 Etude générale


33.5.3.1 Définition

Définition 33.64. On désigne par L p(U ) l’espace des classes d’équivalence des fonctions de
carré intégrables sur U pour la relation d’équivalence : f ∼ g ⇔ f (x) = g(x), pour presque tout
x ∈ U. Autrement dit c’est l’espace quotient L p(U )/N.

33.5.3.2 L p espace normé

Proposition 33.65. L’application : L p(U ) → R est une norme sur L p(U ).


1

Z
p
f |f (x)| pdx
U
(Ce qui justifie le passage à l’espace quotient).

Définition 33.66. On appelle norme L p ou d'indice p ou norme de la convergence


d'indice p en moyenne et on note k.k1 la norme définie par :
Z 1
p
k.kp: L p(U ) → R ainsi kf k p = |f (x)| pdx .
1 U

Z
p
p
f |f (x)| dx
U

33.5.3.3 Inégalités de convexité

Proposition 33.67.
1 1 1
i. (Inégalité d Hölder) Soit p, q ∈ [1, + ∞] tels que p
+ q
= 1 avec la convention +∞
= 0 et
0
f , g ∈ L (U ) alors on a : kf × gk1 6 kf kp × kg k q, si f ∈ L , g ∈ L on peut en déduire que
p q

f × g ∈ L1
ii. (Inégalité de Minkovsky) Soient p ∈ ]1, + ∞[ f , g ∈ L0(U ) on a : kf + g k p 6 kf k p + kgk p

33.5.3.4 L p espace de Banach

Théorème 33.68. Soit U un ouvert de Rn alors on a L2(U ) est un espace de Banach pour la
Z 1
p
norme kf¯ k p = kf k p = |f (x)| pdx .
U

33.5.3.5 Théorème de densité

Note 33.69. Espaces fonctionnelles


− Escλd(Ω, K) est l’ensemble des fonctions en escalier λd-intégrable sur Ω
386 Analyse Réelle

− ETµ (Ω, K) est l’ensemble des fonctions T -étagée µ-intégrable sur Ω


− Si f : Rn → C est une fonction, alors supp(f ) = {x ∈ Rn; f (x)  0}.
− CCk
(Rn), k > 0 est l’ensemble des fonctions k fois différentiables avec différentielle k èm e
continues et qui sont à support compact. Sur Rn c’est l’ensemble des fonctions nulles en
dehors d’une boule.

− CC (Rn) est l’ensemble des fonctions indéfiniment différentiables avec des différentielles
continues et qui sont à support compact.

Proposition 33.70.
i. E(Rn) est dense dans Lp(Rn , K), ∀p ∈ [1, + ∞] pour k.k p.
ii. Esc(Rn) est dense dans Lp(Rn , K), ∀p ∈ [1, + ∞[ pour k.kp.
iii. CC (Rn) est dense dans Lp(Rn , K), ∀p ∈ [1, + ∞[ pour k.k p.

iv. CC (Rn) est dense dans L p(Rn , K), ∀p ∈ [1, + ∞[ pour k.kp
v. Soit A une partie dense dans Lp(Rn , K). Toute partie contenant A et incluse dans
L p(Rn) est aussi dense dans L p(Rn).

33.6 Convolution des fonctions intégrables

33.6.1 Convolution des fonctions intégrables dans L1


33.6.1.1 Définition

Théorème 33.71. Soient f , g ∈ L1(Rn) alors


i. la fonction y  f (x − y)g(y)R est intégrable pour presque tout x ∈ R n

ii. et la fonction (f ∗ g)(x) = f (x − y)g(y)dy, définie pour presque tout x ∈ Rn, est inté-
grable sur Rn.

Définition 33.72. On dit que f ∗ g est le produit de convolution ou convolée de f et g.


33.6.1.2 Propriétés élémentaires du produit de convolution
Notons tout d’abord que :
Le produit de convolution est continu ? ! !

Proposition 33.73.
1. En outre, on a : kf ∗ g k1 6 kf k1 kg k1 , il y a égalité si les deux fonctions sont positives.
2. f , g ∈ L1(Rn), f ∗ g = g ∗ f (le produit de convolution est commutatif).
3. f , g, h ∈ L1(Rn), (f ∗ g) ∗ h = f ∗ (g ∗ h) (le produit de convolution est associatif).
4. λ ∈ Rn , g, h ∈ L1(Rn), λ · (g ∗ h) = (λ · g) ∗ h
5. f , g, h ∈ L1(Rn), f ∗ (g + h) = (f ∗ g) + (f ∗ h)
6. On résume les propriétés précédentes en disant que (L1(R), + , · , ∗ ) est une algèbre (com-
mutative ?), elle n’est pas unitaire, elle n’a pas d’élément neutre (voir démonstration TD
Benameur page ? exercice introduction au produit de convolution).

Exemple 33.74. Exemple de fonctions orthogonales : en(t) = eint , em(t) = eimt définies sur H =
L2([0, 2π[) sont orthogonale ssi m  n.

33.6.1.3 Approximation de l’identité


Le théorème suivant va donner un procédé systèmatique pour approcher une fonction intégrable
quelconque par des fonctions plus régulières :
33.7 Transformée et Transformation de Fourier et Fourier-Plancherel 387

Définition 33.75. Rajouter la définition d’une unité approchée vue en TD.

Théorème 33.76. Soit α ∈ L1(Rn) telle que α(x)dx = 1, et posons pour tout ε > 0 : αε(x) =
R
x
α ε 1
εn
alors pour toute f ∈ L (R ), on a : kf ∗ αε − f k1 → 0 pour ε → 0.
n

Le procédé de régularisation utilisé à ? permet également d’approcher en norme uniforme


une fonction continue à support compact sur Rn par des fonctions de classe C ∞. A cet effet, on
utilise la remarque suivante :

Lemme 33.77. Soit f ∈ L1(Rn). Pour toute α ∈ C0∞(Rn), la fonction f ∗ α définie par :
∂ |β |
(f ∗ α)(x) = f (y)α(x − y)dy est de classe C ∞ et on a : D β = β1 β2 .
R
∂x1 ∂x2  ∂xn
βn


Proposition 33.78. Soit alors α ∈ CC (R) uneRfonction de classe C ∞ à support inclus dans la
boule unité euclidienne kxk 6 1, α > 0, telle que α(x)dx = 1. Pour tout ε > 0, posons : αε(x) =
x 1
α ε × εn .Pour toute fonction f ∈ C0(Rn), on a :
i. f ∗ αε est une fonction de classe C ∞ à support compact inclus dans le voisinage du sup-
port de f des points x ∈ Rn tels que d(x, supp(f )) 6 ε, i.e. supp(f ∗ αE ) ⊂
supp(f ) + B(0, ε) .
ii. supx∈R n |f (x) − (f ∗ αε)(x)| → 0 pour ε → 0.

Remarque 33.79. La proposition ci-dessus est très utilisée pour régulariser une fonction con-
tinue à support compact par convolution. Toutefois, la régularisation d’une fonction L1 par con-
volution est possible (au sens de la norme L1) en appliquant le théorème p.? aux fonction αε
décrites dans la proposition ci-dessus. En fait, il n’est pas nécessaire d’imposer à α d’être à sup-
2
e−|x|
port compact. En effet, la fonction α(x) = n est de classe C ∞, positive et d’intégrale égale à
π2 |x|2
1 −
1. On a donc : kf ∗ αε − f k1 → 0 pour ε → 0 où αε(x) = εn e ε2 et un inspection de la démons-
tration p.? montre que l’on a encore f ∗ αε ∈ C ∞(Rn).

33.7 Transformée et Transformation de Fourier et Fourier-


Plancherel

33.7.1 Transformée et Transformation de Fourier (dans L1)


33.7.1.1 Transformée de Fourier

Proposition 33.80. Pour toute f ∈ L1(Rn), les relations R1, R2 définies par :
Pn
• R1: Rn → R ; ξ ∈ Rn , x · ξ = xnξn = < x|ξ > effectuer

j =1
1
f (x → t)e−ixց· ξdx
R
ξ→x n
(2π) 2
tous les changements : les notations adoptés par M. Fack sêment la confusion avec les
exercices de TD.

• R2: Rn → ; ξ ∈ Rn , x · ξ = nj=1 xnξn = < x|ξ >


P
R
ξ  1
n
R
f (x)eix· ξdx
(2π) 2

sont des applications.

Remarque 33.81.
1. La seule différence entre ces deux applications est le signe de i.
2. Comme c’est précisé dans la proposition x · E est le produit scalaire < x|E > .
388 Analyse Réelle

Définition 33.82. Pour toute f ∈ L1(Rn).


• On appelle transformée de Fourier de f et on note fˆ ou Ff la fonction définie par :
fˆ , Ff : Rn →
Pn
R ; ξ ∈ Rn , x · ξ = xnξn = < x|ξ > .

j =1
1 R −ixξ
ξ n f (x)e dx
(2π) 2

• On appelle transformée de Fourier inverse de f et on note F̄ f la fonction définie


par :
Pn
F̄ f : Rn → R ; ξ ∈ Rn , x · ξ = xnξn = < x|ξ > .

j =1
1
f (x)eixξdx
R
ξ n
(2π) 2

Exemple 33.83.
q
2 1
1. Si f (x) = e−|x|, on a : fˆ(ξ) = π
× 1 + ξ2 .
ξ2

e 4a
2. Si f (x) = e−ax , on a : fˆ(ξ) = √ .
2

2a

Théorème 33.84. (Théorème de Riemann-Lebesgue) Pour toute f ∈ L1(Rn), fˆ est continue et


nulle à l’infini lim |f |→+∞ fˆ(x) = 0. Autrement dit fˆ ∈ C0(Rn) (où C0(Rn) est l’espace des fonc-
tions continues nulles à l’infini sur Rn).

Note 33.85. C’est cette propriété qui justifie l’espace d’arrivée dans la définition suivante.

33.7.1.2 Transformation de Fourier

Définition 33.86.
• On appelle transformation de Fourier l’application notée F et définie par :
F : L1(Rn) → C0(Rn)
f fˆ 
• On appelle transformation de Fourier inverse l’application notée F̄ et définie par :
1
F̄ : L (R ) → C0(Rn)
n

f 
F̄ f

Théorème 33.87. La transformation de Fourier F est une application linéaire continue de


L1(Rn) dans C0(Rn) (où C0(Rn) est l’espace des fonctions continues nulles à l’infini sur Rn).

Remarque 33.88.
1. Au niveau des notations on a donc F (f ) = fˆ, (F (f ))(ξ) = fˆ(ξ).
2. F̄ (f )(x) = F (f )( − x).

Proposition 33.89.
i. F est injective, mais pas surjective, autrement dit deux fonctions f et g intégrables telles
que F (g) = F (f ) sont nécessairement presque partout égales.
ii. (τaf )(x) = f (x − a) ⇒ F (τaf )(x) = e−aix(F (f ))(x),
x
iii. fλ(x) = f λ ⇒ F (fλ)(x) = λ(F (f ))(λx),

iv. F admet un point fixe unique : γ: e −


t2
2 , (F (γ))(x) = γ(x).

33.7.1.3 Transformation de Fourier et dérivation

Notons p j la projection p j : Rn → R.
(x1,  , x j ,  , xn) xj 
33.7 Transformée et Transformation de Fourier et Fourier-Plancherel 389


L’un des intérêts de la transformation de Fourier et de transformer la dérivation ∂x j
en mul-
tiplication par i p j .

Théorème 33.90. Soit f ∈ L1(Rn). On suppose que les fonctions p j · f sont intégrables pour
j = 1,  , n alors fˆ est de classe C 1 et on a :
∂ ∂ ˆ
• F (p j · f ) = i · F (f ) soit p jf = i ·
∂x j
f. ∂xj

• i.e. x ∈ Rn, pjf (x) = i · ∂x fˆ(x)
j

Corollaire 33.91. Soit f : Rn → C une fonction telle que x  (1 + |x| ) · f (x) soit intégrable
k

alors, fˆ est de classe C k.

Théorème 33.92. Soit f : Rn → C une fonction de classe C 1.


∂f
On suppose que f et les dérivées partielles ∂x sont intégrables alors on a :
j
   
∂f ∂f
• F ∂x = i · p j · F(f ) soit ∂x = i · p j · fˆ.
j j

 
∂f
• i.e. ∂x j
(ξ) = i · ξ j · fˆ(ξ) pour tout ξ ∈ Rn.

Corollaire 33.93. Soit f ∈ L1(Rn). On suppose que f est de classe C k et les dérivées partielles
jusqu’à l’ordre k sont intégrables alors on a : fˆ(ξ) = o(|ξ |−k) pour |ξ | → + ∞.

33.7.1.4 Transformation de Fourier et produit de convolution

Théorème 33.94. Soient f , g ∈ L1(Rn). On a :


n n
• F (f ∗ g) = (2π) 2 · F(f ) · F(g) soit f ∗ g = (2π) 2 · fˆ · ĝ.
n
• f ∗ g (ξ) = (2π) 2 · fˆ(ξ) · ĝ (ξ) pour tout ξ ∈ Rn.

Remarque 33.95. La transformée de Fourier transforme le produit de convolution en produit


ordinaire à un coefficient près.

33.7.1.5 Théorème d’inversion dit aussi théorème de synthèse spectrale L1

Théorème 33.96. (Inversion de Fourier) Soit f ∈ L1(Rn) telle que fˆ ∈ L1(Rn) alors on a :
• f = F̄ (fˆ) ou f = F̄ ◦ F (f )
• i.e. F̄ ◦ F = IdL1 presque partout.
presque partout avec égalité en tout point où f est continue.

Corollaire 33.97. Soit f ∈ L1(Rn) telle que F (f ) = 0, i.e. fˆ = 0 alors f = 0 presque partout.

Remarque 33.98.
1. On observera que si f ∈ L1(Rn) est telle que fˆ ∈ L1(Rn) alors f est égale presque partout
à une fonction continue. En effet F̄ (fˆ)(x) = F (fˆ)( − x) est une fonction de C0(Rn) et le
résultat provient du théorème d’inversion de Fourier.
2. Un des problèmes de la transformée de Fourier est qu’elle a ses valeurs dans C0(R) or une
fonction C0(R) n’est pas nécessairement intégrable. On ne peut donc pas appliquer direc-
tement la transformée inverse (voir fiche 6 TD page 89).

33.7.1.6 L’espace de Schwarz S( R) n

M. Laurent Schwarz et les papillons par M. Fack.


Pour rendre le théorème d’inversion de Fourier plus immédiatement applicable, nous allons
introduire une classe de fonction dont la transformée de Fourier sera automatiquement dans
L1(Rn).
390 Analyse Réelle

Définition 33.99. On dira qu’une fonction f : Rn → C est à décroissance rapide ssi elle est de
classe C ∞ et pour tout entier m > 1 et tout mutli-indice α la ??? dérivation, on a :
(1 + |x|2)mDαf (x) → 0 pour |x| → + ∞.

Définition 33.100. On appelle espace de Schwarz l’ensemble des fonctions à décroissance


rapide. On notera S(Rn) l’ensemble des fonctions à décroissance rapide sur Rn.
Exemple 33.101.
1. Toute fonction de classe C ∞ à support compact est à décroissance rapide sur Rn.
2
2. La fonction f (x) = e−|x| est à décroissance rapide.

Proposition 33.102.
i. S(Rn) est clairement un sous-espace vectoriel de C0(Rn).
ii. On a S(Rn) ⊂ L1(Rn).
iii. Pour toute fonction f ∈ S(Rn), on a F (f ),fˆ ∈ S(Rn) et donc F (f ),fˆ ∈ L1(Rn).
iv. On a : F (S(Rn)) = S(Rn).

On observera que F : S(Rn) → ? ∈ S(Rn) [Cette expression est incomplète ! que signifie le signe
∈ ]est un isomorphisme d’espaces vectoriels.

33.7.2 Transformation de Fourier-Plancherel (dans L2)


Note 33.103. Il n’existe pas de formule explicite pour la transformée de Fourier de L2 → L2,
Pourquoi !? On définit un application appelée transformée de Fourier-Plancherel de L2 → L2
comme le prolongement continu de la transformée de Fourier de L1 ∩ L2 → L2.

33.7.2.1 Théorème de Plancherel


Soit f ∈ L1(Rn) telle que fˆ ∈ L1(Rn) alors fˆ ∈ C0(Rn) ∩ L1(Rn) et donc |fˆ(x)|2d x 6
R
Rn
kfˆ k∞ R n |fˆ(x)|dx < ∞, de sorte que fˆ ∈ L2(Rn). De même, puisque f = F̄ (fˆ), la fonction f
R

est presque partout égale à une fonction de C0(Rn) et le raisonnement ci-dessus montre que f ∈
L2(Rn). Cette observation pose naturellement la question de savoir si la transformation de Fou-
rier peut-être étendue en un isomorphisme de L2(Rn) sur lui-même. Nous allons voir que c’est
en effet le cas. Le résultat principal est le suivant :

Théorème 33.104. Soit f ∈ L1(Rn) ∩ L2(Rn) alors


1. fˆ ∈ L2(Rn)
2. et l’on a : R n |f (x)|2dx = R n |fˆ(ξ)|2dξ ou fˆ = kf k2 ou encore kF (f )k2 = kf k2.
R R
2

Théorème 33.105. (Plancherel) 2 est identique à 1 (vérifier son énoncé) dans le cours de
Fack.
1. La transformation de Fourier F : L1(Rn) ∩ L2(Rn) → L2(Rn) possède un unique prolonge-
ment continu P : L2(Rn) → L2(Rn).
2. De la même manière, la transformation de Fourier inverse F : L1(Rn) ∩ L2(Rn) → L2(Rn)
possède un unique prolongement continu, noté : P̄ : L2(Rn) → L2(Rn).
3. P et P̄ sont deux isométries réciproques adjointes l’une de l’autre autrement dit :
P −1(f ) = P (f¯ ) , i.e. f = P P̄ (f ) = P̄ P (f ) presque partout ? (Voir Buchwalter p 140).
Ce doit être le théorème d’inversion de Plancherel.

Démonstration. L1 ∩ L2 est dense dans L2, ce qui conduit à l’unicité car deux fonctions conti-
nues égales sur une partie dense sont égales partout. 

Proposition 33.106. Soient f , g ∈ L2(Rn)


1. (P (f )|g) = f |P̄ (g)

33.7 Transformée et Transformation de Fourier et Fourier-Plancherel 391

2. (P (f )|P (g)) = (f |g)


2 2
3. kP (f )k2 = kf k2
4. et on a toujours P̄ (f )(x) = P (f )( − x) à vérifier !

Proposition 33.107. Sans doute identiques aux propositions précédentes.


i. < F (f )|g > = < f |F̄ (g) >
ii. < fˆ |g > = < f |g > à vérifier pour être équivalente à la proposition (2) précédente.
iii.

Définition 33.108. On appelle transformation de Fourier-Plancherel ou transformée de Fourier


de L2 (resp. transformée-Plancherel inverse) l’unique prolongement continu de la transformation
de Fourier F : L1(Rn) ∩ L2(Rn) → L2 (resp. F̄ : L1(Rn) ∩ L2(Rn) → L2(Rn)). Tout cela n’a pas
de sens !

Remarque 33.109. Dans la pratique, on notera également fˆ = P (f ), et on dira que fˆ est la


transformée de Fourier-Plancherel de f . Pour f ∈ L2(Rn), la transformée de Fourier-Plancherel
fˆ(ξ) n’est définie que pour presque tout ξ ∈ Rn et par un procédé de passage à la limite qui
n’est guère explicite. La formule intégrale donnant fˆ(ξ) pour f ∈ L1(Rn) n’a plus de sens pour
une fonction f ∈ L2(Rn) qui n’est pas intégrable. Toutefois, on peut souvent se ramener à un
calcul d’intégrales semi-convergentes en utilisant le résultat suivant :

Théorème 33.110. Soit f ∈ L2(Rn) et supposons que pour presque tout ξ ∈ Rn, l’intégrale
−ixξ
f (x)dx converge vers une limite que nous noterons ϕ(ξ) quand R → + ∞. Alors on
R
|x|6R
e
a : fˆ(ξ) = limR→∞ |x|6R e−ixξf (x)dx = ϕ(x) pour presque tout ξ ∈ Rn.
R

Fourier conserve la parité


1
kF (h)k∞ 6 √ khk1.

33.7.3 Transformée de Fourier d’une fonction périodique


Définition 33.111. Soit f ∈ L1([0, 2π]). On appelle :
• nièm e coefficient de Fourier de f (n ∈ Z) le nombre complexe : cn(f ) =
1 R 2π
2π 0
f (t) e−int dt.
• La suite (cn(f ))n∈Z , est appelée la transformée de Fourier de f, on note parfois cn(f ) =
fˆ(n).

Remarque 33.112. On notera que si f ∈ L1([0, 2π]), la fonction t  f (t)e−int est intégrable
1 2π R 2π dt
sur [0, 2π] et on a : |cn(f )| = 2π 0 |f (t)| dt = kf k1 où l’on a posé kf k1 = 0 |f (t)| 2π .
R

Théorème 33.113. (Riemann-Lebesgue) Pour toute f ∈ L1([0, 2π]), on a : lim |n|→+∞ cn(f ) =
0.

33.7.3.1 La synthèse spectrale


Le problème principal dePla synthèse spectrale est de savoir sous quelles conditions sur f ∈ L1([0,
2π]), on a : (*) f (t) = n∈Z cn(f )eint, la convergence ayant lieu en un sens à préciser (ponc-
tuelles, uniforme, au sens L2, au sens L1, etc ...). Ainsi, pour f ∈ L2([0, 2π]) ⊂ L1([0, 2π]), on sait
que (*) a lieu au sens de la convergence dans L2. Si f est de classe C 2, et f (0) = f (2π), on a vu
précédement que la relation (*) a lieu pour tout t ∈ [0, 2π], la convergence de la série de droite
étant toujours uniforme. Une première question est de savoir si la connaissance des cn(f ) pour
f ∈ L1 détermine f à un ensemble négligeable près. C’est en effet le cas, comme nous allons le
voir maintenant
392 Analyse Réelle

Synthèse L1 pour les fonctions périodiques


Noyau de Poisson : soit f ∈ L1([0, 2π]). On sait que la suite des Cn(f ),P (n ∈ Z) tend vers 0
quand |n| → + ∞, mais il y a aucune raison pour que la série de Fourier : n∈Z cn(f )e
int
soit
|n| int
convergente à t fixé. Considérons alors la série modifiée (1), n∈Z cn(f )r e où r ∈ [0, 1[ est
P

fixé. Comme |cn(f )r |n|eint | 6 kf k1r |n| laPsérie (1) est normalement convergente sur R et définit
une fonction continue périodique fr(t) = n∈Z cn(f )r |n|eint, on a :

Théorème 33.114. Pour toute fonction f ∈ L1([0, 2π]), on a : limr→1− kf − fn k1 → 0. En par-


ticulier si cn(f ) = 0 pour tout n ∈ Z, on a f ≡ 0.

Remarque 33.115. L’application linéaire : L1([0, 2π]) → C0(Z) où C0(Z) est l’espace
f 
(cn(f ))n∈Z
des suites tendant vers 0 à l’infini est donc injective (et continue ). On prendra garde au fait que
cette application linéaire n’est pas surjective : il est faux que toute suite de c0(Z) soit la suite
des coefficients de Fourier d’une fonction L1([0, 2π]. Par contre, l’application linéaire :
L2([0, 2π]) → l2(Z) est un isomorphisme d’espaces d’Hilbert comme cela résulte du
f 
(cn(f ))n∈Z
théorème vu précédement.

Théorème de convergence ponctuelle


Parmi les théorème de convergence ponctuelle, le plus simple est basé sur l’intégrale de Diri-
chlet.
Intégrale dePDirichlet
SN (f (t)) = |n|6N cn(f )eint,
 
1
1 R π sin N + 2 u
SN (f (t)) = 2π 0 u
sin 2
[f (u + t) + f (t − u)]du

Théorème 33.116. (Critère de convergence de Dini) Soit f ∈ L1([0, 2π]) et supposons que la
fonction u  f (t + u) + f (t − u) − 2f (t)
u
soit intégrable sur [0, δ] avec δ > 0. Alors, la série de Fourier
int
.
P
n∈Z cn(f )e
f (t + u) + f (t − u) − 2f (t)
Remarque 33.117. Si f est dérivable au point t, on a : limu→0 u
=
f (t + u) f (t − u) Φ(u)
limu→0 u − − u = 0 et donc u est bornée sur un voisinage de 0. Le théorème de con-
vergence de Dini s’applique et montre alors que f (t) est la somme de sa série de Fourier en tout
point t où elle est dérivable.

33.7.3.2 Application à la théorie L2 des série de Fourier


Soit f ∈ L2([0, 2π]). Comme [0, 2π] est borné, on a f ∈ L1([0, 2π]) et par conséquent la fonction
1 R 2π
f (t)e−int est intégrable sur [0, 2π] pour tout n ∈ Z. Posons cn(f ) = 2π 0 f (t)e−intd t, n ∈ Z.
On dit que cn(f ) (noté parfois aussi fˆ(n)) est le nième coefficient de Fourier de f . Comme ici
cn(f ) = < f |en > où en(t) = eint , n ∈ Z, le fait que (en)n∈Z soit une base orthonormale de L2([0,
2π]) permet de montrer que :

Théorème 33.118. Bessel-Parseval ! ? ! Pour toute fonction f ∈ L2([0, 2π]), on a :


R 2π dt
f = n∈Z cn(f )ein (Convergence dans L2([0, 2π])) et 0 |f (t)|2 2π = n∈Z |cn(f )|2.
P P

33.8 Applications
P∞ 1
33.8.1 Calcul de la somme de la série : n=1 n2
P∞ 1
On peut utiliser la formule de Bessel Parseval pour calculer la somme de la série n=1 n2 .
Considérons en effet la fonction f (t) = t sur [0, 2π], on a :
33.9 Tableau comparatif 393

1 t2 2π
h i
1 2π
= π et pour n ∈ Z,
R
c0(f ) = 2π tdt = 2π 2
0 0  
R 2π −int h −int i2π
1 1 te 1 R 2π −int
cn(f ) = 2π 0
te dt = 2π −in
+ −in 0 e dt ,
0

u=t → u′ = 1 1 2π 1
en posant d’où cn(f ) = 2π × − i n = − i n on a donc

−int
 v ′ = e −int → v = e
−in

1 2π 2 1 R 2π 2 P∞ 1
t dt = 2π 0 t2dt = π 2 + ∞ 2
R P
2π 0 n=1 n2 = π + 2 n=1 n2
1 t3 2π 4π 2
h i
1 R 2π 2 1 R 2π 2
mais 2π 0 t dt = 2π 0 t dt = t = 2π 3 = 3
0
de sorte que :
4π 2 1
= π2 + 2 ∞ n=1 n2 , on en déduit que :
P
3
P∞ 1 π2
n=1 n2 = 6 .

33.8.2 Théorème de synthèse spectrale pour les fonctions continues et


périodiques
Donnons maintenant une autre application du théorème à un théorème de synthèse spectrale
des fonctions continues et périodique sur R.
Théorème 33.119. Soit f : R → C une Pfonction continue et 2π-périodique. On suppose que
n∈Z cn(f ) < ∞. Alors on a : f (t) = , ∀t ∈ R, où la série du second membre
int
P
n∈Z cn(f )e
est uniformément convergente sur R.
Ce théorème fournit un premier critère de convergence de la série de Fourier d’une fonction
2π-périodique qui couvre les cas des fonctionsde classe C 2. En effet, si f est de 
classe C 1, on a
−int 2π
pour n  0 : cn(f ) = 2π 0 f (t)e−intdt = 2π
h i
1 R 2π 1 f (t) e 1 2π
− − i n 0 e−int dt par une inté-
R
−in 0
1 1
gration simple par partie d’où cn(f ) = i n cn(f ′) en
itérant, on obtient cn(f ) = − n2 cn(f ′′) et
1 2π kf ′′k1
comme |cn(f ′′)| 6 2π on obtient |cn(f )| 6
|f ′′(t)|d t = kf ′′k1 . Mais alors
R
0 n2
n∈Z |cn(f )| < ∞, et le théorème peut s’appliquer.
P

33.9 Tableau comparatif


Transformation fˆ Transformation cn(f ), f périodique
1 R 1 R
Définition fˆ(x) = √ f (t)e−ixtdt cn(f ) = 2π T f (t) e−int dt,T période

dx
Domaine f ∈ L1(R) f ∈ L1([0, 2π], 2π )
Comportement (R.L.) lim |x|→0 fˆ(x) → 0 lim |n|→+∞ cn(f ) → 0
1
si f , fˆ ∈ L , f (x) = √
1
fˆ(t)e dt si f ∈ L1([0, 2π]) et si
ixt
R

n∈Z |cn(f )| < ∞ alors


P

f (x) = n∈Z cn(f )einx , pp(x)


P

conséquence si f ∈ C 2
c
|cn(f )| 6 |n|2 il y a égalité partout.
Si f ∈ L1 et fˆ = 0 alors f = 0, pp(x) si f ∈ L1([0, 2π]) et si cn(f ) = 0
∀n ∈ Z ⇒ f = 0, pp(vraie)
f ∈ L2, fˆ ∈ L2, |f (x)|2dx = f ∈ L2([0, 2π]), n∈Z |cn(f )|2 < ∞
R P
dx
|fˆ(t)|dt et on a |f (x)|2 = |cn(f )|2
R R P
2π n∈Z
f ∈ L2([0, 2π]) ⇒ f ∈ L1([0, 2π])
R 2π R 2π
0
|f |dx = 0 |f | − 1dx
R 2π 1 R 1

6 ( 0 |f |2dx) 2 ( 0 12dx) 2 < ∞
33.9 Tableau comparatif 395
Chapitre 34
Formes sesquilinéaires, Espaces Préhil-
bertiens, Hermitiens, Euclidiens et Hil-
bertien
(A mettre juste après espace vectoriel et algèbre normé)
Pour les démonstrations voir cours de Licence 1998-1999 M. ?, ARN. 2001-2002 M. Fack et
livre Topologie Gilles Christol ... Ellipse chapitre 10 page 163 (l’introduction est celle de ce cha-
pitre).
Les espaces de Hilbert sont, après les espaces vectoriels de dimension finie, les espaces vecto-
riels normés dont les propriétés sont les plus simples et remarquables. Ils jouent un rôle d’impor-
tance capitale dans de nombreuses branches mathématiques, en particulier en Analyse. ...

34.1 Formes sesquilinéaires

34.1.1 Forme sesquilinéaire relativement à un automorphisme


Définition 34.1. Soient E , F deux K-espace vectoriel, σ un automorphisme involutif de K et
ϕ: E × F → K. On dit que ϕ est une forme sesquilinéaire 
sur E × F relativement à σ si et seule-
y0): E → K
ment si : ∀(x0, y0) ∈ E × F, les applications partielles ϕ(•,
σ ◦ ϕ(x , •): F → K
sont linéaires.
0

Remarque 34.2. Cas particuliers :


− Si σ = IdK , alors ϕ est une forme bilinéaire ∀x; x ′; y; y ′ ∈ E , :
ϕ(x + x ′; y) = ϕ(x; y) + ϕ(x ′; y)
ϕ(x; y + y ′) = ϕ(x; y) + ϕ(x; y ′) (i.e. ϕ(x; · ) et ϕ( · ; y) linéaires)
ϕ(λx; y) = ϕ(x; λy) = λϕ(x; y).
− Si K = C, avec σ: z  z̄ alors ϕ est appelée forme sesquilinéaire complexe.
− Si E = F , on dit que ϕ est une forme sesquilinéaire sur E.

34.1.2 Forme (sesquilinéaire) hermitienne


Définition 34.3. Soient E un K-e.v., σ un automorphisme involutif de K. On dit que ϕ est
hermitienne si et seulement si :
1. ϕ( · ; y) et σ ◦ ϕ(x; · ) sont linéaires, i.e. ϕ une forme sesquilinéaire sur E relativement à
σ.
2. ∀x, y ∈ E , ϕ(x, y) = σ(ϕ(y, x)) [symétrie hermitienne].

Remarque 34.4. Cas particuliers :


− Si K = R et σ = IdR alors ϕ est une forme bilinéaire symétrique.
− Si K = C et σ = z  z̄ alors ϕ est appelée forme (sesquilinéaire) hermitienne complexe.

34.1.3 Formes (sesquilinéaires) hermitiennes complexes


Dans ce qui suit, K = C et E = K-e.v..

396
34.2 Forme bilinéaire 397

Définition 34.5. ϕ: E × E → K est une forme sesquilinéaire hermitienne complexe si et seule-


ment si :
i. ∀y0 ∈ E , ϕ(•, y0) est une forme linéaire sur E autrement dit ϕ(•, y0) est additive par rap-
port à la première variable [ϕ(x + x ′, y0) = ϕ(x, y0) + ϕ(x ′, y0)] et homogène par rapport à
la première variable [ϕ(λx, y) = λϕ(x, y)].
ii. ∀x, y ∈ E , ϕ(y, x) = ϕ(x, y).

Théorème 34.6. ϕ: E × E → K est une forme sesquilinéaire hermitienne complexe si et seule-


ment si :
ϕ est une forme sesquilinéaire hermitienne sur E relativement à z z̄ 
Remarque 34.7.
1. La linéarité de ϕ(x0, •): E → K est une conséquence de (i) et (ii).
2. Autrement dit ϕ: E × E → K est une forme sesquilinéaire hermitienne complexe si et seu-
lement si : ϕ est une forme sesquilinéaire hermitienne sur E relativement à z z̄ . Ou 
encore ϕ( · ; y) et ϕ(x; · ) sont linéaires et ϕ(x; y) = ϕ(y; x).
3. Si x = y alors ϕ(x, x) ∈ R.
4. ϕ(x, y1 + y2) = ϕ(x, y1) + ϕ(x, y2).
5. ϕ(x, λy) = λ¯ϕ(x, y).
6. Les propriétés (4) et (5) signifient que ϕ est additive par rapport à la deuxième variable
mais n’est pas homogène par rapport à la deuxième variable (on dit que ϕ est anti-homo-
gène).
7. ∀x, y ∈ E , ϕ(x, 0) = ϕ(0, y) = 0.

34.2 Forme bilinéaire


Définition 34.8. Déjà vue dans livre II pages 68 et 69 + voir CTE envoi 4 géométrie affine
page 2

Donner sa forme matrielle et les rêgles de calcul.

34.2.1 Formes bilinéaires réelles symétriques


Dans ce qui suit, K = R et E = K-e.v..C

Définition 34.9. ϕ: E × E → K est une forme bilinéaire réelle si et seulement si :


i. ∀x; x ′; y ∈ E , ϕ(x + x ′; y) = ϕ(x; y) + ϕ(x ′; y) : l’application partielles ϕ(•, y) est linéaire
(i.e. homogène et additive par rapport à la première variables).
ii. ϕ(x, y) = ϕ(y, x) : ϕ est symétrique.

Remarque 34.10.
1. Il est inutile de préciser l’homogénéité et l’additivité par rapport à la deuxième variable,
en raison de la symétrie.
2. Autrement dit, c’est une forme sesquilinéaire hermitienne avec σ = IdR .

34.2.2 forme (sesquilinéaire) hermitienne complexe et formes bili-


néaires réelles symétriques, définies positives ou positives
Nous noterons désormais une forme sesquilianaire complexe : fshc et une forme bilinéaire réelle
symétrique : fbrs.
Dans ce qui suit, K = R ou C et E = K-e.v..
398 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien

Définition 34.11.
1. On dit que ϕ une fshc [resp. fbrs] sur E est positive si et seulement si :
∀x ∈ E , ϕ(x, x) > 0.
2. On dit que ϕ une fshc [resp. fbrs] sur E est négative si et seulement si :
∀x ∈ E , ϕ(x, x) 6 0.
3. On dit que ϕ une fshc [resp. fbrs] sur E est dénie (ou non dégénérée) si et seulement
si :
ϕ(x, x) = 0 ⇒ x = 0.
4. On dit que ϕ une fshc [resp. fbrs] sur E est dénie positive/négative (ou posi-
tive/négative non dégénérée) si et seulement si :
∀x ∈ E − {0}i.e.(∀x  0), ϕ(x, x) > 0 (1) [resp. ϕ(x, x) < 0 (1)].

Remarque 34.12. Autrement dit, une fshc [resp. fbrs] sur E est définie positive/négative
(ou positive/négative non dégénérée) si et seulement si elle est définie et positive/negative :
∀x ∈ E , ϕ(x, x) > 0 [resp. ϕ(x; x) 6 0] et (ϕ(x; x) = 0) ⇒ (x = 0) puisque (ϕ(x; x) = 0) ⇒ (x =
0) s’écrit aussi (x  0) ⇒ (ϕ(x; y)  0) or cette proposition est incluse dans (1), d’autre part
(ϕ(x; x) > 0) ⇒ (ϕ(x; x) > 0).

34.2.3 Inégalité de Cauchy Schwarz


Théorème 34.13. Soit ϕ une fshc ou une fbrs positive sur E alors :
∀x, y ∈ E , |ϕ(x, y)|2 6 ϕ(x, x)ϕ(y, y).

34.3 Espaces Préhilbertiens, Hermitiens, Euclidiens et Hil-


bertien et produits scalaires

34.3.1 Définitions
Remarque 34.14. Un produit scalaire doit-il être nécessairement une f.s.h. non dégénérée.
Certains ouvrages définissent pour faire la différence la notion de produit scalaire hermitien ! Il
n’y a pas de réponse unique à tous ces problèmes chaque auteur adoptant sa notation person-
nelle.

Dans ce qui suit, il faut bien avoir en mémoire la nature du corps servant à la construction
de l’espace préhilbertien qui peut donc être Réel ou Complexe.
Il y a un problème au niveau de la définition d’un espace euclidien : faut-il que l’espace soit
de dimension finie ou non ? Certains ouvrage n’impose pas cette condition. Ces espaces permet-
tent de faire de la géométrie en dimension infinie.

34.3.1.1 Espace préhilbertien complexe et réel et leurs produits scalaires

Définition 34.15.
• On appelle espace préhilbertien Complexe [resp. Réel] le couple constitué :
i. d’un C-e.v. [resp. K-e.v.],
ii. d’une fshc [resp. fbrs] positive ϕ: E → K.
• La fshc ou fbrs d’un préhilbertien est appellée produit scalaire sur E.
On la note h.|.i, h., .i ou (.|.) ainsi ∀x, y ∈ E , ϕ(x, y) = hx|y i.
Le nombre hx|y i est appelé produit scalaire de x et y.
2
Remarque 34.16. L’inégalité de Cauchy Schwarz s’écrit donc : hx|y i 6 hx|xihy |y i

Exemple 34.17. Les espaces hermitiens [resp. euclidiens] sont des espaces préhilbertiens pour
lesquels le produit scalaire est une fshc [resp. fbrs] définie positive.
34.3 Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien et produits scalaires 399

Déplacer les deux définitions suivantes dans leurs chapitres respectifs.

34.3.1.2 Espace hermitien et Euclidien et leurs produits scalaires

Définition 34.18. On appelle espace Hermitien [resp. Euclidien] un espace préhilbertien


complexe [resp. Réel] (E , ϕ) où ϕ est une fshc [resp. fbrs] définie positive.

34.3.1.3 Exemples
ϕ(x, y) est un produit scalaire de
Pn
xiy¯i Cn
Pi=1
n
i=1 xiyi Rn
C0(R)
P
xnyn̄ Cc(Z)
R n∈Z
f (t)g(t) dt L2(U )
1
P (t)Q(t) dt
R
C[X]
R0
f (t)g(t)dt L (R ) et de Cc(U )
2 n
P∞
n=0 xnyn̄ l2(N)
Note 34.19.
1. Cc(Z) est l’ensemble des suites de nombres complexes qui sont à supports finis. On rap-
pelle que les compactes de Z sont les parties finies. Cc(Z) = {?}
2. L’ensemble l2(N) est l’ensemble des suites (xn)n>0 complexes dont la série de terme
P∞
général (x2n)n>0 est absolument convergente, l2(N) = (xn)n>0, xn ∈ C; n=0 |xn |2 < +


34.3.2 Sous-espace préhilbertien, euclidien et hermitien


Proposition 34.20. Soit E un espace préhilbertien [resp. hermitien ou euclidien], E ′ un sous-
espace vectoriel de E. ϕ le produit scalaire de E.
E ′ muni de la restriction de ϕ à E est un espace préhilbertien [resp. hermitien ou euclidien].

Définition 34.21. Soit E un espace préhilbertien [resp. hermitien ou euclidien], E ′ un sous-


espace vectoriel de E. ϕ le produit scalaire de E.
E ′ muni de la restriction de ϕ à E est appelé [resp. hermitien ou euclidien] de E.

34.3.3 Semi-norme et Norme associées à un produit scalaire


34.3.3.1 Définitions

Proposition 34.22. Soit (E , h.|.i) un espace préhilbertien [hermitien ou euclidien]


l’application N définie par N : E → R est une semi-norme [resp. une norme] sur E.
x
p

hx|xi

Définition 34.23. Soit (E , h.|.i) un espace préhilbertien [hermitien ou euclidien].


On appelle semi-norme [resp. norme] associée au produit scalaire la semi-norme
[resp. la norme] sur E notée k.k et définie par :
p
k.k: E → R ainsi kxk = hx|xi
x  p
hx|xi

Remarque 34.24.
1. Les propriétés de la norme s’écrivent donc sous la forme
− kxk = 0 ⇒ x = 0,
− kλxk = |λ| kxk,
400 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien

− kx + y k 6 kxk + ky k.
2. Tout espace Hermitien ou Euclidien (E , ϕ) est un espace préhilbertien séparé selon
Hausdorff.
3. L’inégalité de Cauchy Schwarz devient : |hx|y i| 6 kxk ky k.
4. Dans un espace préhilbertien séparé, l’inégalité de Cauchy Schwarz est une égalité si et
seulement si x et y sont linéairement dépendants (i.e. liés).
5. Dans un espace préhilbertien séparé réel, où k.k est la norme associée au produit scalaire
on a : ku + v k = kuk + kv k ⇔ u = α v.

34.3.3.2 Identités et inégalité remarquables

Proposition 34.25. Soit (E , h.|.i) un espace préhilbertien séparé (Réel ou Complexe) K = R ou


C et k.k la norme associée.
1. ∀x, y ∈ E , kx + y k2 = kxk2 + ky k2 + 2 < x⌊y > .
2. ∀x, y ∈ E , kx + y k2 + kx − y k2 = 2(kxk2 + ky k2) (identité de la médiane).
a+b 2 ka − bk2
3. ∀a, b, c ∈ E , kx − ak2 + kx − bk2 = 2kx − 2
k + 2
1
4. Si K = R, ∀x, y ∈ E , hx|y i = 4 kx + y k2 − kx − y k2 (identité de polarisation 1)


1
5. Si K = C, ∀x, y ∈ E , hx|y i = 4 kx + y k2 + kx − y k2 + i(kx + y k2 − kx − y k2) (identité de

polarisation 2)
1
6. ∀x, y ∈ E , |hx|y i| 6 2 kxk2 + ky k2


7. ∀x, y ∈ E , kxk2 − ky k2 = < x − y |x − y > .

Remarque 34.26. Donc, aussi bien dans R, que dans C, la connaissance de la norme sur un
espace préhilbertien séparé suffit à déterminer le produit scalaire.

34.3.3.3 Exemples
Attention la norme de L1 ne provient pas d’un produit scalaire.
Espace Produit scalaire Norme associée
R 1
C([a, b], C) hf |g i = 0 f (t)g(t)dt k.k2
Rn hx|y i = x1 × y1 +  + xn × yn Norme Euclidienne
Suite de carré sommable k.k2
P
hx|y i = xiy¯i
1
R b R b ′ ′
C ([a, b], R) hf |g i = a f (t)g(t)dt + a f (t)g (t)dt
Mm,n(R) hA|B i = tr(tA · B)
Proposition à vérifier en veillant à les étendre au cas où K = C.

34.4 Espace Hilbertien


Définition 34.27. On appelle espace de Hilbert ou espace Hilbertien un espace préhilber-
tien complexe ou réel complet pour la norme associée à son produit scalaire.

Remarque 34.28.
1. Le terme préhilbertien a été forgé d’après le nom du très grand mathématicien allemend,
David Hilbert, les anglo-saxons parlent d’espace produit scalaire.
2. Un espace de Hilbert est un espace de Banach.

Exemple 34.29.
Pn
1. H = Cn est un espace de Hilbert pour le produit scalaire i=1 xiy¯i ,
34.5 Orthogonalité 401

P∞
2. H = l2(N) est un espace de Hilbert pour le produit scalaire n=0 xnyn̄ ,
3. H = L (U ) (où U est un ouvert de R ) est un espace de Hilbert pour le produit scalaire
2 n

f (t)g(t)dt, on observera que la démonstration de la complétion de L2(U ) montre aussi


R
laR complétion de L2(Ω, T , µ) pour tout espace mesuré (Ω, T , µ), le produit scalaire est

f (t)g(t) dµ(t). En particulier pour X = N et µ définie par µ({n}) = 1, on retrouve le
fait que l2(N) est complet.
R 2π
4. H = L2(S1) est un espace de Hilbert pour le produit scalaire 0 f (t)g(t) dt
R 1
5. C([0, 1]) n’est pas un espace de Hilbertqpour le produit scalaire 0
f (t)g(t)d t, car il
R 1
n’est pas complet pour la norme kf k2 = 0
|f (x)| dx .
2

6. Cc(R) n’est pas un espace de Hilbert pour le produit scalaire f (t)g(t)dt, car la norme
R

obtenue est celle de L2(R). Or on sait que Cc(R) = L2(R).

Exemple 34.30. f 2(N ), L2([0, 2π]), L2(U ) où U est un ouvert de Rn sont tous des espaces de
Hilbert séparables.

34.5 Orthogonalité

34.5.1 Vecteurs othogonaux


Définition 34.31. Soit (E , h.|.i) un espace préhilbertien séparé, (x, y) un couple d’éléments de
E. x et y sont orthogonaux ssi hx|y i = 0. Dans ce cas uniquement, on écrit x ⊥ y.

Exemple 34.32.
1. Les fonction en(t) = eint et em(t) = eimt sont orthogonales lorsque n  m.
2. Les fonction en(t) = 1[−1,0](t) et em(t) = 1[0,1](t) sont orthogonales.

Remarque 34.33.
1. La relation ⊥ n’est ni réflexive, ni transitive.
2. ⊥ est une relation symétrique (x ⊥ y) ⇒ (y ⊥ x).
3. Pour tout x ∈ E : OE ⊥ x, c’est le seul élément de E à posséder cette propriété. Puisque :
(x  OE ) ⇒ (hx|xi  0).

34.5.2 Parties orthogonales


Définition 34.34. Soit (E , h.|.i) un espace préhilbertien séparé, X , Y deux parties non vides de
E. X et Y sont orthogonales ssi ∀(x, y) ∈ X × Y , hx|y i = 0 i.e. x ⊥ y.

Pourquoi le cours de LM1 licence met-il en garde contre la confusion avec l’orthogonalité de
la géométrie élémentaire ?

34.5.3 Théorèmes de Pythagone


Théorème 34.35. (Théorème de Pythagore (1)) Soit (E , h.|.i) un espace préhilbertien séparé,
(x, y) un couple d’éléments de E. x et y orthogonaux ⇒ kx + y k2 = kxk2 + ky k2.

Théorème 34.36. (Théorème de Pythagore (2)) Soit (E , h.|.i) un espace préhilbertien séparé,
(x, y) un couple d’éléments de E. Les deux propriétés suivantes sont équivalentes :
i. x et y orthogonaux
ii. kx + y k2 = kxk2 + ky k2.
402 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien

34.5.4 Orthogonal d’une partie


Proposition 34.37. Soit (E , h.|.i) un espace préhilbertien séparé, (a) un élément de E.
L’ensemble des vecteurs de E orthogonaux à (a) est un hyperplan fermé.

Définition 34.38. Soit (E , h.|.i) un espace préhilbertien séparé, A une partie de E.


L’ensemble {x ∈ E; ∀u ∈ A; x ⊥ u} i.e. {x ∈ E; {x} orthogonal A} est orthogonale de A, on le
note A⊥ ou A◦.

Remarque 34.39. (A⊥)⊥ se note A⊥⊥.

Proposition 34.40. Soit (E , h.|.i) un espace préhilbertien séparé, A une partie de E.


i. A⊥ est un sous-espace vectoriel fermé de E.
ii. Si A est un sous-espace vectoriel de E, E = A ⊕ A⊥ et A⊥⊥ = A ???.
(
B ⊥ ⊂ A⊥
iii. A ⊂ B ⇒ .
A⊥⊥ ⊂ B ⊥⊥

iv. Si A est le sous-espace vectoriel engendré par G dans E alors G⊥ = A⊥.


v. Tout vecteur de A est orthogonal à tout vecteur de A⊥ en d’autres termes A ⊂ A⊥⊥.

34.5.5 Hyperplan médiateur dans un espace préhibertien réel


Définition 34.41. On appelle hyperplan médiateur, un hyperplan affine orthogonal à b − a et
passant par le milieu de a et b.

34.5.6 Angle de deux vecteurs non nuls dans un préhilbertien réel


Définition 34.42. On appelle angle de x et y, x ∈ E , x  0, y ∈ E , y  0, le nombre θ défini par
0 6 θ 6 π et hx|y i = kxk ky k cosθ.

Remarque 34.43. Cette définition a un sens à cause de l’inégalité de Cauchy-Schwarz : on en


tire kx + y k2 = kxk2 + ky k2 + 2 kxk ky k cosθ.

Définition 34.44. On dit qu’un angle θ est :


− aigu ⇔ hx|y i > 0.
− obtus ⇔ hx|y i < 0.

34.6 Projection orthogonale d’un espace préhilbertien


(Problème de meilleure approximation). Soit E un K-e.v., F une partie de E. On rappelle
qu’un projecteur est une application linéaire pF : E → F telle que : f ◦ f = f . L’image d’un point
x de E est appelé projection de x sur F . Le résultat qui suit généralise le fait que, dans l’espace
ordinaire R3, la projection orthogonale de x ∈ R3 sur F (une droite ou un plan) réalise la plus
courte distance de x à F .

34.6.1 Théorème de projection


Proposition 34.45. Soit H un espace préhilbertien et soit K une partie convexe, complète de
H.
Alors :
− tout point x ∈ H, admet une projection unique x ′ = pK (x) qui réalise le minimum de la
distance de x aux points de K, kx − x ′k = inf {kx − z k; z ∈ H }.
34.7 Dual d’un espace de Hilbert 403

− Cette projection x ′ de x est caractérisée par la relation Rehx − x ′|u − x ′i 6 0, ∀u ∈ K.


− kpK (x) − pK (y)k 6 kx − y k.

Remarque 34.46. Dans le cas où K = R l’inégalité exprime que l’angle formé par les vectuers
est obtus.

34.6.2 Projection sur un cône convexe complet


Définition 34.47. On appelle cône l’ensemble : C = {λ x; λ > 0}.

Proposition 34.48. Soit C un cône convexe complet de E espace préhilbertien. Si x ′ est la pro-
jection de x sur C alors :
kxk2 = ||x ′k2 + kx − x ′k2 et Rehx|x ′i = hx|x ′i.

34.6.3 Projection sur un sous-espace vectoriel complet


Proposition 34.49. Soit F un sous espace vectoriel complet d’un espace préhilbertien. La pro-
jection sur F x ′ de x ∈ H, est le seul vecteur x ′ ∈ F tel que x − x ′ soit orthogonal à F : c’est la
projection orthogonale de x sur E.

34.6.4 Transitivité des projections


Proposition 34.50. Soit F un sous espace vectoriel complet de H. K ⊂ F, convexe, fermé si
x ′ = pF (x) et si x ′′ = pK (x ′). Alors x ′′ = pK (x).

34.6.5 Application aux sous-espaces orthogonaux d’un espace de Hil-


bert
Théorème 34.51. Soit F un sous espace fermé (i.e. complet) d’un espace de Hilbert H. Alors :

• L’application pF : H → F est linéaire et continue et kpF k = 1.


x 
x′
• ker(pF ) = F ⊥ et F ⊥⊥ = F.
• F et F ⊥ sont des espaces supplémentaires dans H : H = F ⊕ F ⊥
• ∀x ∈ H , kxk2 = kpF (x)k2 + kpF ⊥(x)k2.

Proposition 34.52. Si F est un sous-espace d’un espace de Hilbert alors F̄ = F ⊥⊥.

34.7 Dual d’un espace de Hilbert


Théorème 34.53. (Théorème de représentation) Soit E un espace de Préhilbertien séparé et E ′
son dual topologique.

1. ∀x ∈ E, la forme linéaire ϕa: E → K est continue et de norme kak.


x 
hx|ai
2. l’application : E → E′ est une semi-linéaire continue et injective des espaces normés
a  ϕa
E et E ′. Si E est un espace de Hilbert elle est bijective.

Définition 34.54. Soit E , F un espace de préhilbertien et une application f : E → F . On dit


que :
• l’application f ∗: F → E est l’adjointe de f ssi hx|f ∗(y)i = hf (x)|y i,
404 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien

• f est autoajointe ssi f ∗ = f,


• f est antiautoadjoint ou antiadjoint ssi : f ∗ = − f.

Remarque 34.55. Une application linéaire continue f d’un espace de Hilbert dans lui-même
est souvent appelé opérateur sur E.

Théorème 34.56. Soient E , F deux espaces de Hilbert sur le même corps, et f : E → F une
application linéaire continue. Il existe une unique application f ∗ adjointe de f. De plus f ∗ est
linéaire et continue.

Proposition 34.57. Avec les mêmes hypothèses, on a (f ∗)∗ = f et kf ∗k = kf k.

34.8 Systèmes orthogonaux et bases Hilbertiennes

34.8.1 Définitions
Définition 34.58. Soit E un espace préhilbertien séparé complexe ou réel.
i. Une famille (ei)i∈I de vecteurs de E est appelée famille orthogonale, ssi
∀i ∈ I , ai  0
∀i, j ∈ I , i  j, hai |a j i = 0
.

ii. Une famille (ei)i∈I de vecteurs de E est appelée famille orthonormale ou ortho-
normée , ssi
∀i ∈ I , ai  0, kai k2 = 1


∀i, j ∈ I , i  j, hai |a j i = 0
.

Proposition 34.59. Toute famille orthogonale est une famille libre.

34.8.2 Inégalité de Bessel


Proposition 34.60. (Inégalité de Bessel) Soit (ei)i∈I un système orthonormé dans l’espace pré-
hilbertien séparé E. Pour tout x ∈ E, la famille (|hx|ei i|2)i∈I est sommable et sa somme vérifie
2 2
l’inégalité, appelée inégalité de Bessel, i∈I |hx|ei i| 6 kxk .
P

34.8.3 Base Hilbertienne


Note 34.61. Topologie Gilles Christol ... Ellipse chapitre 10 page 172, Il importe de ne pas
confondre les notions de base hilbertienne et de base algébrique. Une base algébrique d’un
espace vectoriel est une famille d’élément de cet espace telle que tout point de l’espace
s’exprime, de manière unique, comme un combinaison linéaire d’une sous-famille finie d’éléments
de cette famille. Les bases algébriques jouent un rôle important dans l’étude des espaces vecto-
riels de dimension finie, mais n’ont qu’un rôle beaucoup plus modeste dans celle des espaces vec-
toriels de dimension infinie. . Intégration André Gramain Hermann chapitre 6 page 163, Si la
dimension de E est infinie, on peut démontrer qu’une base hilbertienne n’est pas une base (algé-
brique) de l’espace vectoriel .

Définition 34.62. Soit E un espace préhilbertien séparé complexe ou réel. On appelle base hil-
bertienne de E, une famille de vecteurs de E :
i. orthonormale,
ii. et totale i.e. si le sous-espace vectoriel fermé engendré par cette famille est E (Est-ce
équivalent à (l’espace vectoriel engendré par une base hilbertienne est dense dans E).

Proposition 34.63.
i. L’espace vectoriel engendré par une base hilbertienne est dense dans E.
34.9 Géométrie euclidienne 405

ii. Un espace de Hilbert H admet nécessairement des bases hilbertiennes. Toutes ces bases
sont équipotentes.

Proposition 34.64. Soit E un espac préhilbertien séparé, (ai)i∈I, une famille orthonormale
sans E, les propriétés suivantes sont équivalentes :
a) L’espace vectoriel engendré par la famille (ai)i∈I est dense dans E,
b) Pour tout point x de E, on a x = i∈I hai |xiai (famille sommable),
P

c) Pour tout point x de E, la famille des |hai |xi|2 est sommable et l’on a kxk2 =
2
i∈I |hai |xi| . (Relation de Parseval).
P

Définition 34.65. Le cardinal des bases d’un espace de Hilbert H est appelé dimension de H.
Exemple 34.66. Base orthonormale dans un espace de Hilbert.
1. Espace de Hilbert de dimension finie : Pour tout espace de Hilbert une base hilbertienne
est tout simplement une base algébrique orthonormée (Topologie Gilles Christol ...
Ellipse chapitre 10 page 173).
2. Dans Cn, les vecteurs ei = (0, 0,  , 1, 0,  , 0) le 1 est placé à la ièm e place, i = 1, 2,  , n
forment une base orthonormale.
3. Dans l2(N), les vecteurs ei = (0, 0,  , 1, 0,  ) le 1 est placé à la ièm e place, i = 1, 2,  for-
ment une base orthonormale.
4. lI2(K) (Topologie Gilles Christol ... Ellipse chapitre 10 page 174)
R 2π dt
5. Dans L2([0, 2π]) muni du produit scalaire 0 f (t)f (t) 2π , les fonctions en(t) = eint , (n ∈
Z) forment une base orthonormale.

Théorème 34.67. (Décomposition dans une base orthonormale) Soit H un espace de Hilbert et
(e1, e2, ) une base orthonormale de H.
i. Pour toute suite (λ1, λ2,  ) de nombres complexes telle que
P∞ 2
P∞ P∞ n=1 |λn | < ∞, la série
2
P∞ n=1 λnen converge dans H et sa somme x = n=1 λnen vérifie : hx|en i = λn , kxk =
2
n=1 |λn | ,
P∞ 2
P∞
ii. Pour tout x ∈ H, on a n=1 |hx|en i| < ∞, en outre on a : x = n=1 hx|en ien (conver-
2 ∞ 2
gence dans H) et kxk = n=1 |hx|en i|
P

34.9 Géométrie euclidienne


Voir Monier.

34.9.1 Orthonormalisation de Schmitt


Proposition 34.68. Soit E un espace vectoriel euclidien, p ∈ N∗ , (vi)16i6p une suite d’élé-
ments de E alors il existe une suite orthonormée unique (ai)16i6 p telle que :
i. ∀k ∈ {1,  , p}, 16i6 p Rai.
P P
16i6 p Rvi =

ii. ∀i ∈ {1,  , p}, (ai |vi) > 0.

Proposition 34.69. Tout espace vectoriel euclidien possède une base orthonormée notée
B.O.N ..

Proposition 34.70. Soient E , F un espace vectoriel euclidien et f ∈ L(E , F ).


i. Il existe une unique application g ∈ L(E , F ) telle que : ∀(x, y) ∈ E × F ; (f (x)|y)F =
(x|g(y))E.
406 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien

ii. Si B (resp. B ′ ) est une B.O.N. de E (resp. F) et A = MB ,B ′(f ) alors MB ′,B (g) = tA.

Définition 34.71. L’application linéaire ainsi définie s’appelle l’adjoint de f et se note f ∗.

Proposition 34.72. Soit E , F deux espaces vectoriels euclidiens tels que :


i. ∀f ∈ L(E , F ), f ∗∗ = f.

ii. L’application : L(E , F ) → L(F , E)


f f∗ 
iii. (ker(f ))⊥ = im(f )∗ donc E = ker(f ) ⊕ im(f )∗.

Lemme 34.73. Soient E un espace affine euclidien, A ⊂ E et f ∈ L(E).


Si A est stable par f alors A⊥ est stable par f ∗.

34.9.2 Spectre d’un endomorphisme


Définition 34.74. Soit E un K-e.v. et un application f ∈ L(E). On appelle spectre de f et on
note sp(f ) l’ensemble des valeurs propres de f.

Note 34.75.
− Soit A ∈ Mn(R) et e = (e1, , en) une base canonique de Rn ou de Cn, avec
 e1 = (1, 0,  , 0)

 .
en = (0,  , 0, 1)

− Soient f (resp. fˆ) l’unique endomorphisme de Rn (resp. Cn) tel que Me(f ) = A (resp.
Me(fˆ) = A).
− On pose sp(A, R) = sp(f ) et sp(A, C) = sp(fˆ).
− Soit χA le polynôme caractéristique de A : sp(A, R) est l’ensemble des racines réelles de
χA, sp(A, C) est l’ensemble des racines complexes de χA.

Lemme 34.76. Soit E un espace vectoriel euclidien et f ∈ L(E) alors :


i. sp(f ) = sp(f ∗).
ii. si λ ∈ sp(f ) et µ ∈ sp(f ∗) avec λ  µ alors ker(f − λidE ) et ker(f ∗ − λidE ) sont orthogo-
naux.

Définition 34.77. Soit f ∈ L(E) où E est un espace vectoriel euclidien.


f est dite symétrique ssi f ∗ = f.

Proposition 34.78. Soit A ∈ Mn(R) supposons A symétrique alors sp(A, C) ⊂ R. En d’autres


termes χA est dislocable i.e. scindé dans R[X].

Proposition 34.79. Soit E  {0} un espace vectoriel euclidien et f ∈ L(E). Si f est symétrique
alors E = ⊥ ker(f − λIdE ). Par suite, il existe une BON de vecteurs propres.
L
λ∈Sp(f )

Proposition 34.80. Soit E un espace vectoriel euclidien de dimension n. f ∈ L(E), β f :


E ×E → R alors
(x, y) 
(x|f (y))
i. β f est bilinéaire, β f est symétrique ssi f est symétrique.
ii. Soit a une BON de E alors Ma(β f , a) = Ma(f ).

iii. L’application h: L(E) → L2(E × E , R) est un isomorphisme d’espace vectoriel.


f βf
34.9 Géométrie euclidienne 407

Proposition 34.81. Soit E un espace vectoriel euclidien de dimension n. β ∈ L2(E × E , R), β


symétrique. Soit f l’endomorphisme symétrique associé à β, (a1,  , an) une base orthonormé de
vecteur propre de f et f (ai) = λiai.
i. (a1,  , an) est une BON qui est orthogonale pour β i.e. ∀i  j ⇒ β(ai , a j ) = 0.
ii. en posant x = xiai et y = yiai on a : β(x, y) = λixiyi, β(x, x) = λix2i ,
P P P P

E → R.
x 
xi

34.9.3 Isométrie vectorielle, Rotation et Antirotation


Proposition 34.82. Soit E et F des espaces vectoriels euclidiens. f : E → F une application
linéaire, (a1,  , an) une BON de E alors les propositions suivantes sont équivalentes.
i. ∀x, y ∈ E , kf (x) − f (y)k = kx − y k
ii. ∀x ∈ E , kf (x)k = kxk
iii. ∀x, y ∈ E , (f (x)|f (y)) = (x|y)
iv. (f (ai))16i6n est une suite orthonormée
v. f ∗ f = CIdE.

Définition 34.83. f : E → F est une isométrie vectorielle ssi f est bijective, linéaire et vérifie
l’une des conditions équivalentes précédentes.

Proposition 34.84. Soit E et F des espaces vectoriels euclidiens de même dimension. Les pro-
positions suivantes sont équivalentes :
i. f est une isométrie linéaire.
ii. f ∗ f = IdE
iii. f f ∗ = IdF
iv. f est bijective et f −1 = f ∗

Proposition 34.85. Soit E et F des espaces vectoriels euclidiens de même dimension et f ∈


L(E , F ) a (resp. b) une BON de E (resp. F). A = Ma,b(f ) alors les propositions suivantes sont
équivalentes.
i. f est une isométrie linéaire
ii. tA A = In
iii. A tA = In
iv. A est inversible et A−1 = tA.

Proposition 34.86. Les isométries vectorielles d’un espace vectoriel euclidien E sur lui-même
forment un groupe.

Définition 34.87. Le groupe formé par les isométries vectoriels d’un espace vectoriel euclidien
E sur lui-même est appelé groupe orthogonal. On le note O(E).

On note O(n, R) l’ensemble des matrices telles que tA A = In.


O(n, R) est un sous-groupe de GL(n, R). matrice inversible.

Proposition 34.88. O(E) ⊂ GL(E).

Proposition 34.89. Soit E un espace vectoriel euclidien f ∈ O(E) alors det(f ) = ± 1.

Définition 34.90. SO(E) = O +(E) = {f ; f ∈ O(E); det(f ) = 1}.


408 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien

Les éléments de O + sont appelés rotations vectorielles,


Définition 34.91. O −(E) = {f ; f ∈ O(E); det(f ) = − 1}.
Les élément de O − sont appelés antirotations.

Remarque 34.92.
1. O +(E) est un sous-groupe distingué de O(E). O −(E) n’en n’est pas un.

2. O +(E) est un sous-groupe distingué de O(E). O(E) → R∗ est un homomor-


f 
det(f )
phisme.

Remarque 34.93. Soit E un espace vectoriel euclidien, a une BON de E.


GL(E) → GL(n, R) est un isomorphisme de groupes de O(E) → O(n, R) et O +(E) → O +(n,
f 
Mata(f )
R).

Proposition 34.94. Soit E un espace vectoriel euclidien de dimension 1 alors O(E) = {IdE ; −
IdE ). O(E) = {IdE }.

Exemple 34.95.
1. Soit E un espace vectoriel euclidien de dimension n. (a1,  , an) une BON
Rn est une isométrie vectorielle. ( λia2i c|
P P P
PE → λ ja j ) = λiµi =
λ i ai  (λ1,  , λn)
((λ1,  , λn)|(µ1,  , µn)).
2. Conséquences, deux espaces vectoriels euclidiens E , F de même dimension n sont isomé-
triques. PE → Rn → PF , a ∈ BON(E), b ∈ BON(F ).
λiai 
(λ1,  , λn) 
λibi
3. La symétrie orthogonale par rapport au sous espace vectoriel F d’un espace vectoriel
euclidien E. E = F ⊕ F ⊥, posons u = u1 + u2, u1 ∈ F , u2 ∈ F ⊥. σF E → E σF est
u 
u1 − u2
la symétrie orthogonale par rapport au sous espace vectoriel F .

Proposition 34.96. σF ∈ O(E), σ ◦ σ = idE posons p = dim(F ) et n = dim(E) alors det(σ) = ( −


1)n− p, Fix(σ) = F.

Lemme 34.97. Soit E un espace vectoriel, f ∈ O(E), λ ∈ R λ valeur propre de f i.e. λ ∈ Sp(f ),
alors λ = ± 1.

Proposition 34.98. Soit A ∈ O(n, R) alors Sp(A, C) ⊂ U = {z; z ∈ C, |z | = 1}.

Proposition 34.99. Soit E un espace vectoriel euclidien, F un sous espace vectoriel euclidien
de E. f ∈ O(E); f (F ) ⊂ F alors F ⊥ est stable par f.

Proposition 34.100. Soit E un espace vectoriel euclidien de dimension 2, f ∈ L(E), (a1, a2)
une BON de

E, A = Mat(a1,a2)(f ) alors f ⊂ O(E)

⇔ A est de la forme :
α −β α β
+
(1)A = β α , f ∈ O (E), (2)A = β − α , f ∈ O −(E) avec α2 + β 2 = 1.

Proposition 34.101. SO(2, R) est commutatif.

Soit U = {z; z ∈ C, |z | = 1}, U est un groupe multiplicatif. ∀λ ∈ U , hd C → C , C = R2.


z λz
 
α −β
λ = α + iβ, hλ ∈ L(CR ). C: 1 ∈ C, i ∈ C, (1, i) est une R-base de C, M(1,i)(f ) = β α
puisque
hλ(1) = λ = α + iβ et hλ(i) = λi = iα − β.
34.9 Géométrie euclidienne 409

Proposition 34.102. ∀λ ∈ U , λ ∈ SO(R2), U → SO(R2) .


λ  hλ

Proposition 34.103. Soit E un espace vectoriel euclidien de dimension 2, alors :


i. SO(E) est commutatif,
ii. Soit a1, b1 unitaires alors ∃!f ; f (a1) = b1.

Rappel : Fix(f ) = {x; f (x) = x}.

Corollaire 34.104. Soit E un espace vectoriel euclidien de dimension 2, f ∈ O +(E). Alors


Fix(f ) = {0}.

Proposition 34.105. Soit E un espace vectoriel dimension 2, f ∈ O −(E). Alors f est un symé-
trie orthogonale par rapport à une droite vectorielle.

Rajouter
Définition d’une réflexion
Définition d’un retournement

34.9.4 Espace C. n

Lemme 34.106. On a Cn = Rn ⊕ iRn.

Lemme 34.107. Soit E un R-espace vectoriel de dimension n, f ∈ L(E) alors (i) ou (ii)
i. Il existe un sous espace vectoriel V de dimension 1 de E stable par f.
ii. Il existe un sous espace vectoriel V de dimension 2 de E stable par f et tel que l’endomor-
phisme fV induit par f dans V vérifie det(fV ) > 0.

Proposition 34.108. Soit E un espace vectoriel de dimension n


1. f ∈ O(E) alors, il existe F1;  ; F p sous espace vectoriel de E tels que
⊥ ⊥
i. E = F1⊕ ⊕F p
ii. ∀i ∈ {1;  ; p} dim(Fi) = 1 ou 2. Fi est stable par f et en notant fi l’endomor-
phisme induit dans Fi par f on a :
− si dim(Fi) = 1, fi = ± idFi
− si dim(Fi) = 2, fi ∈ O +(E)
2. Si f ∈ O +(E) alors il existe F1,  , F p comme ci-dessus vérifiant de plus ∀i ∈ {1;  ; p} tel
que dim(Fi) = 1, on a fi = idFi.

Traduction matricielle
Si f ∈ O(E) en réunissant des bases ON des Vk et en les rangeant dans un ordre convenable,
on obtient une

BON de E sur laquelle

:
M1
 
   
Ml αj − βj
Mat(f ) = où εi = ± 1 et où M j = matrice de rotation avec
 


 ε1 
 βj αj
 
εn −l
α2j + β j2 = 1. Si f ∈ SO(E), ∀i, εi = 1.

Corollaire 34.109. Soit E un espace vectoriel euclidien de dimension 3, f ∈ O(E) alors :


 
α −β 0
i. Il existe une base orthonormée (a1, a2, a3) de E telle que : Mf =  β α 0 
0 0 1
410 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien

ii. Si F  idE, alors Fix(f ) est une droite vectorielle appelée axe de la rotation.

Corollaire 34.110. Soit E un espace vectoriel euclidien de dimension 3, f ∈ O −(E) alors :


 
α −β 0
i. Il existe une base orthonormée (a1, a2, a3) de E telle que : M f =  β α 0 
0 0 −1

ii. Il existe un plan vectoriel V et un rotation ρ ∈ O +(E) laissant les éléments de V ⊥ fixes
tel que f = ρ ◦ σV = σV ◦ ρ où σV est la symétrie orthogonale par rapport à V.

Produit mixte dans un espace vectoriel euclidien orienté


Sens

Proposition 34.111. Soit E un espace vectoriel (a1,  , an) et (b1,  , bn) deux bases orthonor-
mées de E, f l’endomorphisme tel que ∀i ∈ {1;  ; n}, f (ai) = bi alors a et b sont de même sens
ssi f ∈ O+(E).

34.9.5 Base
Notation : Soit E un espace vectoriel orienté. On note BON+(E) l’ensemble des base orthonor-
mées positives. On note Altn(E , R) l’ensemble des applications n-linéaires alternées de E dans
R.

Proposition 34.112. Soit E un espace vectoriel orienté, ϕ ∈ Altn(E , R) et (a1, , an) ∈


BON+(E). Alors ϕ(a1,  , an) est indépendant du choix de (a1,  , an) ∈ BON+(E).

34.9.6 Produit mixte


Théorème 34.113. Soit E un espace vectoriel euclidien de dimension n. Il existe sur E une
unique application µ ∈ Altn(E , R) telle que ∀a ∈ BON+(E), µ(a1,  , an) = 1.

Définition 34.114. µ est le produit mixte. On note µ(v1,  , vn) = [v1,  , vn].

Remarque 34.115. Ce produit mixte existe dans n’importe quel espace vectoriel orienté.
− Dimension 1 : v = λ a1, si a1 > 0, [v] = λ.
D(v , v )
− Dimension 2 : (a1, a2) ∈ BON+(E) ⇒ [v1, v2] = D(a1, a2 ) .
1 2

− [u, v, w] = det(u, v, w) = (u ∧ v) · w

34.9.7 Produit vectoriel


Soit E un espace vectoriel euclidien, dim(E) = n. Soit l’isomorphisme d’espace vectoriel
E ∗ → E vérifiant u(x) = (u#|x), ∀(x1,  , xn−1) ∈ E n−1, posons PV(x1,  , xn) = [•, x1,  ,
u u#
xn−1] où [•, x1,  , xn−1]: E → R
x 
[x, x1,  , xn−1]
PV(x1,  , xn−1) ∈ E , PV: E n−1 → E est une application n − 1-linéaire alternée. C’est le pro-
duit vectoriel. (x0|PV(x1,  , x2)) = [x0, x1,  , xn−1], ∀x0 ∈ E. (x0|x1 ∧ x2) = [x1, x2, x3].
Angle
Définition

Définition 34.116. Soit E un espace vectoriel euclidien, u ∈ E, u  0, v ∈ E, v  0. Ang(u, v) =


u v
θ = arccos kuk kv k est l’angle non orienté des vecteurs u et v.

Proposition 34.117. On a 0 6 θ 6 π et (u|v) = kuk · kvk · cos(θ)


34.9 Géométrie euclidienne 411

34.9.8 Angle orienté de vecteurs dans un plan vectoriel orienté


Rappel : On définit l’exponentielle complexe exp: C → C . θ ∈ R, exp(iθ) ∈ C,

X = cos(θ)
z 
P+∞
n=0
zn
n!
exp(iθ) = X + i Y ⇒ Y = sin(θ)
.

Théorème 34.118. Soit U = {(α, β) ∈ R2; α2 + β 2 = 1} alors l’application


R → U est surjective et ∀(α, β) ∈ U, l’image réciproque de (α, β) par h est
θ  (cos(θ), sin(θ)) = eiθ
une classe modulo 2π d’un réel, c’est à dire un élément de R/2πZ.

Rappel : R/2πZ est un groupe pour Cl(x) + Cl(y) = Cl(x + y).

Définition 34.119. Soit (E , O) un plan vectoriel euclidien orienté, (u, v) ∈ E × E , kuk = kvk.
Soit ũ le vecteur unitaire tel que (u, ũ) ∈ BON+(E), v = αu + βũ , kvk = 1, α2 + β 2 = 1, (α, β) ∈ U.
L’ensemble des θ ∈ R tels que cos(θ) = α et sin(θ) = β est un élément de R/2πZ. Cette classe
sera notée : (u, v)∧ : elle s’appelle l’angle orienté de u et v dans cet ordre, ainsi : θ ∈ (u, v)∧ ⇔
v = (cos(θ))u + (sin(θ)ũ.

Exemple 34.120.
1. (u, u)∧ = Cl(0) car u = 1u + 0ũ.
2. (u, − u)∧ = Cl(π) car − u = − 1u + 0ũ.

Remarque 34.121. (u, v)∧ a une orientation. Si on change l’orientation c’est à dire dans (E ,
θ˜) (qui est aussi un espace vectoriel euclidien orienté) les angles différents d’un signe − . (u,
˜
v)∧θ = − (u, v)∧θ .
 ∧
u v
Définition 34.122. Si u ∈ E \{0} et v ∈ E \{0} (u, v)∧ = kuk ; kv k . On note (u, v)∧ une
détermination quelconque de l’angle (u, v)∧ c’est à dire un élément quelconque de (u, v)∧.

34.9.9 Angle orienté d’une rotation vectorielle dans un plan vectoriel


orienté
Définition 34.123. Soit f ∈ O +(E), alors si u est un vecteur unitaire, l’angle orienté (u,
f (u))∧ ne dépend pas du choix de u. On l’appelle angle de la rotation de f. On le note A(f ).

Remarque 34.124. Une rotation vectorielle dans E espace  vectoriel euclidien orienté, est
w w w
déterminée
 par son angle A(f
 ) : f (0) = 0, ∀w ∈ E \{0}, f kw k = cos(θ) kw k + sin(θ) kwk , f (w) =
w w
kwk cos(θ) kwk + sin(θ) kwk .

Proposition 34.125. Soit E un espace vectoriel euclidien de dimension 2. (a1, a2) une
BON+(E), f ∈ L(E), A = M (f , a1, a2) alors f est la rotation d’angle cl2πθ ssi A =

f (a1) f (a2)
 cosθ − sinθ a1  θ ∈ (a1, a2)∧.
sinθ cosθ a2

Notation : ∀θ ∈ R, on note fθ la rotation d’angle Cl2π(θ) (on dit souvent : d’angle θ).

Théorème 34.126. Soit (E , O) un espace orienté de dimension 2 alors SO(E) → R/2πZ


f  A(f )
est un isomorphisme de groupes. i.e. l’application est bijective A(g2 ◦ g1) = A(g2) + A(g1).

Proposition 34.127.

i. h: R → SO(E) est un morphisme de R sur SO(E).


λ 

412 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien

ii. h passe au quotient R/2πZ et l’application h̃ obtenue par passage au quotient est un iso-
morphisme de groupes de R/2πZ → SO(E), dont l’application réciproque est l’applica-

tion : f A(f ).

Proposition 34.128. Soit u1, u2, u3 3 vecteurs unitaires dans (E , O) plan vectoriel orienté.
Alors :
i. (u1, u3)∧ = (u1, u2)∧ + (u2, u3)∧ dans R/2πZ. (Relation de Chasles). ⇔ (u2, u3)∧ = (u1,
u3)∧ − (u1, u2)∧.
ii. (u1, u1)∧ = 0 et (u1, u2)∧ = − (u2, u1)∧.

Remarque 34.129. On peut généraliser à n vecteurs unitaires.

Proposition 34.130. Soit E un espace vectoriel orienté, dim(E) = 2, u1, u2 unitaires :


i. si f ∈ SO(E), (f (u1), f (u2))∧ = (u1, u2)∧
ii. si f ∈ O −(E), (f (u1), f (u2))∧ = − (u1, u2)∧

Proposition 34.131. Soit (E , O) un espace vectoriel euclidien orienté, u, v unitaires alors :


i. (u|v) = cos(u, v)∧, [u, v] = sin(u, v)∧.
ii. si [u, v] > 0 alors Ang(u, v) ∈ (u, v)∧ , si [u, v] 6 0 alors − Ang(u, v) ∈ (u, v)∧.

Angle de droite dans un plan vectoriel orienté


Notons D(E) = {droites vectorielles de E }, D1, D2 deux droites, ui ∈ Di , kui k = 1 si θ ∈ (u1,
u2)∧ alors Clπ(θ) ne dépend que de (D1, D2), (D1, D2)∧ est un angle de droite appartenant à
R/πZ : Clπ(θ) + Clπ(ϕ) = Clπ(θ + ϕ).

Proposition 34.132. D1, D2, D3 trois droites dans R/πZ.


− (D1, D3)∧ = (D1, D2)∧ + (D2, D3)∧
− (D1, D1)∧ = 0
− (D1, D2)∧ = − (D2, D1)∧.

Proposition 34.133.
i. si f ∈ SO(E), alors (f (D1), f (D2))∧ = (D1, D2)∧ dans R/πZ.
ii. si f ∈ O −(E), alors (f (D1), f (D2))∧ = − (D1, D2)∧

34.9.10 Rotation en dimension 3


Soit E un espace vectoriel euclidien de dimension 3, f ∈ SO(E), supposons f  idE . On sait que
Fix(f ) est une droite vectorielle. Posons W = Fix(f ) et V = W ⊥. On a f (W ) ⊂ W , f isométrie
⇒ f (V ) ⊂ V . Soit fV l’endomorphisme induit dans V par f . On a vu que fV ∈ SO(V ). Si V est
orienté, on appelle angle orienté de f relativement à l’orientation de V , l’angle de la rotation fV .
Si E est orienté ainsi que W , on en déduite une orientation de V : soit (a3) une base positive de
W , on dira que (a1, a2) est positive lorsque (a1, a2 , a3) est positive. On voudrait définier l’orien-
tation comme étant la classe de (a1, a2) où (a1, a2) est une base de V telle que (a1, a2, a3) soit
positive. Si (b1, b2) est un base de V telle que (b1, b2, a3) est positive. Est-ce-que (b1, b2) et (a1,
D(b1, b2, a3)
a2) ont le même sens ? (a1, a2 , a3) et (b1, b2, a3) sont positives, donc ∆ = D(a1, a2 , a3)
> 0, ∆ =
A 0 D(b1, b2)
0 = D(a1, a2)
> 0 donc (b1, b2) et (a1, a2) sont de même sens. Donc Cl(b1, b2) = Cl(a1, a2).
0 0 1
La classe de (a1, a2) est l’orientation de V déduite de l’orientation de E et de l’orientation de
l’axe W .
34.9 Géométrie euclidienne 413
Chapitre 35
Géométrie affine
Définition 35.1. Une partie X de E est dite convexe si et seulement si pour tout a, b ∈ X, [a,
b] ⊂ X.

35.1 Espace affine associé à un espace vectoriel


Définition 35.2. Soient E un ensemble non vide, E K un K-espace vectoriel et une application f :
K
E × E → E.
K , E , f ) est appelé espace ane si et seulement si f vérifie les conditions sui-
Le triplet (E
vantes :
a) ∀a ∈ E, l’application partielle f (a, •) est une bijection.
b) ∀x, y, z ∈ E , f (x, y) + f (y, z) = f (x, z) (Relation de Chasles).
K est appelé espace vectoriel associé à l’espace affine, ses éléments sont appelés
L’ensemble E
vecteurs. L’ensemble E est appelé espace ane de direction EK , ses éléments sont appelés
points.
Définition 35.3. Soient E un ensemble non vide, E K un K-espace vectoriel et une application ϕ:
KE × E → E pour laquelle, on notera x ⊕ Ku la valeur f (x, Ku ).
K , E , ϕ) est appelé espace affine si et seulement si les propriétés suivantes sont
Le triplet (E
vérifiées :
K , Kv ∈ EK , (x ⊕ Ku ) ⊕ Kv = x ⊕ (uK + Kv ).
a) ∀x ∈ E , ∀u
K ∈ EK ; y = x ⊕ Kv.
b) ∀x, y ∈ E , ∃!v

Remarque 35.4.
1. Si y = x ⊕ Kv on pourra adopter la notation suivante : Kv = y ⊖ x ou Kv = xy .
Ainsi y peut aussi s’écrire : y = x ⊕ (y ⊖ x).
Attention, Les symboles et notations ⊕ , ⊖ , Ku ont été utilisés pour éviter toute confu-
sion avec l’addition et la soustraction dans E K et pour différencier les éléments de E des
K
éléments de E . Par la suite on pourra adopter les signes et notations + , − , u à la place
de ⊕ , ⊖ , Ku à condition de se rappeler la nature de ses opérations et des éléments sur les-
quels elles s’appliquent et de leurs propriétés respectives.
2.

K , Kv ∈ EK :
Proposition 35.5. Soient E un espace affine, ∀a, b, c, d ∈ E et ∀u
i. ∀x ∈ E , x ⊕K0 = x
K = ab + bcK (Relation de Chasles)
ii. (c ⊖ a) = (c ⊖ b) + (b ⊖ a) i.e. ac
iii. (b ⊖ a) = − (a ⊖ b) i.e. ab = − ba
K − ba
iv. (c ⊖ a) = (c ⊖ b) − (a ⊖ b) i.e. ac = bc
v. (a ⊕ Ku ) − (b ⊕ Kv ) = (a ⊖ b) + (u
K − Kv )
vi. a ⊕ (b ⊖ c) = b ⊕ (a ⊖ c)
vii. (a ⊕ Ku ) − c = (a ⊖ c) + u
K
Définition 35.6. Soient E un ensemble non vide, (E , + , · ) un K-espace vectoriel et une appli-
cation ϕ: E × E → E.

414
35.4 Application affine 415

Le triplet (E , E , ϕ) est appelé espace affine si et seulement si le groupe additif (E , + ) opère


simplement et transitivement sur E au moyen de l’application ϕ.

Remarque 35.7. Bien qu’il ne soit pas unique l’espace vectoriel associé E peut être noté EK .

Définition 35.8. On appelle dimension d'un espace ane E la dimension de son espace
vectoriel associé EK : dim(E) = dim(EK ).

Exemple 35.9.

35.2 Repère cartésien


page 107 François Combs. Bréal.

35.3 R-espace Affine orienté


Définition 35.10. Soit E un R-espace affine.
K est orienté.
On dit que E est orienté ssi E

35.4 Application affine


Définition 35.11. Soient E , F deux espaces affines définis sur le même corps commutatif K.
Une application f : E → F est dite ane si et seulement s’il existe une application linéaire l
K , FK ) telle que : ∀x ∈ E , ∀uK ∈ EK , f (x ⊕ uK ) = f (x) ⊕ l(uK ).
de L(E
L’application l est appelée application linéaire associée à l'application ane f, on la
note L f.

Remarque 35.12.
− En posant x ′ = x ⊕ Ku , on a u
K = x ′ ⊖ x et la condition f (x ⊕ Ku ) = f (x) ⊕ l(uK ) s’écrit :
′ ′
f (x ) ⊖ f (x) = l(x ⊖ x).
− L’application linéaire associée à l’application affine f peut aussi être notée fK les condi-
tions s’écrivent alors f (x ⊕ Ku ) = f (x) ⊕ fK (u
K ) et f (x′) ⊖ f (x) = fK (x ′ ⊖ x) ou encore
′ K ′
f (x)f (x ) = f (xx ).

Définition 35.13. Soient E , F deux espaces affines définis sur le même corps commutatif K et
f : E → F une application affine.
i. f injective ⇔ L f injective.
ii. f surjective ⇔ Lf surjective.
iii. f bijective ⇔ Lf bijective, dans ce cas f −1 est aussi affine et L f −1 = (L f )−1.

Définition 35.14. Soient E , F deux espaces affines définis sur le même corps commutatif K.
On appelle isomorphisme affine de E → F toute bijection affine.

Exemple 35.15. D’isomorphisme affine. Soit ω ∈ E alors :

K est un isomorphisme affine l’application linéaire associée est idE.


i. Θω: E → E
x 
x−ω
ii. L’isomorphisme réciproque est ψω: K → E dont l’application linéaire associée est
E
K → E.
u 
ω+u
aussi idEK : E
416 Géométrie affine

Proposition 35.16. Soient E , F deux espaces affines définis sur le même corps commutatif K,
x0 ∈ E, y0 ∈ F, l ∈ L(E , F ) alors :
Il existe une unique application affine telle que f (x0) = y0 et L f = l. On a f (x) = y0 + l(x −
x0).

Proposition 35.17. Soient E , F , G trois espaces affines définis sur le même corps commutatif
K et f : E → F , g: F → G , 2 applications affines alors :
− g ◦ f est affine,
− et L g◦ f = Lg ◦ L f.

Proposition 35.18. Soient E , F deux espaces vectoriels (munis de leurs structures canoniques
d’espace affine) alors les applications affines de E → F sont de la forme : u 
l(u) + v ou l ∈
L(EK , F ) et où v ∈ F.
Remarque 35.19. On ajoute une constante à une application linéaire.
Application linéaire Application affine
L(R, R) x ax  x ax+b 
 
L(R2, R) (x, y) a x + b y (x, y) a x + b y + c

Définition 35.20. Soit E un espace affine. On appelle repère cartésien de E tout couple (ω, B)
K . ω est appelé origine.
où ω est un point de E et B est une base dePE
Si pour un point m ∈ E, on a m − ω = i∈I xiai (xi)i∈I sont appelées coordonnées de m par
rapport à (ω; B).

Proposition 35.21. SoientPE un espace affine de dimension n, (w, B) un repère cartésien et


un point m tel que m − ω = i∈I xiai alors :
h: E → Kn est un isomorphisme affine dont l’application linéaire associée k:
m (x1,  , xn)
K → Kn
PE
Xiai (X1,  , Xn)

35.4.1 Translation
K.
Définition 35.22. Soient E un espace affine, Kv ∈ E
On appelle translation de vecteur Kv l’application TKv : E → E .
x x + Kv

Proposition 35.23. Dans un espace affine. Les translations sont les applications affines telles
que : Lf = IdEK .

35.4.2 Homothétie
Définition 35.24. Soient E un espace affine, a un point de E, λ ∈ K\{0}.
On appelle homothétie de centre a et de rapport λ l’application h: E → E .
x a + λ(x − a)

On la notera ha,λ.

Remarque 35.25. Si λ = 1 alors h = IdE .

Proposition 35.26. Supposons λ  0 et λ  1, alors les homothéties de rapport λ sont les appli-
cations affines telles que : Lf = λ IdEK .

Proposition 35.27. Si h = ha,λ avec λ  1 alors h a un seul point fixe a.


35.5 Sous-espace ou variété affine d’un espace affine E 417

35.4.3 Groupe des automorphismes


Définition 35.28. Un automorphisme affine d’un espace affine E est un isomorphisme de E →
E.

Proposition 35.29. L’ensemble des automorphismes de E → E est un groupe pour la loi ◦ .

Définition 35.30. L’ensemble des automorphismes de E est appelé groupe affine. On le note
GA(E).

Proposition 35.31. T l’ensemble des translations de E est un sous-groupe distingué de GA(E).

Proposition 35.32. Soient E un espace affine, H, T respectivement l’ensemble des homothéties


affine et des translations alors : G = H ∪ T est un sous-groupe distingué de GA(E).

35.5 Sous-espace ou variété affine d’un espace affine E


Proposition 35.33. Soient E un espace affine, V K un sous espace vectoriel de EK et x, y ∈ E
K
alors la relation R définie par : (xRy) ⇔ (x − y ∈ V ) est une relation d’équivalence.

Remarque 35.34. Intéret de la relation d’équivalence A(x) = {y; yRx} l’ensemble des classes
forme une partition de E. xRx, x ∈ clx.

Définition 35.35. Les classes de RV s’appellent les sous-espaces affines ou variété affine de E
K . clx = {y; y − x ∈ V } = {x + V } = {y; y ∈ x + V } = {x + v; v ∈ V }.
de direction V

Remarque 35.36.
1. Si V = {0}, clx = 0 + {0} = {x}.
K , clx = x + V = x + EK , clx = EK .
2. Si V = E

Proposition 35.37. Soit A un sous espace affine de E de direction VK et a ∈ A alors VK = A −


K
a = {x − a; x ∈ A}. On notera A la direction de l’espace affine A.

35.5.1 Sous-espaces affines particuliers


Définition 35.38. On appelle hyperplan affine d’un espace affine E attaché à un K-espace vec-
K , toute variété affine de E dont le sous-espace vectoriel associé est un hyperplan vectoriel
toriel E
K
de E.

Proposition 35.39. Un hyperplan d’un espace affine de dimension n est un sous-espace affine
de dimension n − 1.

Codimenssion Dimension Nom du sous espace affine


1 droite affine
2 plan affine
1 n − 1 (en dimension finie) hyperplan affine

35.5.2 Parallélisme
Définition 35.40. Soient E un espace affine et A, B deux sous espaces affines de E.
• K = BK .
On dit que A est parallèle à B ssi A
• K ⊂ BK .
On dit que A est faiblement parallèle à B ssi A
418 Géométrie affine

Remarque 35.41.
1. Le parallélisme est une relation d’équivalence sur l’ensemble des sous-espaces affines de E.
2. Le parallélisme faible est une relation de préordre (i.e. réflexive, transitive).

Proposition 35.42. Soit E un espace affine, A un sous espace affine de E et x0 un point de E


alors il passe par x0 un sous espace affine et un seul parallèle à A.

Proposition 35.43. Soient E un espace affine et A un sous espace affine de direction V. Alors
A est canoniquement muni d’une structure d’espace affine.

35.5.3 Intersection de sous-espaces affines et sous-espace affine


engendré par une partie
Proposition 35.44. Soient E un espace affine, (Ai)i ∈ I une famille de sous-espace affine de E.
Supposons i∈I Ai  ∅ alors i∈I Ai est un sous-espace affine de direction Ai.
T T T

K + BK =
Proposition 35.45. Soient E un espace affine, A, B deux sous espaces affines tels que A
KE alors A ∩ B  ∅ et A ∩ B est un sous espace affine de direction AK + BK .
Proposition 35.46. Soient E un espace affine de dimension n > 2 et A, B deux hyperplans non
parallèles alors A ∩ B est un sous espace affine de dimension n − 2.

Remarque 35.47. Que signifie ce théorème

n=2 n=3
Nous sommes dans le plan Nous sommes dans l’espace

L’intersection de 2 droites est un point L’intersection de deux plans est une droite

Définition 35.48. Soient X ⊂ E , X  ∅. L’intersection de tous les sous-espaces affines de E


qui contiennent X est un sous-espace affine de E appelé sous-espace affine engendré par X. On
le note Aff(X).

Proposition 35.49. Le sous espace affine engendré par X est le plus petit sous espace affine
contenant X.

Proposition 35.50. Soient E un K-espace affine (xi)i∈I ; ∀i ∈ I , xi ∈ E alors Aff({xi; i ∈ I }) =


xi0 + i∈I \{xi } K(xi − xi0).
P
0

Exemple 35.51.
− Aff({x0, x1}) = x0 + k(x1 − x0).
− Aff({x0, x1, x2}) = x0 + k(x1 − x0) + k ′(x2 − x0).

35.5.4 Propriétés des sous-espace affines


Lemme 35.52. Soient E un espace affine et A, B des sous espaces affines de E.
Si A ⊂ B et dimA = dimB < + ∞ alors A = B.

Proposition 35.53. Soit E un espace affine.


i. Par deux points distincts, il passe une droite et une seule. Cette droite est le sous espace
affine engendré par l’ensemble des deux points.
ii. Par trois points non alignés, il passe un plan et un seul. Ce plan est le sous-espace affine
engendré par l’ensemble des trois points.
35.6 Familles affinement libres, repère ou base affine 419

Corollaire 35.54. Soient E un espace affine, A un sous-espace affine de E et a, b ∈ E; a  b


alors Da,b ⊂ A.

35.6 Familles affinement libres, repère ou base affine

35.6.1 Famille libre


Proposition 35.55. Soient E un espace affine, (xi)i∈I une famille de points de E.
Les propositions suivantes sont équivalentes :
i. ∃i0 ∈ I; (xi − xi0)i∈I \{xi0} est vectoriellement libre.
ii. ∀i0 ∈ I, la famille (xi − xi0)i∈I \{xi0} est vectoriellement libre.

Remarque 35.56. Si (xi)i∈I est affinement libre alors (xi)i∈I est injective, i.e. i  j ⇒ xi  x j .

Définition 35.57. Soient E un espace affine et A ⊂ E.


A est dite affinement libre ssi l’une des propriétés précédentes est vérifiée.

Remarque 35.58. Soit E un espace affine de dimension n. Si (xi)i∈I est une famille affinement
libre alors card(I) 6 n + 1.

35.6.2 repère ou base affine


Définition 35.59. Soit E un espace affine. On appelle repère ou base ane de E, toute
famille (xi)i∈I de points E tels que :
i. (xi)i∈I est affinement libre,
ii. l’espace affine engendré par les xi , i ∈ I: Aff({xi; i ∈ I }) = E. (autrement dit E est
engendré par la famille (xi)i∈I.

Définition 35.60. Soient E un espace affine et A ⊂ E. On dit que A est une base affine ensem-
bliste ssi la famille canonique associée à A est une base affine de E. Autrement dit : A est affi-
nement libre et Aff(A) = E.

Proposition 35.61. Soient E un espace affine, i0 ∈ I , (xi)i∈I ; ∀i ∈ I , xi ∈ E. Les propositions


suivantes sont équivalentes :
i. (xi)i∈I est une base affine.
ii. (xi − xi0)i∈I \{i0} est une base linéaire.

Proposition 35.62. Soit E un espace affine alors :


i. E possède une base affine.
ii. Si dim(E) = n et si (xi)i∈I est une base affine de E alors card(I) = n + 1.

Proposition 35.63. Soient E un espace affine de dimension n, (xi)06i6n; ∀i, xi ∈ E. Les propo-
sitions suivantes sont équivalentes.
i. (xi)06i6n est une base affine,
ii. (xi)06i6n est affinement libre.

Proposition 35.64. Soient E un espace affine, F un sous espace affine de E et (xi)i∈I ; ∀i ∈ I ,


xi ∈ E. Supposons que ∀i ∈ I \{i0}, xi ∈ F et qque (xi)i∈I \{i0} est affinement libre alors (xi)i∈I
est une base affine.

Note 35.65. Permet de fabriquer des familles affinement libres.


420 Géométrie affine

35.6.3 Sous-espaces affines supplémentaires


Définition 35.66. Soient E un espace affine et A, B deux sous espaces affines de E. On dit que
K = AK ⊕ BK . Autrement dit EK = AK + BK et AK ∩ BK = {0K }.
A et B sont supplémentaires ssi : E

Proposition 35.67. Si A, B sont supplémentaires, alors card(A ∩ B) = 1.

Proposition 35.68. Soient E un espace affine, D un droite et H un hyperplan alors D et H


sont supplémentaires ssi D n’est pas faiblement parallèle à H.

35.7 Projection
K une direc-
Proposition 35.69. Soient E un espace affine, A sous espace affine de E et W ⊂ E
K (autrement dit EK = AK ⊕ W).
tion supplémentaire de A
− Notons Bx le sous espace affine tel que Bx = x + W.
− Il existe un unique point y ∈ E tel A ∩ Bx = {y }.
K une direction
Définition 35.70. Soient E un espace affine, A sous espace affine de E et W ⊂ E
K K K
supplémentaire de A (autrement dit E = A ⊕ W).
− L’unique point y tel que A ∩ Bx = {y } où Bx = x + W s’appelle le projeté de x sur A paral-
lèlement au sous-espace vectoriel W.

− et l’application : pW ,A: E → E est la projection sur A parallèlement à W.


x y

Note 35.71. Le point y est caractérisé par y ∈ A et y − x ∈ W .

Proposition 35.72. Soit f la projection sur A parallèlement à W (E K = AK ⊕ W ) alors f : E → E


K K
est affine et Lf = PAK projecteur associé à la somme directe E = A ⊕ W.

35.8 Théorème de Thalès


Théorème 35.73. (Théorème de Thalès) Soient (Hi)16i64 des hyperplans parallèles d’un
espace affine E et D, D ′ deux droites non faiblement parallèles aux Hi.
i ∩ D = {xi }
Posons : H H ∩ D ′ = {x ′}
alors (x4 − x3) = ρ(x2 − x1) ⇔ (x4′ − x3′ ) = ρ(x2′ − x1′ ).
i i

35.9 Image d’un sous-espace affine par une application


affine
Proposition 35.74. Soient E , F deux espaces affines et f : E → F une application alors :
i. Soit A un sous espace affine de E alors f (A) est un sous espace affine de F de direction
K ).
L f (A
ii. Soit B un sous espace affine de F tel que f −1(B)  ∅ alors f −1(B) est un sous espace
K ).
affine de E de direction (L f )−1(B

Corollaire 35.75.
i. Si A1 et A2 sont des sous espaces affines parallèles dans E alors f (A1) et f (A2) sont
parallèles dans F.
35.10 Equation d’un hyperplan en dimension finie 421

ii. Si B1 et B2 sont des sous espaces affines parallèles dans F tels que f −1(B1)  ∅ et
f −1(B2)  ∅ alors f −1(B1) et f −1(B2) sont parallèles.

Proposition 35.76. Soient E un espace affine, f : E → F une application affine et A un sous


espace affine de E.
K est stable par Lf et LfA
Si f (A) ⊂ A alors l’application fA induite par f dans A est affine, A
K
est l’application induite par L f dans A.

Théorème 35.77. (Théorème fondamental de la géométrie affine) K = R.


Soient E , F deux espaces affines, E est de dimension n > 2 et f : E → F une application.
Si f est injective et transforme toute droite de E en une droite de F alors f est affine.

Remarque 35.78. Pourquoi dim(E) > 2 ?


On peut trouver un contre exemple dans le cas dim(E) = 1 :
Soit : R → R est injective et transforme une doite en une droite, mais ce n’est pas une
x  x3

application affine (celles-ci sont en effet de la forme x a x + b.

35.10 Equation d’un hyperplan en dimension finie


Théorème 35.79. Soient E un espace affine de dimension n, R = (ω, a1,  , an) un repère carté-
sien,
Pn
i. Tout hyperplan affine admet une équation de la forme (1): i=1 αixi + β = 0, αi ∈ K non
tous nuls et β ∈ K.
ii. Réciproquement, toute équation
Pn du type (1) est l’équation d’un hyperplan affine dont la
direction a pour équation i=1 αiXi = 0.

Remarque 35.80.
n Hyperplan Equation Conditions
2 droite ax+by+c=0 (a, b)  (0, 0)
3 plan a x + b y + c z + d = 0 (a, b, c)  (0, 0, 0)

Proposition 35.81. Soient P E un espace affine de dimension n, R un repère et H , H ′ deux


hyperplans tels que : (H): αixi + β = 0 et (H ′): αi′xi + β ′ = 0.
P
Alors
i. H , H ′ sont parallèles ⇔ ∃ρ ∈ K\{0} tel que (α1′ ,  , αn′ ) = ρ(α1,  , αn).
ii. H = H ′ ⇔ ∃ρ ∈ K\{0} tel que (α1′ ,  , αn′ , β ′) = ρ(α1,  , αn , β).

Remarque 35.82. Comment trouver l’équation d’un hyperplan :


422 Géométrie affine

K = λxK0 + Ky l’application ϕ: EK → K est une forme linéaire de noyau HK = ker(ϕ).


∀x ∈ E , x
Kx λ 
Prendre un point a0 ∈ H commun et un point m ∈ H quelconque a0m ∈ H et ϕ(a0m) = 0 d’où
ϕ(a0o) + ϕ(om) = 0 ...

35.11 Barycentre
Proposition 35.83. Soit E un K-e.a., (mi , αi)i∈I ∈ E × K avec I fini. Supposons αi  0,
P
alors il existe un unique point G ∈ R tel que :
αi gm =K0 .
P P
− αi(mi − g) = 0,
P
αi(mi −ω)
− g −ω= P
αi
.

Définition 35.84. Soit E un K-e.a., (mi , αi)i∈I ∈ E × K avec I fini. Supposons αi  0.


P
On appelle barycentre de la famille de points et on pose g = bar i∈I (x i , α i) l’unique point
définit par αi(mi − g) = 0.
P

Remarque 35.85.
1. ∀λ ∈ K\{0}, bari∈I (xi , λαi) = bari∈I (xi , αi).
2. Si I ∗ = {i; αi  0}, bari∈I (xi , αi) = bari∈I ∗(xi , αi).
3. bar(x, α) = x.

Définition 35.86. On appelle isobarycentre ?????

Exemple 35.87.
card(I) Hypothèse Nom
2 1+1 0 Milieu
3 1 + 1 + 1  0 Point médian

Proposition 35.88. P Soient E , F deux espaces affines, f : E → F une application affine et (mi ,
αi)i∈I avec I fini. Si i∈I αi  0 et g = bari∈I (mi , αi) alors f (g) = bari∈I (f (mi), αi).

Associativité du barycentre

Proposition 35.89. Soient E un espace affine (mi , αi)i∈I, tel que i∈I αi  0. Soient (Iλ)λ∈Λ
P
une partition de I telle que ∀λ ∈ Λ, i∈Iλ αi  0.
P

Si g = bari∈I (mi , αi) et gλ = bari∈Iλ(mi , αi) avec sλ = i∈Iλ αi alors g = barλ∈Λ(gλ , sλ).
P

Proposition 35.90. Soit E un espace affine, A un sous espace affine de E et g = bari∈I (mi ,
αi).
Si ∀i, mi ∈ A alors g ∈ A.

Proposition 35.91. Soient E un espace affine et X ⊂ E.


Si bar(X) désigne l’ensemble des barycentres d’une famille ???? alors bar(X) = Aff(X).

Proposition 35.92. Soient E un espace affine de dimension finie, (mi)i∈I une base affine de
E, (αi)i∈I , (αi′)i∈I deux familles d’éléments de K.
Si g = bari∈I (mi , αi) et g ′ = bari∈I (mi , αi′) alors g = g ′ ⇔ ∃λ ∈ K\{0}; (αi′)i∈I = λ(αi)i∈I.

Coordonnées barycentriques d’un P point par rapport à une base affine


Aff(mi; i ∈ I } = E donc ∃(λi)i∈I ; λi  0 Bar{mi; i ∈ I } = E tel que m = bari∈I (mi , λi). La
famille définie à facteur non nul ∈ K près est appelé
P système de coordonnés barycentrique de m
par rapport à la base affine (mi; i ∈ I) lorsque i∈I λi = 1, on dit que (λi)i∈E est le système
réduit de coordonnées barycentriques du point m.

Exemple 35.93. K = R. g = bar((a, 1)(b, 1)(c, 1)), base {a, b, c}. g: (1, 1, 1) a ′(0, 1, 1).
35.12 Convexité 423

35.12 Convexité
Définition 35.94. (à revoir)
1. [a, b] désigne l’ensemble de tous les barycentres à coefficients > 0 des points a et b. [a,
b] = {m; m = ω + α(a − w) + β(b − ω); α + β = 1, α > 0, β > 0}, si ω = a, [a, b] = {m; m = a +
β(b − a); β ∈ [0, 1]}.
2. [a, b[ = [a, b]\{b}.
3. ]a, b[ = [a, b]\{a, b}.

Remarque 35.95. Si E = R et si a < b, [a, b] = {x; a 6 x 6 b} définition particulière. Attention


parfois, il peut être utile de revenir la définition générale (vue précédement).

Définition 35.96. Soit E un espace affine sur R.


Une partie A de E est dite convexe ssi ∀a, b ∈ A, [a, b] ⊂ A.

Exemple 35.97.
1. Dans R tout intervalle est une partie convexe.
2. Si A est un sous espace affine de E R-espace affine alors A est convexe.

Remarque 35.98. Si E est un espace affine normé, on pose ∀x, y ∈ E , d(x, y) = kx − y k, d est
alors une distance (Résultat du cours sur les espaces vectoriels normés).

Proposition 35.99. Dans un espace affine normé sur R toutes les boules sont convexes.

Proposition 35.100. Soit (Ai)i∈I, I quelconque, une famille de parties convexes dans E alors
i∈I Ai est convexe.
T

Définition 35.101. Soit E un espace affine et X ⊂ E. L’intersection de toutes les parties con-
vexes qui contiennent X s’appelle la partie convexe engendrée par X, on la note conv(X).

Proposition 35.102. Soient E , F deux espaces affines sur R et f : E → F une application affine
alors :
i. ∀x1, x2 ∈ E , f ([x1, x2]) = [f (x1), f (x2)].
ii. Si A est une partie convexe de E alors f (A) est convexe.
iii. Si B est une partie convexe de F alors f −1(B) est convexe.

Proposition 35.103. Soient E un R-espace affine, A ⊂ E, A convexe, I un ensemble fini,


(xi)i∈I une famille de points de A et (αi)i∈I un famille de réels positifs non nuls alors bari∈I (xi ,
αi) ∈ A.

Définition 35.104. Soient E un espace affine, X ⊂ E.


On note bar+(X) l’ensemble des barycentres à coefficients positifs non nul de toutes les
familles possibles de X.

Remarque 35.105. bar+({a, b}) = bar([a, b]).

Proposition 35.106. Soient E un espace affine sur R et A ⊂ E alors conv(A) = bar+(A).

35.12.1 Enveloppe convexe


Définition 35.107. Soit E un espace affine. L’enveloppe convexe d’eune partie A  ∅ est l
plus petit convexe de E contenant A. On la note EC(A).

Proposition 35.108.
1. EC(A) est l’intersection de tous les convexe de E contenant A.
2. EC(A) = { i∈I λiai; (λi)i∈I , i∈I λi; ∀i ∈ I , ai ∈ A, λi ∈ R+}.
P P
424 Géométrie affine

Théorème 35.109. (de Carathéodory) Soit E un R-espace affine de dimension n. A une partie
non vide de E alors pour tout élément de EC(A) est ?.

35.13 Demi-espaces définis par un hyperplan dans un R-


espace affine de dimension finie
Proposition 35.110. Soient E un espace vectoriel de dimension n, H = {m;
P
αixi + β = 0;
(αi)  (0)} un hyperplan. En notant f : m → αixi + β, on a H = f −1({0}).
P

Les ensembles H f+ = f −1(R+), H f− = f −1(R−) et H f+∗ = f −1(R+∗ ), H f−∗ = f −1(R−∗) sont


convexes.

Définition 35.111. Soient E un espace vectoriel de dimension n, H = {m;


P
αixi + β = 0;
(αi)  (0)} un hyperplan. En notant f : m → αixi + β, on a H = f −1({0}).
P

• Les ensembles H f+ = f −1(R+), H f− = f −1(R−) sont les deux demi-espaces au sens large de
frontière E.
• Les ensembles H f+∗ = f −1(R+∗ ), H f−∗ = f −1(R−∗) sont les deux demi-espaces au sens
strict de frontière.

35.14 Espace Affine normé

35.14.1 Définition
Définition 35.112. Soit E un espace affine.
K est un espace vectoriel normé.
On dit que E est un espace ane normé ssi E

35.14.2 Application différentiable dans un espace affine


Rajouter dérivée d’une fonction affine.

Définition 35.113. Soit E , F deux espaces affines normés, U un ouvert de E et f : U → F une


K , FK )
application. On dit que f est différentiable au point x0 ssi il existe une application l ∈ L(E
(f (x) − f (x0)) − l(x − x0)
telle que limx→x0 kx − x k
= 0 (1).
0

Remarque 35.114. Si l existe elle est unique l = (Df )(x0), la terminologie est la même que
pour la différentiabilité dans un espace vectoriel normé.

Proposition 35.115. Soit E , F deux espaces affines normés,


i. Si f : U → F est une application affine continue alors f est différentiable en tout point x0
de E et (Df )(x0) = Lf.
ii. Si E et F sont de dimension n, p et si (ω, a1,  , an) (ω ′, b1,  , b p) sont des bases de E et
F alors en posant : x − ω = xiai , x0 − ω = ni=1 x0i ai , f (x) − ω ′ = pj =1 yjbj, f est dif-
P P P


férentiable au point x0 ssi l’application : (x1,  , xn) (y1,  yp) est différentiable au point
(x01,  , x0n).

35.14.3 Espaces tangents à une partie d’un espace vectoriel normé E


35.14.3.1 Définitions

u
xn
a
35.14 Espace Affine normé 425

Définition 35.116. Soit E , F deux espaces affines normés, A ⊂ E , a ∈ A, u ∈ E. On dit que u


est tangent au point a à A ssi il existe :
i. Une suite de réels (λi)
ii. une suite de points de A (xn) telle que limn→+∞ xn = a.
Telle que : limn→+∞ λn(xn − a) = u. On note TK aA l’ensemble des vecteurs tangents en a à A.

K aA (xn = a, λn ∈ R).
Remarque 35.117. O ∈ T

Définition 35.118. On dit que u est positivement tangent en a à A ssi ∃(λn), λn > 0, ∃xn → a
telles que limn→+∞ λn(xn − a) = u, on note TK a A.
+

De plus on a : TK a A ⊂ TK aA
+

35.14.3.2 Propriétés

Proposition 35.119. Soient E , F des espaces vectoriels normés, U ouvert de E a ∈ A, A ⊂ U , f:


U → F différentiable en a, posons b = f (a) alors :
i. (Df )(a)(TK aA) ⊂ TK bf (A)
ii. (Df )(a)(TK a A) ⊂ TK b f (A)
+ +

Remarque 35.120. Il résulte de (2) que si g: U → F est différentiable en a et si f |A = g |A, alors


∀u ∈ TK aA, (Df )(a)u = ?

Proposition 35.121. Soit E , F deux espaces vectoriels normés, U ouvert de E, V ouvert de F,


f : U → V difféomorphisme (f bijective, différentiable et f ′ différentiable) A ⊂ U, a ∈ A, posons b =
K aA = TK bB.
f (a), B = f (A) alors (Df )(a)T

35.14.3.3 Cas particuliers

Proposition 35.122. Soit V un sous espace vectoriel fermé de l’espace vectoriel normé ? et a ∈
V alors TK aV = TK a V = V.
+

K aA =
Corollaire 35.123. A sous espace affine fermé de E espace vectoriel normé, a ∈ A alors T
KA.

35.14.4 Sous-variété
35.14.4.1 Définitions

Définition 35.124. Soit E un espace vectoriel normé de dimension n, k ∈ N∗, A ⊂ E , a ∈ A. On


dit que A est au point a une C k-sous-variété de dimension ? de E lorsqu’il existe un espace vec-
toriel normé E1 de dimension ?, un sous-espace vectoriel A1 de dimension p de E1 , un ouvert
U1 de E1 , voisinage ouvert U de a dans E, et un C k difféomorphisme h: U1 → U, tel que h(U1 ∩
A1) = U ∩ A. On dit que h−1 est un redressement de A au point a.

Remarque 35.125. On peut toujours se ramener au cas où A1 = Re1 + Rep et ?(u1,  , up)
base de A1 (u1,  , u p , u p+1,  , un) base de E. g: Rn
→ E1 est un isomor-

(t1,  , tn) t1u1 +  + tnun
phisme d’espace vectoriel, g(ei) et g( Rei) = 16i6 p Rui = A1 g est un difféomor-
P P
16i6 p
phisme.

Définition 35.126. A est une C k-sous-variété de dimension p de E lorsque A l’est en tout


point.
Une sous-variété de dimension 1 est une courbe, de dimension 2 est une surface.
426 Géométrie affine

35.14.4.2 Propriétés

si p = n, A est une sous-variété de dimension n de E au point a ssi a ∈ A .
si p = 0, A est une sous-variété de dimension 0 de E au point a ssi a est un point isolé de A.

35.14.4.3 Espace tangent vectoriel d’une sous-variété (k > 1)

Proposition 35.127. A sous-variété de E de classe C k et de dimension p, a ∈ A alors TKaA est


un sous espace vectoriel tangent en a à A.

Exemple 35.128. A = Re1 + Re2, T(0,0)A = Re1 ∪ Re2

35.14.4.4 Injectivité de la différentielle

Proposition 35.129. Soit f : U → F, U ouvert de E, a ∈ U, F espace vectoriel normé de dimen-


sion finie, f est C k. Supposons (Df )(a) injective, et que f : U → f (U ) est un homéomorphisme
alors f (U ) est une C k-sous-variété au point b et TKbf (U ) = Im((Df )(a)).

Proposition 35.130. f : U → F, U ouvert de E, a ∈ U, F espace vectoriel normé de dimension


finie, f est C k. Supposons (Df (a)) injective alors il existe un ouvert V de E tel que :
i. a ∈ V ⊂ U
ii. ∀x ∈ V , (Df )(x) est injective
iii. f : U → f (U ) est un homéomorphisme
iv. f (V ) est une C k-sous-variété de E.

Remarque 35.131. Si (Df )(a) est injective, on dit que f est une immersion au point ?

Exemple 35.132. n = 1. On suppose que U ⊂ R et f : U → F est une courbe paramétrée. Pour


a ∈ U , (Df )(a) injective ⇔ f ′(a).

35.14.4.5 Surjectivité de la différentielle (k > 1)

Proposition 35.133. Soit E , F deux espaces vectoriels normés de dimension finie, U un ouvert
de E, a ∈ U, f : U → F de classe C k. supposons (D f )(a) surjective, posons b = f (a) alors
l’ensemble A = {x; f (x) = b} est une C k sous-variété de E au point a, et TKaA = Ker(Df )(a).

Remarque 35.134. Si (Df )(a) est surjective, on dit que f est une submersion au point a.

Définition 35.135. Soit E , F deux espaces vectoriels normés de dimension finie, k ∈ N∗ , A une
C k sous-variété de E, B une C k sous-variété et f : A → B. On dit que f est différentiable au
point a ssi il existe un ouvert U tel que a ∈ U, et f˜: U → F telle que :
i. f˜ coïncide avec f sur U ∩ A.
ii. f˜ est différentiable au point a.

Remarque 35.136. Si f est différentiable au point a, alors la restriction de (Df )(a) à TKaA est
indépendante de choix de f˜, et (D f )(a)TKaA ⊂ TKbB, où B = f (A). L’application
TKaA → TKbB est linéaire, c’est la différentielle de f au point a.
u 
(Df˜)(a)u

35.14.4.6 Généralisation
Les théorèmes classiques pour les ouverts de normés s’étendent aux cas des sous-variétés
f g
Exemple 35.137. A → B → C si f est différentiable en a, g différentiable en b alors
a b = f (a)
g ◦ f est différentiable en a et D(g ◦ f ) = Dg(b) ◦ Df (a)
35.15 Espace affine euclidien 427

Sous-variété de E, B sous variété de F , h: A → B h est un difféormorphisme ssi h est bijec-


tive, différentiable et h−1 est différentiable, si A est un ouvert, TKaA = E.

35.14.4.7 Carte

Définition 35.138. Si A est une C k-sous-variété de E, a ∈ A, on appelle carte de A au point a,


tout C k-difféomorphisme d’un ouvert V de ? sur un ouvert Ω d’un espace vectoriel normé F.

Proposition 35.139. Soit E , F deux espaces vectoriels normés de dimension finie, A sous-
variété de F, f : A → B, C k , a ∈ A, b = f (a). Soit V1 ⊂ A, V2 ⊂ B et C1: V1 → Ω1 une carte de A au
point a, C2: V2 → Ω2 une carte de B au point b. Supposons f (V1) ⊂ V2. Alors f est différentiable
en a ssi l’application Ω1 → Ω2 est différentiable en C1(a).
t  C2 f C1−1(t)

Proposition 35.140. k > 1, dim(E) = 3, E espace vectoriel normé, S1 et S2 deux ? de E, a ∈


S1 ∩ S2 et TKaS1  TKaS2 alors S1 ∩ S2 est une C k-courbe au point a et TKa (S1 ∩ S2) = TKaS1 ∩ TKaS2.

Proposition 35.141. Soit A une C k-sous-variété de dimension p de E espace vectoriel eucli-


dien, dim(E) = n. Alors il existe une unique mesure borélienne µ sur A engendrée par ? telle
que pour toute carte (locale) C: U → C(U ) et tout borélien B de U, on ait :
M  (t1,  , tn)
µ(B) = C(B) [Mt′1,  Mt′p]dt1 dt p où [ ] est le produit mixte de l’espace vectoriel euclidien
R

TM (A) (Orienté arbitrairement).

Si A est une sous-variété, TKaA est un sous-espace vectoriel TaA = a + TKaA est l’espace affine

tangent au point a à A. ? (D?)(M ): TMS → E, S → E différentiable, (D?)(M ) a


M 
K
0 ∈ (TMS) ⊥

son image dans TMS. TMS → TMS .


u 
(D?)(M )

35.15 Espace affine euclidien

35.15.1 Espace afffine euclidien


35.15.1.1 Définition
K soit un
Définition 35.142. Un espace affine euclidien est un espace affine E sur R tel que E
espace vectoriel euclidien.

Remarque 35.143. Comme nous l’avons vu en géométrie vectorielle , l’espace vectoriel eucli-
K est aussi un espace affine normé, il suffit de poser kxk = p(x|y) de plus on peut
dien E
définir une distance par d(x, y) = kx − y k.

Proposition 35.144. Soit E un espace affine de direction E K un espace vectoriel euclidien.


K alors :
Notons k.k la norme associée au produit scalaire de E
d: E × E → R+ est une distance.
(x, y) 
kx − y k

35.15.1.2 Structure métrique et structure affine


Un espace affine euclidien peut donc être muni d’une structure d’espace métrique. On peut donc
définir la notion d’isométrie vue en topologie.
428 Géométrie affine

Proposition 35.145. Soit E , F des espaces affines euclidiens de dimension n, f : E → F. On


suppose que ∀(x, y), d(x, y) = d(f (x), f (y)) alors f, est une bijection affine de E sur F.

35.15.1.3 Isométries affines


Soit E un espace affine euclidien. Is(E) est l’ensemble des isométrie affines de E → E. Is+(E) =
{f ∈ Is(E); det(Lf ) = 1} les éléments de Is+(E) sont les déplacements de E, Is−(E) = {f ∈ Is(E);
det(L f ) = − 1} les éléments de Is−(E) sont les anti-déplacements de E.

Proposition 35.146. Soit E , F deux espaces affines euclidiens, f : E → F une application affine
K → FK .
alors f est une isométrie ssi L f est une isométrie vectorielle de E

35.15.1.4 Rotations affines

Définition 35.147. On appelle rotation (resp. anti-rotation) affine, tout déplacement (resp.
anti-déplacement) ayant au moins un point fixe.

35.15.2 Projections et symétries orthogonales


35.15.2.1 Projection orthogonale sur un sous espace affine A d’un espace affine
euclidien E

Définition 35.148.
K ⊥, EK = AK ⊕ AK ⊥.
Notation : On note pA la projection sur A par rapport à A

Proposition 35.149. ∀x ∈ E, pA(x) est l’unique point y ∈ A tel que d(x, A) = d(x, y).

rappel : d(x, A) = infz ∈A {d(x, z)}.

35.15.2.2 Symétrie orthogonale par rapport à un sous espace affine d’un espace
affine euclidien E

Définition 35.150. σA(x) = pA(x) + (pA(x) − x) où pA est la projection orthogonale sur A.

Proposition 35.151. Soit E un espace affine euclidien, A un sous espace affine de E alors σA:
E → E est une isométrie affine dont l’application linéaire associée eest la symétrie orthogonale
K dans EK c’est à dire LσA = σAK . De plus, Fix(σA) = A.
vectoreille par rapport à A

35.15.3 Propriétés des espaces affines euclidiens


Lemme 35.152. Soit E un espace affine euclidien, g: E → E une application affine. Supposons
que g possède au moins un points fixe alors Fix g est un sous espace affine de E de direction
Fix(L g).

Remarque 35.153. Fix(Lg ) = Ker(Lg − idEK )

Lemme 35.154. Soit X un espace vectoriel euclidien, h ∈ O(X), alors X = Ker(h −



idX )⊕Im(h − idX ).

35.15.4 Théorème de factorisation canonique d’une isométrie affine


K × Is(E) tel
Théorème 35.155. Soit E un espace affine euclidien, f ∈ Is(E) alors ∃!(ξ , g) ∈ E
que :
i. g a au moins un point fixe,
ii. f = T ξ ◦ g = g ◦ T ξ , ( ⇒ Lf = L g).
35.15 Espace affine euclidien 429

Ce ξ vérifie ξ ∈ Fix(g) = Ker(Lg ), L g(ξ) = ξ et L f (ξ) = ξ De plus, f ∈ Isε(E) ssi g ∈ Isε(E) (ε = ±


).

Définition 35.156. Soit E un espace affine euclidien, on appelle rotation affine de E tout
déplacement de E ayant au moins un point fixe. On appelle anti-rotation affine de E tout anti-
déplacement de E ayant au moins un point fixe.

35.15.5 Isométrie affine en dimension 2 et 3


35.15.5.1 Déplacement en dimension 2

Proposition 35.157. Soit E un plan affine euclidien, f ∈ Is+(E) alors f est une rotation ou
une translation.

Proposition 35.158. Soit E un plan affine euclidien, f ∈ Is−(E) alors il existe une droite ∆ et
ξ∈∆ K tels que f = Tξ ◦ σ∆ = σ∆ ◦ Tξ où σ∆ est la symétrie orthogonale par rapport à ∆. Une telle
factorisation est unique.

35.15.5.2 Rotation en dimension 3

Proposition 35.159. Soit E un espace affine euclidien de dimension 3, g une rotation de E.


Supposons g  idE alors Fix(g) est une droite de E de direction Fix(Lg ).

Proposition 35.160. Soit E un espace affine euclidien de dimension 3, f ∈ Is+(E). On sup-


pose ue f n’est ni une translation, ni une rotation alors ∃D une droite et ∃r une rotation autour
de D(D ⊂ Fix(r)), ∃ξ ∈ D K tels que f = Tξ ◦ r. Une telle factorisation est unique et Tξ ◦ r = r ◦ Tξ ,
K = Fix(Lf ).
D

Théorème 35.161. Soient E un espace affine euclidien de dimension 3, f ∈ Is−(E) alors f est
de la forme f = σ ◦ ρ = ρ ◦ σ, où σ est une symétrie orthogonale par rapport à un plan π et où :
i. si Fix(f )  ∅,ρ est une rotation autour d’un axe D orthogonal à π.
ii. si Fix(f ) = ∅, ρ est une translation de vecteur ξ ∈ Kπ.
Chapitre 36
Géométrie différentielle

36.1 Arc et Courbe paramétrés dans un E espace affine


euclidien
«La notion générale de courbe telle qu’elle a été développée dans le cadre de la topologie (p.235)
ne convient pas aux objectifs de la géométrie différentielle. Il faut adapter la notion d’arc pour
en faire un concept utilisable ici.» (Atlas des mathématiques, p.u.f. p.393)

Dans ce qui suit E désigne un espace affine euclidien, de dimension finie et orienté. On note
|v | la norme euclidienne et x · y ou hx|y i le produit scalaire de x par y.

36.1.1 Arc paramétré


36.1.1.1 Définition

Définition 36.1. On appelle arc paramétré de classe C p, tout couple (Γ, f ) formé d’une
application f : I → E de classe C p où I est un intervalle (fini ou infini, fermé ou non) de R et Γ
est un partie de E telle que Γ = f (I). Γ est appelée image ou support ou trajectoire de f et
f est appelée représentation paramétrique ou paramétrage de Γ (en abrégé R.P.).

Remarque 36.2.
1. Dans un énoncé, si la classe de l’arc n’a pas d’importance, on parlera simplement d’arc
paramétré sans préciser la classe de l’arc.
2. Il est souvent commode de l’interpréter comme la description du trajet f (I) par d’un
mobile occupant le point f (t) à l’instant t.

36.1.1.2 Changement de paramètre ou reparamétrage et Arcs équivalents


On va définir sur l’ensemble des paramétrages une loi d’action permettant de «Changer de para-
mètre». Nous définirons ensuite une relation d’équivalence sur l’ensemble des arcs paramétrés
d’une classe donnée.

Proposition 36.3. Soit (Γ, f ) un arc paramétré de classe C p où f est une application définie
sur I, ϕ un difféomorphisme de classe C p l’application : Ω × E → E .
(ϕ, f ) 
f◦ϕ

Définition 36.4. On appelle opérateur de changement de paramètre ou de reparamé-


trage, tout difféomorphisme ϕ de classe C p.
Définition 36.5. Soit (Γ, f ) un arc paramétré de classe C p, on appelle changement de variable
l’action à droite

Définition 36.6. Si (Γ1, f1) et (Γ2, f2) sont deux arcs paramétrés de classe C p. On dit que
(Γ1, f1) et (Γ2, f2) sont équivalents ssi il existe un difféomorphisme ϕ de classe C p tel que f2 =
f1 ◦ ϕ.

431
432 Géométrie différentielle

Proposition 36.7. La relation ainsi définie est une relation d’équivalence.

36.1.1.3 Arcs géométriques

Définition 36.8. Une classe d’équivalence d’arcs paramétrés de classe C p est appelée arc géo-
métrique et tout représentant d’un arc géométrique Γ de classe C p porte le nom de paramé-
trage admissible de Γ.
... (Voir suite Atlas des mathématiques p.u.f. p. 393) Compléter ce chapitre.

36.1.2 Courbe paramétrée


Définition 36.9. On appelle courbe paramétrée, le couple (Γ, f ) formé d’une application f :
I → E où I est au plus une réunion dénombrable d’intervalles finis ou infinis, fermés ou non de
R et Γ une partie de E. f (I) est appelée image de la courbe ou support de la courbe para-
métrée.
Définition 36.10. On appelle courbe paramétrée de classe C p, une courbe parémétrée (Γ,
f ) où f est une fonction de classe C p.

Remarque 36.11. Une courbe est une réunion au plus dénombrable d’arcs : exemple la fonc-
tion tangente. Réciproquement un arc est une courbe dont la fonction est définie sur un inter-
valle.

36.1.3 Limite d’une famille de sous-espaces affines


Définition 36.12. Soit E un espace vectoriel normé de dimension n, 1 6 p 6 n, Ω p = {(u1,  ,
u p) ∈ E p; (u1,  , u p) libre linéairement}. Ω p est un ouvert de E p. Soient (Xt)t∈R une famille de
sous-espace affines de dimension p, et A un sous espace affine de dimension p. On dit que Xt →
A lorsqu’il existe un repère cartésien ρt = (x(t), u1(t),  , u p(t)) de Xt, et un repère cartésien ρ0 =
(x0; u01;  ; u0p) de A, tels que ρt → ρ0 dans E × E p.

Proposition 36.13. Il y a unicité de la limite A.

36.1.4 Régularité d’un point et d’une courbe


36.1.4.1 Point et courbe réguliers

Définition 36.14. Soit f : I → E, t0 ∈ I.


On dit qu’une courbe (f , I) est régulière (ou 1-régulière) au point t0 , ou que le point
M0 = f (t0) est régulier ssi f est dérivable au point t0 et f ′(t0)  0.

Définition 36.15. On dit qu’une courbe (f , I) est régulière ou encore que le paramétrage
est régulier ssi (f , I) est régulière en tout point de I.

Remarque 36.16. |f ′(t)| représente la vitesse, si la vitesse ne s’annule pas cela indique qu’il
n’y a pas de points anguleux, comme c’est le cas pour la courbe (f , R) où : f :
R → R2 (représenter la courbe).
x 
(t2, t3)

36.1.4.2 Point et courbe biréguliers

Définition 36.17. On dit que la courbe (f , I) est birégulière (ou 2-régulière) au point t0
ssi :
i. f est 2 fois dérivable au point t0.
36.1 Arc et Courbe paramétrés dans un E espace affine euclidien 433

ii. f ′(t0) et f ′′(t0) sont linéairement indépendantes.

Définition 36.18. On dit qu’une courbe (f , I) est birégulière ou encore que le paramétrage
est birégulier ssi (f , I) est birégulière en tout point de I.

36.1.5 Tangente
Définition 36.19. Lorsque f (t)  f (t0), on appelle sécante Dt0,t la droite affine f (t0) +
R(f (t) − f (t0)).

M0 M

Définition 36.20. Soit (f , I) une courbe ou un arc régulier.


• On appelle la tangente ane de l’arc ou de la courbe paramétrée (f , I) à f au point t0 ,
la droite affine limite t → t0 de la sécante Dt0t.
• Sa direction s’appelle la tangente vectorielle de f au point t0.
• On note Tt0 f la tangente affine de f, et Tt0 f la tangente vectorielle de f.

Proposition 36.21.
1. Supposons que (f , I) est une courbe ou un arc régulier au point t0 alors ∃η > 0; |t − t0| <
η, (t ∈ I) entraîne f (t)  f (t0) et sa tangente affine est la droite affine f (t0) + Rf ′(t0) sa
tangente vectorielle est Rf ′(t0).
2. Supposons que (f , I) est une courbe ou un arc régulier de classe C k, soit f (p) la première
dérivée non nulle de f au point t0 , la tangente affine au point M0 = f (t0) est la droite
affine passant par M0 et de direction Rf (p)(t0).

36.1.6 Plan normal


Définition 36.22. Soit (f , I) une courbe ou un arc admettant une tangente T.
On appelle plan normal en un point M0 de la courbe, le plan affine perpendiculaire en M0 à
la tangente T.

M0

36.1.7 Plan osculateur


Définition 36.23. On appelle plan osculateur au point M0 la limite si elle existe du plan
affine passant par la tangente en M0 et M = f (t) lorsque t → t0. On le note Osct0 f et on note
Osct0 f sa direction.
434 Géométrie différentielle

M0 M

Proposition 36.24. Supposons f bi-régulière au point t0 alors le plan osculateur de f est le


plan affine f (t0) + Rf ′(t0) + Rf ′′(t0). Osct0 f = f (t0) + Rf ′(t0) + Rf ′′(t0) et Osct0 f = Rf ′(t0) +
Rf ′′(t0), autrement dit c’est le plan affine contenant M0 = f (t0) et de direction l’espace vectoriel
engendré par f ′(t0) et f ′′(t0).

Note 36.25. (partie à supprimer) On peut donc pour ces t, considérer le plan πt0t engendré par
Tt0 f et f (t),∃η > 0 tel que |t − t0| < η, (t ∈ I) ⇒ f (t) ∈ Tt0 f . Ce plan πt0t ( pour ?) tend vers le
plan f (t0) + Rf ′(t0) + Rf ′′(t0) quand t tend vers ce plan limite s’appelle le plan osculateur de
f en t0. On le note Osct0 f et on se note Osct0 f sa direction (Osct0 f = Rf ′(t0) + Rf ′′(t0)).

36.1.8 Normale principale et normale

Définition 36.26. Soit (Γ, f ) un arc/courbe, on appelle normale de (Γ, f ) au point M0 =


f (t0) toute droite affine passant par f (t0) et qui est orthogonale à Tt0 f (autrement dit toute
droite affine passant par f (t0)).

Définition 36.27. Soit (Γ, f ) un arc/courbe, la droite de Osct0 f qui passe par M0 = f (t0) et
qui est orthogonale à la tangente Tt0 f s’appelle la normale principale de f au point t0.

M0

Définition 36.28. Soit (Γ, f ) un arc/courbe, on appelle binormale de (Γ, f ) au point f (t0)
toute droite affine passant par f (t0) et qui est orthogonale à Tt0 f et à la normale principale
(autrement dit toute droite affine perpendiculaire au plan osculateur).

M0
36.1 Arc et Courbe paramétrés dans un E espace affine euclidien 435

36.1.9

36.1.10 Courbe
Proposition 36.29. Soit p ∈ {1, 2}, f : I → E , h: J → I (J intervalle) Supposons que h soit un
D p-difféomorphisme (bijectif et p dérivable) alors f est p-régulière au point h(u) ssi f ◦ h est p-
régulière et ∀u, h ′(u)  0.

36.1.11 Changement de paramètre ou reparamétrage


(Voir Atlas des mathématiques livre de poche page 395) pour compléter ce chapitre.

36.1.11.1 Courbes paramétrées unitaires

Définition 36.30. On dit qu’une courbe f est unitaire ( ou que f est paramétrée par une abs-
cisse curviligne) ssi ∀t, kf ′(t)k = 1 (f dérivable).

Proposition 36.31. Soit f : I → E C 1 et régulière alors il existe un C 1-difféomorphisme h: J → I


tel que f ◦ h soit unitaire.

36.1.11.2 Paramétrage normal et abscisse curviligne

36.1.11.3 abscisse curviligne

Définition 36.32. s = ε
R t
t0
kf ′(u)kdu + c, ε = ± 1, t → s s’appelle une abscisse curviligne le
long de f.

Remarque 36.33. On voit que si l’arc est 1-régulier, s est un paramètre admissible. Vu sa
signification, il joue un rôle intrinsèque à l’arc. On l’appelle paramètre admissible. (Atlas des
mathématiques p.u.f. p.395).

Proposition 36.34.
i. si s1, s sont des abscisses curviligne le long de f, alors s1 = εs + ?,
ds
ii. dt
= ε|f ′(t)|,
R t
iii. si s est une abscisse curviligne le long de f, s(t) − s(t0) = ε t kf ′(u)kdu, |s(t) − s(t0)| =
R t 0

t
kf (u)kdu longueur de f restreinte à l’intervalle [t 0, t].
0

Proposition 36.35. Soit f : I → E régulière de classe C 2. On suppose que f est unitaire c’est à
dire ∀s, kf ′(s)k = 1 alors (f ′(s)|f ′′(s)) = 0.

Proposition 36.36. f : I → E , C 2 unitaire alors f est birégulière au point s ssi f ′(s)  0.

36.1.11.4 Courbures non algébrique et algébrique


Il s’agit d’étudier ici un arc simple C, non rectiligne. On le suppose 1-régulier et de classe C 2 au
moins. Pour estimer le «comportement courbe» d’un tel arc, on peut considérer des sous-arcs
consécutifs de longueur h assez petite et associer à chacun d’entre eux le quotient par h de
l’angle des tangentes à leur extrémités :
436 Géométrie différentielle

Proposition 36.37. Soit (Γ, f ) une courbe paramétrée unitaire : f : I → E , ∀s, kf ′(s)k = 1,

notons τ = f ′(s) et τ1 = f ′(s + h) posons α = Ang(τ , τ1) alors d s = f ′′(s) et kf ′′(s)k =
α
limh→+∞ h .
 1 
α(s, h) α(s, h) α(s, h) |∆t|
∆(t) = 2sin 2 ⇒ limh→0 h = limh→0 2
1 × h = 1 × |t ′(s)| = |f ′′(s)|.
sin 2 α(s, h)

M(s) M(s+h)

1
Si C est un arc de cercle de rayon R, tous ces quotients valent R . Sinon, plus son quotient
est élevé, plus l’arc se «courbe» ... . Ces résultats conduisent à définir la courbure comme suit.
(Commentaires et illustrations Atlas des mathématiques p.u.f. p. 395)

Définition 36.38. Soit (Γ, f ) une courbe paramétrée.


• Si f : I → E est C 2 et unitaire, kf ′′(s)k est la courbure non algébrique de f au point
M d’abscisse curviligne s (M = f (s)).
• Supposons que f est bi-régulière au point s, f ′′(s) est appelé vecteur courbure, soit n un
K , λ ∈ R, λ
vecteur unitaire de la normale principale vectorielle au point s, on a f ′′(s) = λn
s’appelle la courbure algébrique de f au point s relativement à l’orientation n de la
normale.

M0 M

Remarque 36.39. Ainsi |λ| est la courbure non algébrique et on note |λ| = kf ′′(s)k.

Définition 36.40. Soit (Γ, f ) une courbe paramétrée de courbure algébrique |λ|. Notons que
quand |λ|  0, |R| = |λ| où R = λ est le rayon de courbure de f au point s.
1 1

Remarque 36.41. Cette définition se justifie par le fait qu’en tout point de l’arc simple où la
courbure n’est pas nulle, la «meilleure approximation» de l’arc simple par un arc de cercle est
obtenue avec un cercle qui a pour rayon le rayon de courbure. On appelle ce cercle : cercle oscu-
lateur au point considéré (cf. fig. B3 p.398). Il se situe dans le plan osculateur, défini par la
tangente et le vecteur normal principal. Il est centré au point appelé centre de courbure.

Définition 36.42. On appelle centre de courbure le point C défini par : C = f (s) + RnK .
36.1.12 Repère de Frénet

Lemme 36.43. Soit E espace vectoriel euclidien f : I → En dérivable ∀t,


t  (u1(t),  , un(t))
(u1(t),  , un(t)) est une base orthonormée
dui
(t) = ni=1 αiju j (t) alors ∀t, αij (t) + α ji(t) = 0.
P
dt
36.1 Arc et Courbe paramétrés dans un E espace affine euclidien 437

36.1.12.1 Définition

Définition 36.44. Soit E un espace affine euclidien orienté, dim(E) = 3, f : I → E, C 3 bi-regu-


K = kfεf′′(s)k
′′
(s)
lière et unitaire. T = f ′(s), n un vecteur unitaire de la normale principale, et b = T ∧
K , (M , (T , nK , b)) est appelé repère de Frenet.
n

Remarque 36.45.
K et
1. f ′′(s) = λn
dT
ds
K.
= λn
 
dT   
ds 0 λ 0 T D
dT
E
2. Matriciellement : car b = λhn|bi = 0 µ est la torsion de
 
=
dn
− λ 0 n  n 
  
ds
 ds
0 −µ 0 b
 
db
ds

f au point s,
dT
ds
K,
= λn
dn
ds
db
K sont les formules de Frenet.
= − λT + µb, ds = − µ · n

36.1.12.2 Torsion

Définition 36.46. Le réel µ(s) définit par µ · nK = − ds est appelé torsion de f au point M (s),
db

on dit que la torsion est droite ou gauche selon qu’elle est positive ou négative.

Remarque 36.47.
1. La fonction µ est nulle pour tout arc plan ... . Aux points où elle ne s’annule pas, elle
donne une indication sur la foçon dont la courbe s’écarte d’une courbe plane ... . Contrai-
rement à la courbure la torsion peut être négative. la convention adoptée pour la défini-
tion fait que la torsion est positive pour une hélice circulaire directe. On notera que ni la
courbure ni la torsion ne dépendent de l’orientation de l’arc simple auquel elles sont asso-
ciées.
2. µ ne dépend pas du choix de n.
3. Soit s  f (s) courbe unitaire, si s1 est une autre abscisse curviligne le long de f , alors
kf ′′(s)k = kg ′′(s1)k, (pour f (s) = g(s1)) et f ′′(s) = g ′′(s1) de plus, on a λ = λ1 et µ = µ1.

36.1.12.3 Formules donnant la torsions et la courbure

Proposition 36.48.
1. f : I → E, ∃h difféomorphisme tel que f ◦ h est unitaire. Par définition, la courbure de f
au point t est la courbure de f ◦ h au point s (pour f C 3 birégulière).
ds d2s dM dM ds
2. f : I → E C 3 , on note s ′ = dt
et s ′′ =dt2
, on a dt = Ts ′ = ds × dt avec M = f (t) = g(s),
d2 M
d t2
dT d s′
= λns ′2 + Ts ′′ = dt s ′ + T dt =
 ds
ds ′ d3M
· dt · s ′ + d t , dt3 = λ( − λT + µb)s ′3 + ρn + Ts ′′′
dT ds
K
s ′ s ′′ α
. Orientons Osct par la base (T , n). On a un produit mixte dans ?
2
 0 λs ′ β
 
′3
0 0 λµs
′ ′′ ′3 ′ ′ [f ′(t), f ′′(t)]
[f (t), f (t)] = λs or s = εkf (t)k donc λ = ε kf ′(t)k3

3 3 kf ′(t) ∧ f ′′(t)k
3. On a aussi f ′(t) ∧ f ′′(t) = λs ′ T ∧ n = λs ′ b d’où |λ| = kf ′(t)k3
[f ′(t), f ′′(t), f ′′′(t)] =
[f ′(t), f ′′(t), f ′′′(t)]
λ2 µs ′6 et kf ′(t) ∧ f ′′(t)k2 = λ2s ′6 ⇒ µ = kf ′(t) ∧ f ′′(t)k2
Index

439
Glossaire

441
442 Glossaire
Table des matières
Résumé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1 L’alphabet grec .. .. .. .. .. ... .. .. .. .. .. .. .. ... .. .. .. .. .. .. ... . 5

2 Notions fondamentales sur les ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7


2.1 Divers . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Recouvrement . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.3 Relations sur des ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 Quelques notations usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.5 Dénombrement . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5.1 . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.5.2 Ensembles finis . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 Topologie générale .. .. .. .. ... .. .. .. .. .. .. .. ... .. .. .. .. .. .. ... 11


3.1 Espaces topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.1.1 Topologies, ensembles Ouverts et Espaces Topologiques . . . . . . . . . . . . . . . . . 12
3.1.2 Ensembles Fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.1.3 Comparaison de topologies : topologies plus ou moins fines . . . . . . . . . . . . . . . 13
3.1.4 Recouvrement ouvert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.5 Voisinage d’un point et d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.6 Point d’Accumulation ou Limite, Ensemble Dérivé . . . . . . . . . . . . . . . . . . . . 14
3.1.7 Point Isolé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.8 Adhérence, Intérieur, Extérieur et Frontière d’un ensemble . . . . . . . . . . . . . . . 14
3.1.8.1 Point Adhérent, Adhérence ou Fermeture d’un ensemble . . . . . . . . . . . . . 14
3.1.8.2 Point Intérieur, Intérieur d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . 14
3.1.8.3 Point extérieur, Extérieur d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.8.4 Point frontière, Frontière d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.8.5 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.9 Ensembles Denses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.1.10 Espace Rare ou non Dense . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.11 Espace topologique Séparé au sens de Hausdorff . . . . . . . . . . . . . . . . . . . . . 17
3.2 Construction d’une topologie sur un ensemble. . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2.1 Topologie Engendrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2.2 Base de topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.3 Sous-base d’un espace topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2.4 Base locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Convergence, limite et continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.1 Filtre, base de filtre et ultrafiltre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3.2 Convergence et Limite suivant une base de filtre . . . . . . . . . . . . . . . . . . . . . . 20
3.3.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3.2.2 Unicité de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.2.3 Convergence et limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.2.4 Convergence et limite de la composée de 2 applications . . . . . . . . . . . . . . 22
3.3.3 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.3.1 En un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.3.2 Sur un espace topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3.3.3 C.N.S. de continuité et image réciproque d’ouverts ou de fermés . . . . . . . . 23
3.3.3.4 C.S. de convergence pour la composée de deux applications . . . . . . . . . . . 23

443
444 Table des matières

3.3.3.5 C.S. de continuité pour la composée de deux applications . . . . . . . . . . . . 24


3.3.3.6 Convergence des suites du type f ◦ xn i.e. (f (xn)) . . . . . . . . . . . . . . . . . 24
3.3.4 Application continue ouverte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4 Prolongement par continuité d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.5 Prolongement des égalités et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5.1 Egalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.5.2 Inégalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6 Homéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.7 Valeur d’adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.7.1 ... sur un ensemble muni d’une base de filtre . . . . . . . . . . . . . . . . . . . . . . . . 26
3.7.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.7.1.2 Valeur d’adhérence d’une fonction convergente . . . . . . . . . . . . . . . . . . . 27
3.7.1.3 Adhérence et valeur d’adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.7.2 ... sur un espace topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.7.2.1 Pour une fonction quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.7.2.2 Pour une suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.8 Dual topologique d’un espace vectoriel topologique . . . . . . . . . . . . . . . . . . . . . . . 27
3.9 «Autogamie» d’espaces topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.9.1 Sous-espace topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.9.1.1 Topologie induite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.9.1.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.9.1.3 C.N.S. sur les voisinages, les fermés . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.9.1.4 Héridité de la séparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.9.1.5 Convergence d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.9.1.6 Continuité de l’injection canonique . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.9.1.7 Continuité d’une restriction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.9.1.8 Continuité d’une fonction à valeurs dans un sous-espace topologique . . . . . 29
3.9.2 Produits finis d’espaces topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.9.2.1 Topologie produit et ouvert élémentaire . . . . . . . . . . . . . . . . . . . . . . . . 29
3.9.2.2 Espace topologique produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.9.2.3 Adhérence et fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.9.2.4 C.N.S. de séparation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.9.2.5 Convergence d’une fonction à valeurs dans un espace topologique produit . . 30
3.9.2.6 Continuité d’une fonction à valeurs dans un espace topologique produit . . . 30
3.9.3 Produits infinis d’espace topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.9.4 Espaces topologiques quotients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.10 Espaces topologiques Compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.10.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.10.1.1 Axiome de Borel-Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.10.1.2 Espaces quasi-compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.10.1.3 Espaces compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.10.1.4 Parties compactes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.10.1.5 Partie relativement compacte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.10.1.6 Exemples d’espaces compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.10.2 Fermés et compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.10.2.1 Cas d’un espace topologique séparé . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.10.2.2 Cas d’un espace topologique compact . . . . . . . . . . . . . . . . . . . . . . . . 34
3.10.2.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.10.3 Réunion et intersection d’espaces compacts . . . . . . . . . . . . . . . . . . . . . . . . 34
3.10.3.1 Réunion finie d’espaces compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.10.3.2 Intersection quelconque d’espaces compacts . . . . . . . . . . . . . . . . . . . . . 34
3.10.4 Sys. fonda. de vois. d’un point d’un compact . . . . . . . . . . . . . . . . . . . . . . . 35
3.10.5 Valeur d’adhérence d’une fonction dans un compact . . . . . . . . . . . . . . . . . . . 35
3.10.5.1 Valeur d’adhérence d’une application à valeurs dans un compact . . . . . . . 35
3.10.5.2 Valeur d’adhérence d’une suite de points dans un espace compact . . . . . . 35
3.10.6 Convergence d’une fonction sur un compact . . . . . . . . . . . . . . . . . . . . . . . . 35
Table des matières 445

3.10.6.1 Limite d’une fonction admettant une seule valeur d’adhérence . . . . . . . . . 35


3.10.6.2 Limite d’une suite admettant une seule valeur d’adhérence . . . . . . . . . . . 35
3.10.7 Application, Continuité, Bijectivité et Compacité . . . . . . . . . . . . . . . . . . . . 35
3.10.7.1 Propriété des fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.10.7.2 Propriété des bijections continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.10.7.3 Fonction d’un espace topo. compact dans un espace métrique . . . . . . . . . 35
3.10.7.4 Fonction d’un espace topo. compact dans R . . . . . . . . . . . . . . . . . . . . 35
3.10.8 Produit fini d’espaces compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10.8.1 C.N.S. de compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10.8.2 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10.9 Espaces localement compacts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10.10 Compactification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10.10.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10.10.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10.10.3 Procédé de compactification d’Alexandrov . . . . . . . . . . . . . . . . . . . . . 36
3.11 Espaces topologiques connexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.11.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.11.2 Autres C.N.S. de connexité pour un espace topologique . . . . . . . . . . . . . . . . 37
3.11.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.11.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.11.4.1 Connexité et adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.11.4.2 Réunion de connexes qui se rencontrent . . . . . . . . . . . . . . . . . . . . . . . 38
3.11.4.3 Image d’un connexe par une application continue . . . . . . . . . . . . . . . . . 38
3.11.4.4 Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.11.5 Eléments connectés, Composantes connexes, Discontinuité totale . . . . . . . . . . 38
3.11.6 C.N.S. de connexité pour un produit d’espace topologique . . . . . . . . . . . . . . 39
3.11.7 Chemin d’un espace topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.11.8 Connexité par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.11.9 Espace localement connexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.11.10 Application de la connexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.11.10.1 Connexité et homéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.11.10.2 Connexité et résolution d’équation . . . . . . . . . . . . . . . . . . . . . . . . . . 40

4 Espaces métriques et leur topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41


4.1 Définitions et propriétés générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.1 Distance, semi-distance et écart sur un ensemble E . . . . . . . . . . . . . . . . . . . . 41
4.1.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.1.2 Deuxième inégalité triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.1.3 Inégalité quadrilatère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.1.1.4 Exemples de distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.2 Définition d’un espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.1.3 Extension de la notion de distance, diamètre d’une partie . . . . . . . . . . . . . . . 43
4.1.3.1 Distance d’un point à un ensemble non vide . . . . . . . . . . . . . . . . . . . . . 43
4.1.3.2 Distance entre deux ensembles non vides . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.3.3 Diamètre d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.1.3.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.1.4 Boule d’un espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.1.4.1 Boule ouverte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.1.4.2 Boule fermée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.1.4.3 Sphère . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.1.4.4 Boule et sphère généralisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.4.5 Remarques et Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.5 Isométrie; Fonction lipschitziennes et contractantes . . . . . . . . . . . . . . . . . . . . 45
4.1.5.1 Isométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.5.2 Condition de Lipschitz d’ordre α et de rappport k . . . . . . . . . . . . . . . . . 46
4.1.5.3 Fonctions Lipschitziennes et contractantes . . . . . . . . . . . . . . . . . . . . . . 46
446 Table des matières

4.2 Topologies des espaces métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46


4.2.1 Topologie métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.2 Ouverts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2.3 Voisinages d’un point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.4 Fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.5 Adhérence, Intérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.6 Densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.7 Espaces séparables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.8 Convergence et limite d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.9 Convergence et limite d’une suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.9.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.9.2 C.N.S. Adhérence-Suite et Fermé-Suite . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.10 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.10.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.10.2 C.N.S. de continuité utilisant les suites . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.11 Valeur d’adhérence d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.12 Valeur d’adhérence d’une suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2.13 Nombre de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.14 Espace métrique compact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.14.1 C.N.S. de compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.14.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.14.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.14.4 Compacité, suite et C.N.S. de compacité dans un espace métrique . . . . . . 52
4.3 Continuité uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.4 Distances équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.1 Distances topologiquement équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.2 Distances uniformément équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.3 Distances métriquement équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4.4 Relation entre ces distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.5 Connexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.6 Autogamie d’espaces métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.6.1 Sous-espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.1.1 Ouverts dans un sous-espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.1.2 Fermés dans un sous espace-métrique . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.1.3 Voisinage dans un sous espace-métrique . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.1.4 Limite d’une suite dans un sous-espace métrique . . . . . . . . . . . . . . . . . . 55
4.6.2 Produit d’espaces métriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.2.1 Exemple de distances sur un produit d’espaces métriques . . . . . . . . . . . . 55
4.6.2.2 Fonctions définies sur un espace produit . . . . . . . . . . . . . . . . . . . . . . . 56
4.6.2.3 Fonctions à valeurs dans un espace produit . . . . . . . . . . . . . . . . . . . . . . 56
4.6.2.4 Suites dans un espace produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6.2.5 Limite d’une fonction à valeur dans un espace produit . . . . . . . . . . . . . . 56
4.7 Suite de Cauchy. Espace métrique complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.7.1 Suite de Cauchy d’un espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.7.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.7.1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.7.1.3 Image d’une suite de Cauchy par une application uniformément continue . . 57
4.7.2 Espace Complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.7.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.7.2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.7.3 Espace produit complet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.7.4 Théorème du point fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.7.4.1 Théorème du point fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.7.4.2 Théorème du point fixe avec paramètre . . . . . . . . . . . . . . . . . . . . . . . . 60
4.7.5 Prolongement de fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
Table des matières 447

4.7.5.1 Critère de Cauchy et prolongement . . . . . . . . . . . . . . . . . . . . . . . . . . . 60


4.7.5.2 Prolongement d’une application uniformément continue . . . . . . . . . . . . . . 60
4.8 Espaces topologiques connexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.8.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.8.2 Autres C.N.S. de connexité pour un espace topologique . . . . . . . . . . . . . . . . . 61
4.8.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.8.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.8.4.1 Connexité et adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.8.4.2 Réunion de connexes qui se rencontrent . . . . . . . . . . . . . . . . . . . . . . . . 62
4.8.4.3 Image d’un connexe par une application continue . . . . . . . . . . . . . . . . . . 62
4.8.4.4 Théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.8.5 Eléments connectés, Composantes connexes, Discontinuité totale . . . . . . . . . . . 63
4.8.6 C.N.S. de connexité pour un produit d’espace topologique . . . . . . . . . . . . . . . 63
4.8.7 Chemin d’un espace topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.8.8 Connexité par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.8.9 Espace localement connexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.8.10 Application de la connexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.8.10.1 Connexité et homéomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.8.10.2 Connexité et résolution d’équation . . . . . . . . . . . . . . . . . . . . . . . . . . 64

5 Algèbre linéaire et multilinéaire . .. .. .. .. .. .. .. ... .. .. .. .. .. .. ... 65


5.1 Espaces vectoriels et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.1 Epaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.1.2 Segment d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.1.3 Partie convexe d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.1.1.4 Espace vectoriel produit ou produit direct d’espace vectoriel . . . . . . . . . . . 66
5.1.1.5 F (E , F ) [mettre en exemple ?] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.1.4 Quotient d’un espace vectoriel par un de ses sous-espaces vectoriels . . . . . . . . . 68
5.1.5 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.1.6 Somme directe de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.1.6.1 Sous-espaces vectoriels supplémentaires. . . . . . . . . . . . . . . . . . . . . . . . 69
5.1.6.2 Projecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.1.7 Formes linéaires et dual d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . 70
5.1.7.1 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.1.7.2 Dual d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.1.7.3 Orthogonalité entre un espace vectoriel et son dual, orthogonal et antéorthogonal
. .. .. ... .. .. .. .. .. .. ... .. .. .. .. .. .. .. ... .. .. .. . . . . . . . . . 70
5.1.7.4 Transposée d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1.7.5 Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1.8 Familles génératrices, familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1.8.1 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1.8.2 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.8.3 Base et composant d’un vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.8.4 Parties libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.1.8.5 Parties basiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2 Dimension, rang et codimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.1 Dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.2 Rang d’une partie d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.2.3 Codimension d’un sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.3 Droite, plan et hyperplan vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.4 Applications linéaires et multilinéaires en dimension finie . . . . . . . . . . . . . . . . . . . 74
5.4.1 Dimension de L(E , F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.4.2 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
448 Table des matières

5.4.3 Dualité en dimension finie . . . . . . . . . . . . . . . . .. ... .. .. .. .. . . . . . . . 74


5.4.4 Applications multilinéaires . . . . . . . . . . . . . . . . .. ... .. .. .. .. . . . . . . . 75
5.4.4.1 Définition et propriété générale . . . . . . . . . .. ... .. .. .. .. . . . . . . . 75
5.4.4.2 Applications multilinéaires alternées . . . . . . .. ... .. .. .. .. . . . . . . . 75
5.4.5 Déterminants . . . . . . . . . . . . . . . . . . . . . . . . .. ... .. .. .. .. . . . . . . . 76
5.4.5.1 Déterminant d’une famille de vecteurs . . . . . .. ... .. .. .. .. . . . . . . . 76
5.4.5.2 Déterminant d’un endomorphisme . . . . . . . .. ... .. .. .. .. . . . . . . . 76
5.4.5.3 Application : Orientation d’un espace vectoriel de dimension finie . . . . . . . 77
5.5 Algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. ... .. .. .. .. . . . . . . . 78
5.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . .. ... .. .. .. .. . . . . . . . 78
5.5.2 Sous-algèbre . . . . . . . . . . . . . . . . . . . . . . . . . .. ... .. .. .. .. . . . . . . . 78

6 Espaces Vectoriels, Algèbres Normés et leur topologie . . . . . . . . . . . . . . . . . 81


6.1 Espace vectoriel normé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.1.1 Norme, Espace vectoriel normé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.1.2 Autogomie d’espaces vectoriels normés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.1.3 Limites des applications « somme » et « produit par un scalaire » . . . . . . . . . . 84
6.1.4 Continuités des applications « somme », « produit par un scalaire » et norme . . 84
6.1.5 Normes équivalentes et topologiquement équivalentes . . . . . . . . . . . . . . . . . . 85
6.1.6 Espace normé de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.1.6.1 Equivalence des normes en dimension finie . . . . . . . . . . . . . . . . . . . . . . 85
6.1.6.2 Complétude et fermeture en dimension finie . . . . . . . . . . . . . . . . . . . . . 86
6.1.6.3 Continuité des applications linéaires sur un e.v.n. en dimension finie . . . . . 86
6.1.6.4 Continuité d’une application linéaire sur un produit d’espace vectoriel de dimen-
sion finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.1.7 Espace de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.2 Algèbre normée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.2.1 Norme compatible avec la multiplication d’une algèbre . . . . . . . . . . . . . . . . . 86
6.2.2 Norme d’algèbre, définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.3 Applications linéaires sur un K-e.v.n. et L(E , F ) . . . . . . . . . . . . . . . . . . . . . . . . 87
6.3.1 C.N.S. de continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.3.2 L(E , F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.3.3 Norme et Norme d’opérateur ou subordonnée sur L(E , F ) . . . . . . . . . . . . . . . 87
6.3.4 Dual d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.3.5 Isométrie entre E et L(K; E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.3.6 C.S. de complétude pour L(E; F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.4 Applications multilinéaires sur un K-e.v.n et L(E1,  , En , F ) . . . . . . . . . . . . . . . . . 88
6.4.1 C.N.S. de continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.4.2 L(E1,  , En , F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.4.3 Norme et Norme d’opérateur ou subordonnée sur L(E1,  , En , F ) . . . . . . . . . . 89
6.4.4 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.5 Topologie des espaces vectoriels normés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.5.1 En dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.5.2 En dimension infinie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.6 Série . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.6.1 Définitions et propriétés générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.6.2 ... dans un espace de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.7 Exponentielle d’un endomorphisme d’un espace de Banach . . . . . . . . . . . . . . . . . . 91
6.7.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.7.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.7.2.1 Relation entre exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.7.2.2 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
6.7.2.3 Commutation avec la conjugaison . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.7.2.4 Exponentielle d’une somme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.7.2.5 Toute exponentielle est un carré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.7.2.6 Déterminant d’une exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Table des matières 449

6.7.2.7 Application R → GL(E) . .. .. .. .. .. ... .. .. .. .. .. .. ... 92


t 
exp(t · A)

7 Les nombres réels et leur topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93


7.1 Inégalité du réordonnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
7.2 Inégalité de Cheybychev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
7.3 Inégalité de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.4 Inégalité de Cauchy-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.5 Inégalité de Minkowski ou triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.6 Inégalité de Hölder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
7.7 Fonction Convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.8 Topologie de R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.8.1 Compact de R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.8.2 Compact de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.8.3 Connexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

8 Fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
8.1 Fonctions numériques d’une variable réelle (i.e. définie sur R) . . . . . . . . . . . . . . . . 98
8.1.1 Propriétés d’une fonction continue sur un intervalle . . . . . . . . . . . . . . . . . . . . 98
8.1.2 Propriétés d’une fonction continue sur un fermé borné . . . . . . . . . . . . . . . . . . 98
8.1.3 Fonction réciproque d’une fonction continue et strictement monotone . . . . . . . . 98
8.1.4 Dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
8.1.4.1 Opérations algébrigues sur les fonctions dérivables. . . . . . . . . . . . . . . . . 98
8.1.4.2 Dérivabilité d’une fonction composée. . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.1.4.3 Dérivabilité d’une fonction réciproque . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.1.4.4 Dérivée logarithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.1.5 Fonctions de classe C r . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
8.1.6 Fonctions de classe C r par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
8.1.7 Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
8.1.8 Sens de variation d’une fonction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
8.1.9 Primitives. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.1.10 Développements limités. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
8.1.11 Fonction convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8.1.12 Fonctions usuelles numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8.1.12.1 Fonction affines et linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8.1.12.2 Fonctions exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
8.1.12.3 Fonctions logarithmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.1.12.4 Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.1.12.5 Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
8.1.12.6 Fonctions hyperboliques réciproques . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.1.12.7 Fonctions circulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8.1.12.8 Fonctions circulaires réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.2 Fonction vectorielle d’une variable réelle (i.e. définie sur R) . . . . . . . . . . . . . . . . . . 106
8.2.1 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.2.1.1 Dérivée d’un produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.2.1.2 Inégalité des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.2.1.3 Caractérisation des applications constantes . . . . . . . . . . . . . . . . . . . . . . 106
8.2.1.4 Prolongement des application de classe C 1 . . . . . . . . . . . . . . . . . . . . . . 106
8.2.2 Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.2.2.1 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
8.2.2.2 Formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.3 Fonction de plusieurs variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.4 Suite numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.5 Fonction réelle ou complexe d’une variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . 107
8.5.1 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
450 Table des matières

8.5.1.1 Continuité sur un intervalle . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 107


8.5.1.2 Continuité sur un intervalle fermé . . . . . . . . . . . . . .. . . . . . . . . . . . . . 107
8.6 Comparaison et évaluation locale des fonctions à valeur dans R (i.e. fonctions numériques)
.. .. .. .. .. ... .. .. .. .. .. .. ... .. .. .. .. .. .. .. ... .. . . . . . . . . . . . . . 107
8.6.1 Négligeabilité, Domination, Equivalence . . . . . . . . . . . . .. . . . . . . . . . . . . . 108
8.6.1.1 Domination . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 108
8.6.1.2 Négligeabilité . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 108
8.6.1.3 Equivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 108
8.6.1.4 Similitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 108
8.6.1.5 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 108
8.6.1.6 Exemples fondamentaux au voisinage de 0 . . . . . . . .. . . . . . . . . . . . . . 109
8.6.2 Developpement dans une échelle de comparaison . . . . . . .. . . . . . . . . . . . . . 109
8.6.2.1 Développement limité . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 109
8.6.2.2 Développement asymptotique . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 109
8.7 Fonctions et résultats usuels . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 109
8.7.1 Support d’une fonction numérique . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 109
8.7.2 Fonctions numériques usuelles définies sur R . . . . . . . . . .. . . . . . . . . . . . . . 109
8.7.2.1 Fonctions logarithmiques et exponentielles . . . . . . . .. . . . . . . . . . . . . . 109
8.7.2.2 Fonctions puisances . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 109
8.7.2.3 Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 109
8.7.2.4 Fonctions hyperboliques récriproques . . . . . . . . . . .. . . . . . . . . . . . . . 110
8.7.2.5 Fonctions circulaires . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 110
8.7.2.6 Fonctions circulaires réciproques . . . . . . . . . . . . . .. . . . . . . . . . . . . . 112
8.7.3 Tableau des dérivées usuelles . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 112
8.7.4 Tableau des primitives usuelles . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . 112

9 Série d’un espace vectoriel normé. Suites et séries d’applications . . . . . . . . . 115


9.1 Série d’un espace vectoriel normé. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
9.1.1 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
9.1.2 Convergence normale et semi-convergence . . . . . . . . . . . . . . . . . . . . . . . . . . 117

10 Séries numériques à termes réels ou complexes. . . . . . . . . . . . . . . . . . . . . . 119


10.1 Séries numériques à termes réels ou complexes . . . . . . . . . . . . . . . . . . . . . . . . . 120
10.1.1 Convergence . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . 120
10.1.2 Séries à termes réels positifs . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . 121
10.1.2.1 Comparaison avec une intégrale. . . .. . . . . . . . . . . . . . . . . . . . . . . . . 121
10.1.2.2 Séries de Riemann. . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . 121
10.1.2.3 Séries de Bertrand. . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . 121
10.1.3 Convergence absolue et semi-convergence . . . . . . . . . . . . . . . . . . . . . . . . . 122
10.1.4 Séries de R alternées. . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . 122

11 Espaces d’applications leurs structures, leurs topologies ... . . . . . . . . . . . . . 123


11.1 Suite de fonction dans un espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
11.1.1 Convergence simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
11.1.2 Convergence uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.1.3 Convergence uniforme sur l’espace des fonctions bornées . . . . . . . . . . . . . . . . 125
11.2 Topologie des espaces de fonctions bornées . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.2.1 Distance définie sur un espace de fonctions . . . . . . . . . . . . . . . . . . . . . . . . 125
11.2.2 C.S. de complétude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
11.3 Suites et séries de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
11.3.1 Convergence simple et uniforme des suites de fonctions . . . . . . . . . . . . . . . . . 127
11.3.2 Convergence uniforme des séries de fonctions . . . . . . . . . . . . . . . . . . . . . . . 128
11.4 Séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
11.4.1 Rayon de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
11.4.1.1 Rayon de convergence. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
Table des matières 451

11.4.1.2 Somme et produit de deux séries entières. . . . . . . . . . . . . . . . . . . . . . . 130


11.4.2 Dérivation et intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
11.4.3 Développement d’une fonction en série entière . . . . . . . . . . . . . . . . . . . . . . 131
11.4.4 Développements en série entière usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.4.5 Fonctions transcendantes élémentaires complexes . . . . . . . . . . . . . . . . . . . . 132
11.4.5.1 Fonction exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
11.4.5.2 Fonctions trigonométriques complexes . . . . . . . . . . . . . . . . . . . . . . . . 133
11.4.6 Série de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
11.4.6.1 Coefficients de Fourier d’une dérivée . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.4.6.2 Convergence simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.4.6.3 Convergence normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.5 Fonctions à valeurs réelles en « treillis » ! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.6 Théorème de Stone-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
11.7 Approximation de fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
11.7.1 ... continue par des polynômes sur un compact de Cn . . . . . . . . . . . . . . . . . 136
11.7.2 ... continue périodique par des polynômes trigonométriques . . . . . . . . . . . . . . 136

12 Séries entières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137


12.1 Développements en série entière : DSE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
12.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
12.1.2 Développements usuels en série entière centrée en 0 : DSE(0) . . . . . . . . . . . . . 138

13 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
13.1 Théorème de Rolle et des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . 140
13.1.1 Théorème de Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
13.1.2 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

14 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
14.1 Notion de matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
14.2 Exemples d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
14.2.1 ... en algèbre linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
14.2.1.1 Matrice associé à un vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
14.2.1.2 Matrice associée à une famille de vecteur . . . . . . . . . . . . . . . . . . . . . . 143
14.2.1.3 Matrice associée à une application linéaire . . . . . . . . . . . . . . . . . . . . . 143
14.2.1.4 Matrice associée à un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . 144
14.2.2 ... en calcul différentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
14.3 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
14.4 Construction de l’espace vectoriel normé Mn, p(K) . . . . . . . . . . . . . . . . . . . . . . . 144
14.4.1 Addition et multiplication sur Mn,p(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
14.4.2 Normes sur Mn,p(K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
14.5 Multiplication des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
14.6 Transposition et transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
14.7 Transconjugaison ou Matrice adjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
14.8 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
14.9 Spécificités propres aux matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
14.9.1 Construction de l’anneau et de l’algèbre normée Mn(K) . . . . . . . . . . . . . . . . 148
14.9.2 Trace d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
14.9.3 Matrice carrée nilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
14.9.4 Matrice carrée inversible et groupe linéaire GLn(K) . . . . . . . . . . . . . . . . . . . 149
14.9.4.1 Matrice carrée inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
14.9.4.2 Groupe Linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
14.9.4.3 Transposé d’une matrice carrée inversible . . . . . . . . . . . . . . . . . . . . . . 150
14.9.4.4 Transconjugaison et matrice adjointe d’une matrice carrée inversible . . . . . 150
14.9.4.5 Rang et matrice carrée inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
14.9.5 Matrices carrées symétrique et antisymétrique . . . . . . . . . . . . . . . . . . . . . . 150
452 Table des matières

14.9.5.1 Matrice carrée symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150


14.9.5.2 Matrice carrée antisymétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
14.9.5.3 Relation entre les deux notions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
14.9.5.4 Matrice carrée symétrique semi-définie positive et définie positive . . . . . . 151
14.9.6 Matrice orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
14.9.7 Matrices carrées hermitienne et antihermitienne . . . . . . . . . . . . . . . . . . . . . 151
14.9.7.1 Matrices hermitiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
14.9.7.2 Matrices antihermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
14.9.7.3 Matrice carrée hermitienne semi-définie positive et définie positive . . . . . . 151
14.9.8 Matrice unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
14.9.9 Matrice normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
14.9.10 Matrices carrées triangulaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
14.9.11 Matrices carrées diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
14.10 Matrices équivalentes, changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
14.10.1 Matrices de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
14.10.2 Formules de changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.10.3 Matrices équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.10.4 Matrices carrées semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
14.11 Exponentielle d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
14.11.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
14.11.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
14.12 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
14.12.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
14.12.2 Méthodes élémentaires de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
14.12.2.1 Lignes ou colonnes liées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
14.12.2.2 Mineur, Cofacteur et Développement par rapport à une rangée . . . . . . . 156
14.12.2.3 Comatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
14.12.3 Cas d’une matrice triangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
14.12.4 Manipulation de lignes et de colonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
14.12.5 Déterminants d’ordre 2 et 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
14.12.6 Déterminant de Vandermonde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
14.13 Rang et sous-matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
14.14 Réduction des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
14.14.1 Eléments propres, spectre et rayon spectral . . . . . . . . . . . . . . . . . . . . . . . 159
14.14.1.1 Valeur ou vecteur propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
14.14.1.2 Spectre, Sous-espace propre d’une matrice . . . . . . . . . . . . . . . . . . . . . 159
14.14.2 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
14.14.3 Diagonalisabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
14.14.4 Polynômes de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
14.14.5 Application de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
14.14.6 Trigonalisationbilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
14.14.7 Polynômes annulateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
14.14.8 Décompostion de Dunford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
14.14.9 Réduction de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
14.14.10 Réduction de matrices symétriques réelle . . . . . . . . . . . . . . . . . . . . . . . . 161
14.14.11 Réduction des matrices hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
14.15 Blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
14.16 Valeur singulière d’une matrice rectangulaire . . . . . . . . . . . . . . . . . . . . . . . . . . 161

15 Intégration selon Cauchy-Riemann et Riemann . . . . . . . . . . . . . . . . . . . . . 163


15.1 Intégrale de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
15.1.1 Structures construites sur E([a, b]) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.1.2 Première formule de la moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.1.3 Valeur moyenne d’une fonction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
15.1.4 Intégrale sur la réunion de segments adjacents . . . . . . . . . . . . . . . . . . . . . . 165
15.1.5 Changement de variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
Table des matières 453

15.1.6 Intégration par parties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166


15.1.7 Fonction définie parR une intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
15.1.8 Application g: x
x
a
f (t)dt : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
15.1.8.1 Continuite, variation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
15.1.8.2 Dérivabilité, primitive et intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
15.1.8.3 Intégrale convergente et intégrale généralisée ou impropre . . . . . . . . . . . 166
15.1.8.4 Critères de convergence pour des fonctions positives . . . . . . . . . . . . . . . 167
15.1.8.5 Convergence absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
15.1.8.6 Semi-convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
15.1.9 Application g: x
R b
a
f (x, t)dt : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
15.1.10 Intégrales classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
15.1.10.1 Intégrale de Walis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
15.1.10.2 Intégrales d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
15.1.10.3 Intégrale de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
15.1.10.4 Fonction gamma (ou Fonctions eulériennes de deuxième espèce) . . . . . . . 169
15.1.10.5 Fonction bêta (ou Fonctions eulériennes de première espèce) . . . . . . . . . 169
15.1.10.6 Intégrale de Dirichlet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
16 Mesure et Intégrale de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
16.1 Enseignement de l’intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
16.1.1 Bref Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
16.1.1.1 Mise en place intuitive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
16.1.1.2 Première définition par Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
16.1.1.3 Généralisation par Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
16.1.1.4 Nouvelle approche de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
16.1.1.5 On peut encore faire mieux ! . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
16.1.1.6 Ce n’est pas fini ... Riemann est de retour ! . . . . . . . . . . . . . . . . . . . . 174
16.1.2 Photographie de l’enseignement actuel . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
16.1.2.1 Premier contact en terminale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
16.1.2.2 Apparition du formalisme en BAC+2 . . . . . . . . . . . . . . . . . . . . . . . . 175
16.1.2.3 Au delà, il faut tout reprendre ! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
16.1.3 Exposé rapide des différentes théories . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
16.1.3.1 Intégrale de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
16.1.3.2 Intégrale de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
16.1.3.3 Kurzweil-Henstock . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
16.1.3.4 Relations entre toutes ses intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . 178
16.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
16.2 Convention de calcul dans R̄ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
16.3 Anneau, Algèbre et Tribu de parties d’un ensemble . . . . . . . . . . . . . . . . . . . . . . 180
16.3.1 Anneau ou clan de parties d’une ensemble . . . . . . . . . . . . . . . . . . . . . . . . . 180
16.3.2 Algèbre de partie d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
16.3.3 σ-Anneau ou σ-clan de partie d’un ensemble. Espace et ensemble mesurables . . 182
16.3.4 Tribu ou σ-algèbre ou corps de Borel de partie d’un ensemble. Espace probabilisable
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
16.3.5 Anneau, algèbre, σ-Anneau et Tribu engendrés par C ⊂ P(E) . . . . . . . . . . . . 184
16.3.6 Tribu produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
16.3.7 Tribu engendrée par une topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
16.3.7.1 Définition générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
16.3.7.2 Cas d’un Espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.3.7.3 Tribu borélienne de R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.3.7.4 Tribu borélienne de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.3.7.5 P(R) = B(R)? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.3.7.6 σ-Anneau engendré par les compacts . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.3.8 π-Classe et λ-Classe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.4 Fonctions étagées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
16.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
454 Table des matières

16.4.2 Fonctions numériques étagées (Cas E2 = R, R̄) . . . . . . . . . . . . . . . . . . . . . . 186


16.5 Applications mesurables et espace L0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
16.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
16.5.2 Propriétés générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
16.5.2.1 "Critère de mesurabilité" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
16.5.2.2 Composition d’applications mesurables . . . . . . . . . . . . . . . . . . . . . . . . 187
16.5.2.3 Applications continues et mesurabilité . . . . . . . . . . . . . . . . . . . . . . . . 187
16.5.2.4 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
16.5.3 Applications mesurables à valeurs dans un espace métrique . . . . . . . . . . . . . . 187
16.5.4 Application à valeurs dans un espace produit . . . . . . . . . . . . . . . . . . . . . . . 187
16.5.5 Applications numériques mesurables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
16.5.5.1 "Critère de mesurabilité" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
16.5.5.2 Opérations sur les applications numériques mesurables . . . . . . . . . . . . . 188
16.5.5.3 Suite d’applications numériques mesurables . . . . . . . . . . . . . . . . . . . . . 188
fonctions fonctions étagées
16.6 Approximation de par des . . . . . . . . . . . . . . . . . . . . 189
mesurables mesurables
16.7 Mesures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
16.7.1 Application additive d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
16.7.2 Application σ-additive d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
16.7.3 Mesure sur un anneau d’ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
16.7.4 Mesures définies sur une algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
16.7.5 Mesures définies sur une tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
16.7.6 Espace mesuré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
16.8 Mesures extérieures, ensemble négligeable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
16.8.1 Mesure extérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
16.8.2 Mesure extérieure associée à une mesure et ensemble négligeable . . . . . . . . . . 193
16.8.3 Ensembles µ-mesurables (au sens de Carathéodory) . . . . . . . . . . . . . . . . . . . 194
16.8.4 Mesure canonique de Lebesgue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
16.8.5 Propriété vraie presque partout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
16.9 Intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
16.9.1 Intégrale supérieure sur un espace probabilisable . . . . . . . . . . . . . . . . . . . . . 195
16.9.2 Mesure positive définie par une intégrale supérieure . . . . . . . . . . . . . . . . . . . 196
16.9.3 Intégrale définie par une mesure positive . . . . . . . . . . . . . . . . . . . . . . . . . . 196
16.9.3.1 Pour une fonction étagée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
16.9.3.2 Pour une fonction mesurable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
16.9.3.3 Propriétés générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
16.9.3.4 Relation entre mesure et intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
17 Espace L1 des fonctions µ-intégrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
17.1 Fonction µ-intégrable et espace L . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
. . . . . . 200
17.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
17.1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
17.1.3 Fonction localement µ-intégrable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
17.2 Théorèmes de convergence dominée R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
17.2.1 ... pour une suite définie par ( fndµ)n∈N . . . . . . . . . . . . . . . . . . . . . . . . 201
17.2.2 ... pour une suite définie par ( fndµ)n∈N . . . . . . . . . . . . . . . . . . . . . . 202
R P

17.2.3 ... pour une fonction définie par x


R
E
f (x, t)dµ(t) . . . . . . . . . . . .. . . . 202
17.2.3.1 Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . 203
17.2.3.2 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . .R . . . . . . . . . . . .. . . . 203
17.3 Théorème de dérivation pour une fonction définie par x E
 f (x, t)dµ(t) .. . . . 203
17.4 Relation entre l’intégrale de Lebesgue et l’intégrale ... . . . . . . . . . . . . . . . . .. . . . 204
17.4.1 ... de Riemann sur [a, b] ∈ C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . 204
[a, b[ ]a, b] ]a, b[
17.4.2 ... généralisée de Riemann sur a<b . . . . . . . . 205
a ∈ R , b ∈ R̄ a ∈ R̄, b ∈ R a ∈ R̄, b ∈ R̄
17.5 Construction de mesures particulières et leur applications . . . . . . . . . . . . . . . . . . 205
17.5.1 Mesures définies par des densités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Table des matières 455

17.5.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. ... 205


17.5.1.2 Propriétés générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. ... 205
17.5.1.3 Cas particulier de la mesure de Lebesgue . . . . . . . . . . . . . . . .. .. ... 206
17.5.1.4 Mesures absolument continues . . . . . . . . . . . . . . . . . . . . . . .. .. ... 206
17.5.2 Mesures images . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. ... 206
17.5.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. ... 206
17.5.2.2 Propriété générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. ... 206
17.5.2.3 C.S. d’intégration par rapport à une mesure image . . . . . . . . . .. .. ... 206
17.5.2.4 Mesure image et formalisme probabiliste . . . . . . . . . . . . . . . .. .. ... 206
17.5.2.5 Mesure image et mesure de courbes et de surface de Rn . . . . . . .. .. ... 206
17.5.2.6 Mesure image et formule du changement de variable dans R̄ . . . .. .. ... 207
17.5.3 Mesures produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. ... 207
17.5.3.1 Existence et Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. ... 207
17.5.3.2 Mesure produit et intégration sur un espace produit (théorèmes de Fubini) .
208
17.5.3.3 Mesure produit et intégration sur un produit fini d’espaces . . . . . . . . . . . 208
17.5.3.4 Cas particulier de la mesure de Lebesgue sur Rn . . . . . . . . . . . . . . . . . 208

18 Les coniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209

19 Calcul scientifique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211


19.1 Résolution numérique d’équations et systèmes d’équations non linéaires . . . . . . . . . 212
19.1.1 Cas scalaire f : R → R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
19.1.1.1 Théorème des valeurs intermédiaires et dichotomie (Algorithme de dichotomie)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
19.1.1.2 Méthode du point fixe attractif contractions Théorème du point fixe contractant
et suite (Algorithme des approximations successives) . . . . . . . . . . . . . . . . . . . . . 212
19.1.1.3 Méthode de la corde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
19.1.1.4 Méthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
19.1.2 Cas Vectoriel F : Rn → Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
19.1.2.1 Méthode de la corde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
19.1.2.2 Méthode de Newton-Raphson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
19.1.3 Ordre (de convergence) d’une méthode itérative . . . . . . . . . . . . . . . . . . . . . 213
19.1.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
19.1.3.2 Condition de convergence suivant l’ordre . . . . . . . . . . . . . . . . . . . . . . 213
19.1.3.3 Ordre et vitesse de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.2 Résolution numérique d’équation et système linéaire. . . . . . . . . . . . . . . . . . . . . . 214
19.2.1 Interprétations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.2.1.1 Interprétation Affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.2.1.2 Interprétation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.2.1.3 Interprétation vectorielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.2.2 Méthode directe de résolution. Cas r=n=p dit Système de Cramer . . . . . . . . . 214
19.2.2.1 Méthode de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.2.2.2 Méthode d’élimination de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.2.2.3 Méthode de Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
19.2.2.4 Méthodes Itératives Jacobi/Gauss-Seidel/Relaxation . . . . . . . . . . . . . . . 215
19.2.3 Méthodes itératives Jacobi/Gauss-Seidel/Relaxation; gradiant; gradian conjugué .
215
19.2.3.1 vitesse asymptotique de convergence . . . . . . . . . . . . . . . . . . . . . 215
19.2.3.2 Conditionnement d’un système . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
19.2.4 Résolution : cas r = n < p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
19.2.5 Résolution : cas r < n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
19.2.6 Cas des systèmes linéaires-homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
19.3 Equation différentielle à conditions initiales . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
19.4 Approximation polynomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
19.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
456 Table des matières

19.4.2 Approximation par le polynôme d’interpolation de Lagrange . . . . .. .. . . . . . 216


19.4.2.1 Existence, unicité et définition . . . . . . . . . . . . . . . . . . . . .. .. . . . . . 217
19.4.2.2 Calcul effectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . 217
19.4.2.3 Calcul d’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . 217
19.4.2.4 Choix optimal des points d’interpolation . . . . . . . . . . . . . .. .. . . . . . 217
19.4.3 Approximation au sens des moindres carrés discret (MCD) . . . . . .. .. . . . . . 217
19.4.3.1 Existence et unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . 217
19.4.3.2 Calcul effectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . 218
19.4.3.3 Droite de régression . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . 218
19.4.4 Approximation au sens des moindres carrés continu (MCC) . . . . . .. .. . . . . . 218
19.4.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . 218
19.4.4.2 Problème de meilleur approximation au sens de MCC (pour f donné) . . . 218
19.4.4.3 Calcul effectif de P . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .. . . . . . 218

20 Applications dérivables et différentiables . . . . . . . . . . . . . . . . . . . . . . . . . . 219


20.1 Dérivée directionnelle et G–dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
20.1.1 Dérivée directionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
20.1.2 Dérivée au sens de Gâteaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
20.1.3 Points critiques, Extremums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
20.1.3.1 Cas général : points critiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
20.1.3.2 Cas ou E est quelconque et F = R . . . . . . . . . . . . . . . . . . . . . . . . . . 221
20.1.4 Dérivabilité sur un espace produit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
20.2 Différentielle ou F-dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
20.2.1 Différentiabilité et différentielle en un point . . . . . . . . . . . . . . . . . . . . . . . . 222
20.2.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
20.2.1.2 Unicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
20.2.1.3 Relation entre différentielle et dérivée directionnelle . . . . . . . . . . . . . . . 223
20.2.1.4 Différentiabilité et continuité en un point . . . . . . . . . . . . . . . . . . . . . . 223
20.2.2 Différentiabilité et Différentielle sur un ouvert d’un e.v.n. . . . . . . . . . . . . . . . 223
20.2.3 Différentielle partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
20.2.4 Remarques générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
20.2.5 Cas E = K (où K = R ou K = C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
20.2.6 Cas d’une application constante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
20.2.7 Cas d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
20.2.8 Cas d’une application bilinéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
20.2.9 Généralisation : Cas d’une fonction n-linéaire . . . . . . . . . . . . . . . . . . . . . . . 225
20.2.10 Trace d’une application différentiable . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
20.2.11 Linéarité de la différentielle en un point a (sur l’ensemble des fonctions différentia-
bles) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
20.2.12 Différentielle d’une application composée . . . . . . . . . . . . . . . . . . . . . . . . . 226
20.2.13 Cas d’une application dans une somme directe (espace produit) . . . . . . . . . . 226
20.2.14 Formule de Leibniz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
20.2.15 Cas d’une application définie sur une somme directe . . . . . . . . . . . . . . . . . . 227
20.3 Matrice jacobienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
20.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
20.3.2 Calcul de la matrice jacobienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
20.3.2.1 Théorème de changement de variable . . . . . . . . . . . . . . . . . . . . . . . . . 228
20.4 Théorèmes des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
20.4.1 Cas des fonctions à valeurs dans R (F = R) . . . . . . . . . . . . . . . . . . . . . . . 228
20.4.1.1 Fonction définie sur R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
20.4.1.2 Fonction définie sur un e.v.n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
20.4.2 Cas des fonctions à valeurs dans un e.v. F quelconque . . . . . . . . . . . . . . . . . 229
20.4.2.1 Applications d’une variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
20.4.2.2 Applications définies sur un ouvert d’un e.v.n. quelconque . . . . . . . . . . . 230
20.4.2.3 Applications définies sur un convexe . . . . . . . . . . . . . . . . . . . . . . . . . 230
20.4.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
Table des matières 457


20.4.3.1 Application de différentielle 0: x 0 . . . . . . . . . . . . . . . . . . . . . . . . . 230
20.4.3.2 Comportement d’une application d’une variable réelle . . . . . . . . . . . . . . 231
20.4.4 Relation entre différentiabilité et Lipschitziennité . . . . . . . . . . . . . . . . . . . . 231
20.4.4.1 Condition suffisante pour qu’une application soit lipschitzienne. . . . . . . . 231
20.4.4.2 Condition suffisante pour qu’une application soit localement lipschitzienne .
231
20.5 Difféomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
20.6 Théorème d’inversion locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
20.7 Théorème des fonctions implicites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
20.8 Différentielle d’ordre supérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
20.8.1 Différentielle d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
20.8.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232
20.8.1.2 Interprétation de d2af : Application bilinéaire associée à d2af . . . . . . . . . . 233
20.8.1.3 Calcul de d2af . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
20.8.1.4 Théorème de Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
20.8.2 Différentielle d’ordre n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
20.8.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
20.8.2.2 Interprétation de dna f : Application multilinéaire associée à dna f . . . . . . . . 234
20.8.2.3 Calcul de dna f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
20.8.2.4 Théorème de Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
20.8.2.5 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
20.8.2.6 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
20.8.3 Application de classe C 1,  ; C n;  ; C ∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
20.8.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
20.8.3.2 Les espaces C ∞(U , F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
20.8.3.3 Propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
20.8.3.4 Cas où E = Λ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
20.9 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
20.9.1 Formule de Taylor asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
20.9.2 Formule de Taylor avec reste de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . 236
20.9.3 Formule de Taylor avec reste de Intégrale . . . . . . . . . . . . . . . . . . . . . . . . . 236
20.10 Maxima et minima relatifs (ou local) libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
20.10.1 Première condition nécessaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
20.10.2 Condition du second ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
20.10.3 Condition suffisante pour le minimum relatif . . . . . . . . . . . . . . . . . . . . . . . 237
20.11 Maxima et minima relatifs (ou local) liés (ou avec contraintes) . . . . . . . . . . . . . . . . . 237

21 Equation différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239


21.1 Définitions et remarques générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
21.2 Equation différentielle d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
21.3 Equation différentielle linéaire homogène d’ordre 1 à coefficients constants . . . . . . . . 241
21.4 Equation différentielle d’ordre supérieur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
21.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
21.4.2 Réduction à un système d’équa. diff. d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . 242
21.4.2.1 Equipotence des ensembles de solution . . . . . . . . . . . . . . . . . . . . . . . . 243
21.4.2.2 Equipotence des ensembles de solution maximale . . . . . . . . . . . . . . . . . 243
21.4.3 Equa. diff. d’ordre sup. linéaire, homogène et à coefficients constants . . . . . . . 243
21.4.4 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
21.4.5 Méthode de résolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
21.5 Equation différentielle linéaire d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
21.5.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
21.5.2 Théorème d’existence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
21.5.3 Etude de l’équation homogène : y ′ = At(y) (*) . . . . . . . . . . . . . . . . . . . . . . 244

22 Théorie des Graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247


22.1 Notion de Graphe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
458 Table des matières

22.1.1 Graphes non orientés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248


22.1.2 Graphe orienté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
22.1.3 Définitions Communes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
22.2 Représentation de graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
22.2.1 Graphes non orientés (i.e. multigraphes) . . . . . . . . . . . . . . . . . . . . . . . . . . 251
22.2.1.1 Matrice d’incidence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
22.2.1.2 Matrice adjacente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
22.2.1.3 Liste d’adjacence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
22.2.2 Graphes orientés (i.e. graphes) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
22.2.2.1 Matrice d’incidence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
22.2.2.2 Matrice adjacente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
22.2.2.3 Liste d’adjacence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
22.3 Chaînes, cycles, circuits et chemins . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
22.4 Sous graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
22.5 Connexité et forte connexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
22.5.1 Graphe connexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
22.5.2 Graphe orienté fortement connexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
22.5.3 Arêtes/sommets séparat(eur/rices), graphe séparable, bloc . . . . . . . . . . . . . . 255
22.5.4 Excentricité d’un sommet, diamètre, rayon et centre d’un graphe . . . . 255
22.5.5 Forêts, Arbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

23 Hypergraphes, Systèmes d’indépendants et matroïdes . . . . . . . . . . . . . . . . 259


23.1 Hypergraphe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
23.2 Matroïde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
23.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
23.2.2 Propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
23.2.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261

24 Théorie des langages formels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263


24.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264

25 Informatique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
25.1 Survol du Cours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
25.1.1 Sujet, Livres, Site Internet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
25.1.2 Algorithmes et Heuristiques : Philosophie et Terminologie . . . . . . . . . . . . . . . 266
25.2 Pseudocode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
25.2.1 Analyse d’Algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
25.2.2 Rappel : Taux de Croissance des Fonctions . . . . . . . . . . . . . . . . . . . . . . . . 268
25.3 Algorithmes de Tri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
25.3.1 Enoncé du Problème de Tri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
25.3.2 Tri par Insertion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
25.3.3 Tri par Division-Fusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
25.3.4 Tri Rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
25.3.5 Analyse du Tri par Insertion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
25.3.6 Analyse du Tri par Fusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
25.3.7 Analyse du Tri Rapide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
25.4 Heuristique GLOUTON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
25.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
25.4.2 Heuristique GLOUTON appliquée aux Matroïdes . . . . . . . . . . . . . . . . . . . . 272
25.4.2.1 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
25.4.2.2 Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
25.5 Algorithmes de parcours dans les graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
25.5.1 Arbres de parcours . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
25.5.2 Parcours en largeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
25.5.2.1 Algorithme PARCOURS EN LARGEUR . . . . . . . . . . . . . . . . . . . . . . 275
Table des matières 459

25.5.2.2 Propriétés de PARCOURS EN LARGEUR . . . . . . . . . . . . . . . . . . . . . 276


25.5.2.3 Applications de PARCOURS EN LARGEUR . . . . . . . . . . . . . . . . . . . 276
25.5.3 Parcours en profondeur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
25.5.3.1 Algorithme PARCOURS EN PROFONDEUR . . . . . . . . . . . . . . . . . . . 277
25.5.3.2 Propriétés de PARCOURS EN PROFONDEUR . . . . . . . . . . . . . . . . . . 278
25.5.3.3 Applications de PARCOURS EN PROFONDEUR . . . . . . . . . . . . . . . . 278
25.5.4 Algorithme de Prim . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
25.6 Complexité algorithmique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
25.6.1 Problèmes de Décision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
25.6.2 Codages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
25.6.3 Les classes de complexité P, NP et co-NP . . . . . . . . . . . . . . . . . . . . . . . . . 281
25.6.3.1 La classe P . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
25.6.3.2 La classe NP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
25.6.3.3 La classe co-NP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
25.6.3.4 Remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
25.6.4 Réductibilité, NP-complétude et la classe NPC . . . . . . . . . . . . . . . . . . . . . . 283
25.6.4.1 Réductibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
25.6.4.2 NP-complétude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
25.6.5 Satisfaisabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
25.6.5.1 Le problème SAT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
25.6.5.2 Le problème k-SAT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
25.6.6 Problèmes NP-complets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
25.6.6.1 COUVERTURE EXACTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
25.6.6.2 CIRCUIT HAMILTONIEN ORIENTÉ . . . . . . . . . . . . . . . . . . . . . . . 285

26 L.C.I., Magma, Semi-groupe, Monoïde . . . . . . . . . . . . . . . . . . . . . . . . . . . 287


26.1 Loi de composition interne ou loi de composition . . . . . . . . . . . . . . . . . . . . . . . . 287
26.2 Magma . . . . . . . . . . . . .. .. ... .. .. .. .. . . . . . . . . . . . . . . . . . . . . . . . . 289
26.3 Semi-groupe . . . . . . . . .. .. ... .. .. .. .. . . . . . . . . . . . . . . . . . . . . . . . . 290
26.4 Monoïde . . . . . . . . . . . .. .. ... .. .. .. .. . . . . . . . . . . . . . . . . . . . . . . . . 290

27 Théorie des Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291


27.1 Structure de groupe . . . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 291
27.1.1 Définition d’un groupe . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 292
27.1.2 Groupe fini . . . . . . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 292
27.1.3 Ordre d’un groupe . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 293
27.1.4 Groupe commutatif . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 293
27.1.5 Propriétés . . . . . . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 295
27.1.6 Table de Cayley d’un groupe fini . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 295
27.2 Structure de sous-groupe . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 295
27.2.1 Définition d’un sous-groupe . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 295
27.2.2 Intersection de sous-groupes . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 299
27.2.3 Sous-groupe propre . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 299
27.2.4 Sous-groupe maximal . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 299
27.2.5 Sous-groupe G engendré par A . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 299
27.2.5.1 Cas Général . . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 299
27.2.5.2 Parties génératrices, générateurs ( cas particulier ) . . . . . . . . . . . . . . . . 299
27.2.5.3 Ordre d’un élément dans un groupe . . .. .. .. .. . . . . . . . . . . . . . . . . 299
27.2.6 Sous-groupe de Frattini . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 300
27.2.7 Groupes Monogènes . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 300
27.2.8 Groupes Cycliques . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 300
27.2.8.1 Définition . . . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 301
27.2.8.2 Propriétés . . . . . . . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 301
27.2.9 Sous-groupes particuliers . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 301
27.2.9.1 Centre d’un groupe . . . . . . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 301
27.2.9.2 Centralisateur de A dans G . . . . . . . .. .. .. .. . . . . . . . . . . . . . . . . 301
460 Table des matières

27.2.9.3 Normalisateur de A dans G . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301


27.3 Morphisme de groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
27.3.1 Définitions générales et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
27.3.2 Epimorphisme et Monomophisme de groupes . . . . . . . . . . . . . . . . . . . . . . . 302
27.4 Groupes Quotients et Classe modulo un sous-groupe . . . . . . . . . . . . . . . . . . . . . 303
27.4.1 Relation d’équivalence modulo un sous-groupe . . . . . . . . . . . . . . . . . . . . . . 303
27.4.1.1 Propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
27.4.1.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
27.4.2 Théorème de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
27.4.2.1 Enoncé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
27.4.2.2 Equipotence de (G/H)d et (G/H) g . . . . . . . . . . . . . . . . . . . . . . . . . . 304
27.4.2.3 Indice d’un groupe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
27.4.2.4 Formule des indices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
27.4.3 Compatibilité de RH et de HR avec la loi de composition interne de G et premier
théorème d’isomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
27.4.3.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
27.4.3.2 Cas où le groupe G est abélien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
27.4.3.3 Cas où H = ker(f ) où f est un morphisme de groupe . . . . . . . . . . . . . . 306
27.4.4 Sous-groupe normaux (ou distingués) et groupe quotient . . . . . . . . . . . . . . . 308
27.4.5 Groupes simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
27.5 Etude des groupes quotients . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
27.5.1 Sous groupe d’un groupe quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
27.5.2 Théorème d’isomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
27.6 Groupes symétriques et le groupe symétrique (Sn , ◦ ) . . . . . . . . . . . . . . . . . . . . . 309
27.6.1 Définition et propriété . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
27.6.2 Etude de Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
27.6.2.1 Support d’une permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
27.6.2.2 σ-orbite ( ou orbite d’un élément de E suivant σ ) . . . . . . . . . . . . . . . . 310
27.6.3 Cycle et longueur d’un cycle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
27.6.4 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
27.6.5 Décomposition d’une permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
27.6.5.1 Décomposition en cycle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
27.6.5.2 Décomposition en transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
27.6.5.3 Décomposition en transposition simple . . . . . . . . . . . . . . . . . . . . . . . . 311
27.6.6 Inversion d’une permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
27.6.7 Signature d’une permutation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
27.6.8 Groupe alterné An . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
27.6.9 Groupes diédraux Dn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
27.7 Groupe opérant sur un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
27.8 Fixateur, Sous-groupe d’isotropie ou stabilisateur, orbites . . . . . . . . . . . . . . . . . . 313
27.8.1 Fixateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
27.8.2 Stabilisateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 314
27.8.3 Orbite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
27.8.4 Exemples classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315
27.8.5 Propriétés des stabilisateurs et orbites . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
27.9 Groupes finis, p-sous-groupe d’un groupe fini et théorèmes de Sylow . . . . . . . . . . . 316
27.9.1 p-sous-groupe d’un groupe fini . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
27.9.2 Premier théorème de Sylow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
27.9.3 Second théorème de Sylow . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
27.10 Produit direct de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
27.10.1 Produit direct de deux groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
27.10.2 Produit direct d’un nombre fini de groupe . . . . . . . . . . . . . . . . . . . . . . . . 317
27.11 Structure des groupes abéliens finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318

28 Structure d’Anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318


28.1 Généralités sur les anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
Table des matières 461

28.1.1 Définitions de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320


28.1.2 Sous-anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
28.1.2.1 Sous-anneau engendré par une partie non vide . . . . . . . . . . . . . . . . . . . 320
28.1.3 Centre d’un anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 320
28.1.4 Propriétés dans un anneau quelconque . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
28.1.4.1 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
28.1.4.2 Binôme de Newton dans un anneau quelconque . . . . . . . . . . . . . . . . . . 322
28.1.5 Propriétés dans un anneau unitaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
28.1.5.1 Règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
28.1.5.2 Formule du binôme de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
28.1.5.3 Groupes des éléments inversibles d’un anneau unitaire . . . . . . . . . . . . . . 324
28.1.5.4 Caractéristique d’un anneau unitaire . . . . . . . . . . . . . . . . . . . . . . . . . 324
28.1.6 Diviseur de zéro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
28.1.7 Anneau intègre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
28.1.8 Eléments associés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
28.1.9 Idéal d’un anneau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
28.1.9.1 Idéal à gauche, à droite et bilatère . . . . . . . . . . . . . . . . . . . . . . . . . . 327
28.1.9.2 Intersection, somme d’ideaux et idéal engendré . . . . . . . . . . . . . . . . . . 327
28.1.9.3 Idéal principal d’un anneau commutatif . . . . . . . . . . . . . . . . . . . . . . . 328
28.1.9.4 Idéal premier d’un anneau commutatif . . . . . . . . . . . . . . . . . . . . . . . . 328
28.1.10 Divisibilité dans les anneaux intègres et éléments irréductibles . . . . . . . . . . . 328
28.1.11 Anneau principal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
28.1.12 Morphisme d’anneaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
28.1.12.1 Prolongement isomorphe d’un anneau dans un anneau unitaire . . . . . . . 329
28.1.13 Anneau quotient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
28.1.14 Factorisation canonique d’un morphisme d’anneaux commutatifs . . . . . . . . . . 329
28.2 Anneau factoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
28.3 Anneau euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
28.4 Elément premier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
28.4.1 Elément nilpotent . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
28.5 Extension par adjonction d’un élément . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
28.5.1 Eléments algébriques, transcendants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
28.5.2 Extension algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
28.5.3 Extension transcendante (Anneau des polynômes sur un anneau commutatif) . . 331
28.5.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
28.5.3.2 Degré d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
28.5.3.3 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
28.5.3.4 Evaluation ou fonction d’évaluation . . . . . . . . . . . . . . . . . . . . . . . . . . 334
28.5.3.5 Interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
28.5.3.6 Contenu d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
28.5.3.7 Polynôme primitif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
28.5.3.8 Critères d’irréductibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
28.5.3.9 Polynôme symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336

29 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
29.1 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
29.2 Corps des fractions d’un anneau A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
29.3 Extension algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
29.3.1 Extension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
29.3.2 Extension algébrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
29.3.3 Adjonction de Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
29.4 Corps finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340

30 Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
30.1 Loi de compostion externe ou loi d’action . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
30.2 Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
462 Table des matières

30.3 Espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342


30.4 Algèbre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343

31 Arithmétique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
31.1 L’anneau (Z, + , × ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
31.1.1 Nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
31.1.2 Nombres premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
31.2 L’anneau (Z/nZ, + , · ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345

32 Analyse Réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346


32.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
32.1.1 Plan d’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
32.1.2 Le cas p = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
32.1.3 Le cas p = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
32.1.4 Le cas p ≖ ∞ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
32.1.5 le groupe (S1, × ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
32.1.6 Méthode de résolution des exercices par densité: . . . . . . . . . . . . . . . . . . . . . 348
32.2 Espace L0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
32.3 Applications mesurables et espace L0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
32.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
32.3.2 Propriétés générales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
32.3.2.1 "Critère de mesurabilité" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351
32.3.2.2 Composition d’applications mesurables . . . . . . . . . . . . . . . . . . . . . . . . 351
32.3.2.3 Applications continues et mesurabilité . . . . . . . . . . . . . . . . . . . . . . . . 351
32.3.2.4 Notation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
32.3.3 Applications mesurables à valeur dans un espace métrique . . . . . . . . . . . . . . 352
32.3.4 Application à valeurs dans un espace produit . . . . . . . . . . . . . . . . . . . . . . . 352
32.3.5 Applications numériques mesurables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
32.3.5.1 "Critère de mesurabilité" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
32.3.5.2 Opérations sur les applications numériques mesurables . . . . . . . . . . . . . 356
32.3.5.3 Suite d’applications numériques mesurables . . . . . . . . . . . . . . . . . . . . . 357
32.3.6 Inégalité de convexité sur L0+ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
32.4 Espaces L1,L2 et L p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
32.4.1 Etude de L1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
32.4.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
32.4.1.2 Structure d’espace vectoriel, Semi-norme et inégalités convexes sur L1 . . . 359
32.4.2 Etude de L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
32.4.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
32.4.2.2 Exemple de fonction de L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
32.4.2.3 Structure d’espace vectoriel, Semi-norme et inégalités convexes sur L2 . . . 362
32.4.2.4 Existence d’une forme hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . 362
32.4.3 Etude générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
32.4.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 363
32.4.3.2 Semi-norme et inégalités convexes sur L p . .. ... .. .. .. .. .. . . . . . 365
32.4.3.3 Relation d’équivalence sur L p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
32.5 Espace L1, L2 et Lp, p ∈ [1, + ∞] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
32.5.1 Etude de L1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
32.5.1.1 L1 espace normé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
32.5.1.2 L1 espace de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
32.5.1.3 Théorème de densité dans L1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
32.5.2 Etude de L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
32.5.2.1 L2 espace normé, L2 espace de Banach, théorème de densité . . . . . . . . . . 369
32.5.2.2 Relation entre L2 et L1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
32.5.2.3 L2 espace de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
32.5.3 Etude générale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374
32.5.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
Table des matières 463

32.5.3.2 L p espace normé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375


32.5.3.3 Inégalités de convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
32.5.3.4 L p espace de Banach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
32.5.3.5 Théorème de densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
32.6 Convolution des fonctions intégrables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
32.6.1 Convolution des fonctions intégrables dans L1 . . . . . . . . . . . . . . . . . . . . . . 376
32.6.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
32.6.1.2 Propriétés élémentaires du produit de convolution . . . . . . . . . . . . . . . . 377
32.6.1.3 Approximation de l’identité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
32.7 Transformée et Transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
32.7.1 Transformée et Transformation de Fourier dans L1 . . . . . . . . . . . . . . . . . . . 377
32.7.1.1 Transformée de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
32.7.1.2 Transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 377
32.7.1.3 Transformation de Fourier et dérivation . . . . . . . . . . . . . . . . . . . . . . . 377
32.7.1.4 Transformation de Fourier et produit de convolution . . . . . . . . . . . . . . . 378
32.7.1.5 Théorème d’inversion dit aussi théorème de synthèse spectrale L1 . . . . . . 378
32.7.1.6 L’espace de Schwarz S(Rn) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
32.7.2 Transformation de Fourier dans L2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
32.7.2.1 Théorème de Plancherel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
32.7.3 Transformée de Fourier d’une fonction périodique . . . . . . . . . . . . . . . . . . . . 380
32.7.3.1 La synthèse spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
32.8 Application à la théorie L2 des série de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . 380
32.9 Applications . . . . . . . . . . . . . . . P
.. .. .. .. .. .. .. ... .. .. .. .. .. . . . . . 380
∞ 1
32.9.1 Calcul de la somme de la série : n=1 n2 . . . . . . . . . . . . . . . . . . . . . . . . . 380
32.9.2 Théorème de synthèse spectrale pour les fonctions continues et périodiques . . . . 381
32.10 Tableau comparatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381

33 Formes sesquilinéaires, Espaces Préhilbertiens, Hermitiens, Euclidiens et Hil-


bertien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
33.1 Formes sesquilinéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
33.1.1 Forme sesquilinéaire relativement à un automorphisme . . . . . . . . . . . . . . . . . 381
33.1.2 Forme (sesquilinéaire) hermitienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381
33.1.3 Formes (sesquilinéaires) hermitiennes complexes . . . . . . . . . . . . . . . . . . . . . 382
33.1.4 Formes bilinéaires réelles symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
33.1.5 forme (sesquilinéaire) hermitienne complexe et formes bilinéaires réelles symétriques,
définies positives ou positives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
33.1.6 Inégalité de Cauchy Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
33.2 Espaces Préhilbertiens, Hermitiens, Euclidiens et Hilbertien et produits scalaires . . . 382
33.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
33.2.1.1 Espace préhilbertien complexe et réel et leurs produits scalaires . . . . . . . . 383
33.2.1.2 Espace hermitien et Euclidien et leurs produits scalaires . . . . . . . . . . . . 384
33.2.1.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
33.2.2 Sous-espace préhilbertien, euclidien et hermitien . . . . . . . . . . . . . . . . . . . . . 384
33.2.3 Semi-norme et Norme associées à un produit scalaire . . . . . . . . . . . . . . . . . . 385
33.2.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
33.2.3.2 Identités et inégalité remarquables . . . . . . . . . . . . . . . . . . . . . . . . . . 385
33.2.3.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
33.3 Espace Hilbertien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
33.4 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
33.4.1 Vecteurs othogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
33.4.2 Parties orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386
33.4.3 Théorèmes de Pythagone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386
33.4.4 Orthogonal d’une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 386
33.4.5 Hyperplan médiateur dans un espace préhibertien réel . . . . . . . . . . . . . . . . . 386
33.4.6 Angle de deux vecteurs non nuls dans un préhilbertien réel . . . . . . . . . . . . . . 386
33.5 Projection orthogonale d’un espace préhilbertien . . . . . . . . . . . . . . . . . . . . . . . . 387
464 Table des matières

33.5.1 Théorème de projection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387


33.5.2 Projection sur un cône convexe complet . . . . . . . . . . . . . . . . . . . . . . . . . . 387
33.5.3 Projection sur un sous-espace vectoriel complet . . . . . . . . . . . . . . . . . . . . . 388
33.5.4 Transitivité des projections . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 388
33.5.5 Application aux sous-espaces orthogonaux d’un espace de Hilbert . . . . . . . . . . 389
33.6 Dual d’un espace de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389
33.7 Systèmes orthogonaux et bases Hilbertiennes . . . . . . . . . . . . . . . . . . . . . . . . . . 389
33.7.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
33.7.2 Inégalité de Bessel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
33.7.3 Base Hilbertienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
33.8 Géométrie euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
33.8.1 Orthonormalisation de Schmitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392
33.8.2 Spectre d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392
33.8.3 Isométrie vectorielle, Rotation et Antirotation . . . . . . . . . . . . . . . . . . . . . . 392
33.8.4 Espace Cn. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
33.8.5 Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
33.8.6 Produit mixte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
33.8.7 Produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396
33.8.8 Angle orienté de vecteurs dans un plan vectoriel orienté . . . . . . . . . . . . . . . . 396
33.8.9 Angle orienté d’une rotation vectorielle dans un plan vectoriel orienté . . . . . . . 396
33.8.10 Rotation en dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396

34 Géométrie affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397


34.1 Espace affine associé à un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
34.2 Repère cartésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
34.3 R-espace Affine orienté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
34.4 Application affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
34.4.1 Translation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
34.4.2 Homothétie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
34.4.3 Groupe des automorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399
34.5 Sous-espace ou variété affine d’un espace affine E . . . . . . . . . . . . . . . . . . . . . . . . 399
34.5.1 Sous-espaces affines particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399
34.5.2 Parallélisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399
34.5.3 Intersection de sous-espaces affines et sous-espace affine engendré par une partie .
399
34.5.4 Propriétés des sous-espace affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
34.6 Familles affinement libres, repère ou base affine . . . . . . . . . . . . . . . . . . . . . . . . . 400
34.6.1 Famille libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
34.6.2 repère ou base affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
34.6.3 Sous-espaces affines supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
34.7 Projection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
34.8 Théorème de Thalès . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
34.9 Image d’un sous-espace affine par une application affine . . . . . . . . . . . . . . . . . . . 402
34.10 Equation d’un hyperplan en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . 402
34.11 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402
34.12 Convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402
34.12.1 Enveloppe convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402
34.13 Demi-espaces définis par un hyperplan dans un R-espace affine de dimension finie . . 403
34.14 Espace Affine normé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
34.14.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
34.14.2 Application différentiable dans un espace affine . . . . . . . . . . . . . . . . . . . . . 403
34.14.3 Espaces tangents à une partie d’un espace vectoriel normé E . . . . . . . . . . . . 403
34.14.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
34.14.3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
34.14.3.3 Cas particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
34.14.4 Sous-variété . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 404
Table des matières 465

34.14.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405


34.14.4.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
34.14.4.3 Espace tangent vectoriel d’une sous-variété (k > 1) . . . . . . . . . . . . . . . 406
34.14.4.4 Injectivité de la différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
34.14.4.5 Surjectivité de la différentielle (k > 1) . . . . . . . . . . . . . . . . . . . . . . . . 409
34.14.4.6 Généralisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
34.14.4.7 Carte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
34.15 Espace affine euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
34.15.1 Espace afffine euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
34.15.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
34.15.1.2 Structure métrique et structure affine . . . . . . . . . . . . . . . . . . . . . . . . 412
34.15.1.3 Isométries affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
34.15.1.4 Rotations affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 414
34.15.2 Projections et symétries orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
34.15.2.1 Projection orthogonale sur un sous espace affine A d’un espace affine euclidien
E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
34.15.2.2 Symétrie orthogonale par rapport à un sous espace affine d’un espace affine
euclidien E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
34.15.3 Propriétés des espaces affines euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . 416
34.15.4 Théorème de factorisation canonique d’une isométrie affine . . . . . . . . . . . . . 416
34.15.5 Isométrie affine en dimension 2 et 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
34.15.5.1 Déplacement en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
34.15.5.2 Rotation en dimension 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417

35 Géométrie différentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417


35.1 Arc et Courbe paramétrés dans un E espace affine euclidien . . . . . . . . . . . . . . . . . 418
35.1.1 Arc paramétré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418
35.1.1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
35.1.1.2 Changement de paramètre ou reparamétrage et Arcs équivalents . . . . . . . 419
35.1.1.3 Arcs géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
35.1.2 Courbe paramétrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
35.1.3 Limite d’une famille de sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . 420
35.1.4 Régularité d’un point et d’une courbe . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
35.1.4.1 Point et courbe réguliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420
35.1.4.2 Point et courbe biréguliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
35.1.5 Tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
35.1.6 Plan normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
35.1.7 Plan osculateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
35.1.8 Normale principale et normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
35.1.9 .. ... .. .. .. .. .. .. ... .. .. .. .. .. .. .. ... .. .. .. .. . . . . . . . 424
35.1.10 Courbe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
35.1.11 Changement de paramètre ou reparamétrage . . . . . . . . . . . . . . . . . . . . . . 424
35.1.11.1 Courbes paramétrées unitaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
35.1.11.2 Paramétrage normal et abscisse curviligne . . . . . . . . . . . . . . . . . . . . . 424
35.1.11.3 abscisse curviligne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
35.1.11.4 Courbures non algébrique et algébrique . . . . . . . . . . . . . . . . . . . . . . . 425
35.1.12 Repère de Frénet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
35.1.12.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
35.1.12.2 Torsion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
35.1.12.3 Formules donnant la torsions et la courbure . . . . . . . . . . . . . . . . . . . . 426

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426

Glossaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426

Table des matières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426

Vous aimerez peut-être aussi