dualite-241118210228-bc0384b3
dualite-241118210228-bc0384b3
dualite-241118210228-bc0384b3
Geoffrey Deperle
Table des matières
1 Forme linéaire et hyperplans 2
1.1 Formes linéaires : Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Interlude topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Références 22
Introduction
Lorsque l’on commence à étudier les systèmes d’équations linéaires, on a pour habitude de
chercher à déterminer une base de solution d’un système. Pourtant, la description d’un espace
vectoriel à partir d’un système d’équations apporte un point de vue géométrique fructueux, on
étudie alors un espace vectoriel à partir de propriétés linéaires qu’il vérifie : plus précisément
un espace vectoriel peut être déterminé comme les zéros d’une famille de formes linéaires.
Ainsi, pour construire un vecteur vérifiant certaines propriétés, il est parfois avantageux de
traduire cette propriété dans l’espace dual afin d’utiliser des résultats d’algèbre linéaire sur cet
espace. Par correspondance entre un espace vectoriel et son espace dual, on peut alors remonter
à notre espace initial. La théorie de l’interpolation de Lagrange ou des polynômes de Hilbert
sont par exemple des illustrations de cette idée.
L’autre avantage de cette vision géométrique est l’idée que l’on peut généraliser des notions
de nature euclidienne. Parmi elles, la notion d’orthogonalité qui permet d’étudier les espaces
de dimension k en étudiant des espaces de dimension n − k.
1
1 Forme linéaire et hyperplans
Dans cette partie, E désigne un K-espace vectoriel quelconque et K un corps quelconque de
caractéristique différente de 2.
Définition 1. Une forme linéaire sur E est un élément de L(E, K), autrement dit une
application linéaire φ : E → K.
On appelle dual de E est le K-espace vectoriel L(E, K). On le note E ∗ .
Exemple 2. L’application
f : R3 → R
(x, y, z) 7→ x + 2y − z
Exemple 4. L’application
est une forme linéaire sur C([0, 1], R) l’ensemble des fonctions continues sur [0, 1].
u
E F
t
u(φ) φ
Exemple 6. Soit
u : Kn [X] → Kn [X]
P 7→ P (X + 1)
On a pour φ ∈ Kn [X], t u(φ) = φ ◦ u d’où ∀P ∈ Kn [X], t u(φ)(P ) = φ(P (X + 1)).
2
1.2 Hyperplans
1.2.1 Définition et propriétés
Notons que dans un espace vectoriel de dimension n, un hyperplan est le noyau d’une forme
linéaire non nulle donc de rang 1, d’après le théorème du rang, un hyperplan est donc de di-
mension n − 1. La réciproque est vraie : tout sous-espace vectoriel de dimension n − 1 est un
hyperplan.
Preuve : Le sens direct est une conséquence du théorème du rang. Montrons le sens réci-
proque.
Soit H un sous-espace vectoriel de E de dimension n − 1, il s’agit de construire une forme
linéaire φ tel que H = Kerφ.
Soit (e1 , . . . , en−1 ) une base de H que l’on complète en une base (e1 , . . . , en−1 , en ). La forme
linéaire φ définie sur cette base comme φ(ei ) = 0 pour i ∈ [[1, n − 1]] et φ(en ) = 1 est une forme
linéaire non nulle dont le noyau est H. □
Ainsi, en dimension finie, tout hyperplan admet un supplémentaire qui est une droite vec-
torielle. Ce résultat est en réalité toujours vrai même sans l’hypothèse de dimension :
Preuve : Soit φ tel que H = Kerφ. Comme φ est non-identiquement nulle, il existe x0 tel
que φ(x0 ) 6= 0. Montrons que E = H ⊕ Kx0 .
Analyse :
Soit x ∈ E, si x admet une décomposition de la forme x = xH + λx0 avec xH ∈ H.
φ(x)
En appliquant φ, on a φ(x) = λφ(x0 ) d’où comme φ(x0 ) 6= 0, on a λ = . On a alors
φ(x0 )
φ(x)
xH = x − x0 .
φ(x0 )
Synthèse :
En posant xH = x − φ(x φ(x)
0)
φ(x)
x0 et λ = φ(x 0)
. On a alors bien x = xH + λx0 et xH ∈ Kerφ.
D’où E = H + Kx0 .
Et la somme est directe car comme x0 ∈ / H, on a H ∩ Kx0 = {0}. □
3
On peut également caractériser les formes linéaires avec leurs hyperplans :
Proposition 12. Soit φ et ψ deux formes linéaires tel que Kerψ ⊂ Kerφ si et seulement
si il existe λ ∈ K tel que φ = λψ.
Preuve : Si il existe λ ∈ K tel que φ = λψ alors pour tout x ∈ Kerψ, φ(x) = λψ(x) = 0.
Supposons que Kerψ ⊂ Kerφ.
Si ψ = 0, alors Kerψ = E d’où Kerφ = E d’où φ = 0 et tout λ convient.
Si ψ 6= 0, il existe x0 tel que ψ(x0 ) 6= 0, posons λ = ψ(x
φ(x0 )
0)
. Montrons que ce λ convient.
D’après la propriété précédente, on a la décomposition E = Kerψ ⊕ Kx0 . Pour montrer que
φ = ψ, montrons qu’ils coïncident sur Kerψ et sur Kx0 .
Soit x ∈ Kerψ, alors φ(x) = 0 car Kerψ ⊂ Kerφ.
Soit x ∈ Kx0 , il existe µ ∈ K tel que x = µx0 , d’où φ(x) = µφ(x0 ) = µ ψ(x φ(x0 )
0)
ψ(x0 ). Donc les
deux applications coïncident sur Kx0 .
Ainsi, il existe λ tel que φ = λψ. □
Exemple
Z
13. Supposons qu’il
Z
existe u ∈ C([0, 1], R) tel que pour toute fonction v ∈ C([0, 1], R),
1 1
tel que v(t) dt = 0, on a u(t)v(t) dt = 0. Alors u est constant.
0 Z 1 0 Z 1
En effet, posons ψ : v 7→ v(t) dt et φ : v 7→ u(t)v(t) dt.
0 0
L’hypothèse se traduit par KerψZ ⊂ Kerφ donc d’après le théorème, il existe λ ∈ R tel que
1
φ = λψ. Donc ∀v ∈ C([0, 1], R), (u(t) − λ)v(t) dt = 0. En particulier pour v = u − λ, on a
Z 1 0
(u(t) − λ) dt = 0. Donc comme t 7→ (u(t) − λ)2 est continue sur [0, 1] d’intégrale nulle, on
2
0
a ∀t ∈ [0, 1], u(t) = λ.
Ce théorème admet une interprétation géométrique. En effet, chercher les solutions d’un
système d’équations linéaires AX = 0 :
a x + · · · + a1n xn = 0
11 1
..
.
a x + · · · + a x = 0
n1 1 nn n
revient à déterminer l’espace définie comme l’intersection des hyperplans Hi définie par l’équa-
tion Hi : ai1 x1 + · · · + ain xn = 0.
Le théorème précédent permet de minorer la dimension de l’espace des dimensions : au maxi-
mum la dimension du nombre de solution est égale au nombre d’inconnus moins le nombre
4
d’équations.
Application 15. Soit A ∈ Mn (K) une matrice trigonalisable. Calculer la dimension du com-
mutant de A revient à déterminer la dimension de S l’ensemble des solutions de l’équation
AX − XA = 0
Théorème 17. Soit f une forme linéaire de E, f est continue si et seulement si Kerf
est fermée
5
Preuve : Si f est continue, alors comme Kerf = f −1 ({0}) est fermé en tant qu’image
réciproque du fermé {0} par l’application continue f .
Supposons Kerf fermé, montrons que f est continue. Par l’absurde, supposons f non continue,
alors f n’est pas bornée sur la sphère unité :
En particulier, xn ∈
/ Kerf ,
f (u) f (u)
Soit u ∈ E, on a la décomposition u = (u − xn ) + xn avec u − f (u)
x
f (xn ) n
∈ Ker(f ).
f (xn ) f (xn )
|f (u)|
Or, || ff(x(u)n ) xn || = | ff(x(u)n ) | ≤ n
donc la suite u − ff(x(u)n ) xn lim u.
n→+∞
Or, comme Ker(f ) est fermé, on a u ∈ Ker(f ), u étant quelconque, f est l’application nulle ce
qui contredit la non-continuité de f . □
Remarque 18. Dans le cas de la dimension finie, toute forme linéaire est continue.
Dans le cas où cette condition est remplie, on peut calculer explicitement la norme de la
forme linéaire. Cette norme dépend de la distance entre un élément x0 ∈/ Ker(f ) et Kerf .
Proposition 19. Soit f une forme linéaire continue non nulle sur E et soit x0 ∈ E tel
que f (x0 ) 6= 0.
|f (x0 )|
|||f ||| =
d(x0 , Kerf )
Preuve : Comme x0 ∈ / Kerf , on a d(x0 , Kerf ) > 0. Pour x ∈ Ker, |f (x0 ) = |f (x0 )−f (x)| ≤
|||f |||d(x0 , Kerf ). D’où en passant à la borne inférieure, |f (x0 )| ≤ |||f |||d(x0 , Kerf ).
Montrons l’inégalité inverse, soit x ∈ E, en utilisant la décomposition x = λx0 +y avec λ = ff(x (x)
0)
.
Or,
||x|| 1
= ||x0 + y|| ≥ d(x0 , Kerf )
λ λ
. En utilisant l’expression de λ,
|f (x)| ||x||
≤
|f (x0 )| d(x0 , Kerf )
|f (x0 )| |f (x0 )|
donc |f (x)| ≤ ||x|| × d(x0 ,Kerf )
. D’où la majoration pour la norme triple |||f ||| ≤ d(x0 ,Kerf )
.
□
6
2 Bases duales en dimension finie
Dans cette partie, E désigne un K-espace vectoriel de dimension finie.
La forme linéaire e∗i est appelée ième forme linéaire coordonnées selon la base B. En
effet, pour x ∈ E e∗i (x) donne la ième coordonnée de x dans la base B. On a alors
Proposition 20. La famille (e∗1 , . . . , e∗n ) est une base de E ∗ appelée base duale de B.
X
n
λi e∗i (ej ) = λj = 0
i=1
d’où ∀j ∈ [[1, n]], λj = 0. La famille est donc libre. Comme c’est une famille libre de n vecteurs
dans un espace de dimension n, il s’agit d’une base de E ∗ . □
X
n
∀φ ∈ E ∗ , φ = φ(ei )e∗i
i=1
X
n
Cette égalité peut s’écrire matriciellement : En écrivant pour x ∈ E : x = xi ei .L’écriture
i=1
x1
.
de la matrice de x dans la base B : X =
.. nous invite à considérer la matrice φ comme un
xn
7
vecteur ligne φ(e1 ) . . . φ(en ) .
L’égalité s’écrit alors
x
1
φ(x) = φ(e1 ) . . . φ(en ) ...
xn
Remarque 21. On peut noter un premier point de la dualité, si on considère les vecteurs
comme des vecteurs colonnes, on considère plutôt les formes linéaires comme des vecteurs
lignes. Bien que les notations soient isomorphes, écrire les choses ainsi permet de comprendre
la relation entre les formes linéaires et les vecteurs.
Remarque 22. L’isomorphisme entre E et son dual E ∗ n’est vrai qu’en dimension finie. En
effet pour l’espace vectoriel des polynômes K[X], on a K[X]∗ ' KN . En effet,
Ψ : KN → K[X]∗
Ψa : K[X] → K
a = (an )n∈N 7→ X
r X
r
P = pi X i 7→ p i ai
i=1 i=1
Ψ est bien linéaire et injective et est surjective car pour φ ∈ K[X]∗ , on prend an = φ(X n ) et
on a alors Ψa = φ. Mais les deux espaces ne sont pas isomorphes car K[X] est de dimension
dénombrable alors que KN est non-dénombrable. On retiendra qu’il existe toujours une injection
entre E et son dual E ∗ donc l’espace dual est toujours "plus grand" que l’espace initial.
Preuve : Il s’agit de la définition de la matrice d’une application linéaire dans une base.
□
Cette caractérisation permet d’étudier la matrice de l’application transposée exprimé dans les
bases duales :
8
Proposition 24. Soit u ∈ L(E, F ) et B1 une base de E et B2 une base de F . Si M est la
matrice de u dans les bases B1 et B2 alors t M est la matrice de t u dans les bases duales
B2∗ et B1∗ .
Preuve : Soit φ ∈ F ∗ , on a
Remarque 27. Cette propriété est bien compatible avec la représentation matricielle des ap-
plications transposées.
9
2.2.1 Rn et Cn
En prenant ei = (0, . . . , 0, 1, 0, . . . , 0) les vecteurs de la base canonique, on a donc d’après
la formule pour x = (x1 , . . . , xn ) :
X
n
φ(x) = φ(ei )xi
i=1
Remarque 28. L’exemple 1 étant une forme linéaire donnée sous cette forme. Le théorème
montre que toutes les formes linéaires sur Kn sont de cette forme.
Ainsi :
Proposition 29. Pour toute forme linéaire φ ∈ Mn,k (K)∗ , il existe une unique matrice
A ∈ Mk,n (K) tel que pour tout M ∈ Mn,k (K), φ(M ) = tr(AM ).
10
Lemme 31. Soit B1 = (e1 , . . . , en ) et B2 = (f1 , . . . , fn ) deux bases de E. Soit u l’unique
endomorphisme envoyant les ei sur les fi . Alors ΨB1 = t uΨB2 u.
Preuve : Montrons que les deux applications coïncident sur la base B1 . Soit i ∈ [[1, n]]
Supposons qu’il existe un isomorphisme "universel" qui envoie toute base sur sa base duale.
On a pour toute matrice inversible t M M = In . Absurde. Donc un tel isomorphisme n’existe pas.
J : E → E ∗∗
x̃ : E ∗ → K
x 7→
φ 7→ φ(x)
Proposition 36. Soit (φ1 , . . . , φn ) une base de E ∗ , il existe une unique famille
(e1 , . . . , en ) appelée base antéduale de (φ1 , . . . , φn ) tel que ∀i, j ∈ [[1, n]], φi (ej ) = δij
11
Preuve : Il suffit de prendre la base duale (φ∗1 , . . . , φ∗n ) de (φ1 , . . . , φn ) qui est une base de
E . Posons pour i ∈ [[1, n]], ei = J −1 (φ∗i ).
∗∗
On a alors pour i, j ∈ [[1, n]], φi (ej ) = φi (J −1 (φ∗j )) = J(J −1 (φ∗j ))(φi ) = φ∗j (φi ) = δij .
L’unicité vient de la proposition 1. □
Proposition 37. Soit B une base de E et B ∗ sa base duale. Alors pour tout x ∈ E, on
a x̃ = (ΨB∗ ◦ ΨB )(x).
X
n
Preuve : Notons B = (e1 , . . . , en ) et B ∗ = (e∗1 , . . . , e∗n ). Notons x = xi ei la décomposition
i=1
de x dans B.
On a
X
n
Ψ ((ΨB (x))) =
B∗ xi e∗∗
i
i=1
X
n
Soit φ ∈ E ∗ , décomposons φ dans la base B ∗ : φ = φ(ei )e∗i .
i=1
X
n X
n
ΨB∗ ((ΨB (x)))(φ) = xi e∗∗
i
φ(ej )e∗j
i=1 j=1
Xn Xn
= xi φ(ej )e∗∗ ∗
i (ej )
i=1 j=1
Xn
= xi φ(ei )
i=1
= φ(x)
□
Ainsi, peu importe la base que l’on prend, en itérant deux fois l’isomorphisme Ψ, on retrouve
la même application.
Remarque 39. Cette notation n’est pas sans rappeler celle du produit scalaire : il s’agit d’une
application linéaire par rapport à chaque variable et symétrique. La différence fondamentale
est qu’il s’agit d’une application bilinéaire sur E × E ∗ et pas sur E × E.
L’identification entre un espace et son bidual peut se voir également avec l’application trans-
posée :
Preuve : On a t (t u) ∈ L(E ∗∗ , F ∗∗ ).
g
Soit x̃ ∈ E ∗∗ , on a (J ◦ u ◦ J −1 )(x̃) = J(u(x)) = u(x).
12
Or, t (t u)(x̃) = x̃ ◦ t u, pour φ ∈ E ∗ , on a (x̃ ◦ t u)(φ) = x̃(φ ◦ u) = (φ ◦ u)(x) = φ(u(x)) donc on
g
a t (t u)(x̃) = u(x). □
Cette proposition permet donc d’identifier une application linéaire avec la transposée de sa
transposée.
Nous présentons également un lemme, très utile pour plusieurs preuves, dont la preuve né-
cessite la notion de base antéduale :
\
k
Kerφi ⊂ Kerφ ⇐⇒ φ ∈ Vect(φ1 , . . . , φk )
i=1
13
Application 1 : Polynômes interpolateurs de Lagrange Soit (α1 , . . . , αn ) n réels dis-
tincts on pose pour i ∈ [[1, n]], le polynôme annulateur de Lagrange :
Y
n
X − αj
Li =
j=1 αi − αj
j6=i
14
Application 3 : Formule de Taylor polynômiale
Soit a ∈ K,
Considérons à présent la famille de polynôme (Q0 , . . . , Qn ) définie pour i ∈ [[1, n]] par Qi =
(X − a)i
et la famille de formes linéaires (φ0 , . . . , φn ) définie pour i ∈ [[1, n]] par φi = P (i) (a).
i!
On peut vérifier que l’on a bien ∀i, j ∈ [[1, n]], φi (Qj ) = δij . Le lemme donne alors la formule
suivante, appelée formule de Taylor :
X
n
(X − a)k
∀P ∈ Rn [X], P = P (k) (a)
k=0 k!
Remarque 44. Notons que la formule du binôme de Newton peut-être vu comme conséquence
de cette formule.
En effet, en prenant le polynôme P = X n , on a en dérivant successivement
n
P (a) = k k!(a)n−k d’où
(k)
!
Xn
n
Xn = an−k (X − a)k
k=0 k
Donc en X = a + b, on a obtient
!
X
n
n n−k k
n
(a + b) = a b
k=0 k
15
3 Orthogonalité dans les espaces duales
3.1 Orthogonalité : le cas général
Toujours dans l’optique de donner des propriétés géométriques aux espaces vectoriels et
dans la logique de la notation du crochet de dualité, nous allons définir l’orthogonal d’un sous-
espace vectoriel de E.
E∗ → F ∗
Preuve : Posons u : u est linéaire et on a F ⊥ = Keru donc c’est un
φ 7→ φ|F
sous-espace vectoriel de E ∗ .
De plus, surjective : en effet, soit ψ ∈ F ∗ . Soit G un supplémentaire de F , on définit une
fonction φ sur la décomposition E = F ⊕ G par φ( xF + xG ) = ψ(xF ). On a ψ = u(φ).
|{z} |{z}
∈F ∈G
D’après le théorème du rang, on a dim(E ∗ ) = rgu + dim ker u d’où dim F ⊥ = dim E − dim F .
□
dimension, on a (F ⊥ )⊥ = J(F ).
Preuve :
(i) (⊂) Soit ψ ∈ Ker(t u). Montrons que ψ ∈ Im(u)⊥ . Soit y ∈ Im(u), il existe x ∈ E tel que
y = u(x). On a ψ(u(x)) = t u(ψ)(x) = 0.
(⊃) Soit ψ = Im(u)⊥ . Montrons que ψ ∈ Ker(t u). On a t u(ψ) = ψ ◦ u. Soit x ∈ E, on a
(ψ ◦ u)(x) = ψ(u(x)) = 0 car ψ ∈ Im(u)⊥ d’où ψ ◦ u = 0 et donc ψ ∈ Ker(t u).
(ii) (⊂) Soit ψ ∈ Im(t u). Il existe φ tel que ψ = t u(φ) = φ ◦ u. Soit x ∈ Keru, on a
ψ(x) = φ(u(x)) = 0. D’où y ∈ Ker(u)⊥ .
On a dim Im(t u) = rg(t u) = rgu et dim Ker(u)⊥ = dim E − dim Keru = rgu par théorème
du rang donc par égalité des dimensions, on a Im(t u) = Ker(u)⊥ .
□
On a également un résultat de stabilité, très utile pour des preuves d’existences :
16
Proposition 49. Soit u ∈ L(E, E 0 ) et F un sous-espace vectoriel de E alors
Preuve : Supposons que F est stable par u. Montrons que F ⊥ est stable par t u. Soit
φ ∈ F ⊥ et x ∈ F , on a t u(φ)(x) = φ(u(x)) = 0 car u(x) ∈ F d’où t u(φ) ∈ F ⊥ .
Le sens réciproque se montre par un argument de bidualité que l’on développera plus tard.
□
Passons à un procédé de construction de l’orthogonal F ⊥ ce qui permet de mieux com-
prendre la notion d’orthogonalité.
Preuve : L’idée est de construire une base de trigonalisation par récurrence en utilisant
un supplémentaire isomorphe à l’orthgonal.
La sens direct est clair par calcul du polynôme caractéristique. Montrons le sens réciproque.
Effectuons une récurrence sur la dimension.
Si dim E = 1, alors χu est scindé car de degré 1 et u est toujours trigonalisable car sa matrice
est un scalaire. D’où la propriété est vrai pour dim E = 1.
Supposons que la propriété est vrai pour tous les espaces vectoriels de dimension n ∈ N.
Montrons qu’elle est vraie pour les espaces de dimension n + 1.
Soit u ∈ L(E) avec E de dimension n + 1.
χu est scindé donc admet une racine λ qui est donc valeur propre de u. Soit x0 un vecteur
propre de u associé à λ, la droite vectorielle Vect(x0 ) est stable par u.
Par la propriété précédente, Vect(x0 )⊥ est stable par t u. L’endomorphisme induit v par t u sur
Vect(x0 )⊥ est un endomorphisme d’un espace de dimension n.
Comme χt u = χu (car une matrice et sa transposée ont même polynôme caractéristique). et
χv |χt u qui est scindé, alors χv est scindé donc v est trigonalisable par hypothèse.
Il existe une base (φ1 , . . . , φn ) tel que la matrice de v dans cette base est triangulaire supérieure.
En complétant cette matrice en une base B de E ∗ , la matrice de t u dans B est triangulaire
supérieure donc t u est trigonalisable et donc u est trigonalisable (car sa matrice dans la base
antédual de B est la transposée de la matrice de t u dans B). □
Construction de F ⊥
Considérons un sous-espace vectoriel F de dimension k de base (e1 , . . . , ek ).
Considérons sa base duale (e∗1 , . . . , e∗k ). On peut la compléter en une base (e∗k+1 , . . . , e∗n ). On a
alors F ⊥ = Vect(e∗k+1 , . . . , e∗n ).
Preuve : Par égalité des dimensions, il suffit de montrer que pour tout i ∈ [[k + 1, n]], ei ∈
⊥
F .
X
k
Soit x ∈ F , il existe x se décompose dans la base (e1 , . . . , ek ) en x = xj ej .
j=1
17
X
k X
k
On a e∗i xj e j = xj e∗i (ej ) = 0. □
j=1 j=1 | {z }
=0
Nous allons à présent la notion d’orthogonal en tant que sous-espace vectoriel de E :
F ◦ = J −1 (F ⊥ )
Preuve :
F ◦ = {x ∈ E | ∀φ ∈ F, φ(x) = 0}
= {x ∈ E | ∀φ ∈ F, J(x)(φ) = 0}
= {x ∈ E | J(x) ∈ F ⊥ }
= J −1 (F ⊥ )
□
Ainsi, on en déduit les propriétés suivantes :
18
Cette construction est symétrique par rapport à la construction de F ⊥ pour F sous-espace
vectoriel de E. Cela permet d’en déduire les propositions suivantes :
Application 56. Les applications f dérivables tel que les translatés (ie les applications
fa : x 7→ f (x + 1) pour a ∈ R) engendrent un espace vectoriel de dimension finie sont les
solutions d’une équation linéaire homogène à coefficients constants.
19
X
n
F . Donc il existe λ1 (a), . . . , λn (a) tel que ga = λi (a)fai .
i=1 Pn
Montrons que les λi (a) sont dérivables, On a g(a + xj ) = ga (xj ) = i=1 λi (a)fai (xj ). D’où
matriciellement,
g(a + x1 ) λ1 (a)
. t .
.. = M .
.
g(a + xn ) λn (a)
λ1 (a) g(a + x1 )
. t −1
..
⇐⇒
.
. = M
.
λn (a) g(a + xn )
Comme les coefficients de M ne dépendent pas de a, les λi (a) sont dérivables en tant que com-
binaisons linéaires des gxi .
P
Ainsi, comme ∀x ∈ R, g(x + a) = ni=1 λi (a)fai (x), on a en dérivant par rapport à a, ∀x ∈
P
R, g 0 (x + a) = ni=1 λ0i (a)fai (x).
P
Pour a = 0, on a donc g 0 = ni=1 λ0i (0)fai ∈ F .
Ainsi, F est stable par la dérivation, donc en itérant on a g ∈ C ∞ et pour tout k ∈ N, g (k) ∈ F .
Ainsi pour f , on a ∀k ∈ N, f (k) ∈ F . Or, dim F = n donc il existe un entier p ∈ [[1, n]] tel
que f (p) ∈ Vect{f, f 0 , . . . , f (p−1) } d’où f est solution d’une équation différentielle homogène à
coefficients constants. □
Proposition 57.
(i) Soit F et G deux sous-espaces vectoriels de E alors
— (F + G)⊥ = F ⊥ ∩ G⊥
— (F ∩ G)⊥ = F ⊥ + G⊥
(ii) Soit V et W deux sous-espaces vectoriels de E ∗ alors
— (V + W )◦ = V ◦ ∩ W ◦
— (F ∩ G)◦ = V ◦ + W ◦
Preuve :
(i) — On a déjà F ⊂ F + G donc (F + G)⊥ ⊂ F ⊥ et de même (F + G)⊥ ⊂ G⊥ d’où
(F + G)⊥ ⊂ F ⊥ ∩ G⊥ .
Soit φ ∈ F ⊥ ∩ G⊥ , soit x ∈ F + G, il existe xF ∈ F, xG ∈ G tel que x = xF + xG . On a
alors φ(x) = φ(xF ) + φ( xG ) = 0 d’où F ⊥ ∩ G⊥ ⊂ (F + G)⊥ d’où F ⊥ ∩ G⊥ =( F + G)⊥ .
— On a F ∩ G ⊂ F donc F ⊥ ⊂ (F ∩ G)⊥ et F ∩ G ⊂ G donc G⊥ ⊂ (F ∩ G)⊥ d’où
F ⊥ + G⊥ ⊂ (F ∩ G)⊥ .
D’après la formule de Grassmann, on a
dim(F ⊥ + G⊥ ) = dim(F ⊥ ) + dim(G⊥ ) − dim(F ⊥ ∩ G⊥ )
. Or, d’après ce qui précède, F ⊥ ∩ G⊥ = (F + G)⊥ . D’où dim(F ⊥ + G⊥ ) = dim E −
dim(F )−dim(G)+dim(F +G) = dim E−dim(F ∩G) d’après la formule de Grassmann,
d’où
dim(F ⊥ + G⊥ ) = dim((F ∩ G)⊥ )
il y a donc égalité des deux espaces.
(ii) La preuve est similaire à celle du (i).
□
20
3.2 Lien avec les espaces euclidiens
Résumons la correspondance entre les notions euclidiennes et la dualité.
F ⊥ = {x ∈ E | ∀y ∈ F, hx, yi = 0} F ⊥ = {φ ∈ E ∗ | ∀x ∈ F, hx, φi = 0}
V ◦ = {x ∈ E | ∀φ ∈ V, hx, φi = 0}
Pour finir, le théorème de Riesz fait le lien entre la dualité et les espaces euclidiens en montrant
que toute forme linéaire d’un espace euclidien est un produit scalaire contre un vecteur.
Théorème 58. Soit φ une forme linéaire sur E espace vectoriel euclidien. Il existe un
unique vecteur x ∈ E tel que pour tout y ∈ E, φ(x) = hx, yi.
J : E → E∗
J(x) : E → K
x 7→
y 7→ hx, yi
21
Références
[1] Grégory Berhuy. Algèbre : le grand combat. Calvage Mounet, 2018.
[2] Michel Cognet. Algèbre linéaire. Bréal, 2000.
[3] Xavier Gourdon. Les maths en tête : Algèbre. Ellipses, 2009.
[4] Serge Nicolas Serge Francinou Hervé Gianella. Oraux X-ENS, Algèbre 1. Cassini, 2007.
22