dualite-241118210228-bc0384b3

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 23

Formes linéaires et dualité

Geoffrey Deperle
Table des matières
1 Forme linéaire et hyperplans 2
1.1 Formes linéaires : Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Interlude topologique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Bases duales en dimension finie 7


2.1 Bases duales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Exemples : dualité de certains espaces vectoriels . . . . . . . . . . . . . . . . . . 9
2.3 Base Bidual : applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.4 Applications de la bidualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3 Orthogonalité dans les espaces duales 16


3.1 Orthogonalité : le cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2 Lien avec les espaces euclidiens . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

Références 22

Introduction
Lorsque l’on commence à étudier les systèmes d’équations linéaires, on a pour habitude de
chercher à déterminer une base de solution d’un système. Pourtant, la description d’un espace
vectoriel à partir d’un système d’équations apporte un point de vue géométrique fructueux, on
étudie alors un espace vectoriel à partir de propriétés linéaires qu’il vérifie : plus précisément
un espace vectoriel peut être déterminé comme les zéros d’une famille de formes linéaires.

Ainsi, pour construire un vecteur vérifiant certaines propriétés, il est parfois avantageux de
traduire cette propriété dans l’espace dual afin d’utiliser des résultats d’algèbre linéaire sur cet
espace. Par correspondance entre un espace vectoriel et son espace dual, on peut alors remonter
à notre espace initial. La théorie de l’interpolation de Lagrange ou des polynômes de Hilbert
sont par exemple des illustrations de cette idée.

L’autre avantage de cette vision géométrique est l’idée que l’on peut généraliser des notions
de nature euclidienne. Parmi elles, la notion d’orthogonalité qui permet d’étudier les espaces
de dimension k en étudiant des espaces de dimension n − k.

1
1 Forme linéaire et hyperplans
Dans cette partie, E désigne un K-espace vectoriel quelconque et K un corps quelconque de
caractéristique différente de 2.

1.1 Formes linéaires : Généralités


1.1.1 Définition et premiers exemples

Définition 1. Une forme linéaire sur E est un élément de L(E, K), autrement dit une
application linéaire φ : E → K.
On appelle dual de E est le K-espace vectoriel L(E, K). On le note E ∗ .

Exemple 2. L’application

f : R3 → R
(x, y, z) 7→ x + 2y − z

est une forme linéaire sur R3 .

Exemple 3. L’application tr est une forme linéaire sur Mn (K).

Exemple 4. L’application

I : C([0, 1], R) → C([0, 1], R)


Z 1
f 7→ f (t) dt
0

est une forme linéaire sur C([0, 1], R) l’ensemble des fonctions continues sur [0, 1].

1.1.2 Application transposée


On aimerait "traduire" l’effet d’une application linéaire dans notre espace dual. Pour cela,
vient la notion de transposée qui permet de faire commuter le diagramme suivant :

u
E F
t
u(φ) φ

Définition 5. Soit u ∈ L(E, F ), on appelle transposée de u noté t u l’application t u ∈


L(F ∗ , E ∗ ) définie par
t
u : F ∗ → E∗
φ 7→ φ ◦ u

Exemple 6. Soit
u : Kn [X] → Kn [X]
P 7→ P (X + 1)
On a pour φ ∈ Kn [X], t u(φ) = φ ◦ u d’où ∀P ∈ Kn [X], t u(φ)(P ) = φ(P (X + 1)).

2
1.2 Hyperplans
1.2.1 Définition et propriétés

Définition 7. On appelle hyperplan de E le noyau d’une forme linéaire non identique-


ment nulle.

Exemple 8. L’ensemble {(x, y, z) ∈ R3 | x − 2y + 3z = 0} est un hyperplan en tant que noyau


de la forme linéaire φ : (x, y, z) 7→ x − 2y + 3z.

Notons que dans un espace vectoriel de dimension n, un hyperplan est le noyau d’une forme
linéaire non nulle donc de rang 1, d’après le théorème du rang, un hyperplan est donc de di-
mension n − 1. La réciproque est vraie : tout sous-espace vectoriel de dimension n − 1 est un
hyperplan.

Proposition 9. Soit E un espace vectoriel de dimension finie n, H un sous-espace vec-


toriel de E.
H est un hyperplan de E ⇐⇒ dim H = n − 1

Preuve : Le sens direct est une conséquence du théorème du rang. Montrons le sens réci-
proque.
Soit H un sous-espace vectoriel de E de dimension n − 1, il s’agit de construire une forme
linéaire φ tel que H = Kerφ.
Soit (e1 , . . . , en−1 ) une base de H que l’on complète en une base (e1 , . . . , en−1 , en ). La forme
linéaire φ définie sur cette base comme φ(ei ) = 0 pour i ∈ [[1, n − 1]] et φ(en ) = 1 est une forme
linéaire non nulle dont le noyau est H. □

Remarque 10. En dimension quelconque, on a le résultat suivant : H est un hyperplan de E


⇐⇒ codimH = 1. (La codimension étant définie par la dimension de l’espace quotient E/H)

Ainsi, en dimension finie, tout hyperplan admet un supplémentaire qui est une droite vec-
torielle. Ce résultat est en réalité toujours vrai même sans l’hypothèse de dimension :

Théorème 11. Soit H un hyperplan de E, il existe x0 ∈ E tel que E = H ⊕ Kx0 . Ainsi,


tout hyperplan admet un supplémentaire de dimension 1.

Preuve : Soit φ tel que H = Kerφ. Comme φ est non-identiquement nulle, il existe x0 tel
que φ(x0 ) 6= 0. Montrons que E = H ⊕ Kx0 .
Analyse :
Soit x ∈ E, si x admet une décomposition de la forme x = xH + λx0 avec xH ∈ H.
φ(x)
En appliquant φ, on a φ(x) = λφ(x0 ) d’où comme φ(x0 ) 6= 0, on a λ = . On a alors
φ(x0 )
φ(x)
xH = x − x0 .
φ(x0 )
Synthèse :
En posant xH = x − φ(x φ(x)
0)
φ(x)
x0 et λ = φ(x 0)
. On a alors bien x = xH + λx0 et xH ∈ Kerφ.
D’où E = H + Kx0 .
Et la somme est directe car comme x0 ∈ / H, on a H ∩ Kx0 = {0}. □

3
On peut également caractériser les formes linéaires avec leurs hyperplans :

Proposition 12. Soit φ et ψ deux formes linéaires tel que Kerψ ⊂ Kerφ si et seulement
si il existe λ ∈ K tel que φ = λψ.

Preuve : Si il existe λ ∈ K tel que φ = λψ alors pour tout x ∈ Kerψ, φ(x) = λψ(x) = 0.
Supposons que Kerψ ⊂ Kerφ.
Si ψ = 0, alors Kerψ = E d’où Kerφ = E d’où φ = 0 et tout λ convient.
Si ψ 6= 0, il existe x0 tel que ψ(x0 ) 6= 0, posons λ = ψ(x
φ(x0 )
0)
. Montrons que ce λ convient.
D’après la propriété précédente, on a la décomposition E = Kerψ ⊕ Kx0 . Pour montrer que
φ = ψ, montrons qu’ils coïncident sur Kerψ et sur Kx0 .
Soit x ∈ Kerψ, alors φ(x) = 0 car Kerψ ⊂ Kerφ.
Soit x ∈ Kx0 , il existe µ ∈ K tel que x = µx0 , d’où φ(x) = µφ(x0 ) = µ ψ(x φ(x0 )
0)
ψ(x0 ). Donc les
deux applications coïncident sur Kx0 .
Ainsi, il existe λ tel que φ = λψ. □

Exemple
Z
13. Supposons qu’il
Z
existe u ∈ C([0, 1], R) tel que pour toute fonction v ∈ C([0, 1], R),
1 1
tel que v(t) dt = 0, on a u(t)v(t) dt = 0. Alors u est constant.
0 Z 1 0 Z 1
En effet, posons ψ : v 7→ v(t) dt et φ : v 7→ u(t)v(t) dt.
0 0
L’hypothèse se traduit par KerψZ ⊂ Kerφ donc d’après le théorème, il existe λ ∈ R tel que
1
φ = λψ. Donc ∀v ∈ C([0, 1], R), (u(t) − λ)v(t) dt = 0. En particulier pour v = u − λ, on a
Z 1 0

(u(t) − λ) dt = 0. Donc comme t 7→ (u(t) − λ)2 est continue sur [0, 1] d’intégrale nulle, on
2
0
a ∀t ∈ [0, 1], u(t) = λ.

1.2.2 Intersections d’hyperplan

Proposition 14. Soit H1 , . . . , Hk k hyperplans distincts de E. On a dim(H1 ∩· · ·∩Hk ) ≥


n − k.

Preuve : Pour i ∈ [[1, n]], Hi = Kerφi .


Posons φ = (φ1 , . . . , φk ).
On a x ∈ Kerφ ⇐⇒ ∀i ∈ [[1, n]]x ∈ Kerφi ⇐⇒ x ∈ H1 ∩ · · · ∩ Hk .
D’après le théorème du rang, on a dim Kerφ = dim E −rgφ. Or comme Imφ ⊂ Kk , on a rgφ ≤ k
d’où dim(H1 ∩ · · · ∩ Hk ) ≥ n − k. □

Ce théorème admet une interprétation géométrique. En effet, chercher les solutions d’un
système d’équations linéaires AX = 0 :


a x + · · · + a1n xn = 0

 11 1
..
 .


a x + · · · + a x = 0
n1 1 nn n

revient à déterminer l’espace définie comme l’intersection des hyperplans Hi définie par l’équa-
tion Hi : ai1 x1 + · · · + ain xn = 0.
Le théorème précédent permet de minorer la dimension de l’espace des dimensions : au maxi-
mum la dimension du nombre de solution est égale au nombre d’inconnus moins le nombre

4
d’équations.

Application 15. Soit A ∈ Mn (K) une matrice trigonalisable. Calculer la dimension du com-
mutant de A revient à déterminer la dimension de S l’ensemble des solutions de l’équation

AX − XA = 0

où l’inconnue est X = (Xij )1≤i,j≤n ∈ Mn (K).


Quitte à se placer dans une nouvelle base, on peut supposer A triangulaire supérieure. En
restreignant le système à Tn (K) l’ensemble des matrices triangulaires supérieures, nous avons
n(n+1)
2
inconnues. Comme AX − XA est triangulaire supérieure, dire que X est solution revient
à écrire n(n+1)
2
équations correspondant à la nullité des coefficients de AX − XA dans la partie
supérieure. Or, on peut retirer n équations traduisant la nullité des coefficients diagonaux.
Ce système homogène a donc seulement n(n+1) 2
− n = équations pour n(n+1)
2
inconnues. Donc
l’espace des solutions est au moins de dimension n.

Ce théorème admet une réciproque :

Proposition 16. Soit F un sous-espace vectoriel de dimension n − k, il existe k hyper-


plans H1 , . . . , Hk tel que F = H1 ∩ · · · ∩ Hk .

Preuve : Montrons ce résultat par récurrence sur k.


Soit F un sous-espace vectoriel de dimension n − 1, alors F est un hyperplan donc la propriété
est vraie.
Supposons que pour tout k ∈ [[1, n]] tel que pour tout sous-espace vectoriel de dimension n − k
est intersections de k hyperplans de E.
Soit F un sous-espace vectoriel de dimension n − (k + 1).
Soit x0 ∈ E tel que x0 ∈ / F , F et Kx0 sont donc en somme directe et dim(F ⊕ Kx0 ) = n − k
donc par hypothèse de récurrence, il existe H1 , . . . , Hk tel que F ⊕ Kx0 = H1 ∩ · · · ∩ Hk .
Soit G un supplémentaire de F ⊕ Kx0 , on a E = (G ⊕ F ) ⊕ Kx0 .
Posons Hk+1 = G ⊕ F de dimension n − 1 donc Hk+1 est un hyperplan de E.
Montrons que F = H1 ∩ · · · ∩ Hk ∩ Hk+1 .
Soit x ∈ F , on a x ∈ G ⊕ F , donc x ∈ Hk+1 et x ∈ F ⊕ Kx0 = H1 ∩ · · · ∩ Hk d’où
x ∈ H1 ∩ · · · ∩ Hk ∩ Hk+1 .
Soit x ∈ H1 ∩ · · · ∩ Hk ∩ Hk+1 , donc x ∈ F ⊕ G et x ∈ F ⊕ Kx0 . Comme on a E = F ⊕ G ⊕ Kx0 ,
par unicité de la décomposition, on a x ∈ F .
D’où la décomposition de F . □
Ce théorème montre la grande idée de la dualité : on peut concevoir un espace vectoriel par un
système de générateur (équations paramétriques) ou adopter le point de vue dual et concevoir
un espace vectoriel par un système d’équations (équations cartésiennes).

1.3 Interlude topologique


Dans cette section, E est muni d’une norme ||.|| et on désigne par |||.||| la norme triple
associée à cette norme.

Théorème 17. Soit f une forme linéaire de E, f est continue si et seulement si Kerf
est fermée

5
Preuve : Si f est continue, alors comme Kerf = f −1 ({0}) est fermé en tant qu’image
réciproque du fermé {0} par l’application continue f .
Supposons Kerf fermé, montrons que f est continue. Par l’absurde, supposons f non continue,
alors f n’est pas bornée sur la sphère unité :

∀n ∈ N, ∃xn ∈ S, |f (xn )| > n

En particulier, xn ∈
/ Kerf ,
f (u) f (u)
Soit u ∈ E, on a la décomposition u = (u − xn ) + xn avec u − f (u)
x
f (xn ) n
∈ Ker(f ).
f (xn ) f (xn )
|f (u)|
Or, || ff(x(u)n ) xn || = | ff(x(u)n ) | ≤ n
donc la suite u − ff(x(u)n ) xn lim u.
n→+∞
Or, comme Ker(f ) est fermé, on a u ∈ Ker(f ), u étant quelconque, f est l’application nulle ce
qui contredit la non-continuité de f . □

Remarque 18. Dans le cas de la dimension finie, toute forme linéaire est continue.

Dans le cas où cette condition est remplie, on peut calculer explicitement la norme de la
forme linéaire. Cette norme dépend de la distance entre un élément x0 ∈/ Ker(f ) et Kerf .

Proposition 19. Soit f une forme linéaire continue non nulle sur E et soit x0 ∈ E tel
que f (x0 ) 6= 0.
|f (x0 )|
|||f ||| =
d(x0 , Kerf )

Preuve : Comme x0 ∈ / Kerf , on a d(x0 , Kerf ) > 0. Pour x ∈ Ker, |f (x0 ) = |f (x0 )−f (x)| ≤
|||f |||d(x0 , Kerf ). D’où en passant à la borne inférieure, |f (x0 )| ≤ |||f |||d(x0 , Kerf ).
Montrons l’inégalité inverse, soit x ∈ E, en utilisant la décomposition x = λx0 +y avec λ = ff(x (x)
0)
.
Or,
||x|| 1
= ||x0 + y|| ≥ d(x0 , Kerf )
λ λ
. En utilisant l’expression de λ,
|f (x)| ||x||

|f (x0 )| d(x0 , Kerf )
|f (x0 )| |f (x0 )|
donc |f (x)| ≤ ||x|| × d(x0 ,Kerf )
. D’où la majoration pour la norme triple |||f ||| ≤ d(x0 ,Kerf )
.

6
2 Bases duales en dimension finie
Dans cette partie, E désigne un K-espace vectoriel de dimension finie.

2.1 Bases duales


Si E est de dimension finie, on a dim(E ∗ ) = dim(E) donc l’espace vectoriel E et son dual
E ∗ sont isomorphes. Nous allons exhiber un isomorphisme :

Fixons une base B = (e1 , . . . , en ) une base de E.


Nous allons poser pour i ∈ [[1, n]], e∗i définie sur la base B par :

1
si i = j
e∗i (ej ) = δij = 
0 sinon

La forme linéaire e∗i est appelée ième forme linéaire coordonnées selon la base B. En
effet, pour x ∈ E e∗i (x) donne la ième coordonnée de x dans la base B. On a alors

Proposition 20. La famille (e∗1 , . . . , e∗n ) est une base de E ∗ appelée base duale de B.

Preuve : Montrons que c’est une famille libre.


X
n
Soit λ1 , . . . , λn tel que λi e∗i = 0.
i=1
Montrons que λ1 = · · · = λn = 0.
X
n
Soit j ∈ [[1, n]], en évaluant la fonction λi e∗i = 0 en ej , on a
i=1

X
n
λi e∗i (ej ) = λj = 0
i=1

d’où ∀j ∈ [[1, n]], λj = 0. La famille est donc libre. Comme c’est une famille libre de n vecteurs
dans un espace de dimension n, il s’agit d’une base de E ∗ . □

On dispose ainsi de la décomposition suivante : pour toute forme linéaire φ ∈ E ∗ ,


X
n
φ= ai e∗i
i=1
!
X
n
avec pour tout j ∈ [[1, n]], φ(ej ) = φ ai e∗i (ej ) = aj . En déduit la décomposition suivante :
i=1

X
n
∀φ ∈ E ∗ , φ = φ(ei )e∗i
i=1

X
n
Cette égalité peut s’écrire matriciellement : En écrivant pour x ∈ E : x = xi ei .L’écriture
  i=1
x1
 . 
de la matrice de x dans la base B : X =  
 ..  nous invite à considérer la matrice φ comme un
xn

7
 
vecteur ligne φ(e1 ) . . . φ(en ) .
L’égalité s’écrit alors  

x
  1
φ(x) = φ(e1 ) . . . φ(en )  ... 


xn
Remarque 21. On peut noter un premier point de la dualité, si on considère les vecteurs
comme des vecteurs colonnes, on considère plutôt les formes linéaires comme des vecteurs
lignes. Bien que les notations soient isomorphes, écrire les choses ainsi permet de comprendre
la relation entre les formes linéaires et les vecteurs.

L’application ΨB qui transforme ei en e∗i est un isomorphisme d’espaces vectoriels et on


dispose ainsi d’une famille infinie d’isomorphismes entre E et E ∗ .

Remarque 22. L’isomorphisme entre E et son dual E ∗ n’est vrai qu’en dimension finie. En
effet pour l’espace vectoriel des polynômes K[X], on a K[X]∗ ' KN . En effet,

Ψ : KN → K[X]∗
Ψa : K[X] → K
a = (an )n∈N 7→ X
r X
r
P = pi X i 7→ p i ai
i=1 i=1

Ψ est bien linéaire et injective et est surjective car pour φ ∈ K[X]∗ , on prend an = φ(X n ) et
on a alors Ψa = φ. Mais les deux espaces ne sont pas isomorphes car K[X] est de dimension
dénombrable alors que KN est non-dénombrable. On retiendra qu’il existe toujours une injection
entre E et son dual E ∗ donc l’espace dual est toujours "plus grand" que l’espace initial.

2.1.1 Matrice de l’application transposée dans la base duale


L’écriture des formes linéaires coordonnées permet d’écrire plus facilement l’expression des
coefficients de la matrice d’une application linéaire :

Soit E et F deux espaces vectoriels de dimension n et m de base B = (e1 , . . . , en ) et


0
B = (f1 , . . . , fm ). Soit u ∈ L(E, F ).
Les formes linéaires coordonnées permettent de donner une expression des coefficients de la
matrice de u dans les bases B et B 0 .

Proposition 23. Soit M = (mij ) = MatB,B0 (u). On a

mij = fj∗ (u(ei ))

Preuve : Il s’agit de la définition de la matrice d’une application linéaire dans une base.

Cette caractérisation permet d’étudier la matrice de l’application transposée exprimé dans les
bases duales :

8
Proposition 24. Soit u ∈ L(E, F ) et B1 une base de E et B2 une base de F . Si M est la
matrice de u dans les bases B1 et B2 alors t M est la matrice de t u dans les bases duales
B2∗ et B1∗ .

Preuve : Calculons t u(fi∗ ).


t
u(fi∗ ) = fi∗ ◦ u
X
n
= (fi∗ ◦ u)(ej )e∗j
j=1
Xn
= fi∗ (u(ej ))e∗j
j=1
Xn
= mji e∗j
j=1

D’où le coefficient (i, j) de la matrice de t u est


!
X
n X
n
e∗∗ ∗
j (u(fi )) = e∗∗
j mki e∗k = mki (e∗∗ ∗
j (ek )) = mji
k=1 k=1

D’où il s’agit de la transposée de la matrice M . □


On en déduit le corollaire suivant :

Corollaire 25. Soit u ∈ L(E, F )


— rg(t u) = rg(u)
— Si u ∈ L(E), det(u) = det(t u).

Proposition 26. Soit u ∈ L(E, F ), v ∈ L(F, G) alors t (uv) = t v t u.

Preuve : Soit φ ∈ F ∗ , on a

v u(φ) = t v(φ ◦ u) = φ ◦ u ◦ v = φ ◦ (u ◦ v) = t (uv)(φ)


t t

Remarque 27. Cette propriété est bien compatible avec la représentation matricielle des ap-
plications transposées.

2.2 Exemples : dualité de certains espaces vectoriels


D’après ce qui précède en fixant une base (e1 , . . . , en ), on a pour toute forme linéaire φ,
X
n
φ= φ(ei )e∗i .
i=1

Appliquons ceci sur différents espaces

9
2.2.1 Rn et Cn
En prenant ei = (0, . . . , 0, 1, 0, . . . , 0) les vecteurs de la base canonique, on a donc d’après
la formule pour x = (x1 , . . . , xn ) :
X
n
φ(x) = φ(ei )xi
i=1

Remarque 28. L’exemple 1 étant une forme linéaire donnée sous cette forme. Le théorème
montre que toutes les formes linéaires sur Kn sont de cette forme.

2.2.2 Mn,k (K)


Considérons la base formée des matrices élémentaires Eij . D’après la formule pour M ∈
Mn,k (K), on a pour tout φ ∈ Mn,k (K)∗ ,
X
n X
n
φ(M ) = φ(Eij )Mij
i=1 j=1

Posons A la matrice des φ(Eji ), on a :


X
n X
n X
n
φ(M ) = Aji Mij = (AM )ii = tr(AM )
j=1 i=1 i=1

Ainsi :

Proposition 29. Pour toute forme linéaire φ ∈ Mn,k (K)∗ , il existe une unique matrice
A ∈ Mk,n (K) tel que pour tout M ∈ Mn,k (K), φ(M ) = tr(AM ).

Cela permet de voir le dual de Mn,k (K) comme Mk,n (K).

Application 30 (Tout hyperplan de Mn (K) rencontre GLn (K)). Soit H un hyperplan de


GLn (K). Il existe une forme linéaire φ ∈ Mn (K)∗ tel que H = ker φ. Or, il existe A ∈ Mn K
tel que pour tout M ∈ Mn (K), φ(M ) = tr(AM ). Il s’agit alors de trouver une matrice M tel
que tr(AM ) = 0. !
Jr 0
Soit r = rg(A), il existe P, Q ∈ GLn (K) tel que A = P Jr Q avec Jr = . D’où tr(AM ) =
0 0.
tr(P Jr QM ) = tr(Jr QM P ). Posons X la matrice de permutation associé au cycle (1 . . . n)
qui est inversible, la matrice Jr X est de trace nulle. Donc, en posant M = Q−1 XP −1 . On a
tr(AM ) = 0.

2.3 Base Bidual : applications


Problème d’isomorphisme entre E et E ∗ On a vu que E et E ∗ sont isomorphes et on a
exhibé une infinité d’isomorphismes ΨB mais tous ces isomorphismes dépendent d’un choix de
base. Ainsi, si on veut identifier un élément x de E à un élément x∗ de E ∗ , on est obligé de se
fixer une base, ce qui est contraignant.
En réalité, il n’existe pas d’isomorphisme (appelé isomorphisme canonique) qui soit indépen-
dant du choix de la base. C’est-à-dire qu’il n’existe pas d’isomorphisme envoyant toute base
sur sa base duale.

10
Lemme 31. Soit B1 = (e1 , . . . , en ) et B2 = (f1 , . . . , fn ) deux bases de E. Soit u l’unique
endomorphisme envoyant les ei sur les fi . Alors ΨB1 = t uΨB2 u.

Preuve : Montrons que les deux applications coïncident sur la base B1 . Soit i ∈ [[1, n]]

(t uΨB2 u)(ei ) = t uΨB2 (fi )


= t u(fi∗ )
= fi∗ ◦ u
= e∗i

Ainsi en notant M la matrice de u, on a ΨB1 = ΨB2 ⇐⇒ t M M = In .

Supposons qu’il existe un isomorphisme "universel" qui envoie toute base sur sa base duale.
On a pour toute matrice inversible t M M = In . Absurde. Donc un tel isomorphisme n’existe pas.

Cependant, fait stupéfiant, il existe un isomorphisme canonique entre l’espace E et l’espace


dual du dual E.

Définition 32. On appelle bidual de E le dual de l’espace dual E ∗ noté E ∗∗ . Il s’agit


de l’ensemble des formes linéaires sur l’ensemble des formes linéaires de E.

Proposition 33. L’application

J : E → E ∗∗
x̃ : E ∗ → K
x 7→
φ 7→ φ(x)

est isomorphisme d’espaces vectoriels.

Preuve : Montrons l’injectivité.


Soit x, y ∈ E tel que x̃ = ỹ on a donc ∀φ ∈ E ∗ , x̃(φ) = ỹ(φ) d’où φ(x) = φ(y) d’où φ(x−y) = 0.
Par l’absurde si x − y 6= 0 alors (x − y) forme une famille libre, donc en la complétant une base
B, et prenons φ la forme coordonnées de x − y dans la base B, on a φ(x − y) = 0. Absurde.
D’où x − y = 0. L’application est injective.
Comme dim E = dim(E ∗∗ ), l’application est un isomorphisme. □
Remarque 34. La surjectivité de cette application montre que toute application φ de E ∗∗ , il
existe un unique x dans E tel que φ = x̃.
Remarque 35. On peut noter que cette isomorphisme ne dépend d’aucun choix de base. Il
s’agit alors d’un isomorphisme dit canonique. On peut ainsi "identifier" chaque élément x de E
avec x̃ ∈ E ∗∗ . On peut ainsi voir un vecteur comme une application linéaire sur l’ensemble des
formes linéaires sur E.
La bidualité permet par exemple de construire une base de vecteurs à partir d’une base de
forme linéaires sur un espace vectoriel :

Proposition 36. Soit (φ1 , . . . , φn ) une base de E ∗ , il existe une unique famille
(e1 , . . . , en ) appelée base antéduale de (φ1 , . . . , φn ) tel que ∀i, j ∈ [[1, n]], φi (ej ) = δij

11
Preuve : Il suffit de prendre la base duale (φ∗1 , . . . , φ∗n ) de (φ1 , . . . , φn ) qui est une base de
E . Posons pour i ∈ [[1, n]], ei = J −1 (φ∗i ).
∗∗

On a alors pour i, j ∈ [[1, n]], φi (ej ) = φi (J −1 (φ∗j )) = J(J −1 (φ∗j ))(φi ) = φ∗j (φi ) = δij .
L’unicité vient de la proposition 1. □

Proposition 37. Soit B une base de E et B ∗ sa base duale. Alors pour tout x ∈ E, on
a x̃ = (ΨB∗ ◦ ΨB )(x).

X
n
Preuve : Notons B = (e1 , . . . , en ) et B ∗ = (e∗1 , . . . , e∗n ). Notons x = xi ei la décomposition
i=1
de x dans B.
On a
X
n
Ψ ((ΨB (x))) =
B∗ xi e∗∗
i
i=1
X
n
Soit φ ∈ E ∗ , décomposons φ dans la base B ∗ : φ = φ(ei )e∗i .
i=1 
X
n X
n
ΨB∗ ((ΨB (x)))(φ) = xi e∗∗
i
 φ(ej )e∗j 
i=1 j=1
Xn Xn
= xi φ(ej )e∗∗ ∗
i (ej )
i=1 j=1
Xn
= xi φ(ei )
i=1
= φ(x)

Ainsi, peu importe la base que l’on prend, en itérant deux fois l’isomorphisme Ψ, on retrouve
la même application.

Notons la symétrie de l’écriture : pour x ∈ E, φ ∈ E ∗ , φ(x) = x̃(φ). Cette symétrie nous


incite à adapter la notation suivante :

Définition 38. Soit x ∈ E, φ ∈ E ∗ , on note hx, φi le crochet de dualité que l’on


définit par
hx, φi = φ(x) = x̃(φ)

Remarque 39. Cette notation n’est pas sans rappeler celle du produit scalaire : il s’agit d’une
application linéaire par rapport à chaque variable et symétrique. La différence fondamentale
est qu’il s’agit d’une application bilinéaire sur E × E ∗ et pas sur E × E.
L’identification entre un espace et son bidual peut se voir également avec l’application trans-
posée :

Proposition 40. Notons J l’application J : x 7→ x̃. On a, pour u ∈ L(E, F ), t (t u) =


J ◦ u ◦ J −1 .

Preuve : On a t (t u) ∈ L(E ∗∗ , F ∗∗ ).
g
Soit x̃ ∈ E ∗∗ , on a (J ◦ u ◦ J −1 )(x̃) = J(u(x)) = u(x).

12
Or, t (t u)(x̃) = x̃ ◦ t u, pour φ ∈ E ∗ , on a (x̃ ◦ t u)(φ) = x̃(φ ◦ u) = (φ ◦ u)(x) = φ(u(x)) donc on
g
a t (t u)(x̃) = u(x). □

Cette proposition permet donc d’identifier une application linéaire avec la transposée de sa
transposée.
Nous présentons également un lemme, très utile pour plusieurs preuves, dont la preuve né-
cessite la notion de base antéduale :

Proposition 41. Soit (φ1 , . . . , φk ) k-formes linéaires indépendantes, et φ ∈ E ∗ , on a

\
k
Kerφi ⊂ Kerφ ⇐⇒ φ ∈ Vect(φ1 , . . . , φk )
i=1

Preuve : (⇐=) Soit φ ∈ Vect(φ1 , . . . , φk ), il existe λ1 , . . . , λn tel que φ = λ1 φ1 +· · ·+λn φn .


\
k \
k
Soit x ∈ Kerφi , on a φ(x) = λ1 φ1 (x) + · · · + λn φn (x) = 0 d’où Kerφi ⊂ Kerφ.
i=1 i=1
\
k
( =⇒ ) Supposons que Kerφi ⊂ Kerφ.
i=1
La famille (φ1 , . . . , φk ) est libre, on peut la compléter en une base (φ1 , . . . , φn ) de E. φ se
décompose selon φ = λ1 φ1 + · · · + λn φn .
Considérons la base antéduale (e1 , . . . , en ) de (φ1 , . . . , φn ).
\
k
Pour tout i ∈ [[k + 1, n]], φ(ei ) = λi et comme ei ∈ Kerφi , on a ei ∈ Kerφ donc λi = 0. On a
i=1
donc φ = λ1 φ1 + · · · + λk φk et φ ∈ Vect(φ1 , . . . , φk ). □

2.4 Applications de la bidualité


Nous allons présenter plusieurs applications de la dualité. Pour cela, nous allons utiliser le
lemme suivant :
Lemme 42. Soit x1 , . . . , xn une famille de E espace de dimension n, et φ1 , . . . , φn une
famille de E ∗ tel que ∀i, j ∈ [[1, n]], φi (xj ) = δij . Alors la famille (x1 , . . . , xn ) est une base
de E et (φ1 , . . . , φn ) est une base de E ∗ . La base (φ1 , . . . , φn ) est alors la base duale de
(x1 , . . . , xn ).

Preuve : Montrons que (x1 , . . . , xn ) est une base de E.


X
n
Montrons que c’est une famille libre : soit λ1 , . . . , λn tel que λi xi = 0. Soit j ∈ [[1, n]], en
! i=1
X
n
appliquant φj on a φj λ i xi = λj = 0. D’où (x1 , . . . , xn ) est une famille libre de E et est
i=1
donc une base de E.
Pour montrer que (φ1 , . . . , φn ) est une base de E ∗ , pour cela, en considérant la base dual de
(φ∗1 , . . . , φ∗n ), les deux familles vérifient les hypothèses de l’énoncé et donc d’après ce qui a été
fait précédemment, il s’agit d’une base de E ∗ . □

13
Application 1 : Polynômes interpolateurs de Lagrange Soit (α1 , . . . , αn ) n réels dis-
tincts on pose pour i ∈ [[1, n]], le polynôme annulateur de Lagrange :
Y
n
X − αj
Li =
j=1 αi − αj
j6=i

et posons φi : P 7→ P (αi ) la forme linéaire évaluation en αi .


On peut alors vérifier que ∀i, j ∈ [[1, n]], φi (Lj ) = δij .
Ainsi, la base (φ1 , . . . , φn ) est la base duale de (L1 , . . . , Ln ). On a alors pour tout polynôme
P
P ∈ Rn [X], P = ni=1 φi (P )Li d’où :
X
n
P = P (αi )Li
i=1

Application 2 : Polynômes de Hilbert Posons ∆ l’application de dérivation discrète :


Kn [X] → Kn [X]
P 7→ P (X + 1) − P (X)
On définit la famille de forme linéaire (φ1 , . . . , φn ) définie pour tout i ∈ [[1, n]], φi (P ) =
i
(∆ (P ))(0) (qui est bien linéaire par composition d’applications linéaires).

Posons la famille de polynômes de Hilbert (Hn ) définie par H0 = 1, H1 = X et pour tout


n ∈ N,
X(X − 1) . . . (X − n + 1)
Hn =
n!
Les polynômes de Hilbert sont compatibles avec l’application ∆ avec
∆Hn = Hn (X + 1) − Hn (X)
(X + 1)X . . . (X − n + 2) X(X − 1) . . . (X − n + 1)
= −
n! n!
X . . . (X − n + 2)
= (X + 1 − (X − n + 1))
n!
X . . . (X − n + 2)
=
(n − 1)!
= Hn−1 (X)
On en déduit que ∆i Hj = Hj−i et donc pour tout i, j ∈ [[1, n]], φi (Hj ) = δij . D’après le
lemme la base (φ1 , . . . , φn ) est la base duale de (H1 , . . . , Hn ). On a alors la décomposition
suivante : pour tout P ∈ Kn [X],
X
n
P = ∆i P (0)Hi
i=0
Cette décomposition est utile pour le théorème suivant :

Proposition 43. Soit P ∈ Kn [X], P (Z) ⊂ Z si et seulement si il existe α0 , . . . , αn ∈ Z


tel que
X
n
P = αi Hi
i=0

Preuve : Le sens réciproque est clair vu qu’on a pour tout k ∈ N, Hk (Z) ⊂ Z.


Passons au sens direct, supposons que P (Z) ⊂ Z, il en est de même pour ∆P . Donc pour tout
i ∈ N, ∆i P (Z) ⊂ Z, en particulier ∆i P (0) ∈ Z donc d’après la décomposition précédente, en
posant αi = ∆i P (0) ∈ Z, on a la décomposition voulue. □

14
Application 3 : Formule de Taylor polynômiale
Soit a ∈ K,
Considérons à présent la famille de polynôme (Q0 , . . . , Qn ) définie pour i ∈ [[1, n]] par Qi =
(X − a)i
et la famille de formes linéaires (φ0 , . . . , φn ) définie pour i ∈ [[1, n]] par φi = P (i) (a).
i!
On peut vérifier que l’on a bien ∀i, j ∈ [[1, n]], φi (Qj ) = δij . Le lemme donne alors la formule
suivante, appelée formule de Taylor :
X
n
(X − a)k
∀P ∈ Rn [X], P = P (k) (a)
k=0 k!

Remarque 44. Notons que la formule du binôme de Newton peut-être vu comme conséquence
de cette formule.
  En effet, en prenant le polynôme P = X n , on a en dérivant successivement
n
P (a) = k k!(a)n−k d’où
(k)
!
Xn
n
Xn = an−k (X − a)k
k=0 k
Donc en X = a + b, on a obtient
!
X
n
n n−k k
n
(a + b) = a b
k=0 k

15
3 Orthogonalité dans les espaces duales
3.1 Orthogonalité : le cas général
Toujours dans l’optique de donner des propriétés géométriques aux espaces vectoriels et
dans la logique de la notation du crochet de dualité, nous allons définir l’orthogonal d’un sous-
espace vectoriel de E.

Définition 45. Soit F un sous-espace vectoriel de E, on appelle orthogonal de F noté


F ⊥ l’ensemble
F ⊥ = {φ ∈ E ∗ | ∀x ∈ F, φ(x) = 0}

Avec la notation du crochet de dualité, on a F ⊥ = {φ ∈ E ∗ | ∀x ∈ F, hφ, xi = 0} ce qui


coïncide avec la notion d’orthogonalité dans les espaces euclidiens.

Proposition 46. F ⊥ est un sous-espace vectoriel de E ∗ de dimension codimF = dim E −


dim F .

E∗ → F ∗
Preuve : Posons u : u est linéaire et on a F ⊥ = Keru donc c’est un
φ 7→ φ|F
sous-espace vectoriel de E ∗ .
De plus, surjective : en effet, soit ψ ∈ F ∗ . Soit G un supplémentaire de F , on définit une
fonction φ sur la décomposition E = F ⊕ G par φ( xF + xG ) = ψ(xF ). On a ψ = u(φ).
|{z} |{z}
∈F ∈G
D’après le théorème du rang, on a dim(E ∗ ) = rgu + dim ker u d’où dim F ⊥ = dim E − dim F .

7 F ⊥ est une involution à identification de l’espace


Remarque 47. Notons que l’application F →
et son bidual près. On a (F ) = J(F ). En effet, on a (F ⊥ )⊥ ⊂ J(F ) et par égalité des
⊥ ⊥

dimension, on a (F ⊥ )⊥ = J(F ).

Il existe des résultats liant la transposée d’une application linéaire et l’orthogonal.

Proposition 48. Soit u ∈ L(E, F ), on a


(i) Ker(t u) = Im(u)⊥
(ii) Im(t u) = Ker(u)⊥

Preuve :
(i) (⊂) Soit ψ ∈ Ker(t u). Montrons que ψ ∈ Im(u)⊥ . Soit y ∈ Im(u), il existe x ∈ E tel que
y = u(x). On a ψ(u(x)) = t u(ψ)(x) = 0.
(⊃) Soit ψ = Im(u)⊥ . Montrons que ψ ∈ Ker(t u). On a t u(ψ) = ψ ◦ u. Soit x ∈ E, on a
(ψ ◦ u)(x) = ψ(u(x)) = 0 car ψ ∈ Im(u)⊥ d’où ψ ◦ u = 0 et donc ψ ∈ Ker(t u).
(ii) (⊂) Soit ψ ∈ Im(t u). Il existe φ tel que ψ = t u(φ) = φ ◦ u. Soit x ∈ Keru, on a
ψ(x) = φ(u(x)) = 0. D’où y ∈ Ker(u)⊥ .
On a dim Im(t u) = rg(t u) = rgu et dim Ker(u)⊥ = dim E − dim Keru = rgu par théorème
du rang donc par égalité des dimensions, on a Im(t u) = Ker(u)⊥ .

On a également un résultat de stabilité, très utile pour des preuves d’existences :

16
Proposition 49. Soit u ∈ L(E, E 0 ) et F un sous-espace vectoriel de E alors

F est stable par u ⇐⇒ F ⊥ est stable par t u

Preuve : Supposons que F est stable par u. Montrons que F ⊥ est stable par t u. Soit
φ ∈ F ⊥ et x ∈ F , on a t u(φ)(x) = φ(u(x)) = 0 car u(x) ∈ F d’où t u(φ) ∈ F ⊥ .
Le sens réciproque se montre par un argument de bidualité que l’on développera plus tard.

Passons à un procédé de construction de l’orthogonal F ⊥ ce qui permet de mieux com-
prendre la notion d’orthogonalité.

Application : Preuve de la CNS de trigonalisabilité Utilisons les propriétés des ortho-


gonaux pour montrer la proposition suivante :

Proposition 50. Soit u ∈ L(E), u est trigonalisable si et seulement si χu est scindé.

Preuve : L’idée est de construire une base de trigonalisation par récurrence en utilisant
un supplémentaire isomorphe à l’orthgonal.
La sens direct est clair par calcul du polynôme caractéristique. Montrons le sens réciproque.
Effectuons une récurrence sur la dimension.
Si dim E = 1, alors χu est scindé car de degré 1 et u est toujours trigonalisable car sa matrice
est un scalaire. D’où la propriété est vrai pour dim E = 1.
Supposons que la propriété est vrai pour tous les espaces vectoriels de dimension n ∈ N.
Montrons qu’elle est vraie pour les espaces de dimension n + 1.
Soit u ∈ L(E) avec E de dimension n + 1.
χu est scindé donc admet une racine λ qui est donc valeur propre de u. Soit x0 un vecteur
propre de u associé à λ, la droite vectorielle Vect(x0 ) est stable par u.
Par la propriété précédente, Vect(x0 )⊥ est stable par t u. L’endomorphisme induit v par t u sur
Vect(x0 )⊥ est un endomorphisme d’un espace de dimension n.
Comme χt u = χu (car une matrice et sa transposée ont même polynôme caractéristique). et
χv |χt u qui est scindé, alors χv est scindé donc v est trigonalisable par hypothèse.
Il existe une base (φ1 , . . . , φn ) tel que la matrice de v dans cette base est triangulaire supérieure.
En complétant cette matrice en une base B de E ∗ , la matrice de t u dans B est triangulaire
supérieure donc t u est trigonalisable et donc u est trigonalisable (car sa matrice dans la base
antédual de B est la transposée de la matrice de t u dans B). □

Construction de F ⊥
Considérons un sous-espace vectoriel F de dimension k de base (e1 , . . . , ek ).
Considérons sa base duale (e∗1 , . . . , e∗k ). On peut la compléter en une base (e∗k+1 , . . . , e∗n ). On a
alors F ⊥ = Vect(e∗k+1 , . . . , e∗n ).

Preuve : Par égalité des dimensions, il suffit de montrer que pour tout i ∈ [[k + 1, n]], ei ∈

F .

X
k
Soit x ∈ F , il existe x se décompose dans la base (e1 , . . . , ek ) en x = xj ej .
j=1

17
 
X
k X
k
On a e∗i  xj e j  = xj e∗i (ej ) = 0. □
j=1 j=1 | {z }
=0
Nous allons à présent la notion d’orthogonal en tant que sous-espace vectoriel de E :

Définition 51. Soit F un sous-espace vectoriel de E ∗ , on appelle orthogonal de F noté


F ◦ l’ensemble
F ◦ = {x ∈ E | ∀φ ∈ F, φ(x) = 0}

De même, avec la notation du crochet de dualité, on a F ◦ = {x ∈ E | ∀φ ∈ F ∗ , hφ, xi = 0}


ce qui coïncide également avec la notion d’orthogonalité dans les espaces euclidiens.

Il y a à présent une ambigüité sur la notion d’orthogonalité : en effet pour F un sous-espace


vectoriel de E ∗ , on peut définir l’orthogonal F ◦ qui est un sous-espace vectoriel de E et l’ortho-
gonal F ⊥ qui est un sous-espace vectoriel de E ∗∗ . Cette ambiguïté est levée par l’identification
entre E et son bidual. En effet :

Proposition 52. Soit F un sous-espace vectoriel de E ∗ , on a

F ◦ = J −1 (F ⊥ )

Preuve :
F ◦ = {x ∈ E | ∀φ ∈ F, φ(x) = 0}
= {x ∈ E | ∀φ ∈ F, J(x)(φ) = 0}
= {x ∈ E | J(x) ∈ F ⊥ }
= J −1 (F ⊥ )


Ainsi, on en déduit les propriétés suivantes :

Corollaire 53. F ◦ est un sous-espace vectoriel de E de dimension codimF = dim E −


dim F .

Comme F ⊥ , on peut construire F ◦ "explicitement" :

Construction de F ◦ Considérons un sous-espace vectoriel F de E ∗ de dimension k de base


(e∗1 , . . . , e∗k ).
Considérons sa base antéduale (e1 , . . . , ek ) que l’on complète en une base (ek+1 , . . . , en ). On a
alors F ◦ = Vect(ek+1 , . . . , en ).
Preuve :
Par égalité des dimensions, il suffit de montrer que pour tout i ∈ [[k + 1, n]], ei ∈ F ◦ .
X
k
Soit φ ∈ F , il existe une décomposition dans la base (e∗1 , . . . , e∗k ) : φ = φ(ej )e∗j .
  j=1
X
k
On a e∗i  φ(ej )e∗j  = 0. □
j=1

18
Cette construction est symétrique par rapport à la construction de F ⊥ pour F sous-espace
vectoriel de E. Cela permet d’en déduire les propositions suivantes :

Proposition 54. Soit F un sous-espace vectoriel de E et G un sous-espace vectoriel de


E ∗ . On a
— (F ⊥ )◦ = F
— (G◦ )⊥ = G

Preuve : Immédiat avec la construction. □

Application 55 (Développement 2). Soit f1 , . . . , fn ∈ F(K, K), la famille (f1 , . . . , fn )


est libre dans F(K, K) si et seulement s’il existe (x1 , . . . , xn ) ∈ Kn tel que la matrice
(fi (xj ))1≤i,j≤n soit inversible.

Application 56. Les applications f dérivables tel que les translatés (ie les applications
fa : x 7→ f (x + 1) pour a ∈ R) engendrent un espace vectoriel de dimension finie sont les
solutions d’une équation linéaire homogène à coefficients constants.

Preuve : Commençons par démontrer le lemme,


Si la famille (f1 , . . . , fn ) est liée, alors pour tous x1 , . . . , xn , les lignes de la matrice (fi (xj ))1≤i,j≤n
sont liés.
Supposons que la famille (f1 , . . . , fn ) est libre, notons F = Vectf1 , . . . , fn . F est un espace
vectoriel de dimension n.
Considérons pour a ∈ K, ea : F → K la forme linéaire d’évaluation en a : ea : f 7→ f (a).
On a F ∗ = Vect{ea , a ∈ K}, en effet, si f ∈ Vect{ea , a ∈ K}◦ , alors pour tout a ∈ K, ea (f ) =
f (a) = 0 donc f = 0 d’où Vect{ea , a ∈ K}◦ = {0} et comme F est de dimension finie, on a
Vectea , a ∈ K ◦ = {0}⊥ = F .
Ainsi, par théorème de la base extraite, considérons x1 , . . . , xn tel que (ex1 , . . . , exn ) est une
base de F ∗ .
Montrons que (x1 , . . . , xn ) convient,
Soit M = (fi (xj ))1≤i,j≤n , montrons que les lignes (Li )i=1,...n forment ! une famille libre.
X
n X
n
Soit λ1 , . . . , λn ∈ K tel que λi fi (xj ) = 0 ⇐⇒ exj λi fi ,
! i=1 i=1
X
n
D’où λi f i ∈ Vect{ex1 , . . . , exn }◦ = (F ∗ )◦ = {0} car la famille (ex1 , . . . , exn ) est une base
i=1
de F ∗ .
Or, comme (f1 , . . . , fn ) est une base de F , on a λ1 = · · · = λn = 0. Donc la matrice M est
inversible.

Passons à la preuve du théorème,


Si f est une solution d’une équation différentielle lnéaire homogène à coefficients constants
d’ordre p, alors fa est également solution pour tout a ∈ R, . L’ensemble des solutions étant
un espace vectoriel de dimension p, par égalité des dimensions les fonctions fa engendrent un
espace vectoriel de dimension inférieure ou égal à p.
Réciproquement, supposons que f : R → R dérivables dont les translatées engendrent un
R−espace vectoriel de dimension n.
Soit (a1 , . . . , an ) ∈ Rn tel que (fa1 , . . . , fan ) est une base de F .
D’après le lemme précédent, il existe x1 , . . . , xj tel que la matrice M = (fai (xj ))1≤i,j≤n est
inversible.
Soit g ∈ F quelconque, on a g 0 ∈ F et pour tout a ∈ R, ga ∈ F car ga ∈ Vectfa1 +a , . . . , fan +a ⊂

19
X
n
F . Donc il existe λ1 (a), . . . , λn (a) tel que ga = λi (a)fai .
i=1 Pn
Montrons que les λi (a) sont dérivables, On a g(a + xj ) = ga (xj ) = i=1 λi (a)fai (xj ). D’où
matriciellement,
   
g(a + x1 ) λ1 (a)
 .  t  . 
 .. = M . 
   . 
g(a + xn ) λn (a)
   
λ1 (a) g(a + x1 )
 .  t −1
 .. 
⇐⇒ 
 .
. = M 
  . 

λn (a) g(a + xn )
Comme les coefficients de M ne dépendent pas de a, les λi (a) sont dérivables en tant que com-
binaisons linéaires des gxi .
P
Ainsi, comme ∀x ∈ R, g(x + a) = ni=1 λi (a)fai (x), on a en dérivant par rapport à a, ∀x ∈
P
R, g 0 (x + a) = ni=1 λ0i (a)fai (x).
P
Pour a = 0, on a donc g 0 = ni=1 λ0i (0)fai ∈ F .
Ainsi, F est stable par la dérivation, donc en itérant on a g ∈ C ∞ et pour tout k ∈ N, g (k) ∈ F .
Ainsi pour f , on a ∀k ∈ N, f (k) ∈ F . Or, dim F = n donc il existe un entier p ∈ [[1, n]] tel
que f (p) ∈ Vect{f, f 0 , . . . , f (p−1) } d’où f est solution d’une équation différentielle homogène à
coefficients constants. □

Finissons avec quelques propriétés concernant l’intersection et la somme d’orthogonaux.

Proposition 57.
(i) Soit F et G deux sous-espaces vectoriels de E alors
— (F + G)⊥ = F ⊥ ∩ G⊥
— (F ∩ G)⊥ = F ⊥ + G⊥
(ii) Soit V et W deux sous-espaces vectoriels de E ∗ alors
— (V + W )◦ = V ◦ ∩ W ◦
— (F ∩ G)◦ = V ◦ + W ◦

Preuve :
(i) — On a déjà F ⊂ F + G donc (F + G)⊥ ⊂ F ⊥ et de même (F + G)⊥ ⊂ G⊥ d’où
(F + G)⊥ ⊂ F ⊥ ∩ G⊥ .
Soit φ ∈ F ⊥ ∩ G⊥ , soit x ∈ F + G, il existe xF ∈ F, xG ∈ G tel que x = xF + xG . On a
alors φ(x) = φ(xF ) + φ( xG ) = 0 d’où F ⊥ ∩ G⊥ ⊂ (F + G)⊥ d’où F ⊥ ∩ G⊥ =( F + G)⊥ .
— On a F ∩ G ⊂ F donc F ⊥ ⊂ (F ∩ G)⊥ et F ∩ G ⊂ G donc G⊥ ⊂ (F ∩ G)⊥ d’où
F ⊥ + G⊥ ⊂ (F ∩ G)⊥ .
D’après la formule de Grassmann, on a
dim(F ⊥ + G⊥ ) = dim(F ⊥ ) + dim(G⊥ ) − dim(F ⊥ ∩ G⊥ )
. Or, d’après ce qui précède, F ⊥ ∩ G⊥ = (F + G)⊥ . D’où dim(F ⊥ + G⊥ ) = dim E −
dim(F )−dim(G)+dim(F +G) = dim E−dim(F ∩G) d’après la formule de Grassmann,
d’où
dim(F ⊥ + G⊥ ) = dim((F ∩ G)⊥ )
il y a donc égalité des deux espaces.
(ii) La preuve est similaire à celle du (i).

20
3.2 Lien avec les espaces euclidiens
Résumons la correspondance entre les notions euclidiennes et la dualité.

E espace euclidien E espace vectoriel de dimension finie


Produit scalaire définie sur E × E : Crochet de dualité définie sur E × E ∗ :

(x, y) 7→ hx, yi (x, φ) 7→ hx, φi = φ(x) = x̃(φ)

Application adjoint : pour u ∈ Application transposée : pour u ∈



L(E, F ), u est l’application de L(E, F ) L(E, F ), t y est l’application de L(F ∗ , E ∗ ) tel
tel que que

∀x, y ∈ E, hu(x), yi = hx, u∗ (y)i ∀x, y ∈ E, hu(x), φi = hx, t u(φ)i = φ(u(x))

Orthogonal d’un sous-espace vectoriel : Orthogonal d’un sous-espace vectoriel :


Pour F un sous-espace vectoriel de E, on dé- Pour F un sous-espace vectoriel de E, on dé-
finit F ⊥ ⊂ E par finit F ⊥ ⊂ E ∗ par

F ⊥ = {x ∈ E | ∀y ∈ F, hx, yi = 0} F ⊥ = {φ ∈ E ∗ | ∀x ∈ F, hx, φi = 0}

Pour V un sous-espace vectoriel de E ∗ , on


définit V ◦ ⊂ E par

V ◦ = {x ∈ E | ∀φ ∈ V, hx, φi = 0}

Pour finir, le théorème de Riesz fait le lien entre la dualité et les espaces euclidiens en montrant
que toute forme linéaire d’un espace euclidien est un produit scalaire contre un vecteur.

Théorème 58. Soit φ une forme linéaire sur E espace vectoriel euclidien. Il existe un
unique vecteur x ∈ E tel que pour tout y ∈ E, φ(x) = hx, yi.

Preuve : Il s’agit de montrer que l’application

J : E → E∗
J(x) : E → K
x 7→
y 7→ hx, yi

est un isomorphisme d’espace vectoriel.


J est bien linéaire. Montrons que J est injective.
Soit x ∈ KerJ, on a ∀y ∈ E, hx, yi = 0. En particulier pour y = x, on a hx, xi = ||x||2 = 0 d’où
x = 0. D’où KerJ ⊂ {0} et KerJ = {0}. Donc J est injective et par égalité des dimensions, J
est un automorphisme de E ∗ . □
Application 59 (Existence du gradient). Soit f : Rd → R une fonction différentiable. Pour
tout x ∈ Rd , la différentielle df (x) est une forme linéaire. D’après la théorème de Riesz, il
existe un unique vecteur noté ∇f (x) tel que

∀x ∈ Rd , h ∈ Rd , df (x)(h) = h∇f (x), hi

21
Références
[1] Grégory Berhuy. Algèbre : le grand combat. Calvage Mounet, 2018.
[2] Michel Cognet. Algèbre linéaire. Bréal, 2000.
[3] Xavier Gourdon. Les maths en tête : Algèbre. Ellipses, 2009.
[4] Serge Nicolas Serge Francinou Hervé Gianella. Oraux X-ENS, Algèbre 1. Cassini, 2007.

22

Vous aimerez peut-être aussi