Cours2 Algèbre 5 SMA4 FSSM
Cours2 Algèbre 5 SMA4 FSSM
Cours2 Algèbre 5 SMA4 FSSM
Mohamed HOUIMDI
Université Cadi Ayyad
Faculté des Scieces-Semlalia
Département de Mathématiques
TABLE DES MATIÈRES
3 Espaces eucldiens 48
3.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.1.1 Définition et propriètés élémentaires . . . . . . . . . . . . . . . . . . . . . . 48
3.3.1 Notations et règles de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2 Utilisation des bases orthonormales . . . . . . . . . . . . . . . . . . . . . . 51
3.4 Inégalité de cauchy-Schwartz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
ii
3.10 Procédé d’orthonormalisation de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . 54
3.13 Changement de bases orthonormales - Orientation . . . . . . . . . . . . . . . . . . . 56
3.19 Produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.19.1 Formes linéaires d’un espace euclidien . . . . . . . . . . . . . . . . . . . . 58
3.20.1 Définition et propriètés du produit vectoriel . . . . . . . . . . . . . . . . . . 58
3.25 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
Remarque 1.2.1
Rappelons que si E est un K-espace vectoriel, on dit que H est un hyperplan de E, si dim(E/H) = 1.
Donc si E est de dimension finie, alors
H est un hyperplan de E ⇐⇒ dim(H) = dim(E) − 1
Proposition 1.3.
ker(ϕ) = ker(ψ) ⇐⇒ ∃λ ∈ K : ψ = λϕ
Preuve ?
i) Soit ϕ une forme linéaire non nul sur E, alors on sait que E/ ker(ϕ) est isomorphe à Im(ϕ).
Puisque ϕ 6= 0, alors Im(ϕ) 6= {0K }, donc Im(ϕ) = K. Par suite, E/ ker(ϕ) est isomorphe à K,
donc dim(E/ ker(ϕ)) = 1. Ainsi, ker(ϕ) est un hyperplan de E.
ii) (=⇒) Supposons que ker(ϕ) = ker(ψ) et soit x0 ∈ E, tel que x0 ∈
/ ker(ϕ), donc on aura
E = ker(ϕ) ⊕Vect(x0 )
Soit x ∈ E avec x = y0 + αx0 , alors ϕ(x) = αϕ(x0 ) et ψ(x) = αψ(x0 ). Puisque ϕ(x0 ) 6= 0,
0)
donc on voit que ψ(x) = ψ(x
ϕ(x0 ) ϕ(x) et ceci pour tout x ∈ E, donc on aura
ψ(x0 )
ψ= ϕ
ϕ(x0 )
2
(⇐=) Trivial.
Remarque 1.3.1
Le résultat ii) de la proposition précédente se généralise de la manière suivante :
Proposition 1.4.
Preuve n
ker(ϕi ) ⊆ ker(ϕ) et montrons que ϕ ∈ Vect({ϕ1 , ϕ2 , . . . , ϕn }).
T
(=⇒) Supposons que
i=1
Pour cela, on procède par récurrence sur n ≥ 1.
? Pour n = 1, le résultat est vrai d’après la proposition précédente.
Supposons que n > 1 et la proprièté vraie pour tout entier m < n.
Première méthode : Pour chaque i ∈ {1, 2, . . . , n − 1}, soit ψi la réstriction de ϕi à ker(ϕn ) et
soit ψ la restriction de ϕ à ker(ϕn ), alors ψ1 , ψ2 , . . . , ψn−1 et ψ sont des formes linéaires
de ker(ϕn ) et on a
n−1
\
? ker(ψi ) ⊆ ker(ψ)
i=1
Ainsi, d’après l’hypothèse de récurrence, il existe (λ1 , λ2 , . . . , λn−1 ) ∈ K n−1 , tel que
n−1
ψ= ∑ λiψi
i=1
Donc ker(ϕn ) ⊆ ker(β), donc d’après la proposition précédente, il existe λn ∈ K, tel que
β = λn ϕn , par suite, on aura
n
ϕ = ∑ λ i ϕi
i=1
(⇐=) Trivial.
Soit E un K-espace vectoriel. On appelle espace vectoriel dual de E, qu’on note E ∗ , l’es-
pace vectoriel de toutes les formes linéaires sur E.
E ∗ = L(E, K)
Remarque 1.6.1
Si E est de dimension finie, alors on sait que L(E, K) est aussi de dimension finie et on a
dim(E ∗ ) = dim(E)
Exemples
1. Soit K un corps commutatif, pour tout a ∈ K n avec a = (a1 , a2 , . . . , an ), soit ϕa l’application
définie par,
n
∀x ∈ K n , x = (x1 , x2 , . . . , xn ) =⇒ ϕa (x) = ∑ ai xi
i=1
2. Soit K un corps commutatif, pour chaque x = (xn )n≥0 élément de K N , soit ϕx l’application
définie sur K[X] par,
p p
∀P ∈ K[X], P = ∑ ai X i =⇒ ϕx (P) = ∑ ai xi
i=1 i=1
Ainsi, l’application
f : K N −→ (K[X])∗
x 7−→ ϕx
est un isomorphisme d’espaces vectoriels.
ϕ : Mn (K) −→ K
M 7−→ tr(M)
En effet, pour chaque (i, j) ∈ {1, 2, . . . , n}2 , soit Ei j la mtrice de Mn (K), dont tous les coefficients
sont nuls sauf celui de la ıième ligne et la jième colonne qui est égal à 1.
Alors pour chaque M ∈ Mn (K), avec M = (mi j )1≤i, j≤n , on a
n n
M=∑ ∑ mi j Ei j
i=1 j=1
Remarque 1.6.2
Le Q-espace vectoriel Q[X] n’est pas isomorphe à son dual (Q[X])∗ .
En effet, pour chaque entier n ≥ 0, soit En = {P ∈ Q[X] : deg(P) ≤ n}, alors on sait que En est un
Q-espace espace vectoriel de dimension finie = n + 1, donc En est isomorphe à Qn+1 . Or on sait que
pour tout entier m ≥ 1, Qm est dénombrable, donc pour tout n ≥ 0, En est dénombrable.
∞
S
Puisque Q[X] = En et puisque une réunion dénombrables d’ensembles dénombrables est dénom-
n=0
brable, alors Q[X] est dénombrable.
D’après l’exemple précédent, on sait que (Q[X])∗ est isomorphe à QN , donc si on suppose que Q[X]
est isomorphe à son dual, alors QN serait dénombrable. Ce qui est absurde, car on sait que QN n’est
pas dénombrable. (Pour les questions de dénombrabilité, voir annexe).
Alors (e∗1 , e∗2 , . . . , e∗n ) est une base de E ∗ , appelée base duale de E.
Preuve
Puisque dim(E ∗ ) = n, alors il suffit de montrer que (e∗1 , e∗2 , . . . , e∗n ) est libre. Pour cela, soit
(α1 , α2 , . . . , αn ) ∈ K n , tel que α1 e∗1 + α2 e∗2 + · · · + αn e∗n = 0. A-t-on α1 = α2 = · · · = αn = 0 ?
n n
∑ αie∗i = 0 =⇒ ∀ j ∈ {1, 2, . . . , n}, < e j , ∑ αie∗i >= 0
i=1 i=1
n
=⇒ ∀ j ∈ {1, 2, . . . , n}, ∑ αi < e j , e∗i >= 0
i=1
=⇒ ∀ j ∈ {1, 2, . . . , n}, α j = 0 (car < e j , e∗i >= δi j )
Proposition 1.9.
ii)
n
∀ϕ ∈ E ∗ , ϕ = ∑ < ei , ϕ > e∗i
i=1
Preuve n
i) Soit x ∈ E avec x = ∑ xi ei , alors pour tout j ∈ {1, 2, . . . , n}, on a
i=1
n
< x, e∗j >= ∑ xi < ei , e∗j >= x j (car < ei , e∗j >= δi j )
i=1
n
ii) Soit ϕ ∈ E ∗ avec ϕ = ∑ yi e∗i , alors pour tout j ∈ {1, 2, . . . , n}, on a
i=1
n
< e j , ϕ >= ∑ yi < e j , e∗i >= y j (car < ei , e∗j >= δi j )
i=1
Preuve
D’après la proposition précédente, on a
n
∀ j ∈ {1, 2, . . . , n}, u(e j ) = ∑ < u(e j ), e∗i > ei
i=1
Donc, si A = (ai j )1≤i, j≤n la matrice de u par rapport à la base (e1 , e2 , . . . , en ), alors
Proposition 1.11.
Alors A = {ei ⊗ e∗j : (i, j)) ∈ {1, 2, . . . , n}2 } forme une base de L(E) et on a
Preuve
Puisque dim(L(E)) = n2 , alors il suffit de montrer que A est une partie génératrice de L(E). Pour
cela, soit u ∈ L(E) et soit A = (ai j )1≤i, j≤n la matrice de u par rapport à la base (e1 , e2 , . . . , en ). Pour
x élément quelconque de E, on sait que
n
x= ∑ < x, e∗j > e j
j=1
∀(k, l)) ∈ {1, 2, . . . , n}2 , mkl =< (ei ⊗ e∗j )(el ), e∗k >=< el , e∗j >< ei , e∗k >
Donc M = Ei j .
Q = t (P−1 ) = (t P)−1
Preuve
On pose P−1 = (αi j )1≤i, j≤nα et Q = (qi j )1≤i, j≤nα . Alors, d’après la proposition 3.9, on a
D’autre part, on a
n
∀i ∈ {1, 2, . . . , n}, ei = ∑ αkivk
k=1
Théorème 1.14.
Preuve
i) (ϕ1 , ϕ2 , . . . , ϕn ) est libre, donc d’après la proposition 3.4, on a
n
\
∀ j ∈ {1, 2, . . . , n}, ker(ϕi ) * ker(ϕ j )
i=1
i6= j
n
Donc, pour tout j ∈ {1, 2, . . . , n}, il existe x j ∈ E, tel que x j ∈ ker(ϕi ) et x j ∈
T
/ ker(ϕ j ).
i=1
i6= j
xj
Pour chaque j ∈ {1, 2, . . . , n}, soit v j = , donc on aura
ϕ j (x j )
n n
∑ a j v j = 0 =⇒ ∀i ∈ {1, 2, . . . , n}, ϕi( ∑ a j v j ) = 0
j=1 j=1
=⇒ ∀i ∈ {1, 2, . . . , n}, ai = 0 car ϕi (v j ) = δi j
ϕ : E = F ⊕ G −→ K
x = x1 + x2 7−→ ϕ(x) = ψ(x1 )
Corollaire 1.17.
Soit E un K-espace vectoriel quelconque. Alors pour tout x ∈ E, avec x 6= 0, il existe une
forme linéaire ϕ ∈ E ∗ , tel que < x, ϕ >= 1.
Preuve
Soit F = Vect(x) et soit ψ la forme linéaire définie sur F par,
∀y ∈ F, y = αx =⇒ ψ(y) = α
ϕ(x) = ψ(x) = 1
1.18 Orthogonalité
Définition 1.19.
Remarque 1.19.1
A⊥ = {ϕ ∈ E ∗ : ∀x ∈ A, ϕ(x) = 0}
B◦ = {x ∈ E : ∀ϕ ∈ B, ϕ(x) = 0}
A ⊆ B =⇒ B⊥ ⊆ A⊥
Preuve
a) Supposons que A ⊆ B et soit ϕ ∈ E ∗ , alors on a
ϕ ∈ B⊥ =⇒ ∀x ∈ B, ϕ(x) = 0
=⇒ ∀x ∈ A, ϕ(x) = 0 car A ⊆ B
=⇒ ϕ ∈ A⊥
∀ϕ ∈ E ∗ , xe(ϕ) = ϕ(x)
A⊥ =
\
x)
ker(e
x∈A
B◦ =
\
ker(ϕ)
ϕ∈B
∀ϕ ∈ E ∗ , ϕ(x) = 0
ce qui est absurde, car on sait que si x 6= 0, alors il existe ϕ ∈ E ∗ , telle que ϕ(x) = 1.
Preuve
i) Soit Φ : E ∗ −→ F ∗ l’application qui à chaque ϕ ∈ E ∗ fait correspondre sa réstriction à F.
Alors Φ est linéaire et d’après le théorème de prolongement, Φ est surjective.
ϕ ∈ ker(Φ) ⇐⇒ ∀x ∈ F, ϕ(x) = 0
⇐⇒ ϕ ∈ F ⊥
Donc, ker(Φ) = F ⊥ . On sait que E ∗ / ker(Φ) est isomorphe à Im(Φ), d’où le résultat.
ii) Soit s : E −→ E/F la surjection canonique et soit Ψ : (E/F)∗ −→ E ∗ l’application définie par
∀ϕ ∈ (E/F)∗ , Ψ(ϕ) = ϕ ◦ s
Alors, il est clair que Ψ est linéaire et que Ψ est injective.
Pour conclure, montrons que Im(Ψ) = F ⊥ .
ψ ∈ Im(Ψ) =⇒ ∃ϕ ∈ (E/F)∗ : ψ = ϕ ◦ s
=⇒ ∀x ∈ F, ψ(x) = ϕ(s(x)) = 0 car ∀x ∈ F, s(x) = 0
=⇒ ψ ∈ F ⊥
Corollaire 1.22.
Soit E un K-espace vectoriel de dimension finie. Alors pour tout sous-espace vectoriel F
de E, on a
dim(F) + dim(F ⊥ ) = dim(E)
Preuve
Conséquence directe du théorème précédent.
Lemme 1.23.
ϕ : E = Vect(x) ⊕ H −→ K
Z =α
z = αx + y 7−→ ϕ(x)
Théorème 1.24.
(F ⊥ )◦ = F
ii) Si E est de dimension finie, alors pour tout sous-espace vectoriel G de E,* on a
(G◦ )⊥ = G
Preuve
i) Il est clair, par définition que F ⊆ (F ⊥ )◦ , donc il suffit de montrer que (F ⊥ )◦ ⊆ F.
Pour cela, supposons, par absurde, qu’il existe x ∈ E, tel que x ∈ (F ⊥ )◦ et x ∈ / F. Donc d’après
∗
le lemme précédent, il existe ϕ ∈ E , telle que ϕ(x) = 1 et ∀y ∈ F, ϕ(y) = 0.
Ainsi, ϕ ∈ F ⊥ et puisque x ∈ (F ⊥ )◦ , alors, par définition de l’orthogonal, on a ϕ(x) = 0, ce qui
est absurde, car ϕ(x) = 1.
ii) On voit facilement que G ⊆ (G◦ )⊥ , donc il suffit de montrer que (G◦ )⊥ ⊆ G.
Pour cela, nous allons utiliser le fait que G est de dimension finie, donc il existe ϕ1 , ϕ2 , . . . , ϕm ,
tels que G = Vect({ϕ1 , ϕ2 , . . . , ϕm }).
Soit, maintenant, ϕ ∈ (G◦ )⊥ et soit x ∈ E, tel que
Corollaire 1.25.
p
\
F= ker(ϕi )
i=1
Remarque 1.25.1
Soient E un K-espace vectorie de dimension finie = n, (e1 , e2 , . . . , en ) une base de E, F un sous-espace
vectoriel de E de codimension p et ϕ1 , ϕ2 , . . . , ϕ p les formes linéaires linéairement indépendantes,
p
T
telles que F = ker(ϕi ).
i=1
Pour chaque i ∈ {1, 2, . . . , p} et chaque j ∈ {1, 2, . . . , n}, on pose ai j = ϕi (e j ), alors
n n
∀x ∈ E, x = ∑ x j e j =⇒ ϕi(x) = ∑ ai j x j
j=1 j=1
Ce système qui est de rang p, car (ϕ1 , ϕ2 , . . . , ϕ p ) est de rang p, s’appelle une représentation carté-
sienne du sous-espace vectoriel F.
Exemples
E un K-espace vectorie de dimension finie = n.
1. Une droite vectorielle de E possède une représentation cartésienne sous forme d’un système de
rang n − 1 et de n − 1 équations.
2. Un hyperplan de E possède une représentation cartésienne sous-forme d’une seule équation :
1.26 Bidual
Définition 1.27.
E ∗∗ = (E ∗ )∗ = L(E ∗ , K)
Remarque 1.27.1
Considèrons l’application j : E −→ E ∗∗ définie par,
β = j−1 (γ∗ )
Preuve
i) Soit β = (e1 , e2 , . . . , en ) une base de E, alors on a
∀k ∈ {1, 2, . . . , n}, ∀l ∈ {1, 2, . . . , n}, < e∗l , j(ek ) >=< ek , e∗l >= δkl
Donc ∀k ∈ {1, 2, . . . , n}, j(ek ) = (e∗l )∗ .
ii) Puisque β∗ = γ, alors, d’après i), j(β) = γ∗ , donc β = j−1 (γ∗ ).
∀ϕ ∈ F ∗ , tf (ϕ) = ϕ ◦ f
Remarque 1.30.1
Par définition de l’application transposée d’une application linéaire f , on a
Proposition 1.31.
Théorème 1.32.
Preuve
i)
ϕ ∈ ker( t f ) ⇐⇒ t f (ϕ) = 0
⇐⇒ ϕ ◦ f = 0
⇐⇒ ∀x ∈ E, < f (x), ϕ >= 0
⇐⇒ ϕ ∈ (Im( f ))⊥
ii) Soit ψ ∈ Im( t f ), alors il existe ϕ ∈ F ∗ , telle que ψ = t f (ϕ), donc on aura,
∀x ∈ ker( f ), < x, ψ >=< x, t f (ϕ) >=< f (x), ϕ >= 0
donc ψ ∈ (ker( f ))⊥ , par suite, Im( t f ) ⊆ (ker( f ))⊥ .
Réciproquement, soit ψ ∈ (ker( f ))⊥ et soit G un supplémentaire de Im( f ) dans F.
Soit ϕ : F −→ K la correspondance définie par,
ϕ : F = Im( f ) ⊕ G −→ K
y = f (x) + z 7−→ ψ(x)
Alors ψ définit bien une application, car si y = f (x) + z = f (x0 ) + z, alors x − x0 ∈ ker( f ), donc
ψ(x − x0 ) = 0 et ainsi ψ(x) = ψ(x0 ), et on a
∀x ∈ E, ϕ( f (x)) = ψ(x)
Donc ψ = ϕ ◦ f = t f (ϕ).
Théorème 1.33.
D’autre part, on a
n
∀ j ∈ {1, 2, . . . , n}, tu(e∗j ) = ∑ bk j e∗k
k=1
Donc,
n
∀(i, j) ∈ {1, 2, . . . , n}2 , a ji =< u(ei ), e∗j >=< ei , tu(e∗j ) >= ∑ bk j < ei, e∗k >= bi j
k=1
Donc B = tA.
Preuve
(=⇒) Supposons que F est stable par u. Alors pour ϕ ∈ F ⊥ , on a
1.35 Exercices
Exercice 1
Pour chaque entier n ≥ 1, Rn [X] désigne l’ensemble des polynômes à coëfficients réels de degré ≤ n.
Soit ϕ l’application définie par,
ϕ : Rn [X] −→ R
P 7−→ 01 P(t)dt
R
ϕi : Rn [X] −→ R
P 7−→ P( ni )
Montrer que ∀i ∈ {0, 1, 2, . . . , n}, ϕi est une forme linéaire sur Rn [X] et que (ϕ0 , ϕ1 , . . . , ϕn ) est
une base de (R[X])∗ .
4. En déduire qu’il existe des réels a0 , a1 , . . . , an , tels que
Z 1 n
i
∀P ∈ Rn [X], P(t)dt = ∑ ai P( )
0 i=0 n
Exercice 2
E = R3 [X] est muni de sa base canonique (e0 , e1 , e2 , e3 ), où e0 = 1, e1 = X, e2 = X 2 et e3 = X 3 . Soit
F la partie de E définie par,
P ∈ F ⇐⇒ P(1) = 0 et P00 (0) = 0
a) Vérifier que F est un sous-espace vectoriel de E et déterminer une base de F.
b) Quelle est la dimension de F ?
c) Montrer que
∀ϕ ∈ E ∗ , ϕ ∈ F ⊥ ⇐⇒ ϕ(e0 ) = ϕ(e1 ) = ϕ(e3 )
d) Soient ϕ0 , ϕ1 , ϕ2 et ϕ3 les formes linéaires définies sur E par,
ϕ0 = e∗2
ϕ = e∗ + e∗ + e∗
1 0 1 3
ϕ = e∗ − e∗
2 1 2
ϕ3 = e2 − e∗3
∗
Vérifier que (ϕ0 , ϕ1 , ϕ2 , ϕ3 ) est une base de E ∗ et déterminer sa base préduale (v0 , v1 , v2 , v3 ).
Exercice 3
On considère les formes linéaires ϕ1 , ϕ2 , ϕ3 , ϕ4 définies sur R3 [X] par,
Exercice 4
On désigne par (e1 , e2 , e3 ) la base canonique de C2 [X]. Rappelons que
e0 = 1, e1 = X et e2 = X 2
Montrer (P1 , P2 , P3 ) est une base de C2 [X] et trouver les coordonnées d’un polynôme P dans
cette base.
c) Déterminer la base duale (P1∗ , P2∗ , P3∗ ) de (P1 , P2 , P3 ).
d) Soit u l’endomorphisme de C2 [X] défini par ;
Déterminer tu.
Exercice 5
Soit E = Kn [X]. Dans chacun des cas suivants, montrer que β = (ϕ1 , ϕ2 , . . . , ϕn ) est une base de E ∗ et
déterminer sa base préduale :
a)
∀i ∈ {1, 2, . . . , n}, ∀P ∈ E, ϕi (P) = P(xi )
x0 , x1 , . . . , xn sont des éléments deux à deux distincts de K.
b)
∀i ∈ {1, 2, . . . , n}, ∀P ∈ E, ϕi (P) = P(i) (0)
c)
∀i ∈ {1, 2, . . . , n}, ∀P ∈ E, ϕi (P) = P(i) (xi )
x0 , x1 , . . . , xn sont des éléments deux à deux distincts de K.
Exercice 6
E = Kn [X] et ϕ une forme linéaire sur E.
1. On suppose qu’il existe a ∈ K, tel que
Montrer qu’il existe (α, β) ∈ K2 , tels que ∀P ∈ E, ϕ(P) = αP(a) + βP0 (a).
Exercice 7
Soient K un corps commutatif et ϕ1 , ϕ2 , . . . , ϕn , n ≥ 2, les formes linéaires de K n définies par :
(
∀i ∈ {1, 2, . . . , n − 1}, ϕi (x) = xi + xi+1
∀x ∈ K n , x = (x1 , x2 , . . . , xn ) =⇒
ϕn (x) = x1 + xn
Exercice 8
Pour chaque aR, on considère la forme linéaire ϕa définie sur R2 [X], par :
Exercice 13
Soient E un K-espace vectoriel quelconque et p un entier ≥ 1. On suppose qu’il existe p formes
linéaires ϕ1 , ϕ2 , . . . , ϕ p , telles que
∀x ∈ E, ∀y ∈ E, f (y, x) = f (x, y)
∀x ∈ E, ∀y ∈ E, f (y, x) = − f (x, y)
Remarque 2.2.1
1. Si f est une forme bilinéaire quelconque, alors
23
2. Si f est une forme bilinéaire symétrique, alors
∀x ∈ E, ∀y ∈ E, f (x + y, x + y) = f (x, x) + 2 f (x, y) + f (y, y)
3. Si f est antisymétrique, alors
∀x ∈ E, f (x, x) = 0
Notations
On désigne par L2 (E) l’ensemble de toutes les formes linéaires sur E, S2 (E) l’ensemble de toutes les
formes bilinéaires symétriques sur E et A2 (E) celui de toutes les formes bilinéaires antisymétriques
sur E
Proposition 2.3.
Preuve
i) Il est facile de vérifier que la somme de deux formes linéaires et la multiplication d’une forme
linéaire par un scalaire sont aussi des formes linéaires, donc L2 (E) est un sous-espace vectoriel
du K-espace vectoriel de toutes les applications de E × E vers K.
ii) Remarquons d’abord que si K est un corps de caractéristique = 2, alors 1K = −1K , donc dans ce
cas S2 (E) = A2 (E).
Supposons, maintenant que K est un corps de caractéristique 6= 2. Soit f une forme bilinéaire
qui est à la fois symétrique et antisymétrique, alors on aura
∀(x, y) ∈ E × E, f (x, y) = f (y, x) et f (x, y) = − f (y, x)
Donc ∀(x, y) ∈ E × E, 2K f (x, y) = 0K , puisque 2K 6= 0K , alors on a,
∀(x, y) ∈ E × E, f (x, y) = 0K
Donc S2 (E) A2 (E) = {0}.
T
3. Si f est une forme bilinéaire sur E et si A = (ai j )1≤i, j≤n est la matrice de f par rapport à la
base β, alors
i) f est symétrique ⇐⇒ tA = A.
(où tA désigne la matrice transposée de A).
Donc, si f est symétrique, alors ∀(i, j) ∈ N2n , ai j = a ji , par suite, dans ce cas, l’expression
de f (x, y) s’écrit sous la forme :
n
f (x, y) = ∑ aii xi yi + ∑ ai j (xi y j + x j yi )
i=1 1≤i< j≤n
Preuve
En utilisant l’écriture matricielle par rapport aux bases β et β0 , on aura
∀(x, y) ∈ E × E, f (x, y) = tXAY = tX 0 BY 0
n n n n
avec x = ∑ xi ei = ∑ xi0 e0i et y = ∑ yi ei = ∑ y0i e0i .
i=1 i=1 i=1 i=1
Soit P la matrice de passage de la base β à la base β0 , alors on sait que X = PX 0 et Y = PY 0 .
Par suite, on aura
t
XAY = t(PX 0 )A(PY 0 )
= tX 0tPAPY 0
= tX 0 (tPAP)Y 0 (Rappelons que la multiplication des matrices est associative)
Donc ∀X 0 ∈ K n , ∀Y 0 ∈ K n , tX 0 BY 0 = tX 0 (tPAP)Y 0 , donc B = tPAP.
Soit K un corps commutatif. Deux matrices carrées A et B à coefficients dans K sont dites
congruentes, s’il existe une matrice inversible P, tel que B = tPAP.
Remarque 2.6.1
1. Deux matrices sont donc congruentes, si elles représentent la même forme bilinéaire par rap-
port à deux bases de E.
2. Deux matrices congruentes sont équivalentes, donc deux matrices congruentes ont même rang.
Ainsi, la définition suivante est justifiée :
Définition 2.7.
rg( f ) = rg(A)
Remarque 2.8.1
D’après la définition précédente, f est non dégénérée, si et seulement si, pour tout y ∈ E, on a
[∀x ∈ E, f (x, y) = 0] =⇒ y = 0
Cela signifie que si pour un certain y ∈ E, on a f (x, y) = 0 pour tout x ∈ E, alors nécessairement, on
a y = 0.
Proposition 2.9.
Soient E un K-espace vectoriel de dimension finie, β une base de E, f une forme bilinéaire
symétrique sur E et A la matrice de f par rapport à la base β. Alors,
Preuve
On considère l’application Φ : E −→ E ∗ qui à chaque y fait correspondre ϕy .
Posons β = (e1 , e2 . . . , en ) et β∗ = (e∗1 , e∗2 , . . . , e∗n ) la base duale de β.
Soit M = (mi j )1≤i, j≤n la matrice de Φ par rapport aux bases β et β∗ , alors on a
n
∀ j ∈ {1, 2, . . . , n}, Φ(e j ) = ∑ mk j e∗k
k=1
n
f (ei , e j ) = Φ(e j )(ei ) = ∑ mk j e∗k (ei) = mi j (car e∗k (ei ) = δik )
k=1
Soient E un K-espace vectoriel quelconque, f une forme bilinéaire symétrique sur E. Soit
A une partie non vide de E, on définit l’orthogonale de A, par rapport à la forme binéaire f ,
noté A⊥ , par :
∀y ∈ E, y ∈ A⊥ ⇐⇒ ∀x ∈ A, f (x, y) = 0
Remarque 2.10.1
1. Pour chaque x ∈ E, soit ϕx ∈ E ∗ définie par :
∀y ∈ E, ϕx (y) = f (x, y)
∀y ∈ E, y ∈ A⊥ ⇐⇒ y ∈
\
ker(ϕx )
x∈A
0/ ⊥ = Vect(0)
/ ⊥ = {0}⊥ = E
Proposition 2.11.
Soient E un K espace vectoriel de dimension finie et f une forme bilinéaire symétrique sur
E, alors pour tout sous-espace vectoriel F de E, on a
i) dim(F) + dim(F ⊥ ) ≥ dim(E).
ii) Si de plus f est non dégénérée, alors on a dim(F) + dim(F ⊥ ) = dim(E) .
Preuve
On considère l’application Ψ : E −→ F ∗ définie par :
∀y ∈ E, ∀x ∈ F, Ψ(y)(x) = f (x, y)
ii) Supposons maintenant que f est non dégénérée et montrons que Im(Ψ) = F ∗ .
Soit ϕ ∈ F ∗ , existe-t-il y ∈ E, tel que Ψ(y) = ϕ ?
ϕ ∈ F ∗ , donc, d’après le théorème de prolongement des formes linéaires, il existe ψ ∈ E ∗ , telle
que
∀x ∈ F, ψ(x) = ϕ(x)
Or f est non dégénérée et E de dimension finie, donc l’application Φ : E −→ E ∗ , où
∀z ∈ E, ∀x ∈ E, Φ(z)(x) = f (x, z), est bijective.
Donc, il existe z ∈ E, tel que Φ(z) = ψ, donc on aura,
Corollaire 2.12.
Soient E un K-espace vectoriel de dimension finie et f une forme bilinéaire symétrique non
dégénérée sur E. Alors pour tout sous-espace vectoriel F de E, on a
F ⊥⊥ = F
Preuve
Puisque f est non dégénérée, alors on a
F = F ⊥⊥
Remarque 2.12.1
1. En fait, si f est une forme bilinéaire symétrique quelconque sur E, où E est de dimension finie,
alors pour tout sous-espace vectoriel F de E, on a
F ⊥⊥ = F + N
∀(x, y) ∈ E 2 , f (x, y) = x1 y1 − x2 y2
Donc F ⊥ = F.
Définition 2.13.
Remarque 2.13.1
Soit I = {x ∈ E : f (x, x) = 0} l’ensemble des vecteurs isotropes de E, alors on a
a) 0 ∈ I.
b) ∀λ ∈ K, ∀x ∈ I, λx ∈ I.
Par contre I n’est pas stable pour l’addition.
Par exemple, si on prend E = R2 , f (x, y) = x1 y1 − x2 y2 , x = e1 + e2 et y = e1 − e2 , alors on aura,
f (x, x) = f (y, y) = 0 et f (x + y, x + y) = 2
Théorème 2.14.
Preuve
(=⇒) Trivial.
(⇐=) Supposons que F est non isotrope, donc F ∩ F ⊥ = {0}. Or on sait que
⊥
F ∩ F = {0}
E = F ⊕ F ⊥ ⇐⇒ et
F + F⊥ = E
∀x ∈ F, ϕy (x) = f (x, y)
Remarque 2.15.1
Supposons que E possède une base orthogonale β = (e1 , e2 , . . . , en ) et soit A = (ai j )1≤i, j≤n la matrice
de f par rapport à β, donc pour i 6= j, on a ai j = f (ei , e j ) = 0. Donc A est une matrice diagonale et
n n
on a pour x = ∑ xi ei et y = ∑ yi ei ,
i=1 i=1
n
f (x, y) = ∑ aii xi yi
i=1
n
Donc, en particulier, pour tout x ∈ E, avec x = ∑ xi ei , on a
i=1
n
f (x, x) = ∑ aii xi2
i=1
Dans la suite on se propose de montrer que toute forme bilinéaire symétrique possède au moins une
base orthogonale.
Preuve
(=⇒) Trivial.
(⇐=) Supposons que pour tout x ∈ E, f (x, x) = 0 et montrons que f est identiquement nulle.
Soient (x, y) ∈ E × E, alors on a f (x + y, x + y) = 0.
On a aussi f (x + y, x + y) = f (x, x) + 2 f (x, y) + f (y, y) = 2 f (x, y), donc f (x, y) = 0, car K est
un corps de caractéristique 6= 2.
Théorème 2.17.
Soit E un K-espace vectoriel de dimension finie. Alors toute forme bilinéaire symétrique f
sur E, possède au moins une base orthogonale.
Preuve
Si f est identiquement nulle, alors toute base de E est orthogonale.
On peut donc supposer que f 6= 0, donc d’après le lemme précédent, il existe au moins un x0 ∈ E, tel
que f (x0 , x0 ) 6= 0.
Posons F = Vect(x0 ), puisque f (x0 , x0 ) 6= 0 alors F est non isotrope, donc
E = F ⊕ F⊥
Donc pour montrer l’existence d’une base orthogonale, nous somme amenés à procèder par récur-
rence sur n = dim(E), avec n ≥ 2.
Pour n = 2, soient e1 = x0 et e2 un vecteur quelcoque de F ⊥ , avec e2 6= 0, alors (e1 , e2 ) est une base
orthogonale de E.
H.R "Supposons que n > 2 et que toute forme bilinéaire symétrique sur un K-espace vectoriel de
dimension < n, possède aumoins une base orthogonale".
Soit E un K-espace vectoriel de dimension n et soit g la réstriction de f à F ⊥ × F ⊥ , alors g est une
forme bilinéaire symétrique sur F ⊥ , avec dim(F ⊥ ) = n − 1. Donc, d’après l’hypothèse de récurrence,
F ⊥ possède au moins une base orthogonale (e1 , . . . , en−1 ). On déduit donc que (e1 , . . . , en−1 , x0 ) est
une base orthogonale de E.
Soit E un K-espace vectoriel. On dit qu’une application q : E −→ K est une forme quadra-
tique sur E, s’il existe une forme bilinéaire f , telle que
∀x ∈ E, q(x) = f (x, x)
∀x ∈ E, q(x) = f (x, x)
est une forme quadratique sur E, appelée forme quadratique associée à la forme bilinéaire symétrique
f.
Réciproquement, à toute forme quadratique, on peut associer une forme binéaire symétrique unique,
comme le montre la proposition suivante :
Proposition 2.20.
Soient E un K-espace vectoriel et q une forme quadratique sur E. Alors il existe une forme
bilinéaire symétrique unique f sur E, telle que
∀x ∈ E, q(x) = f (x, x)
Preuve
q est une forme quadratique sur E, donc, par définition, il existe une forme bilinéaire g sur E, telle
que
∀x ∈ E, q(x) = g(x, x)
Soit f : E × E −→ K l’application définie par :
g(x, y) + g(y, x)
∀(x, y) ∈ E × E, f (x, y) =
2
Alors f est une forme bilinéaire symétrique sur E et on a
g(x, x) + g(x, x)
∀x ∈ E, f (x, x) = = g(x, x) = q(x)
2
Puuisque f est symétrique, alors
donc
1
∀x ∈ E, ∀y ∈ E, f (x, y) = (q(x + y) − q(x) − q(y))
2
Cette relation entre q et f assure l’unicité de f .
Remarque 2.20.1
Soient E un K-espace vectoriel de dimension finie = n, q une forme quadratique sur E et f la forme
polaire associée à q.
1. Soit β une base de E et soit A = (ai j )1≤i, j≤n la matrice de f par rapport à la base β.
Alors A s’appelle aussi la matrice de q par rapport à β et on a
n
∀x ∈ E, q(x) = ∑ aii xi2 + 2 ∑ ai j xi x j
i=1 1≤i< j≤n
3. Le rang d’une forme quadratique est défini comme étant le rang de sa forme pôlaire associée.
Théorème 2.21.
Preuve n
Fixons une base (e1 , e2 , . . . , en ) de E, alors pour chaque x ∈ E, avec x = ∑ xi ei , on a
i=1
n
q(x) = ∑ aii xi2 + 2 ∑ ai j xi x j
i=1 1≤i< j≤n
D’après le théorème 1.17, q possède au moins une base q-orthogonale (v1 , v2 , . . . , vn ). Soit A la ma-
trice de q par rapport à cette base, donc A est une matrice diagonale de rang r, par suite le nombre
des coefficients diagonaux non nuls est égal à r. Donc quitte à réordonner les vecteurs de la base
(v1 , v2 , . . . , vn ), on peut supposer que
r
q(x) = ∑ λi Xi2 où ∀i ∈ {1, 2, . . . , r}, λi = aii
i=1
Soit P = (pi j )1≤i, j≤n la matrice de passage de la base (v1 , v2 , . . . , vn ) à la base (e1 , e2 , . . . , en ), alors
on sait que
n
∀i ∈ {1, 2, . . . , n}, Xi = ∑ pi j x j
j=1
Soit β∗ = (e∗1 , e∗2 , . . . , e∗n ) la base duale de β = (e1 , e2 , . . . , en ), alors, par définition, on a
i) Si (a, b) 6= (0, 0), alors on peut supposer, par exemple, que a 6= 0, puis on procède de la manière
suivante :
Donc v1 = e1 et v2 = − ac e1 + e2 .
ii) Si a = 0 et b = 0, alors q s’écrit sous la forme :
c c
q(x) = 2cx1 x2 = (x1 + x2 )2 − (x1 − x2 )2
2 2
(car ∀a ∈ K, ∀b ∈ K, ab = 41 [(a + b)2 − (a − b)2 ])
Donc, si on pose λ1 = 2c , λ2 = − 2c , l1 (x) = x1 + x2 et l2 (x) = x1 − x2 , alors on aura
Ainsi une base q-orthogonale a pour matrice de passage par rapport à la base (e1 , e2 ), la matrice
définie par :
−1
1 1 1 1 1
P= =
1 −1 2 1 −1
Donc v1 = 12 (e1 + e2 ) et v2 = 12 (e1 − e2 ).
Cas de la dimension 3
Soient E un K-espace vectoriel de dimension 3, (e1 ,2 , e3 ) une base de E et q : E −→ K une forme
quadratique. Alors pour tout x ∈ E, x = x1 e1 + x2 e2 + x3 e3 , on a
où !2
n n
Q(x2 , . . . , xn ) = ∑ ai xi2 + 2 ∑ ai j xi x j − ∑ α jx j
i=2 2≤i< j≤n j=2
est une forme quadratque en x2 , x3 , . . . , xn , donc on peut considérer Q comme une forme qua-
dratique sur un K-espace vectoriel de dmension n − 1 et on applique, alors, l’hypothèse de
récurrence à Q.
i) ∀i ∈ {1, 2, . . . , n}, ai = 0, alors, dans ce cas, q s’écrit sous la forme :
q(x) = ∑ αi j xi x j
1≤i< j≤n
q 6= 0, donc l’un au moins des coefficients αi j est non nul, donc pour simplifier on peut supposer
que α12 6= 0, puis on regroupe tous les termes contenant x1 et tous les termes contenant x2 . Ainsi,
on aura
" ! ! #
n n
q(x) = α12 x1 x2 + ∑ α1 j x j x1 + ∑ α2 j x j x2 + ∑ αi j xi x j
j=3 j=3 3≤i< j≤n
" ! ! #
n
α1 j n α
2j
= α12 x1 x2 + ∑ x j x1 + ∑ x j x2 + ∑ αi j xi x j
j=3 α12 j=3 α12 3≤i< j≤n
" ! ! ! !#
n α n α n α n α
2j 1j 1j 2j
= α12 x1 + ∑ xj x2 + ∑ xj − ∑ xj ∑ xj + ∑ αi j xi x j
α
j=3 12 α
j=3 12 α
j=3 12 α
j=3 12 3≤i< j≤n
! !
n α n α
2j 1j
= α12 x1 + ∑ xj x2 + ∑ x j + Q(x3 , . . . , xn )
α
j=3 12 α
j=3 12
!2 !2
n α +α n α −α
α12 2j 1j α12 2j 1j
= x1 + x2 + ∑ xj − x1 − x2 + ∑ x j + Q(x3 , . . . , xn )
4 j=3 α12 4 j=3 α12
Exemples
1. Soit q la forme quadratique définie sur R3 par :
Déterminons une base q-orthogonale. Pour cela, décomposons q sous forme de carrés.
Donc une base q-orthogonale (v1 , v2 , v3 ) est déterminée par sa matrice de passage P de la base
(e1 , e2 , e3 ) à la base (v1 , v2 , v3 ) :
1 2 −1
P = 0 1 1
0 0 1
Donc, on aura
v1 = e1
v2 = 2e1 + e2
v3 = −e1 + e2 + e3
q(x, y, z,t) = xy + yz + zt + tx
q(x, y, z,t) = xy + yz + zt + tx
= (x + z)(y + t)
1 1
= (x + y + z + t)2 − (x − y + z − t)2
4 4
1 1
= (x + y + z + t)2 − (x − y + z − t)2 + 0z2 + 0t 2
4 4
Donc, on aura
x = 21 X + 12 Y − Z
y = 1 X − 1 Y − T
2 2
z = Z
t =T
Une base q-orthogonale est détermnée par la matrice de passage P, défine par :
1 1 −2 0
1 1 −1 0 −2
P=
2 0 0 2 0
0 0 0 2
Donc, si on pose
v1 = 12 e1 + 12 e2
v = 1 e − 1 e
2 2 1 2 2
v3 = −e1 + e3
v4 = −e2 + e4
Donc, si on pose
v1 = 12 e1 + 12 e2
v = 1 e − 1 e
2 2 1 2 2
v3 = e1 − e2 + e3
v4 = −2e1 − e3 + e4
Remarque 2.23.1
Soient E un K-espace vectoriel de dimension finie = n et f une forma bilnéaire symétrique sur E. On
suppoose que f possède une base orthonormale β, alors la matrice de f par rapport à β est égale à
la matrice identité, donc f est non dégénérée. La condition f non dégénérée est donc une condition
nécessaire pour l’existence d’une base orthonormale.
Nous allons voir par la suite que cette conditon n’est pas toujours suffisante.
Proposition 2.24.
Soit E un C-espace vectoriel de dimension finie = n. Alors toute forme bilinéaire symé-
trique non dégénérée sur E, possède au moins une base orthonormale.
Preuve
On sait que toute forme bilinéaire symétrique sur un K-espace vectoriel de dimension finie , possède
au moins une base orthogonale.
Proposition 2.25.
Soit E un R-espace vectoriel de dimension finie et f une forme bilinéaire symétrique non
dégénérée sur E. Alors f possède une base orthonormale, si, et seulement si,
∀x ∈ E, x 6= 0 =⇒ f (x, x) > 0
Preuve
(=⇒) Supposons que f possède une base orthonormale (e1 , e2 , . . . , en ), donc pour chaque x ∈ E,
n
avec x 6= 0 et x = ∑ xi ei , on a
i=1
n
f (x, x) = ∑ xi2 > 0
i=1
Soit E un R-espace vectoriel de dimension finie = n, f une forme bilinéaire symétrique sur
E de rang r et (e1 , e2 , . . . , en ) une base orthogonale de E.
Soit p le nombre des i ∈ {1, 2, . . . , n}, tels que f (ei , ei ) > 0 et soit q le nombre des
i ∈ {1, 2, . . . , n}, tels que f (ei , ei ) < 0. Alors le couple (p, q) ne dépend pas de la base
orthogonale choisie et on a p + q = r.
Dans ce cas, (p, q) s’appelle la signature de f .
Preuve
Soit (v1 , v2 , . . . , vn ) une autre base orthogonale de E et soient p0 le nombre des i ∈ {1, 2, . . . , n}, tels
que f (vi , vi ) > 0 et q0 le nombre des i ∈ {1, 2, . . . , n}, tels que f (vi , vi ) < 0. Pour simplfier, quitte à
réordonner les éléments des deux bases, on peut supposer que f (ei , ei ) > 0 pour i ∈ {1, 2, . . . , p} et
f (vi , vi ) > 0 pour i ∈ {1, 2, . . . , p0 }. Puisque f est de rang r et puisque la matrice M de f par rapport
à une base orthogonale est une matrice diagonale, alors le nombre des éléments diagonaux non nuls
de M est égal à r, car rg(A) = rg( f ) = r, on en déduit donc que p + q = p0 + q0 = r.
Montrons maintenant que p = p0 et q = q0 , pour cela, considèrons le système S = (e1 , . . . , e p , v p0 +1 , . . . , vn )
α1 e1 + · · · + α p e p + β1 v p0 +1 + · · · + βn−p0 vn = 0
et d’autre part, on a
Donc on en déduit que f (x, x) = 0 et puisque f (ei , ei ) > 0, pour i ∈ {1, 2, . . . , p}, alors
α1 = α2 = · · · = α p = 0
2.27 Exercices
Exercice 17
Soit f la forme bilinéaire symétrique définie sur R3 par,
Vérifier que (e01 , e02 , e03 ) est une base de R3 et écrire la matrice de f par rapport à cette base.
Exercice 18
Soient ϕ1 : C 1 ([0, 1]) × C 1 ([0, 1]) −→ R et ϕ2 : R3 [X] × R3 [X] −→ R les applications définies par :
Z 1
ϕ1 ( f , g) = f (0)g(0) + f 0 (t)g0 (t)dt et ϕ2 (P, Q) = P(0)Q(1)
0
Exercice 19
Soit f la forme bilinéare définie sur R3 par :
Exercice 22
Soit E un K-espace vectoriel de dimension finie, muni d’une forme bilinéaire symétrique f . On note
N le noyau de f et on rappelle que N = E ⊥ :
∀y ∈ E, y ∈ N ⇐⇒ ∀x ∈ E, f (x, y) = 0
Soit F = { f ∈ E : f (0) = 0}
a) Vérifier que F est un hyperplan de E.
Exercice 24
Donner la matrice des formes quadratiques suivantes, puis les réduire sous forme de carrés et déter-
miner la signature et une base q-orthogonale pour chacune d’entre elles.
1. q(x, y, z) = x2 + 2xy + 2yz + 2xz.
2. q(x, y, z) = x2 + 3y2 − 3z2 − 8yz + 2xz − 4xy.
3. q(x, y, z) = x2 + y2 + z2 + xy + myz
4. q(x, y, z,t) = xy + 2xt + yz + 4yt + 2zt.
5. q(x, y, z,t) = xy + yt − zt − 2xt − 2yz − xz.
Exercice 25
Soit q la forme quadratique défine sur R3 , par
Exercice 26
Soit q la forme quadratique définie sur R4 par :
Exercice 27
Soient E un R-espace vectoriel de dimension finie = n, a un vecteur non nul de E, q une forme
quadratique sur E et ϕ la forme polaire associée. Soit Q : E −→ R l’application définie par :
1. Montrer que Q est une forme quadratique et déterminer la forme polaire associée.
∀x ∈ E, q(x) ≥ 0 ou ∀x ∈ E, q(x) ≤ 0
Montrer que C(q) = N, en déduire, que dans ce cas, C(q) est un sous-espace vectoriel de E.
(On pourra étudier le signe de q(x + λy), pour x ∈ C(q), y ∈ E et λ ∈ R).
2. On ne suppose plus que q garde un signe constant. Soient x0 et y0 deux vecteurs de E, tels que
q(x0 ) > 0 et q(y0 ) < 0.
a) Montrer que (x0 , y0 ) est libre.
b) Montrer qu’il existe deux réels distincts λ1 et λ2 , tels que,
q(x0 + λ1 y0 ) = q(x0 + λ2 y0 ) = 0
Exercice 34
Soient E un R-espace vectoriel de dimension finie = n, q une forme quadratique sur E de signature
(n − 1, 1) et F un sous-espace vectoriel de E de dimension p.
On suppose qu’il existe x0 ∈ F, tel que q(x0 ) < 0.
1. Montrer que E = Vect(x0 ) ⊕Vect(x0 )⊥ .
2. Montrer que la réstriction à Vect(x0 )⊥ est définie positive.
3. Montrer que F ∩Vect(x0 )⊥ est de dimension p − 1.
4. Quelle est la signature de la réstriction de q à F ?
5. Montrer que E = F ⊕ F ⊥ .
∀x ∈ E, f (x, x) = 0
Montrer que si f est alternée non identiquement nulle, alors σ = IdK et f antisymétrique.
3. Une forme σ-sesquilinéaire f est dite hermitienne si
Exercice 36
Soient a un nombre réel et q la forme quadratique définie sur R3 par :
∀x ∈ E, x 6= 0 =⇒ f (x, x) > 0
iii) On appelle produit scalaire sur E, toute forme bilinéaire symétrique définie positive.
iv) Un R-espace vectoriel muni d’un produit scalaire s’appelle un espace préhilbertien réel.
v) Un espace préhilbertien réel de dimension finie s’appelle un espace euclidien.
Remarque 3.2.1
1. Tout produit scalaire est non dégénéré.
En effet, soit f un produit scalaire et soit y ∈ E, tel que,
∀x ∈ E, f (x, y) = 0
Donc, en particulier, pour x = y, on a f (y, y) = 0, donc y = 0.
2. Une forme quadratique q sur un R-espace vectoriel E est dite positive (resp. définie positive),
si la forme polaire associée à q est positive (resp. définie positive). Donc, on aura
q est posive ⇐⇒ ∀x ∈ E, q(x) ≥ 0
(q est définie posive) ⇐⇒ (∀x ∈ E, x 6= 0 =⇒ q(x) > 0)
3. Une matrice symétrique réelle A est dite positive (resp. définie positive), si la forme quadratique
définie par la matrice A est positive (resp. définie positive). Donc, pour une matrice symétrique
A ∈ Mn (R) on aura,
A est posive ⇐⇒ ∀X ∈ Rn , t XAX ≥ 0
48
(A est définie posive) ⇐⇒ (∀X ∈ Rn , X 6= 0 =⇒ t XAX > 0)
Exemples
1. Le produit scalaire usuelle sur Rn est défini par :
n
n n
∀x ∈ R , ∀y ∈ R , f (x, y) = ∑ xi yi
i=1
Il est clair que ϕ définit une forme bilinéaire symétrique positive sur C ([a, b], R).
Reste à vérifier que f est définie positive, pour cela, soit f ∈ C ([a, b], R), tel que f 6= 0.
f > 0 et f continue donc il existe x0 ∈]a, b[ tel que f (x0 ) 6= 0. f est continue, donc | f | est aussi
continue, donc pour ε = | f (x20 )| , il existe α > 0, tel que pour tout x ∈ [x0 − α, x0 + α], on a
1 3
| f (x0 ) ≤ | f (x)| ≤ | f (x0 )|
2 2
Donc, on aura
Z b Z x0 +α Z x0 +α
2 2 1
ϕ( f , f ) = f (t) dt ≥ f (t) dt ≥ f (x0 )2 dt = α f (x0 )2 > 0
a x0 −α 2 x0 −α
Proposition 3.3.
Preuve
i) Soit f un produit scalaire sur E, puisque f est une forme bilinéaire symétrique sur E, alors E
possède au moins une base orthogonale (e1 , e2 , . . . , en ) et puisque f est définie positive, alors
∀i ∈ {1, 2, . . . , n}, f (ei , ei ) > 0. Soit (v1 , v2 , . . . , vn ) le système défini par :
1
∀i ∈ {1, 2, . . . , n}, vi = p ei
f (ei , ei )
Règles de calcul
i)
∀x ∈ E, ∀y ∈ E, kx + yk2 = kxk2 + 2 < x, y > +kyk2
ii)
∀x ∈ E, ∀y ∈ E, kx − yk2 = kxk2 − 2 < x, y > +kyk2
iii)
∀x ∈ E, ∀y ∈ E, kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ) (Identité du prallèlogramme)
2.
n
∀x ∈ E, ∀y ∈ E, < x, y >= ∑ < x, ei >< y, ei >
i=1
3.
n
∀x ∈ E, kxk2 = ∑ (< x, ei >)2
i=1
Preuve n
1. Soit x ∈ E avec x = ∑ xk ek , alors on aura
k=1
n
∀i ∈ {1, 2, . . . , n}, < x, ei >= ∑ xk < ek , ei >= xi ((car < ek , ei >= δki )
k=1
2. Exercice.
3. Exercice.
4. A = (ai j )1≤i, j≤n = Mat(u, (e1 , e2 , . . . , en )), donc on a
n
∀ j ∈ {1, 2, . . . , n}, u(e j ) = ∑ ak j ek
k=1
Donc,
n
∀i ∈ {1, 2, . . . , n}, ∀ j ∈ {1, 2, . . . , n}, < u(e j , ei >= ∑ ak j < ek , ei >= ai j (car < ek , ei >= δki )
k=1
Soit E un R-espace vectoriel muni d’une forme blinéaire symétrique positive, alors on a
p p
∀x ∈ E, ∀y ∈ E, | f (x, y)| ≤ f (x, x) f (y, y)
Preuve
Soit (x, y) ∈ E 2 , puisque f est positif, alors on a
il s’agit donc d’un polynÃt’me de second degrÃl’ en λ qui garde un signe constant, donc son discri-
minant est nÃl’gatif. Donc on a
f (x, y)2 − f (x, x) f (y, y) ≤ 0
D’où le résultat.
Corollaire 3.6.
Preuve
On sait que tout produit scalaire est une forme bilinéaire définie positive, donc, en particulier, tout
produit scalaire est positive, donc, d’après le théorème précédent, on a le résultat.
Proposition 3.7.
Preuve
(=⇒) Supposons que | < x, y > | = kxkkyk, alors le discriminant du polynôme en λ :
2. on considère l2 (R) muni de son produit scalaire usuel, alors l’inégalité de Cauchy-Schwartz se
traduit par :
!1 !1
∞ ∞ 2 ∞ 2
3. On considère C ([a, b], R) muni de son produit scalaire usuel, alors l’inégalité de Cauchy-
Schwartz se traduit par :
Z b Z b
12 Z b
12
2 2
∀ f ∈ C ([a, b], R), ∀g ∈ C ([a, b], R), f (t)g(t)dt ≤ f (t) dt g(t) dt
a a a
Définition 3.8.
Notations
Soit (E, N) un espace normé, alors pour tout x ∈ E, on pose kxk = N(x) et on lit "norme de x".
Si plusieurs normes sont définies sur E, on les désigne par k.k1 , k.k2 , . . . . . ..
Exemples
Les normes usuelles de Rn sont définies par :
n
n
∀x ∈ R , kxk1 = ∑ |xi |
i=1
!1
n 2
∀x ∈ Rn , kxk2 = ∑ xi2
i=1
n
∀x ∈ R , kxk∞ = sup |xi |
1≤i≤n
En utilisant les propriètés de la valeur absolue, il est facile de vérifier que les applications k.k1
et k.k∞ définissent des normes sur Rn , par contre, pour établir l’inégalité triangulaire concernant
l’application k.k2 , on utilise l’inégalité de Cauchy-Schwartz, comme le montre le corollaire suivant :
Preuve
Vérifions les trois propriètés de la définition d’une norme.
∀x ∈ E, < x, x >> 0 ⇐⇒ x 6= 0
∀x ∈ E, x = 0 ⇐⇒ kxk = 0
v1
e1 =
kv1 k
e02
e02 = v2 − < v2 , e1 > e1 et e2 =
ke02 k
..
.
j e0j+1
e0j+1 = v j+1 − ∑ < v j+1 , ek > ek et e j+1 =
k=1 ke0j+1 k
..
.
j
e0n
e0n = vn − ∑ < vn , ek > ek et en = 0
k=1 ken k
Puisque ∀ j ∈ {1, 2, . . . , n}, < v j , e j >=< e0j , e j >= ke0j k, alors on aura
Remarque 3.11.1
Soit (v1 , v2 , . . . , vn ) une base de E et (e1 , e2 , . . . , en ) la base orthonormale de E, obtenue en appliquant
le procécédé de Gram-Schmidt au système (v1 , v2 , . . . , vn ), alors on a
j
∀ j ∈ {1, 2, . . . , n}, v j = ∑ < v j , ei > ei
i=1
Donc, si P est la matrice de passage de (e1 , e2 , . . . , en ) à (v1 , v2 , . . . , vn ), alors P est une matrice
triangulaire supérieure dont les éléments diagonaux sont définis par :
Preuve
Si det(v1 , v2 , . . . , vn ) = 0, alors l’inégalité est trivial.
Si det(v1 , v2 , . . . , vn ) 6= 0, alors (v1 , v2 , . . . , vn ) est une base de E.
Soit (e1 , e2 , . . . , en ) la base orthonormale de E, obtenue en appliquant le procécédé de Gram-Schmidt
au système (v1 , v2 , . . . , vn ), alors d’après la remarque précédente, on a
Soit A la matrice de Mn,p (R) définie par A = (ai j )1≤i≤n,1≤ j≤p , alors on a
t
AA = (< vi , v j >)1≤i, j≤p
Preuve
Puisque (e1 , e2 , . . . , en ) est une base orthonormale, alors pour tout x ∈ E, on a
n
x = ∑ < x, ei > ei
i=1
Donc, en particulier, on a
∀ j ∈ {1, 2, . . . , n}, ∀i ∈ {1, 2, . . . , n}, ai j =< v j , ei >
Posons, maitenant, t AA = (αi j )1≤i, j≤p , alors pour tout (i, j) ∈ {1, 2, . . . , n}2 , on a
n
αi j = ∑ akiak j
k=1
n
= ∑ < vi, ek >< v j , ek >
k=1
n
=< vi , v j > (car ∀x ∈ E, ∀y ∈ E, < x, y >= ∑ < x, ek >< y, ek >)
k=1
Théorème 3.15.
Preuve
Soient β = (e1 , e2 , . . . , en ), γ = (v1 , v2 , . . . , vn ) et P = (pi j )1≤i, j≤n , alors on a
n
∀(i, j) ∈ {1, 2, . . . , n}2 , v j = ∑ pi j ei
i=1
Donc, d’après le lemme précédent, on a
(
t 1 si i = j
PP = (< vi , v j >)1≤i, j≤n = δi j =
0 si i 6= j
Donc tPP = I, par suite on a aussi P tP = I.
Remarque 3.16.1
1. Si A est une matrice orthogonale, alors A est inversible et on a
A−1 = tA
2. Si A est une matrice orthogonale, alors
det(A) = ±1
En fait, on a tAA = I, donc det(tAA) = det(I) = 1, donc det(A)2 = 1.
3. Fixons une base orthonormale β de E et soit γ une autre base orthonormale de E.
Soit P la matrice de passage de β à γ, alors d’après le lemme précédent, P est une matrice
orthogonale, donc on aura detβ (γ) = det(P) = ±1
Proposition 3.17.
Alors R est une relation d’équivalence ayant deux classes d’équivalence C1 et C2 définies
par :
C1 = {γ ∈ B : detβ (γ) = 1} et C2 = {γ ∈ B : detβ (γ) = −1}
Preuve
Exercice
Définition 3.18.
i) Un espace euclidien orienté est un couple (E, β), où E est un espace euclidien et β une
base orthnormale de E fixée.
ii) Si (E, β) est un espace euclien orienté et si γ est une base orthonormale de E, tel que
detβ (γ) = 1, on dit que γ est une base orthonormale directe.
Dans le cas contraire, on dit que γ est une base orthonormale indirecte.
Remarque 3.18.1
1. En pratique, pour simlifier, on dit soit E un espace euclidien orienté, donc, sous-entendu, E est
menu d’une base orthonormale β.
2. Soit E un espace euclidien orienté de dimension n et soit S = (v1 , v2 , . . . , vn ) un système de n
vecteurs de E. Alors le déterminant de S ne dépend pas de la base orthormale directe choisie.
En effet, soit γ une base orthonormale directe, alors on a
detβ (S) = detβ (γ) detγ β(S) = detγ (S) (car det(γ) = 1)
β
Donc, dans un espace euclidien orienté, det(S) désigne le déterminant de S par rapport à
n’importe quelle base orthonormale directe.
Soit E un espace euclidien, alors pour toute forme linéaire ϕ de E, il existe un unique y ∈ E,
tel que
∀x ∈ E, ϕ(x) =< x, y >
Preuve
On sait que le produit scalaire sur E est, en particulier, une forme bilinéaire symétrique non dégénéré,
donc l’application Φ : E −→ E ∗ définie par :
est bijective.
Donc pour chaque ϕ ∈ E ∗ , il existe un unique y ∈ E, tel que Φ(y) = ϕ et ainsi, on aura
Soit E un espace euclidien orienté de dimension 3. Alors pour tout couple de vecteurs (u, v)
de E, il existe un unique vecteur w de E, tel que
Preuve
Considèrons l’application ϕ : E −→ R définie par
∀x ∈ E, ϕ(x) = det(u, v, x)
Puisque le determinant est une forme multilinéaire, alors ϕ est une forme linéaire sur E, donc d’après
le théorème précédent, il existe un unique w ∈ E, tel que
Remarque 3.21.1
1. Le produit vectoriel u ∧ v de deux vecteurs u et v est caractériser par
Proposition 3.22.
Preuve
i) Pour tout x ∈ E, on a
< u ∧ (v + w), x > = det(u, v + w, x)
= det(u, v, x) + det(u, w, x)
=< u ∧ v, x > + < u ∧ w, x >
=< (u ∧ v + u ∧ w), x >
Donc, ∀x ∈ E, < u ∧ (v + w), x >=< (u ∧ v + u ∧ w), x >, par suite, u ∧ (v + w) = u ∧ v + u ∧ w).
ii) Pour tout x ∈ E, on a
< (λu) ∧ v, x > = det(λu, v, x)
= λ det(u, v, x) = λ < u ∧ v, x >
= det(u, λv, x) =< u ∧ (λv), x >
Donc, (λu) ∧ v = u ∧ (λv) = λ(u ∧ v).
iii) Pour tout x ∈ E, on a
< u ∧ v, x > = det(u, v, x)
= −λ det(v, u, x)
=< −(v ∧ u), x >
Donc u ∧ v = −v ∧ u.
v) (=⇒) Supposons que u ∧ v = 0, puis supposons, par absurde, que (u, v) est libre.
Soit x0 ∈ E, tel que x0 ∈
/ Vect(u, v), alors (u, v, x0 ) est libre, donc det(u, v, x0 ) 6= 0.
Ce qui est absurde, car ∀x ∈ E, det(u, v, x) = 0.
(⇐=) Supposons que (u, v) est lié.
Si u = 0 ou v = 0, alors u ∧ v = 0.
Si u 6= 0 et v 6= 0, alors il existe α ∈ R, tel que v = αu, donc on aura
u ∧ v = u ∧ (αu) = α (u ∧ u) = 0 (car ∀u ∈ E, u ∧ u = 0)
Remarque 3.22.1
Si (u, v) est libre, alors (u, v, u ∧ v) est une base de E.
En effet, on a
det(u, v, u ∧ v) =< u ∧ v, u ∧ v >= ku ∧ vk2
Puisque (u, v) est libre, alors, d’après la proposition précédente, u ∧ v 6= 0, donc det(u, v, u ∧ v) 6= 0 et
par suite (u, v, u ∧ v) est une base de E.
Proposition 3.23.
Preuve
Si (u, v) est lié, alors on sait que < u, v >= kukkvk et u ∧ v = 0, d’où le résultat.
Si (u, v) est libre, alors (u, v, u∧v) est une base de E. Soit P la matrice de passage de la base (u, v, u∧v)
à une base orthonormale de E, alors d’après le lemme précédent, on a
kuk2
< u, u > < u, v > < u, u ∧ v > < u, v > 0
t
PP = < v, u > < v, v > < v, u ∧ v > = < u, v > kvk2 0
< u ∧ v, u > < u ∧ v, v > < u ∧ v, u ∧ v > 0 0 ku ∧ vk2
D’aure part, on a
det(tPP) = ku ∧ vk2 kuk2 kvk2 − (< u, v >)2
Remarque 3.23.1
1. Si kuk = kvk = 1 et < u, v >= 0, alors (u, v, u ∧ v) est une base orthonormale directe de E.
En effet, on a
det(u, v, u ∧ v) = ku ∧ vk2 = kuk2 kvk2 − (< u, v >)2 = 1
Preuve
i) Si l’un des trois vecteurs est nul, alors il est clair que la proposition est vérifiée. Donc dans la suite,
on peut supposer que les trois vecteurs sont non nuls.
ii) Si (v, w) est lié, alors v ∧ w = 0, donc u ∧ (v ∧ w) = 0.
D’autre part, puisque v et w sont non nuls, alors il existe α ∈ R, tel que w = αv, donc on aura
< u, w > v− < u, v > w =< u, αv > v− < u, v > αv = α < u, v > v − α < u, v > v = 0
Donc, dans ce cas, la proposition est vérifiée.
iii) Si (v, w) est libre, alors F = Vect(v, w) est un espace euclidien de dimension 2. Soit (e1 , e2 ) une
v
base orthonormale de F, avec e1 = kvk et soit e3 un vecteur de E, tel que (e1 , e2 , e3 ) soit une
base orthonormale directe de E. Alors on aura
w = αe1 + βe2 et v = ae1 + be2 + ce3
Donc, d’une part, on a
u ∧ (v ∧ w) = u ∧ (v ∧ (αe1 + βe2 ))
= u ∧ (βkvke1 ∧ e2 )
= βkvku ∧ e3
= βkvk(ae1 ∧ e3 + be2 ∧ e3 )
= βkvk(be1 − ae2 )
D’autre part, on a
< u, w > v− < u, v > w =< ae1 + be2 + ce3 , αe1 + βe2 > v− < ae1 + be2 + ce3 , v > (αe1 + βe2 )
= (aα + bβ)kvke1 − akvk(αe1 + βe2 )
= βkvk(be1 − ae2 )
D’où le résultat.
Remarque 3.24.1
On a aussi
(u ∧ v) ∧ w =< u, w > v− < v, w > u
Donc le produit vectoriel n’est pas associatif. En fait, on montrer, voir exercices, que
u ∧ (v ∧ w) = (u ∧ v) ∧ w ⇐⇒ (v, u ∧ w) est lié
(F ∩ G)⊥ = F ⊥ + G⊥ et (F + G)⊥ = F ⊥ ∩ G⊥
Exercice 40
Soit E un espace préhilbertien réel x et y deux vecteurs de E. Montrer que
< x, y >= 0 ⇐⇒ ∀λ ∈ R, kx + λyk ≥ kxk
Exercice 41
Soient E un espace préhilbertien, x et y deux vecteurs non nuls de E. Montrer que
x y kx − yk
2
− 2
=
kxk kyk kxkkyk
kx − zk + ky − zk = kx − yk ⇐⇒ ∃α ∈ [0, 1] : z = (1 − α)x + αy
Exercice 44
Soient E un espace euclidien, a ∈ E et (α, β, γ) ∈ R3 . Résoudre, dans E, l’équation
n
1
∑ xi ≥ n2
i=1
(x + 2y + 3z)2 ≤ 14
9. Montrer que p p
∀(x, y) ∈ R2 , x y2 + 1 + y x2 + 1 < x2 + y2 + 1
10. Montrer que pour toute fonction continue f : [a, b] −→ R, on a
Z b 2 Z b
| f (t)|dt ≤ (b − a) f (t)2 dt
a a
Exercice 50
Mn (R) est muni de son produit scalaire usuel :
1. Montrer que la base canonique (Ei j )1≤i, j≤n est une base orthonormale de Mn (R).
2. Montrer que Sn (R)⊥ = An (R).
3. Montrer que √ p t
∀A ∈ Mn (R), tr(A) ≤ n tr( AA)
Etudier le cas dégalité
Exercice 51
Soient E un espace euclidien, α ∈ R, u, v et w trois vecteurs de E, tels que
a) Montrer que − 12 ≤ α ≤ 1.
b) Montrer que (u, v, w) est libre, si, et seulement si, − 12 < α < 1.
Exercice 52
Soient E un espace euclidien, n un entier ≥ 2 et S = (v1 , v2 , . . . , vn ) un système de vecteurs de E, tels
que
∀(i, j) ∈ {1, 2, . . . , n}2 , i 6= j =⇒< vi , v j >< 0
Montrer que rg(S) ≥ n − 1.
Exercice 53
Soient E un espace euclidien et S une partie de E, telle que
Exercice 54
Soit E un espace préhilbertien. On suppose qu’il existe un système de vectreurs (e1 , e2 , . . . , en ) de E,
tels que
n
∀x ∈ E, kxk2 = ∑ (< x, ei >)2
i=1
Exercice 58
Soient E un espace euclidien orienté de dimension 3, a, b, c et d quatres vecteurs de E.
Montrer que
a) < a ∧ b, c ∧ d >=< a, c >< b, d > − < a, d >< b, c >.
b) (a ∧ b) ∧ (c ∧ d) = det(a, b, d)c − det(a, b, c)d.
Exercice 59
Soient a et b deux vecteurs d’un espace euclidien orienté de dimension 3, avec a 6= 0.
1. Etudier l’équation a ∧ x = b.
(Indication : on cherchera une solution particulière sous la forme x = a ∧ y).
2. Soient u, v et w trois vecteurs de E. Trouver trois vecteurs x, y et z de E, tels que
u = x ∧ y
v = y∧z
w = z∧x
67
Alors, on aura
∀x ∈ E, ∀y ∈ E, < x, v(y) >=< x, w(y) >
Ainsi, on en déduit que ∀y ∈ E, w(y) = v(y).
Proposition 4.3.
Mat(u∗ , β) = tMat(u, β)
Preuve
i) Soit w = u∗∗ = (u∗ )∗ , alors w est l’unique endomorphisme de E vérifiant
Donc u∗∗ = u.
ii)
Donc (u + v)∗ = u∗ + v∗ .
iii) Se démontre de la même manière que ii).
iv) Pour tout x ∈ E et pour tout y ∈ E, on a
< (v◦u)∗ (x), y >=< x, (v◦u)(y) >=< x, v(u(x)) >=< v∗ (x), u(y) >=< u∗ (v∗ (x)), y >=< (u∗ ◦v∗ )(x), y >
Donc (v ◦ u)∗ = u∗ ◦ v∗ .
v) Soient β = (e1 , e2 , . . . , en ) une base orthonormale de E, A la matrice de u et B la matrice de u∗ par
rapport à β, alors on sait que
Donc B = tA.
Preuve
i) Soit y ∈ E, alors on a
y ∈ ker(u∗ ) ⇐⇒ u∗ (y) = 0
⇐⇒ ∀x ∈ E, < u∗ (y), x >= 0
⇐⇒ ∀x ∈ E, < y, u(x) >= 0
⇐⇒ y ∈ Im(u)⊥
Remarque 4.6.1
Si p est la projection sur F parallèlement à G, alors on a
i) p2 = p, c’est à dire p est un projecteur de E.
ii) Im(p) = {x ∈ E : p(x) = x} = F ;
iii) ker(p) = G.
Preuve
i) Pour x ∈ E, on a u(u(x) − x) = u2 (x) − u(x) = 0, (car u2 = u).
ii) Si u(x) = x, alors x ∈ Im(u).
Réciproquement, si x ∈ Im(u), alors il existe y ∈ E, tel que x = u(y), donc
Définition 4.8.
pF : E = F ⊕ F ⊥ −→ E
x = x1 + x2 7−→ pF (x) = x1
Remarque 4.8.1
1. Pour tout sous-espace vectoriel de E, on a
pF ⊥ = IdE − pF
2. Soient x ∈ E et y ∈ E, alors on a
y ∈ F
y = pF (x) ⇐⇒ et
x − y ∈ F⊥
y ∈ F
⇐⇒ et
∀z ∈ F, < x − y, z >= 0
Preuve
i) =⇒ ii) Supposons que u est une projection orthogonale et montrons que u∗ = u.
Puisque u est une projection orthogonale, alors ker(u) = Im(u)⊥ , donc
∀x ∈ E, ∀y ∈ E, < u(x), y − u(y) >= 0
Soient x ∈ E et y ∈ E, alors on a
< u(x), y > =< u(x), (y − u(y)) + u(y) >
=< u(x), y − u(y) > + < u(x), u(y) >
=< u(x), u(y) > (car < u(x), y − u(y) >= 0)
=< (u(x) − x) + x, u(y) >
=< u(x) − x, u(y) > + < x, u(y) >
=< x, u(y) > (car < u(x) − x, u(y) >= 0)
Donc ∀x ∈ E, ∀y ∈ E, < u(x), y >=< x, u(y) >, donc d’après l’unicité de l’adjoint on a u∗ = u.
ii) =⇒ iii) Supposons que u∗ = u et soit x ∈ E, alors on a
ku(x)k2 =< u(x), u(x) >
=< u∗ (u(x)), x >
=< u2 (x), x > (car u∗ = u)
=< u(x), x > (car u2 = u)
≤ ku(x)kkxk (d’après l’inégalité de Cauchy-Schwartz)
Donc ∀x ∈ E, ku(x)k ≤ kxk.
iii) =⇒ i) Supposons que ∀x ∈ E, ku(x)k ≤ kxk et montrons que u est une projection orthogonale.
Pour cela, il suffit de montrer que ker(u)⊥ = Im(u).
Soit y ∈ ker(u)⊥ , pour montrer que y ∈ Im(u), il suffit d’établir que u(y) = y.
ku(y) − yk2 =< u(y) − y, u(y) − y >
=< u(y) − y, u(y) > − < u(y) − y, y >
=< u(y) − y, u(y) > (car u(y) − y ∈ ker(u) et y ∈ ker(u)⊥ )
=< u(y), u(y) > − < y, u(y) >
=< u(y), u(y) > − < y, (u(y) − y) + y >
=< u(y), u(y) > − < y, y > (car < y, u(y) − y >= 0)
= ku(y)k2 − kyk2
≤ 0 (car ∀x ∈ E, ku(x)k ≤ kxk)
Proposition 4.10.
Preuve
On sait que pour tout x ∈ E, on a pF (x) ∈ F. Puisque (v1 , v2 , . . . , v p ) est une base orthonormale de
F, alors on a
p
pF (x) = ∑ < pF (x), vi >
i=1
Ainsi, on aura
D’où le résultat.
Exemples
1. Soit F une droite vectorielle de E, donc F = Vect(x0 ) avec x0 6= 0.
v = kxx00 k est une base orthonormale de E, donc on aura
< x, x0 >
∀x ∈ E, pF (x) = x0
kx0 k2
< x, x0 >
∀x ∈ E, pH (x) = x − x0
kx0 k2
3. R3 est muni de son produit scalaire usuel. Trouver la matrice, par rapport à la base canonique
(e1 , e2 , e3 ) de R3 , de la projection orthogonale sur la droite vectoriel F = Vect(e1 − e3 ).
Donc, on aura
2 −1 0 −1
1 −1 2 0 −1
Mat(pF , (e1 , e2 , e3 , e4 )) =
3 0 0 1 0
−1 −1 0 2
5. R4 est muni de son produit scalaire usuel. Trouver la matrice, par rapport à la base canonique
(e1 , e2 , e3 , e4 ) de R3 , de la projection orthogonale sur le sous-espace vectoriel F = Vect(e1 +
e2 , e1 + e4 ).
Dans ce cas, pour déterminer l’expression de pF , on doit chercher une base orthonormale
de F. En appliquant le procédé d’orthonormalisation de Gram-Schmidt, on obtient une base
orthonormale (v1 , v2 ) définie par
1 1
v1 = √ (e1 + e2 ) et v2 = √ (e1 − e2 + 2e4 )
2 6
Donc, d’après la proposition précédente, on aura
Donc, on aura
7 7 0 2
1 2 7
0 −2
Mat(pF , (e1 , e2 , e3 , e4 )) =
6 0 0 0 0
2 −2 0 4
Soient (E, k · k) un espace normé, x ∈ E et A une partie non vide de E. On définit la distance
de x à A, qu’on note d(x, A), par
d(x, A) = inf kx − yk
y∈A
Rappelons qu’un espace euclidien E est un espace normé et que la norme est définie à l’aide le produit
scalaire par : √
∀x ∈ E, kxk = < x, x >
Théorème 4.12.
∀x ∈ E, d(x, F) = kx − pF (x)k
Preuve
Soit x ∈ E, alors pour tout y ∈ F, on a
x − y = x − pF (x) + pF (x) − y avec x − pF (x) ∈ F ⊥ et pF (x) − y ∈ F
Donc, on aura
∀y ∈ F, kx − yk2 = kx − pF (x)k2 + kpF (x) − yk2 ≤ kx − pF (x)k2
Ainsi, on a
inf kx − yk ≤ kx − pF (x)k
y∈F
Or, on sait que pF (x) ∈ F, donc kx − pF (x)k ≤ inf kx − yk. Donc, on aura
y∈F
On considère R2 [X] le R-espace vectoriel des polynômes à coefficients réels de degré ≤ 2, muni du
produit scalaire défini par
Z 1
∀P ∈ R2 [X], ∀Q ∈ R2 [X], < P, Q >= P(t)Q(t)dt
0
Soit F = {P ∈ R2 [X] : deg(P) ≤ 1}, alors dim(F) = 2, donc F est un hyperplan de R2 [X].
Soit P = X 2 , alors on a
Z 1
2 2
d(P, F) = inf kP − Qk = inf (t 2 − at − b)2 dt
Q∈F (a,b)∈R2 0
< P, Q >
pF (P) = P − Q
kQk2
Avec
Z 1 Z 1
1 1
< P, Q >= t 2 (6t 2 − 6t + 1)dt = et kQk2 = (6t 2 − 6t + 1)2 dt =
0 30 0 5
Donc, on aura
1
pF (P) = X −
6
Par suite, on a
Z 1 Z 1
2 2 2 1 1
inf (t − at − b) dt = kP − pF (P)k = (t 2 − t + )2 dt =
(a,b)∈R2 0 0 6 180
Remarque 4.14.1
Soit s la symétrie par rapport à F parallélement à G, alors on vérifie facilement que
i) s est un endomorphisme de E et s2 = IdE ;
ii) F = ker(s − IdE ) et G = ker(s + IdE ) ;
iii) s = 2p − IdE où p est la projection sur F parallélement à G.
Rappelons qu’un endomorphisme u de E vérifiant u2 = IdE s’appelle une symétriede E.
Proposition 4.15.
Preuve
i) On a (u − IdE )(u + IdE ) = 0, donc d’après le théorème de décomposition des noyaux, on aura
Donc u est la symétrie par rapport à F = ker(u − IdE ) parallélement à G = ker(u + IdE ).
sF : E = F ⊕ F ⊥ −→ E
x = x1 + x2 7−→ sF (x) = x1 − x2
Proposition 4.17.
Preuve
i) =⇒ ii) Supposons que u est une symétrie orthogonale.
Soit p la projection orthogonale sur F, alors on sait que u = 2p − IdE , donc on aura
ku(x)k2 =< u(x), u(x) >=< x, u∗ (u(x)) >=< x, u2 (x) >=< x, x >= kxk2
iii) =⇒ i) Supposons que ∀x ∈ E, ku(x)k = kxk et montrons que ker(u − IdE )⊥ = ker(u + IdE ).
Soit p la projection sur ker(u − IdE ) parallélement à ker(u + IdE ), alors on a
u(x) + x
∀x ∈ E, p(x) =
2
par suite, on a
1 1
kp(x)k = ku(x) + xk ≤ (ku(x)k + kxk) = kxk (car ku(x)k = kxk)
2 2
Donc ∀x ∈ E, kp(x)k ≤ kxk, donc p est une projection orthogonale, par suite u est une symétrie
orthogonale.
Exemples
1. Cas où F est une droite vectoriel avec F = Vect(x0 ), on a
< x, x0 >
sF (x) = 2pF (x) − x = 2 x0 − x
kx0 k2
Remarque 4.19.1
1. Soient β une base orthonormale de E, u un endomorphisme de E et A = Mat(u, β), alors
u est symétrique ⇐⇒ tA = A
u est antisymétrique ⇐⇒ tA = −A
Exemples
1. Toute projection orthogonale est un endomorphisme symétrique.
2. Toute symétrie orthogonale est un endomorphisme symétrique.
3. Soit a ∈ E un espace euclidien orienté de dimension 3 et soit u l’endomorphisme de E défini
par :
∀x ∈ E, u(x) = a ∧ x
Alors u est un endomorphisme antisymétrique
En effet, soient x ∈ E et y ∈ E, alors on a
< u(x), y >=< a ∧ x, y >= det(a, x, y) = − det(a, y, x) = − < x, a ∧ y >=< x, (−u)(y) >
Lemme 4.20.
Soit A ∈ Mn (R) une matrice symétrique, alors toutes les valeurs propres de A sont réelles.
Preuve
Rappelons d’abord que si M ∈ Mn (C), avec M = (mi j )1≤i, j≤n , on définit M par :
∀M ∈ Mn (C), ∀N ∈ Mn (C), MN = M N
AX = λX =⇒ AX = λX
=⇒ AX = λ X (car A = A)
t t
=⇒ X(AX) = X(λ X)
=⇒ (tX tA)X = λ(tXX) (car tA = A)
=⇒ t(AX)X = λ(tXX)
=⇒ λ(tXX) = λ(tXX)
=⇒ (λ − λ)tXX = 0
=⇒ λ − λ = 0
=⇒ λ ∈ R
Lemme 4.21.
Preuve
Soit y ∈ F ⊥ , a-t-on u(y) ∈ F ⊥ ?
Soit x ∈ F, alors on a
< x, u(y) >=< u(x), y >= 0 (car u(x) ∈ F)
Donc u(y) ∈ F ⊥ .
Théorème 4.22.
Preuve
On procède par récurrence sur n, avec n = dim(E) et n ≥ 2.
Soit λ ∈ R une valeur propre de u, donc il existe x ∈ E, avec x ∈ 0, tel que u(x) = λx.
x
Posons e1 = kxk , alors ke1 k = 1 et u(e1 ) = λe1 .
Soit F = Vect(e1 ), alors F est stable par u. Puisque u est symétrique, alors F ⊥ est aussi stable par u.
Déclenchons maintenant la récurrence :
Pour n = 2, on a dim(F) = 1, donc dim(F ⊥ ) = 1. Soit e2 ∈ F ⊥ , avec ke2 k = 1, alors e2 est un vecteur
propre de u, (car F = Vext(e2 ) et u(e2 ) ∈ F).
Donc, dans ce cas, (e1 , e2 ) est une base orthonormale de E formée de vecteurs propres de u.
H.R "Supposons que n > 2 et que tout endomorphisme symétrique sur un espace euclidien de di-
mension < n, possède au moins une base orthonormale formée de vecteurs propres". Soient u un
endomorphisme symétrique d’un espace euclidien de dimension n,
lambda ∈ R une valeur propre de u et e1 ∈ E, avec ke1 k = 1 un vecteur propre associé à λ.
Soit F = Vect(e1 ), donc, d’après ce qui précède, F ⊥ est stable par u.
Soit v la réstriction de u à F ⊥ , alors v est un endomorphisme symétrique de F ⊥ , avec
dim(F ⊥ ) = n − dim(F) = n − 1
Preuve
i) Puisque u est linéaire, alors f est bilinéaire et puisque u est symétrique, alors f est symétrique.
ii) Soient M = Mat( f , β) = (mi j )1≤i, j≤n et A = Mat(u, β) = (ai j )1≤i, j≤n .
Puisque β est une base orthonormale, alors on a
Définition 4.24.
Remarque 4.24.1
Soit u un endomorphisme symétrique de E, alors d’après la définition précédente, on a
Théorème 4.25.
Soit E un espace euclidien. Alors pour toute forme bilinéaire symétrique f sur E, il existe
un unique endomorphisme symétrique u, tel que
Ainsi, on aura
∀(x, y) ∈ E × E, f (x, y) = tYAX = tY (AX) =< u(x), y >
Remarque 4.25.1
Pour toute forme quadratique q sur un espace euclidien E, il existe un unique endomorphisme symé-
trique u de E, tel que
∀x ∈ E, q(x) =< u(x), x >
Proposition 4.26.
Preuve
D’après la proposition précédente, il existe un unique endomorphisme symétrique u de E, tel que
Puisque u est symétrique, alors on sait qu’il existe une base orthonormale β = (e1 , e2 , . . . , en ) de E
formée de vecteurs propres de u. Ainsi, on aura
∀(i, j) ∈ {1, 2, . . . , n}2 , f (ei , e j ) =< u(ei ), e j >=< λi ei , e j >= λi < ei , e j >
Remarque 4.26.1
Soient q une forme quadratique sur un espace euclidien E et u l’unique endomorphisme symétrique
de E, tel que
∀x ∈ E, q(x) =< u(x), x >
Soient β = (e1 , e2 , . . . , en ) une base orthonormale de E formée de vecteurs propres de u et λ1 , λ2 , . . . , λn
les valeurs propres, non necessairement deux à deux distinctes, de u.
n
Alors pour tout x ∈ E, avec x = ∑ xi ei , on a
i=1
n
q(x) = ∑ λi xi2 = λ1 x12 + λ2 x22 + · · · + λn xn2
i=1
Proposition 4.29.
Preuve
i) =⇒ ii) Supposons que u est orthogonal.
1
ku(x) + u(y)k2 − ku(x)k2 − ku(y)k2
< u(x), u(y) > =
2
1
= ku(x + y)k2 − ku(x)k2 − ku(y)k2
2
1
= kx + yk2 − kxk2 − kyk2
2
=< x, y >
det(u) = ±1
Notations
a) On désigne par O(E) l’ensemble des endomorphismes orthogonaux de E, alors (O(E), ◦) est un
groupe, c’est en fait un sous-groupe de (GL(E), ◦).
b) On désigne par SO(E) l’ensemble des endomorphismes orthogonaux u, tel que det(u) = 1 :
Définition 4.30.
Exemples
1. IdE et −IdE sont des endomorphismes orthogonaux de E.
2. Toute symétrie orthogonale est un endomorphisme orthogonale de E.
3. Soit (e1 , e2 , . . . , en ) une base orthonormale de E.
Pour chaque σ ∈ Sn , on considère l’endomorphisme uσ défini par :
Proposition 4.31.
n
ku(x)k = ku( ∑ < x, ei > ei )k
i=1
n
= k ∑ < x, ei > u(ei )k
i=1
n
= ∑ (< x, ei >)2 (car (u(e1 ), u(e2 ), . . . , u(en )) est orthonormale)
i=1
= kxk
Proposition 4.32.
Preuve
i) On suppose que u possède une valeur propre λ ∈ R, donc il existe x ∈ E, avec x 6= 0, tel que
u(x) = λx, donc on aura
Donc u(y) ∈ F ⊥ .
Théorème 4.33.
Preuve
Soit (e1 , e2 ) une base orthonormale directe quelconque de E et soit A = Mat(u, (e1 , e2 )), avec
a c
A=
b d
u est un endomorphisme orthogonal et (e1 , e2 ) une base orthonormale de E, donc u(e1 ), u(e2 )) est
une base orthonormale de E, donc on aura
2 2 2
ku(e1 )k = a + b = 1
ku(e2 )k2 = c2 + d 2 = 1
ac + bd = 0
Donc u(e2 ) ∈ Vect(u(e1 ))⊥ avec Vect(u(e1 ))⊥ = Vect(−be1 + ae2 ), donc il existe α ∈ R, tel que
u(e2 ) = ce1 + de2 = α(−be1 + ae2 ). Donc c = −αb et d = αa.
Puisque a2 + b2 = c2 + d 2 = 1, alors α2 = 1, donc α = ±1.
a b
A=
b −a
Donc A2 = I, par suite, u est une symétrie orthogonale. Les valeurs propres de u sont 1 et −1,
donc il existe une base orthonormale formée de vecteurs propre de u, car u est symétrique.
Preuve
Pour la démonstration, nous avons besoin ddu lemme suivant :
Lemme 4.35.
Preuve
On sait det(u) = ±1.
Si det(u) = 1, alors on aura
det(u − IdE ) = det(u − uu∗ ) = det(IdE − u∗ ) = (−1)3 det(u − IdE ) = − det(u − IdE )
Soient r et s les endomorphismes de E dont les matrices respectives, par rapport à la base
(e1 , e2 , e3 ), sont M et N.
Alors, u = r ◦ s = s ◦ r, où r est la rotation d’angle θ et d’axe Vect(e1 ) et s la symétrie orthogo-
nale par rapport Vect(e1 )⊥ .
Remarque 4.35.1
Soit E un espace euclidien de dimension 3 et u une rotation de E d’angle θ et d’axe ∆ = Vect(e1 ), où
e1 est un vecteur unitaire. Alors on a
1. tr(u) = 1 + 2 cos θ, donc on a
tr(u) − 1
cos θ =
2
2. Soit x un vecteur non nul orthogonal à ∆, alors < x, e1 >= 0, donc, si on pose
x
e2 = et e3 = e1 ∧ e2
kxk
alors (e1 , e2 , e3 ) est une base orthonormale directe de E, avec u(e1 ) = 1, donc d’après le théo-
rème précédent, la matrice A de u par rapport à (e1 , e2 , e3 ) s’écrit sous la forme :
1 0 0
0 cos θ − sin θ
0 sin θ cos θ
3. Soit x ∈ E, alors y = x− < x, e1 > e1 est un vecteur orthogonal à ∆, donc, d’après la remarque
précécente, on a
u(y) = cos θ.y + sin θe1 ∧ y
Donc, en remplaçant y par sa valeur, on aura
det(e1 , x, u(x))
∀x ∈
/ ∆, sin θ =
ke1 ∧ xk2
On a aussi,
< u(x), x > det(e1 , x, u(x))
∀x ∈ ∆⊥ , cos θ = 2
et sin θ =
kxk ke1 ∧ xk2
Preuve
Pour la démonstration de ce théorème, nous avons besoin du lemme suivant :
Lemme 4.37.
Preuve
Soit v = u + u∗ , alors v est un endomorphisme symétrique, donc v possède au moins une valeur propre
λ ∈ R.
Soit x ∈ E, avec x 6= 0, tel que v(x) = λx, donc, on aura
Donc F = Vect({u(x), x}) est stable par u, avec dim(F) ∈ {1, 2}, car x 6= 0.
Si λ = −1, alors la matrice de u dans la base (e2 , . . . , e p , e1 , e p+1 , . . . , e p+q , . . . , en−1 ) s’écrit sous la
forme :
I p−1
−Iq+1
A 1
A=
A 2
...
Ar
Si, maintenant, dim(F) = 2, puisque F a été choisi de dimension minimal, alors tout sous-espace
stable par u serait de dimension ≥ 2. On en déduit donc que u ne possède aucune valeur propre.
Soient v la réstriction de u à F et w la réstriction de u à F ⊥ . Alors v et w sont deux endomrphismes
orthogonaux de F et F ⊥ respectivement.
dim(F) = 2, donc la matrice A1 de v par rapport à une base orthonormale (e1 , e2 ) de F s’écrit sous
la forme :
cos θ sinθ
A1 =
sin θ cos θ
dim(F ⊥ ) = n−2, donc, d’après l’hypothèse de récurrence, il existe une base orthonormale (e3 , . . . , en )
de F ⊥ dans laquelle la matrice de w s’écrit sous la forme :
A2
A3
...
Ar
4.38 Exercices
Exercice 60
Soient E un espace préhilbertien, u : E −→ E et v : E −→ E deux applications telles que
∀x ∈ E, u(x) = a ∧ (a ∧ x)
∀x ∈ E, f (x) = αkxk2
Exercice 67
Soient E un espace euclidien, u un endomorphisme de E, tel que
∀x ∈ E, ku(x)k ≤ kxk
Montrer que
a) ∀x ∈ E, ku∗ (x)k ≤ kxk.
b) ∀x ∈ E, u(x) = x ⇐⇒ u∗ (x) = x.
c) E = ker(u − IdE ) ⊕ Im(u − IdE ).
Exercice 68
Soient E un espace euclidien et p un projecteur de E.
Montrer que les propositions suivantes sont équivalentes :
i) p est une projection orthogonale,
ii) ∀x ∈ E, ∀y ∈ E, < p(x), y >=< x, p(y) >,
iii) ∀x ∈ E, kp(x)k ≤ kxk.
Exercice 69
Soient E un espace euclidien et (e1 , e2 , . . . , en ) une base orthonormale de E.
n
1. Soit p un projecteur orthogonal de Ł de rang 1. Calculer ∑ kp(ei )k2 .
i=1
Exercice 70
Soient p et q deux projecteurs orthogonaux d’un espace euclidien E.
1. Montrer que p ◦ q ◦ p est autoadjoint.
2. Montrer que (Im(p) + ker(q))⊥ = Im(q) ∩ ker(p).
3. Montrer que p ◦ q est diagonalisable.
Exercice 71
Soient E un espace euclidien, u un endomorphisme de E et (α, β) ∈ R2 , tels que u∗ ◦ u + αu + βu∗ = 0.
1. Montrer que si α 6= β, alors il existe une projection orthogonale p et il existe λ ∈ R, tels que
u = λp.
2. Montrer que si α = β, alors ker(u) et Im(u) sont orthogonaux.
Exercice 72
Soient E un espace euclidien, u un endomorphisme de E.
1. a) Montrer que ker(u∗ ◦ u) = ker(u) et Im(u∗ ◦ u) = Im(u∗ ).
b) En déduire que ker(u ◦ u∗ ) = ker(u∗ ) et Im(u ◦ u∗ ) = Im(u).
2. Montrer que les propositions suivantes sont équivalentes :
i) u ◦ u∗ ◦ u = u,
ii) u∗ ◦ u est un projecteur orthogonal de E,
iii) u ◦ u∗ est un projecteur orthogonal de E,
iv) ker(u)⊥ = {x ∈ E : ku(x)k = kxk}.
Exercice 73
Soient A et B symétriques de Mn (R). Montrer que
Exercice 74
Soient E un espace euclidien et u un endomorphisme symétrique défini positif. Montrer que
Exercice 75
Soient E un espace euclidien et u un endomorphisme symétrique de E avec u défini positif. On
considère l’application f : E −→ R définie par :
Exercice 76
Déterminer les minimums suivants
(x + y − 2)2 + (x − 1)2 + (2x + y − 1)2
1. inf
(x,y)∈R2
Exercice 77
Soit u l’endomorphisme de R3 dont la matrice par rapport à la base canonique est définie par :
1 0 4
A = 0 1 1
0 0 0
Exercice 78
Soit E un espace euclidien de dimension 3, muni d’une base orthonormale β = (e1 , e2 , e3 ).
1. Déterminer la matrice, par rapport à β, de la projection orthogonale par rapport au plan d’équa-
tion x + y + z = 0.
2. Déterminer la matrice, par rapport à β, de la symétrie orthogonale par rapport au plan déquation
x = z.
Exercice 79
E = R3 muni de son produit scalaire usuel et F le plan vectoriel d’équation x + y + z = 0.
1. Déterminer une base orthonormale de F.
2. Déterminer F ⊥ et en donner une base orthonormale.
3. Déterminer la matrice, dans la base canonique de R3 , de la projection orthogonale p sur F.
4. Déterminer la matrice, dans la base canonique de R3 , de la symétrie orthogonale s par rapport
à F.
Exercice 80
Soit A ∈ Mn (R) et soit B = tA + A.
On suppose qu’il existe k ∈ N∗ , tel que Bk = 0. Montrer que A est antisymétrique.
F = {(x, y, z,t) ∈ R4 : x + y + z + t = x − y + z − t = 0}
Exercice 82
Soit A = (ai j )1≤i, j≤n une matrice de Mn (R) symétrique définie positive. Montrer que si λ1 , λ2 , . . . , λn
sont les valeurs propres de A, non necessairement deux à deux distintes, alors on a
n n n
∑ λ2i =∑ ∑ a2i j
i=1 i=1 j=1
Exercice 83
A et B deux matrices réelles symétrique positives. Montrer que 0 ≤ tr(AB) ≤ tr(A)tr(B).
Exercice 84
A = (ai j )1≤i, j≤n et B = (bi j )1≤i, j≤n deux matrices réelles symétrique positives. Soit C = (ci j )1≤i, j≤n ,
telle que
∀(i, j) ∈ {1, 2, . . . , n}, ci j = ai j bi j
Montrer que C est symétrique positive.
Exercice 85
Soit A une matrice de Mn (R).
1. Montrer que que si A est symétrique positive, alors
1
tr(A) ≥ n(det(A) n
2. Montrer que
2
tr(tAA) ≥ n(det(A) n
Exercice 86
Soit A ∈ Mn (C).
1. On suppose qu’il existe m ∈ N∗ , tel que Am soit symétrique définie positive. Montrer que A est
diagonalisable.
2. On suppose que dim(ker(A2 ) = 1 et qu’il existe m ∈ N∗ , tel que Am soit symétrique positive.
Montrer que A est diagonalisable.
Exercice 87
Soient A et B deux matrices de Mn (R), telles que t AA = t BB.
1. On suppose que A est inversible. Montrer qu’il existe une matrice orthogonale P, telle que
B = PA.
2. Montrer que ce résultat reste vraie sans l’hypothèse A inversible.
Exercice 90
Soient q1 et q2 deux formes quadratiques sur Rn de matrices respectives, par rapport à la base cano-
nique de Rn , A et B. On suppose que q1 est définie positive.
1. Montrer qu’il existe un unique endomorphisme u de Rn , q1 -symétrique, tel que
∀x ∈ Rn , ∀y ∈ Rn , ϕ2 (x, y) = ϕ1 (u(x), y)
xy x2 − 10xy + 4y2
f (x, y) = et g(x, y) =
x2 + xy + y2 x2 − xy + y2
G(v1 , v2 , . . . , vn ) = det(Gram(v1 , v2 , . . . , vn ))
3. Montrer que
(v1 , v2 , . . . , vn ) est libre ⇐⇒ G(v1 , v2 , . . . , vn ) 6= 0
Exercice 92
Soient A et B deux matrices symétriques positives de Mn (R). Montrer que
3. On suppose que A est définie positive et on pose B = (bi j )1≤i, j≤n , avec
ai j
∀(i, j) ∈ {1, 2, . . . , n}, bi j = √
aii a j j
Exercice 94
Soient E un espace euclidien de dimension n.
1. Soit u un endomorphisme symétrique, tel que ∀x ∈ E, < u(x), x >= 0. Montrer que u = 0.
2. Soient u1 , u2 , . . . , u p , p ≤ n, des endomorphismes symétriques de E, tels que
rg(u1 ) + rg(u2 ) + · · · rg(u p ) = n
et
∀x ∈ E, < x, u1 (x) > + < x, u2 (x) > + · · · + < x, u p (x) >=< x, x >
Montrer que :
a) u1 + u2 + · · · + u p = IdE ,
Exercice 101
Déterminer la nature et les éléments caractéristiques de l’endomorphisme u dont la matrice A par
rapport à la base canonique est définie par :
0 0 −1
a) A = 1 0 0
0 1 0
1 0 0
b) A = 0 0 1
0 −1 0
1 2 2
c) A = 13 −2 −1 2
−2 2 −1
−2 6 −3
d) A = 17 6 3 2
−3 2 6
√
√ 1 − 2 1
√
e) A = 12 2 √0 − 2
1 2 1
Exercice 102
Soient a ∈ R et u l’endomorphisme de R3 de matrice A, par rapport à la base canonique de R3 , définie
par :
a −2 a + 1
A = a + 1 −a −2
2 a+1 a
a) Pour quelles valeurs de a, l’endomorphisme u est orthogonal.
b) Dans le cas où u est orthogonal, déterminer la nature et les éléments caractéristiques de u.
Exercice 103
Soient (a, b, c) ∈ R3 , σ = ab + ac + bc, s = a + b + c et A la matrice définie par :
a b c
A = c a b
b c a
1. Montrer que
A est une matrice orthogonale ⇐⇒ σ = 0 et s ∈ {−1, 1}
2. Montrer que
A est une matrice de rotation ⇐⇒ σ = 0 et s = 1
4
3. Montrer que A est une matrice de rotation, si, et seulement si, il existe k ∈ [0, 27 ], tel que a, b et
3 2
c soient racines du polynome X − X + k.
2
√ √
2 2
√ a a 1 − a 1 − a
Ma = a√ 1 − a2 1 − a2 −a2
1 − a2 −a 0
1. Montrer que pour tout a ∈] − 1, 1[, Ma est une matrice orthogonale. Est-elle diagonalisable ?
2. Calculer tr(Ma ) etdet(Ma ).
3. En déduire les valeurs propres de Ma et la nature géométrique de l’endomorphisme associé
canoniquement à Ma .
Exercice 105
Soit a un vecteur unitaire d’un espace euclidien E, α ∈ R et fα : E −→ E l’application définie par :
Exercice 106
Soit a un vecteur unitaire d’un espace euclidien orienté E de dimension 3. On considère l’application
f : E −→ E définie par :
∀x ∈ E, f (x) =< x, a > a + a ∧ x
Montrer que f est un endomorphisme orthogonal et préciser sa nature.
Exercice 107
Soit E un espace euclidien de dimension 3, muni d’une base orthonormale β = (e1 , e2 , e3 ).
Déterminer la matrice, par rapport à la base β, de la rotation d’axe Vect(e1 +e2 +e3 ) et d’angle θ = 2π
3 .
Exercice 108
Soit A ∈ Mn (R) une matrice antisymétrique. Montrer que
a) I + A est inversible.
b) (I + A)−1 (I − A) ∈ SOn (R).
c) det(I + A) > 0.
Exercice 109
Soient E un espace euclidien, u un endomorphisme de E. Montrer que les propositions suivantes sont
équivalentes :
i) ∀(x, y) ∈ R2 , < x, y >= 0 =⇒< u(x), u(y) >= 0,
Exercice 110
Soit A = (ai j )1≤i, j≤n une matrice orthogonale. Montrer que
3
∑ ai j ≤ n ≤ ∑ |ai j | ≤ n 2
1≤i, j≤n 1≤i, j≤n
Exercice 111
Soient E un espace euclidien v ∈ E un vecteur non nul, α ∈ R et u l’endomorphisme de E défini par :
1. Donner une condition necessaire et suffisante sur α et v pour que u soit un endomorphisme
orthogonal.
2. On suppose que u est orthogonal et que α 6= 0. Donner une interprétation géométrique de u.
Exercice 112
Soient E un espace euclidien et u un endomorphisme de E.
1. Montrer que si u est un endomorphisme antisymétrique, alors exp(u) est une rotation de E.
2. Réciproquement, montrer que si u est une rotation de E, alors, il existe un endomorphisme
antisymétrique v de E, tel que u = exp(v).
Exercice 113
Pour tout nombre réel a, on considère la forme quadratique qa définie sur R3 par,
1. On suppose que a = 1.
a) En utilisant la méthode de Gauss, écrire q1 sous forme de carrés.
b) Montrer que q1 est positive. q1 est-elle définie positive ?
c) Montrer que ∀(x, y, z) ∈ R3 , q1 (x, y, z) ≥ z2 .
d) Déterminer l’ensemble C des vecteurs q1 -isotropes.
2. On suppose que a est quelconque.
a) Vérifier que ∀(x, y, z) ∈ R3 , qa (x, y, z) = q1 (x, y, z) + (a − 1)(x2 + y2 ) et en déduire que si
a > 1, alors qa est définie positive.
b) Calculer qa (v), pour tout a ∈ R, où v est un vecteur q1 -isotrope non nul.
c) Déduire, de ce qui précède, les valeurs du paramètre a pour lesquelles la forme quadratique
qa est définie positive ?
3. On suppose que q = 2 et on munit R3 du produit scalaire défini par q2 .
Ce produit scalaire sera noté < ·, · >
a) Déterminer la matrice de q2 par rapport à la base canonique (e1 , e2 , e3 ) de R3 .
b) Soient u = e2 + e3 et F = {u}⊥ .
i) Quelle est la dimension de F ? Trouver une base de F.
ii) Déterminer la matrice, par rapport à la base canonique, de la projection orthogonale
sur F.
∀x ∈ E, u(x) = a ∧ x
∀x ∈ E, u(x) = a ∧ x
iii) On pose a =< u(y0 ), z0 > x0 . Montrer que a est l’unique vecteur de E, tel que
∀x ∈ E, u(x) = a ∧ x
Exercice 115
Soient α et β deux nombres réels et q la forme quadratique définie sur R3 par :
Exercice 116
Soient E un espace euclidien orienté de dimension 3, a et b deux vecteurs non nuls de E. On considère
l’endomorphisme u de E défini par :
∀x ∈ E, u(x) = a ∧ (b ∧ x)
Exercice 117
Soient E un espace euclidien et u un endomorphisme de E, tel que u∗ ◦ u = u ◦ u∗ .
1. Montrer que pour tout x ∈ E, on a ku(x)k = ku∗ (x)k.
2. Montrer que ker(u∗ ) = ker(u).
3. Montrer que pour tout λ ∈ R, on a ker(u − λIdE ) = ker(u∗ − λIdE ).
4. Montrer que si λ ∈ R est une valeur propre de u et si Eλ est le sous-espace propre associé, alors
Eλ⊥ est stable par u.
5. Dans toute la suite, on suppose que dim(E) = 2 et que u∗ ◦ u = u ◦ u∗ .
a) Montrer que si u possède une valeur propre réelle, alors u possède une base orthonormale
formée de vecteurs propres.
b) On suppose que u n’a aucune valeur propre réelle.
i) Montrer que u∗ + u possède au moins une valeur propre réelle λ ∈ R.
ii) Montrer que le sous-espace propre Eλ est stable par u.
Exercice 118
Soient E un espace euclidien et u un automorphisme de E, tel que
1. Soit β = (e1 , e2 , . . . , en ) une base orthonormale quelconque de E et A = (ai j )1≤i, j≤n la matrice
de u∗ u par rapport à la base β. Montrer que
2. Montrer que pour tout x ∈ E, il existe α(x) ∈ R, tel que (u∗ ◦ u)(x) = α(x)x.
3. Montrer qu’il existe α > 0, tel que u∗ ◦ u = αIdE .
4. Montrer qu’il existe k > 0 et il existe un endomorphisme orthogonal v, tel que u = kv.
Exercice 119
Le corps C des nombres complexes est muni de sa structure canonique d’espace vectoriel réel, de sa
base canonique (1, i), où i est le nombre complexe vérifiant i2 = −1, et de son produit scalaire usuel :
Exercice 120
Soit E un espace euclidien muni d’une base orthonormale (e1 , e2 , . . . , en ). Pour tout σ ∈ Sn , on définit
l’endomorphisme uσ de E par :
n n
∀x ∈ E, x = ∑ xi ei =⇒ uσ (x) = ∑ xσ(i) ei
i=1 i=1
Exercice 121
Soit A ∈ Mn (R), telle que toutes les valeurs propres de tAA − AtA soient positives.
Montrer que tAA = AtA.
Exercice 122
Soit A une matrice symétrique de Mn (R).
1. On suppose qu’il existe une matrice antisymétrique B, telle que A + B soit orthogonale.
a) Montrer que AB = BA et que A2 − B2 = I.
b) Montrer que si λ est une valeur propre de A, alors λ ∈ [−1, 1] et que si λ ∈] − 1, 1[, alors
dim(Eλ ) est paire.
2. En déduire une condition necessaire et suffisante pour qu’il existe une matrice antisymétrique
B, telle que A + B soit orthogonale.
iv)
∀z ∈ C, |z|2 = zz̄
v)
∀z1 ∈ C, ∀z2 ∈ C, |z1 + z2 |2 = |z1 |2 + |z2 |2 + 2Re(z̄1 z2 ) = |z1 |2 + |z2 |2 + 2Re(z1 z̄2 )
vi)
∀z1 ∈ C, ∀z2 ∈ C, |z1 − z2 |2 = |z1 |2 + |z2 |2 − 2Re(z̄1 z2 ) = |z1 |2 + |z2 |2 − 2Re(z1 z̄2 )
vii)
1 1
∀z1 ∈ C, ∀z2 ∈ C, Re(z̄1 z2 ) = Re(z1 z̄2 ) = |z1 + z2 |2 − |z1 − z2 |2
4 4
106
5.1.2 Définition et propriètés de base
Définition 5.2.
Remarque 5.2.1
Soient E et F deux C-espaces vectoriels.
Soit f : E −→ F une application et soit g : E −→ F l’application définie par :
∀x ∈ E, g(x) = f (x)
Définition 5.3.
Remarque 5.3.1
1. f : E × E −→ C est une forme sesquilinéaire, si, et seulement si,
i) ∀x ∈ E, ∀y1 ∈ E, ∀y2 ∈ E, f (x, y1 + y2 ) = f (x, y1 ) + f (x, y2 ),
ii) ∀y ∈ E, ∀x1 ∈ E, ∀x2 ∈ E, f (x1 + x2 , y) = f (x1 , y) + f (x2 , y),
iii) ∀α ∈ C, ∀β ∈ C, ∀x ∈ E, ∀y ∈ E, f (αx, βy) = αβ f (x, y).
2. Si h est une forme hermitienne sur E, alors
n n
f (x, y) = f ( ∑ xi ei , ∑ y j e j )
i=1 i=1
n n
= ∑ f ( ∑ xiei, y j )
j=1 i=1
n n
=∑ ∑ xiy j f (ei, e j )
i=1 j=1
Définition 5.4.
Notations
Pour toute matrice A ∈ Mn (C), avec A = (ai j )1≤i, j≤n , on pose
Remarque 5.4.1
Soient E un C-espace vectoriel de dimension finie = n, f une forme sesquilinéaire sur E,
β = (e1 , e2 , . . . , en ) une base de E et A = (ai j )1≤i, j≤n la matrice de f par rapport à la base β.
2.
f est hermitienne ⇐⇒ A∗ = A
Donc, en particulier, on a
n
∀x ∈ E, f (x, x) = ∑ |xi |2 + ∑ (ai j xi x j + ai j xi x j )
i=1 1≤i< j≤n
En effet, on a
n n
∀(x, y) ∈ E × E, t XAY = ∑ ∑ ai j xiy j
i=1 j=1
B = t PAP = P∗ AP
Donc, on aura
∀X 0 ∈ Cn , ∀Y 0 ∈ Cn , t X 0 BY 0 = t X 0 (t PAP)Y 0
Ainsi, on aura
B = t PAP
Définition 5.6.
rang( f ) = rang(A)
Remarque 5.7.1
D’après la définition précédente, f est non dégénérée, si et seulement si, pour tout x ∈ E, on a
[∀y ∈ E, h(x, y) = 0] =⇒ x = 0
Cela signifie que si pour un certain x ∈ E, on a h(x, y) = 0 pour tout y ∈ E, alors nécessairement, on
a x = 0.
Soient E un C-espace vectoriel de dimension finie, β une base de E, h une forme hermi-
tienne sur E et A la matrice de h par rapport à la base β. Alors,
Preuve
On considère l’application Φ : E −→ E ∗ qui à chaque x fait correspondre ϕx .
Posons β = (e1 , e2 . . . , en ) et β∗ = (e∗1 , e∗2 , . . . , e∗n ) la base duale de β.
Soit M = (mi j )1≤i, j≤n la matrice de Φ par rapport aux bases β et β∗ , alors on a
n
∀ j ∈ {1, 2, . . . , n}, Φ(e j ) = ∑ mk j e∗k
k=1
n
h(ei , e j ) = h(e j , ei) = Φ(e j )(ei ) = ∑ mi j e∗k (ei) = mi j (car e∗k (ei ) = δik )
k=1
5.8.1 Orthogonalité
Définition 5.9.
Soient E un C-espace vectoriel quelconque, h une forme hermitienne sur E. Soit A une
partie non vide de E, on définit l’orthogonale de A, par rapport à la forme hermitienne h,
noté A⊥ , par :
∀y ∈ E, y ∈ A⊥ ⇐⇒ ∀x ∈ A, h(x, y) = 0
Remarque 5.9.1
1. Soient A et B deux parties non vides de E, telles que A ⊆ B, alors B⊥ ⊆ A⊥ .
2. Pour toute partie non vide A de E, on a A⊥ = Vect(A)⊥ .
3. Pour toute partie non vide A de E, même si A n’est pas un sous-espace vectoriel de E, A⊥ est
toujours un sous-espace vectoriel de E.
Soient E un C-espace vectoriel de dimension finie et h une forme hermitienne sur E, alors
pour tout sous-espace vectoriel F de E, on a
i) dim(F) + dim(F ⊥ ) ≥ dim(E).
ii) Si de plus h est non dégénérée, alors on a
Preuve
La démonstration est la même que dans le cas des formes bilinéaires symétriques.
Définition 5.11.
Théorème 5.12.
Preuve
Ce théorème se démontre de la même manière que dans le cas d’une forme bilinéaire symétrique.
Remarque 5.13.1
Supposons que E possède une base orthogonale β = (e1 , e2 , . . . , en ) et soit A = (ai j )1≤i, j≤n la matrice
de h par rapport à β, donc pour i 6= j, on a ai j = h(ei , e j ) = 0. Donc A est une matrice diagonale et
n n
on a pour x = ∑ xi ei et y = ∑ yi ei ,
i=1 i=1
n
h(x, y) = ∑ aii xi yi
i=1
n
h(x, x) = ∑ aii |xi |2
i=1
Dans la suite on se propose de montrer que toute forme hermitienne possède au moins une base
orthogonale.
Lemme 5.14.
Preuve
(=⇒) Trivial.
(⇐=) Supposons que pour tout x ∈ E, h(x, x) = 0 et montrons que h est identiquement nulle.
Soient (x, y) ∈ E × E, alors on a h(x + y, x + y) = 0 et h(ix + y, ix + y) = 0.
Or, on sait que
et que
h(ix + y, ix + y) = h(x, x) + h(y, y) + 2Im(h(x, y)) = 2Im(h(x, y))
donc Re(h(x, y)) = Im(h(x, y)) = 0, par suite, h(x, y) = 0.
Théorème 5.15.
Soit E un C-espace vectoriel de dimension finie. Alors toute forme hermitienne h sur E,
possède au moins une base orthogonale.
Preuve
On procède par récurrence sur la dimension de E, exactement comme dans le cas d’une forme bili-
néaire symétrique.
Soit E un C-espace vectoriel. On dit qu’une application q : E −→ R est une forme quadra-
tique sur E, s’il existe une forme sesquilinéaire f sur E, telle que
Proposition 5.18.
Soient E un C-espace vectoriel et q une forme quadratique sur E. Alors il existe une forme
hermitienne unique h sur E, telle que
∀x ∈ E, q(x) = h(x, x)
1 3 k k
∀x ∈ E, ∀y ∈ E, h(x, y) = ∑ i q(i x + y)
4 k=0
Preuve
q est une forme quadratique sur E, donc, par définition, il existe une forme sesquilinéaire f sur E,
telle que
∀x ∈ E, q(x) = Re( f (x, x))
Soit h : E × E −→ C l’application définie par :
f (x, y) + f (y, x)
∀(x, y) ∈ E × E, h(x, y) =
2
Alors h est une forme hermitienne sur E, car on a
f (x, x) + f (x, x)
∀x ∈ E, h(x, x) = = Re( f (x, x)) = q(x)
2
Puuisque h est hermitienne, alors on sait que pour tout (x, y) ∈ E × E, on a
q(x + y) = q(x) + q(y) + 2Re(h(x, y))
q(−x + y) = q(x) + q(y) − 2Re(h(x, y))
q(ix + y) = q(x) + q(y) + 2Im(h(x, y))
q(−ix + y) = q(x) + q(y) − 2Im(h(x, y))
Donc, on aura
3
∑ ik q(ik x + y) = q(x + y) + iq(ix + y) − q(−x + y) − iq(−ix + y)
k=0
= 4(Re(h(x, y)) + iIm(h(x, y))
= 4h(x, y)
Cette relation entre q et h assure l’unicité de h.
n
∀x ∈ E, q(x) = ∑ aii |xi |2 + ∑ (ai j xi x j + ai j xi x j )
i=1 1≤i< j≤n
n
∀x ∈ E, q(x) = ∑ aii |xi |2 + 2 ∑ Re(ai j xi x j )
i=1 1≤i< j≤n
3. Le rang d’une forme quadratique est défini comme étant le rang de sa forme pôlaire associée.
Théorème 5.19.
Preuve
Même démonstration que dans le cas réeel.
Soient E un C-espace vectoriel de dimension = 2, (e1 , e2 ) une base de E et q une forme quadratique
hermitienne sur E, alors pour chaque x ∈ E, avec x = x1 e1 + x2 e2 , on a
i) Si (a, b) 6= (0, 0), alors on peut supposer, par exemple, que a 6= 0, puis on procède de la manière
q(x) = 2Re(cx̄1 x2 )
1
= (|x1 + cx2 |2 − |x1 − cx2 |2 )
2
1 1
= |x1 + cx2 |2 − |x1 − cx2 |2
2 2
1 2 1 2
= X1 − X2 où X1 = x1 + cx2 et X2 = x1 − cx2
2 2
Cas de la dimension 3
où (a, b, c) ∈ R3 et (d, e, f ) ∈ C3 .
i) Si (a, b, c) 6= (0, 0, 0), alors on peut supposer par exemple que a 6= 0. Dans ce cas, en regroupant
tous les termes contenant x1 , on aura,
Le cas général
Soient E un C-espace vectoriel de dimension fine = n, (e1 , e2 , . . . , en ) une base de E et q : E −→ C
une forme quadratique hermitienne non nulle. Alors on sait que q s’écrit sous la forme :
n
q(x) = ∑ ai |xi |2 + 2Re( ∑ ai j x̄i x j )
i=1 1≤i< j≤n
est une forme quadratque en x2 , x3 , . . . , xn , donc on peut considérer Q comme une forme qua-
dratique sur un C-espace vectoriel de dmension n − 1 et on applique, alors, l’hypothèse de
récurrence à Q.
ii) ∀i ∈ {1, 2, . . . , n}, ai = 0, alors, dans ce cas, q s’écrit sous la forme :
q 6= 0, donc l’un au moins des coefficients ai j est non nul, donc pour simplifier on peut supposer
que a12 6= 0, puis on regroupe tous les termes contenant x1 et tous les termes contenant x2 . Ainsi,
on aura
n n
q(x) = 2Re(a12 x̄1 x2 + ∑ a1 j x̄1 x j + ∑ a2 j x̄2 x j ) + 2Re( ∑ ai j x̄i x j )
j=3 j=3 3≤i< j≤n
Donc, si on pose,
n
a2 j n
y1 = ∑ ā12 x j et y2 = ∑ a1 j x j
j=3 j=3
Alors, on aura,
est une forme quadratique en x3 , . . . , xn , donc Q peut-être considérée comme une forme qua-
dratique sur un C-espace vectoriel de dimension n − 2. Donc on achève la décompositon en
appliquant l’hypothèse de récurrence à Q.
Exemples
1. Appliquons l’algorithme de Gauss à la forme quadratique q définie sur C3 par
√
∀x ∈ C3 , q(x) = |x1 |2 + |x3 |2 − 2Re(ix̄1 x2 ) − 2Re(i 2x̄2 x3 )
5.20 Exercices
Exercice 123
Dans chacun des cas suivants, déterminer la matrice de q par rapport à la base canonique de C3 ,
appliquer l’algorithme de Gauss pour décomposer q sous formes de carrés, déterminer le rang et la
signature de q et une base q-orthogonale.
1. q(x) = |x1 |2 + 2|x2 |2 + 2|x3 |2 + 2ix̄1 x2 − 2ix1 x̄2 − ix̄1 x3 + ix1 x̄3 + 2ix̄2 x3 − 2ix2 x̄3
2. q(x) = |x1 |2 + 2|x2 |2 − 4|x3 |2 + x̄1 x2 + x1 x̄2 + x̄1 x3 + x1 x̄3 .
3. q(x) = x̄1 x2 + x1 x̄2 − ix̄1 x3 + ix1 x̄3 + (1 − i)x̄2 x3 + (1 + i)x2 x̄3
4. q(x) = |x1 |2 + 3|x2 |2 + 6|x3 |2 + ix̄1 x2 − x1 x̄2 + 2ix̄2 − 2ix2 x̄3 .
Exercice 125
Soit q la forme quadratique hermitienne définie sur C3 par :
Exercice 126
Soit f : C2 [X] × C2 [X] −→ C l’application définie par :
1. Montrer que f est une forme hermitienne sur C2 [X] et déterminer sa matrice par rapport à la
base canonique (1, X, X 2 ).
2. Déterminer la forme quadratique q associée à f et appliquer l’algorithme de Gauss à q.
3. Trouver une base q-orthogonale (P0 , P1 , P2 ), telle que deg(Pk ) = k, pour k ∈ {0, 1, 2}.
Exercice 127
Soit f la forme hermitienne définie sur C3 par :
∀(x, y) ∈ C3 ×C3 , f (x, y) = 6x̄1 y1 +3x̄2 y2 +9x̄3 y3 +2x̄1 y2 +2x̄2 y1 −2x̄1 y3 −2x̄3 y1 +(2+3i)x̄2 y3 +(2−3i)x̄3 y2
∀x ∈ E, x 6= 0 =⇒ h(x, x) > 0
iii) On appelle produit hermitien sur E, toute forme hermitienne sur E définie positive.
iv) Un C-espace vectoriel muni d’un produit hermitien s’appelle un espace préhilbertien
complexe.
v) Un espace préhilbertien complexe de dimension finie s’appelle un espace hermitien.
Exemples
1. Le produit hermitien usuel sur Cn est défini par :
n
∀x ∈ Cn , ∀y ∈ Cn , f (x, y) = ∑ x̄i yi
i=1
121
Soit A ∈ Mn (C), avec A 6= 0 et A = (ai j )1≤i, j≤n , alors on a
n n
f (A, A) = tr(A∗ A) = ∑ ∑ bik aki, avec bik = āki
i=1 k=1
n n
=∑ ∑ ākiaki
i=1 k=1
n n
=∑ ∑ |aki|2
i=1 k=1
Remarque 6.2.1
Une matrice hermitienne A est dite définie positive, si la forme hermitienne définie par la matrice A
est définie positive.
Donc une matrice hermitienne A est définie positive, si, et seulement si,
∀X ∈ Cn , X 6= 0 =⇒ t XAX > 0
Proposition 6.3.
Preuve
Même justification que dans le cas des espaces euclidiens.
i)
∀x ∈ E, ∀y ∈ E, kx + yk2 = kxk2 + kyk2 + 2Re(< x, y >)
ii)
∀x ∈ E, ∀y ∈ E, kx − yk2 = kxk2 + kyk2 − 2Re(< x, y >)
iii)
∀x ∈ E, ∀y ∈ E, kx + yk2 + kx − yk2 = 2(kxk2 + kyk2 ) (Identité du prallèlogramme)
Remarque 6.3.1
Notez que si < x, y >= 0, alors on aura
2.
n
∀x ∈ E, ∀y ∈ E, < x, y >= ∑ < x, ei >< ei , y >
i=1
3.
n
∀x ∈ E, kxk2 = ∑ | < x, ei > |2
i=1
4. Si u est un endomorphisme de E et si A = (ai j )1≤i, j≤n est la matrice de u par rapport à la base
orthonormale β = (e1 , e2 , . . . , en ), alors on a
∀i ∈ {1, 2, . . . , n}, ∀ j ∈ {1, 2, . . . , n}, ai j = < u(e j ), ei > =< ei , u(e j ) >
Preuve
Exercice
Preuve
Soit (x, y) ∈ E 2 ,
Preuve
(=⇒) Supposons que | < x, y > | = kxkkyk.
Si x = 0 ou y = 0, alors (x, y) est lié. Donc, on peut supposer que x 6= 0 et y 6= 0.
Puisque | < x, y > | = kxkkyk, alors le discriminant du trinôme en t :
kxk2t 2 − 2| < x, y > |t + kyk2
est nul, donc il existe t0 ∈ R, tel que
kxk2t02 − 2| < x, y > |t0 + kyk2 = 0
donc on aura
< x, y >
kt0 λx − yk2 = 0 où λ =
| < x, y > |
Ainsi, on aura t0 λx − y = 0, donc (x, y) est lié.
Corollaire 6.7.
Preuve
Même démonstration que dans le cas des espaces euclidiens.
Preuve
Pour chaque y ∈ E, on considère la forme linéaire ϕy sur E définie par :
Puisque tout produit hermitien est non dégénéré et puisque E est de dimension finie, alors l’applica-
tion
Φ : E −→ E ∗
z 7−→ Φ(z), où ∀x ∈ E, Φ(z)(x) =< z, x >
est un isomorphisme d’espaces vectoriels.
On a ϕy ∈ E ∗ , donc il existe un unique zy ∈ E, tel que Φ(zy ) = ϕy , donc si pour chaque y ∈ E, v(y) = zy ,
alors on définit bien une application v : E −→ E.
On vérifie facilement, comme dans le cas des espaces euclidiens, que v est linéaire et on a
L’unicité de v se démontre de la même manière que dans le cas des espaces euclidiens.
Mat(u∗ , β) = A∗
Preuve
i), ii), iii) et iv) sont faciles à vérifier
Posons A = (ai j )1≤i, j≤n et Mat(u∗ , β) = B = (bi j )1≤i, j≤n , alors on sait que
Ainsi, on aura
bi j =< ei , u∗ (e j ) >=< u(ei ), e j >= < e j , u(ei ) > = ai j
Donc, B = t (A) = A∗ .
Proposition 6.11.
Preuve
Se démontre de la même manière que dans le cas des espaces euclidiens.
Remarque 6.12.1
1. Une matrice A ∈ Mn (C) est dite normale, si A∗ A = AA∗ .
2. Soient E un espace hermitien, β = (e1 , e2 , . . . , en ) une base orthonormale de E, u un endomor-
phisme de E et A = Mat(u, β), alors
Preuve
Posons A = (ai j )1≤i≤m,1≤ j≤n , A∗ = (bi j )1≤i≤n,1≤ j≤m et AA∗ = (ci j )1≤i, j≤m , donc on aura
Ainsi, on aura
n
∗
tr(AA ) = ∑ cjj
j=1
!
n n
= ∑ ∑ ai j b ji
j=1 i=1
!
n n
= ∑ ∑ ai j ai j
j=1 i=1
!
n n
= ∑ ∑ |ai j |2
j=1 i=1
n n
=∑ ∑ |ai j |2
i=1 j=1
Puisque tr(AA∗ ) = 0, alors pour tout (i, j) ∈ {1, 2, . . . , m}2 , |ai j |2 = 0. D’où le résultat.
Proposition 6.14.
Preuve
i) Soit x ∈ E, alors on a
ku(x)k2 =< u(x), u(x) >=< u∗ (u(x)), x >=< u(u∗ (x)), x >=< u∗ (x), u∗ (x) >= ku∗ (x)k2
x ∈ ker(u) ⇐⇒ u(x) = 0
⇐⇒ ku(x)k = 0
⇐⇒ ku∗ (x)k = 0
⇐⇒ u∗ (x) = 0
⇐⇒ x ∈ ker(u∗ )
Donc pour montrer que F ⊥ est stable par u il suffit de montrer que B = 0.
La base β est orthonormale, donc Mat(u∗ , β) = M ∗ . Par conséquent on aura,
u∗ ◦ u = u ◦ u∗ ⇐⇒ M ∗ M = MM ∗
∗ ∗
A 0 A B A B A 0
⇐⇒ =
B∗ C∗ 0 C 0 C B∗ C∗
∗
A∗ B AA∗ + BB∗ BC∗
A A
⇐⇒ ∗ ∗ ∗ = ∗
B A B B +C C CB CC∗
=⇒ A∗ A = AA∗ + BB∗
=⇒ tr(A∗ A) = tr(AA∗ + BB∗ ) = tr(AA∗ ) + tr(BB∗ )
=⇒ tr(BB∗ ) = 0 (car tr(A∗ A) = tr(AA∗ ))
=⇒ B = 0 (d’après le lemme précédent)
Théorème 6.15.
Soit E un espace hermitien. Alors pour tout endomorphisme normal de E, il existe une base
orthonormale de E formée de vecteurs propres de u.
Preuve
On procède par récurrence sur n, avec n = dim(E).
Pour n = 1, il n’y a rien à démontrer.
H.R "Supposons que n > 1 et que tout endomorphisme normal sur un espace hermitien de
dimension < n, possède une base orthonormale formée de vecteurs propres".
Soit E un espace hermitien de dimension n et soit u un endomorphisme normal de E.
Le corps C est algèbriquement clos, donc u possède au moins une valeur propre λ ∈ C.
Soit E1 un vecteur propre associé à λ, alors F = Vect(e1 ) est stable par u, donc d’après la proposition
précédente, F ⊥ est stable par u.
Soit v la réstriction de u à F ⊥ , alors v est un endomorphisme normal de F ⊥ , car u est normal.
On a dim(F ⊥ ) = dim(E) − dim(F) = n − 1, donc d’après l’hypothèse de récurrence, il existe une
base orthonormale (e2 , . . . , en ) de F ⊥ formée de vecteurs propres de v.
Ainsi, (e1 , e2 , . . . , en ) est une base orthonormale de E formée de vecteurs propres de u.
Remarque 6.15.1
Toute matrice normale est diagonalisable sur C.
Remarque 6.16.1
1. Une matrice A ∈ Mn (C) est dite hermitienne, si A∗ = A.
2. Soit β une base orthonormale de E et soit A = Mat(u, β), alors
(u est hermitien) ⇐⇒ (A est hermitienne)
3. Tout endomorphisme hermitien est normal.
Proposition 6.17.
Preuve
Soit λ ∈ C une valeur propre de u, alors il existe x0 ∈ E, tel que u(x0 ) = λx0 .
Donc, on aura
< u(x0 ), x0 >=< x0 , u∗ (x0 ) > =⇒< u(x0 ), x0 >=< x0 , u(x0 ) > (car u∗ = u)
=⇒< λx0 , x0 >=< x0 , λx0 >
=⇒ λkx0 k2 = λkx0 k2
=⇒ λ = λ (car kx0 k2 6= 0)
=⇒ λ ∈ R
Théorème 6.18.
Soient E un espace hermitien. Alors pour tout endomorphisme hermitien u, il existe une
base orthonormale de E dans laquelle la matrice A de u s’écrit sous la forme :
λ1 0 0 . . . 0
0 λ2 0 . . . 0
. . . . . . . . . ..
A=0 .
. . . .
.. .. .. .. 0
0 0 . . . 0 λn
où λ1 , λ2 , . . . , λn ∈ R.
Preuve
Il suffit de remarquer que tout endomorphisme hermitien est normal.
Remarque 6.18.1
Toute matrice hermitienne est diagonalisable sur C.
Remarque 6.19.1
1. Une matrice A ∈ Mn (C) est dite unitaire, si A∗ A = I.
2. Soit β une base orthonormale de E et soit A = Mat(u, β), alors
(u est unitaire) ⇐⇒ (A est unitaire)
Proposition 6.20.
Preuve
i) =⇒ ii) Supposons que u est unitaire, donc pour tout x ∈ E, u∗ (u(x)) = x.
Soit x ∈ E, alors on a
ku(x)k2 =< u(x), u(x) >=< u∗ (u(x)), x >=< x, x >= kxk2
Proposition 6.21.
Preuve
Exercice
Remarque 6.21.1
1. La matrice de passage d’une base orthonormale à une base orthonormale est une matrice
unitaire.
2. Pour tout matrice normale A ∈ Mn (C), il existe une matrice diagonale D ∈ Mn (C) et une ma-
trice unitaire P ∈ Mn (C), telle que A = P∗ DP.
3. Pour tout matrice hermitienne A ∈ Mn (C), il existe une matrice diagonale D ∈ Mn (C) et une
matrice unitaire P ∈ Mn (C), telle que A = P∗ DP.
Théorème 6.22.
Soit E un espace hermitien. Alors pour tout endomorphisme unitaire u, il existe une base
orthonormale de E dans laquelle la matrice U de u s’écrit sous la forme :
iθ1
0 ... 0
e 0
0 eiθ2 0 . . . 0
.. .. .. .
U = 0
. . . ..
. . . .
.. .. .. .. 0
0 0 . . . 0 eiθn
où θ1 , θ2 , . . . , θn ∈ R.
6.23 Exercices
Exercice 128
Soient n un entier ≥ 1 et h : Cn [X] × Cn [X] −→ C l’application définie par :
1
Z π
2
∀(P, Q) ∈ C[X] , h(P, Q) = P(eiθ )Q(eiθ ) dθ
2π −π
Exercice 129
1. Montrer que pour toute matrice M ∈ Mn (C), il exixte deux matrices hermitiennes uniques A et
B, telles que M = A + iB.
2. Montrer que si M = A + iB, où A et B sont hermitiennes, alors
(M est normale) ⇐⇒ AB = BA
Exercice 130
Pour tout entier n ≥ 3, on considère le groupe G des racines nième de l’unité dans C.
i2π
Posons ω = e n , alors on sait que
G = {1, ω, ω2 , . . . , ωn−1 }
zk
∀z ∈ G, fk (z) = √
n
et on considère l’application U : E −→ E, définie par :
∀ f ∈ E, ∀z ∈ G, U( f )(z) = f (ωz)
∀ f ∈ E, < Aλ ( f ), f >≥ 0
Exercice 131
On munit Mn (C) de son produit hermitien usuel :
1. Soit u un endomorphisme de E. Montrer que les deux propositions suivantes sont équivalentes :
i) u est hermitien et kuk ≤ 1,
ii) Il existe un endomorphisme unitaire h de u, tel que u = 12 (h + h∗ ).
2. En déduire que tout endomorphisme de E, s’écrit comme combinaison linéaire de quatres en-
domorphismes unitaires.
Exercice 134
1. Montrer que pour toute matrice unitaire U, il existe une matrice hermitienne H, telle que
U = eiH .
2. Montrer que pour toute matrice complexe A, il existe une matrice hermitienne définie positive
R et une matrice hermitienne H, telles que A = eiH R.
Exercice 135
Soient E un espace hermitien et u un endomorphisme de E. Montrer que les propositions suivantes
sont équivalentes :
i) u est normal,
ii) ∀x ∈ E, ku(x)k = ku∗ (x)k,
iii) Tout sous-espace vectoriel stable par u est aussi stable par u∗ ,
iv) Tout sous-espace vectoriel F stable par u, F ⊥ est aussi stable par u,
v) Il existe P ∈ C[X], tel que u∗ = P(u).
déterminant de Gram, 70
double produit vectoriel, 41
Ecriture matricielle, 3
Egalité de la médiane, 38
endomorphismes de trace nulle, 66
espaces euclidiens, 25
forme σ-sesquilinéaire, 24
forme bilinéaire, 1
forme bilinéaire antisymétrique, 1
forme bilinéaire symétrique, 1
forme bilinéare positif, 25
Identité de Jacobi, 41
Inégalité d’Hadamard, 31
inégalité de cauchy-Schwartz, 28
inégalité de Hadamard, 70, 71
orientation, 32
produit scalaire, 25
rotation, 58
134
Page 135 sur 135 Pr.Mohamed HOUIMDI