Cours Algèbre 3 PDF
Cours Algèbre 3 PDF
Cours Algèbre 3 PDF
Mohamed ADDAM
Professeur de Mathématiques
Mohamed
c ADDAM.
18 Mars 2020
2
Table des matières
Le coefficient ci,j est obtenu en faisant le produit de la ième ligne de A par la j ème colonne de B.
Remarque 1.1.1 Lorsque p = 1 alors la matrice B serait un vecteur de type m × 1. Dans ce cas, le produit
A · B serait un vecteur c de type m × 1 dont les coefficients ci sont donnés par
n
X
ci = ai,j bj = ai,1 b1 + ai,2 b2 + . . . + ai,n bn , 1 ≤ i ≤ m.
j=1
7
8 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES ET ÉLÉMENTS PROPRES
Po u r c h a q u e l i g n e i = 1 . . . m, f a i r e
pour chaque colonne j = 1 . . . p , f a i r e
Po u r k = 1 . . . n , f a i r e
a [ i , j ] : = a [ i , j ]+ a [ i , k ] ∗ a [ k , j ]
Fin pour k
Fin pour j
Fin pour i
Algorithme :
Fo r i = 1 . . m,
Fo r j = 1 . . p ,
Fo r k = 1 . . n ,
a [ i , j ] : = a [ i , j ]+ a [ i , k ] ∗ a [ k , j ]
End k
End j
End j
2. Les valeurs propres d’un endomorphisme u de E sont les racines du polynôme caractéristique de u
(resp. de la matrice A de Mn (K)
P (λ) = λ2 + λ − 2.
Pour trouver les valeurs propres de la matrice A il suffit de résoudre l’équation
λ2 + λ − 2 = 0.
PM (λ) = 0.
Remarque 1.2.1 Soit u un endomorphisme de E et U la matrice de u dans une base arbitraire de E alors
on a
P (λ) = det(u − λe) = det(U − λI).
Démonstration. En exercice.
u(x) = λx
est un sous-espace vectoriel Hλ de E dit sous-espace propre associé à λ. Les éléments non nuls de
Hλ sont les vecteurs propres associés à λ.
Le sous-espace propre Hλ = Ker(u − λe), le noyau de l’endomorphisme (u − λe) de E.
2. Si λ est une valeur propre de la matrice A, l’ensemble des solutions de l’équation
Mx = λx
est un sous-espace vectoriel Hλ de Kn dit sous-espace propre associé à λ. Les éléments non nuls de
Hλ sont les vecteurs propres associés à λ.
Si f était l’endomorphisme associé à la matrice A alors Hλ = Ker(f − λe).
1.2. RÉDUCTION DES ENDOMORPHISMES ET DES MARTICES CARRÉES 11
Hλ2 = Ker (f − e)
ou f est l’endomorphisme associé à A défini par
f (x) = 2x − 4y,
f (y) = x − 3y,
Définition 1.2.5 Deux matrices sont semblables si et seulement si elles constituent deux matrices repré-
sentatives du même endomorphisme dans deux bases (éventuellement) différentes. Autrement dit, on dit que
deux matrices A et B sont semblables si et seeulement si il existe une matrice inversible P telle que
A = P −1 BP.
2 1 −2 −2
Exemple 1.2.6 Les matrices A = et B = sont semblables.
−2 0 5 4
1 1 0 1
En effet, il existe une matrice inversible P = et P −1 = .
1 0 1 −1
On a
−1 0 1 2 1 1 1 −2 −2
P AP = =
1 −1 −2 0 1 0 5 4
12 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES ET ÉLÉMENTS PROPRES
La relation R est une relation d’équivalence sur l’ensemble des matrices Mn (K).
Proposition 1.2.2 Deux matrices semblables A et B de Mn (K) ont le même polynôme caractéristique.
Démonstration. Soient A et B deux matrices semblables de Mn (K), alors il existe une matrice inversible
P telle que
A = P −1 BP.
On a
A − λI = P −1BP − λI = P −1BP − λP −1P = P −1 (B − λI)P,
alors
det(A − λI) = det(P −1(B − λI)P ) = det(P −1 )det(B − λI)det(P )
d’où
det(P )
det(A − λI) = det(B − λI) = det(B − λI).
det(P )
Corollaire 1.2.1 Deux matrices semblables A et B de Mn (K) ont les mêmes valeurs propres.
Définition 1.2.6 Un endomorphisme u ∈ L(E) (resp. une matrice A ∈ K(n×n) ) est diagonalisable s’il
existe une base de E (resp. de Kn ) dans laquelle la matrice de u (resp. la matrice P −1 AP transformée de
A) est diagonale.
Définition 1.2.7 Une matrice A de Mn (K) est dite diagonalisable si il existe une matrice inversible P de
Mn (K) telle que
λ1 0 . . . 0
. .
−1 0 λ2 . . ..
P AP = D = . .
.. .. ... 0
0 . . . 0 λn
où λ1 , . . . , λn sont les valeurs propres de A comptées avec leurs ordres de multiplicité.
Dans ce cas, chaque vecteur colonne w de la matrice P est un vecteur propre pour la matrice A, c’est-à-dire
qu’il existe un scalaire λ sur la diagonale de D tel que A.w = λ.w.
1.2. RÉDUCTION DES ENDOMORPHISMES ET DES MARTICES CARRÉES 13
où λ est un réel quelconque. La diagonale principale contient des λ, on trouve des 1 au-dessus de cette
diagonale, les autres éléments de la matrice sont nuls.
*Le bloc de Jordan de taille n ≥ 1 et dont l’élément sur la diagonale principale est λ est noté Jn (λ).
Définition 1.2.12 On appelle matrice diagonale par blocs une matrice formée d’une diagonale de matrices
carrées, non nécessairement de même taille. Les éléments non situés dans ces matrices sont nuls.
*On note diag(A1 ; A2 ; . . . ; Ap ) la matrice dont les blocs diagonaux sont A1 , A2 , . . . , Ap .
1 2 0
0
3 4 0
0 1 2 2 4
Exemple 1.2.9 1. A =
0
= diag , ,
0 4
2 3 4 6 8
0 0 6
8
1 0 0 0
0 3 3 2 1
2 1
2. B =
0 0 = diag (1), 0 −1 −2 ,
−1 −2
−3 −4 −5
0 −3 −4 −5
3 0 0
1 −1
3. C = 0 1 −1 = diag (3), .
−1 1
0 −1 1
Définition 1.2.13 On appelle matrice de Jordan une matrice diagonale par blocs dont les blocs sont des
blocs de Jordan.
Définition 1.2.14 Soit A ∈ Mn (K). On appelle réduite de Jordan de A toute matrice de Jordan J telle
qu’il existe P ∈ Mn (K) inversible telle que A = P JP −1.
1.3. SPECTRE ET RAYON SPECTRAL D’UNE MATRICE, MATRICE POSITIVE 15
(Les λp sont les valeurs propres de u ou de A ; plusieurs matrices Jp peuvent avoir la même valeurs
λp dans la diagonale.)
Sp(A) = {λi : 1 ≤ i ≤ n}
16 CHAPITRE 1. RÉDUCTION DES ENDOMORPHISMES ET ÉLÉMENTS PROPRES
Définition 1.3.1 On appelle le rayon spectral de la matrice A, noté %(A), le nombre réel positif
%(A) = max{|λi | : 1 ≤ i ≤ n}
Propriété 1.3.1 Si A et B sont deux matrices inversibles, alors (AB)−1 = B −1 A−1 , (AT )−1 = (A−1 )T ,
(A∗ )−1 = (A−1 )∗ .
(Ax, x) ≥ 0, ∀x ∈ E − {0}
Théorème 1.3.1 Une matrice hermitienne A est définie positive (resp. positive), si et seulement si toutes
ses valeurs propres sont > 0 (resp. ≥ 0).
1.4. EXERCICES 17
1.4 Exercices
Exercice 1.4.1 Soit A une matrice de M2 (C). On suppose que la matrice A a une seule valeur propre
double λ.
1.
Montrer peuttrouver une matrice B semblable à A égale à l’une des deux matrices suivantes :
qu’on
λ 0 λ 1
,
0 λ 0 λ
n
2. Calculer B .
0 1 0
Exercice 1.4.2 Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est A = −4 4 0
−2 1 2
1. Calculer le polynôme caractéristique de A. Montrer que f est trigonalisable sur R.
2. L’endomorphisme f est-il diagonalisable sur R ?
3. Trouver une base de R3 dans laquelle f est triangulaire supérieure.
4. Calculer (A − 2I3 )2 . En déduire la valeur de An pour tout n ∈ N.
3 −1 −1
Exercice 1.4.3 Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est A = −1 2 0
3 −2 0
1. Calculer le polynôme caractéristique de A. Montrer que f est trigonalisable sur R.
2. L’endomorphisme f est-il diagonalisable sur R ?
3. Trouver une base de R3 dans laquelle f est triangulaire supérieure.
4. En déduire la valeur de An pour tout n ∈ N.
Considérons alors le vecteur e1 . Il est d’indice 2 et la famille (e1 , u(e1), u2 (e1 )) est libre. Elle est libre
et de cardinal égal à la dimension de l’espace vectoriel. Cette famille est donc une base. Dans cette base, la
représentation matricielle de u prend alors la forme suivante :
0 1 0
0 0 1
0 0 0
Là encore, ces propriétés sont génériques pour un endomorphisme nilpotent. Dans le cas général de
dimension n, si x est un vecteur d’indice p alors p est inférieur ou égal à n et la famille (x, u(x), ..., up (x))
est une famille libre. De plus, il existe toujours une base (e1 , e2 , ..., en ), tel que u(ei ) soit égal, soit à 0 soit
à ei+1 , avec u(en ) = 0. C’est la base réduite pour l’endomorphisme nilpotent.
La fonction exponentielle est infiniment dérivable sur R, alors au voisinage de 0, alors d’après le dévelop-
pement de Taylor on peut écrire
+∞ n p
X t X tn
t
e =1+ = 1 + lim .
n=1
n! p→+∞
n=1
n!
0 1 2 0 0
Exemple 2.2.1 1. On prend la matrice A = , alors on a A , alors
0 0 0 0
1 0 0 1 1 1
exp(A) = I + A = + =
0 1 0 0 0 1
2.2. EXPONENTIEL D’UNE MATRICE 21
2. Si la seule valeur propre de A est 0, alors les puissance de A sont nulles à partir d’un certain rang
n0 :
An = 0, dès que n ≥ n0 .
Dans ce cas, on a
n0
X An
exp(A) = I + .
n=1
n!
3. Si A a une seule valeur propre λ, alors nous pouvons écrire A = λI + B où B est une matrice dont
la seule valeur propre est 0. On a bien
exp(A) = exp(λ). exp(B)
5. Soit A une matrice diagonalisable, alors il existe une matrice inversible P de vecteurs propres telle
que
λ1
λ1 0 . . . 0 e 0 ... 0
. . . .
−1 0 λ2 . . .. −1 0 eλ2 . . .. −1
A = P DP = P . . P et exp(A) = P . . P .
.. .. ... 0 .. .. ... 0
0 . . . 0 λn 0 . . . 0 eλn
Démonstration. Exercice.
22 CHAPITRE 2. RÉSOLUTION DE SYSTÈMES DIFFÉRENTIELS LINÉAIRES
Soit X une matrice colonne des fonctions, A une matrice de Mn (K) où K (R ou C) et D un vecteur colonne.
On suppose que les coefficients de A et D sont donnés.
On appelle un système différentiel linéaire à coefficients constants et d’inconnu X, l’équation linéaire que
satisfait X au sens usuel des équations différentielles ordinaires :
x1
dX(t) x2
= AX(t) + D(t), X = .. , (0.1)
dt .
xn
dX(t)
= AX(t) (0.2)
dt
La solution générale de l’équation (0.2) est définie par
X(t) = exp(tA)X(0),
Proposition 2.3.1 Soit A est une matrice carrée d’ordre n à coefficients dans K (R ou C). Si λ1 , λ2 , . . . , λn
sont les valeurs propres de la matrice A et V1 , V2 , . . . , Vn les vecteurs associés respectivement aux valeurs
propres λ1 , λ2 , . . . , λn , alors la solution générale de l’équation homogène (0.2) s’écrit sous la forme :
n
X
X(t) = αi exp(λi t)Vi ,
i=1
Proposition 2.3.2 La solution générale du système (0.1) est la somme d’une solution particulière de (0.1)
et de la solution générale du système différentiel homogène (0.2).
D(t) = exp(ωt)D0 ,
où D0 est un vecteur à coefficients constants dans K, alors il existe une solution particulière X(t) de la
forme :
1. X(t) = exp(ωt)X0 , si ω n’est pas une valeur propre de A ;
2. X(t) = exp(ωt)(X0 + tX1 ), si ω est une valeur propre simple de A ;
3. X(t) = exp(ωt)(X0 + tX1 + t2 X2 ), si ω est une valeur propre double de A ;
n
X
4. X(t) = exp(ωt) ti Xi , si ω est une valeur propre, de multiplicité n, de A ;
i=0
Remarque 2.3.1 Si on ne connaît pas à priori la forme de la solution particulière, on fera le changement
d’inconnues :
X(t) = P Y (t),
la matrice P étant choisie de manière que la matrice P −1 AP du système transformé :
dY (t)
= P −1 AP Y (t) + P −1 D(t)
dt
soit triangulaire ou, mieux encore, de la forme de Jordan. Cette partie sera bien aborder les années ulé-
rieures avec plus de bagages d’algèbre et d’analyse.
24 CHAPITRE 2. RÉSOLUTION DE SYSTÈMES DIFFÉRENTIELS LINÉAIRES
2.4 Exercices
Exercice 2.4.1 Soit (S) le système différentiel linéaire sans second membre
0
x (t) = x(t) − 12 y(t)
(S) :
y 0(t) = 2 x(t) − y(t)
x(t)
où x et y sont des fonctions dérivables de R dans R. Soit t ∈ R 7−→ X(t) = ∈ R2 .
y(t)
1. Écrire (S) sous la forme matricielle X 0 (t) = BX(t) où B est une matrice à déterminer. La matrice
B est-elle inversible ?
2. Calculer B 2 et B 3 . Que peut-on déduire ?
3. Calculer la matrice A = exp(tB) en fonction de t.
4. En déduire les expressions des fonctions t 7→ x(t) et t 7→ y(t) lorsque x(0) = 1 et y(0) = −1.
Exercice 2.4.2 Soit (S) le système différentiel linéaire sans second membre
0
x (t) = x(t) + 2 y(t) + z(t)
(S) : y 0 (t) = 2 y(t) + 3z(t)
0
z (t) = 3z(t)
x(t)
où x, y et z sont des fonctions dérivables sur R. Soit t ∈ R 7−→ X(t) = y(t) ∈ R3 .
z(t)
0
1. Écrire (S) sous la forme matricielle X (t) = BX(t) où B est une matrice à déterminer. La matrice
B est-elle inversible ? Qu’appelle-t-on ce type de matrice ?
2. Montrer que la matrice B s’écrit sous la forme D + N où D est une matrice diagonale à déterminer
et N est une matrice nilpotente à déterminer.
*Déterminer l’indice de nilpotence de N.
3. En utilisant l’écriture B = D + N, montrer que exp(tB) = exp(tD) I3 + tN + 12 t2 N 2 pour tout
t ∈ R où I3 est la matrice identité de taille (3 × 3).
4. Calculer les matrices P = exp(tD) et Q = I3 + tN + 12 t2 N 2 .
5. En déduire l’expression de la matrice A = exp(tB) en fonction de t.
6. En déduire les expressions des fonctions t 7→ x(t), t 7→ y(t) et t 7→ z(t) lorsque x(0) = k1 , y(0) = k2
et z(0) = k3 .
*Déterminer les fonctions t 7→ x(t), t 7→ y(t) et t 7→ z(t) lorsque k1 = 1, k2 = −1 et k3 = 2.
Exercice 2.4.3 On veut résoudre le système différentiel linéaire du premier ordre sans second membre
suivant : 0
x = x+y
y 0 = −x + 2y + z
0
z =x+z
x
On pose X = y .
z
2.4. EXERCICES 25
X 0 = A.X
j2
Pui, montrer que si M, N et P sont dans le plan complexe les images de x(t), y(t) et z(t), le traingle
MNP est équilatéral.
Exercice 2.4.4 Soit (S) le systeme differentiel lineaire avec second membre
0
x (t) = x(t) + 2y(t) + et
(S) : y 0(t) = −3x(t) − 3y(t) + z(t) − et
0
z (t) = 2x(t) + 2y(t) − z(t) + 2et
Exercice 2.4.5 Soit (S) le systeme differentiel lineaire avec second membre
0
x (t) = y(t) − z(t)
(S) : y 0 (t) = −x(t) + z(t)
0
z (t) = x(t) − y(t)
x(t)
où x, y et z sont des fonctions de R dans R. On pose t ∈ R 7−→ X(t) = y(t) ∈ R3 .
z(t)
0
1. Ecrire le système différentiel linéaire (S) sous la forme X (t) = A.X(t) où A est une matrice à
déterminer.
2. Déterminer la solution générale, à valeurs réelles, du systeme linéaire (S).
3. Calculer la norme kX(t)k. Que peut-en déduire ?
4. Montrer que toutes les solutions du système (S) sont planes. Conclure.
26 CHAPITRE 2. RÉSOLUTION DE SYSTÈMES DIFFÉRENTIELS LINÉAIRES
Exercice 2.4.6 Soit a un paramètre réel. On considère les trois suites réelles (un )n∈N , (vn )n∈N et (wn )n∈N
définies sous la forme récurrente par u0 = 1, v0 = 1, w0 = −1 et pour tout n ∈ N par le système suivant
un+1 = 3un − wn
(S) : vn+1 = 2un + vn + (1 + a2 )wn
wn+1 = −un + vn + wn
1. Déterminer la matrice A telle qu’on peut écrire le système (S) sous la forme matricielle
un
Xn+1 = AXn avec Xn = vn , ∀n ∈ N.
wn
Exercice 2.4.7 I. On propose de résoudre le système différentiel linéaire du premier ordre sans second
membre suivant : 0
x (t) = x(t) + y(t)
(S) y 0(t) = −x(t) + 2y(t) + z(t)
0
z (t) = x(t) + z(t)
0
x(t) x (t)
On pose X(t) = y(t) et X (t) = y 0 (t) la dérivée de X(t) par rapport à t.
0
z(t) z 0 (t)
(a) Déterminer la matrice A telle qu’on peut écrire le système différentiel (S) sous la forme :
X 0 (t) = AX(t).
(b) Montrer que le système est bien défini, puis trouver le polynôme caractéristique associé à A.
(c) Déterminer les valeurs propres λ1 , λ2 et λ3 de la matrice A, puis déterminer les vecteurs propres
v1 , v2 et v3 associés respectivement aux valeurs propres λ1 , λ2 et λ3 .
(d) Déterminer les sous-espaces propres H1 , H2 et H3 associés respectivement aux valeurs propres
λ1 , λ2 et λ3 .
*Donner une interprétation géométrique des sous-espaces propres H1 , H2 et H3 .
(e) Écrire l’expression générale d’une solution X(t) du système (S), puis trouver la solution t 7−→
X(t) telle que x(0) = 1, y(0) = 1/2 et z(0) = 3.
2.4. EXERCICES 27
II. En utilisant la partie I), résoudre le système avec second membre suivant :
0
x (t) = x(t) + y(t) − e2t
(E) y 0 (t) = −x(t) + 2y(t) + z(t) + e2t
0
z (t) = x(t) + z(t) + e2t
avec x(0) = 1, y(0) = 0 et z(0) = 0. (Indication : trouver d’abord une solution particulière).
Exercice 2.4.9 On propose de résoudre le système différentiel linéaire du premier ordre sans second membre
suivant : 0
x (t) = x(t) − y(t) + 2z(t) + u(t)
0
y (t) = 4y(t) + z(t) − 2u(t)
(S) 0
z (t) = y(t) + 2z(t) − u(t)
0
u (t) = 2y(t) + z(t)
0
x(t) x (t)
y(t) 0
On pose X(t) = et X 0 (t) = y0 (t) la dérivée de X(t) par rapport à t.
z(t) z (t)
u(t) u0 (t)
1. Déterminer la matrice A telle qu’on peut écrire le système différentiel (S) sous la forme :
X 0 (t) = AX(t).
28 CHAPITRE 2. RÉSOLUTION DE SYSTÈMES DIFFÉRENTIELS LINÉAIRES
2. Déterminer le polynôme caractéristique associé à A, puis ses valeurs propres. La matrice A est-elle
diagonalisable sur R ? A est-elle diagonalisable sur C ?
3. Déterminer les vecteurs propres de A et les sous-espaces propres.
4. Déterminer une base de vecteurs propres de A, puis diagonaliser A.
5. Écrire l’expression générale d’une solution X(t) du système (S), puis trouver la solution t 7−→ X(t)
telle que x(0) = 1, y(0) = −1, z(0) = 1 et u(0) = −1.
Chapitre 3
Définition 3.1.2 Soit E un K-e.v.. On appelle dual algébrique de E, noté E ∗ , l’ensemble des formes li-
néaire sur E. C’est-a-dire E ∗ = L(E, K) = LK (E).
*Structure d’espace vectoriel sur E ∗ : (E ∗ , +, ×) est un K-espace vectoriel. Soit f et g deux éléments de
E ∗ et λ ∈ K, alors f + g et λf sont des éléments de E ∗ et sont définies par
(f + g)(x) = f (x) + g(x), et (λf )(x) = λ.f (x), ∀x ∈ E.
*Notation : pour f ∈ E ∗ et x ∈ E, on note f (x) par
< f, x >= f (x).
Dans ce cas, on a
1. < f, x + y >=< f, x > + < f, y >,
2. < f, λx >= λ < f, x >,
3. < f + g, x >=< f, x > + < g, x >,
4. < λf, x >= λ < f, x >.
*Dans la pratique : Montrer que deux éléments f et g de E ∗ sont égaux, revient à montrer que
< f, x >=< g, x >, ∀x ∈ E.
29
30 CHAPITRE 3. FORMES LINÉAIRES ET FORMES BILINÉAIRES
Définition 3.2.1 Soient E, F , et G des R-espaces vectoriels. Une application f de E × F dans G est dite
bilinéaire si les conditions suiavntes sont satisfaites :
i) f (x1 + x2 , y) = f (x1 , y) + f (x2 , y),
ii) f (λx, y) = λf (x, y),
iii) f (x, y1 + y2 ) = f (x, y1 ) + f (x, y2 ),
iv) f (x, µy) = µf (x, y).
quels que soient x, x1 , x2 dans E, y, y1, y2 dans F , et λ, µ dans R.
Exemple 3.2.1 Soit E l’espace vectoriel des vecteurs libres de l’espace ordinaire. L’application Φ : E ×
E −→ E définie par Φ(V~ , V~ 0 ) = V~ ∧ V~ 0 est une application bilinéaire.
3.2.2 Propriétés
1. Soient (x1 , . . . , xn ) des vecteurs de E et (y1 , . . . , ym ) des vecteurs de F et λ1 , . . . , λn , µ1 , . . . , µm des
scalaires et f une forme bilinéaire sur E × F alors
n m
! n X m
X X X
f λi xi , µj y j = λi µj f (xi , yj ) .
i=1 j=1 i=1 j=1
Définition 3.2.2 Soient E et F des R-espaces vectoriels. On appelle forme bilinéaire sur E × F toute
application bilinéaire de E × F dans R. Lorsque E = F on dit tout simplement une forme bilinéaire sur E.
Exemple 3.2.2 1. Soit e l’espace vectoriel des vecteurs libres de l’espace ordinaire. L’application Φ :
E × E −→ R définie par Φ(V~ , V~ 0 ) = V~ · V~ 0 est une application bilinéaire.
2. L’application
((λ1 , . . . , λn ), (µ1 , . . . , µn )) 7−→ λ1 µ1 + . . . + λn µn
de Kn × Kn dans K est une forme bilinéaire sur Kn , dite canonique.
3. Soit e un K-espace vectoriel. L’application (f, x) 7−→< f, x > de E ∗ × E dans K est une forme
bilinéaire sur E ∗ × E dite canonique.
32 CHAPITRE 3. FORMES LINÉAIRES ET FORMES BILINÉAIRES
Il est immédiat que f est une forme bilinéaire sur E. Notons que f (ei , ej ) = αij . Ainsi, à tout élément (αij )
de Kn , nous avons associer une forme bilinéaire f .
2
Théorème 3.2.1 L’application Φ : Kn 7−→ BK (E) définie par Φ((αij )) = f est bijective.
2
0
Démonstration. Injectivité : Si les systèmes de scalaires (αij ) et (αij ) définissent la même forme bilinéaire
f , on a
0
αij = f (ei , ej ) = αij
0
quels que soient 1 ≤ i, j ≤ n, donc (αij ) = (αij ) ; ainsi l’application est injective.
Surjectivité : soit f une formePbilinéaire sur E. PPosons f (ei , ej ) = αij . Soit g la forme bilinéaire corres-
pondant à (αij ). Pour tout x = i=1 xi ei et y = nj=1 yj ej on a
n
n X
X n
f (x, y) = xi yj f (ei , ej )
i=1 j=1
Xn X n
= xi yj αij
i=1 j=1
= g(x, y).
Homomorphismes définis canoniquement par une forme bilinéaire : Soit f une forme bilinéaire sur
E × F . Nous allons définir une application u de E dans F ∗ .
Fixons provisoirement x dans E. Alors l’application y 7→ f (x, y) de F dans K est une forme linéaire sur F ,
c’est-à-dire un élément de F ∗ , que nous noterons u(x). On a donc par définition
d’où
u(x1 + x2 ) = u(x1 ) + u(x2 ) et u(λx1 ) = λu(x1 )
Définition 3.2.4 On dit que u est l’homomorphisme de E dans F ∗ défini canoniquement par f .
En échangeant les rôles de E et F dans ce qui précède, on obtient l’homomorphisme de F dans E ∗ défini
canoniquement par f . Il s’agit de l’application v telle que
Théorème 3.2.2 Une forme bilinéaire symétrique f sur l’espace vectoriel E×F définit un homomorphisme
u de E dans le dual F ∗ et un homomorphisme v de F dans le dual E ∗ donnée par
Définition 3.2.5 Soient E et F deux K-espaces vectoriels et soit f une forme bilinéaire sur E × F .
On dit que f est dégénérée s’il existe un x0 non nul dans E tel que f (x0 , y) = 0 pour tout y ∈ F ., ou s’il
existe un y0 non nul dans F tel que f (x, y0) = 0 pour tout x dans E.
Exemple 3.2.3 Soient E et F deux K-espaces vectoriels. L’application (x, y) 7−→ 0 de E × F dans K est
une forme bilinéaire dégénérée (sauf si E = F = {0}).
Définition 3.2.6 Soient E et F deux K-espaces vectoriels. Une forme bilinéaire f sur E est dite non dégé-
nérée si son noyau est réduit à {0} ou si rang(f ) = dim(E) = n.
Exemple 3.2.4 Soit f la forme bilinéaire canonique sur Kn . Alors f est non dégénérée. En effet, soit x0 =
(x1 , . . . , xn ) un élément non nul de v. Il existe un indice i tel que xi 6= 0. soit (e1 , . . . , en ) la base canonique
de Kn . On a
f (x0 , ei ) = f (ei , x0 ) = xi 6= 0
34 CHAPITRE 3. FORMES LINÉAIRES ET FORMES BILINÉAIRES
Théorème 3.2.3 Soit f une forme bilinéaire sur E × F . Soient u : E → F ∗ et v : F → E ∗ les homomor-
phismes définis canoniquement par f . Les conditions suivantes sont équivalentes :
Démonstration.i) ⇒ ii). Supposons que f non dégénérée. Soit x un élément non nul de E. Il existe y
dans F tel que f (x, y) 6= 0, c’est-à-dire < u(x), y >6= 0.Ḋe la même façon, on montre que v est injectif.
ii) ⇒ i). Supposons que u et v injectifs. Soit x un élément non nul de E. On a u(x) 6= 0, donc il existe y
dans F tel que < u(x), y >6= 0, c’est-à-dire f (x, y) 6= 0, on voit de même que, si y 0 est un élément de F , il
existe un x0 dans E tel que f (x0 , y 0) 6= 0.
Théorème 3.2.4 Soit f une forme bilinéaire sur E × F . Soient u : E → F ∗ et v : F → E ∗ les homomor-
phismes définis canoniquement par f . On suppose que f non dégénérée et E est de dimension finie.
Démonstration.Puisque v est injectif, alors F est isomorphe à v(F ) ; comme E ∗ est de dimension finie, F
est de dimension finie et
dim(F ) = dimv(F ) ≤ dim(E ∗ ) = dim(E)
Puisque F est de dimension finie, on peut échanger le rôle de E et F dans ce qui précède, donc
dim(E) ≤ dim(F )
Remarque 3.2.1 Dans les conditions du théorème précédent, on identifie souvent E à F ∗ par u, et F à
E ∗ par v. On considère alors chacun des deux espaces vectoriels E, F comme le dual de l’autre, et l’on a,
pour x ∈ E et y ∈ F
f (x, y) =< x, y >=< y, x > .
Exemple 3.2.5 Soit E l’espace vectoriel des vecteurs libres de l’espace ordinaire. Pour tout vecteur V~
dans E, soit fV~ la forme linéaire V~ 0 7−→ V~ · V~ 0 sur e. L’application V~ 7→ fV~ est un isomorphisme de E
sur E ∗ par lequel on identifie souvent E à son dual. On a alors
Définition 3.2.7 Soient E un K-e.v. et {e1 , . . . , en } une base de E, et f ∈ LK (E) une forme bilinéaire sur
E. On appelle matrice de f par rapport à la base {e1 , . . . , en }, la matrice M = (αi,j ) de type n × n définie
par
αi,j = f (ei , ej ), ∀1 ≤ i, j ≤ n.
Théorème 3.2.5 l’application Φ : BK −→ K(n×n) , f 7−→ Φ(f ) = (αi,j )1≤i,j≤n est bijective.
Théorème 3.2.6 Soit M = (αi,j )1≤i,j≤n la matrice de f par rapport à une base {e1 , . . . , en } de E et
M 0 = (αi,j
0
)1≤i,j≤n la matrice de f par rapport à une base {e01 , . . . , e0n } de E. alors
M 0 = P T MP
Pn
Démonstration. posons P = (λi,j ) ; on a e0i = k=1 λk,i ek , donc
n n
! n n
X X X X
0
αi,j = f (e0i , e0j ) =f λk,i ek , λ`,j e` = λk,i λ`,j f (ek , e` ) = λk,i λ`,j αk,`
k=1 `=1 k,`=1 k,`=1
Or posons P T = (µi,j ) de sorte que µi,j = λj,i . L’élément de P T MP situé dans la iime ligne et la j ime
colonne est !
Xn X n Xn
0
µi,k αk,` λ`,j = λk,i λ`,j αk,` = αi,j
k=1 `=1 k,`=1
d’où l’égalité.
Proposition 3.2.1 Une forme bilinéaire f sur Rn donnée par f (x, y) = xT My est symétrique (c’est-à-dire
f (x, y) = f (y, x), ∀x, y ∈ Rn ) si et seulement si M est une matrice symétrique.
M est symétrique ⇔ M = MT
⇔ < My, x >=< y, Mx >=< Mx, y >, ∀x, y ∈ Rn ,
⇔ f (x, y) = f (y, x), ∀x, y ∈ Rn
36 CHAPITRE 3. FORMES LINÉAIRES ET FORMES BILINÉAIRES
Réciproquement, quels que soient les scalaires αijk , cette formule définit une forme trilinéaire sur E . On
sait donc construire toutes les formes trilinéaires sur E.
Remarque 3.3.1 De façon analogue, on utilisera le même procédé pour les formes p-linéaires ; sauf qu’elles
sont plus compliquées é écrire car il est nécessaire d’introduire des indices doubles.
Chapitre 4
Définition 4.1.1 1. Une forme quadratique sur Rn est une application q : Rn −→ R de la forme q(x) =
f (x, x) où f est une forme bilinéaire symétrique sur Rn .
2. Une forme quadratique sur un R-e.v. E est une application q : E −→ R de la forme q(x) = f (x, x)
où f est une forme bilinéaire symétrique sur E.
Proposition 4.1.1 une forme quadratique est une application q : Rn −→ R qui peut s’écrire sous la forme
q(x) =< Mx, x >= xT Mx avec M est une matrice symétrique.
Remarque 4.1.1 Une forme quadratique peut être donnée sous la forme
n X
X
q(x) = αi,j xi xj .
j=1 i≤j
q(x) = xT Mx
αi,j
avec M est une matrice symétrique. En effet, j = 1, . . . , n, i < j posons βi,j = 2
= βj,i et βi,i = αi,i . Il
en résulte que
Xn X n
q(x) = βi,j xi xj
i=1 j=1
Proposition 4.1.2 Dans le cas d’un R-espace vectoriel E, toute forme quadratique q est associée à une
unique forme bilinéaire symétrique f . En particulier,
1
f (x, y) = (q(x + y) − q(x) − q(y)) , ∀(x, y) ∈ E × E.
2
♣ La forme f est appelée la forme polaire de q.
Démonstration. Soit q une forme quadratique sur Rn . D’après la remarque précédente, q peut être donnée
par
q(x) =< Mx, x >= xT Mx
avec M est une matrice symétrique.
Or, toute matrice symétrique peut être orthogonalement diagonalisée, alors Il existe une matrice orthogonale
Q et une matrice diagonale réelle D telle que
M = QDQT
4.1. FORMES QUADRATIQUES 39
ainsi
q(x) =< QDQT x, x >=< DQT x, QT x >= (QT x)T D(QT x) = y T Dy
où y = (y1 , . . . , yn )T = QT x = Q−1 x (car QT = Q−1 puisque Q est orthogonale). d’où on obtient
n
X
T
q(x) = y Dy = λi yi2 ,
i=1
où les λi sont les valeurs propres de la matrice M (qui sont toutes réelles puisque la matrice M est symé-
trique).
Exemple 4.1.2 Considérons la forme quadratique définie par q(x1 , x2 ) = 3x21 + 10x1 x2 + 3x22 qui s’écrit
comme q(x1 , x2 ) = xT Mx où x = (x1 , x2 )T et M est la matrice symétrique
3 5
M=
5 3
Les valeurs propres de M sont λ1 = 8 et λ2 = −2 avec v1 = (1, 1)T et v2 = (−1, 1)T comme vecteurs
propres associés qui sont, conformément à la théorie, orthogonaux. On obtient donc les colonnes de la
matrice Q en orthonormalisant (ici il suffit de normaliser) {v2 , v1 }, d’où
!
√1 − √1
Q = √12 √1 2
2 2
! !
x1 √1 − √12 y1 √1 y1 − √1 y2
2 2 2
= Qy = √1 √1
= √1 y1 √1 y2
x2 2 2
y2 2
+ 2
x1 xp xp+1 xr
x = √ E1 + . . . + p Ep + p Ep+1 + . . . + √ Er
λ1 λp −λp+1 −λr
d’où
r
X
q(x) = λi yi2 = x21 + . . . + x2p − x2p+1 − . . . − x2r
i=1
Théorème 4.1.3 Soient E et F deux K-espaces vectoriels de dimension finie, f une forme bilinéaire non
dégénérée sur E × F . Soit (e1 , . . . , en ) une base de E.
Notations : Identifiant F à E ∗ . On dit que (e01 , . . . , e0n ) est la base duale de (e1 , . . . , en ) relativement à f .
On note souvent (e∗1 , . . . , e∗n ) la base duale (e01 , . . . , e0n ).
On dit tout simplement que (e1 , . . . , en ) et (e∗1 , . . . , e∗n ) sont deux bases duales.
Théorème 4.1.4 Soient E et F deux K-espaces vectoriels de dimension finie, f une forme bilinéaire non
dégénérée sur E × F . Soit (e1 , . . . , en ) et (e∗1 , . . . , e∗n ) des bases duales de E et F .
4.2 Orthogonalité
2. Soit E l’espace ordinaire muni d’une origine O. On identifie E à son dual grâce au produit scalaire.
Alors deux vecteurs V~ et V~ 0 de E sont orthogonaux si V~ · V~ 0 = 0, c’est-à-dire s’ils sont orthogonaus
au sens géométrique usuel.
Théorème 4.2.1 Soient M̃ ⊂ E, M 0 ⊂ E ∗ deux parties orthogonales. Alors toute combinaison linéaire
des éléments de M est orthogonale à toute combinaison linéaire des éléments de M 0 .
Démonstration. Soient x1 , . . . , xn dans m, x01 , . . . , x0p dans M 0 et λ1 , . . . , λn , λ01 , . . . , λ0p des scalaires. On
a
n p n X p
X X X
0 0
< λi xi , λj xj >= λi λ0j < xi , x0j >= 0
i=1 j=1 i=1 j=1
Définition 4.2.2 L’ensemble N s’appelle, par abus de langage, le sous-espace vectoriel de E ∗ orthogonal
à M ; il se note M ⊥ .
Exemple 4.2.2 Si E est un espace vectoriel alors E ⊥ = {0}, et {0}⊥ = E ∗ tout entier.
Démonstration. Soient {e1 , . . . , ep } une base de F . Le système {e1 , . . . , ep } est libre dans E, alors d’après
le théorème de la base incomplète, il existe des vecteurs ep+1 , . . . , en de E tels que {e1 , . . . , ep , ep+1, . . . , en }
soit une base de E. Soit {e∗1 , . . . , e∗n } la base duale de e∗ .
Pour qu’un vecteur µ1 e∗1 + . . . + µn e∗n de E ∗ soit orthogonal à F , il faut et il suffit qu’il soit orthogonal à
e1 , . . . , ep , c’est-à-dire qu’on ait
or < µ1 e∗1 + . . . + µn e∗n , ej >= µj . On voit donc que F ⊥ est l’ensemble des combinaisons linéaires de
e∗p+1 , . . . , e∗n . Donc F ⊥ admet pour base {e∗p+1 , . . . , e∗n }.
Démonstration.
1. Tout vecteur x de F est orthogonal à F ⊥ , alors x ∈ (F ⊥ )⊥ , d’où F ⊂ (F ⊥ )⊥ .
Posons dim(E) = n, dim(F ) = p. Alors dim(F ⊥ ) = n − p, donc dim((F ⊥ )⊥ ) = n − (n − p) = p,
donc dim((F ⊥ )⊥ ) = dim(F ).
On a F est un s-e.v. de (F ⊥ )⊥ de même dimension que (F ⊥ )⊥ alors F = (F ⊥ )⊥ .
2. idem
Théorème 4.2.4 On suppose ici que E est un R-espace vectoriel de dimension finie, muni d’une forme
bilinéaire f , éventuellement dégénérée. Les conditions suivantes sont équivalentes :
1. F ∩ F ⊥ = {0E }
2. F ⊕ F ⊥ = E
3. la restriction f bF de f à F est non dégénérée.
f1 (x) = 0, . . . , fp (x) = 0
g1 (x) = 0, . . . , gq (x) = 0.
Pour que F = G il faut et il suffit que chaque gi soit une combinaison linéaire de f1 , . . . , fp et que
chaque fi soit une combinaison linéaire de g1 , . . . , gq .
3. Si f1 , . . . , fp sont linéairement indépendantes, alors on a dim(F ) = n − p.
4.3. TRANSPOSITION 43
4.3 Transposition
Définition 4.3.1 Soient E et F des espaces vectoriels sur K, et u un élément de L(E, F ). On associe à
u, de manière naturelle, une application linéaire de F ∗ dans e∗ , qu’on notera “t u”, et qu’on appellera la
transposée de u. On a t u ∈ L(F ∗ , E ∗ ).
La la transposée de u, notée t u, est une application de F ∗ dans E ∗ . A tout élément y 0 de F ∗ , associe un
élément de E ∗ . Or, y 0 ◦ u est une application linéaire de e dans K, c’est-à-dire un élément de E ∗ ; cet élément
que nous noterons t u(y 0).
Pour tout x ∈ E, on a
[t u(y 0)](x) = (y 0 ◦ u)(x) = y 0 (u(x)).
Autrement dit, t u(y 0) est défini par la formule
<t u(y 0), x >=< y 0 , tu(x) >, x ∈ E, y0 ∈ F ∗
Théorème 4.3.1 Soient E et F des espaces vectoriels sur K et, u et v deux éléments de L(E, F ), et λ est
un scalaire de K. alors
1. t u : F ∗ → E ∗ est linéaire.
2. t (u + v) =t u +t v et t (λu) = λ.t u
Démonstration. A faire en exercice.
Théorème 4.3.2 Soient E, F et G trois espaces vectoriels sur K et, u ∈ L(E, F ) et v ∈ L(F, G).
t
(v ◦ u) =t u ◦t v
Démonstration. Soit z 0 ∈ G∗ et x ∈ E, alors
<t (v ◦ u)(z 0 ), x > = < z 0 , v ◦ u(x) >
= < z 0 , v(u(x)) >
= <t v(z 0 ), u(x) >
= <t u ◦t v(z 0 ), x >, ∀x ∈ E
alors t (v ◦ u)(z 0 ) =t u ◦t v(z 0 ) pour tout z 0 ∈ G∗ , ce qui prouve t (v ◦ u) =t u ◦t v.
Théorème 4.3.3 Soient E et F deux espaces vectoriels sur K
1. Si u ∈ L(E, F ) est bijective, alors t u est bijective, et et v ∈ L(F, G).
(t u)−1 =t (u−1 )
2. Si E et F sont de dimension finie, et si u ∈ L(E, F ), alors on a t (t u) = u.
3. Si E et F sont de dimension finie, et si u ∈ L(E, F ), on a
Ker(t u) = (u(E))⊥ , Ker(u) = (t u(F ∗))⊥
Corollaire 4.3.1 Le rang de u est égal au rang t u.
Démonstration. Soient ρ le rang de u et ρ0 celui de t u. On a
ρ0 = dim(F ∗ ) − dim(N 0 )
= dim(F ) − dim(N 0 )
= dim(F ) − dim((u(E))⊥ )
= dim(u(E))
= ρ
44 CHAPITRE 4. FORMES QUADRATIQUES ET ESPACES EUCLIDIEN
Définition 4.4.1 1. Une forme bilinéaire symétrique ϕ sur E est dite positive si
∀x ∈ E, ϕ(x, x) ≥ 0.
∀x ∈ E, q(x) = ϕ(x, x) ≥ 0
3. Une forme bilinéaire symétrique définie positive sur E est appelée un produit scalaire.
4. Un espace vectoriel réel muni d’un produit scalaire est appelé un espace euclidien.
Exemple 4.4.1 Dans le cas où E = Rn , Rn muni du produit scalaire canonique défini par :
(x, y) 7−→ y T x = x1 y1 + x2 y2 + . . . + xn yn
(où x = (x1 , . . . , xn ) et y = (y1 , . . . , yn )) est un espace euclidien. En effet, il s’agit d’une forme bilinéaire
symétrique, et xT x = x21 + . . . + x2n est strictement positif pour tout x = (x1 , . . . , xn ) non nul.
Un produit scalaire est non dégénéré, puisque défini positif. Par ailleurs, comme sa restriction à tout sous-
espace est non dégénérée (puisque définie positive), on voit d’après les théorèmes précédents, que pour tout
sous-espace F de E, on a F ⊕ F ⊥ = E.
Définition 4.4.2 Soit E un espace euclidien (dont le produit scalaire est noté (x, y) 7→ xT y). Une base
(e1 , . . . , en ) de E est dite orthogonale, si ei .ej = 0, pour i 6= j.
♣ Elle est dite orthonormée, si de plus ei .ei = 1 pour tout i.
(x.y)2 ≤ (x.x)(y.y)
Démonstration. Soit λ un réel. (x + λy).(x + λy) est positif ou nul, puisque c’est un carré scalaire. Cette
expression est en fait le trinôme du second degré en λ :
Comme elle reste positive pour tout λ, son discriminant doit être négatif ou nul, ce qui donne l’inégalité
cherchée.
∆ = 4(x.y)2 − 4(x.x)(y.y) ≤ 0 ⇒ (x.y)2 ≤ (x.x)(y.y)
Théorème 4.4.2 Tout espace euclidien E de dimension finie possède une base orthonormée.
4.5. EXERCICES 45
Démonstration. Procédons par récurrence sur la dimension n de E. Si E est de dimension 0, c’est clair (il
y a une seule base, qui est vide, donc orthonormée). Si E est de dimension 1, la seule condition à satisfaire
x
est e1 .e1 = 1. Il suffit de prendre un vecteur x non nul. On a alors x.x > 0, et on pose e1 = √ .
x.x
Dans le cas général, soit F un hyperplan de E (c’est-à-dire un sous-espace de dimension n − 1, pour E de
dimension n). Par hypothèse de récurrence, on peut supposer que (e, . . . , en−1 ) est une base orthonormée
de F . Soit alors x un vecteur n’appartenant pas à F , et posons :
Il est immédiat que y est orthogonal à F , car tous les produits scalaires y.ei sont nuls. Par ailleurs, y n’est
pas nul, car s’il l’était, il serait dans F , et donc x y serait aussi. On peut donc poser :
y
en = √ ,
y.y
4.5 Exercices
Exercice 4.5.1 On désigne par E1 , E2 , F et G des espaces vectoriels sur un même corps commutatif K,
par u et v des endomorphismes de E, par w une application linéaire de F dans G et par f une application
bilinéaire de E1 × E2 dans F .
1. Montrer que l’application g de E1 × E2 dans F définie par
est bilinéaire.
2. Montrer que l’application composée w ◦ f est bilinéaire.
3. Soit E1 = E2 = E = K[X] l’espace vectoriel des polynômes à coefficients dans K. Montrer que les
applications ϕ et ψ de E1 × E2 dans E définies par
Exercice 4.5.2 Soient E et F deux espaces vectoriels sur un même corps commutatif K et {u1 , . . . , um} et
{v1 , . . . , vn } sont des bases de E et F respectivement. Soit G un espace vectoriel sur K de dimension mn et
les mn vecteurs d’une base de G notés eij sont indexés par les couples d’entiers (i, j) tels que 1 ≤ i ≤ m
et 1 ≤ j ≤ n. On définit l’application ϕ de l’ensemble produit E × F dans G par
m X
X n X
m X
n
ϕ(x, y) = ξi ηj eij si x = ξi ui et y = ηj vj
i=1 j=1 i=1 j=1
46 CHAPITRE 4. FORMES QUADRATIQUES ET ESPACES EUCLIDIEN
1. Montrer que, si H un espace vectoriel sur le corps K et f une application bilinéaire de E × F dans
H, alors il existe une application linéaire et une seule g de G dans H telle que
f = g ◦ ϕ.
(ii) le nombre p des formes fi est le même pour toutes les décompositions de Ω du type précédent (p est
le rang de Ω).
Établir que pour deux décompositions de ce type, le nombre des coefficients εi égaux à 1 est le même (et
donc aussi le nombre des coefficients εi égaux à (-1)).
2. Indiquer une base de R4 telle que la matrice de f dans cette base soit diagonale.
1. Déterminer le rang de la forme f et chercher si cette forme est positive (On pourra pour cela écrire
f comme combinaison linéaire des carrés de formes linéaires indépendantes).
2. Déterminer la matrice a de la forme quadratique f .
3. Déterminer une base orthonormale de R3 telle que la matrice de la forme f dans cette base soit
diagonale ; on donnera la matrice de passage P et son inverse P −1.
4. Utiliser les résultats du 3. pour retrouver les résultats du 1..
Exercice 4.5.6 On déssigne par f une forme quadratique Rn et par A = (aij ) sa matrice dans la base
canonique ; on écrira :
f (X) = X T AX = (AX, X)
où X = (ξ1 , . . . , ξn ) est le vecteur X relativament à la base canonique de Rn .
On suppose que la forme f est positive non dégénérée.
1. Montrer qu’il existe des formes linéaires `i telles que :
X
`i (X) = aij ξi , (i = 1, 2, . . . , n)
j≥i
n
X
f (X) = [`i (X)]2
i=1
aij ≥ 0 (i = 1, 2, . . . , n)
2. Montrer qu’il existe une matrice triangulaire supérieure et une seule T = (θij ) satisfaisant aux
conditions : ”les termes θii de la diagonale sont positifs A = T T T ”
3. Peut-on énoncer un résultat analogue à celui du 2) si la A est la matrice d’une forme quadratique
hermitienne sur Cn positive et non dégénérée ?
Exercice 4.5.7 1. On désigne par S une matrice carrée symétrique à termes réels d’ordre n et par L
une matrice colonne à n termes réels ; on suppose que la matrice S est inversible.
On définit une application f de Rn dans R en posant pour toute matrice colonne X ayant n termes
réels :
f (X) = X T SX + 2LT X + δ.
(a) Montrer qu’il existe une matrice colonne unique U telle que le changement de variable : X =
U + Y transforme f (X) en la somme d’une forme quadratique en Y et d’une constante.
(b) En déduire qu’il existe une matrice orthogonale P telle que si :
X = U + PZ
Exercice 4.5.8 On considère l’espace vectoriel E sur C des matrices colonnes X à termes complexes et on
pose
kXk2 = X̄ T X.
On désigne par A une matrice carrée d’ordre n à termes complexes hermitienne, c’est-à-dire telle que
AT = Ā
(on note X̄ et Ā les matrices obtenues en remplaçant chaque terme de X ou de A par le nombre conjugué).
2. (a) Montrer que dans l’espace vectoriel sur R des fonctions continues de [0, 2π] dans R, on peut
définir un produit scalaire en posant :
Z 2π
(f, g) = f (t)g(t)dt.
0
Quelle est la norme associée à ce produit scalaire ? nous désignerons par E l’espace euclidien
(de dimension infinie) ainsi obtenu.
(b) Montrer que dans E, les fonctions 1, cos(kt) et sin(ht) (k et h étant des entiers naturels arbi-
traires) sont deux à deux orthogonales.
(c) On prend pour F l’espace vectoriel des polynômes trigonométriques d’ordre n (c’est-à-dire
combinaisons linéaires de 1, cos(kt) et sin(ht), avec k ≥ n et h ≥ n). Déterminer le polynôme
Q dont la distance à une fonction f donnée est minimum.
Exercice 4.5.10 1. Soit E l’espace vectoriel réel dont les éléments sont les fonctions réelles définies
sur R et indéfiniment dérivables.
R1
(a) Montrer que les applications f 7→ f (0), f 7→ f 00 (1) et f 7→ 0 f (t)dt de E dans R sont des
formes linéaires sur E.
(b) Montrer que les applications f 7→ f (0) + 1 et f 7→ (f 0 (2))2 ne sont pas des formes linéaires.
2. Montrer que les applications f : (x, y, z) 7→ x + 2y + 3z et g : (x, y, z) 7→ x − 2y + 3z sont des
formes linéaires sur R3 , et qu’elles sont linéairement indépendantes.
3. Montrer que l’application f : R3 ×R3 → R, ((x, y, z), (x0 , y 0, z 0 )) 7→ xx0 +yz 0 est une forme bilinéaire
dégénérée. Trouver les noyaux des deux homomorphismes associés canoniquement à f .
Exercice 4.5.11 1. Soient (e1 , e2 , e3 ) une base d’un espace vectoriel réel E, (e∗1 , e∗2 , e∗3 ) la base duale
de E ∗ . Montrer que (2e1 , 5e2 , −e3 ) est une base de E, et que la base duale est ( 12 e∗1 , 51 e∗2 , −e∗3 ).
2. Soiet E l’espace vectoriel des polynômes en x à coefficients
R 1 réels. Pour tout polynôme P , soit fP la
fonction sur E qui associe, à tout polynôme Q, le nombre 0 P (x)Q(x)dx.
(a) Montrer que fP est une forme linéaire sur E
(b) Trouver les polynômes P de degré 2 tels que fP soit orthogonal aux polynômes 1 et x.
3. On munit R3 de la forme bilinéaire canonique, c’est-à-dire le produit scalaire. Trouver les éléments
de R3 orthogonaux à u = (2, −1, −1) et à v = (1, 3, −4).
4. Soit E un espace vectoriel, u un automorphisme de E. Montrer que, pour tout n ∈ Z, on a t (un ) =
(t u)n .
Exercice 4.5.12 On considère l’application f : R2 × R2 → R, ((x, y), (x0 , y 0)) 7→ 2xx0 −4xy 0 +5x0 y +byy 0.
1. Montrer que f est une forme bilinéaire.
2. Déterminer b pour que f soit dégénérée.
3. Trouver les noyaux des deux homomorphismes associés canoniquement à f .
50 CHAPITRE 4. FORMES QUADRATIQUES ET ESPACES EUCLIDIEN
Chapitre 5
Définition 5.1.1 Le groupe des permutaions de En , noté Sn , est le groupe S(En ) des bijections de En dans
lui même muni de la composition des applications.
Un élément de Sn est appelépermutation.
Notations :
Définition 5.1.2 Soit n ≥ 2, une transposition est une permutation qui échange deux éléments de En entre
eux et laisse les autres fixes.
Théorème 5.1.1 Soit n ≥ 2, toute permutation peut-être décomposée en un produit de transposition. c’est-
à-dire Sn est engendré par la transposition.
3. Une permutation de signature 1 est appelée une permutation paire, et une permutation de signature
(−1) est appelée une permutation impaire.
1 2 3 4
Exemple 5.1.1 Soit σ = .
4 1 2 3
1 2 3 4 1 2 3 4 1 2 3 4
On a τ1,2 = , τ1,3 = et τ1,4 = alosr
2 1 3 4 3 2 1 4 4 2 3 1
σ = τ1,2 τ1,3 τ1,4
Donc
σ ◦ σ 0 = (τ1 τ2 . . . τp ) ◦ (τ10 τ20 . . . τs0 )
D’où
ε(σ ◦ σ 0 ) = (−1)p+s et ε(σ ◦ σ 0 ) = (−1)p (−1)s = ε(σ).ε(σ 0 ).
Remarque 5.1.3 Soit n ≥ 2 et soit ε : (Sn , ◦) → ({−1, 1}, ·), σ 7→ ε(σ) alors ε est un homomorphisme de
groupes surjectif car 1 = ε(id) et (−1) = ε(τ1,2 ).
ker(ε) est un sous-groupe distingué de Sn , noté An , appelé le sous-groupe des permutations paires (car
σ ∈ ker(ε) = An ⇔ ε(σ) = 1 ⇔ σest une permutation paire)
detB (B0 ) 6= 0,
Définition 5.2.1 On dit B et B0 sont de mêmes sens si detB (B0 ) > 0, et de sens contraires si detB (B0 ) < 0
Démonstration.
1. (a) Si B ∈ B, on a detB (B) = 1, donc la relation est réflexive.
(b) On a
detB0 (B).detB (B0 ) = 1,
alors detB0 (B) et detB (B0 ) sont de même signe, donc la relation est symétrique.
(c) si B, B0 , B00 ∈ B, on a
detB (B00 ) = detB0 (B00 ).detB (B0 )
donc la relation est transitive.
2. Soit B = (e1 , . . . , en ) une base de E. Posons B1 = (e1 , e2 , . . . , en−1 , −en ).
On a detB (B1 ) = −detB (B) = −1.
Par suite, si B0 est un élément quelconque de B, alors detB (B0 ) = −detB1 (B0 ) = ; donc B0 est de même
sens que B ou de même sens que B1 . Ceci pouve le résultat.
Théorème 5.2.2 Soit B = (e1 , e2 , . . . , en ) une base de E, et soit σ une permutation de En . Les bases
B0 = (eσ(1) , eσ(2) , . . . , eσ(n) ) sont de mêmes sens si σ est une permutation paire, de sens contraires si σ est
une permutation impaire.
Démonstration. On a
detB (B0 ) = ε(σ)detB (B) = ε(σ)
avec ε(σ) = 1 si σ est paire et ε(σ) = −1 si σ est impaire. D’où le résultat.
Définition 5.2.2 On dit que E est orienté si l’on a choisi l’une des deux classes d’équivalences dans B.
Les bases appartenant à cette classe sont alors dites de sens positif, les bases appartenant à l’autre classe
sont dites de sens négatif.
Dans l’espace ordinaire, les physiciens choisissent généralement les bases définies par l’observateur
d’Ampère.
Dans l’espace Rn , on choisit généralement les bases de même sens que la base canonique.
Démonstration. On a
detB (u(B)) = det(u)detB (B) = det(u)
D’où le résultat.
Définition 5.2.3 On dit que u conserve l’orientation dans le premier cas du théorème précédent, renverse
l’orientation dans le deuxième cas.
Les automorphismes de E conservant l’orientation forment un sous-groupe de GL(E). Le sous-groupe est
noté GL+ (E) lorsque l’orientation est positive et il est noté GL− (E) lorsque l’orientation est négative.
5.3. PRODUIT MIXTE DANS L’ESPACE ORDINAIRE ORIENTÉ 55
Exemple 5.2.1 1. Supposons que E est un espace vectoriel de dimension 1, alors E est une droite
vectorielle. Une base de E se compose d’un seul vecteur non nul, noté e. Soient B = {e} et B0 = {e0 }
deux bases de E, alors on a e0 = λe avec λ est un nombre réel non nul. alors on a
donc
(a) B = {e} et B0 = {e0 } sont de mêmes sens si λ > 0,
(b) B = {e} et B0 = {e0 } sont de sens contraire si λ < 0
Une classe d’équivalence dans B = {e} se compose de tous les vecteurs déduits de e par une homo-
thétie de rapport > 0, l’autre classe d’équivalence se compose de tous les vecteurs déduits de e par
une homothétie de rapport < 0. Le choix d’une de ces deux classes correspond bien à l’intuition
classique de l’orientation d’une droite.
2. Supposons que E est de dimension 2, alors E est un plan vectoriel. Soient B = {e1 , e2 } et B0 =
{e1 , e02 } deux bases de E dont le premier vecteur soit le même. Si (ξ, η) sont les coordonnées de e02
par rapport à B, on a
0 1 ξ
detB (B ) = det =η
0 η
Donc, pour que B et B0 soient de même sens, il faut et il suffit que η > 0, c’est-à-dire que e2 et e02
soient d’un même côté de la droite de vecteur directeur e1 .
Soit E un espace vectoriel ordinaire orienté. Soient B = (e1 , e2 , e3 ) une base orthonormale de E de sens
positif (il en existe si la base orthonormale (e1 , e2 , e3 ) est un sens négatif, il suffit de remplacer e1 par −e1 ).
detB (V, V 0 , V 00 )
Démonstration.Soit B0 = (e01 , e02 , e03 ) une autre base orthonormale de sens positif. Montrons que
D’où
detB (V, V 0 , V 00 ) = detB0 (V, V 0 , V 00 ).
56 CHAPITRE 5. ORIENTATION DES ESPACES VECTORIELS RÉELS
Remarque 5.3.1 Il faut prendre garde de cette notation, elle désigne parfois la suite des trois vecteurs V ,
V 0 et V 00 .
Définition 5.3.3 On appelle le produit vectoriel de V et V 0 , noté par V ∧ V 0 , le vecteur U tel que
(V, V 0 , W ) = U · W, ∀W ∈ E.
(V, V 0 , V 00 ) = (V ∧ V 0 ) · V 00
Théorème 5.3.1 Soit V et V 0 dans E. Pour que V et V 0 soient linéairement dépendants (ou colinéaires), il
faut et il suffit que V ∧ V 0 = 0.
Démonstration. Si v et V 0 sont linéairement dépendants, alors on a (V, V 0 , V 00 ) = 0 quel que soit V 00 dans
E,
donc (V ∧ V 0 ) · V 00 = 0 quel que soit V 00 dans E,
d’où V ∧ V 0 = 0.
Si V et V 0 sont linéairement indépendants, alors il existe V 00 tel que V , V 0 et V 00 soient linéairement indé-
pendants, donc tel que (V, V 0 , V 00 ) 6= 0, d’où V ∧ V 0 6= 0.
5.3. PRODUIT MIXTE DANS L’ESPACE ORDINAIRE ORIENTÉ 57
1. En effet,
0 = (V + V 0 ) ∧ (V + V 0 )
= (V ∧ V ) + (V ∧ V 0 ) + (V 0 ∧ V ) + (V 0 ∧ V 0 )
= (V ∧ V 0 ) + (V 0 ∧ V )
d’où V ∧ V 0 = −V 0 ∧ V .
3. On a (V, V 0 , V ) = 0 et (V, V 0 , V 0 ) = 0 alors
0 = (V, V 0 , V ) = (V ∧ V 0 ) · V et 0 = (V, V 0 , V 0 ) = (V ∧ V 0 ) · V 0
d’où le résultat.
58 CHAPITRE 5. ORIENTATION DES ESPACES VECTORIELS RÉELS
Proposition 5.3.2 Soient E un espace vectoriel ordinaire orienté et B = (e1 , e2 , e3 ) une base orthonormée
directe de E. Alors le produit vectoriel est l’unique application bilinéaire alternée de E × E dans E, notée
ΛB , défine par
ΛB (e1 , e2 ) = e3 , ΛB (e2 , e3 ) = e1 et ΛB (e3 , e1 ) = e2
α = ηζ 0 − ζη 0, η = ζξ 0 − ξζ 0 et ζ = ξη 0 − ηξ 0 .
En particulier, on a
e1 ∧ e2 = e3 , e2 ∧ e3 = e1 et e3 ∧ e1 = e2 .
Démonstration. Soit (e1 , e2 , e3 ) une base orthonormale d’un espace vectoriel ordinaire de sens positif. Soit
(ξ, η, ζ) les coordonnées de V , (ξ 0 , η 0 , ζ 0) celles de V 0 et (α, β, γ) les coordonnées de V ∧ V 0 . Quel que soit
le vecteur V 00 de coordonnées (ξ 00, η 00 , ζ 00), on a
αξ 00 + βη 00 + γζ 00 = (V ∧ V 0 ) · V 00
= (V, V 0 , V 00 )
ξ ξ 0 ξ 00
= det η η 0 η 00
ζ ζ 0 ζ 00
= (ηζ 0 − ζη 0 )ξ 00 + (ζξ 0 − ξζ 0)η 00 + (ξη 0 − ηξ 0 )ζ 00
α = ηζ 0 − ζη 0, η = ζξ 0 − ξζ 0 et ζ = ξη 0 − ηξ 0 .
Théorème 5.3.3 Soit (e1 , e2 , e3 ) une base orthonormale d’un espace vectoriel ordinaire de sens positif, et
V et V 0 deux vecteurs non nuls de E. On suppose que l’angle (V,[ V 0 ) = θ ∈ [0, π]. Alors
kV ∧ V 0 k = kV k.kV 0 k sin(θ)
Démonstration. Soit (e1 , e2 , e3 ) une base orthonormale d’un espace vectoriel ordinaire de sens positif, et
V et V 0 deux vecteurs non nuls de E. On suppose que l’angle (V,[ V 0 ) = θ ∈ [0, π]
T~ V~ 0
θ
V~
O ~
S
V ∧ V 0 = V ∧ (S + T )
= V ∧S+V ∧T
= V ∧ T car V et S sont colinéaires
kV ∧ T k = kV k.kT k
5.4 Exercices
Exercice 5.4.1 Soient B = (e1 , e2 , . . . , en ) et B0 = (e01 , e02 , . . . , e0n ) deux bases d’un espace vectoriel E.
Montrer que detB (B0 ) et detB0 (B) sont inverses l’un de l’autre.
cy,
3. Calculer la norme de chacun des vecteurs x, y, z, x ∧ y, y ∧ z et z ∧ x, puis en déduire les angles x
y z et zc
c x.
Exercice 5.4.3 Soit E l’espace vectoriel des vecteurs libres de l’espace ordinaire, supposé orienté. Soient
~ , V~ , R,
U ~ S~ et Y~ des vecteurs de E.
1. Montrer que W ~ = (U~ ∧ V~ ) ∧ R
~ = (U
~ · R)
~ V~ − (V~ · R)
~ U.
~
~ ∧ V~ ) ∧ (R
2. En déduire (U ~ ∧ S).
~
Exercice 5.4.4 Soient E1 et E2 deux espaces vectoriels ordinaires orientés et B = (e1 , e2 , e3 ) une base de
E1 . Soit (v1 , v2 , v3 ) un système de trois vecteurs de E2 . A tous vecteurs X = x1 e1 + x2 e2 + x3 e3 ∈ E1 et
Y = y1 e1 + y2 e2 + y3 e3 ∈ E1 on associe le vecteur
3. En déduire que toutes les applications bilinéaires alternées de P × P dans R sont proportionnelles.
Exercice 5.4.6 Soient X et Y deux vecteurs d’un espace vectoriel E. Démontrer que :
(X · Y )2 + kX ∧ Y k2 = kXk2 + kY k2 .
Exercice 5.4.7 Soient E un espace vectoriel orienté. On désigne par X ∧ Y le produit vectoriel de deux
vecteurs X et Y de E.
On note X ∧0 Y le produit vectoriel de X et Y dans l’espace E lorsqu’on le munit de l’orientation opposée
à la précédente.
Démontrer que (∀X ∈ E) (∀Y ∈ E) on a X ∧0 Y = −X ∧ Y
Exercice 5.4.8 Soient P un plan vectoriel et f : P × P → R, une application bilinéaire alternée. Montrer
que l’image de f est une droite vectorielle de P .
Exercice 5.4.9 Soient A et B deux vecteurs non nuls d’un espace vectoriel E.
1. Donner une condition nécessaire sur A et B pour qu’il existe X ∈ E tel que X ∧ A = B.
62 CHAPITRE 5. ORIENTATION DES ESPACES VECTORIELS RÉELS
X ∧ A = B.
Exercice 5.4.10 Soit E un espace vectoriel ordinaire. On donne un repère orthonormé (O, i, j, k). Soient
A et B deux points de E de coordonnées respectives (−2, 1, 0) et (2, −1, 1).
−−→ −−→
1. (a) Soit le point M de coordonnées (x, y, z). Déterminer les coordonnées du vecteur (OA ∧ OB) ∧
−−→
OM en fonction de x, y et z.
(b) Déterminer less équations de l’ensemble des points M vérifiant
−−→ −−→ −−→
(OA ∧ OB) ∧ OM = k
2. Soit C et D deux points de E de coordonnées respectives (1, 3, 0) et (−1, −10, −1). On affecte le
point A de coefficient 2, le point B du coefficients 1, le point C du coefficient 3 et le point D du
coefficient 1.
(a) Déterminer le barycentre des quatre points A, B, C et D affectés de leurs coefficients respectifs.
(b) Soit I le milieu du segment [BD] et J le point vérifiant
−→ −→
2JA + 3JC = 0E
(U ∧ W ) ∧ W = (U · W ).W − kW k2 .U (0.2)
On pourra pour cela supposer qu’une base orthonormée directe (i, j, k) de E est choisie de façon
que, dans cette base, U ait pour coordonnées (a, 0, 0) et W (b, c, 0).
2. On suppose que V et W sont deux vecteurs donnés et orthogonaux de E, avec W 6= 0E .
(a) Démontrer en utilisant la relation Eq.(0.2) qu’il existe un seul vecteur U0 orthogonal à W tel
que
U0 ∧ W = V.
(b) En déduire que l’ensemble des vecteurs U tels que U ∧ W = V , est défini par
U = U0 + λW,
Torseurs
Définition 6.1.1 Soit e un espace vectoriel et E un ensemble non vide. On dit qu’on a défini sur E une
structure d’espace affine attaché à E si on a déterminé une application de E × E dans E, notée en général
b
(u, P ) 7−→ P +u, pour u ∈ E et P ∈ E,
b + v) = (P +
P +(u b u)+v
b b E = P,
et P +0
b
(A2 ) : (∀(P, Q) ∈ E 2 ) (∃u ∈ E) tel que Q = P +u,
(A3 ) : le vecteur nul est le seul vecteur u vérifiant :
b u.
(∀P ∈ E)P = P +
Un ensemble E muni d’une structure d’espace affine attaché à E est appelé espace affine (sur E). Très
souvent, on fera un abus de notation en désignant cet espace affine par la même lettre E. Les éléments de E
sont appelés points. L’espace vectoriel E est appelé un espace directeur de l’espace affine E. On le notera
→
−
parfois E .
Si E est un espace vectoriel de dimension n, on dit que E est un espace affine de dimension n (on note :
n = dim(E)). On appelle droite (resp. plan) affine tout espace affine de dimension 1 (resp. 2).
63
64 CHAPITRE 6. LES TORSEURS SUR UN ESPACE PHYSIQUE
b = x + u,
x+u si (u, x) ∈ E × E.
Théorème 6.1.1 Soit E un espace affine sur l’espace vectoriel E, A un point de E et u un vecteur de E tel
que :
b = A.
A+u
Corollaire 6.1.1 Soit E un espace affine sur un espace vectoriel E et (P, Q) un élément de E 2 . Il existe un
vecteur unique u de E tel que
Q = P+ b u.
Théorème 6.1.2 Soit E un espace affine d’espace directeur E. Pour tout O ∈ E, l’application
φO : E → E, v 7−→ O + v
La notion de repère cartésien permet de ramener la résolution d’un problème sur les espaces affines
(sous-espaces affines d’un espace affine) de dimension deux ou trois à la résolution d’un problème algé-
brique. Nous considérons, d’abord, un espace affine E de dimension 3.
Définition 6.1.2 On appelle repère cartésien de l’espace affine E tout quadruplet (O; i, j, k), où O est un
point de E et (i, j, k) est une base de E.
Les vecteurs i, j, k s’appellent vecteurs de base du repère et le point O est appelé Origine du repère.
Théorème 6.1.3 Soit (O; i, j, k) un repère cartésien de E. L’application f : R3 → E qui à tout triplet
(x, y, z) de réels associe le point
b
M = O+(x.i + y.j + z.k)
est une bijection.
−−→
b
M = O+(x.i + y.j + z.k) ⇔ OM = x.i + y.j + z.k
3. Expression analytique dans une base orthonormée directe : Soit L la matrice associée à L dans
une base orthonormée directe, notée (i, j, k).
α11 α12 α13
L = α21 α22 α23
α31 α32 α33
66 CHAPITRE 6. LES TORSEURS SUR UN ESPACE PHYSIQUE
L’application L est antisymétrique alors (i, L(i)) = −(i, L(i)) ce qui implique que (i, L(i)) = 0 =
α11 .
De la même façon, on a α22 = (j, L(j)) = 0 et α33 = (k, L(k)) = 0 ceci d’une part,
et d’autre part
(i, L(j)) = −(j, L(i)) ⇔ α12 = −α21
(i, L(k)) = −(k, L(i)) ⇔ α13 = −α31
(j, L(k)) = −(k, L(j)) ⇔ α23 = −α32
D’où on a
0 α12 α13
L = −α12 0 α23
−α13 −α23 0
x1
Soit x = x2 un vecteur, on a
x3
0 −α21 −α31 x1
L(x) = α21 0 −α32 x2
α31 α32 0 x3
c’est-à-dire que
−α21 x2 − α31 x3 α32 x1
L(x) = α21 x1 − α32 x3 ⇔ L(x) = −α31 ∧ x2
α31 x1 + α32 x2 α21 x3
α32
−
→ →
−
Posons R = −α31 , alors L(x) = R ∧ x.
α21
→
−
Le vecteur R est le vecteur de l’application antisymétrique L.
6.4 Torseurs
−
→
1. Définition 6.4.1 On appelle torseur [T ] l’ensemble du champ de vecteurs antisymétrique M et de
→
−
son vecteur R.
−→ →
−
– M est appelé le moment de [T ] et R est son vecteur où bien sa résultante.
−
→ →
−
– La connaissance de M en 0 et la résultante R détermine le champ en tout point P ∈ E :
−→ −
→ → −→
−
M(P ) = M(O) + R ∧ OP .
( −
→
R
Notation : [T ]P −→
M(P )
→ −
− →
R et M(P ) sont les éléments de réduction de [T ] (où bien ses coordonnées).
( −→ ( −
→
R1 R2
2. Propriétés des torseurs : Soient [T1 ]P −
→ et [T ]
2 P −→
M1 (P ) M2 (P )
(a) L’égalité de deux torseurs :
( −→ →
−
R1 = R2
[T1 ]P = [T2 ]P ⇔ −→ −
→
M1 (P ) = M2 (P )
(b) La somme de deux torseurs :
( →− →
− →
−
R = R1 + R2
[T ]P = [T1 ]P + [T2 ]P ⇔ −→ −
→ −→
M(P ) = M1 (P ) + M2 (P )
( −
→
R
(c) Multiplication par un scalaire : Soient λ ∈ R et [T ]P −
→ un torseur. Alors
M(P )
( − →
λR
λ[T ]P = (λT )P −→
λM2 (P )
Les deux lois de composition confèrent à l’ensemble des torseurs de notion d’espace vectoriel.
C’est-à-dire que l’ensemble des torseurs muni des lois 00 +00 et 00 ×00 est un espace vectoriel.
( −→ ~
R=0
(d) Torseur nul : [T ]P = 0 ⇔ −→
M(P ) = ~0
( − →
R
3. Invariant scalaire d’un torseur : Soit [T ]O = − → un torseur.
M(O)
L’invariant scalaire, noté I, est défini par la quantité scalaire
→ −
− →
I = R · M(O).
I est indépendant de O : En effet, soit O 6= O 0 on a
0 → −
− → 0 → −
− → → −−→0 −
− → −
→ → −
− → −−→0
I = R · M(O ) = R · M(O) + R ∧ OO = R · M(O) + R · R ∧ OO
→ −
− → −−→ → −
− → −−→
Or R⊥ R ∧ OO 0 , alors R · R ∧ OO 0 = 0
Donc
→ −
− →
I 0 = R · M(O) = I.
68 CHAPITRE 6. LES TORSEURS SUR UN ESPACE PHYSIQUE
−
→
4. Invariant vectoriel d’un torseur : L’invariant vectoriel IV est défini comme suit
→ −
− →
→ R · M(O) −
− → I − →
IV = − 2 .R = →
→ − 2 .R
k Rk k Rk
−
→ −
→ →
−
IV est indépendant de O. C’est la projection orthogonale de M(O) sur R.
5. Produit de deux( torseurs où bien moment(:
→
− →
−
R1 R2
Soient [T1 ]O = − → et [T2 ]O = − → deux torseurs.
M1 (O) M2 (O)
Le moment de [T1 ] et [T2 ] est la quantité scalaire suivante :
→ −
− → → −
− →
P = R 1 · M1 (O) + R 2 · M2 (O).
− −
→ → −−→0 → −
− → −−→0
or R 1 · R 2 ∧ OO = − R 2 · R 1 ∧ OO , alors
→ −
− → → −
− →
P 0 = R 1 · M2 (O) + R 2 · M1 (O) = P
or, a ∧ a = ~0 alors
1
α(a ∧ b) ∧ a = b ⇔ α[(a · a)b − (a · b)a] = b ⇔ α=
kak2
Finalement :
1
x = λa + a∧b
kak2
−−→ −−→ −−→ 1
x = ON = ON0 + N0 N = λa + .a ∧ b
kak2
avec
−−→ 1 −−→
ON0 = a ∧ b et N0 N = λ a
kak2
6.6. EXEMPLES DE TORSEURS 69
alors, an a
−−→ kbk
kONk = puisque a⊥b
kak
−−→
Donc les solutions de l’équation (♦) sont les vecteurs x = ON où le point N décrit la droite (4)
dont le vecteur directeur a.
−−→
ON0 est la solution particulière lorsque λ = 0.
( −→
R
2. Axe central d’un torseur : Soit [T ]P = − → un torseur.
M(P )
−
→ →
−
L’axe central (4) de [T ] est l’ensemble des points P tel que M(P ) est colinéaire à R :
−
→ →
−
(4) := {P ∈ E : M(P ) = α R α ∈ R}
On sait que
−
→ −
→ → −→
− →
−
M(P ) = M(O) + R ∧ OP = α R
alors
−→ − → − → →
−
OP ∧ R = M(O) − α R.
D’après la division vectorielle, on a
−→ →
− 1 →− −
→ →
− →
− 1 →− − →
− 2 R ∧ [M(O) − α R] = λ R + →
OP = λ R + → − 2 R ∧ M(O).
k Rk k Rk
→
−
Dnc l’axe central est une droite de vecteur directeur R et qui passe par le point P0 tel que
−−→ 1 →− − →
− 2 R ∧ M(O).
OP0 = →
k Rk
−
→ −
→
∀(P, Q) : M(P ) = M(Q).
−
→
Le champ de vecteurs antisymétrique M est uniforme.
Notation : [T ] = [C].
2. Le Glisseur :
(a) Définition 6.6.1 Soit (A, f~) un vecteur lié (un vecteur dont on a précisé l’origine). Le vecteur
(A, f~) ”glisse” le long de l’axe (δ), appelé le support de f~. (A, f~) est un vecteur glissant.
Soit P un point quelcnque, on a
−
→ −→ −→
M(P ) = P A ∧ f~ = f~ ∧ AP .
70 CHAPITRE 6. LES TORSEURS SUR UN ESPACE PHYSIQUE
−
→ −
→ −→ −→ −→
Or M est antisymétrique : M(P ) = M(A) + f~ ∧ AP avec M(A) = ~0.
−
→
Dans ce cas, on dit que M définit un torseur appelé glisseur et qu’on va noter [G] :
(
f~ −
→
[G]P = − → avec M(A) = ~0 (car A ∈ δ).
M(P )
−
→
Conséquence : Pour yout A0 ∈ δ avec A0 6= A, on a M(A0 ) = ~0.
En effet,
−→ −→ −−→
M(A0 ) = M(A) + f~ ∧ AA0
−
→ −−→ −−→
or M(A) = ~0 et f~ ∧ AA0 = ~0 puisque f~ et AA0 sont colinéaires.
Un glisseur est caractérisé par le fait que tous les points de δ ont un moment nul.
(b) Axe central d’un glisseur :
−
→ −→
4 = {P ∈ E / M(P ) = αf~ = f~ ∧ OP }
−→ 1 ~
= {P ∈ E / OP = λf~ + f ∧ (−αf~)}
~
kf k2
d’où
−→
4 = {P ∈ E / OP = λf~} = δ.
c’est-à-dire que l’axe central (∆) d’un glisseur est le support (δ) du vecteur f~.
(c) Propriété caractéristique d’un glisseur :
→ ~ −
− →
– Pour qu’un torseur soit un glisseur, il faut que sa résultante R =
6 0, M(O) = 0 et l’invariant
scalaire I = 0.
→
−
– Si un torseur de résultante R a un moment nul en un point A, alors ce torseur est un glisseur
→
−
associé au vecteur lié au glissant (A, R).
On propose de montrer qu’un torseur soit un couple, soit un glisseur et ou soit la somme d’un couple et
d’un glisseur.
→ −
− →
1. L’invariant scalaire est nul : I = R · M(O) = 0 dans les cas suivants
→
− −
→
1er cas : R = ~0 et M(O) = ~0, il s’agit donc d’un torseur nul.
→
− −
→
2eme cas : R = ~0 et M(O) 6= ~0, alors le torseur est un couple.
→ ~ −
− → →
−
3eme cas : R = 6 0 et M(O) = ~0, alors le torseur est un glisseur associé au vecteur glissant (O, R).
→ ~ −
− → → −
− →
4eme cas : R = 6 0 et M(O) 6= ~0, alors R et M(O) sont orthogonaux. Donc on peut trouver un point A tel
que
−→ − → − →
OA ∧ R = M(O)
−
→
D’où le torseur [T ] est un glisseur puisque M(A) = ~0
6.7. DÉCOMPOSITION D’UN TORSEUR 71
→ −
− →
2. L’invariant scalaire est non nul : I = R · M(O) 6= 0, alors le torseur [T ] peut être décomposé en
la somme d’un couple (
~0
[C]O = − →
M(O)
et d’un glisseur ( →−
R
[G]O =
~0
−
→ →
−
Lorsque M(O) est colinéaire à R, alors la décomposition est dite centrale.
3. Tableau récapitulatif :
TABLE 6.1 – La décomposition d’un torseur selon les cas existants dans la pratique.
Eléments de réduction Torseur associé
→ ~ −
− →
R = 0 = M(O) ⇒ I = 0 Torseur nul
→ ~ −
− → ~
R = 0, M(O) 6= 0 ⇒ I = 0 Le torseur est un couple
→ ~ −
− →
R= 6 0, M(O) = ~0 ⇒ I = 0 Le torseur est un glisseur
I=6 0 Le torseur est la somme d’un glisseur et d’un couple.
72 CHAPITRE 6. LES TORSEURS SUR UN ESPACE PHYSIQUE
Bibliographie
[1] J.M. Arnaudiès et H. Fraysse. Cours de mathématiques-1 :Algèbre, 1er cycle universitaire, Dunod,
Paris, 1996.
[2] Arnaudiès J. M., Boursin J. L. et G. Goeringer, Mathématiques, terminale D, Paris, 1976.
[3] Arnaudiès J. M. et H. Fraysse, Algèbre, cours de mathématiques-1. Dunod, Paris, 1987.
[4] Deschamps C. et A. Warusfel, Algèbre, Mathématiques 1re année : Cours et exercices corrigés, MPSI,
PCSI, PTSI. Dunod, Paris, 1999.
73