S3 Cours
S3 Cours
S3 Cours
LICENCE ÉCONOMIE–GESTION
UFR Droit, Sciences Économique
L2/S3
et politique
MATHÉMATIQUES DE
L’ÉCONOMIE
Bibliographie
I La session de rattrapage
Il s’agit d’une épreuve écrite de 2h qui se déroule dans les mêmes conditions que celles de l’examen de
première session.
PLANNING PREVISIONNEL
Semaine Cours TD
6 sept – 10 sept C1 –
13 sept – 17 sept C2 –
~x + ~y := (x1 + y1 , x2 + y2 , . . . , xn + yn )
λ × ~x := (λx1 , λx2 , . . . , λxn ).
Le vecteur nul de Rn est ~0 = (0, 0, . . . , 0). On montre facilement que ces opérations vérifient les propriétés
suivantes :
~ = (−x)
~x + (−x) ~ + ~x = ~0
(EV5): (λ + µ) × ~x = λ × ~x + µ × ~x ∀λ, µ ∈ R, ∀x ∈ Rn
Pour simplifier les notations, on ne marque pas le signe × pour indiquer l’action de l’opération multiplication
et sauf s’il y a risque de confusion, on supprime la flèche sur les vecteurs.
Définition
Les axiomes (EV1)-(EV8) définissent sur Rn une structure d’espace vectoriel. On dit que Rn est un espace
vectoriel sur R.
1
Définition (sous-espace vectoriel )
Exemple.
On vérifie facilement que le sous-ensemble
F = {(x1 , x2 , x3 ) ∈ R3 ; x1 + 2x2 − x3 = 0}
est un sous-espace vectoriel de R3 . Géométriquement, F définit un plan passant par l’origine (0, 0, 0). Remar-
quons que l’ensemble
G = {(x1 , x2 , x3 ) ∈ R3 ; x1 + 2x2 − x3 = 1}
est encore un plan, mais il ne passe pas par l’origine, de sorte que ce n’est pas un sous-espace vectoriel de R3 .
L’ensemble G se déduit de F par translation, on dit qu’il s’agit d’un sous-espace affine (c’est un plan affine).
Exemple.
On vérifie facilement que le sous-ensemble
est un sous-espace vectoriel de R3 . Géométriquement, H est le plan dirigé par les vecteurs (1, 1, 1) et (0, 1, −1).
Soit S = {~v1 , ~v2 , . . . , ~vk } une famille de k vecteurs de Rn . On appelle combinaison linéaire des vecteurs de
S toute expression du type
X k
λi~vi
i=1
Soit A une partie de Rn . On appelle sous-espace vectoriel engendré par A le sous espace vectoriel
(m )
X
∗
Vect (A) := λi~vi ; λi ∈ R, ~vi ∈ A, m ∈ N
i=1
Exemple. L’espace vectoriel H défini dans la section précédente n’est autre que le sous-espace vectoriel
engendré par A = {(1, 1, 1), (0, 1, −1)}
On dit qu’une famille S = {~v1 , ~v2 , . . . , ~vk } de k vecteurs de Rn est liée (ou encore que les vecteurs de S sont
linéairement dépendants) s’il existe des scalaires λ1 , λ2 , . . . , λk non tous nuls tels que
k
X
λi~vi = ~0.
i=1
2
De façon équivalente, la famille S = {~v1 , ~v2 , . . . , ~vk } est liée si et seulement si l’un des vecteurs ~vi est combinaison
linéaire des autres.
Exemple. Supposons que la famille S contienne deux vecteurs ~v1 et ~v2 . Alors
On dit qu’une famille S = {~v1 , ~v2 , . . . , ~vk } de k vecteurs de Rn est libre (ou encore que les vecteurs de S
sont linéairement indépendants) si elle n’est pas liée.
Il résulte de la définition que la famille S = {~v1 , ~v2 , . . . , ~vk } est libre si et seulement si
k
X
λi~vi = ~0 =⇒ λi = 0 pour tout i = 1, 2, . . . , k.
i=1
Exemple. Considérons les vecteurs ~v1 = (1, 1, 1), ~v2 = (0, 1, −1), ~v3 = (2, 1, 0) et ~v4 = (1, −1, 3).
. La famille S1 = {~v1 , ~v2 } est libre dans R3 car ~v1 et ~v2 ne sont pas colinéaires.
. La famille S2 = {~v1 , ~v2 , ~v3 } est également libre. On le vérifie facilement en utilisant la caractérisation
ci-dessus.
. La famille S3 = {~v1 , ~v2 , ~v4 } n’est pas libre. Les vecteurs ~v1 , ~v2 et ~v4 sont en effet liés par la relation
~v4 = ~v1 − 2~v2 .
On appelle rang d’une famille S = {~v1 , ~v2 , . . . , ~vk } de k vecteurs de Rn le nombre r maximal de vecteurs
indépendants que l’on peut extraire de cette famille. On note r = rg (S).
Il découle immédiatement de la définition que rg (S) ≤ card(S), où card(S) désigne le nombre d’éléments de S.
De plus, rg (S) = card(S) si et seulement si S est libre.
On dit qu’une famille S = {~v1 , ~v2 , . . . , ~vk } de k vecteurs d’un sous-espace vectoriel V de Rn est génératrice
de V si tout vecteur ~x ∈ V peut s’écrire comme une combinaison linéaire des vecteurs de S.
On peut donc dire que V est le sous-espace vectoriel engendré par S, c’est-à-dire V = Vect (S).
Lemme
Soit S = {~v1 , ~v2 , . . . , ~vk } une famille de k vecteurs de Rn . Alors
On verra plus loin l’importance de ce lemme. Par exemple, il permet de mettre en équations un sous-espace
vectoriel.
3
On appelle base d’un sous-espace vectoriel V de Rn toute famille β libre et génératrice de V .
On appelle base canonique de Rn la famille β = {~e1 , ~e2 , . . . , ~en } dont les vecteurs ~ei sont donnés par
~e1 = (1, 0, . . . , 0), ~e2 = (0, 1, 0, . . . , 0), ... , ~en = (0, 0, . . . , 1).
Soit V un sous-espace vectoriel de Rn et β = {~v1 , ~v2 , . . . , ~vk } une base de V . Alors tout vecteur ~x ∈ V
s’écrit de façon unique comme combinaison linéaire des vecteurs de β. Il existe donc des scalaires xi uniques,
appelés composantes (ou encore coordonnées) de ~x dans la base β, tels que
k
X
~x = xi~vi .
i=1
Il est d’usage de regrouper les composantes d’un vecteur ~x dans une base sous forme d’un vecteur-colonne et
d’écrire
x1
x2
~x = .
..
xk
bien que cette notation, qui consiste à identifier un vecteur ~x ∈ V avec le vecteur ~x = (x1 , x2 , . . . , xk ) ∈ Rk
puisse prêter à confusion. On verra dans le chapitre suivant l’intérêt de mettre les xi en colonne et donc de les
voir comme un vecteur-colonne.
Avant de définir le concept de dimension, nous avons besoin du lemme suivant.
Lemme
Soit V un sous-espace vectoriel de Rn . Si L = {~v1 , ~v2 , . . . , ~vp } est une famille libre de vecteurs de V et si
G = {w~ 1, w ~ m } est une famille génératrice de V , alors p ≤ m.
~ 2, . . . , w
Soit V un sous-espace vectoriel de Rn . Toutes les bases de V ont le même nombre de vecteurs. Ce nombre
s’appelle la dimension de V et se note dim V .
Théorème
Soit V un sous-espace vectoriel de Rn tel que dim V = k.
. Toute famille libre de V comporte au plus k vecteurs.
Théorème
Soit V un sous-espace vectoriel de Rn tel que dim V = k.
. Toute famille génératrice de V comporte au moins k vecteurs.
Soit V un sous-espace vectoriel de Rn tel que dim V = k. Soit L = {~v1 , ~v2 , . . . , ~vp } une famille libre
de p vecteurs de V . Alors il existe k − p vecteurs w ~ p+1 , w
~ p+2 , . . ., w
~ k de V tels que la famille β =
{~v1 , ~v2 , . . . , ~vp , w ~ k } soit une base de V .
~ p+1 , . . . , w
Le théorème suivant permet de faire le lien entre les notions de rang et de dimension.
4
Théorème (rang et dimension)
Le rang d’une famille S = {~v1 , ~v2 , . . . , ~vp } de p vecteurs de Rn est égal à la dimension du sous-espace vectoriel
engendré par S
rg (S) = dim(Vect(S)).
La proposition suivante donne des conditions nécessaires et suffisantes pour qu’une famille de vecteurs soit libre
ou génératrice.
Proposition (Caractérisations à l’aide du rang )
Nous allons maintenant développer une technique très efficace pour obtenir le rang d’une famille.
Définition (vecteurs échelonnés)
Soit S = {~v1 , ~v2 , . . . , ~vp } une famille de p vecteurs de Rn . Pour tout vecteur ~vi non nul de la famille
S, on note ji l’indice de sa première composante non nulle dans une base β de Rn , c’est-à-dire que
~vi = (0, · · · , 0, vji ,i , · · · , vn,i ), avec vji ,i 6= 0. On dit que la famille S est échelonnée relativement à β
s’il existe un entier r ≤ p tel que :
I la suite (ji )1≤i≤r soit strictement croissante,
I si r < p, on ait ~vi = ~0 pour r < i ≤ p.
1 0 0 0 0
2 3 0 0 0
−1 6 0 0 0
3 7 1 0 0
4 8 2 3 0
Les indices des premières composantes non nulles des quatre premières colonnes sont respectivement j1 = 1,
j2 = 2, j3 = 4 et j4 = 5, p = 5 et r = 4. Les vecteurs sont échelonnés car les indices forment une suite
strictement croissante. L’intérêt d’avoir des vecteurs échelonnés est donné par le résultat suivant.
Lemme (indépendance d’une famille échelonnée)
Soit V un sous-espace vectoriel de Rn , β une base de V et S = {~v1 , ~v2 , . . . , ~vp } une famille de p vecteurs
non nuls de V . Si S est échelonnée relativement à β, alors S est libre.
Lorsque des vecteurs ne sont pas échelonnés, on peut les échelonner via les transformations suivantes.
Lemme (transformation d’une famille par combinaisons)
S libre ⇔ S̃ libre
Vect (S) = Vect (S̃)
rg (S) = rg (S̃).
Dans l’exemple suivant, on va montrer le rôle que joue l’échelonnement dans le calcul du rang d’une famille.
5
Prenons la famille
~c1 ~c2 ~c3 ~c4
2 1 1 2
4 3 1 2
6 4 −1 1
−1 1 1 −1
qui n’est pas échelonnée. En multipliant la seconde colonne par 2 et en soustrayant la première colonne on
obtient la famille de même rang
2 0 1 2
4 2 1 2
6 2 −1 1
−1 3 1 −1
Par combinaison des colonnes 3 et 1, puis des colonnes 4 et 1 on obtient
2 0 0 2 2 0 0 0
4 2 −2 2 4 2 −2 −2
−→ −→
6 2 −8 1 6 2 −8 −5
−1 3 3 −1 −1 3 3 0
2 0 0 0 2 0 0 0
4 2 0 −2 4 2 0 0
−→ −→
6 2 −6 −5 6 2 −6 −3
−1 3 6 0 −1 3 6 3
2 0 0 0
4 2 0 0
6 2 −6 0
−1 3 6 0
La famille ainsi obtenue est échelonnée. La dernière colonne étant nulle, elle est de rang 3. Les transformations
ayant préservé le rang, la famille {~c1 , ~c2 , ~c3 , ~c4 } est donc de rang 3.
De plus, en reconstituant les transformations ayant conduit à obtenir un vecteur nul dans la dernière colonne
on obtient
2[(~c4 − ~c1 ) + (2~c2 − ~c1 )] − [(2~c3 − ~c1 ) + (2~c2 − ~c1 )] = ~0,
soit encore
~c4 − ~c1 + ~c2 − ~c3 = ~0,
ce qui permet d’expliciter la relation linéaire qui lie les vecteurs ~ci .
1 0 x1
−1 1 x2
1 2 x3
1 1 x4
6
Si on multiplie la première colonne par x1 et on la retranche à la dernière, on obtient
1 0 0
−1 1 x2 + x1
1 2 x3 − x1
1 1 x4 − x1
Si on multiplie cette fois-ci la deuxième colonne par x1 + x2 et on la retranche à la dernière, on obtient
1 0 0
−1 1 0
1 2 x3 − 3x1 − 2x2
1 1 x4 − 2x1 − x2
Comme le rang de la famille est égal à deux, on obtient les équations
Ainsi
V = {(x1 , x2 , x3 , x4 ) ∈ R4 : x3 − 3x1 − 2x2 = 0, x4 − 2x1 − x2 = 0}.
Réciproquement, comment passe-t-on d’une écriture en équations à une écriture vectorielle ? Considérons le
sous-espace vectoriel
On a
Remarque Notons qu’on a choisi x1 et x2 comme paramètres. Un autre choix aurait conduit à une autre
famille génératrice de V .
7
2 Matrices
2.1 L’espace vectoriel des matrices m × n
On entend par matrice de format (ou de taille) m × n à coefficients réels toute application
A : {1, 2, . . . , m} × {1, 2, . . . , n} → R.
Une matrice est donc une application dont le domaine de définition est très particulier. Pour cette raison et
aussi pour des raisons de commodité d’écriture, on note aij l’image du couple (i, j) et on dispose les mn nombres
réels aij , i = 1, 2, . . . , m, j = 1, 2, . . . , n sous forme d’un tableau
a11 a12 . . . a1n
a21 a22 . . . a2n
A= .
.. .. ..
.. . . .
am1 am2 . . . amn
à m lignes et n colonnes. On observera que les valeurs de A, on dit aussi les coefficients de A, sont notées avec
deux indices, le premier indice i faisant référence au numéro de ligne et le second indice j au numéro de colonne
de la matrice. Si la matrice est carrée, c’est-à-dire si m = n, on dit simplement que la matrice est d’ordre n.
Définition (trace d’une matrice)
Soit A une matrice carrée d’ordre n. On appelle trace de A la somme de ses termes diagonaux, c’est-à-dire
la quantité
tr A := a11 + a22 + · · · + ann .
8
Définition (produit matriciel )
Si A est une matrice de format m × n et B une matrice de format n × p, on définit le produit de A par B
(attention à l’ordre) comme étant la matrice C de format m × p dont le coefficient cij sur la ième ligne et la
jème colonne est donné par
Xn
cij := aik bkj .
k=1
On note C := AB.
On observera que le coefficient cij est simplement obtenu en effectuant le produit scalaire euclidien de la ième
ligne de A et la jème colonne de B. Cela suggère pour effectuer les calculs de façon pratique de disposer les
matrices de la façon suivante.
b11 . . . b1j . . . b1p
b21 . . . b2j . . . b2p
.. .. ..
. . .
bn1 . . . bnj . . . bnp
↓
↓
a11 a12 . . . a1n c11 . . . . . . c1p
.. .. .. .. ..
.
. .
. ↓ .
ai1 ai2 . . . ain −→ → → cij
. . . . .
.. .. .. .. ..
On doit tout de suite mettre en garde sur l’ordre à respecter dans un produit matriciel. En général on a
AB 6= BA. Pour que le produit AB de deux matrices ait un sens il est nécessaire que les formats des deux
matrices soient compatibles. Il est alors facile de voir que les deux produits AB et BA ne peuvent avoir de sens
simultanément que si les deux matrices sont carrées. Par exemple, si on prend
0 −1 0 1
A= B=
1 0 1 0
alors
−1 0 1 0
AB = BA = .
0 1 0 −1
On voit que AB 6= BA. On dit alors que les matrices A et B ne commutent pas.
Proposition (propriétés usuelles du produit matriciel )
Si A, B et C désignent trois matrices, sous réserve de compatibilité entre leur format, on a les relations
suivantes:
1. A(BC)=(AB)C,
2. A(B+C)=AB+AC,
3. (A+B)C=AC+BC.
Soit A une matrice de format m × n. On appelle rang de A et on note rg A le rang des colonnes A1 , · · · , An
de A.
9
Définition (noyau)
Soit A une matrice de format m × n. On appelle noyau de A le sous-espace vectoriel de Rn défini par
KerA = {x ∈ Rn : Ax = 0}.
Définition (image)
Soit A une matrice de format m × n. On appelle image de A le sous-espace vectoriel de Rm défini par
ImA = {Ax; x ∈ Rn }.
Soit A une matrice de format m × n dont les colonnes sont désignées par A1 , · · · , An . Alors
ImA = Vect{A1 , · · · , An }.
n = rg A + dim(kerA).
Soit A une matrice de format m × n. On appelle transposée de A la matrice de format n × m, notée AT (ou
encore A0 par les statisticiens et les économètres), et définie par
aTij := aji 1 ≤ i ≤ n, 1 ≤ j ≤ m.
Si A et B désignent deux matrices et si x et y désignent des vecteurs colonnes, sous réserve (si nécessaire)
de compatibilité de leur format, on a:
T
1. (AT ) = A,
2. (A + B)T = AT + B T ,
3. (λA)T = λAT ,
4. (AB)T = B T AT ,
5. rg A = rg AT ,
10
où h., .i est le produit scalaire euclidien. Si l’inégalité est renversée, on dit que A est semi-définie négative.
. On dit que A est définie positive si on a
Proposition
Soit A une matrice de format m × n avec m ≤ n. Alors les conditions suivantes sont équivalentes:
1. A est de rang maximal,
Cette matrice est neutre pour le produit matriciel : pour toute matrice carrée A d’ordre n, on a AIn = In A = A.
Définition (inverse d’une matrice)
Soit A une matrice carrée d’ordre n. A est dite inversible s’il existe une matrice carrée d’ordre n, notée A−1 ,
telle que
AA−1 = A−1 A = In .
On dit que A−1 est la matrice inverse de A.
A inversible ⇐⇒ rg (A) = n.
(AB)−1 = B −1 A−1 .
D’un point de vue pratique, le calcul de l’inverse d’une matrice carrée A se ramène à la résolution du système
linéaire Ax = y, d’inconnue x ∈ Rn . Ceci résulte en effet de l’équivalence
Ax = y ⇐⇒ x = A−1 y.
où les aij et les bi sont des scalaires et les xi sont les inconnues.
11
Les aij définissent une matrice A de format p × n (la matrice du système) dont les colonnes seront notées Aj .
Les bi définissent un vecteur b ∈ Rp (le second membre du système). On peut regrouper les inconnues en un
vecteur x = (x1 , x2 , . . . , xn ) de Rn ce qui permet d’écrire le système linéaire sous la forme matricielle
n
X
Ax = b ou encore xj Aj = b.
j=1
S = {x ∈ Rn ; Ax = b}
(éventuellement vide) constitué de tous les x (s’il en existe) dont les composantes xi vérifient simultanément les
p équations.
Définition (système homogène)
Lorsque les bi sont tous nuls, on dit que le système (S) est homogène.
Au système linéaire (S) Ax = b, on peut donc associer le système homogène Ax = 0. L’ensemble des solutions
de ce système homogène coı̈ncide avec kerA (le noyau de A).
Définition (compatibilité)
On dit que le système (S) est compatible si l’ensemble S de ses solutions est non vide.
On note que
S 6= ∅ ⇐⇒ b ∈ ImA.
S = x0 + ker A.
12
3 Déterminants
3.1 Notion de déterminant
Considérons l’ensemble F des fonctions
f : Rn × Rn × . . . × Rn → R
| {z }
n fois
vérifiant les propriétés suivantes:
1. l’application ~xi → f (~x1 , . . . , ~xi , . . . , ~xn ) est linéaire (pour tout i)
2. f (~x1 , . . . , ~xi , . . . , ~xj , . . . , ~xn ) = −f (~x1 , . . . , ~xj , . . . , ~xi , . . . , ~xn ).
On dit que de telles fonctions sont des formes multilinéaires alternées sur Rn ou encore des formes n-linéaires
alternées. Le terme n-linéaire signifie que la fonction est linéaire relativement à chacune de ses variables, quant
au terme alterné, il signifie que f change de signe quand on échange la place de deux des ~xk en laissant fixes
les autres. Il est facile de voir que F est un espace vectoriel. On peut en effet vérifier que la somme de deux
formes f et g qui sont n-linéaires est bien une forme n-linéaire et qu’elle est alternée dès que f et g le sont. De
même, le produit d’une forme n-linéaire alternée par un scalaire est une forme n-linéaire alternée.
L’ensemble F n’est pas vide car il contient la forme identiquement nulle. En fait, F est de dimension 1, donc
toutes les formes n-linéaires alternées non triviales sont colinéaires. Avant de justifier cette affirmation, donnons
quelques propriétés qui découlent immédiatement de la définition.
Proposition (propriétés des formes n-linéaires alternées)
Ces propriétés élémentaires établies, on est en mesure d’étudier l’existence de formes multilinéaires non triviales.
Pour mieux comprendre cette partie assez technique, commençons par analyser les cas n = 2 et n = 3.
Considérons deux vecteurs ~x1 et ~x2 et une base β = {~v1 , ~v2 } de R2 . Dans cette base, ~x1 et ~x2 se décomposent
sous la forme
~x1 = a11~v1 + a21~v2 et ~x2 = a12~v1 + a22~v2
et on peut les voir comme des vecteurs colonnes
a11 a12
~x1 = et ~x2 =
a21 a22
qui sont en fait les colonnes de la matrice A définie par les aij . S’il existe une forme 2-linéaire alternée ϕ sur
R2 , en utilisant la linéarité de ϕ par rapport à chacune des deux variables on doit avoir
ϕ(~x1 , ~x2 ) = a11 a12 ϕ(~v1 , ~v1 ) + a11 a22 ϕ(~v1 , ~v2 )
+ a21 a12 ϕ(~v2 , ~v1 ) + a21 a22 ϕ(~v2 , ~v2 ).
Comme ϕ est alternée, on a ϕ(~v1 , ~v1 ) = ϕ(~v2 , ~v2 ) = 0 et ϕ(~v2 , ~v1 ) = −ϕ(~v1 , ~v2 ) d’où
ϕ(~x1 , ~x2 ) = a11 a22 − a21 a12 ϕ(~v1 , ~v2 )
ce qui montre que ϕ est entièrement déterminée par ses valeurs sur le couple (~v1 , ~v2 ). Comme il est immédiat
de voir que le membre de droite de l’égalité précédente est une forme 2-linéaire alternée, celle-ci est non triviale
dès que ϕ(~v1 , ~v2 ) 6= 0, toutes les formes 2-linéaires alternées sont colinéaires et F est donc de dimension 1. Si
on appelle déterminant l’unique forme ϕ telle que ϕ(~v1 , ~v2 ) = 1 on obtient
et on retrouve la définition du déterminant d’une matrice carrée d’ordre 2 vue en première année. On retiendra
que
det(~x1 , ~x2 ) = det A = a11 a22 − a21 a12 .
13
Passons au cas de la dimension 3 et considérons des vecteurs ~x1 , ~x2 , ~x3 et une base β = {~v1 , ~v2 , ~v3 } de R3 . Dans
cette base, ces vecteurs se décomposent sous la forme
3
X
~xj = aij ~vi .
i=1
S’il existe une forme 3-linéaire alternée ϕ sur R3 , en utilisant la linéarité de ϕ par rapport aux diverses variables
on aura
3 X
X 3 X 3
ϕ(~x1 , ~x2 , ~x3 ) = ai1 1 ai2 2 ai3 3 ϕ(~vi1 , ~vi2 , ~vi3 ).
i1 =1 i2 =1 i3 =1
La quantité ϕ(~vi1 , ~vi2 , ~vi3 ) étant nulle dès que deux des variables sont égales, de nombreux termes parmi les
33 = 27 termes de cette somme sont nuls. En fait, les seuls termes non nuls sont ceux pour lesquels les indices
i1 , i2 et i3 sont distincts deux à deux et il y en a exactement 3! = 6 donnés par le tableau suivant
i1 1 1 2 2 3 3
i2 2 3 1 3 1 2
i3 3 2 3 1 2 1
que l’on appelle une permutation et dont l’action consiste à placer les entiers 1, 2 et 3 dans un ordre différent
de l’ordre naturel. Comme ϕ est alternée, la quantité ϕ(~vi1 , ~vi2 , ~vi3 ) est, au signe près, égale à ϕ(~v1 , ~v2 , ~v3 ), le
signe étant fonction du nombre de fois qu’il faut échanger de place deux des ~vi pour rétablir l’ordre naturel des
entiers. On a par exemple
Pour rétablir l’ordre par modifications successives de la place de deux vecteurs, il y a plusieurs façons de
procéder, mais le résultat sera toujours le même. Cela résulte de la propriété suivante des permutations d’un
ensemble.
Proposition (propriétés des permutations)
Toute permutation σ : {1, 2, . . . , n} → {1, 2, . . . , n} est décomposable en produit de transpositions qui con-
sistent à échanger de place deux entiers en laissant fixes les autres. Cela signifie que l’on peut décomposer
l’action de σ en plusieurs étapes, chaque étape consistant à modifier la place de deux entiers. La décomposition
n’est pas unique, mais la parité du nombre d’échanges est toujours la même.
Si une permutation σ se décompose en un nombre pair (resp. impair) de transpositions, on dit qu’elle est paire
(resp. impaire) et on définit sa signature comme étant l’entier donné par s (σ) := +1 (resp. s (σ) := −1).
Finalement, après calcul de la parité des 6 permutations associées aux 6 cas possibles et mise en facteur, on
obtient
ϕ(~x1 , ~x2 , ~x3 ) = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a11 a32 a23 − a21 a12 a33 − a31 a22 a13 ϕ(~v1 , ~v2 , ~v3 ),
ce qui montre que ϕ est entièrement déterminée par la valeur de ϕ(~v1 , ~v2 , ~v3 ). Comme il est facile de voir que
le membre de droite de l’égalité précédente est une forme 3-linéaire alternée, celle-ci est non triviale dès que
ϕ(~v1 , ~v2 , ~v3 ) 6= 0, toutes les formes 3-linéaires alternées sont colinéaires et F est donc de dimension 1. Il est alors
judicieux, pour des raisons évidentes de simplicité, de définir le déterminant des vecteurs ~x1 , ~x2 et ~x3 , ou ce qui
revient au même de la matrice A, comme étant l’unique forme 3-linéaire alternée ϕ telle que ϕ(~v1 , ~v2 , ~v3 ) = 1.
On retiendra que
det(~x1 , ~x2 , ~x3 ) = det A = a11 a22 a33 + a21 a32 a13 + a31 a12 a23 − a11 a32 a23 − a21 a12 a33 − a31 a22 a13 .
D’un point de vue pratique, un moyen commode d’organiser les calculs du déterminant d’une matrice d’ordre 3,
connu sous le nom de règle de Sarrus, consiste à recopier en dessous de la matrice les deux premières lignes
et à effectuer le produit des termes en diagonale. Puis on retranche la somme des diagonales montantes aux
diagonales descendantes.
14
a11 a12 a13
a21 a22 a23
a31 a32 a33
. a11 a12 a13 &
. a21 a22 a23 &
. &
2 1 1
Avec A = 4 3 2 on obtient
6 4 −1
2 1 1
4 3 2
6 4 −1
2 1 1
. &
4 3 2
18 .
& −6
16 . & 16
−4 12
= 30 = 22
det A = 22 − 30
donc det A = −8. Malheureusement cette règle ne se généralise pas pour une matrice d’ordre supérieur à 3.
Traitons maintenant le cas général et pour cela considérons n vecteurs ~x1 , ~x2 , . . ., ~xn et une base β =
{~v1 , ~v2 , . . . , ~vn } de Rn . Dans cette base, les ~xj se décomposent sous la forme
n
X
~xj = aij ~vi .
i=1
S’il existe une forme n-linéaire alternée ϕ, en utilisant la linéarité de ϕ par rapport aux diverses variables on
aura
n X
X n n
X
ϕ(~x1 , ~x2 , . . . , ~xn ) = ... ai1 ,1 ai2 ,2 . . . ain ,n ϕ(~vi1 , ~vi2 , . . . , ~vin ).
i1 =1 i2 =1 in =1
La quantité ϕ(~vi1 , ~vi2 , . . . , ~vin ) étant nulle dès que deux des variables sont égales, de nombreux termes parmi
les nn termes de cette somme sont nuls. En fait, les seuls termes non nuls sont ceux pour lesquels les indices
i1 , i2 , . . ., in sont distincts deux à deux et il y en a exactement (n!). A chaque terme non nul est associée une
suite (i1 , i2 , . . . , in ) d’entiers tous distincts, ce qui définit une permutation
σ : {1, 2, . . . , n} → {1, 2, . . . , n}.
En invoquant le résultat de la proposition précédente, ϕ étant alternée, on a
ϕ(~vi1 , ~vi2 , . . . , ~vin ) = s (σ)ϕ(~v1 , ~v2 , . . . , ~vn )
où s (σ) est la signature de σ. En désignant par Sn l’ensemble de toutes les permutations de {1, 2, . . . , n}, on
obtient X i
ϕ(~x1 , ~x2 , . . . , ~xn ) = s (σ) aσ(1),1 aσ(2),2 . . . aσ(n),n ϕ(~v1 , ~v2 , . . . , ~vn ),
σ∈Sn
si bien que ϕ est entièrement déterminée par la valeur de ϕ(~v1 , ~v2 , . . . , ~vn ). Comme il est assez facile de vérifier
que le membre de droite de l’égalité ci-dessus est une forme n-linéaire alternée, on en déduit, d’une part qu’elle
est non triviale dès que ϕ(~v1 , ~v2 , . . . , ~vn ) 6= 0, d’autre part que l’espace vectoriel F est de dimension 1. Ce
résultat conduit de façon naturelle à la définition suivante du déterminant.
Définition (déterminant)
On appelle déterminant d’une famille de n vecteurs de Rn relativement à une base β l’unique forme n-linéaire
alternée qui prend la valeur 1 sur les éléments de cette base. Si A est une matrice carrée d’ordre n, on appelle
déterminant de A, et on note det A ou encore |A|, le déterminant des colonnes de A. On a alors
X
det A = s (σ) aσ(1),1 aσ(2),2 . . . aσ(n),n .
σ∈Sn
La proposition suivante rassemble les propriétés usuelles des déterminants énoncées, par commodité, uniquement
en terme de déterminants de matrices.
15
Proposition (propriétés usuelles des déterminants)
2. Le déterminant d’une matrice n’est pas modifié si on ajoute à une colonne une combinaison linéaire
des autres colonnes.
3. det(AT ) = det(A).
où A0ij désigne la matrice carrée de taille n déduite de A en remplaçant la j-ème colonne par une colonne
constituée uniquement de zéros, sauf un 1 sur la i-ème ligne.
Introduisons alors la définition suivante.
Définition (cofacteur et comatrice)
Etant donnée une matrice carrée A d’ordre n, on appelle cofacteur d’indice i, j le coefficient défini par
cij = det(A0ij ),
où A0ij est la matrice définie ci-dessus. La matrice des cofacteurs de A s’appelle la comatrice de A, on la
note comA = [cij ].
La proposition suivante montre que le calcul d’un cofacteur se ramène au calcul d’un déterminant d’ordre n − 1.
Proposition
Soit A une matrice carrée d’ordre n et Aij la matrice obtenue à partir de A en supprimant la ligne i et la
colonne j. Alors
cij = (−1)i+j det(Aij ).
Si l’on échange le rôle des colonnes et des lignes de A, ce qu’on est en droit de faire compte tenu de l’égalité
det A = det AT , on voit que l’on peut aussi développer un déterminant suivant une ligne. La proposition
suivante récapitule les différents points qui viennent d’être mis en évidence.
Proposition (développement suivant une colonne ou suivant une ligne)
n
X
det A = aij cij , développement/colonne j
i=1
Xn
= aij cij , développement/ligne i
j=1
16
où le cofacteur cij se calcule par la formule cij = (−1)i+j det(Aij ).
Il est judicieux de développer un déterminant suivant une colonne (ou une ligne) contenant des zéros. On a
donc intérêt à modifier la matrice en ajoutant à une colonne (une ligne) une combinaison linéaire des autres
colonnes (lignes) de façon à faire apparaı̂tre un maximum de zéros dans cette colonne (ligne) puisque cela ne
change pas la valeur du déterminant (voir les propriétés données au paragraphe précédent).
Comme le calcul d’un déterminant d’ordre n suivant une colonne (une ligne) se ramène au calcul de n déterminants
d’ordre n − 1, on peut, pour calculer ces derniers, procéder de la même façon, et développer en colonne (ou en
ligne). Cela fournit une règle récursive de calcul des déterminants qui est malheureusement très coûteuse en
nombre d’opérations si les coefficients des sous matrices rencontrées sont toujours non nuls car cela nécessite un
nombre d’opérations de l’ordre de (n!).
Une illustration du procédé récursif est donnée par l’exemple suivant.
1 −2 2 −1 2 0 1
1 L1 + L2
1 2 −1 2 1 2 −1 2 L2
=
L3 − 2L2
6 4 1 6
4 0 3 2
7 2 3 1 6 0 4 −1 L4 − L2
2 1 1
= 2 4 3 2
6 4 −1
2 1 1 L1
= 2 0 1 0 L2 − 2L1
8 5 0 L3 + L1
2 1
= 2
8 0
= −16.
Pour une matrice triangulaire, le calcul du déterminant est très simple à effectuer.
Proposition (déterminant d’une matrice triangulaire)
Le déterminant d’une matrice triangulaire est égal au produit de ses coefficients diagonaux.
17
et donc
−11 5 −1
−1 1
A =− 16 −8 0 .
8
−2 −2 2
Cette méthode des déterminants est rapide pour les matrices 2 × 2 et 3 × 3, mais devient vite impraticable pour
les matrices de plus grande taille, sauf dans des cas bien spécifiques.
18
4 Valeurs et vecteurs propres
Soit A une matrice carrée d’ordre n à coefficients réels.
Définition (vecteur propre)
On dit que x ∈ Rn est vecteur propre de A s’il existe un scalaire λ ∈ R tel que Ax = λx.
On dit qu’un scalaire λ ∈ R est une valeur propre de A s’il existe un vecteur x 6= 0 tel que Ax = λx.
Si λ est valeur propre de A et si x est un vecteur propre associé à λ, tout vecteur colinéaire à x est aussi vecteur
propre associé à λ. En fait, l’ensemble des vecteurs propres associés à une valeur propre λ est un sous-espace
vectoriel de Rn (de dimension supérieure ou égale à 1). Cela conduit à la définition suivante.
Définition (sous-espace propre)
L’ensemble des vecteurs propres associés à une valeur propre λ est le sous-espace vectoriel V (λ) défini par
V (λ) := {x ∈ Rn : Ax = λx}.
donc
V (λ) = ker(A − λI).
Si A est de la forme
a11 a12 ... a1n
a21 a22 ... a2n
A=
.. .. .. ..
. . . .
an1 an2 ... ann
dire qu’un scalaire λ est valeur propre de A revient donc à dire que la matrice
a11 − λ a12 ... a1n
a21 a22 − λ . . . a2n
A − λI =
.. .. . . .
.
. . . .
an1 an2 . . . ann − λ
n’est pas inversible, ce qui est encore équivalent à dire que son déterminant est nul. Ce déterminant est un
polynôme de λ car ses termes sont des produits d’éléments de la matrice A − λI. Cela justifie la définition
suivante.
Définition (polynôme caractéristique)
Il est facile de voir que le polynôme caractéristique de A est un polynôme de degré n dont le coefficient dominant
est (−1)n .
Au vu de ce qui précède, on a le résultat suivant.
Proposition
Soit A une matrice carrée d’ordre n et soit λ ∈ R. Alors λ est valeur propre de A si et seulement si λ est
racine du polynôme caractéristique pA .
On rappelle que si p est un polynôme de degré n, une racine de p est un nombre réel r tel que p(r) = 0 ou de
façon équivalente tel que p soit divisible par (x − r), c’est-à-dire, p(x) = (x − r)q(x), où q est un polynôme de
degré n − 1. On définit aussi la multiplicité de r comme étant le plus grand entier k tel que p soit divisible par
19
(x − r)k . Si k = 1 (resp. k > 1), on dit que r est racine simple (resp. racine multiple). Si k = 2, on dit que r
est racine double.
Définition (multiplicité d’une valeur propre)
Si λ est une valeur propre de A, on appelle multiplicité de λ sa multiplicité en tant que racine du polynôme
caractéristique pA .
Soit A une matrice carrée d’ordre n et λ1 , λ2 , . . . , λp des valeurs propres de A distinctes deux à deux. Alors:
1. Si V (λ1 ) et V (λ2 ) sont deux sous-espaces propres associés à λ1 et λ2 , on a V (λ1 ) ∩ V (λ2 ) = {0}.
2. Toute famille S = {v1 , v2 , . . . , vp } de vecteurs propres non nuls, associés à λ1 , λ2 , . . . , λp est libre.
3. La dimension du sous-espace propre associé à une valeur propre est toujours inférieure ou égale à la
multiplicité de celle-ci.
Il arrive que la dimension d’un sous-espace propre soit strictement inférieure à la multiplicité de la valeur propre
associée. Si on prend la matrice
1 1
A= ,
0 1
on voit que λ = 1 est une valeur propre de multiplicité 2. Le sous-espace propre associé, donné par
V (1) = ker(A − I) = {(x1 , x2 ); x2 = 0},
est de dimension 1.
Donnons à présent quelques propriétés qu’il est utile de connaı̂tre et dont la démonstration est une conséquence
immédiate de ce qui précède.
Proposition
Etant données deux matrices A et B d’ordre n, on a les propriétés suivantes.
1. Si A est triangulaire, ses valeurs propres sont les termes diagonaux.
2. Si λ est valeur propre de A, alors pour tout θ ∈ R, θλ est valeur propre de la matrice θA.
3. Si λ est valeur propre de A, alors λk est valeur propre de la matrice Ak .
4. Si λ est valeur propre de A, elle est aussi valeur propre de AT .
20
5 Optimisation
5.1 Rappels
Définition (extremum global )
∀ x ∈ Ω, x) ≤ f (x).
f (b
On observera qu’un minimum (resp. maximum) global est aussi minimum (resp. maximum) local (prendre
comme voisinage du point l’ensemble Rn tout entier).
On rappelle la définition d’un ensemble convexe et d’une fonction convexe (resp. concave).
Définition (Convexité)
Si pour x 6= y, t 6= 0 et t 6= 1, l’inégalité ci-dessus est stricte, on dit que f est strictement convexe.
. On dit que f est concave (resp. strictement concave) sur Ω si −f est convexe (resp. strictement
convexe) sur Ω.
Dans le cas où la fonction est de classe C 2 , on obtient la caractérisation suivante de la convexité.
Proposition (Caractérisation des fonctions convexes)
Soit Ω ⊂ Rn un ensemble convexe et f : Ω → R une fonction convexe sur Ω. Alors tout minimum local de
f sur Ω est un minimum global sur Ω.
Soit Ω ⊂ Rn un ensemble convexe et f : Ω → R une fonction concave sur Ω. Alors tout maximum local de
f sur Ω est un maximum global sur Ω.
21
5.2 Extrema sans contrainte
Proposition (condition nécessaire d’optimalité du premier ordre)
∇f (b
x) = 0.
Il convient d’observer que dans la proposition précédente la propriété d’ouverture de l’ensemble Ω est une
hypothèse essentielle. Par exemple, les deux dérivées partielles de la fonction f (x1 , x2 ) := x1 + x2 ne s’annulent
en aucun point de l’ensemble Ω := {x; x1 ≥ 0, x2 ≥ 0}, alors que la fonction f est pourtant bien minimale à
l’origine.
Définition (point critique d’une fonction)
∇f (b
x) = 0.
La recherche des points critiques d’une fonction de n variables se fait en résolvant l’équation vectorielle
∇f (x) = 0,
x
b minimum (resp. maximum) local de f =⇒ x
b point critique de f.
Lorsque la fonction f est convexe (resp. concave), l’implication réciproque est vraie de sorte que l’on obtient
une équivalence. De plus, les minima (resp. maxima) locaux sont alors globaux.
Proposition (condition nécessaire et suffisante d’optimalité dans le cas convexe)
Soit Ω ⊂ Rn un ouvert convexe et f : Ω → R une fonction convexe et différentiable sur Ω. Alors un point x
b
est minimum global de f sur Ω si et seulement s’il est point critique de f .
Soit Ω ⊂ Rn un ouvert convexe et f : Ω → R une fonction concave et différentiable sur Ω. Alors un point x
b
est maximum global de f sur Ω si et seulement s’il est point critique de f .
Soit Ω ⊂ Rn un ouvert et f : Ω → R une fonction de classe C 2 sur Ω. Si un point x b est minimum local (resp.
maximum local) de f sur Ω, alors la matrice ∇2 f (b
x) est semi-définie positive (resp. semi-définie négative).
Il en résulte que, si en un point critique xb la matrice hessienne d’une fonction f n’est ni semi-définie positive,
ni semi-définie négative, alors le point x
b ne peut être ni minimum local, ni maximum local.
Théorème (condition suffisante d’optimalité du second ordre)
Soit Ω ⊂ Rn un ensemble ouvert et f : Ω → R une fonction de classe C 2 sur Ω. Si un point x b est point
critique de f et si la matrice hessienne ∇2 f (b
x) est définie positive (resp. définie négative), alors x
b est
minimum local (resp. maximum local) de f sur Ω.
22
Résumé (Nature des points critiques)
b ∈ Ω un point critique de f .
Soit Ω un ensemble ouvert convexe et soit x
• Si f est convexe sur Ω, alors x
b minimum global de f sur Ω.
où f est une fonction de n variables et Ω ⊂ Rn est un sous-ensemble de Rn . Suivant le contexte, la fonction f
s’appelle l’objectif, le critère, la fonction coût, etc, et l’ensemble Ω s’appelle le domaine des contraintes. On dit
d’un point vérifiant les contraintes, i.e. d’un point x ∈ Ω, que c’est une solution réalisable.
Dans un problème de minimisation (resp. de maximisation), on entend par solution optimale un point x
b qui est
minimum global (resp. maximum global) de f sur le domaine des contraintes.
Un premier résultat important concerne la question de l’existence d’un minimum ou d’un maximum global sous
contrainte.
Théorème (des extrema atteints)
Soit Ω ⊂ Rn un ensemble fermé et borné (on dit encore un ensemble compact) et f : Ω → R une fonction
continue sur Ω. Alors f admet au moins un minimum global et un maximum global sur Ω.
En général, la (les) solution(s) optimale(s) d’un problème d’optimisation sous contrainte sont à rechercher sur
le bord du domaine des contraintes. C’est pourquoi l’hypothèse de fermeture du domaine des contraintes est
essentielle. En une solution intérieure, le gradient est nul et la contrainte ne joue pas.
Considérons maintenant la question de l’unicité d’un minimum ou d’un maximum.
Proposition (Unicité d’un extremum)
On suppose que l’ensemble Ω des contraintes est convexe. Si la fonction f à minimiser (resp. maximiser)
est strictement convexe (resp. strictement concave), le problème d’optimisation admet au plus une solution
optimale.
Un problème d’optimisation convexe sous une contrainte affine est un problème de la forme
min f (x)
g(x) = 0
où f : Rn → R est une fonction convexe et g : Rn → R est une fonction affine, c’est-à-dire, de la forme
g(x) = ha, xi − b ∀x ∈ Rn .
Soit g : Rn → R une fonction affine, Ω := {x ∈ Rn ; g(x) = 0} et f une fonction convexe différentiable sur
Ω. Alors un point x
b est solution optimale du problème de minimisation de f sur Ω si et seulement s’il existe
23
un réel λ
b tel que
∇f (b b ∇g(b
x) + λ x) = 0, g(b
x) = 0.
b est appelé multiplicateur de Lagrange. On observera que, g étant de la forme g(x) = ha, xi − b, son
Le réel λ
gradient est directement donné par ∇g(x) = a, si bien que la condition d’optimalité s’écrit aussi
∇f (b
x) + λ
b a = 0.
La méthode de Lagrange, basée sur ce résultat, consiste à chercher simultanément une solution optimale et un
multiplicateur associé. Pour cela on introduit la définition suivante.
Définition (le lagrangien)
∇x L(x, λ) = 0 et ∇λ L(x, λ) = 0,
De cette condition nécessaire et suffisante, on déduit que pour optimiser sous une contrainte affine, on est amené
à résoudre un système de n + 1 équations (mise à zéro des dérivées partielles du lagrangien) à n + 1 inconnues
(les xi et le multiplicateur λ).
On a un résultat similaire pour un problème de maximisation d’une fonction concave sous contrainte affine.
Théorème (conditions nécessaires et suffisantes d’optimalité)
Soit g : Rn → R une fonction affine, Ω := {x ∈ Rn ; g(x) = 0}, f une fonction concave, différentiable
sur Ω et L le lagrangien L(x, λ) := f (x) + λ g(x). Alors un point x b est solution optimale du problème de
maximisation de f sur Ω si et seulement s’il existe un réel λ
b tel que
∇L(b
x, λ)
b = 0.
24
• Lagrangien associé au problème (P ): Il est défini de R3 × R à valeurs dans R par
• Conditions d’optimalité :
∇x L(x, λ) = (0, 0, 0) et ∇λ L(x, λ) = 0
c’est-à-dire
25