Cours 2122

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 111

Mise à niveau en algèbre et analyse

Hervé Hocquard

3 septembre 2021
Table des matières

1 Les nombres complexes 4


1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Propriétés immédiates . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Valeurs particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Les ensembles de nombres : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Les nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Représentation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Opérations sur les nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Addition et multiplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Inverse d’un nombre complexe non nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Nombre conjugué . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Nombre conjugué . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.8 Argument d’un nombre complexe non nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.9 Écriture trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.10 Forme exponentielle d’un nombre complexe non nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.11 Formule de MOIVRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.12 Formules d’EULER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.13 Résolution dans C d’équations du second degré à coefficients réels . . . . . . . . . . . . . . . . . . . . . 16
1.14 Racines nèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.15 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Systèmes d’équations linéaires-Matrices 18


2.1 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Notations et vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.2 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.3 Matrices à lignes échelonnées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.4 Application aux sytèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Somme de deux matrices et produit d’une matrice par un réel . . . . . . . . . . . . . . . . . . . 21
2.2.3 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.4 Opérations par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.5 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.6 Inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

3 Notions sur les équations de récurrence linéaire à coefficients constants 29


3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.2 Propriété fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 Cas de l’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3 Cas de l’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.1 Résolution de l’équation homogène (EH) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.2 Solutions particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4 Notion de stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.2 Un premier résultat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

1
4 Notions sur les équations différentielles 36
4.1 Équations différentielles linéaires d’ordre 1 à coefficients constants . . . . . . . . . . . . . . . . . . . . 37
4.1.1 Résolution de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.2 Résolution de l’équation complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Équations différentielles d’ordre 2 à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.1 Résolution de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.2 Résolution de l’équation complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Notion de stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.1 Equation différentielle d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.2 Equation différentielle d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4 Équations différentielles d’ordre un à coefficients non constants . . . . . . . . . . . . . . . . . . . . . . 40
4.4.1 Cas linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4.2 Équation de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

5 Espaces vectoriels 43
5.1 Espaces vectoriels-Sous espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2 Bases des espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.1 Familles génératrices, familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

6 Rang et déterminant des matrices 51


6.1 Rang des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.1.1 Espace des lignes-Espace des colonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.1.2 Rang et inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.1.3 Rang et systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.2 Déterminant des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.2.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.2.2 Calcul du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

7 Applications linéaires 59
7.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.1.1 Notion d’application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.1.2 Applications linéaires et sous espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.1.3 Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2 Applications linéaires en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2.1 Applications linéaires et bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2.2 Théorème du rang (ou des dimensions) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.2.3 Quelques notions sur les formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.3 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.3.1 Définitions et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.3.2 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

8 Projections 68
8.1 Endomorphismes idempotents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2 Cas particulier de Rn - Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2.2 Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

9 Notions de calcul différentiel 74


9.1 Notion de topologie sur Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
9.1.1 Normes-Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
9.1.2 Suites convergentes dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
9.1.3 Ouverts-Fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
9.1.4 Ensembles convexes-Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
9.2 Différentiabilité des fonctions de Rn dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
9.2.1 Différentielle d’une fonction de Rn dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
9.2.2 Formules de Taylor pour une fonction de Rn dans R . . . . . . . . . . . . . . . . . . . . . . . . 79
9.2.3 Différentiabilité et convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

2
9.3 Fonctions de Rn dans Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
9.3.1 Différentielles-Jacobiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
9.3.2 Les fonctions implicites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
9.3.3 Fonction réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
9.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

10 Diagonalisation 85
10.1 Rappels : changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
10.2 Vecteurs propres-Sous espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
10.3 Polynôme caractéristiques-Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . 87
10.3.1 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
10.3.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
10.3.3 Forme réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10.3.4 Forme de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10.3.5 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10.4 Application au calcul des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.4.1 Utilisation du théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.4.2 Utilisation d’une forme réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

11 Fonctions homogènes, concaves et convexes 95


11.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
11.2 Fonctions homogènes en économie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
11.3 Fonctions d’une variable : Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
11.4 Passage à la dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
11.5 Formes quadratiques et matrices symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
11.6 Hessienne et fonctions concaves ou convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
11.7 Etude du signe d’une forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
11.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

12 Optimisation des fonctions de plusieurs variables 102


12.1 Extrema locaux et globaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.1.2 Théorème des extrema globaux sur un compact . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.1.3 Condition nécessaire d’extremum local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.2 Extrema et Hessienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
12.3 Extrema globaux et convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
12.3.1 Résumons la marche à suivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
12.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

3
Chapitre 1

Les nombres complexes

Contenu
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Propriétés immédiates . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Valeurs particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Les ensembles de nombres : rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Les nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Représentation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Opérations sur les nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Addition et multiplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Inverse d’un nombre complexe non nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Nombre conjugué . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Nombre conjugué . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.7 Module d’un nombre complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.8 Argument d’un nombre complexe non nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.9 Écriture trigonométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.10 Forme exponentielle d’un nombre complexe non nul . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.11 Formule de MOIVRE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.12 Formules d’EULER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.13 Résolution dans C d’équations du second degré à coefficients réels . . . . . . . . . . . . . . . . . . . . 16
1.14 Racines nèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.15 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

4
1.1 Introduction

Définition 1
→ −
− →
Soit (O; i , j ) un repère orthonormal direct et soit C le cercle trigonométrique de centre O.
−−→ − → −−→ − →
A et B sont les points tels que OA = i et OB = j .
→ −−→

Pour tout réel x, il existe un unique point M de C tel que x soit une mesure de l’angle ( i , OM ).
→ −
− →
cos x est l’abscisse de M dans (O; i , j ).
→ −
− →
sin x est l’ordonnée de M dans (O; i , j ).

1.1.1 Propriétés immédiates


Pour tout x ∈ R :

−1 ≤ cos x ≤ 1 cos(x + 2kπ) = cos x


−1 ≤ sin x ≤ 1 sin(x + 2kπ) = sin x

cos2 x + sin2 x = 1

Pour tout réel x,



cos(−x) = cos x
sin(−x) = − sin x
 
cos(x + π) = − cos x cos(π − x) = − cos x
sin(x + π) = − sin x sin(π − x) = sin x
 π    
cos − x = sin x cos π + x = − sin x
2  2 
sin π − x = cos x sin π + x = cos x
2 2

5
1.1.2 Valeurs particulières

π π π π
x 0 π
6 4 3 2

√ √
3 2 1
cos(x) 1 0 -1
2 2 2

√ √
1 2 3
sin(x) 0 1 0
2 2 2

1.1.3 Les ensembles de nombres : rappels

R π
1236π
Q 0.333

D 0.008

Z −1 −10025 3
25
N 1
103 − 13
19
0

9 6
3 − 2π
3

− 4
−37 1
106

−1.2
q
4 1
9 6


2

• N est l’ensemble des entiers naturels. C’est l’ensemble des entiers positifs ou nuls.
• Dans N l’équation x + 1 = 0 n’a pas de solution.
Cette équation a une solution notée -1 , cette solution est un élément de l’ensemble Z.
Z est l’ensemble des entiers relatifs. C’est l’ensemble des entiers positifs, négatifs ou nuls.
Z contient N , c’est-à-dire que N est contenu dans Z , ce que l’on note N ⊂ Z .
• Dans Z l’équation 2x = 1 n’a pas de solution.
Cette équation a une solution notée − 12 , cette solution est un élément de l’ensemble Q .
Q est l’ensemble des nombres rationnels.
C’est l’ensemble de tous les nombres de la forme pq avec p ∈ Z et q ∈ Z∗ . Q contient Z . On a donc N ⊂ Z ⊂ Q .
• Dans Q l’équation x2 = 2 n’a pas de solutions.
√ √
Cette équation a deux solutions notées 2 et − 2 , ces solutions sont des éléments de l’ensemble R.
R est l’ensemble des nombres réels. C’est l’ensemble des abscisses de tous les points d’une droite.
R contient Q . On a donc N ⊂ Z ⊂ Q ⊂ R.
• Dans R l’équation x2 = −1 n’a pas de solutions. Cette équation a deux solutions notées i et −i, ces solutions
sont des éléments de l’ensemble C .
C est l’ensemble des nombres complexes.
C’est l’ensemble des nombres de la forme x + yi avec x ∈ R et y ∈ R.
C contient R . On a donc N ⊂ Z ⊂ Q ⊂ R ⊂ C .

6
1.2 Les nombres complexes
1.2.1 Définition

Définition 2

• C contient l’ensemble des nombres réels.


• L’addition et la multiplication des nombres réels se prolongent aux nombres complexes et les règles de
calcul restent les mêmes.
• Il existe un nombre complexe noté i tel que i2 = −1.

Définition 3

• Tout nombre complexe z s’écrit de manière unique z = x + iy avec x et y réels.


• L’écriture z = x + iy avec x et y réels est appelée forme algébrique du nombre complexe z.
• x est la partie réelle de z, notée Re(z), y est la partie imaginaire de z notée Im(z).

Remarque
z = x + iy avec x et y réels :
Si y = 0, le nombre complexe est réel.
Si x = 0, le nombre complexe est dit imaginaire pur (z ∈ iR).

Exemple
Dans chacun des exemples suivants, on donne la partie réelle et la partie imaginaire :

• z = 2 + 3i Re(z) = 2 et Im(z) = 3

• z = −1 + 12 i Re(z) = −1 et Im(z) = 1
2

• z = −i Re(z) = 0 et Im(z) = −1

• z=π Re(z) = π et Im(z) = 0

• z = 4i − 1
3 Re(z) = − 13 et Im(z) = 4.

Théorème 4
Deux nombres complexes sont égaux si et seulement si ils ont la même partie réelle et la même partie imaginaire :

z = z′ ⇔ x + iy = x′ + iy ′ ⇔ x = x′ et y = y ′ .

z=0 ⇔ x + iy = 0 ⇔ x = 0 et y = 0.

Remarque
Cela signifie qu’un nombre complexe s’écrit de manière unique sous forme algèbrique.

7
1.3 Représentation graphique

Définition 5
Le repère (O; −

u,−

v ) est un repère orthonormal direct du plan.
1. A tout nombre complexe z = x + iy avec x et y réels, on associe le point M de coordonnées (x; y). On dit
−−→
que M est le point image de z et que OM est le vecteur image de z.
2. Tout point M (x; y) est le point image d’un seul nombre complexe z = x + iy.
−−→
On dit que z est l’affixe du point M et du vecteur OM .
3. Le plan est alors appelé plan complexe.
4. L’axe des abscisses (O; −

u ) est appelé axe des réels, l’axe des ordonnées (O; −

v ) est appelé axe des imagi-
naires purs.

1.4 Opérations sur les nombres complexes


1.4.1 Addition et multiplication

Théorème 6
Soit z = x + iy et z ′ = x′ + iy ′ (x, y, x′ et y ′ réels).
La somme de z et de z ′ est le complexe z + z ′ = (x + x′ ) + i(y + y ′ ). Le produit de z et de z ′ est z.z ′ =
(xx′ − yy ′ ) + i(xy ′ + x′ y). En effet z.z ′ = (x + iy)(x′ + iy ′ ) = xx′ + ixy ′ + ix′ y + i2 yy ′ = xx′ − yy ′ + i(xy ′ + x′ y).

Remarque
Les identités remarquables sont valables dans C.
On a alors pour tous z et z ′ complexes, z 2 + z ′2 = z 2 − i2 z ′2 = (z − iz ′ )(z + iz ′ ).

Exemple
Soient z = 2 + 3i et z ′ = i − 5.
Calculer z + z ′ , z − z ′ , 2z − 3z ′ , zz ′ et z 2 .
• z + z ′ = 2 + 3i + i − 5 = −3 + 4i,
• z − z ′ = 2 + 3i − (i − 5) = 2 + 3i − i + 5 = 7 + 2i,
• 2z − 3z ′ = 2(2 + 3i) − 3(i − 5) = 4 + 6i − 3i + 15 = 19 + 3i,
• zz ′ = (2 + 3i)(i − 5) = 2i − 10 + 3i2 − 15i = 2i − 10 − 3 − 15i = −13 − 13i,
• z 2 = (2 + 3i)2 = 22 + 2 × 2 × 3i + (3i)2 = 4 + 12i + 9i2 = 4 + 12i − 9 = −5 + 12i.

1.4.2 Inverse d’un nombre complexe non nul

8
Théorème 7
1
Tout nombre complexe non nul z, écrit sous forme algébrique z = x + iy, admet un inverse, noté z, et :
1 x−iy
z = x2 +y 2 .
(C, +, ×) est un corps commutatif.

Preuve
En effet, on remarque que pour tout nombre complexe non nul z = x + iy, (x + iy)(x − iy) = x2 − i2 y 2 = x2 + y 2 .
x−iy x − iy
On a alors z1 = x+iy
1
= (x+iy)(x−iy) = 2 .
x + y2

Exemple
Calculs d’inverses :
1 1−i 1−i 1 1
1. = = = − i.
1+i (1 + i)(1 − i) 2 2 2
1 2 + 3i 2 + 3i 2 3
2. = = = + i.
2 − 3i (2 − 3i)(2 + 3i) 13 13 13
2 2 × (−i) −2i
3. = = = −2i.
i i × (−i) 1
2+i (2 + i)(−3 − i) −6 − 2i − 3i + 1 −5 − 5i 1 1
4. = = = = − − i.
−3 + i (−3 + i)(−3 − i) 10 10 2 2

1.5 Nombre conjugué

Définition 8
Soit z un nombre complexe, z = x + iy.
Le nombre conjugué de z, noté z̄, est le nombre complexe x − iy.

Remarque
Interprétation géométrique Dans le plan complexe, le point M ′ d’affixe z̄ est l’image du point M d’affixe z par
la symétrie par rapport à l’axe des abscisses.

9
Théorème 9
Soit z un nombre complexe.
1. z est réel équivaut à z̄ = z.
2. z est imaginaire pur équivaut à z̄ = −z.

Preuve
On pose z = x + iy, avec x et y réels :
1. Si z est réel, alors y = 0, donc z = z̄. Si z = z̄, alors x + iy = x − iy, donc 2iy = 0 et on en déduit que
y = 0 ce qui signifie que z est réel.
2. Si z est imaginaire pur, alors x = 0, donc z = −z̄. Si z = −z̄, alors x + iy = −x + iy, donc 2x = 0 et
x = 0.
z est donc bien un imaginaire pur.

1.6 Nombre conjugué

Théorème 10
Soit z l’affixe d’un point M dans le plan complexe.
1. z̄ est l’affixe du symétrique de M par rapport à l’axe des abscisses.
2. −z est l’affixe du symétrique de M par rapport au point O.
3. −z̄ est l’affixe du symétrique de M par rapport à l’axe des ordonnées.

Théorème 11
Pour tous nombres complexes z et z ′ :
(1) z + z ′ = z + z ′ (2) z = z
 
1 1
(3) zz ′ = zz ′ (4) pour z 6= 0, =
z z
z z
(5) pour z ′ 6= 0, = (6) pour n ∈ Z, z n = z n .
z′ z′

Remarque
Pour tout nombre complexe z, on a les relations :
z + z̄ z − z̄
Re(z) = et Im(z) =
2 2i

Exemple
Soient z = 3 + 5i et z ′ = −2 + 3i.

• z + z ′ = (3 + 5i) + (−2 + 3i) = 1 + 8i.


• z × z ′ = (3 + 5i) × (−2 + 3i) = −6 + 9i − 10i + 15i2 = −6 − i − 15 = −21 − i.
• z = 3 − 5i, z ′ = −2 − 3i.
• z + z ′ = (3 − 5i) + (−2 − 3i) = 1 − 8i, z + z ′ = 1 − 8i.
• z × z ′ = (3 − 5i) × (−2 − 3i) = −6 − 9i + 10i + 15i2 = −6 + i − 15 = −21 + i.
• z × z ′ = −21 + i.

10
1.7 Module d’un nombre complexe

Définition 12
Soit z un nombre complexe, z = x + iy (x et y réels). Le module de z est le nombre réel positif noté |z| et défini
par p
|z| = x2 + y 2

Remarque
Interprétation géométrique : Dans le plan complexe, si M a pour affixe z, alors OM = |z|.

Exemple
Calcul du module de nombres complexes :
√ √ √
1. |3 + 4i| = 32 + 42 = 9 + 16 = 25 = 5.
p √ √
2. |1 − i| = 12 + (−1)2 = 1 + 1 = 2.
p √ √
3. |−5 − 2i| = (−5)2 + (−2)2 = 25 + 4 = 29.
4. |−5| = 5.
√ √
5. |9i| = 02 + 92 = 81 = 9.

Exemple
1. Si z est un nombre réel, le module de z correspond à la valeur absolue de z.
2. |z| = 0 équivaut à z = 0 car OM = 0 équivaut à O = M .
3. z z̄ = x2 + y 2 = |z|2 .

Théorème 13
Propriétés du module Pour tous nombres complexes z ∈ C et z ′ ∈ C :
1. |z| = |z|
2. | − z| = |z|
3. |z + z ′ | ≤ |z| + |z ′ | (inégalité triangulaire)
4. |zz ′ | = |z||z ′ |
z |z|
5. ′ = ′ , z ′ 6= 0
z |z |
6. ∀n ∈ Z, |z n | = |z|n (z 6= 0 si n ∈ −N)

11
1.8 Argument d’un nombre complexe non nul

Définition 14
Soit z un nombre complexe non nul d’image M , z = x + iy (x et y réels). Une mesure de l’argument de z est
−−→
un nombre réel noté arg(z) et défini par arg(z) = (−

u ; OM ) [ 2π].
• On note θ = arg(z),
 x

 cos θ = p ,
x2 + y2
• θ vérifie : y

 sin θ = p .
x2 + y 2

Exemple
Calcul d’un argument de nombres complexes :
 √

 2 2 2
 cos θ = √ 2 = √ =
π π
• z1 = 2 + 2i : 2 + 2 2 2 2 √2 ⇒θ= ⇒ arg(2 + 2i) = .

 2 2 2 4 4
 sin θ = √ = √ =
22 + 22 2 2 2

 1 1 1

 cos θ =q =√ =

 √ 2
√  12√+ 3
2 4
π √ π
• z2 = 1 + i 3 : √ √ ⇒θ= ⇒ arg(1 + 3i) = .

 3 3 3 3 3

 sin θ =q =√ =
 √ 2 4 2
12 + 3

Théorème 15
Pour tout nombre complexe z 6= 0 :
1. arg(z) = −arg(z)
2. arg(−z) = arg(z) + π
3. arg(zz ′ ) = arg(z) + arg(z ′ )
z
4. arg ′ = arg(z) − arg(z ′ )
z
5. ∀n ∈ Z, arg(z n ) = n × arg(z)

12
Exemple
D’après l’exemple précédent, on obtient :
π π 7π
• arg(z1 z2 ) = arg(z1 ) + arg(z2 ) = + = .
  4 3 12
1 π
• arg = − arg z1 = − .
z1 4
 
z1 π π π
• arg = arg z1 − arg z2 = − = − .
z2 4 3 12

1.9 Écriture trigonométrique


On se place dans un plan muni du repère (O; −

u;−

v ).

Définition 16
Tout nombre complexe non nul z peut-être écrit sous la forme z = r(cos θ + i sin θ) avec :
• arg(z) = θ ∈ R est l’argument de z
• |z| = r ∈ R+
∗ est le module de z
cette écriture s’appele la forme trigonométrique de z.

M (z)
y = r sin θ

p
r= x2 + y 2


v
θ

0 −

u x = r cos θ

Exemple
Passage de la forme algébrique à la forme trigonométrique :
 √

 |1 − i| = √ 2

 2 √ π √ h  π  π i
• z1 = 1 − i : cos θ = ⇒ r = 2 et θ = − ⇒ 1−i = 2 cos − + i sin − .

 √2 4 4 4

 sin θ 2
= −
2
 √

 3 + i = √2

 h π  π i
√ 3 π √
• z2 = 3 + i : cos θ = ⇒ r = 2 et θ = ⇒ 3 + i = 2 cos + i sin .

 2 6 6 6

 sin θ 1
=
2

Remarque
Dans certains cas, il est inutile de faire tous les calculs : la forme trigonométrique se ”voit” :
• 1 = cos 0 + i sin 0 donc |1| = 1 et arg(1) = 0.
π π π
• i = cos + i sin donc |i| = 1 et arg(i) = .
2 2 2

13
1.10 Forme exponentielle d’un nombre complexe non nul

Définition 17
Pour tout nombre complexe z 6= 0, de module r et d’argument de mesure θ, on pourra écrire :

z = r eiθ

Théorème 18
1. |eiθ | = 1
2. arg(eiθ ) = θ
′ ′
3. eiθ eiθ = ei(θ+θ )
eiθ ′
4. iθ′ = ei(θ−θ )
e
5. eiθ = e−iθ
n
6. ∀n ∈ Z, eiθ = einθ

Exemple
Différentes écritures des nombres complexes z1 et z2 :

Forme algébrique 1−i

Forme
√ h  π  π i
trigonométrique 2 cos − + i sin −
4 4

Forme
π
√ −i
exponentielle 2e 4

Exemple
Différentes écritures des nombres complexes z1 et z2 :


Forme algébrique 3+i

Forme h π  π i
trigonométrique 2 cos + i sin
6 6

Forme
π
i
exponentielle 2e 6

14
Exemple

i
Passage de la forme exponentielle à la forme algébrique de z = 4 e 4 :
    
3π 3π
• z = 4 cos + i sin
4 4
√ √ !
2 2
• z=4 − +i
2 2
√ √
• z = −2 2 + 2i 2.

Exemple
π π
i √ i
Soient z1 = 2 e 3 et z2 = 2 3 e 6 :
(π π) π
√ i + √ i
• z 1 z2 = 2 × 2 3 e 3 6 = 4 3 e 2 .
π 2iπ
4
√ 4 i4
• z2 = 2 3 e 6 = 144 e 3 .
√ (π π) π
z2 2 3 i − −i
• = e 6 3 = 2e 6 .
z1 2

1.11 Formule de MOIVRE


Théorème 19
n
Pour tout θ ∈ R et tout n ∈ N : (cos θ + i sin θ) = cos(nθ) + i sin(nθ).

Un peu d’histoire : Abraham de MOIVRE 1667-1754 est un mathématicien britanique d’origine française.

Exemple
Factorisation de cos(2θ) et sin(2θ) :
2
On a d’une part : (cos θ + i sin θ) = cos(2θ) + i sin(2θ) d’après la formule de MOIVRE,
2
et d’autre part : (cos θ + i sin θ) = cos2 θ + 2i cos θ sin θ − sin2 θ par développement,
d’où : cos(2θ) = cos2 θ − sin2 θ et sin(2θ) = 2 cos θ sin θ.

1.12 Formules d’EULER


Théorème 20
eiθ + e−iθ eiθ − e−iθ
Pour tout θ ∈ R : cos θ = et sin θ = .
2 2i

Un peu d’histoire : Leonhard EULER (1717 − 1783) était un mathématicien et physicien suisse.

Exemple
2
Linéarisation
 ix de sin x:
  
−ix 2
e −e e2ix − 2 eix e−ix + e−2ix 1 e2ix + e−2ix 1 − cos(2x)
2
sin x = = = 1− = .
2i −4 2 2 2

15
1.13 Résolution dans C d’équations du second degré à coefficients réels

Théorème 21
L’équation az 2 + bz + c = 0 (a, b et c réels, a 6= 0) admet des solutions dans C.

Soit ∆ = b2 − 4ac le discrimant du trinôme.


b
1. Si ∆ = 0 : une solution réelle égale à −
2a
2. Si ∆ 6= 0 : deux solutions distinctes :
√ √
−b − ∆ −b + ∆
• réelles si ∆ > 0 : et ;
2a 2a

• complexes conjuguées si ∆ < 0 :

√ √
−b −∆ −b −∆
+i et −i
2a 2a 2a 2a

Exemple
Résolution dans C de z 2 − 2z + 2 = 0 :
• ∆ = b2 − 4ac = −4 = (2i)2 .
• Le disciminant étant négatif, l’équation admet deux solutions complexes conjuguées :

−b + i −∆ 2 + 2i
• z1 = = = 1 + i,
2a 2

−b − i −∆ 2 − 2i
• z2 = = = 1 − i.
2a 2

1.14 Racines nèmes


Théorème 22
• On appelle racine carrée dans C de Z = A + Bi tout complexe z = x + iy (x et y réels) tel que z 2 = Z.
• Tout complexe non nul Z = A + iB (A et B réels) admet deux racines carrées complexes opposées. On
les obtient en résolvant dans R le système :
 2
 x − y2 = √ A
x 2 + y 2 = A2 + B 2

2xy =B

• Soit n ∈ N∗ . On appelle racine nème dans C d’un complexe Z = |Z| eiθ tout complexe z tel que z n = Z.
• Tout complexe Z non nul admet n racines nèmes dans C qui sont données par :
p θ 2kπ
zk = n |Z|ei( n + n ) où k = 0, 1, ..., n − 1

• Tout polynôme de degré n admet n racines complexes (comptées avec leur ordre de multiplicité).
On dit que C est algébriquement clos.

16
1.15 Exercices
Exercice 1
Mettre sous forme algébrique les nombres suivants :
3 + 6i
4. 2ei 3 × 3e−i 6
π 5π
1.
3 − 4i
 2 5. (1 + i)6
1+i 3 + 6i
2. + (1 + i)8
2−i 3 − 4i 6. √
3. (3 + 2i)(1 − 3i) 1−i 3

Exercice 2
√ √
Calculer le module et l’argument de u = 6−i
2
2
et v = 1 − i.
En déduire le module et l’argument de w = uv .

Exercice 3
Résoudre dans C :
1. 2z 2 − 6z + 5 = 0 4. z 3 + 1 = 0
2. z 2 + 3 = 0 5. z 4 − 1 = 0
3. z 2 + z + 1 = 0 1
6. z 4 − 2z 3 − z 2 − 2z + 1 = 0 (on pourra poser Z = z + )
z

Exercice 4
Déterminer la forme trigonométrique et exponentielle des nombres suivants :
√  π π
1. z = −3i 4. z = − 2 cos + i sin
√ 3 3
2. z = 1 − i √3  π π 6
1−i 3 5. z = cos + i sin
3. z = 8 8
1+i

Exercice 5

√ 3−i z1
Soit z1 = 2(1 + i) et z2 = . Soit Z = .
2 z2
1. Déterminer la forme algébrique de Z
2. (a) Déterminer une forme exponentielle de z1 et z2 .
(b) Déterminer une forme exponentielle de Z.
5π 5π
3. (a) En déduire la valeur exacte de cos et sin .
12 12
π π
(b) Déterminer alors cos et sin .
12 12

Exercice 6
4
Calculer de deux façons différentes le nombre eix (pour x ∈ R) et en déduire les expressions de cos 4x et
sin 4x en fonction de cos x et sin x.

Exercice 7
Soient a, b ∈ N. On suppose que a = x2 + y 2 et b = z 2 + t2 avec x, y, z, t ∈ Z.
Démontrer que le produit ab est encore la somme de deux carrés.

17
Chapitre 2

Systèmes d’équations linéaires-Matrices

Contenu
2.1 Résolution des systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.1 Notations et vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.2 Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.3 Matrices à lignes échelonnées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.1.4 Application aux sytèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Somme de deux matrices et produit d’une matrice par un réel . . . . . . . . . . . . . . . . . . 21
2.2.3 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.4 Opérations par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.5 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.6 Inversion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

18
2.1 Résolution des systèmes linéaires
2.1.1 Notations et vocabulaire
Soit un système de m équations à n inconnues x1 , x2 , ..., xn :


 a11 x1 + ... + a1n xn = b1
..
 .

am1 x1 + ...amn xn = bm

où les coefficients aij et bj pour i entre 1 et m et j entre 1 et m sont des réels ou des complexes (des scalaires). Résoudre
ce système consiste à trouver tous les réels (ou tous les complexes) x1 , ..., xn (s’il en existe), tels que les égalités soient
vérifiées.
On dira que ce système comporte m lignes, notées L1 , ..., Lm . Une ligne dont tous les éléments sont nuls sera dite
nulle. On associe également à ce système des matrices :
 
a11 · · · a1n
 ..  à m lignes et n colonnes, la matrice du système.
• une matrice A =  ... ..
. . 
am1 · · · amn
 
a11 · · · a1n b1
 ..  à m lignes et n + 1 colonnes, la matrice complète du système. La
• une matrice B =  ... ..
.
..
. . 
am1 · · · amn bm
 
b1
 .. 
colonne  .  s’appelle le second membre du système.
bm

2.1.2 Opérations élémentaires


On utilise trois types d’opérations, dites élémentaires, pour résoudre ce problème :
• Remplacer une ligne du système par la somme de celle-ci et du mutiple d’une autre ligne.
• Echanger deux lignes ou deux colonnes du système.
• Multiplier une ligne par un scalaire non nul.
Il est à peu près évident que par ces opérations élémentaires, on transforme un système en un système équivalent,
c’est à dire ayant les mêmes solutions. Ces opérations se font indifféremment sur les lignes du système ou sur les lignes
de la matrice complète du système.

2.1.3 Matrices à lignes échelonnées

Théorème 23
Par une suite d’opérations élémentaires, on peut transformer toute matrice en une matrice possédant la propriété
suivante : le nombre de coefficients nuls au début de chaque ligne augmente à chaque ligne, l’augmentation étant
stricte pour les lignes qui suivent une ligne non nulle.

Une matrice possédant la propriété ci-dessus sera dite à lignes échelonnées. Le premier élément non nul d’une
ligne non nulle de cette matrice est appelé pivot.

Exemples :
 
0 1 3 5 2 8
0 0 2 6 8 9
 
• la matrice A = 
0 0 0 0 0 1 est à lignes échelonnées.
0 0 0 0 0 0
0 0 0 0 0 0
 
0 1 1 3
0 0 2 3
• la matrice B = 
0
 n’est pas à lignes échelonnées.
0 3 5
0 0 0 2

19
Preuve
Soit A = (aij ) une matrice à m lignes et n colonnes. Si la matrice est nulle, elle est à lignes échelonnées. Sinon,
il existe une première colonne non nulle. Soit l l’indice de cette colonne. On choisit alors un élément akl non
ail
nul dans cette colonne. Pour i 6= k, on remplace Li par Li − Lk . Le premier terme de chaque nouvelle ligne
akl
Li , i 6= k est donc nul. On échange alors la ligne 1 et la ligne k et on a alors une matrice A′ du type :

 
0 · · · 0 akl ∗ ∗
 . .. . .
0 .. . 0 .. .. 

A = . 
.. .. .. .. .. 
 .. . . . . .
0 ··· 0 0 ∗ ∗

On recommence alors avec la matrice A” obtenue en supprimant la première ligne , les premières colonnes nulles
et la première colonne non nulle de A′ . On arrive ainsi à une matrice à lignes échelonnées.
La matrice ainsi obtenue n’est pas unique, puisqu’on peut choisir à chaque étape le pivot non nul dans la
colonne.

Théorème 24
On peut, par une suite d’opérations élémentaires, transformer une matrice A en une matrice à lignes échelonnées
dont les pivots valent 1 et dans laquelle tous les coefficients situés au-dessus de chaque pivot sont nuls. Une
telle matrice sera appelée une réduite de Gauss-Jordan. On peut montrer qu’une telle réduite est unique.

Preuve
À partir d’une matrice A, on construit une matrice à lignes échelonnées, puis en divisant chaque ligne non nulle
par son pivot, on obtient une matrice à lignes échelonnées dont les pivots valent 1. Il suffit alors d’utiliser la
technique du théorème précédent pour annuler les coefficients au dessus des pivots.

2.1.4 Application aux sytèmes




 a11 x1 + ... + a1n xn = b1
Soit le système .. . Par une suite d’opérations élémentaires sur la matrice complète du
 .

am1 x1 + ...amn xn = bm
système (ou, ce qui revient au même, sur les lignes du système), on transforme le système en un système équivalent
dont la matrice complète est à lignes échelonnées. Les lignes nulles de ce système correspondent à des équations :

0x1 + ... + 0xn = 0

On peut donc les ignorer. Soit r le nombre de lignes non nulles et p1 , ..., pr les pivots.
• Si le dernier pivot pr est dans la dernière colonne (la (n + 1)ème ), alors la dernière ligne non nulle du système
est :
0x1 + ... + 0xn = pr
Le sytème n’admet pas de solution.
• Si le dernier pivot n’est pas dans la dernière colonne, appelons j1 , ..., jr les indices des colonnes des pivots, de
sorte que :
1 ≤ j1 < j2 < ... < jr ≤ n
et que la matrice complète soit de la forme :
 
0 ··· 0 p1 ∗ ··· ∗ 0 ∗ ··· ∗ 0 0 ∗
 .. 
0 ··· ··· 0 0 ··· 0 p2 ∗ ··· ∗ 0 . ∗
 
 .. .. 
0 ··· ··· ··· ··· ··· ··· 0 0 ··· 0 p3 . .
 
 .. 
 0 .
0 ··· 0 0 ··· ··· ··· 0 ··· ··· ··· 0 0 ··· 0 pr ∗ ··· ∗
En faisant passer dans le membre de droite les variables d’indices différents de j1 , ..., jr , et en divisant par
p1 , ..., pr , on peut exprimer les variables d’indices j1 , ...jr en fonction des autres. Le système admet des solutions.
En particulier, si r = n, il n’admet qu’une solution, et si r < n, il en admet une infinité.

20
2.2 Matrices
2.2.1 Notations
K désigne le corps des réels ou celui des complexes (les scalaires).
On note M(m,n) (K) l’ensemble des matrices à m lignes et n colonnes à coefficients dans K. Si m = n, on notera
seulement Mn (K), et les matrices sont dites carrées.
Un matrice A de M(m,n) (K) est notée A = (aij )1≤i≤m ou (aij ).
1≤j≤n
Deux matrices A = (aij )1≤i≤m et B = (bij )1≤i≤m sont égales ssi aij = bij pour tout i et tout j.
1≤j≤n 1≤j≤n
Une matrice à une ligne sera appelée matrice ligne et matrice colonne si elle a une seule colonne.
La matrice nulle (notée 0) est la matrice dont tous
 les coefficients sont nuls, et la matrice identité d’ordre n, notée
1 si i = j
In , est la matrice carrée In = (δij ) où δij = est le symbole de Kronecker.
1≤i≤n 0 si i 6= j
1≤j≤n

2.2.2 Somme de deux matrices et produit d’une matrice par un réel

Définition 25
Soit A = (aij )1≤i≤m et B = (bij )1≤i≤m deux éléments de M(m,n) (K) et soit α un scalaire. On définit :
1≤j≤n 1≤j≤n

• La somme de A et de B par : A + B = (aij + bij )1≤i≤m ∈ M(m,n) (K)


1≤j≤n
• Le produit du scalaire α et de la matrice A par : αA = (αaij )1≤i≤m ∈ M(m,n) (K).
1≤j≤n

Proposition 26
L’ensemble M(m,n) (K), muni de ces deux opérations, a une structure de K-espace vectoriel, c’est à dire :


 A+B =B+A

(A + B) + C = A + (B + C)
• ∀A, B, C ∈ M(m,n) (K) :

 A+0=0+A=A

∃A′ ∈ M(m,n) (K) tel que A + A′ = A′ + A = 0


 α (A + B) = αA + αB

(α + β) A = αA + βA
• ∀A, B ∈ M(m,n) (K) , ∀α, β ∈ K :

 1A = A

(αβ) A = α (βA)

Tout se démontre sans difficulté : il suffit de l’écrire.

2.2.3 Produit de deux matrices

Définition 27
Soit A = (aij )1≤i≤m ∈ M(m,n) (K) une matrice à m lignes et n colonnes et B = (bij )1≤i≤n ∈ M(n,p) (K) une
1≤j≤n 1≤j≤p
matrice à n lignes et p colonnes. On définit le produit AB par :

X
n
AB ∈ M(m,p) (K) et AB = (cij )1≤i≤m où cij = aik bkj
1≤j≤p
k=1

Proposition 28
Soit A, B, C trois matrices et α un élément de K. A condition que les produits aient un sens, on a :
• A (BC) = (AB) C
• A(B + C) = AB + AC
• (A + B) C = AC + BC
• α (AB) = (αA) B = A (αB)

21
Remarque


 a11 x1 + ... + a1n xn = b1
Un système .. peut alors s’écrire AX = B où A = (aij )1≤i≤m est la matrice du
 .
 1≤j≤n
a x1 + ...amn xn = bm
 m1   
x1 b1
 ..   .. 
système, X =  .  est un élément de M(n,1) (K) et B =  .  appartient à M(m,1) (K).
xn bm

2.2.4 Opérations par blocs


Soit A ∈ M(m,n) (K).On écrit m = m1 + ... + mr et n = n1 + ... + ns . On peut alors considérer A comme une matrice
de format (r, s) dont les éléments sont eux mêmes des matrices de format (mi , nj ) que l’on appelle blocs.
Par exemple :  
1 3 5
A = 4 5 1
1 0 1

 de4 blocs : A11 = (1) ∈ M(1,1) (K) , A12 =
peut être considérée comme composée 3 5 ∈ M(1,2) (K) ,
 
4 5 1
A21 = ∈ M(2,1) (K) et A22 = ∈ M(2,2) (K) . On utilisera en particulier la décomposition par lignes :
1 0 1
   
a11 ··· a1n a1∗
 .. .. ..  =  ..  où a = a 
A= . . .   .  i∗ i1 ··· ain
am1 ··· amn am∗

ou la décomposition par colonnes :


   
a11 ··· a1n a1j
 .. ..  = a   
A= . ..
. .  ∗1 ··· a∗n où a∗j =  ... 
am1 ··· amn amj

Proposition 29
Le résultat des opérations sur des matrices décomposées en blocs s’obtiennent par les mêmes formules que pour
les opérations habituelles sur les éléments des matrices (à condition que les opérations sur les blocs aient un
sens).

La démonstration n’est pas très difficile, et c’est un bon exercice de manipulation des indices.

2.2.5 Transposition

Définition 30
Soit A = (aij )1≤i≤m une matice de M(m,n) (K). On appelle transposée de A ,et on note t A (ou A′ en économie)
1≤j≤n
la matrice définie par :
t
A = (a′ij ) 1≤i≤n ∈ M(n,m) (K) où a′ij = aji
1≤j≤m

Proposition 31
Pour toutes matrices A et B de M(m,n) (K) et tous scalaires α et β :
•t (t A) = A
•t (αA + βB) = αt A + β t B
•Si A ∈ M(m,n) (K) et B ∈ M(n,p) (K) alors t (AB) = t (B) t (A) .

22
2.2.6 Inversion

Définition 32
Une matrice A de M(m,n) (K) est dite inversible à gauche (resp.à droite) s’il existe une matrice B de M(n,m) (K)
(resp. C de M(n,m) (K)) telle que BA = In (resp. AC = Im ).
B (resp. C) est appelée inverse à gauche (resp. inverse à droite).

Remarque
B et C ne sont pas nécessairement uniques.

Proposition 33
Une matrice qui est inversible à droite et à gauche admet un unique inverse à gauche, qui est aussi son unique
inverse à droite. On dit alors que la matrice est inversible.

Remarque
On verra qu’une matrice inversible est nécessairement carrée.

Preuve
Soit A ∈ M(m,n) (K). On suppose qu’il existe B ∈ M(n,m) (K) et C ∈ M(n,m) (K) etlles que :

BA = In et AC = Im

En multipliant à droite la première égalité par C et à gauche la deuxième par B, il vient que :

BAC = C et BAC = B

d’où B = C et tout inverse à gauche est égal à tout inverse à droite. Il y a bien unicité.

Proposition 34
Soit A et B ∈ Mn (K) deux matrices carrées d’ordre n, que l’on suppose inversibles. Alors :
−1
• A−1 =A
−1
•AB est inversible et (AB) = B −1 A−1
−1 
•Si A est inversible, alors t A aussi et (t A) =t A−1 .

23
2.3 Exercices
Exercice 8
Résoudre les systèmes à inconnues réelles :
 
 2x + 6y − z = −3  x + 2y + 3z − 2t = 1 
x + 3y − z = 0
x−y+z =2 x+y−z−t=0
  2x + 5y + 3z = 5
−x − 3y + 3z = 9 x + 3y + 7z − 3t = 2

Exercice 9
Résoudre dans R les systèmes suivants où m est un paramètre réel :
 
 3x + 4y − 7z = −29  x − y − 2z = 6
x+y+z =4 3x + my + z = m
 
mx + y + z = m + 3 2x + y − z = 6

Exercice 10
On donne le système : 
 x + y − 3z + t = 8
2x − 3y − 4z + t = 7

3x − 2y + mz + 2t = p
où m et p sont des paramètres réels.
1. En utilisant la méthode du pivot de Gauss, discuter de l’existence et du nombre de solutions du système
en fonction des valeurs des paramètres m et p (on ne demande pas de calculer les solutions quand elles
existent).
2. Résoudre ce système dans le cas où m = 1 et p = −1.

Exercice 11
 
3 −1 1
On donne la matrice A = −1 3 −1
1 −1 2
1. En utilisant la méthode de Gauss-Jordan, montrer que A est inversible et calculer A−1 .
2. En déduire la résolution du système :

 3x − y + z = 1
−x + 3y − z = −1

x − y + 2z = 3

Exercice 12
On donne le système : 
 x+y+z =6
2x − y + 3z = 7

4x + 2y − z = 4
1. Résoudre ce système par la méthode du pivot.
2. Ecrire ce système sous forme matricielle. Montrer, par la méthode de Gauss-Jordan, que la matrice de ce
système est inversible et calculer son inverse. Retrouver alors les résultats du 1..

24
Exercice 13
 
1 −a 0 0
0 1 −b 0
Soient a, b, c trois réels. On considère la matrice A = 
0
.
0 1 −c
0 0 0 1
Montrer que A est inversible et calculer A−1 .

Exercice 14
Considérons le système linéaire suivant (Sm ), où m est un paramètre réel :

 2x + my + z = 1
(Sm ) x + 3y + (m + 2) z = −2

4x + (2m + 1) y + 3z = 2

1. En utilisant la méthode de Gauss, transformer le système Sm en un système triangulaire équivalent.


2. Discuter suivant les valeurs du paramètre m de l’existence, de la nature et de la valeur des solutions.
3. On pose m = 1.
(a) Ecrire le système (S1 ) sous forme matricielle A.X = Y où A, X et Y sont trois matrices que vous
expliciterez.
(b) Montrer que la matrice A n’est pas inversible.

Exercice 15
On considère le système : 
 x +y +z =1
(b + c)x +(c + a)y +(a + b)z =4

bcx +acy +abz =5
où a, b, c sont 3 paramètres réels.

Partie 1 Dans cette partie, on prend a = 3, b = 1 et c = 2


1. Résoudre le système par la méthode du pivot.
 
1 1 1
2. Montrer que la matrice A =  3 5 4  est inversible et calculer son inverse A−1 . Retrouver les
2 6 3
résultats du 1. en utilisant A−1 .

Partie 2 a, b, c sont maintenant des paramètres réels quelconques.


1. Mettre la matrice complète du système sous forme triangulaire supérieure.
2. Combien y a-t-il de solutions si a, b et c sont deux à deux distincts (on ne demande pas de les calculer) ?
3. Que se passe-t-il si a = c ou b = c ?

Exercice 16
Trouver les solutions réelles des systèmes suivants, en utilisant exclusivement la méthode du pivot :

 x − y + 2z = 1  

  x + 2y − 3z = 0  3x1 + 2x2 + x3 − x4 − x5 = 0
2x + y − z = 0
−x + y + z = 0 x1 − x2 − x3 − x4 + 2x5 = 0

 3x +z =1  
 4x − 2y + z = 0 −x1 + 2x2 + x3 + x4 − x5 = 0
5x + y =1

25
Exercice 17
Trouver les solutions complexes du système :

 x + iy + (1 + i)z − t = 1
x+ y =0

(1 + i)x + (1 − i)z − it = 1

Exercice 18
Discuter, en fonction du réel k, du nombre de solutions réelles du système :

 kx + y + z = 1
x + ky + z = 1

x + y + kz = 1

Même question si l’on cherche les solutions complexes, k étant lui même complexe.

Exercice 19
Résoudre le système suivant en fonction du paramètre k :

 x − 3y + z = −3
−2x + 3ky + z = 3k

−x + 3y − kz = k + 1

Exercice 20
On donne le système : 
 x + y − 3z + t = 8
2x − 3y − 4z + t = 7

3x − 2y + mz + 2t = p
où m et p sont des paramètres réels.
En utilisant la méthode du pivot de Gauss, discuter de l’existence et du nombre de solutions du système en
fonction des valeurs des paramètres m et p.

Exercice 21
 
1 2 3
1. On donne la matrice A =  −1 −1 −3 . Par la méthode de Gauss-Jordan, montrer que A est
1 1 1
inversible et calculer
 son inverse. 
1 2 3
2. On donne B =  −1 −a −3  . En utilisant la méthode de Gauss-Jordan, dire pour quelles valeurs
1 a 1
de a la matrice B est inversible.

Exercice 22
Effectuer les calculs suivants :
   
0 1 2 3  
  1
1 2 3 4 5  0   2 4 6 
     0 
 2 4 6 8 10   1  ; 0 0 1 0 0  3 6 9  ; 0 1 0 1  
     1 
3 6 9 12 15  0   4 8 12 
0
0 5 10 15

26
Exercice 23
Soit A ∈ Mn (K) et D = αIn . Montrer que AD = DA.

Exercice 24
Soit D une matrice diagonale de Mn (K). Calculer Dp , pour tout p de Z. (On rappelle que si A est une matrice
−p
inversible, et si p est un entier strictement négatif, on pose Ap = A−1 )

Exercice 25
Soit A ∈ M(m,s) (K) et B ∈ M(s,n) (K). Prouver que :
 
a1∗ B
  
 a2∗ B 
AB = Ab∗1 Ab∗2 ··· Ab∗n =  . 
 .. 
am∗ B

où b∗i (respectivement aj∗ ) sont les colonnes de B (respectivement les lignes de A).

Exercice 26
Soit trois matrices carrées A, B, C de taille n telles que B soit inversible et A = BCB −1 . Montrer alors que
pour tout entier naturel p, Ap = BC p B −1 . Si on suppose A inversible, montrer que C est également inversible
et que l’égalité est aussi valable pour tout entier relatif. Quel est l’intérêt de cette égalité si C est diagonale ?

Exercice 27
Calculer An pour n entier positif pour :
   
  1 0 0 0 1 0
0 −1
A= ; A= 0 2 0  ; A= 0 0 1 
−1 0
0 0 3 0 0 0

Exercice 28
   
1 2 1 0 2
On considère les matrices A = et B = . Calculer (A + B) et A2 + B 2 + 2AB.
0 3 2 −1
Que remarquez-vous ? Généralisez.

Exercice 29
Trouver une condition nécessaire et suffisante pour que le produit de deux matrices symétriques soit une matrice
symétrique.

27
Exercice 30
Soit In la matrice unité de Mn (K). On appelle matrice élémentaire d’ordre n toute matrice obtenue en faisant
subir à In l’une des trois opérations élémentaires suivantes (voir cours) :
• (I) : remplacer la ligne Li par Li + λLj où λ ∈ K et i 6= j
• (II) : échanger les lignes i et j
• (III) : Multiplier Li par λ (λ ∈ K∗ )
1. Vérifier que les matrices élémentaires sont du type :
 
1 0 ··· 0
 .
0 . . . . . . .. 
EI = . .
 (λ se trouve à la ième ligne et à la jème colonne)

 .. λ . . . .. 
0 ··· ··· 1
 
1 0 ··· ··· ··· ··· ··· ··· ··· ··· 0
 .. .. .. 
0 . . .
 
 .. .. .. 
. . 1 0 .
 
0 ··· ··· 0 0 ··· 0 1 0 ··· 0
 
 .. .. .. 
. 0 1 . .
 
 ..  (où les deux 1 qui ne sont pas sur la diagonale
EII =  ... ..
.
..
.
..
. .
 
. .. .. 
 .. . 1 .
 
0 ··· 0 1 0 ··· 0 0 ··· ··· 0
 
. .. 
 .. .
 0 1 
. .. .. 
 .. . . 0
0 0 1
sont les éléments (i, j) et (j, i) de la matrice.
 
1 0 ··· ··· 0
 .. .. 
0 . .
 
 .. 
. 1 
 
EIII =  λ 
 
 .. 
 1 .
 
. .. 
 .. . 0
0 ··· ··· 0 1
où λ est à la ligne i.

2. Soit A ∈ M(m,n) (K). Montrer que si l’on multiplie à gauche A par une matrice élémentaire du type
(I) , (II) ou (III), on fait subir à A une opération élémentaire du même type. (On aura peut-être intérêt
à décomposer A en blocs lignes)
3. En déduire que les matrices EI , EII et EIII sont inversibles et que :
 
1 0 ··· ··· 0
 . .. 
  0 . . .
1 0 ··· 0  
 .. 
 .. .. ..  . 1 
 0 . . .   
−1   −1 −1  
EI =  .
. .  , EII = EII et EIII =  1/λ 
 .. −λ . . ..   .. 
 1 .
0 ··· ··· 1  
. .. 
 .. . 0
0 ··· ··· 0 1

4. Soit A ∈ M(m,n) (K) et U une réduite de Gauss-Jordan de A. Montrer qu’il existe une suite de matrices
élémentaires E1 , E2 , ...Er telle que :
A = E1 E2 ...Er U

28
Chapitre 3

Notions sur les équations de récurrence linéaire à


coefficients constants

Contenu
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.1.2 Propriété fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.2 Cas de l’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3 Cas de l’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.1 Résolution de l’équation homogène (EH) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3.2 Solutions particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4 Notion de stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
3.4.2 Un premier résultat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

29
3.1 Généralités
3.1.1 Définitions

Définition 35
On appelle équation de récurrence linéaire d’ordre 1 à coefficients constants toute équation du type :

ut+1 + aut = f (t)

où a ∈ R∗ et f est une fonction à valeurs dans R. Résoudre cette équation, c’est trouver toutes les suites réelles
(ut )t∈N dont les termes vérifient l’égalité pour tout indice t.

Exemple
ut+1 = aut avec a ∈ R∗ : on sait que les suites qui vérifient cette équation sont par définition les suites
géométriques de raison a, et elles s’écrivent : ut = u0 at pour tout t entier.

Définition 36
On appelle équation de récurrence linéaire d’ordre 2 toute équation du type :

ut+2 + aut+1 + but = f (t)

où b ∈ R∗ et f est une fonction à valeurs dans R.

On définirait de la même façon des équations de récurrence linéaire d’ordre n quelconque.

Définition 37
Si on a une équation de récurrence linéaire d’ordre quelconque, l’équation obtenue en supprimant le terme f (t)
s’appelle l’équation homogène associée.

Proposition 38
(Dépendance des conditions initiales) Soit α0 , α1 , ..., αn≥1 n réels. Il existe une unique solution u telle que
ui = αi pour i = 0, 1, ..., n − 1.

Une solution (c’est à dire une suite (ut )) s’appelle parfois une trajectoire.

Proposition 39
Les solutions d’une équation linéaire homogène d’ordre n forment un R−espace vectoriel de dimension n.

3.1.2 Propriété fondamentale

Proposition 40
On obtient toutes les solutions d’une équation de récurrence linéaire en ajoutant la solution générale de l’équation
homogène associée à une solution particulière de l’équation complète.

30
3.2 Cas de l’ordre 1
Proposition 41
Soit
ut+1 = aut + f (t)
une équation d’ordre 1. La solution de l’équation homogène associée est donnée par :

ut = λat où λ ∈ R

C’est l’exemple du premier paragraphe.


Il reste à trouver une solution particulière de l’équation complète. On a les résultats suivants :

Proposition 42
Quand le second membre f (t) est une constante b :
• Si a = 1, il existe une solution particulière qui est bt.
Les suites solutions sont donc de la forme :

ut = λ + bt

b
• Si a 6= 1, il existe une solution qui est la suite constante .
1−a
Les suites solutions sont donc données par :
b
ut = λat +
1−a

Proposition 43
Quand le second membre f (t) est de la forme rt P (t) où r ∈ R et P est un polynôme :
• si r 6= a, il existe une solution particulière qui est rt Q(t), où Q est un polynôme de même degré que P .
Les suites solutions sont donc données par :

ut = λat + rt Q(t)

• Si r = a, il existe une solution particulière qui est rt tQ(t), où Q est un polynôme de même degré que P .
Les suites solutions sont donc données par :

ut = λat + rt tQ(t)

3.3 Cas de l’ordre 2


Les choses deviennent plus compliquées. Considérons une équation :

(E) : ut+2 = aut+1 + but + f (t)

b 6= 0 et f que l’on appelle le second membre. L’équation homogène associée est l’équation :

(EH) : ut+2 = aut+1 + but

3.3.1 Résolution de l’équation homogène (EH)

Définition 44
On appelle équation caractéristique associée à (EH) ou à (E) l’équation d’inconnue r ∈ R définie par :

r2 = ar + b ⇐⇒ r2 − ar − b = 0

31
Proposition 45
Soit r2 − ar − b = 0 l’équation caractéristique associée à (EH). Alors :
• Si l’équation caractéristique a deux racines distinctes r1 et r2 dans R, les solutions de (EH) sont les suites
données par :

ut = λ1 r1t + λ2 r2t où λ1 et λ2 sont deux éléments de R quelconques.

• Si l’équation caractéristique a une solution double r1 dans R, les solutions de (EH) sont les suites données
par :
ut = (λ1 t + λ2 ) r1t où λ1 et λ2 sont deux éléments de R quelconques.

Cette proposition règle le problème dans le cas où l’équation caractéristique admet des racines réelles. Mais si son
discriminant est strictement négatif, elle n’admet aucune racine réelle mais deux racines complexes conjuguées z1 et
z1 . On montre qu’alors, les suites réelles solutions de (EH) sont les suites données par :

ut = λ1 Re(z1t ) + λ2 Im(z1t ) où λ1 et λ2 sont deux réels quelconques


t t t
On rappelle que si z1 = |z1 | eiθ , alors z1t = |z1 | eitθ et Re(z1t ) = |z1 | cos tθ et Im (z1t ) = |z1 | sin tθ de telle sorte que :

Proposition 46
Si l’équation caractéristique a des solutions complexes, les solutions de (EH) sont les suites données par :
t
ut = |z1 | (λ1 cos tθ + λ2 sin tθ)

3.3.2 Solutions particulières

Proposition 47
Soit (1) : ut+2 = aut+1 + but + f (t) une équation de récurrence linéaire d’ordre 2. On suppose que le
second membre f (t) est de la forme f (t) = rt P (t) où r ∈ R et P est un polynôme. L’équation (1) admet alors
une solution (vt ) qui est de la forme :
• vt = rt Q(t) si r n’est pas solution de l’équation caractéristique
• vt = trt Q(t) si r est racine simple de l’équation caractéristique
• vt = t2 rt Q(t) si r est racine double de l’équation caractéristique
avec, dans tous les cas, Q qui est un polynôme de même degré que P .

3.4 Notion de stabilité


3.4.1 Définitions

Définition 48
Soit (1) : ut+n = an−1 ut+n−1 + an−2 ut+n−2 + .... + a0 ut + f (t) une équation de récurrence linéaire à coefficients
constants d’ordre n. On appelle équilibre toute suite stationnaire solution de (1).

Il est clair qu’il ne peut y avoir d’équilibre que si f est une fonction constante. Supposons que f (t) = c une
constante. Un équilibre xe est alors solution de :

xe = an−1 xe + .... + a0 xe + c ⇔ xe (1 − an−1 − ... − a0 ) = c

Plusieurs cas se présentent :


• Si (1 − an−1 − ... − a0 ) 6= 0, il existe un seul équilibre xe = c/(1 − an−1 − ... − a0 )
• Si (1 − an−1 − ... − a0 ) = 0, deux cas possibles :
— Si c = 0, tout réel est un équilibre
— Si c 6= 0, il n’y a pas d’équilibre.

32
Définition 49
On dit que le processus décrit par l’équation est globalement stable si toutes les trajectoires sont convergentes.
Si toutes les trajectoires convergent vers le même équilibre (ce qui implique qu’il est le seul équilibre), on
dit que l’équilibre est globalement stable.
Si xe est un équilibre, on définit l’ensemble de stabilité de xe comme étant le sous ensemble Sxe de Rn formé
des conditions initiales pour lesquelles les trajectoires convergent vers xe .

3.4.2 Un premier résultat

Proposition 50
Soit z un complexe, t ∈ N et θ un réel. Alors les z t , tk z t et |z| tk cos θt convergent vers 0 ssi |z| < 1.

La preuve est facile.

Proposition 51
Soit xt+2 = axt+1 + bxt une équation de récurrence linéaire d’ordre 1 ou 2 (1 si b = 0). Alors l’équilibre est
globalement stable ssi toutes les racines de l’équation caractéristique sont de module strictement inférieur à 1.

Pour le prouver, il suffit d’écrire les solutions de l’équation et d’appliquer le résultat précédent.
On a parfois (souvent) besoin de pouvoir dire si les modules des racines d’une équation sont strictement inférieurs
à un sans les calculer. Le résultat suivant le permet (il sera généralisé).

Proposition 52
Soit P (λ) = λ2 + aλ + b un polynôme du second degré à coefficients réels. Alors les modules de ses racines
(réelles ou complexes) sont strictement inférieurs à 1 ssi P (1) > 0, P (−1) > 0 et |b| < 1.

Preuve
• Condition nécessaire : soit α et β les deux racines (éventuellement complexes) de P et supposons que
|α| < 1 et |β| < 1. Comme b = αβ, on a |b| = |αβ| = |α| |β| < 1. Si α et β sont complexes (conjuguées), P
est toujours du signe du coefficient de λ2 c’est à dire positif. Si α et β sont réels, on a alors −1 < α < 1
et −1 < β < 1 ce qui prouve que −1 et 1 sont à l’extérieur des racines, et donc P (1) > 0 et P (−1) > 0.
• Condition suffisante : On a donc P (1) > 0, P (−1) > 0 et |b| < 1. Si les deux racines α et β sont complexes,
2 2
elles sont conjuguées et leur produit est égal au carré de leur module. On a donc |α| = |β| < 1. Si les
deux racines sont réelles, la condition P (1) > 0, P (−1) > 0 dit que −1 et 1 sont à l’extérieur des racines.
Mais on ne peut avoir ni −1 < 1 < α ≤ β ni α ≤ β < −1 < 1 car dans ces deux cas, αβ = b > 1. On a
donc α et β strictement compris entre −1 et 1.

33
3.5 Exercices
Exercice 31
Résoudre les équations de récurrence suivantes en exprimant les solutions en fonction du premier terme u0 :
1. ut − 4ut−1 = 3 avec u0 = 0, puis u0 = −1 et vt = b.
 t  t
3 3
2. 4ut − 3ut−1 = 12 avec u0 = 1 et vt = bt .
4 4
 t  t
1 1
3. 3ut + 2ut−1 = 10 + 14 avec u0 = 2 et vt = b et wt = c .
2 2
4. ut − ut−1 = 4t + 3 avec u0 = 1 et vt = t(at + b).

Exercice 32
Résoudre les équations de récurrence suivantes, en exprimant les solutions en fonction de u0 :
1. ut+1 = 3ut + 4 u0 = 1 puis u0 = −2 avec vt = b
 t  t
2 2
2. 3ut − 2ut−1 =3 u0 = 1 avec vt = bt
3 3
 t

2 t 2
3. ut+1 + 35 ut = 6 + 19 3 u0 = 14 avec vt = b et wt = b
3
4. ut − ut−1 = 2t + 1 u0 = 1 avec vt = t(at + b)

Exercice 33
Résoudre les équations de récurrence suivantes en exprimant les solutions en fonction des deux premiers termes
u0 et u1 :
1. 6 ut+2 − 5 ut+1 + ut = −2t − 3 (u0 = 0, u1 = −1) avec vt = at + b.
2. 4 ut+2 − 12 ut+1 + 9 ut = 2t (u0 = 0, u1 = 1) avec vt = b × 2t .
3. ut+2 − 1/2 ut+1 + 1/4ut = 3t2 + 9t + 17 (u0 = 16, u1 = 13) avec vt = at2 + bt + c.
4. 4ut+2 − 9ut = 36 × 3t (u0 = −1, u1 = 1) avec vt = b × 3t .

Exercice 34
Résoudre les équations de récurrence suivantes en exprimant les solutions en fonction des deux premiers termes
u0 et u1 :
t t
1. 2ut+2 + 3ut+1 + ut = 2 − 12 + 3.2t u0 = 0 u1 = 1 avec vt = bt − 12 et wt = b2t
2. ut+2 − 2ut+1 + 4ut = 2t − 1 u0 = 0 u1 = 3 avec vt = at + b
3. ut+2 − 2ut+1 + ut = t + 1 u0 = 1 u1 = 2 avec vt = t2 (at + b)
t
4. ut+2 + ut+1 − 2ut = 6 + 3. (−2) u0 = 1 u1 = 2 avec vt = bt et wt = bt(−2)t

Exercice 35
On considère le modèle d’évolution d’un taux de change st donné par :
st+2 − cαst+1 + cαst = s
où 0 < c < 1, α > 0, s > 0 sont des constantes.
1. Montrer qu’il existe un unique équilibre.
2. Ecrire les solutions de cette équation de récurrence linéaire selon les valeurs de c et de α (on pourra
remarquer que le signe de c2 α2 − 4cα est celui de cα − 4).
3. Montrer que l’équilibre est stable ssi cα < 1.
4. Préciser la dynamique selon les valeurs de c et de α.

34
Exercice 36
Ct désigne la consommation durant la période t, Yt le revenu durant cette période et It l’investissement pendant
cette période. On suppose que : 
Ct = 0.8Yt−1
It = 0.6 (Ct − Ct−1 ) + I
où I est une constante (investissement autonome).
1. En utilisant la relation Yt = Ct + It , montrer que la suite (Yt ) est solution de l’équation de récurrence :

Yt − 1.28Yt−1 + 0.48Yt−2 = I

2. Montrer que cette équation admet une solution constante.


3. Écrire la solution générale de cette équation en fonction du module et de l’argument de r1 où r1 est une
solution complexe de l’équation caractéristique (on pourra définir θ = arg(r1 )).
En déduire le comportement asymptotique de (Yt ).
4. Expliquer comment prédire le comportement asymptotique de (Yt ) sans déterminer les racines du poly-
nôme caractéristique.

Exercice 37
Ct désigne la consommation durant la période t, Yt respectivement It , le revenu et l’investissement durant cette
période et G une constante (dépense gouvernementale).
On suppose que : 
 Ct = cYt−1 0 < c < 1
It = β(Ct − Ct−1 ) β > 0

Yt = C t + It + G
1. En utilisant la relation Yt = Ct +It +G , montrer que la suite (Yt ) est solution de l’équation de récurrence :

Yt − c(1 + β)Yt−1 + βcYt−2 = G

2. Montrer que cette équation admet une solution constante.


3. Écrire la solution générale de cette équation suivant les valeurs de c et β.
4. Déterminer le comportement asymptotique de (Yt ) suivant les valeurs de c et β.

Exercice 38
Considérons le marché d’un bien pour lequel l’offre St et la demande Dt à l’instant t, t ∈ N, vérifient les
équations :

St = aπt + b avec a > 0 , b < 0, a et b réels


Dt = cpt + d avec c < 0 , d > 0, c et d réels
St = Dt

où πt est le prix anticipé par les producteurs pour la période t :

πt = αpt−1 + (1 − α)pt−2 avec 0 ≤ α < 1

1. Déterminer l’équation de récurrence d’ordre deux décrivant l’évolution du prix pt sur le marché. Donner
dans le cas général la solution d’équilibre pe de cette équation.
2. Dans les deux cas suivants :
(a) a = 3 , c = −1 , b = −10 , d = 190
(b) a = 5 , c = −4 , b = −10 , d = 80
discuter en fonction de α la forme générale des solutions de l’équation homogène associée et préciser le
comportement asymptotique du prix solution générale de l’équation complète.
3. Donner la solution de l’équation de récurrence dans le deuxième cas quand α = 0, p0 = 0, p1 = 10.

35
Chapitre 4

Notions sur les équations différentielles

Contenu
4.1 Équations différentielles linéaires d’ordre 1 à coefficients constants . . . . . . . . . . . . . . . . . . . . 37
4.1.1 Résolution de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.1.2 Résolution de l’équation complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Équations différentielles d’ordre 2 à coefficients constants . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.1 Résolution de l’équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2.2 Résolution de l’équation complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Notion de stabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.1 Equation différentielle d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.3.2 Equation différentielle d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4 Équations différentielles d’ordre un à coefficients non constants . . . . . . . . . . . . . . . . . . . . . 40
4.4.1 Cas linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.4.2 Équation de Bernouilli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

36
4.1 Équations différentielles linéaires d’ordre 1 à coefficients constants

On cherche à résoudre une équation différentielle de la forme :

(E) : x′ (t) = ax(t) + b(t)

où t 7→ x(t) est une fonction de classe C 1 sur un intervalle I, a une constante réelle et b(t) une fonction continue
sur I.
(On écrira parfois une telle équation sous la forme : y ′ = ay + b(t))
On lui associe l’équation homogène :
(EH) : x′ (t) = ax(t)

4.1.1 Résolution de l’équation homogène

Proposition 53
Les solutions de (EH) sont les fonctions de la forme

t 7→ x(t) = λeat

où λ est une constante réelle arbitraire.

4.1.2 Résolution de l’équation complète

Proposition 54
On obtient toutes les solutions de (E) en ajoutant une solution particulière de (E) à la solution générale de
(EH).

À l’aide d’une solution particulière


• Si b(t) = b une constante, il existe une solution particulière de (E) de la forme :
— constante si a 6= 0
— bt si a = 0
• Si b(t) = P (t) un polynôme, il existe une solution particulière de la forme :
— Q(t) où Q est un polynôme de même degré que P si a 6= 0.
— tQ(t) où Q est un polynôme de même degré que P si a = 0.
• Si b(t) = P (t)eαt où P est un polynôme, il existe une solution de la forme :
— Q(t)eαt où Q est un polynôme de même degré que P si α 6= a.
— tQ(t)eαt où Q est un polynôme de même degré que P si α = a.
Remarque : le troisième cas englobe les deux premiers.

Variation des constantes


On cherche directement les solutions de (E) sous la forme x(t) = λ(t)eat où λ(t) est une fonction C 1 sur I. On montre
facilement l’équivalence :

x(t) = λ(t)eat solution de (E) ⇐⇒ λ′ (t) = b(t)e−at


Z
⇐⇒ λ(t) = b(t)e−at dt

Proposition 55
Soit t0 et x0 deux réels. Il existe alors une seule solution t 7→ x(t) de (E) telle que x(t0 ) = x0 .

37
4.2 Équations différentielles d’ordre 2 à coefficients constants

Une telle équation s’écrit :


(E) : x′′ (t) + ax′ (t) + bx(t) = f (t)
où a et b sont des constantes réelles et f une fonction continue sur un intervalle I. On lui associe, comme dans le
cas précédent, l’équation homogène

(EH) : x′′ (t) + ax′ (t) + bx(t) = 0

4.2.1 Résolution de l’équation homogène


On forme l’équation caractéristique du second degré :

(EC) : r2 + ar + b = 0

Proposition 56
 Si ∆ = a2 − 4b > 0, (EC) admet deux racines réelles distinctes r1 et r2 . Les solutions de (EH) sont alors
les fonctions de la forme :

t 7→ λer1 t + µer2 t où λ et µ sont des constantes réelles.

 Si ∆ = a2 − 4b = 0, (EC) admet une racine réelle r1 . Les solutions de (EH) sont alors les fonctions de la
forme :
t 7→ (λt + µ) er1 t où λ et µ sont des constantes réelles.
 Si ∆ = a2 − 4b < 0, (EC) admet deux racines complexes conjuguées r1 et r1 , avec par exemple r1 = α + iω,
α et ω réels. Les solutions de (EH) sont alors les fonctions de la forme :

t 7→ eαt (λ cos ωt + µ sin ωt) où λ et µ sont des constantes réelles.


(que l’on peut aussi écrire Aeαt cos (ωt + B) , A et B réels.)

4.2.2 Résolution de l’équation complète

Proposition 57
On obtient toutes les solutions de (E) en ajoutant une solution particulière de (E) à la solution générale de
(EH).

Proposition 58
Si f (t) = ert P (t) où P est un polynôme, il existe une solution particulière de (E) qui est de la forme :
• ert Q(t) si r n’est pas solution de l’équation caractéristique.
• ert tQ(t) si r est racine simple de (EC).
• ert t2 Q(t) si r est racine double de (EC).
où, à chaque fois, Q est un polynôme de même degré que P .

Remarque
 Ce résultat s’applique au cas où f (t) = k une constante (k = e0t k), au cas où f (t) = P (t) et aussi au cas où
f (t) = ert .
 On peut aussi utiliser la méthode de variation des constantes.

38
Proposition 59
Soit t0 un élément de I , x0 et x′0 deux réels. Il existe alors une unique solution x(t) de (E) telle que x(t0 ) = x0
et x′ (t0 ) = x′0 .

4.3 Notion de stabilité


On s’intéresse au comportement asymptotique des solutions, c’est à dire à leur limite en +∞.

Définition 60
On dit qu’une solution constante d′ une équation différentielle (E) est un équilibre de l’évolution régie par (E),
et on dit que cet équilibre est globalement stable si toute solution de (E) tend vers cette constante quand
t → +∞.

Remarque
Si (E) : x′′ (t) + ax′ (t) + bx(t) = f (t) est une équation d’ordre 1 ou 2 (1 si b = 0), elle ne peut admettre
de solution constante que si f (t) est constante. Dans toute la suite de ce paragraphe, on supposera donc que
f (t) = c une constante. Si un équilibre n’est pas globalement stable, on appelle ensemble de stabilité de cet
équilibre l’ensemble des conditions initiales telles que les solutions associées convergent vers cet équilibre. C’est
un sous ensemble de Rn où n est l’ordre de l’équation différentielle.

4.3.1 Equation différentielle d’ordre 1


Considérons une équation différentielle (E) : x′ (t) = ax(t) + b (a 6= 0) où b est une constante réelle. On peut alors
voir facilement
 que
 la solution de (E) qui prend la valeur x0 en 0 est donnée par :
b b b
x(t) = x0 + eat − et t 7→ − est une solution constante, donc unéquilibre.
a a a

Proposition 61
b
L’équilibre − est globalement stable ssi a < 0.
a

4.3.2 Equation différentielle d’ordre 2


On considère une équation différentielle (E) : x′′ (t) + ax′ (t) + bx(t) = c, où a, b, c sont des constantes réelles,
d’équation caractéristique : r2 + ar + b = 0

Proposition 62
les deux racines (réelles ou complexes, distinctes ou confondues) de l’équation r2 + ar + b = 0 ont des parties
réelles strictement négatives ssi a > 0 et b > 0.

Preuve
 Si les parties réelles sont strictement négatives, la somme des deux racines est strictement négative (que les
racines soient réelles ou complexes). Or la somme vaut −a, donc a > 0. Comme le produit des racines vaut b, si
les racines sont réelles négatives, leur produit est positif, et si les racines sont complexes, elles sont conjuguées,
et leur produit vaut alors le carré de leur module, donc est positif . On a donc dans tous les cas a > 0 et b > 0.
 Supposons a > 0 et b > 0. Si les deux racines sont réelles, leur produit est positif, elles sont donc de même
signe, et comme leur somme est négative, elles sont toutes les deux strictement négatives. Si les deux racines
sont complexes conjuguées, leur somme vaut deux fois leur partie réelle, qui est donc strictement négative.

39
Proposition 63
c
Soit (E) : x′′ (t) + ax′ (t) + bx(t) = c, qui admet une solution constante (b 6= 0). L’équilibre est globalement
b
stable ssi a > 0 et b > 0.

Preuve
 Si les deux racines r1 et r2 sont réelles distinctes, la solution générale de (E) s’écrit :
c
x(t) = λer1 t + µer2 t + où λ et µ sont des constantes réelles.
b
Le résultat en découle.
 S’il n’y a qu’une racine réelle double r1 , la solution générale de (E) s’écrit :
c
(λt + µ) er1 t + où λ et µ sont des constantes réelles
b
Le résultat est immédiat.
 S’il y a deux racines complexes conjuguées de parties réelles α, la solution générale de (E) s’écrit :
c
eαt (λ cos ωt + µ sin ωt) + où λ et µ sont des constantes réelles.
b
Là encore, le résultat est immédiat.

4.4 Équations différentielles d’ordre un à coefficients non constants


4.4.1 Cas linéaire
On veut résoudre : (E) : x′ (t) = a(t)x(t) + b(t) où a(t) et b(t) sont des fonctions continues sur un intervalle I.
On lui associe l’équation homogène : (EH) : x′ (t) = a(t)x(t).

Résolution de l’équation homogène

Proposition 64
Soit A(t) une primitive sur I de a(t). La solution générale de (EH) est de la forme :

x(t) = λeA(t) = λe a(t)dt
où λ est une constante réelle

Résolution de l’équation complète


Deux méthodes encore :
 on ajoute à la solution générale de (EH) une solution particulière de (E).
 on utilise la méthode de variation des constantes : on cherche la solution générale de (E) sous la forme x(t) = λ(t)eA(t)
et on montre facilement que :
Z
x(t) = λ(t)e A(t)
solution de (E) ⇐⇒ λ(t) = b(t)e−A(t) dt

D’où les solutions de (E) : Z


x(t) = eA(t) b(t)e−A(t) dt

4.4.2 Équation de Bernouilli


On appelle ainsi une équation de la forme :
(EB) : x′ (t) = a(t)x(t) + b(t) [x(t)]
α

où α est un réel. Si α = 0 ou 1, l’équation est linéaire. Si α n’est pas entier, on suppose x(t) > 0 sur I. Pour résoudre
1−α
(EB), on pose y(t) = [x(t)] (on suppose α 6= 0 et de 1). Il est facile de voir que :
1
x(t) solution de (EB) ⇐⇒ y(t) solution de y ′ (t) = a(t)y(t) + b(t)
1−α
et cette dernière équation est linéaire.

40
4.5 Exercices
Exercice 39
Pour chacune des équations différentielles suivantes, déterminer l’ensemble des fonctions solutions puis spécifier
celle qui vérifie la condition initiale indiquée :
1. y ′ − 2y = 7 avec y(0) = 5 3. y ′ − 3y = 2e−3t + 1 avec y(0) = 0

1 4. my ′ − y = e2t
2. 2y ′ + 3y = 3t avec y(0) = avec y(0) = 0 et m > 0.
3

Exercice 40
Déterminer la solution des équations du second ordre suivantes avec les conditions initiales y(0) = y ′ (0) = −1.
Discuter la stabilité des solutions quand t tend vers +∞.
1. y ′′ + 3 y ′ + 2 y = t e−t 3. y ′′ − 6 y ′ + 9 y = −2 e3t

2. y ′′ − 4 y = 10 4. 8 y ′′ − 4 y ′ + 3 y = −3 e−t

Exercice 41
Soit l’équation différentielle dépendant du paramètre réel m

(E) y ′′ + 4 y ′ + m y = e−2 t

1. Soit (H) l’équation homogène associée et w(t) la solution générale de (H) :


(a) donner la forme de w(t) suivant les valeurs de m ;
(b) en déduire une condition nécessaire et suffisante sur m pour que toutes les fonctions vérifiant (H)
tendent vers 0 lorsque t → +∞.
2. Suivant les valeurs de m
(a) déterminer la valeur d’équilibre de (E) ;
(b) préciser la nature de l’équilibre obtenu.

Exercice 42
Soit l’équation différentielle dépendant du paramètre réel non nul m

(E) m y ′′ + 3 (m − 1) y ′ + 3 y = 6

1. Déterminer une solution particulière de (E).


2. Quelle est la valeur d’équilibre de (E) ?
3. Déterminer une condition nécessaire et suffisante sur m pour que cet équilibre soit stable (utiliser les
conditions de stabilité).
4. Déterminer une condition nécessaire et suffisante sur m pour que toutes les solutions de (E) présentent :
(a) des oscillations ;
(b) des oscillations amorties.

Exercice 43
Déterminer, selon les valeurs du paramètre réel m, une solution particulière de l’équation

y ′′ − 4 y ′ + 4 y = t em t

Donner la solution générale de l’équation et préciser la nature de l’équilibre obtenu.

41
Exercice 44
On considère le marché d’un bien sur lequel se confrontent, à chaque instant t, une offre S(t) et une demande
D(t). On désigne par P (t) le prix constaté du bien à l’instant t et par Pb(t) le prix espéré par les producteurs
pour l’instant t. On fait l’hypothèse que le prix s’ajuste selon un niveau qui assure l’équilibre de l’offre et de la
demande. On suppose que S(t), D(t) et P (t) sont des fonctions continues et dérivables de la variable t et que
le système est régi par les lois suivantes :

 S(t) = a Pb(t) − 20 a ∈ R, a > 0
D(t) = −b P (t) + 200 b ∈ R, b > 0
 b
P (t) = P (t) + d P ′ (t) d ∈ R∗

1. Déterminer l’équation différentielle d’ordre 1 vérifiée par le prix.


2. Résoudre cette équation et donner la solution correspondant à un prix initial noté P0 .
3. Discuter le comportement asymptotique de ce prix.
4. Déterminer la solution correspondant aux valeurs numériques suivantes :

a = 3, b = 2, d = 5/3, P0 = 30

Exercice 45
On considère un système économique dans lequel le niveau du revenu national est déterminé par le niveau de
la demande globale. En temps continu, ceci est exprimé par la relation suivante :

Y ′ (t) = a (D(t) − Y (t))

où Y (t) est l’output national au temps t, D(t) la demande globale et a un coefficient de réaction (a > 0). On
suppose, d’autre part, que la demande globale est fonction du revenu national selon la relation :

D(t) = cY (t) + 1

où c est la propension marginale à consommer (0 < c < 1).


1. Déterminer l’équation différentielle linéaire vérifiée par Y (t) et la résoudre en supposant que Y (0) = 0.
2. On suppose maintenant que la demande globale est formée de deux parties : l’une provenant des agents
économiques privés et l’autre provenant du gouvernement. Si G est la demande effectivement réalisée par
le gouvernement, on a désormais
D(t) = cY (t) + G(t) + 1
Si G∗ est la valeur théorique de cette demande, on donne en outre les relations suivantes :
 ′
G (t) = G∗ (t) − G(t)
G∗ (t) = − 18 × G(t)

Déterminer l’équation différentielle d’ordre 2 vérifiée par Y et la résoudre avec les données numériques
suivantes :
3
a=2 c= Y (0) = 0 Y ′ (0) = 2.
4

42
Chapitre 5

Espaces vectoriels

Contenu
5.1 Espaces vectoriels-Sous espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.1.1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.1.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
5.2 Bases des espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.1 Familles génératrices, familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

43
5.1 Espaces vectoriels-Sous espaces vectoriels
K désigne le corps des réels R ou le corps des complexes C.

5.1.1 Espaces vectoriels

Définition 65
On appelle structure de K-espace vectoriel (ou espace vectoriel sur K) la donnée d’un ensemble non vide E et
de deux lois de compositions + et . telles que :
• + est une loi de composition interne (lci) sur E qui est commutative, associative, qui possède un élément
neutre (noté 0E ou 0), et pour laquelle tout élément de E admet un symétrique dans E.
• . est une loi de composition externe (lce) de K × E dans E qui vérifie les 4 axiomes suivants :
∀(u, v) ∈ E 2 , ∀ (α, β) ∈ K2 :
— 1.u = u
— (α + β) .u = α.u + β.u
— (αβ) .u = α. (β.u)
— α.(u + v) = α.u + α.v

Les éléments de E s’appellent des vecteurs et ceux de K des scalaires. Pn


Si u1 , u2 , ..., un sont n vecteurs et λ1 , λ2 , ..., λn sont n scalaires, l’élément de E égal à i=1 λi ui sappelle une combi-
naison linéaire (C.L.) de u1 , u2 , ..., un .

Exemple
Exemples fondamentaux :
• Kn = {(x1 , x2 , ..., xn ) , xi ∈ K } muni de :

(x1 , x2 , ..., xn ) + (y1 , y2 , ..., yn ) = (x1 + y1 , x2 + y2 , ..., xn + yn )


λ. (x1 , x2 , ..., xn ) = (λx1 , λx2 , ..., λxn ) ∀λ ∈ K

est un K−espace vectoriel et 0Kn = (0, 0, ..., 0) .


• Soit D un ensemble non vide quelconque (presque toujours, D sera un intervalle de R ou un sous ensemble
de Rn ) et E est l’ensemble des applications de D dans K. On le munit de :

f +g : D −→ K
x −→ (f + g)(x) = f (x) + g(x)
λ.f : D −→ K
x −→ (λ.f ) (x) = λf (x)

C’est un K−espace vectoriel qui a pour élément neutre l’application nulle sur D.
• L’ensemble des suites à valeurs dans K, muni des opérations habituelles : (un ) + (vn ) = (un + vn ) et
α (un ) = (αun ) est un K− espace vectoriel dont l’élément neutre est la suite nulle (tous ses termes valent
0).

5.1.2 Sous-espaces vectoriels

Définition 66
Soit (E, +, .) un K-espace vectoriel. On appelle sous-espace vectoriel (sev) de E tout sous-ensemble non vide
de E qui est un K-espace vectoriel pour les mêmes lois que E.

Proposition 67

F est non vide
Soit (E, +, .) un K-espace vectoriel. Une partie F de E est un sev de E ssi : .
F est stable par C.L.

44
Exemple
Pn
• L’ensemble des n − uplets (x1 , x2 , · · · , xn ) tels que i=1 ai xi = 0 où les ai sont des éléments de K fixés
est un sev de Kn .
• L’ensemble des fonctions dérivables sur un intervalle I qui vérifient une équation différentielle linéaire
homogène.
• L’ensemble des suites d’éléments de K qui vérifient une relation de récurrence linéaire sans second membre.
• Soit (E, +, .) un K−espace vectoriel. Soient u1 , u2 , ..., un n éléments de E. Alors l’ensemble de toutes les
combinaisons linéaires de u1 , u2 , ..., un est un sev de E. On dit que c’est le sev engendré par la partie
{u1 , u2 , ..., un } et on le note V ect {u1 , u2 , ..., un }.

La suite du paragraphe peut être omise en première lecture.

Proposition 68
Tp
Soient F1 , F2 , · · · , Fp p sev d’un K-espace vectoriel E. Alors i=1 Fi est un sev de E.

Définition 69
Soient F1 , F2 , · · · , Fp p sev d’un K-espace vectoriel E. On appelle somme de F1 , FP2 , · · · , Fp l’ensemble des
p
x1 + x2 + · · · + xp où xi ∈ Fi pour tout i. On note cet ensemble F1 + F2 + · · · + Fp ( i=1 Fi ).

Proposition 70
F1 + F2 + · · · + Fp est un sev de E. C’est le plus petit sous espace de E qui contient tous les Fi .

Définition 71
Pp F1 , F2 , · · · , Fp p sev d’un K-espace vectorielPE.
Soient
p
On dit que ces sev sont en somme
Pp directeP
si tout élément
p
de i=1 Fi s’écrit d’une seule façon sous le forme i=1 xi , xi ∈ Fi . (Autrement dit, i=1 xi = i=1 yi avec xi
et yi éléments de Fi pour tout i implique que xi = yi pour tout i.) On note alors cette somme F1 ⊕ F2 ⊕ ... ⊕ Fp .

Proposition 72
P 
Les sev Fi sont en somme directe ssi Fi ∩ j̸=i Fj = {0} .

Cas particulier : deux sev F1 et F2 de E sont en somme directe ssi F1 ∩ F2 = {0} .

Définition 73
Deux sev F1 et F2 de E sont dits supplémentaires si ils sont en somme directe et si F1 ⊕F2 = E. Ce qui équivaut
à dire que tout élément de E s’écrit d’une seule façon comme somme d’un élément de F1 et d’un élément de F2 .

45
5.2 Bases des espaces vectoriels
5.2.1 Familles génératrices, familles libres

Définition 74
Soit (E, +, .) un K−espace vectoriel.
• Une famille finie (u1 , u2 , ..., un ) d’éléments de E est dite génératrice de E si tout élément de E peut s’écrire
comme C.L. des ui . Un K−espace vectoriel qui admet une famille génératrice finie est dit de dimension
finie (attention, il existe des sev qui n’admettent pas de famille génératrice finie, ils sont dits de dimension
infinie).
• Une famille finie (u1 , u2 , ..., un ) d’éléments de E est dite libre (on dit aussi que les n éléments de la famille
sont linéairement indépendants) si :

n
X
n
∀ (αi )i=1 ∈ Kn , αi ui = 0E =⇒ αi = 0 ∀i = 1, 2, ..., n
i=1

Une famille qui n’est pas libre est liée (les éléments de la famille sont linéairement dépendants).

5.2.2 Bases

Définition 75
Une base de E est une famille finie qui est à la fois libre et génératrice de E.

Remarque
On peut voir facilement qu’une famille finie (u1 , u2 , ..., un ) est une base de E ssi tout élément
Pn de E s’écrit d’une
façon unique comme combinaison linéaire des ui . Si u est un élément de E et si u = i=1 αi ui est l’unique
écriture de u comme combinaison linéaire des ui , les coefficients αi sappellent les coordonnées  de u
dans la base
α1
  
(ui ). On écrira u α1 · · · αn et, dans la mesure du possible, on distinguera u de U =  ...  le vecteur
αn
colonne des coordonnées de u.

Exemple
• Base canonique de Kn : on pose ei = (0, ..., 0, 1, 0, ..., 0) où le 1 se trouve à la ième place. On montre
n
facilement que (ei )i=1 est une base de Kn . On l’appelle la base canonique de Kn . Son intérêt est que si
u = (α1 , ..., αn ), alors ses coordonnées dans la base canonique sont u α1 · · · αn . Autrement dit, avec
les notations précédentes, U = t u.
n
• Si Kn [X] désigne l’espace vectoriel des polynômes à coefficients dans K et de degré ≤ n, la famille (pi )i=0
où pi (X)P= X i est une base de Kn [X] que l’on appelle la base canonique de Kn [X] . Là encore, si
n
P (X) = i=0 αi X i , ses coordonnées dans la base canonique sont les αi .
• Attention, K [X], espace vectoriel de tous les polynômes à coefficients dans K ou l’espace des suites
n’admettent pas de bases finies.

La suite du paragraphe peut être omise en première lecture.

Théorème 76
Théorème de la base incomplète : Soit E un K−ev non réduit à {0}, (u1 , u2 , ..., ur ) une famille génératrice de
E et (v1 , v2 , ..., vs ) une famille libre de E. On peut alors compléter la famille libre par des vecteurs choisis dans
la famille génératrice de façon à obtenir une base de E.

46
Théorème 77
Soit E un K−ev de dimension finie, non réduit à {0} . Alors E admet des bases et toutes ces bases ont le même
nombre d’éléments. Ce nombre s’appelle la dimension de E et se note dim E (par convention, dim {0} = 0).

Exemple
Kn est un ev de dimension n sur K. Kn [X] est de dimension n + 1 sur K. K [X] est de dimension infinie.

On a en vrac les propriétés suivantes :

Remarque
• Toute sur-famille d’une famille génératrice est génératrice.
• Toute sous-famille d’une famille libre est libre.
• Une base est une famille libre maximale.
• Une base est une famille génératrice minimale.
• Si F est un sev d’un ev E de dimension finie, alors F est de dimension finie et dim F ≤ dim E.
• Soit (u1 , u2 , ..., un ) une famille d’éléments de E. Cette famille est une base de E ssi tout élément de E
s’écrit d’une seule façon comme C.L. des ui .
• Soit E un ev de dimension n.
— Toute famille libre de E a au plus n éléments.
— Toute famille génératrice de E a au moins n éléments.
— Toute famille libre de E à n éléments est une base de E.
— Toute famille génératrice de E à n éléments est une base de E.

Définition 78
Soit (u1 , u2 , ..., un ) une famille d’éléments d’un K−ev E. On appelle rang de la famille la dimension de
V ect {u1 , u2 , ..., un }. On montre que ce rang est égal au nombre maximum de vecteurs linéairement indépendants
dans la famille.

Proposition 79
Soient F1 , F2 , ..., Fp p sev d’un K-espace vectoriel E. Alors E = F1 ⊕ F2 ⊕ ... ⊕ Fp ssi la réunion de bases de
chaque Fi est égale à une base de E.

5.3 Applications linéaires

Définition 80
Soient E et F deux K−espaces vectoriels. On appelle application linéaire de E dans F toute application f de
E dans F telle que :
∀ (α, β) ∈ K2 , ∀ (u, v) ∈ E 2 , f (αu + βv) = αf (u) + βf (v)
L’ensemble des applications linéaires de E dans F se note L(E, F ), et muni des lois classiques sur les applications,
c’est un K − ev. Une application linéaire de E dans K s’appelle une forme linéaire. L(E, K) se note E ∗ .

Définition 81
Soit f ∈ L(E, F ).
• On appelle noyau de f , et on note ker f, le sous ensemble de E défini par :

ker f = {u ∈ E / f (u) = 0F }

47
• On appelle image de f , et on note Imf , le sous ensemble de F défini par :

Imf = {v ∈ F / ∃u ∈ E avec f (u) = v}

Proposition 82
On obtient facilement que ker f est un sev de E et Imf est un sev de F . De plus :

f injective ⇐⇒ ker f = {0E }


f surjective ⇐⇒ Imf = F

Proposition 83
Soit (e1 , e2 , ..., en ) une base de E (qui est donc de dimension finie) et f ∈ L(E, F ). Alors :
• Imf est engendrée par (f (e1 ) , f (e2 ), ..., f (en )). Sa dimension s’appelle le rang de f .
• f est complètement déterminée par f (e1 ), f (e2 ), ..., f (en ).
• On a : dim E = dim Imf + dim ker f
• Si de plus F est de même dimension finie n que E, alors :

f injective ⇐⇒ f surjective ⇐⇒ f bijective

Proposition 84
Soit E un K-ev de dimension finie n et (e1 , e2 , ..., en ) une base de E.
• Toute forme linéaire sur E est donnée par :
!
Xn X
n
f xi ei = α i xi où αi = f (ei ) .
i=1 i=1

• Une forme linéaire f non nulle sur E est surjective et son noyau est un hyperplan de E (c’est à dire un
sev de dimension n − 1). Tout hyperplan de E est le noyau d’une forme linéaire non nulle.

48
5.4 Exercices
Exercice 46
Soit E un K−espace vectoriel et V une partie de E. Vérifier que si 0 ∈
/ V , alors V n’est pas un sev de E.

Exercice 47
On donne ci-dessous des exemples d’ev E sur K ainsi que des vecteurs v, v1 , v2 , ..., vn de E. Dire à chaque fois
s’il est possible d’écrire v comme combinaison linéaire des vi .
1. E = R3 , K = R, v = (2, 4, 6), v1 = (1, 2, 3), v2 = (4, 5, 6), v3 = (7, 8, 9).
       
2 3 1 1 0 1 0 0
2. E = M2 (R), K = R, v = , v1 = , v2 = , v3 =
4 0 0 0 1 0 1 1
3. E = C2 , K = C, v = (1 + 2i, 3 − 4i), v1 = (i, 0), v2 = (0, i).
4. E = C2 , K = R, v = (1 + 2i, 3 − 4i), v1 = (i, 0), v2 = (0, i).

Exercice 48
Montrer que les sous ensembles suivants sont des sev de R3 :
1. A = {(0, y, 0) , y ∈ R}
2. C = {(x, y, x + y) , x, y ∈ R}
3. F = {(x, y, z) / x + 2y − z = 0}

Exercice 49

 x+y+z =0
Soit S l’ensemble des solutions du système : x + 52y + 37z = 0 . S est-il un sev de R3 ? En est-il de

31x + 1287y + 389z = 0
même pour l’ensemble des solutions de n’importe quel système linéaire ?

Exercice 50
Déterminer si les familles suivantes de vecteurs de R4 sont libres :
{(1, 0, 1, 0) ; (1, 0, 0, 1) ; (0, 0, 1, 1)} {(1, 0, 1, 0) ; (1, 0, −1, 0) ; (1, 0, 0, 0)}

Exercice 51
Quelles sont les bases canoniques des espaces suivants :
• Rn ?
• M(n,m) (R) ?
• Rn [X] ?

Exercice 52
Est-ce que {(1, 2, 3) ; (4, 5, 12) ; (0, 8, 0)} engendre R3 ?

Exercice 53
La famille ((1, 0, 2) , (2, 5, 4) , (−2, 1, 0)) est une base de R3 (vérifiez-le). Trouvez les coordonnées de (17, 26, 18)
dans cette base. Trouvez les coordonnées d’un élément quelconque (x, y, z) dans cette base.

49
Exercice 54
Lesquelles de ces familles forment une base de R3 :
{(1, 1, 1) ; (1, 2, 1)} {(1, 1, 1) ; (1, 2, 1) ; (1, 0, 1)} {(1, 1, 1) ; (1, 2, 1) ; (1, 0, 0) ; (0, 1, 0)}

Exercice 55
Soit V = V ect {(1, −2, 0, 3) , (2, 3, 0, 1) , (2, −1, 2, 1)}. Trouver une base de V.
Même question si V = V ect {(1, 2, 3, 4) , (2, 5, 10, 13) , (1, 4, 11, 18) , (0, 1, 4, 7)} .

Exercice 56
Soient V1 = V ect {(1, 2, 3) , (4, 5, 6)} , V2 = V ect {(0, 3, 6) , (0, 9, 12)} et V3 = V ect {(0, 3, 6) , (10, 11, 12)}.
Quelles sont les dimensions de V1 , V2 , V3 ? V1 est-il égal à V3 ?

Exercice 57
Montrer que l’ensemble des matrices symétriques de type 2 × 2 est un sous-espace vectoriel de l’espace des
matrices 2 × 2.
     
1 −2 2 1 4 −1
Les matrices ; ; forment-elles une base de ce sous-espace ?
−2 1 1 3 −1 −5
 
4 −11
Si oui, quelles sont les coordonnées de dans cette base ?
−11 −7

50
Chapitre 6

Rang et déterminant des matrices

Contenu
6.1 Rang des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.1.1 Espace des lignes-Espace des colonnes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
6.1.2 Rang et inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
6.1.3 Rang et systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6.2 Déterminant des matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.2.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
6.2.2 Calcul du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

51
6.1 Rang des matrices
6.1.1 Espace des lignes-Espace des colonnes
Soit A = (aij ) ∈ Mmn (K), avec K = R  ou C. 
a1∗
 ..  
On peut décomposer A en lignes : A =  .  ou en colonnes : A = a∗1 ··· a∗n .
am∗
On associe à A deux sev de Kn :
L(A) = V ect {a1∗ , ..., am∗ } le sev engendré par les lignes de A.
C(A) = V ect {a∗1 , ..., a∗n } le sev engendré par les colonnes de A.
On a le théorème suivant :

Théorème 85
Pour toute matrice A de Mmn (K), dim L(A) = dim C(A).

La démonstration de ce théorème repose sur plusieurs lemmes.

Lemme 86
Soit A,B,C trois matrices à coefficients dans K, telles que A = BC.
Alors : C(A) ⊂ C(B) et L(A) ⊂ L(C)

Preuve
B ∈ Mmn (K), C ∈ Mnp (K) et A ∈ Mmp (K). On écrit le produit BC sous la forme :
 
c11 · · · c1p
 . .. .. 
BC = b∗1 · · · b∗n  .. . . 
cn1 ··· cnp

Ce qui donne les colonnes de A :


X
n
a∗i = b∗j cji
j=1

Donc les colonnes de A sont des combinaisons linéaires des colonnes de B et donc C(A) ⊂ C(B).
On procède de même pour l’autre inclusion en décomposant C en lignes :
    
b11 · · · b1n c1∗ a1∗
 ..   ..  = A =  .. 
BC =  ... ..
. .  .   . 
bm1 ··· bmn cn∗ am∗

D’où :
X
n
ai∗ = bij cj∗
j=1

Ce qui prouve que L(A) ⊂ L(C).

Lemme 87
Soit A, B1 , C2 trois matrices, A ∈ Mmp (K), B1 ∈ Mmn (K) et C2 ∈ Mnp (K)
1. Si C(A) ⊂ C(B1 ) , il existe alors une matrice C1 ∈ Mnp (K) telle que A = B1 C1
2. Si L(A) ⊂ L(C2 ) , il existe alors une matrice B2 ∈ Mmn (K) telle que A = B2 C2

52
Preuve
Si C(A) ⊂ C(B1 ), les colonnes de A sont des C.L. des colonnes de B1 . On peut donc écrire :

X
n X
n
a∗i = cji b∗j = a∗i = b∗j cji pour i = 1, 2, ..., p
j=1 j=1

Il suffit alors de poser C1 = (cij ) 1≤i≤p . De même pour 2..


1≤j≤n

Preuve
Preuve du théorème : Soit c = dim C(A) et l = dim L(A). On choisit une base (x1 , ..., xc ) de C(A). Les xi sont
des éléments de Km . Leurs coordonnées dans la base canonique de Km , écrites en colonnes, donnent une matrice
B1 ∈ Mmc (K) telle que C(A) = C(B1 ). D’après le lemme, il existe alors une matrice C1 ∈ Mcn (K) telle que
A = B1 C1 . On a alors L(A) ⊂ L(C1 ) ce qui prouve que :

l ≤ dim L(C1 ) ≤ c

Pour obtenir l’inégalité c ≤ l, on choisit une base (y1 , ..., yl ) de L(A) dans Kn et on écrit en ligne les coordonnées
des yi dans la base canonique de Kn . On obtient ainsi une matrice C2 de Mln (K) telle que L(A) = L(C2 ) et
on termine comme précédemment.

On peut donc donner la définition suivante :

Définition 88
Soit A une matrice de Mmn (K). On appelle rang de A la dimension de C(A) (ou de L(A)). On a clairement :

rangA ≤ min (m, n) et rangA = rang t A

Il est à peu près évident que les opérations élémentaires ne modifient pas le rang d’une matrice. Pour calculer le rang
d’une matrice, il suffit donc de l’échelonner par rapport à ses lignes (resp.ses colonnes) et le rang est alors égal au
nombre de lignes (resp. de colonnes) non nulles de la matrice échelonnée. C’est donc aussi le nombre de pivots non
nuls d’une réduite de Gauss-Jordan de la matrice.

Proposition 89
Soit A,B,C trois matrices telles que A = BC. Alors rangA ≤ min(rangB, rangC).

Preuve : Si A = BC, on sait que C(A) ⊂ C(B) et L(A) ⊂ L(C). Ce qui donne bien le résultat.

6.1.2 Rang et inversibilité

Proposition 90
Soit A ∈ Mmn (K). A est inversible à gauche (resp. à droite) ssi rangA = n (resp. rangA = m).

Preuve
Supposons A inversible à gauche : il existe une matrice B ∈ Mnm (K) telle que : BA = In . Mézalors :

rangIn ≤ min(rangA, rangB) ⇒ rangA ≥ n ⇒ rangA = n

Réciproquement, supposons que rangA = n. Comme L (A) est un sev de Kn , L(A) = Kn = L(In ). Il existe
alors une matrice B ∈ Mnm (K) telle que In = BA. A est donc inversible à gauche. Même type de raisonnement
pour l’inversibilité à droite.

53
Corollaire 91
Toute matrice inversible est carrée, et pour une matrice carrée A de Mn (K), on a :

A inversible ⇐⇒ rangA = n

(On dit aussi régulière pour inversible).

Corollaire 92
Le rang d’une matrice A ∈ Mmn (K) est égal à l’ordre de la plus grande sous matrice carrée régulière que l’on
peut extraire de A.

Preuve
Soit r = rangA. Si r = 0,il n’ y a rien à dire. On suppose r > 0. Il y a donc dans A r lignes linéairement
indépendantes. Soit A′ ∈ Mrn (K) formées de ces r lignes linéairement indépendantes. Il est clair que rangA′ = r.
Il y a donc dans A′ r colonnes linéairement indépendantes. Soit A′′ extraite de A′ et formée de ces r colonnes.
Alors A′′ est carrée et régulière extraite de A. Donc le rang d’une plus grande matrice régulière extraite de A
est ≥ r.
Inversement, si A′ est régulière de rang s extraite de A (s ≥ 1), on la complète en lignes par exemple
et on obtient une matrice A′′ ∈ Mms (K) de rang s. Il existe alors s colonnes de A′′ qui sont linéairement
indépendantes. Ce sont des colonnes de A qui sont linéairement indépendantes, donc rangA ≥ s.

6.1.3 Rang et systèmes linéaires

Soit 

 a11 x1 + ...a1n xn = b1
(S) : ..
 .

am1 x1 + ...amn xn = bm
   
x1 b1
   ..  ∈ M (K).
On l’écrit AX = B avec A = (aij ) ∈ Mmn (K) X =  ...  ∈ Mn1 (K) et B =  .  m1
xn bm
On note aussi A′ la matrice complète du système.

Proposition 93
Les conditions suivantes sont équivalentes :
(i) (S) admet au moins une solution.
(ii) rangA′ = rangA.
(iii) B ∈ C(A). En supposant ces conditions satisfaites, la solution est unique ssi rangA = n, ou encore si
et seulement si les colonnes de A sont linéairement indépendantes.

54
Preuve
(i) ⇔ (iii) : c’est évident car le système s’écrit x1 a∗1 + · · · + xn a∗n = B.
Donc (S) admet une solution ⇔ B ∈ C(A).
(iii) ⇒ (ii) : si B ∈ C(A), alors B = C.L.(a∗1 , ..., a∗n ) donc V ect {a∗1 , ..., a∗n , B} = V ect {a∗1 , ..., a∗n } et
rangA = rangA′ .
(ii) ⇒ (iii) : Soit r = rangA = rangA′ . Si r = 0, il n’y a rien à dire. On suppose donc r > 0. Il y a dans A
r colonnes linéairement indépendantes. Soit A′′ la matrice qu’elles forment. Alors rang (A′′ |B ) = r où (A′′ |B )
désigne la juxtaposition de A′′ et de B. Donc B est combinaison linéaire des colonnes de A′′ , donc des colonnes
de A.
Supposons maintenant que B ∈ C(A) :
 Si les colonnes dePnA sont linéairement indépendantes, elles forment une base de C(A), Pn d’où l’unicité.
 Si unicité, soit P x a
i=1 i ∗i = B une solution. Soit alors n réels α 1 , ..., α n tels que i=1 αi a∗i = 0. On a
n
alors en additionnant : i=1 (xi + αi ) a∗i = B et l’unicité de la solution implique que tous les αi sont nuls, ce
qui montre que la famille des colonnes de A est libre.

6.2 Déterminant des matrices carrées


6.2.1 Définition et propriétés
Notations : Soit A une matrice carrée (aij ) de Mn (K) (n ≥ 1). On écrit :
 
a1∗
 
A =  ...  où ai∗ est la ième ligne de la matrice.
an∗

Théorème 94
Il existe une unique application de Mn (K) dans K, appelée déterminant et notée det, possédant les trois
propriétés suivantes :
(1) ∀i = 1, ..., n ∀ a1∗ , ..., ai−1∗ , ai+1∗ , ...an∗ ∀ α et β de K et ∀x et y de Kn
     
a1∗ a1∗ a1∗
 ..   ..   .. 
 .   .   . 
     
 ai−1∗   ai−1∗   ai−1∗ 
     
det    
 αx + βy  = α det  x  + β det  y 
 
 ai+1∗   ai+1∗   ai+1∗ 
     
 ..   ..   .. 
 .   .   . 
an∗ an∗ an∗
( det est une forme n − linéaire par rapport aux lignes)
 
a1∗
 
(2) det est alternée par rapport aux lignes, c’est à dire que : ai∗ = aj∗ pour i 6= j =⇒ det  ...  = 0.
an∗
(3) det (In ) = 1.

Remarque
Conséquences :
• La valeur de det A ne change pas si on remplace une ligne par la somme de cette ligne et d’un multiple
d’une autre ligne.
• La valeur de det A est changée en son opposée si on échange deux lignes.
• La valeur de det A est multipliée par λ si on multiplie une ligne par λ, et donc det (λA) = λn det A.

T
Les preuves sont évidentes (pour (2), calculer de deux façons det (a1∗ , · · · , ai∗ + aj∗ , · · · , ai∗ + aj∗ , · · · , an∗ ) .

55
Proposition 95
Pour toutes matrices A et B de Mn (K), on a :
(i) det A 6= 0 ⇐⇒ A régulière
(ii) det (AB) = det A. det B
(iii) det (t A) = det A.

Tout ceci se démontre en utilisant les réduites de Gauss-Jordan et les matrices élémentaires (voir exercice).

Remarque
Conséquences :
det (t A) = det A montre que det est une forme n−linéaire alternée des colonnes et det (AB) = det A. det B
 1 
montre que si A est régulière, det A−1 = et que det ABA−1 = det B pour toute matrice B.
det A

6.2.2 Calcul du déterminant

Proposition 96
Soit A = (aij ) ∈ Mn (K) (n ≥ 2). Pour tout couple (i, j), on appelle Aij la matrice de Mn−1 (K) obtenue en
supprimant dans A la ième ligne et la jème colonne. On a alors :
Pn l+k
• ∀k = 1, 2, ..., n det A = l=1 (−1) alk det Alk (développement suivant la kème colonne)
Pn i+j
• ∀i = 1, 2, ..., n det A = j=1 (−1) aij det Aij (développement suivant la ième ligne)

On admettra cette proposition, qui se démontre par récurrence sur n. Le scalaire det Aij s’appelle le mineur de aij
i+j
dans A et le scalaire (−1) det Aij s’appelle son cofacteur. On associe à A la matrice des cofacteurs, que l’on notera
i+j
cof A, qui vaut donc cof A = (−1) det Aij .
(i,j)
On a le résultat (admis lui aussi) :

Proposition 97
Soit A une matrice carrée régulière. On a :

1 t
A−1 = (cof A)
det A

Corollaire 98
Soit AX = B un système linéaire où A ∈ Mn (K) et X et B appartiennent à Mn1 (K). Soit Bi la matrice
obtenue en remplaçant dans A la ième colonne par B. Si A est régulière, les solutions xi sont données par :

det Bi
xi = pour i = 1, 2, ..., n. (Formules de Cramer)
det A

Preuve
Supposons A régulière. On développe det Bi suivant la ième colonne :

X
n
i+k
X
n
i+k
det Bi = (−1) bki det (Bi )ki = (−1) bki det Aki
k=1 k=1

ce qui montre que det Bi est la ième ligne de la matrice colonne t (cof A) B. Or :

1 t
AX = B ⇐⇒ X = A−1 B = (cof A) B
det A

6.3 Exercices

56
Exercice 58
Calculer le rang des matrices :
 
2 −3 −5  
  1 2 3 4
 −1 4 5   2 5 10 13 
A=
 1 −3 −4  et B = 
  1 4

  11 14 
2 8 6
0 1 4 9
3 5 2

Trouver une sous matrice de B, carrée et régulière, dont l’ordre soit égal au rang de B.

Exercice 59
Calculer le rang de la matrice suivante en fonction du paramètre réel m :
 
2 m 2
A= m−2 −3/2 −1 
2m 2(m + 1) m + 1

Exercice 60
Pour chacune des matrices suivantes, donner une base du noyau et une base de l’image :
 
      4 1 −5 1
2 −1 2 −1 3 2 1  8 5 −10 8 
4 −2 4 −2 5 4 −2
−4 2 7 5

Exercice 61
Pour chacune des matrices suivantes, déterminer une base de l’espace colonne, de l’espace ligne et du noyau :
       
1 2 1 1 2 3 1 3 2 1 1 2 1
2 4 3 4 8 9 4 9 8 3 4 8 3

Exercice 62
Calculer le déterminant des matrices suivantes :
 
  1 1 1 1
1 a b+c  a b c d 
A= 1 b c+a  B=
 a2

b2 c2 d2 
1 c a+b
a3 b3 c3 d3

Exercice 63
Calculer sous forme factorisée les déterminants suivants :
a a a a
0 a b a b c a+b b+c c+a
a b b b
a) a 0 c b) c a b c) a 2 + b2 b2 + c 2 c 2 + a2 d)
a b c c
b c 0 b c a a 3 + b3 b3 + c 3 c3 + a3
a b c d
a c c b
c a b c
e)
c b a c
b c c a

57
Exercice 64
On considère une matrice A = (aij ) de Mn (K) telle que aij = 0 si j ≤ n − i. Cela signifie que A est de la
forme :  
0 ··· ··· 0 a1,n
 0 0 a2,n−1 a2,n 
 
 .. .. 
 . . 
 
 0 an−1,2 an−1,n 
an,1 ··· an,n
Calculer son déterminant.

Exercice 65
Pour illustrer ces chapitres : la notion de portefeuille.
On suppose qu’il y a A actifs d’investissement qu’un investisseur peut acquérir au début de la période et
revendre à la fin de cette période. On suppose qu’on a S climats financiers possibles ( les états de la nature).
Un seul de ces états se produira au cours de la période. Si vi est la valeur courante de l’actif i et ysi sa valeur à
ysi
la fin de la période si l’état s se produit, on appelle rendement de l’actif i dans l’état s : Rsi = on note
vi
R = (Rsi ) la matrice S × A des rendements.
L’investisseur dispose d’un patrimoine w0 . Soit ni la quantité d’actif i qu’il achète (ni ≥ 0 ou ni ≤ 0). On a :
PA ni v i
i=1 ni vi = w0 . On pose : = xi . C’est la part du patrimoine investie dans l’actif i. Le A−uplet (x1 , ..., xA )
PA w0
tel que i=1 xi = 1 s’appelle un portefeuille, les xi sont les parts du portefeuille. Le rendement dans l’état s
∑A PA
y n
du portefeuille est : Rs = i=1w0 si i = i=1 xi Rsi .
Un portefeuille est dit sans risque s’il possède le même rendement dans tous les états de la nature. Il est dit
duplicable s’il existe un portefeuille différent qui possède le même rendement que lui dans tous les états de la
nature. Un état s∗ est dit assurable s’il existe une portefeuille dont le rendement soit strictement positif dans
l’état s∗ et nul dans tous les autres états.
 
1
 .. 
1. Montrer qu’il existe un portefeuille sans risque ssi 1 =  .  appartient à l’espace colonne de R, c’est à
1
dire ssi le système RX = 1 admet une solution. En particulier, montrer que si rang(R) = S, il existe un
portefeuille sans risque.
 
0
 . 
 .. 
 
2. Montrer que l’état s∗ est assurable ssi le système RX =   ∗
 1  (où le 1 se trouve à la s ligne) admet
 . 
 .. 
0
(au moins) une solution.
3. Tous les états sont assurables ssi rang(R) = S.
e < A où R
4. Il existe un portefeuille duplicable ssi rang(R) e est la matrice R à laquelle on a ajouté une
ème
s+1 ligne formée de 1. Montrer qu’alors tous les portefeuilles sont duplicables.

58
Chapitre 7

Applications linéaires

Contenu
7.1 Définition et premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.1.1 Notion d’application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.1.2 Applications linéaires et sous espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . 60
7.1.3 Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2 Applications linéaires en dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2.1 Applications linéaires et bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
7.2.2 Théorème du rang (ou des dimensions) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.2.3 Quelques notions sur les formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
7.3 Matrices et applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.3.1 Définitions et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
7.3.2 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
7.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

59
7.1 Définition et premières propriétés
7.1.1 Notion d’application linéaire

Définition 99
Soit E et F deux K-ev (K = R ou C). On dit qu’une application φ : E → F est une application K-linéaire ou
que φ est un homomorphisme de K-ev si :

∀(u, v) ∈ E 2 φ(u + v) = φ(u) + φ(v)


∀α ∈ K, ∀u ∈ E, φ(αu) = αφ(u)

Proposition 100
Soit φ : E → F , E et F deux K-ev. Alors φ est linéaire ssi :

∀(u, v) ∈ E 2 ∀ (α, β) ∈ K2 φ(αu + βv) = αφ(u) + βφ(v)

et on a alors : !
X
n X
n
∀(u1 , ..., un ) ∈ E n
∀ (α1 , ..., αn ) ∈ K n
φ αi ui = αi φ(ui )
i=1 i=1

Remarque
 Si φ est linéaire, φ(0) = 0.
 On note L(E, F ) l’ensemble des applications linéaires de E dans F et L(E) l’ensemble des applications
linéaires de E dans E (endomorphismes de E). Il est facile de voir que (L(E, F ) , +, .) est un K-espace vectoriel.

7.1.2 Applications linéaires et sous espaces vectoriels

Proposition 101
Soit E et F deux K-ev et φ ∈ L(E, F ). Alors, pour tout sev E1 de E, φ(E1 ) est un sev de F . En particulier,
φ(E) est un sev de F , qui s’appelle l’image de φ et qui se note Imφ.

La preuve est évidente, il suffit d’écrire que φ(E1 ) = {φ(x) où x ∈ E1 } .

Proposition 102
Soit E et F deux K-ev et φ ∈ L(E, F ). Alors, pour tout sev F1 de F , φ−1 (F1 ) est un sev de E. En particulier,
φ−1 ({0}) est un sev de E qui s’appelle le noyau de φ et que l’on note ker φ.

Preuve : tout est trivial, il suffit de savoir que : φ−1 (F1 ) = {x ∈ E / φ(x) ∈ F1 } .

Proposition 103
Soit φ ∈ L(E, F ). Alors :
• φ surjective⇐⇒ Imφ = F
• φ injective⇐⇒ ker φ = {0}

60
7.1.3 Composition

Proposition 104
Soit E,F et G trois K-ev. Soit φ ∈ L(E, F ) et ψ ∈ L(F, G). Alors ψ ◦ φ ∈ L(E, G).

Proposition 105
Soit E et F deux K-ev et φ ∈ L(E, F ). Si φ est bijective, alors φ−1 ∈ L(F, E).

Vocabulaire : si φ ∈ L(E, F ) et si φ est bijective, on dit que φ est un isomorphisme d’espaces vectoriels et que E et
F sont deux ev isomorphes. Un endomorphisme bijectif de E s’appelle un automorphisme de E.

7.2 Applications linéaires en dimension finie


7.2.1 Applications linéaires et bases

Proposition 106
Soit E et F deux K-ev, E de dimension finie n. Soit {e1 , e2 , ..., en } une base de E et u1 , u2 , ..., un n vecteurs de
F. Il existe alors une unique application linéaire φ de E dans F telle que, pour tout i = 1, 2, ..., n φ(ei ) = ui .
Autrement dit, une application linéaire est déterminée de manière unique par l’image des vecteurs d’une base
de E.

Preuve
Pn Pn
Il est clair que l’application φ définie par φ ( i=1 αi ei ) = i=1 αi ui est l’unique application linéaire qui
convient.

Proposition 107
Soit {e1 , e2 , ..., en } une base de E et φ ∈ L(E, F ). Alors {φ(e1 ), φ(e2 ), ..., φ(en )} est une famille génératrice de
Imφ. On définit le rang de φ par : rangφ = dim Imφ.

Preuve
Pn
Un élément de Imφ s’écrit φ(u) = φ ( ) (car (ei )i est une base de E).
αi eiP
i=1
n
= i=1 αi φ(ei ) ce qui prouve le résultat. Remarque : rangφ ≤
dim E et, si F est aussi de dimension finie, rangφ ≤ dim F.

Proposition 108
Soit E de dimension finie et φ ∈ L(E, F ). Alors :

φ injective ⇐⇒ rangφ = dim E

Si de plus F est de dimension finie, alors :

φ surjective ⇐⇒ rangφ = dim F

et donc si E et F sont de dimensions finies, alors :

φ bijective ⇐⇒ rangφ = dim E = dim F

61
7.2.2 Théorème du rang (ou des dimensions)

Théorème 109
Soit E un K-ev de dimension finie n et φ ∈ L(E, F ). Alors :

dim E = dim ker φ + rangφ

Preuve
Soit (e1 , ..., ep ) une base de ker φ. On la complète en une base de E par (ep+1 , ..., en ). On sait que
(φ(e1 ), ..., φ(ep ), φ(ep+1 ), ..., φ(en )) est une famille génératrice de Imφ. Comme les ei pour i = 1, ..., p sont
dans ker φ, φ(e1 ) = · · · = φ(ep ) = 0. Donc la famille (φ(ep+1 ), ..., φ(en )) est génératrice de Imφ. Montrons
qu’elle est libre : soit αi des  scalaires tels que
 :
Pn Pn Pn Pn Pp
i=p+1 i α φ(e i ) = 0 ⇒ φ i=p+1 i i = 0 ⇒
α e i=p+1 αi ei ∈ ker φ ⇒ i=p+1 αi ei = i=1 βi ei
Pn Pp
⇒ i=p+1 αi ei − i=1 βi ei = 0 ⇒ αi = 0 et βi = 0 (les ei forment une base)⇒la famille (φ(ep+1 ), ..., φ(en ))
est libre. C’est donc une base de Imφ, donc rangφ = n − p, ce qui donne l’égalité.

Corollaire 110
Soit φ ∈ L(E, F ), E et F deux K-ev tous les deux de dimensions finies. Alors φ est bijective ssi il existe une
base de E qui a pour image par φ une base de F, et alors toute base de E a pour image par φ une base de F.

Preuve
Soit {e1 , e2 , ..., en } une base de E telle que {φ (e1 ) , φ (e2 ) , ..., φ (en )} soit une base de F . Alors dim E = dim F .
Mais dim E = rangφ + dim ker φ. Comme rangφ = n, on a dim ker φ = 0 donc φ est injective et comme
Imφ = F, φ est surjective, donc bijective. Soit alors φ isomorphisme de E dans F et {e1 , e2 , ..., en } une base
de E. On sait que dim F = n. Comme {φ (e1 ) , φ (e2 ) , ..., φ (en )} est une famille génératrice de Imφ = F qui a
n éléments, c’est une base de F.

On a la proposition évidente suivante :

Proposition 111
Deux K-ev de dimension fine sont isomorphes ssi ils ont même dimension. En particulier, tout K-ev de dimension
n est isomorphe à Kn .

Proposition 112
Soit E et F deux K-ev de même dimension finie n et φ linéaire de E dans F. Les trois propriétés suivantes sont
équivalentes :
(i) φ est bijective
(ii) φ est surjective
(iii) φ est injective.

Preuve
C’est une conséquence immédiate du théorème du rang.

62
7.2.3 Quelques notions sur les formes linéaires
On suppose dans toute la suite que E est un K-ev de dimension finie.

Définition 113
Soit E un K-ev. On appelle forme linéaire sur E toute application linéaire de E dans K. L(E, K) se note E ∗ et
s’appelle le dual de E.

Proposition 114
Soit E un K-ev de dimension finie n. Le noyau de toute forme linéaire non nulle est un hyperplan de E (i.e.
un sev de E de dimension n − 1). Inversement, tout hyperplan de E peut être considéré comme le noyau d’une
forme linéaire non nulle.

Preuve
Soit φ ∈ E ∗ , φ non nulle. Imφ est un sev de K, donc de dimension 0 ou 1. Comme φ est non nulle, rangφ = 1
et donc dim ker φ = n − 1. Si maintenant H est un hyperplan de E, on choisit une base (e1 , ..., en−1 ) de H que
l’on complète par un vecteur en en une base de E. φ linéaire définie par :

φ(ei ) = 0 si i = 1, 2, ..., n − 1
répond à la question.
φ(en ) = 1

Proposition 115
Soit E un K-ev de dimension n et (e1 , ..., en ) une base de E. Alors toute forme linéaire sur E est de la forme :

φ : E→K
X
n X
n
u = αi ei → αi ai où les ai sont des éléments fixés dans K.
i=1 i=1

Preuve
Il suffit de poser ai = φ(ei ).

Proposition 116
Soit E un K-ev de dimension n et B = (e1 , ..., en ) une base de E. Pour tout i = 1, 2, ..., n on définit la forme
linéaire e∗i par : 
∗ 1 si i = j
ei (ej ) = δij où δij =
0 si i 6= j
Alors la famille (e∗1 , ..., e∗n ) est une base de E ∗ . On l’appelle la base duale de la base B. En particulier, dim E ∗ = n
et E et E ∗ sont isomorphes.

Preuve
Pn
Soit φ une forme linéaire sur E. Soit, pour tout i, φ(ei )P = ai . Il est à peu près clair que φ = i=1 ai e∗i . La
(e∗i ) est donc génératrice ∗ ∗
n
famille
Pn Pn de E∗ . Si maintenant i=1 αi ei = 0, alors, pour tout j = 1, 2, ..., n, on a

( i=1 αi ei ) (ej ) = 0 et donc i=1 αi ei (ej ) = 0 ce qui donne αj = 0 pour tout j. La famille est donc libre.

63
7.3 Matrices et applications linéaires
Dans toute la suite, les ev sont de dimension finie sur K.

7.3.1 Définitions et opérations

Définition 117
n
Soit φ ∈ L(E, F ) où E et F sont deux K-ev, dim E = n et dim F = m. Soit B = (ei )i=1 une base de E,
m
C = (fj )j=1 une base de F. On appelle matrice de φ dans les bases B et C la matrice (aij ) ∈ Mmn (K) où aij
est la ième composante de φ(ej ) dans la base C.

On obtient cette matrice par :


φ (e1 ) φ (e2 ) · · · φ (en )
 
f1 a11 a12 · · · a1n
f2  a21 a22 · · · a2n 
 
..  .. .. .. .. 
.  . . . . 
fm am1 am2 · · · amn
On notera cette matrice par MBC (φ) ou, s’il n’y a pas ambiguité sur les bases, M (φ).

Proposition 118
Soit M la matrice de φ dans les bases B et C. Soit u un élément quelconque de E et X le vecteur colonne de ses
coordonnées dans la base B. Alors le vecteur colonne des coordonnées de φ(u) dans la base C est Y = M X .

Proposition 119
Soit B une base de E et C une base de F. Alors l’application

Φ : L(E, F ) → Mmn (K)


φ → Φ (φ) = MBC (φ)

est un isomorphisme d’espace vectoriel.

La preuve est triviale. Il faut retenir que si φ et ψ sont deux applications linéaires de E dans F et si α est un réel,
alors :
MBC (φ + ψ) = MBC (φ) + MBC (ψ) et MBC (αφ) = αMBC (φ)
Ceci montre aussi que L(E, F ) est de dimension mn.

Proposition 120
Soit E,F et G trois K-ev de dimension finie. Soit B,C et D une base respectivement de E,F,G. Soit φ ∈ L(E, F )
et ψ ∈ L(F, G) et soit M = MBC (φ) et N = MCD (ψ). Alors MBD (ψ ◦ φ) = N M .

Preuve
On écrit B =P(e1 , ..., en ) , C = (f1 , ...,
Ppfm ) D = (g1 , ..., gp ) .
m
φ (ei ) = j=1 aji fj ψ (fj ) = k=1 bkj gk d’où
!    
X
m X
p X
p X
m X
p X
m
(ψ ◦ φ) (ei ) = aji bkj gk =  aji bkj  gk =  bkj aji  gk
j=1 k=1 k=1 j=1 k=1 j=1

X
p X
m
= cki gk où cki = bkj aji
k=1 j=1

ce qui montre bien que MBD (ψ ◦ φ) = N M.

On a enfin un résultat prévisible :

64
Proposition 121
Soit φ ∈ L(E, F ) et soit MBC (φ) sa matrice dans une base B de E et une base C de F. Alors :

rangφ = rangMBC (φ)

En particulier, si dim E = dim F, φ est bijective ssi MBC (φ) est régulière et on a :
 −1
MCB φ−1 = (MBC (φ))

Preuve
Il suffit de voir que l’isomorphisme de F dans Km qui envoie tout vecteur de F sur ses coordonnées par rapport
à la base C est une bijection de Imφ sur C(M ), d’où le résultat. De plus, si E et F ont la même dimension,
φ est bijective ssi elle est surjective, c’est à dire ssi son rang est égal à dim F , ce qui équivaut donc à dire
que rangM = dim E = dim F , donc que M est régulière. Le résultat sur la composition des applications et le
produit des matrices donne la dernière égalité.

7.3.2 Changement de base


Soit E un ev sur K de dimension n. On note IE l’application identité de E dans E. Elle est linéaire.
Soit B une base de E. Il est clair que MBB (IE ) = In où In est la matrice identité.
Soit maintenant une base B ′ de E. La matrice de IE dans les bases B ′ et B est obtenue en écrivant en colonnes les
coordonnées des vecteurs de B ′ dans la base B. Si B = (ei )i=1 et B ′ = (e′i )i=1 , on a la matrice :
n n


 e1 e′2 · · · e′n 
e1 a11 a12 · · · a1n
e2  a21 a22 · · · a2n 
MB′ B (IE ) =  
..  .. .. .. .. 
.  . . . . 
en an1 an2 · · · ann

Si u est un élément fixé de E, on appelle X et X ′ les vecteurs colonnes de ses coordonnées dans les bases B et B ′ . On
a la relation :
X = MB′ B (IE ) X ′
(par définition de la matrice d’une application linéaire). Cette matrice s’appelle la matrice de changement de la base
B à la base B ′ . On a la propriété suivante :

Proposition 122
Soit φ ∈ L(E, F ), B et B ′ deux bases de E et C et C ′ deux bases de F . On appelle P la matrice de passage de
B à B ′ dans E et Q la matrice de passage de C à C ′ dans F . On a alors :

MB′ C ′ (φ) = Q−1 [MBC (φ)] P

En particulier, si E=F, on a :
MB′ B′ (φ) = P −1 [MBB (φ)] P

Preuve
Il suffit d’écrire le schéma :
E IE E φ F IF F′
B′ −
→B−→C− →C
et de considérer les matrices.

Remarque
Il est facile de voir qu’on peut toujours considérer une matrice régulière comme une matrice de changement de
base.

Ces résultats permettent de définir le déterminant d’un endomorphisme d’un ev E de dimension finie.

65
Proposition 123
Soit φ ∈ L(E). Soit M sa matrice dans une base quelconque de E. Alors det M ne dépend pas de la base choisie,
et on l’appelle le déterminant de φ (det φ). On a de plus :

φ bijective ⇐⇒ det φ 6= 0

Preuve
Si B et B 0 sont deux bases de E et P la matrice de passage, on sait que :

MB′ B′′ (φ) = P −1 [MBB (φ)] P d’où det (MB′ B′′ (φ)) = det P −1 [MBB (φ)] P

= det P −1 ) det [MBB (φ)] det(P = det [MBB (φ)]

et comme φ bijective ⇐⇒ M régulière⇐⇒ det M 6= 0.

Proposition 124
Soit φ ∈ L(E) et ψ ∈ L(E). Alors :
det (ψ ◦ φ) = det φ. det ψ

7.4 Exercices
Exercice 66
Soit f une application linéaire de R3 dans R4 définie par :

f (1, 1, 1) = (1, 1, 1, 3) , f (1, 1, 0) = (1, 1, 1, 2) et f (1, 0, 0) = (1, 1, 1, 1)

Que vaut f (3, 2, 1) ? f (x, y, z) ?

Exercice 67
Existe-t-il une application linéaire f de R3 dans R4 telle que f (1, 1, 3) = (1, 1, 1, 1), f (1, 1, 2) = (1, 1, 1, 0) et
f (1, 1, 1) = (1, 1, 0, 0) ?

Exercice 68
Soit φ : R3 → R2 l’application linéaire dont la matrice dans les bases canoniques est :
 
1 2 0
M=
0 −1 3

Que vaut φ(x, y, z), pour (x, y, z) quelconque dans R3 . Déterminer le noyau et l’image de φ.

Exercice 69
Soit E un K-ev de dimension 4, B = (e1 , e2 , e3 , e4 ) une base de E et f ∈ L(E) définie par :

f (e1 ) = e1 + e2 , f (e2 ) = 2e2 + e3 , f (e3 ) = 3e3 + e4 , f (e4 ) = 4e4

Montrer que f (B) est une base de E. Quelle est la matrice de f dans B et sa matrice dans f (B) ?

66
Exercice 70
Dans R3 , on considère la base canonique C ainsi que les bases F = ((1, 1, 1) , (1, 1, 0) , (1, 0, 0))
et G = ((1, −1, 0) , (2, −1, −2) , (1, −1, −2)).
• Calculer les matrices de changement de base de C à F et de F à G.
• Si f : R3 → R3 est définie par : f (x, y, z) = (3x − 2y + z, x + 3y, x − y + z), calculer MCC (f ), MCF (f )
et MFG (f ).

Exercice 71
 
2 1 −1
Soit T l’endomorphisme de R dont la matrice dans la base canonique est : A =
3  3 4 −5 .
3 3 −4
1. Calculer les matrices de T dans la base {(1, 1, 1) ; (1, −1, 0) ; (0, 1, 1)}, puis dans la base
{(2, −1, 2) ; (0, 1, −1) ; (0, 0, 1)} .
2. Calculer les matrices de T 2 , T 3 et T 10 dans la base canonique de R3 .

67
Chapitre 8

Projections

Contenu
8.1 Endomorphismes idempotents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2 Cas particulier de Rn - Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2.1 Produit scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
8.2.2 Projections orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
8.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

68
8.1 Endomorphismes idempotents
E est un espace vectoriel de dimension finie n sur K .

Définition 125
Soit φ ∈ L(E). On dit que φ est idempotent si φ ◦ φ = φ (φ2 = φ). C’est évidemment équivalent à dire que sa
matrice A dans n’importe quelle base est idempotente, c’est à dire vérifie A2 = A.

Exemple
Soit E = E1 ⊕ E2 . Tout u de E s’écrit d’une unique façon sous la forme : u = u1 + u2 avec ui ∈ Ei . L’application
p1 de E dans E définie par p1 (u) = u1 est linéaire, idempotente, et s’appelle la projection sur E1 parallèlement
à E2 . De même l’application p2 définie par p2 (u) = u2 est également linéaire, idempotente, et s’appelle la
projection sur E2 parallèlement à E1 . On a clairement p2 = IdE − p1 .

Théorème 126
Soit φ ∈ L(E), idempotente. Alors : E = Imφ ⊕ ker φ et φ est la projection sur Imφ parallèlement à ker φ. On
dit que φ est un projecteur de E.

Preuve
Soit u ∈ Imφ ∩ ker φ. Il existe alors v ∈ E tel que u = φ(v) et φ(u) = 0. Mais : 0 = φ(u) = φ ◦ φ (v) = φ(v) = u.
Donc Imφ et ker φ sont en somme directe. Soit alors u ∈ E. Comme φ [u − φ(u)] = 0, u − φ(u) ∈ ker φ et donc
u − φ(u) = u2 ∈ ker φ, donc u = φ(u) + u2 ce qui prouve que E = Imφ ⊕ ker φ.

Remarque
Si φ est idempotent, ses seules valeurs propres éventuelles sont 0 ou 1 puisqu’elles doivent vérifier λ2 = λ.

8.2 Cas particulier de Rn - Projections orthogonales


8.2.1 Produit scalaire
 
x1
 
Rn est muni de sa base canonique, et pour un élément x = (x1 , x2 , ..., xn ) de Rn , on notera X =  ...  le vecteur
xn
colonne de ses coordonnées dans la base canonique et X ′ le transposé de X (façon économétrie).

Définition 127
y = (y1 , y2 , ..., yn ) deux éléments de Rn . On appelle produit scalaire de x et y, et on
Soit x = (x1 , x2 , ..., xn ) et P
note hx, yi le réel hx, yi = i=1 xi yi = X ′ Y = Y ′ X.
n

Proposition 128
Le produit scalaire est une forme bilinéaire, symétrique et définie positive.

69
Définition 129
p
La norme d’un élément x de Rn , notée kxk est définie par : kxk = hx, xi. Elle possède les trois propriétés
suivantes :
• ∀x ∈ Rn , kxk = 0 ⇔ x = 0
• ∀α ∈ R, ∀x ∈ Rn , kαxk = |α| kxk
• ∀x ∈ Rn , ∀y ∈ Rn , kx + yk ≤ kxk + kyk

Définition 130
Deux éléments x et y de Rn sont dits orthogonaux si hx, yi = 0 (ou encore X ′ Y = 0). On le note x ⊥ y.

Définition 131

1 si i = j
Une base (e1 , ..., e n ) de R est dite orthonormée si hei , ej i = δij où δij =
n
(δij s’appelle le symbole
0 si i 6= j
de Kronecker).

Proposition 132
Pnélément x de R dans la base orthormée (e1 , ..., e n ) sont les produits scalaires hx, ei i
n
Les coordonnées d’un
autrement dit : x = i=1 hx, ei i ei .

Proposition 133
(procédé d’orthogonalisation de Gram-Schmidt) Soit (e1 , ..., e n ) une base de Rn . On peut construire une base
(q1 , ...qn ) orthonormée de Rn telle que, pour tout k = 1, 2, ..., n, V ect (q1 , ..., qk ) = V ect (e1 , ..., ek ) . La matrice
de passage de la base (e1 , ..., e n ) à la base (q1 , ..., q n ) est triangulaire supérieure.

Preuve
u1
Soit u1 = e1 et q1 = puis
ku1 k
u2 = e2 − hq1 , e2 i q1
u2
u2 est orthogonal à u1 et à q1 et on pose q2 = puis
ku2 k
u3
u3 = e3 − hq1 , e3 i q1 − hq2 , e3 i q2 et q3 = puis
ku3 k
u4
u4 = e4 − hq1 , e4 i q1 − hq2 , e4 i q2 − hq3 , e4 i q3 et q4 = etc...
ku4 k
uk
uk = ek − hq1 , ek i q1 − hq2 , ek i q2 − ... − hqk−1 , ek i qk−1 et qk = On vérifie sans peine que
kuk k
la famille (q1 , ..., q n ) répond à la question.

Orthonormalisez {(1, 0, 0) , (1, 1, 0) , (1, 1, 1)} dans R3 .

Théorème 134
Les matrices de passage d’une base orthonormée à une base orthonormée sont les matrices P qui vérifient
P ′ = P −1 (une telle matrice est dite orthogonale).

70
Preuve
Soit (e1 , ..., e n ) et (f1 , ..., f n ) deux bases orthonormées et P la matrice de passage de la première à la deuxième
base. On sait que P = (pij ) et que les colonnes de P sont les coordonnées des fj dans la base (ei ). Si on note
P ′ = p′ij la transposée de P , on a :

X
n X
n
P ′ P = (qij ) où qij = p′il plj = pli plj = hfi , fj i = δij
l=1 l=1

Donc P ′ P = In . La réciproque est vraie, c’est à dire que si (e1 , ..., e n ) est orthonormée, et si la matrice de
passage de (e1 , ..., e n ) à (f1 , ..., f n ) est orthogonale, alors (f1 , ..., f n ) est orthonormée. C’est facile à voir.

8.2.2 Projections orthogonales

Définition 135
Soit φ un projecteur de Rn (φ ◦ φ = φ). On dit que φ est un projecteur orthogonal si ker φ ⊥ Imφ (i.e. tout
élément de ker φ est orthogonal à tout élément de Imφ).

Notations : Soit (x1 , ..., xk ) une famille de k éléments linéairement indépendants de Rn , et F = V ect {x1 , ..., xk }. On
note Xi le vecteur colonne des coordonnées de xi dans la base canonique de Rn et X = (X1 X2 ...Xk ) la matrice n × k
formée par ces colonnes. Clairement :
(x1 , ..., xk ) libre ⇔ rangX = k

Proposition 136
La matrice de la projection orthogonale sur F dans la base canonique est :
−1
PX = X (X ′ X) X′

On a besoin du lemme :

Lemme 137
Si A est une matrice idempotente et symétrique, alors A est la matrice d’une projection orthogonale (base
canonique).

Preuve
−1
Preuve de la proposition : Soit φ de matrice X (X ′ X) X′
• X ′ X est une matrice k × k. On montre (voir Johnston, Econométrie), que rang(X ′ X) = rangX. Comme
−1
la famille (x1 , ..., xk ) est libre, X et donc X ′ X sont de rang k. X ′ X est donc inversible et (X ′ X) existe.
• PX est idempotente :
−1 −1 −1
2
PX = X (X ′ X) X ′ X (X ′ X) X ′ = X (X ′ X) X ′ = PX
• PX est symétrique :
h i′
′ −1 −1
PX = X (X ′ X) X ′ = X (X ′ X) X ′ = PX
grâce au lemme, on peut dire que φ est une projection orthogonale.
• φ est la projection orthogonale sur F :
h i h i
−1 −1 −1 −1
X (X ′ X) X ′ X = X donc X (X ′ X) X ′ (X1 ...Xk ) = X (X ′ X) X ′ X1 ...X (X ′ X) X ′ Xk =
(X1 ...Xk ) ce qui prouve que les xi sont invariants par φ et donc F ⊂ Imφ et comme rangPX = rangφ ≤ k,
on a bien Imφ = F.

71
Proposition 138
Soit (x1 , ..., xk ) une famille de k éléments linéairement indépendants de Rn , φ la projection orthogonale sur
V ect {x1 , ..., xk } . Alors pour tout y de Rn , φ(y) est l’unique élément de V ect {x1 , ..., xk } tel que :

ky − φ(y)k = min ky − zk
z∈V ect{x1 ,...,xk }

Preuve
Soit y ∈ Rn et z ∈ V ect {x1 , ..., xk }. On a :
2 2 2 2
ky − zk = ky − φ(y) + φ(y) + zk = ky − φ(y)k + kφ(y) − zk

car y − φ(y) ⊥ φ(y) − z et c’est le théorème de Pythagore. D’où :


2 2
ky − zk ≥ ky − φ(y)k

et on a l’égalité ssi φ(y) = z. Autrement dit, φ(y) est la meilleure approximation de y au sens des moindres
carrés par une combinaison linéaire des xi .

8.3 Exercices

Exercice 72
Montrer que toute famille de vecteurs non nuls deux à deux orthogonaux est libre. En déduire que les trois
vecteurs suivants de R4 forment une famille libre :

(2, 0, −2, 1) ; (1, −28, 1, 0) ; (0, 1/4, 7, 14)

Exercice 73
Soit u1 , ..., un une famille orthogonale de vecteurs de Rn . Montrer que :
2 2 2 2
ku1 + u2 + ... + un k = ku1 k + ku2 k + ... + kun k

Exercice 74
Vérifiez que les vecteurs (−2, 2, −1) ; (1, 2, 2) ; (2, 1, −2) forment une base orthogonale de R3 . Calculer ensuite
les coordonnées de (−3, 3, 3) et de (9, −4, 1) dans cette base.

Exercice 75
Soient les vecteurs de R4 :

u1 = (1, 0, 2, 0) ; u2 = (0, 0, 1, −1) ; u3 = (1, 1, 2, 6) ; u4 = (0, −1, 1, −7)

Trouver une base orthonormale de V ect {u1 , u2 , u3 , u4 }.

72
Exercice 76
√ 
Trouver la projection orthogonale de b = 5, 2 3, 0, −1 sur l’espace des solutions du système linéaire homogène
suivant : 
 x + x − √3x − √2 x = 0
1 2 3 4
 √ 3
3x − 3x − 2x = 0
2 3 4

Exercice 77
Montrer que si une matrice carrée A possède deux des trois propriétés suivantes, elle possède les trois propriétés :
• A est orthogonale
• A est symétrique
• A est involutive (A2 = A)

Exercice 78
Déterminez α, β, γ et δ de telle sorte que la matrice :
 
3 4 γ
1
A=  α −3 0 
5
0 β δ

soit orthogonale.

Exercice 79
Soit une matrice carrée A d’ordre n telle qu’il existe une matrice U orthogonale et un réel α tels que :

A = αU

1. Calculer det A
2. A est-elle inversible ?
3. Calculer A−1 lorsque A est inversible.

73
Chapitre 9

Notions de calcul différentiel

Contenu
9.1 Notion de topologie sur Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
9.1.1 Normes-Distances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
9.1.2 Suites convergentes dans Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
9.1.3 Ouverts-Fermés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
9.1.4 Ensembles convexes-Fonctions convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
9.2 Différentiabilité des fonctions de Rn dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
9.2.1 Différentielle d’une fonction de Rn dans R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
9.2.2 Formules de Taylor pour une fonction de Rn dans R . . . . . . . . . . . . . . . . . . . . . . . 79
9.2.3 Différentiabilité et convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
9.3 Fonctions de Rn dans Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
9.3.1 Différentielles-Jacobiennes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
9.3.2 Les fonctions implicites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
9.3.3 Fonction réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
9.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

74
9.1 Notion de topologie sur Rn
9.1.1 Normes-Distances

Définition 139
Soit X = (x1 , x2 , ..., xn ) un élément de Rn . On appelle norme euclidienne de X et on note kXk2 le réel :
q
kXk2 = x21 + x22 + ... + x2n
Pn
On appelle norme 1, et on note kXk1 le réel i=1 |xi | et norme infini le réel kXk∞ = Sup |xi | .
i=1,...,n

Proposition 140
On remarque que k1 k2 , k1 k1 , k1 k∞ sont des normes sur Rn , c’est à dire que :
• ∀X ∈ Rn , kXk = 0 ⇐⇒ X = 0
• ∀X ∈ R , ∀λ ∈ R, kλXk = |λ| . kXk
n

• ∀X1 ∈ Rn , ∀X2 ∈ Rn , kX1 + X2 k ≤ kX1 k + kX2 k

On utilise la notation kk pour désigner indifféremment l’une de ces normes.

Définition 141
Soit X et Y deux éléments de Rn . On appelle distance de X à Y le réel positif ou nul

d(X, Y ) = kX − Y k

Proposition 142
Soit d une distance, c’est à dire :
• ∀X ∈ Rn , ∀Y ∈ Rn , d(X, Y ) = d(Y, X)
• ∀X ∈ R , ∀Y ∈ R ,
n n
d(X, Y ) = 0 ⇐⇒ X = Y
• ∀X ∈ R , ∀Y ∈ R , ∀Z ∈ Rn ,
n n
d (X, Z) ≤ d(X, Y ) + d(Y, Z)

Définition 143
Soit X0 ∈ Rn et r ∈ R+ . On appelle boule ouverte (respectivement boule fermée) de centre X0 et de rayon
r l’ensemble des X de Rn tels que d(X0 , X) < r (respectivement d(X0 , X) ≤ r). On note la boule ouverte

B(X0 , r) et la boule fermée B(X0 , r).

9.1.2 Suites convergentes dans Rn

Définition 144
Soit (Xp )p∈N une suite d’éléments de Rn et X un élément de Rn . On dit que la suite (Xp ) converge vers X si
kXp − Xk tend vers 0 quand p tend vers l’infini.

En notant Xp = (xp1 , xp2 , ..., xpn ) et X = (x1 , x2 , ..., xn ) on voit facilement que (Xp ) → X si et seulement si
p→+∞
xpk → xk pour tout k = 1, 2, ..., n.
p→+∞

75
9.1.3 Ouverts-Fermés

Définition 145
Un sous ensemble U de Rn est dit ouvert si chaque fois qu’il contient un élément, il contient une boule ouverte
centrée en cet élément, ce qui s’écrit :

U ouvert ⇐⇒ ∀X ∈ U, ∃ r > 0 tel que B(X, r) ⊂ U

Définition 146
Un sous ensemble de Rn est dit fermé si son complémentaire est ouvert.

On peut montrer la proposition suivante :

Proposition 147
Soit F un ensemble. F est fermé ssi toute limite d’éléments de F est un élément de F.

Définition 148
Soit A un sous ensemble de Rn . Un point X de A est dit intérieur à A s’il existe une boule ouverte de centre

X contenu dans A. L’ensemble des points intérieurs à A s’appelle l’intérieur de A et se note A. C’est un ouvert.
C’est le plus grand ouvert contenu dans A.

Définition 149
Soit A ⊂ Rn . Un point X est dit adhérent à A si toute boule ouverte centrée en X rencontre A (∀r >

0, B(X, r) ∩ A 6= ∅). L’ensemble des points adhérents à A s’appelle l’adhérence de A et se note A.

Définition 150
Un sous ensemble de Rn est dit compact s’il est fermé et borné.

9.1.4 Ensembles convexes-Fonctions convexes

Définition 151
Un sous ensemble C de Rn est dit convexe si pour tout (X, Y ) de C2 , le segment [X, Y ] est inclus dans C. C’est
à dire :
∀X ∈ C, ∀Y ∈ C, ∀t ∈ [0, 1] , tX + (1 − t)Y ∈ C

Proposition 152
• Toute intersection de convexes est convexe.
• L’adhérence d’un convexe est convexe.
• Un demi-espace est convexe.
• Toute intersection de demi-espaces est convexe.

76
Définition 153
Soit f une fonction de Rn dans R, définie sur un ensemble convexe C. On dit que f est convexe (respectivement
concave) sur C si :

∀X ∈ C, ∀Y ∈ C, ∀t ∈ [0, 1] , f (tX + (1 − t) Y ) ≤ tf (X) + (1 − t)f (Y )


(respectivement f (tX + (1 − t) Y ) ≥ tf (X) + (1 − t)f (Y ) )

Remarque
• f est concave sur C⇐⇒ −f est convexe sur C.
Pm
• Si f1 , f2 , ..., fm sont convexes sur C, alors max {f1 , ..., fm } et αi fi avec αi ≥ 0 sont convexes sur C.
Pmi=1
• Si f1 , f2 , ..., fm sont concaves sur C, alors min {f1 , ..., fm } et i=1 αi fi avec αi ≥ 0 sont concaves sur C.
• On définit des fonctions strictement convexes par :

∀X ∈ C, ∀Y ∈ C, ∀t ∈ ]0, 1[ , f (tX + (1 − t) Y ) < tf (X) + (1 − t)f (Y )

et de même pour les fonctions strictement concaves.

Définition 154
Une fonction f de Rn dans R, définie sur un ensemble convexe C est dite quasi concave si :

∀X ∈ C, ∀Y ∈ C, ∀t ∈ [0, 1] , f (tX + (1 − t) Y ) ≥ min {f (X), f (Y )}

On montre que cela équivaut à dire que pour tout α de R, l’ensemble Aα = {X ∈ C tels que f (X) ≥ α} est
convexe. On a une définition analogue pour une fonction quasi convexe.

9.2 Différentiabilité des fonctions de Rn dans R


Tout le calcul différentiel repose sur l’idée d’approximation d’une fonction par une fonction plus simple, c’est à dire
une fonction linéaire. En dimension 1 (i.e. pour f : R → R), ce fait est masqué parce que toute application linéaire de
R dans R est de la forme x → ax. Et on ne retient que le réel a, la dérivée de f en x0 . Il en est autrement en dimension
supérieure, et plus généralement dans les espaces de Banach, mais cela nous entrainerait trop loin.

9.2.1 Différentielle d’une fonction de Rn dans R

Définition 155
Soit f : Rn → R, définie sur un voisinage de X0 (c’est à dire un ouvert contenant X0 ). On dit que f est
différentiable en X0 s’il existe une application linéaire L0 de Rn → R telle que, pour X assez proche de X0 , on
ait :

f (X) = f (X0 ) + L0 (X − X0 ) + kX − X0 k ε(X)


où lim ε(X) = 0
X→X0

L0 s’appelle la différentielle de f en X0 et se note DfX0 .

77
Remarque
 L0 est bien une application linéaire qui approche f en X au voisinage de X0 , d’autant mieux que X est plus
proche de X0 (le terme correctif kX − X0 k ε(X) tend très vite vers 0).
 Comme L0 est une application linéaire de Rn dans R, on sait (voir algèbre linéaire) qu’il existe n réels
a1 , a2 , ..., an tels que pour tout X = (x1 , x2 , ..., xn ) ∈ Rn , L0 (x1 , x2 , ..., xn ) = a1 x1 + a2 x2 + ... + an xn . Donc
dire que f est différentiable en X0 équivaut à dire qu’il  existe n réels a1 , a2 , ..., an tels que pour tout X =
(x1 , x2 , ..., xn ) ∈ Rn assez proche de X0 = x01 , x02 , ..., x0n , on a :

X
n
f (X) = f (X0 ) + ai (xi − x0i ) + kX − X0 k ε(X) où lim ε(X) = 0
X→X0
i=1

Proposition 156
 Si f est différentiable en X0 alors f admet des dérivées partielles par rapport à chaque variable et on a :
Xn
∂f
f (X) = f (X0 ) + (X0 )(xi − x0i ) + kX − X0 k ε(X) où lim ε(X) = 0
i=1
∂x i X→X0

autrement dit :
Xn
∂f
DfX0 (h1 , ..., hn ) = (X0 )hi
i=1
∂xi
 Si f est définie au voisinage de X0 et si f admet en X0 des dérivées partielles continues en X0 , alors f est
différentiable en X0 . On dit que f est continûment différentiable en X0 .

Définition 157
On dit que f est continûment différentiable sur un ouvert D (ou de classe C 1 sur D) si f est continûment
différentiable en tout point de D.

Définition 158
On dit qu’une fonction f définie sur un sous ensemble A de Rn est homogène de degré α (α ∈ R) si :

∀t ∈ R∗+ , ∀X ∈ A , tX ∈ A et f (tX) = tα f (X)

Proposition 159
∂f
Si f est homogène de degré α et si f admet une dérivée partielle par rapport à xi , alors est homogène de
∂xi
degré α − 1.

Proposition 160
(Euler) Si f est homogène de degré α et si f est différentiable en X, on a :

X
n
∂f
xi (X) = αf (X)
i=1
∂xi

La réciproque est vraie.

78
Exemple
Soit f une fonction de production homogène de degré 1 (rendements constants). L’égalité d’Euler
Pn ∂f
xi (X) = f (X) montre que le produit f (X) permet de payer chaque facteur utilisé à sa productivité
i=1 ∂x i
∂f
Pn (X)
∂xi
marginale, et aussi que la somme des élasticités xi vaut 1.
i=1 f (X)

9.2.2 Formules de Taylor pour une fonction de Rn dans R

Définition 161
Soit f une fonction de Rn dans R définie sur un ouvert U de Rn . On dit que f est de classe C 2 sur U si ses
dérivées partielles d’ordre 2 existent et sont continues sur U . On définit de même les fonctions de classe C n et
même de classe C ∞ (de classe C n pour tout entier naturel n) sur U.

Remarque
On sait alors (Schwarz) que :

∂2f ∂2f
∀i, j , ∀X ∈ U, (X) = (X)
∂xi ∂xj ∂xj ∂xi

Définition 162
Soit f de classe C 2 sur un ouvert U . La matrice hessienne de f en X, notée H(f )X est la matrice carrée
symétrique d’ordre n donnée par :  2 
∂ f
H(f )X = (X)
∂xi ∂xj 1≤i≤n
1≤j≤n

On a alors un développement limité d’ordre 2 de f au voisinage de X0 de U .

Théorème 163
Soit f une fonction de classe C 2 au voisinage de X0 . Alors, pour Y de norme assez petite, on a :

1t 2
f (X0 + Y ) = f (X0 ) + DfX0 (Y ) + Y H(f )X0 Y + kY k ε(Y )
2
où lim ε(Y ) = 0
Y →0

(t Y H(f )X0 Y est la valeur de la forme quadratique définie par la hessienne de f en X0 au point Y, voir cours
sur les formes quadratiques.)

Remarque
Cette formule de Taylor à l’ordre 2 donne l’approximation de f au voisinage de X0 par un polynôme de degré
2. Ce qui suit permet d’approcher f au voisinage de X0 par des polynômes de degré supérieur.

79
Définition 164
Soit f une fonction de Rn dans R de classe C k sur un ouvert U de Rn . Pour l ≤ k, on pose :
X
n X
n X
n
∂lf X ∂lf
Dl fX (Y, ..., Y ) = ... (X).yi1 yi2 ..yil = (X).yi1 yi2 ..yil
∂xi1 ∂xi2 ...∂xil ∂xi1 ∂xi2 ...∂xil
i1 =1 i2 =1 i =1
l 1≤i1, i2 ,...,il ≤n

où Y = (y1 , ..., yn ).

On peut montrer que :


X l! ∂lf α1 α2
Dl fX (Y, ..., Y ) = αn
αn (X).y1 y2 ..yn
α1 !α2 !...αn ! ∂x1 ∂xα
α1
2
2
...∂x n
α1 ,..,αn ∈N
α1 +α2 +...+αn =l

Exemple
X ∂2f X ∂2f
l1 l2
D2 fX (Y, Y ) = l1 l2 ln
(X).y 1 y 2 ...y ln
n = (X)yi yj = t Y H(f )X Y
∂x 1 ∂x 2 ...∂x n i,j
∂x i ∂x j
l1 +l2 +...+ln =2

On a alors la proposition suivante (formule de Taylor à l’ordre k) :

Proposition 165
Soit f une fonction de Rn dans R de classe C k sur un voisinage de X0 . Alors, pour Y de norme assez petite,
on a :
1 1 k
f (X0 + Y ) = f (X0 ) + DfX0 (Y ) + D2 fX0 (Y, Y ) + ... + Dk fX0 (Y, ..., Y ) + kY k ε(Y )
2 k!
où lim ε(Y ) = 0
Y →0

9.2.3 Différentiabilité et convexité


On a deux théorèmes qui caractérisent les fonctions convexes à l’aide des différentielles.

Théorème 166
Soit U un ouvert convexe de Rn . Pour qu’une fonction f de Rn dans R, différentiable sur U , soit convexe, il
faut et il suffit que pour tout X et X0 de U , on ait :

f (X) ≥ f (X0 ) + DfX0 (X − X0 )

(renverser l’inégalité pour qu’une fonction soit concave).

Théorème 167
Soit f de classe C 2 sur un ouvert convexe U de Rn . Pour que f soit convexe (resp.concave) sur U , il faut et il suffit
que que pour tout X de U la matrice hessienne de f en X soit positive (resp.négative) (la forme quadratique
qu’elle définie est positive, i.e. :t Y H(f )X0 Y ≥ 0 ∀Y ∈ Rn ) (resp. négative : t Y H(f )X0 Y ≤ 0 ∀Y ∈ Rn ).

9.3 Fonctions de Rn dans Rm


Une fonction F de Rn dans Rm sera notée :
F : Rn → Rm
X = (x1 , ..., xn ) → F (X) = (f1 (X), ..., fm (X))
Où les fi sont des fonctions de Rn dans R que l’on appelle les fonctions coordonnées de F .

9.3.1 Différentielles-Jacobiennes

80
Définition 168
On dit qu’une fonction F de Rn dans Rm , définie sur un voisinage de X0 est différentiable en X0 si ses fonctions
coordonnées sont différentiables en X0 .

On peut donc écrire, pour tout i = 1, ..., m et pour X assez proche de X0 :

fi (X) = fi (X0 ) + DfiX0 (X − X0 ) + kX − X0 k εi (X)


où lim εi (X) = 0
X→X0

On peut alors définir une application linéaire de Rn dans Rm , notée DFX0 par :

DFX0 (Y ) = (Df1X0 (Y ), ..., DfmX0 (Y ))

DFX0 s’appelle la différentielle de F en X0 . On peut alors écrire :

F (X) = F (X0 ) + DFX0 (X − X0 ) + kX − X0 k ε(X)


où lim ε(X) = 0
X→X0

Cette égalité donne encore une approximation de F au voisinage de X0 par une application linéaire. Le fait de travailler
∂fi
en dimension finie va permettre de traduire cette égalité matriciellement. Supposons que les (X0 ) existent et soient
∂xj
continues en X0 pour tout i = 1, ..., m et tout j = 1, ..., n (on dit que F est de classe C 1 ). On sait alors que la
différentielle DfiX0 est définie par :
Xn
∂fi
DfiX0 (y1 , ..., yn ) = (X0 )yj
j=1
∂x j

Pn ∂f
i
Donc chaque composante de DFX0 (Y ) dans la base canonique de Rm sera : (X0 )yj , ou encore que le vecteur
j=1 ∂xj
colonne de ses coordonnées dans la base canonique est :
Pn 
∂f1
(X0 )yj
 j=1 ∂xj 
 
 . 
DFX0 (Y )  .. 
 n 
 P ∂fm 
(X0 )yj
j=1 ∂xj

On a alors l’égalité matricielle :


P n   
∂f1 ∂f1 ∂f1
 j=1 ∂xj
(X0 )yj
  ∂x (X0 ) ··· (X0 )  y 
   1 ∂xn  1
 ..   .. ..  . 
 = ..  . 
 n .   . . .  .
 P ∂fm  ∂fm ∂fm 
yn
(X0 )yj (X0 ) ··· (X0 )
j=1 ∂xj ∂x1 ∂xn

Ce qui prouve que la matrice de DFX0 dans les bases canoniques de Rn et Rm est :
 
∂f1 ∂f1
(X ) ··· (X0 )
 ∂x1 0 ∂xn 
 .. .. 
 .. 
 . . . 
 ∂f ∂fm 
m
(X0 ) ··· (X0 )
∂x1 ∂xn

Cette matrice s’appelle la jacobienne de F en X0 et se note en général J (F )X0 . C’est une matrice m × n. Si m = n,
son déterminant s’appelle le jacobien de F en X0 (noté J (F )X0 ). On a une propriété importante de composition :

81
Proposition 169
Soit F : Rn → Rm différentiable en X0 et G : Rm → Rp différentiable en Y0 = F (X0 ). Alors G ◦ F est
différentiable en X0 et :
D(G ◦ F )X0 = DGF (X0 ) ◦ DFX0
Ce qui se traduit matriciellement, si F et G sont de classe C 1 par :

J(G ◦ F )X0 = J(G)F (X0 ) × J(F )X0

Ce résultat permet ce que l’on appelle parfois des dérivations en chaines (voir exercices).

9.3.2 Les fonctions implicites


Cas de deux variables

Théorème 170
Soit f : R2 → R de classe C 1 sur un ouvert contenant X0 = (x0 , y0 ). On pose k = f (X0 ). On suppose que
∂f
(X0 ) 6= 0. Il existe alors un voisinage de x0 (]x0 − α, x0 + α[ , α > 0) et une fonction x → y(x) de R dans
∂y 
  ∀x ∈ ]x0 − α, x0 + α[ , f (x, y(x)) = k



  y(x0 ) = y0

∂f
R, de classe C 1 sur ce voisinage, tels que : (x , y )
  y ′ (x ) = − ∂x 0 0


 0

 ∂f
(x0 , y0 )
∂y

Ce théorème signifie que la courbe de niveau k de f peut être considérée localement (c’est à dire pour X proche de
X0 ) comme la courbe représentative d’une fonction d’une variable et la dernière formule permet de calculer la dérivée
de cette fonction en x0 .

Cas (plus) général

Théorème 171
Soit

f i : R m × Rn → R pour i = 1, ..., n
(x1 , ..., xm , y1 , ..., yn ) → fi (x1 , ..., xm , y1 , ..., yn ) = f (x, y)

n fonctions à valeurs réelles, de classe C 1 sur un ouvert U × V "contenant (a, b) #= (a1 , ..., am , b1 , ..., bn ) . On
 
∂fi
suppose que fi (a, b) = 0 pour i = 1, ..., n et que le jacobien det est différent de 0. Il existe
∂yj i,j=1,...,n
alors un réel α > 0 et un unique système de n fonctions scalaires g1 , ..., gn définies et de classe C 1 sur W =
{x ∈ U / kx − ak < α} telles que :
 gi (a1 , ..., am ) = bi pour i = 1, ..., n
 ∀x = (x1 , ..., xm ) ∈ W, ∀i = 1, ..., n
fi (x1 , ..., xm , g1 (x1 , ..., xm ), ..., gn (x1 , ..., xm )) = 0 La jacobienne des gi est donnée par :
 
∂gi
J(g1 , ..., gn )(x1 , ..., xm ) = (x) = −B −1 A
∂xj 1≤i≤n
1≤j≤m

où A (resp.
  B) est obtenue
 en remplaçant
 yi par gi (x) (i = 1, ..., n) dans la matrice jacobienne
∂fi ∂fi
(x, y) (resp. (x, y) ). Si on suppose que f est de classe C k (k ≥ 1) sur U × V ,
∂xk 1≤i≤n ∂yj 1≤i≤n
1≤k≤m 1≤j≤n
alors les gi sont aussi de classe C k sur W .

9.3.3 Fonction réciproque


Le théorème suivant s’obtient en appliquant le théorème des fonctions implicites à la fonction f (x) − y.

82
Théorème 172
Soit f une fonction de Rn → Rn , de classe C 1 sur un voisinage de x0 , et dont la différentielle en x0 , Dfx0 , est
bijective. Il existe alors un voisinage ouvert U de x0 et un voisinage ouvert V de y0 = f (x0 ) tels que f soit
une bijection de U sur V . Si on note f −1 la bijection réciproque (définie sur V ), f −1 est de classe C 1 sur V et
−1
Dfy−1 = (Dfx ) ∀x ∈ U et y = f (x).

9.4 Exercices
Exercice 80
Donner le polynôme de Taylor d’ordre 2 pour la fonction f définie par f (x, y) = x1/4 y 3/4 au point (1, 1).
En déduire une approximation de f (1, 1; 0, 9). Calculer ensuite son polynôme de Taylor d’ordre 3 au voisinage
de (1, 1).

Exercice 81
Calculer les polynômes de Taylor d’ordre 1,2,3 pour les fonctions suivantes au voisinage du point indiqué :
x p
f (x, y) = en (0, 0) g(x, y) = ex 1 + y 2 en (0, 0)
1+y
ex
h(x, y, z) = x1/4 y 1/2 z 1/4 en (1, 1, 1) k(x, y) = en (0, 1)
1+y

Exercice 82
Soit f (x, y) = a0 + a1 x + a2 y + b1 x2 + b2 xy + b3 y 2 un polynôme à deux variables de degré inférieur ou égal à
2. Montrer que son polynôme de Taylor d’ordre supérieur ou égal à deux au voisinage de tout point (x, y) est
égal à f .

Exercice 83
Soit f une fonction de n variables à valeurs réelles différentiable en (X0 + t0 V ) où V = (v1 , ..., vn ) est un
vecteur non nul. Montrer que la fonction g de R dans R définie par g(t) = f (X0 + tV ) est dérivable en t0 et que

Xn
∂f

g (t0 ) = Df(X0 +t0 V ) (V ) = (X0 + t0 V )vi
i=1
∂x i

Application : calculer la différentielle en X0 = (x0 , y0 , z0 ) de la fonction f (x, y, z) = (x2 + y)ez et la dérivée en


t0 de g(t) = f (X0 + tV ) où V = (v1 , v2 , v3 ) = (0, 0, 0).

Exercice 84
Soit a, b, c trois réels non nuls. Pour quelles valeurs des paramètres α, β, γ la fonction f définie par

f (x, y, z) = axα y β + by β z γ + cz α xβ

est-elle homogène ? Vérifier alors l’identité d’Euler.

Exercice 85
Soit f : R2 → R2 définie par f (r, θ) = (r cos θ, r sin θ). Calculer sa jacobienne et son jacobien en un point
quelconque.

83
Exercice 86
Soit g : Rm → Rn qui à (x1 , ..., xm ) associe g(x1 , ..., xm ) = (g1 (x1 , ..., xm ) , ..., gn (x1 , ..., xm )) et f : Rn → R
qui à (t1 , ..., tn ) associe f (t1 , ..., tn ). On suppose g de classe C 1 en X0 et f de classe C 1 en T0 = g(X0 ). Soit
h = f ◦ g. En utilisant les jacobiennes, retrouver le résultat bien connu :

∂h X ∂f n
∂gj
∀i = 1, 2, ..., m (X0 ) = (T0 ) (X0 )
∂xi j=1
∂tj ∂xi

Exercice 87
Quels sont les effets marginaux des paramètres a et b sur la solution (x, y) du système de 2 équations :

xy + ax2 + by − 2b = 0
y a
2 2
+ ay − bx + = 0
x +y 2
au voisinage de a0 = 2, b0 = 1, x0 = 1, y0 = 0 ?

Exercice 88
3
Soit f (x, y, z) = x1/4 y 1/4 z 1/2 une fonction définie sur R∗+ à valeurs dans R.
1. Calculer le polynôme de Taylor d’ordre 2 de f au voisinage de (1, 1, 1). Comment obtenir une valeur
approchée de f (0.98; 1.02; 1.03) ?
3
2. Calculer la matrice hessienne de f en un point (a; b; c) quelconque de R∗+ .
3
3. Montrer que la hessienne est définie négative en tout point de R∗+ (on aura intérêt à mettre en facteur les
plus grandes puissances négatives de a, b, c dans la matrice et à utiliser la méthode des mineurs diagonaux
principaux qui figure dans le cours). Que peut-on en conclure pour f ?
3
4. On considère maintenant la fonction F de R∗+ dans R3 définie par :

F (x, y, z) = (f (x, y, z) , g(x, y, z), h(x, y, z))


2
+y 2 +z 2
où f est la fonction précédente, g(x, y, z) = ex et h(x, y, z) = ln(x + y + z).
(a) Calculer la matrice jacobienne de J1 (F ) au point (1; 1; 1).
(b) Montrer sans calculs que det (J1 (F )) = 0. En déduire que 0 est valeur propre de J1 (F ).

84
Chapitre 10

Diagonalisation

Contenu
10.1 Rappels : changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
10.2 Vecteurs propres-Sous espaces propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
10.3 Polynôme caractéristiques-Endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . 87
10.3.1 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
10.3.2 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
10.3.3 Forme réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10.3.4 Forme de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10.3.5 Théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10.4 Application au calcul des puissances d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.4.1 Utilisation du théorème de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.4.2 Utilisation d’une forme réduite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
10.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

85
Dans tout le chapitre, E désigne un espace vectoriel sur K (K = R ou C) de dimension finie n. L(E) est l’espace
vectoriel des endomorphismes de E et Mn (K) l’espace vectoriel des matrices carrées d’ordre n à coefficients dans K.

10.1 Rappels : changement de base

Définition 173
Soit f un endomorphisme de E Pet B = (e1 , e2 , ..., en ) une base de E. On appelle matrice de f dans la base B la
n
matrice A = (aij ) où f (ej ) = i=1 aij ei .

Proposition 174
Pn c = AVb où
Soit V = i=1 αi ei un élément de E et A la matrice de f dans la base B. Alors W = f (V ) ⇐⇒ W
c b
W et V sont les vecteurs colonnes des coordonnées de W et de V dans la base B.

Preuve : c’est évident.

Définition 175
Pn
Soit B = (e1 , e2 , ..., en ) et B ′ = (e′1 , e′2 , ..., e′n ) deux bases de E. On pose e′j = i=1 αij ei . Alors la matrice
P = (αij ) s’appelle la matrice de passage de la base B à la base B ′ . C’est aussi la matrice de IdE : (E, B ′ ) →
(E, B).

Proposition 176
Si P est inversible et P −1 est la matrice de passage de la base B ’ à la base B alors P −1 est la matrice de
IdE : (E, B ) → (E, B ′ ).

Preuve
On peut considérer P comme la matrice dans la base B de f telle que f (ei ) = e′i . Et comme f transforme une
base en une base, elle est bijective, donc sa matrice est inversible.

Proposition 177
 Soit V un élément de E et Vb (respectivement Vc′ ) la matrice colonne de ses coordonnées dans la base B
(respectivement dans la base B ’). Alors : Vb = P Vc′ et Vc′ = P −1 V.
b
 Soit A la matrice de f dans la base B et A ’ sa matrice dans la base B ’. Alors :

A ′ = P −1 AP et A = P A ′ P −1

On dit que A et A ′ sont semblables.

10.2 Vecteurs propres-Sous espaces propres

Définition 178
 Soit f ∈ L(E) et A sa matrice dans une base de E. Un scalaire λ est appelé une valeur propre de f (ou de
A) s’il existe un vecteur V de E ∗ tel que f (V ) = λV.
 Si λ est une valeur propre de f , tout vecteur V de E tel que f (V ) = λV s’appelle un vecteur propre relatif
à la valeur propre λ. L’ensemble de tous les vecteurs propres relatifs à la valeur propre λ est un sev, que l’on
appelle le sous espace propre relatif à la valeur propre λ et que l’on note E(λ).

86
Définition 179
 Un endomorphisme f de E est dit diagonalisable s’il existe une base de E dans laquelle la matrice de f est
diagonale. C’est équivalent à dire qu’il existe une base de E formée de vecteurs propres. Les éléments diagonaux
de la matrice de f dans cette base sont alors des valeurs propres de f.
 Une matrice A de Mn (K) est dite diagonalisable si elle est semblable à une matrice diagonale. C’est équivalent
à dire que A est la matrice dans une base d’un endomorphisme diagonalisable.

Proposition 180
Soit f ∈ L(E). Un scalaire λ est valeur propre de f ssi (f − λIdE ) est non injective et alors
E(λ) = ker(f − λIdE ).

Preuve
λ est valeur propre de f ssi il existe V ∈ E ∗ tel que f (V ) = λV ⇐⇒ il existe V ∈ E ∗ tel que f (V ) − λV = 0
⇐⇒ il existe V ∈ E ∗ tel que (f − λIdE ) (V ) = 0 ce qui équivaut à dire que (f − λIdE ) est non
injective et (presque) par définition, E(λ) = ker(f − λIdE ).

10.3 Polynôme caractéristiques-Endomorphismes diagonalisables


10.3.1 Polynôme caractéristique

Définition 181
Soit f un endomorphisme de E, de matrice A dans une base B. Alors le polynôme

Pf (X) = PA (X) = det(A − XI)

ne dépend pas de la base choisie. On l’appelle le polynôme caractéristique de f (ou de A). Il s’écrit :

Pf (X) = (−1)n X n + (−1)n−1 T r(A)X n−1 + ... + det(A)

Preuve
Si B ′ est une autre base et P la matrice de passage de B à B’, on sait que f a pour matrice A′ = P −1 AP dans
la base B’. Mais alors :
 
det(A′ − XI) = det(P −1 AP − XP −1 P ) = det P −1 (A − XI) P

= det P −1 det(A − XI) (det P ) = det(A − XI) = PA (X)

a11 − X ··· a1n


Le polynôme est donc indépendant de la base choisie. Calculons det(A − XI) = .. . .. .. .
. .
an1 · · · ann − X
Si on développe par rapport à une colonne, on voit apparaître le terme (a11 − X)...(ann − X), tous les autres
termes ne comportant qu’au plus (n − 2) facteurs (aii − X). Les seuls termes en X n et X n−1 viennent donc
n n−1 Pn
du développement de (a11 − X)...(ann − X), ce qui donne (−1) X n + (−1) ( i=1 aii ) X n−1 (Au passage,
comme ce polynôme ne dépend pas de la base, ce résultat montre que la trace de deux matrices semblables est
la même, donc que la trace ne dépend que de l’endomorphisme). Comme il est clair que P (0) = det A, le terme
constant du polynôme caractéristique est bien det(A).

Proposition 182
On dit que λ est une valeur propre de f (ou de A) ssi λ est racine du polynôme caractéristique.

87
Preuve
On a les équivalences suivantes :

λ racine de Pf (X) ⇐⇒ Pf (λ) = 0 ⇐⇒ det(f − λIdE ) = 0


⇐⇒ (f − λIdE ) non injective ⇐⇒ λ valeur propre de f

Remarque
Un endomorphisme
  d’un R-ev peut ne pas admettre de valeur propre. Par exemple f de matrice :
cos α − sin α
, avec α 6= kπ, n’admet pas de valeur propre, son polynôme caractéristique vaut en ef-
sin α cos α
fet : X − 2X cos α + 1.
2

10.3.2 Diagonalisation

Définition 183
Soit f un endomorphisme de E, A sa matrice dans une base quelconque de E, λ une valeur propre de f (ou
de A) et P (X) le polynôme caractéristique de f (ou de A). On appelle ordre de multiplicité de λ son ordre de
multiplicité comme racine de P (X), c’est à dire que son ordre de multiplicité est l’unique entier naturel non
nul m tel que : P (X) = (X − λ)m Q(X) avec Q(λ) 6= 0.

Lemme 184
Soit λ une valeur propre de f d’ordre de multiplicité m et E(λ) le sous espace propre associé. Alors :

1 ≤ dim E(λ) ≤ m

Preuve
Soit (e1 , ..., er ) une base de E(λ), avec r = dim E(λ), que l’on complète en une base de E. La matrice A de f
dans cette base est de la forme :
     
λ 0 0
    
  0 . . . 0   A1 
 
 0 λ 
A=     
 
 
  0   B  

On a alors :
r
P (X) = det(A − XI) = (λ − X) Q(X)
ce qui prouve que r ≤ m. Et 1 ≤ r par définition.

Lemme 185
Soit λ1 , λ2 , ..., λs des valeurs propres de f, deux à deux distinctes et E(λi ) les sous espaces propres correspon-
dants. Alors la somme E(λ1 ) + E(λ2 ) + ... + E(λs ) est directe.

88
Preuve
Par récurrence sur s. Si s = 1, il n’y a rien à démontrer. Supposons la propriété vraie pour s − 1 valeurs propres
deux à deux distinctesPs et considérons le cas de s valeurs propres distinctes deux à deux. Soient xi ∈ E(λi ) pour
i = 1, ..., s tels que i=1 xi = 0. Alors
! !
Xs Xs Xs
f xi = 0 et donc λ i x i = 0 = λs xi
i=1 i=1 i=1

Par différence, il vient :


X
s−1
(λi − λs ) xi = 0
i=1

et l’hypothèse de récurrence assure que (λi − λs ) xi = 0 pour tout i = 1, ..., s − 1. Comme les λi sont deux à
deux distincts, on a xi = 0 pour i = 1, ..., s − 1 d’où xs = 0, ce qui donne le résultat.

Théorème 186
Soit f ∈ L(E). Les conditions suivantes sont équivalentes :
(i) f est diagonalisable.
(ii) Pf (X) admet toutes ses racines dans K et pour chaque valeur propre λi , d’ordre de multiplicité mi ,
on a : mi = dim E(λi ).
(iii) Si λ1 , ..., λr sont les différentes valeurs propres de f, alors E = E(λ1 ) ⊕ ... ⊕ E(λr ).

Preuve
(i) ⇒(ii) f est diagonalisable : il existe donc une base dans laquelle la matrice de f est diagonale. Quitte à
changer l’ordre des vecteurs de la base, on peut supposer que la matrice de f est :
 
λ1 0 ··· ··· 0
 .. .. 
 0 . . 
 
 .. 
 . λ1 
 
 .. 
A= . 
 
 .. 
 λr . 
 
 .. .. 
 . . 0 
0 ··· ··· 0 λr

Le polynôme caractéristique vaut alors :


m1
P (X) = det(A − XI) = (λ1 − X) ...(λr − X)mr

Chaque λi a pour ordre de multiplicité mi . Les m1 premiers vecteurs de la base engendrent un sev qui est de
dimension m1 et est contenu dans E(λ1 ). Comme dim E(λ1 ) ≤ m1 , il suit que E(λ1 ) est exactement le sev
engendré par les m1 premiers vecteurs de la base. On raisonne de même pour les m2 suivants, puis ... pour les
mr derniers. Ce qui montre bien que pour tout i, mi = dim E(λi ).
(ii) ⇒(iii) Le polynôme caractéristique s’écrit donc :

Y
r X
r
P (X) = (λi − X)mi avec les λi deux à deux distincts et mi = n.
i=1 i=1
P P
Comme la somme E(λ1 ) ⊕ ... ⊕ E(λr ) est directe, on a dim(E(λ1 ) ⊕ ... ⊕ E(λr )) = dim E(λi ) = mi = n
d’où E = E(λ1 ) ⊕ ... ⊕ E(λr ).
(iii) ⇒(i) Il suffit de prendre une base dans chaque E(λi ). Leur réunion donne une base de E dans
laquelle la matrice de f est diagonale.

89
Corollaire 187
Si le polynôme caractéristique de f a toutes ses racines simples, alors f est diagonalisable.

10.3.3 Forme réduite

Théorème 188
Soit u un endomorphisme d’un K-ev E de dimension n (K = R ou C), de matrice A dans une base de E. On
appelle P (X) son polynôme caractéristique et on suppose que P a toute ses racines dans K (toujours vrai si
K = C). On écrit P (X) = (λ1 − X)α1 ....(λr − X)αr . On pose E(λi ) = ker(λi Id − u) (le sous-espace propre
associé à la valeur propre λi et Ei = ker(λi Id − u)αi (on l’appelle le sous-espace caractéristique relatif à la
valeur propre λi ). On a alors :
• E(λi ) ⊂ Ei
• dim(Ei ) = αi
• E = E1 ⊕ E2 ⊕ ... ⊕ Er
• u(Ei ) ⊂ Ei
Si on prend alors une base de E1 , E2 ,...,Er et si on les recolle, on obtient une base de E dans laquelle la matrice
b de u est de la forme :
A  
J1
 J2 
 
 . .. 
 
Jr
où Ji est une matrice carrée d’ordre αi , triangulaire supérieure, avec λi sur la diagonale. Une telle forme s’appelle
une forme réduite de A.

10.3.4 Forme de Jordan

Théorème 189
Soit u un endomorphisme d’un K-ev E de dimension n (K = R ou C), de matrice A dans une base de E. On
appelle P (X) son polynôme caractéristique et on suppose que P a toute ses racines dans K (toujours vrai si
b de
K = C). On écrit P (X) = (λ1 − X)α1 ....(λr − X)αr . Il existe alors une base de E dans laquelle la matrice A
u est de la forme :  
λ1 ε2
 .. .. 
 . . 
b
A=   où εi = 0 ou 1.
.. 
 . εn 
λr
Une telle matrice s’appelle une forme de Jordan et la base dans laquelle on l’a obtenue s’appelle une base de
Jordan pour u.

10.3.5 Théorème de Cayley-Hamilton

Théorème 190
Soit u un endomorphisme d’un K-ev E de dimension n (K = R ou C), de matrice A dans une base de E. On
appelle P (X) son polynôme caractéristique et on écrit : P (X) = (−1)n X n + an−1 X n−1 + ... + a0 . Alors on a :

(−1)n un + an−1 un−1 + ... + a0 Id = 0 et


n n n−1
(−1) A + an−1 A + ... + a0 I = 0

Ce que l’on note : P (u) = 0 et P (A) = 0.

90
10.4 Application au calcul des puissances d’une matrice
10.4.1 Utilisation du théorème de Cayley-Hamilton

Indication
Soit u un endomorphisme d’un K-ev E de dimension n (K = R ou C), de matrice A dans une base de E et de
polynôme caractéristique P (X). Soit m un entier naturel. On calcule le reste de la division euclidienne de X m
par P (X) i.e. :
X m = P (X)Q(X) + R(X) où deg R < deg P = n
On peut alors écrire :

Am = P (A)Q(A) + R(A)
= R(A) puisque P (A) = 0

10.4.2 Utilisation d’une forme réduite

Proposition 191
b une matrice sous forme réduite. On note α1 , ..., αr l’ordre des blocs triangulaires qui composent A.
Soit A b Alors
b = D + N où :
A
• D est la matrice diagonale qui a les mêmes éléments diagonaux que A. b
• D et N commutent (N D = DN ).
• N est nilpotente et plus précisément, N m = 0 sitôt que m ≥ M ax {α1 , ..., αr } = s.
• Pour p ≥ s − 1, on a :
   
bp p p p−1 p
A =D + D N + ... + Dp−s+1 N s−1
1 s−1

Remarque
Conséquence : si u est un endomorphisme de E, de matrice A dans une base donnée, et si on peut mettre A
b on a, en notant P la matrice de passage :
sous forme réduite A,
b −1 d’où Am = P A
A = P AP bm P −1

ce qui donne simplement Am .

91
10.5 Exercices
Exercice 89
Pour chacune des matrices suivantes, dire si elle est diagonalisable, et dans l’affirmative, diagonalisez-la et
calculer ses puissances nième.  
    15 −2 6
2 −2 5 2
A= B= C =  21 −2 9 
2 −3 −4 1
  −28 4 −11
a a 0
D =  b b 0  (on discutera selon les valeurs de a, b, c, d, e)
c d e

Exercice 90
Mêmes questions
 pour les matrices
 suivantes
 :  
2 1 1 2 2 1
A= B= C=
1 2 2 4 −1 2
   
  3/2 1 1/2 3 0 1
a 1
D= E= 0 3 0  F = −1 2 −1 
0 a
1/2 1 3/2 1 0 3
   
0 1 −1 1 −1 0
G =  −1 0 1  H= 1 1 2 
1 −1 0 −1 1 0

Exercice 91
Soit A une matrice diagonalisable. Etudier la diagonalisation de An où n est un entier naturel, P (A) où P est
un polynôme et de A−1 si A est inversible.

Exercice 92
 
a b 0
Soit A =  0 1 −1  une matrice à coefficients réels.
0 2 4
1. Dire, selon les valeurs de a et de b, si la matrice est diagonalisable.
2. Dans le cas où a = 3 et b = 0, diagonaliser A.

Exercice 93
Soit f l’endomorphisme de R3 dont la matrice dans la base canonique est :
 
4 0 0
A = −1 4 2
0 0 4

1. Montrer que f n’est pas diagonalisable.


2
2. Montrer que (A − 4I) = 0 (I désigne la matrice identité).
3. Soit u2 = (1, 1, 1). Montrer que (f − 4Id) (u2 ) est un vecteur propre u1 de f (Id désigne l’application
identique de R3 dans R3 ).
4. On pose u3 = (2, 0, 1). Montrer que {u1 , u2 , u3 } est une base de R3 . Quelle est la matrice de f dans cette
base ? Calculer An .

92
Exercice 94
 
1 1 1
1. Soit A3 = 1 1 1. Montrer que A3 est diagonalisable. Diagonaliser A3 et calculer Am
3 pour m ∈ N.
1 1 1
2. On généralise. Soit An la matrice carrée d’ordre n (n ∈ N∗ ) définie par :
 
1 1 ··· 1
1 1 · · · 1
 
An =  . .. .. .. 
 .. . . .
1 ··· 1 1

(a) Montrer que le polynôme caractéristique de An , PAn (X) = det(A − XI) peut s’écrire :
n−1
PAn (X) = (n − X) (−X)

(On pourra faire la somme des colonnes par exemple.)


(b) Si {e1 , e2 , ..., en } désigne la base canonique de Rn , V (0) et V (n) les sous-espaces propres relatifs aux
valeurs propres 0 et n, montrer que l’on peut prendre {e1 − e2 , e1 − e3 , ..., e1 − en } comme base de
V (0) et {e1 + e2 + ... + en } comme base de V (n).
En déduire que An est diagonalisable.
Pn
(c) (C’est un petit peu plus difficile). On pose ui = e1 − ei+1 pour i = 1, 2, ..., n − 1 et un = i=1 ei .
Montrer, en calculant e1 , e2 , ..., en en fonction des ui , que si P désigne la matrice de passage de la
base {ei } à la base {ui }, alors :
1 
n − n−1n
1
n ··· n
1

1 .. .. .. 
 1 . . . 
n n 
 
P −1 =  ... ..
.
..
.
..
. 1 
 n 
. . . 
 .. .. . . 1 − n−1 
n n
1
n ··· · · · n1 n
1

(d) En déduire que :  m−1 


n nm−1 ··· nm−1
 .. .. .. .. 
 . . . . 
Am
n =
 . .. ..

.. 
 .. . . . 
nm−1 ··· ··· nm−1

Exercice 95
Pn si tous ses éléments sont positifs ou nuls (aij ≥ 0
On dit qu’une matrice carrée d’ordre n (aij ) est stochastique
∀i, j) et si la somme des termes de chaque ligne vaut 1 : j=1 aij = 1 ∀i = 1, ..., n.
1. Montrer que si A et B sont stochastiques, alors AB et An sont stochastiques pour tout n ∈ N.
2. Montrer que si α et β sont deux réels positifs tels que α + β = 1, alors αA + βB est stochastique.
3. Soit A une matrice stochastique. Montrer que U = (1, 1, ..., 1)T est un vecteur propre de A pour la valeur
propre 1.
4. Retrouver que 1 est valeur propre de A stochastique en montrant que l’on peut mettre (1 − λ) en facteur
dans son polynôme caractéristique (on ne demande pas de calculer ce polynôme).

93
Exercice 96
Soit a ∈ R, notons A la matrice suivante  
0 1
A= .
−a 1+a
On définit une suite (un )n∈N , par la donnée de u0 et u1 et la relation de récurrence suivante, pour n ∈ N

un+2 = (1 + a)un+1 − aun

1. Pour quelles valeurs de a la matrice A est-elle diagonalisable ?


2. Lorsque A est diagonalisable, calculer An pour n ∈ N.
 
un
3. On suppose A diagonalisable. On note Un le vecteur Un = , exprimer Un+1 en fonction de Un et
un+1
de A, puis Un en fonction de U0 et de A.

Exercice 97
Soit (un ) une suite réelle vérifiant l’équation de récurrence : un+3 = 6un+2 − 11un+1 + 6un .
 
un
1. On pose Xn = un+1 . Montrer qu’il existe une matrice A ∈ M3 (R) telle que Xn+1 = AXn .
un+2
2. Diagonaliser A. En déduire un en fonction de u0 , u1 , u2 et n.

94
Chapitre 11

Fonctions homogènes, concaves et convexes

Contenu
11.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
11.2 Fonctions homogènes en économie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
11.3 Fonctions d’une variable : Rappels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
11.4 Passage à la dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
11.5 Formes quadratiques et matrices symétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
11.6 Hessienne et fonctions concaves ou convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
11.7 Etude du signe d’une forme quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
11.8 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

95
11.1 Introduction

Définition 192
∗ n
Soit f : (R+ ) → R. Soit r ∈ R.
On dit que f est homogène de degré r si :

∀t ∈ R∗+ , f (tX) = tr f (X), pour tout X ∈ (R∗+ )n

Exemple
f (x, y, z) = kxα y β z γ (Cobb-Douglas à 3 variables)
f (x, y, z) = ax2 + by 2 + cz 2 + dxy + exz + f yz (quadratique)

p
f (x, y) = 25 − x2 − y 2
f n’est pas homogène.

11.2 Fonctions homogènes en économie

Définition 193
Si f est une fonction de production de n variables : f (x1 , · · · , xn ) n inputs pour 1 output
1. Si f est homogène de degré 1 alors f (tx1 , · · · , txn ) = tf (x1 , · · · , txn ).
Si on double tous les inputs alors la production double.
On dit qu’une telle fonction est à rendements d’échelle constants.
2. Si f est homogène de degré r avec 0 < r < 1 alors f est dite à rendements d’échelle décroissants.
3. Si f est homogène de degré r avec r > 1 alors f est dite à rendements d’échelle croissants.

Exemple
Une fonction de Cobb-Douglas f (x1 , · · · , xn ) = kxα
1 · · · xn
1 αn

est homogène de degré α1 + · · · + αn .

Proposition 194
Si f est de classe C 1 et si f est homogène de degré r, alors ses dérivées partielles sont homogènes de degré r − 1.

Théorème 195
(Théorème d’Euler.)
Soit f une fonction de classe C 1 sur (R∗+ )n et homogène de degré r.
Alors, pour tout X ∈ (R∗+ )n :

∂f ∂f
x1 (X) + · · · + xn (X) = r × f (X) = X · ∇f (X)
∂x1 ∂xn
Ce qui s’écrit :
X
n
ϵf /xi (X) = r .
i=1

96
Théorème 196
(Réciproque du Théorème d’Euler.)
Si f est une fonction de classe C 1 sur (R∗+ )n et si

X
n
∂f
xi (X) = r × f (X)
i=1
∂xi

pour tout X ∈ (R∗+ )n . Alors, f est homogène de degré r.

11.3 Fonctions d’une variable : Rappels

Définition 197
La fonction f est dite convexe si

∀ (x, y) ∈ I 2 , ∀ λ ∈ [0, 1], f λx + (1 − λ)y 6 λ f (x) + (1 − λ) f (y).

Elle est dite concave si −f est convexe.

Définition 198
On dit que f est convexe (resp. concave) sur un intervalle I si pour tous points A et B de la courbe représentant
f , l’arc de courbe est situé au-dessous (au-dessus) du segment [AB].

Exemple
Les fonctions x 7−→ x2 , x 7−→ |x| sont convexes.

B
f (y)

λ f (x) + (1 − λ) f (y)

A
f (x)
Cf
( )
f λ x + (1 − λ) y

| |

x λ x + (1 − λ) y y

Proposition 199
Soit f une fonction de classe C 1 sur un intervalle I.
Alors f est convexe (resp. concave) sur I si et seulement si :

f (y) − f (x) ≥ f ′ (x)(y − x), ∀(x, y) ∈ I 2



resp. f (y) − f (x) ≤ f ′ (x)(y − x), ∀(x, y) ∈ I 2

Proposition 200
Soit f une fonction de classe C 2 sur un intervalle I. Alors :
• f est convexe sur I ⇐⇒ f ′′ (x) ≥ 0 pour tout x ∈ I
• f est concave sur I ⇐⇒ f ′′ (x) ≤ 0 pour tout x ∈ I

97
Exemple
Inégalités de convexité Si f est dérivable et convexe sur I alors sa courbe représentative est au-dessus de chacune
de ses tangentes :
∀a, x ∈ I, f (x) ≥ f ′ (a)(x − a) + f (a)
Pour les fonctions concaves l’inégalité est inversée.

Remarque
L’intérêt des fonctions convexes ou concaves dans les problèmes d’optimisation s’explique par le résultat suivant :

Proposition 201
Soit f une fonction concave (resp. convexe) sur intervalle ouvert I. Si x0 est un point critique pour f , alors f
présente en x0 un maximum (resp. minimum) global sur I.

11.4 Passage à la dimension n

Définition 202
Soit f : Rn → R définie sur un ensemble convexe U .
On dit que f est concave (resp. convexe) sur U si :

∀λ ∈ [0, 1], ∀X, Y ∈ U


f λX + (1 − λ)Y ≥ λ f (X) + (1 − λ) f (Y )

 
resp. f λX + (1 − λ)Y 6 λ f (X) + (1 − λ) f (Y )

Proposition 203
Soit f de classe C 1 définie sur un convexe U .
Alors f est concave (resp. convexe) sur U si et seulement si :

∀X, Y ∈ U

f (Y ) − f (X) ≤ ∇f (X) · (Y − X)

Xn
∂f
ou encore f (y1 , · · · , yn ) − f (x1 , · · · , xn ) ≤ (yi − xi )
i=1
∂xi
!
Xn
∂f
resp. f (y1 , · · · , yn ) − f (x1 , · · · , xn ) ≥ (yi − xi )
i=1
∂xi

98
11.5 Formes quadratiques et matrices symétriques

Définition 204
Une forme quadratique définie sur Rn est une fonction à valeurs réelles qui peut s’écrire sous la forme :
X
n X
q(x1 , · · · , xn ) = aii x2i + 2 aij xi xj
i=1 i<j

où A = (aij ) est l’unique matrice symétrique correspondant à l’expression de q.


Réciproquement, à toute matrice symétrique A, peut être associée une fonction à valeurs réelles q(x1 , · · · , xn ) =
X A t X avec X = (x1 x2 · · · xn ), identique à celle définie précédemment.
Cette fonction est une forme quadratique.

Définition 205
Soit A une matrice symétrique d’ordre n.
Alors A est dite :
1. définie positive (resp. semi-définie positive) si q(x1 , · · · , xn ) = X A t X > 0 pour tout X ∈ Rn et X 6= ORn
(resp. q(x1 , · · · , xn ) = X A t X ≥ 0)
2. définie négative (resp. semi-définie négative) si q(x1 , · · · , xn ) = X A t X < 0 pour tout X ∈ Rn et X 6= ORn
(resp. q(x1 , · · · , xn ) = X A t X ≤ 0)
3. indéfinie s’il existe des vecteurs X de Rn tel que X A t X > 0 et d’autres tel que X A t X < 0.

11.6 Hessienne et fonctions concaves ou convexes


Proposition 206
Soit f de classe C 2 sur un sous-ensemble ouvert U de Rn . Alors, f est une fonction concave sur U si et
seulement si la matrice hessienne de f est semi-définie négative pour tout X de U .
La fonction f est convexe sur U si et seulement la matrice hessienne de f est semi-définie positive pour tout
X de U .

Proposition 207
Soit f de classe C 2 sur un sous-ensemble ouvert U de Rn . Alors, f est une fonction concave sur U si et
seulement si la matrice hessienne de f a toutes ses valeurs propres négatives ou nulles.
La fonction f est convexe sur U si et seulement la matrice hessienne de f a toutes ses valeurs propres positives
ou nulles.

Remarque
Dans R2 , on utilisera une propriété pratique...car décomposer des formes quadratiques en somme de carrés...ce
n’est pas gagné .

Proposition 208
Soit f de classe C 2 sur un sous-ensemble ouvert U de R2 . Alors :
1. f est concave sur U si et seulement si ∀(x, y) ∈ U , tr (Hf (x, y)) < 0 et det (Hf (x, y)) ≥ 0.
2. f est convexe sur U si et seulement si ∀(x, y) ∈ U , tr (Hf (x, y)) > 0 et det (Hf (x, y)) ≥ 0.

99
Remarque
2
Une fonction de production de Cobb-Douglas définie sur R∗+ est concave si et seulement si ses rendements
d’échelle sont constants ou décroissants.

11.7 Etude du signe d’une forme quadratique

Proposition 209
On peut décomposer une forme quadratique sur Rn comme combinaison linéaire de carrés de formes linéaires
indépendantes. Cette décomposition n’est pas unique, mais les nombres de coefficients stictement positifs et
strictement négatifs de ces CL est fixe. Le couple (m, p) de ces deux nombres s’appelle la signature de la forme
quadratique.

Définition 210
Soit A une matrice carrée d’ordre n. On appelle mineur principal d’ordre k (k = 1, 2, ..., n) le déterminant de
la matrice obtenue en éliminant de A les mêmes n − k colonnes et n − k lignes. On appelle mineur diagonal
principal d’ordre k (k = 1, 2, ..., n) le déterminant de la matrice obtenue en éliminant de A les n − k dernières
colonnes et les n − k dernières lignes.

Exemple
 
a11 a12 a13
Déterminons les mineurs diagonaux principaux de A = a21 a22 a23  ∈ M(3,3) (R).
a31 a32 a33

M1 = a11 = a11

a11 a12
M2 =
a21 a22

a11 a12 a13


M3 = a21 a22 a23
a31 a32 a33

Exemple
 
a11 a12 a13
Déterminons les mineurs principaux de A = a21 a22 a23  ∈ M(3,3) (R).
a31 a32 a33
Trois mineurs principaux d’ordre un :

M11 = a11 = a11 , M12 = a22 = a22 , M13 = a33 = a33


Trois mineurs principaux d’ordre deux :

a11 a12 a11 a13 a22 a23


M21 = , M22 = , M23 =
a21 a22 a31 a33 a32 a33
a11 a12 a13
Un mineur principal d’ordre trois : M3 = a21 a22 a23
a31 a32 a33

100
Proposition 211
Soit q une forme quadratique sur Rn et A la matrice symétrique associée. Alors :
(i) q est définie positive ssi tous ses n mineurs diagonaux principaux sont strictement positifs.
(ii) q est définie négative ssi tous ses n mineurs diagonaux principaux d’ordre k (k = 1, ..., n) Mk vérifient :
(−1)k Mk > 0.
(iii) Si l’un des mineurs diagonaux principaux est non nul et ne vérifie pas l’une des deux règles de signes
ci-dessus, alors q est de signe variable (q est indéfinie).

Proposition 212
Soit q une forme quadratique sur Rn et A la matrice symétrique associée. Alors :
(i) q est semi-définie positive ssi tous ses 2n − 1 mineurs principaux sont positifs ou nuls.
(ii) q est semi-définie négative ssi tous ses 2n − 1 mineurs principaux d’ordre k (k = 1, ..., n) Mk vérifient :
(−1)k Mk ≥ 0.
(iii) Sinon q est de signe variable (q est indéfinie).

11.8 Exercices
Exercice 98
On considère une fonction de Cobb-Douglas de deux variables définie par

f (x, y) = xα y β pour x > 0 et y > 0

1. Calculer la matrice hessienne de f au point (a, b) . On la note Hf (a, b).


2. Montrer que la forme quadratique définie par Hf (a, b) est :
 
q(x, y) = aα−2 bβ−2 α (α − 1) b2 x2 + β (β − 1) a2 y 2 + 2αβabxy

 α>0 2
3. En déduire que si β>0 alors f est concave sur R∗+ .

α+β <1

Remarque
2
Une fonction de production de Cobb-Douglas définie sur R∗+ est concave si et seulement si ses rendements
d’échelle sont constants ou décroissants.

Exercice 99
2
Soit f la fonction de production définie sur D′ = R∗+ par

f (x, y) = x1/3 y

1. Montrer que f est homogène et déterminer son degré d’homogénéité.


2. Si on double les quantités x et y, comment varie la production de f ?
3. Montrer que f vérifie l’égalité d’Euler.
4. Calculer la hessienne de f au point (a, b) ∈ D′ .
5. Montrer que la fonction f est concave sur D′ .

101
Chapitre 12

Optimisation des fonctions de plusieurs variables

Contenu
12.1 Extrema locaux et globaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.1.2 Théorème des extrema globaux sur un compact . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.1.3 Condition nécessaire d’extremum local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
12.2 Extrema et Hessienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
12.3 Extrema globaux et convexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
12.3.1 Résumons la marche à suivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
12.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

102
12.1 Extrema locaux et globaux
12.1.1 Introduction

Définition 213
On étudie le comportement d’une fonction de plusieurs variables à valeurs réelles. Une telle fonction peut avoir
des valeurs extrémales : des minima (des valeurs les plus petites) ou des maxima (des valeurs les plus grandes)
sur tout le domaine de définition ou bien sur une certaine partie.
On les appelle des extrema.

Définition 214
Soit f : D → R une fonction définie sur une partie D ⊂ Rn .
1. On dit que f admet un maximum (resp. minimum) global au point A ∈ D si pour tout X ∈ D on a
f (X) ≤ f (A) (resp. f (X) ≥ f (A)). Le maximum (resp. minimum) est appelé strict si f (X) < f (A) (resp.
f (X) > f (A)).
2. On dit que f admet un maximum (resp. minimum) local au point A ∈ D si on peut trouver un nombre
r > 0 tel que X ∈ D et kX − Ak < r entraîne f (X) ≤ f (A) (resp. f (X) ≥ f (A)).
Les extrema globaux sont appelés aussi extrema absolus.

12.1.2 Théorème des extrema globaux sur un compact

Théorème 215
Soit f : K → R une fonction continue sur un compact K ⊂ Rn (compact=fermé+borné).
Alors f admet un maximum global et un minimum global sur K.

Remarque
En dimension n = 1 la fonction a des points extrémaux sur un intervalle. Soit ils sont à l’intérieur de l’intervalle,
auquel cas ils vérifient f ′ (x) = 0, soit ils sont au bord de l’intervalle (sur le bord, la condition f ′ (x) = 0 n’est
pas forcément satisfaite).
Donc pour trouver les extrema on cherche d’abord des points critiques (où la derivée s’annule), puis on compare
la valeur des points critiques avec les valeurs sur le bord de l’intervalle. Les valeurs max et min se trouvent
parmi ces valeurs-là.

Définition 216
Soit f : D → R une fonction de classe C 1 sur une partie D de Rn . On dit que A ∈ D est un point critique de f
si toutes les dérivées partielles s’annulent en A (équivalent à dire que le gradient de f est nul en A, équivalent
à dire aussi que la différentielle de f est nulle en A).

12.1.3 Condition nécessaire d’extremum local

Proposition 217
Soit f : U → R une fonction de classe C 2 définie sur un ouvert U ⊂ Rn admettant un maximum ou un minimum
local au point A ∈ U. Alors A est un point critique de f.

La réciproque est fausse !!!

103
Preuve
Reprenons la formule de Taylor à l’ordre 2 en dimension 2.
La preuve se généralise sans problème aux dimensions supérieures.
∂f ∂f
f (a + h, b + k) − f (a, b) = h (a, b) + k (a, b)
 ∂x ∂y 
2
1 2∂ f ∂2f 2
2∂ f
+ h (a, b) + 2hk (a, b) + k (a, b)
2 ∂x2 ∂x∂y ∂y 2
2
+o(k(h, k)k )
Si on a un maximum local en A, alors f (a + h, b + k) − f (a, b) ≤ 0 pour tout (h, k) suffisamment petit. La valeur
∂f ∂f
de la fonction linéaire de deux variables h (a, b) + k (a, b), si elle n’est pas 0, est grande par rapport aux
∂x ∂y
termes suivants. Donc cette valeur, si elle n’est pas égale à 0, doit être négative.
∂f
Pourtant pour h, k positifs il faut que les constantes (a, b) ≤ 0, i = 1, 2 et pour h, k négatifs il faut que les
∂xi
∂f ∂f
mêmes valeurs (a, b) ≥ 0, i = 1, 2, d’où ≡ 0, i = 1, 2.
∂xi ∂xi
On peut refaire le même raisonnement pour un min local.

Exemple
Soit f : (x, y) 7→ x2 − 2x + xy + y 2 , définie etde classe
 C sur R .
1 2

4 2
Montrons que f admet un minimum local en ,− .
3 3 
∂f ∂f 2x + y = 2
Si f admet un extremum local en (x, y) ∈ R2 , alors (x, y) = (x, y) = 0 ou encore .
  ∂x ∂y x + 2y = 0
4 2
On trouve alors après calculs que (x, y) = ,− est l’unique point critique de f sur R2 .
3 3

Est-il vraiment un extremum local ?

Exemple
   
4 2 4 2
Il faut comparer f (x, y) et f ,− pour (x, y) voisin de , − . Ce qui revient à étudier le signe de
3 3 3 3
 
4 2
f + h, − + k pour (h, k) voisin de (0, 0)
3 3
D’après la formule de Taylor à l’ordre 2, on a pour tout (h, k) ∈ R2 :
     2
4 2 4 2 k 3k 2
f + h, − + k − f ,− = h2 + hk + k 2 = h + +
3 3 3 3 2 4
   
4 2 4 2
f + h, − + k − f ,− ≥0
3 3 3 3

   
4 2 4 2 4
f admet un minimum local en ,− qui vaut f ,− =− .
3 3 3 3 3

Remarque
Tout ceci est long et fastidieux il faut étudier des conditions du second ordre en se servant de la matrice
Hessienne.

104
12.2 Extrema et Hessienne
Soit f : D ⊂ Rn → R et X0 ∈ D.

Remarque
Quand n = 1, pour savoir si un point critique X0 est un maximum local ou un minimum local, on étudie la
dérivée seconde (quand elle existe) :
• si f ′′ (X0 ) > 0, alors f (X0 ) est un minimum local,
• si f ′′ (X0 ) < 0, alors f (X0 ) est un maximum local,
• si f ′′ (X0 ) = 0, il faut faire des calculs supplémentaires de dérivées supérieures - ce peut être un point
d’inflexion, un maximum ou un minimum.

Dans le cas des fonctions de plusieurs variables, à la place de f ′′ , on étudie la Hessienne.

Proposition 218
Soit f : D ⊂ Rn → R et X0 ∈ D un point critique de f .
On suppose que la Hessienne Hf (X0 ) existe. Alors
• si Hf (X0 ) est définie positive (t XHf (X0 )X > 0, pour tout X ∈ Rn et X 6= ORn ) alors f (X0 ) est un
minimum local,
• si Hf (X0 ) est définie négative (t XHf (X0 )X < 0, pour tout X ∈ Rn et X 6= ORn ) alors f (X0 ) est un
maximum local,
• si Hf (X0 ) est indéfinie alors X0 n’est ni un maximum local ni un minimum local : X0 est un point selle,
• sinon il faut étudier des termes d’ordre supérieur dans la décomposition de Taylor en X0 ...

Proposition 219
Soit f : D ⊂ Rn → R et X0 ∈ D un point critique de f .
On suppose que la Hessienne Hf (X0 ) existe. Alors
• si Hf (X0 ) est définie positive (ssi tous ses n mineurs diagonaux principaux sont strictement positifs) alors
f (X0 ) est un minimum local,
• si Hf (X0 ) est définie négative (ssi tous ses n mineurs diagonaux principaux d’ordre k (k = 1, ..., n) Mk
vérifient : (−1)k Mk > 0) alors f (X0 ) est un maximum local,
• si l’un des mineurs diagonaux principaux est non nul et ne vérifie pas l’une des deux règles de signes
ci-dessus, alors X0 est un point selle (comme selle de cheval) ou point col (comme dans les montagnes),
• sinon on ne pas conclure.

Proposition 220
Soit f : D ⊂ R2 → R et X0 ∈ D un point critique de f .
On suppose que la Hessienne Hf (X0 ) existe. Alors
• si det(Hf (X0 )) > 0, f admet un extremum local en X0
— si tr(Hf (X0 )) > 0 alors f (X0 ) est un minimum local,
— si tr(Hf (X0 )) < 0 alors f (X0 ) est un maximum local,
• si det(Hf (X0 )) < 0 alors X0 est un point selle (comme selle de cheval) ou point col (comme dans les
montagnes)
• si det(Hf (X0 )) = 0 alors on ne peut pas conclure, on doit regarder la formule de Taylor à l’ordre supérieur
(à l’ordre 3 et parfois plus)...

105
1

0.5

−0.5

1
−1
−1 0
−0.5
0
0.5 −1
1

f (x, y) = x2 − y 2
(0; 0) point selle

Exemple
Extrema locaux et globaux de f (x, y) = 2x2 y + 2x2 + y 2 sur R2 . Points critiques :

 ∂f 


 ∂x = 4xy + 4x = 0  x(y + 1) = 0


 ∂f  2

 = 2x2 + 2y = 0 x +y =0
∂y

On trouve alors trois points critiques (0, 0), (−1, −1) et (1, −1).

Points critiques (0, 0) (−1, −1) (1, −1)

∂2f
(x, y) = 4y + 4 4 0 0
∂x22
∂ f
(x, y) = 4x 0 -4 4
∂x∂y
2
∂ f
(x, y) = 2 2 2 2
∂y 2
det(Hf (X0 )) 8 −16 −16

Signe de tr(Hf (X0 )) >0

Nature du point critique : min point selle point selle

Pour les extrema globaux on voit que :

lim f (x, 0) = lim 2x2 = +∞


x→±∞ x→±∞

donc pas de maximum global.


Pas de minimum global non plus car

lim f (x, −2) = lim −2x2 + 4 = −∞


x→±∞ x→±∞

106
f (x, y) = 2x2 y + 2x2 + y 2

12.3 Extrema globaux et convexité

Proposition 221
Soit f une fonction convexe sur un ouvert convexe Ω de Rn .
• Si f admet en X0 ∈ Ω un minimum local, alors f admet en X0 un minimum global.
• Si f est de classe C 1 sur Ω. Alors si grad f (X0 ) = 0, f admet en X0 un minimum global sur Ω.
On a des énoncés équivalents en remplaçant convexe par concave et minimum par maximum.

12.3.1 Résumons la marche à suivre

Remarque
Il s’agit d’optimiser une fonction f sur un domaine fermé borné ∆ de R2 ×R2 délimité par des inégalités que
doivent vérifier les variables ; en microéconomie elles seront du type x ≥ 0 et y ≥ 0 et ax + by ≤ c avec
a, b, c constantes positives. La fonction f étant continue elle admet sur ∆ un maximum (global) et un minimum
(global).

• On recherche les éventuels points critiques de f à l’intérieur de ∆ et on examine en ces points la condition du
second ordre : on a ainsi optimisé la fonction à l’intérieur de ∆.
• On étudie localement la fonction sur le bord de ∆ (en se ramenant à une fonction d’une variable à étudier sur
un segment).
• On conclut en regroupant tous les points critiques à l’intérieur et sur le bord de ∆.

107
12.4 Exercices
Exercice 100
Pour les fonctions suivantes, donner les points critiques, et, quand c’est possible, leur nature (max local, min
local, point selle).
1. f (x, y) = x4 + x2 − 6xy + 3y 2 3. h(x, y) = xy 2 + x3 y − xy
2. g(x, y) = x − 6xy + 2y + 10x + 2y − 5
2 2
4. k(x, y) = 3x4 + 3x2 y − y 3

Exercice 101
Soit f définie par
f (x, y) = x4 + 2x2 y + 2y 2 + 2y + 1
1. La fonction f est-elle de classe C 2 sur R2 ?
2. Déterminer les points critiques de f sur R2 .
3. Calculer en chaque point critique la matrice des dérivées secondes et identifier les extremums locaux de f
en étudiant la forme quadratique associée.
4. S’agit-il d’extremums (globaux) sur R2 ?

Exercice 102
Soit l(x, y, z) = x2 + 6xy + y 2 − 3yz + 4z 2 − 10x − 5y − 21z.
1. Montrer que (2; 1; 3) est l’unique point critique de l.
2. Montrer que la forme quadratique définie par Hl (2; 1; 3) est :

q(x, y, z) = 2x2 + 2y 2 + 8z 2 + 12xy − 6yz

3. Montrer que q(x, y, z) = 2(x + 3y)2 − 16(y + 3


16 z)
2
+ 137 2
16 z .
4. En déduire la nature du point critique.
5. Retrouver ce résultat en utilisant la méthode des mineurs diagonaux principaux.

Exercice 103
On considère la fonction f définie et de classe C ∞ sur R2 par :

f (x, y) = x3 + 2xy − 2x2 + y 2

1. Trouver les extrema locaux éventuels de f .


2. En utilisant la matrice hessienne de f , déterminer la nature des points critiques de f .
3. On veut maintenant trouver les extrema de f sur le domaine :

∆ = (x, y) ∈ R2 tels que : − 3 ≤ x ≤ 3 ; −3 ≤ y ≤ 3

(a) Donner une représentation graphique de ∆ permettant d’identifier clairement les sommets.
(b) Montrer que f possède des extrema sur ∆.
(c) Déterminer, en étudiant successivement l’intérieur et les arêtes de ∆, l’ensemble des points où f
admet un minimum et un maximum sur ∆.

Indication
 √   √ 
f 2− 22
3 ; −3 ' 12 et f 2+ 22
3 ; −3 ' −3, 2.

108
Exercice 104
On considère la fonction f définie et de classe C ∞ sur R2 par :

f (x, y) = x2 + αy 2 + xy + x où α est un réel.

1. Calculer la hessienne de f en un point (x, y) et en déduire que f est convexe sur R2


1
si et seulement si α ≥ .
4
2. Dans toute la suite du problème, on suppose que α = 1.
Montrer que f admet un minimum global sur R2 en un point que l’on déterminera.
3. On veut maintenant trouver les extremums de f sur le domaine :

∆ = (x, y) ∈ R2 tels que : x ≤ 0 ; y ≥ 0 ; y − x ≤ 2

(a) Représenter soigneusement ∆.


(b) Montrer que le problème a des solutions.
(c) Que peut-on dire des minimums de f sur le domaine ?
(d) Etudier successivement l’intérieur de ∆ et ses arêtes pour résoudre :

max f (x, y)
(x, y) ∈ ∆

Exercice 105
Une firme fabrique un produit qu’elle vend sur deux marchés différents. Soit q1 (resp. q2 ) le nombre de produits
vendus sur le premier (resp. second) marché. On suppose que les prix du produit sont donnés par les fonctions
p1 = 60 − 2q1 (pour le premier marché) et p2 = 80 − 4q2 (pour le second marché). Le coût de production est
donné par la fonction C = 50 + 40q, où q est le nombre total de produits vendus.
Calculer q1 et q2 pour que le bénéfice soit maximum.

Indication
On montrera que le bénéfice est donné par la fonction B(q1 , q2 ) = −2q12 − 4q22 + 20q1 + 40q2 − 50.

Exercice 106
Soit un monopole discriminant produisant un unique bien pour deux types de consommateurs. Les fonctions de
demande inverse étant données respectivement pour les types 1 et 2 par 50 − 5Q1 et 100 − 10Q2 et la fonction
de coût par 90 + 20Q (avec Q = Q1 + Q2 ).
Quelles quantités Q1 et Q2 le monopole devra-t-il mettre sur chaque marché afin de maximiser son profit ?

Exercice 107
On considère la fonction f définie et de classe C ∞ sur R2 par :

f (x, y) = x2 + 2y 2 + xy + x

Montrer que f admet un minimum global sur R2 en un point que l’on déterminera.

109
Exercice 108
Deux amis mathématiciens décident d’escalader le Mont Keynésien. Une fois leur objectif atteint, l’un des deux
amis remarque que ce mont a la forme de la surface

z(x, y) = −2x2 − y 2 + 2xy − 8x + 6y + 4

Si le niveau de la mer correspond à z = 0, quelle est la hauteur maximale de ce mont ?

Remarque
On pourra multiplier le résultat obtenu par 100 pour avoir une idée de la hauteur maximale ”réelle” en mètres
de ce mont.

Exercice 109
On considère la fonction f définie et de classe C ∞ sur R3 par :

f (x, y, z) = z (ex − 1) − y 2

1. Trouver les extrema locaux éventuels de f .


2. Déterminer la matrice hessienne de f .
3. Vérifier que le point de coordonnées (0, 0, 0) est un point critique de f .
Déterminer la matrice hessienne de f au point (0, 0, 0).
4. En utilisant la méthode des mineurs principaux, en déduire la nature du point critique (0, 0, 0).
5. Retrouver la nature du point critique (0, 0, 0) en étudiant le signe des valeurs propres de Hf (0, 0, 0).

Exercice 110
On considère la fonction f définie et de classe C ∞ sur R3 par :

f (x, y, z) = y (ez − 1) − x2

1. Trouver les extrema locaux éventuels de f .


2. Déterminer la matrice hessienne de f .
3. Déterminer la matrice hessienne de f au point (0, 0, 0).
4. En utilisant la méthode des mineurs diagonaux principaux, en déduire la nature du point critique (0, 0, 0).
5. Retrouver la nature du point critique (0, 0, 0) en déterminant les valeurs propres de la matrice hessienne
de f au point (0, 0, 0).

Exercice 111
On considère la fonction f définie et de classe C ∞ sur R3 par :
2 3
f (x, y, z) = −x3 + y 3 − z 2 + 3xz − 2y − 3
3 2
1. Trouver les extrema locaux éventuels de f .
2. Déterminer la matrice hessienne de f .
3. En utilisant la méthode des mineurs principaux, en déduire la nature des points critiques de coordonnées
(0, −1, 0) et (0, 1, 0).
4. En étudiant le signe des valeurs propres de la matrice hessienne de f aux points (1, −1, 1) et (1, 1, 1),
déterminer la nature de ces points critiques.

110

Vous aimerez peut-être aussi