PR - bouzAHZAH Econometrie. Notes de Cours 2

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 66

19/02/2022

UNIVERSITE MOHAMMED V - RABAT


Faculté des Sciences Juridiques, Economiques et Sociales de Salé

Notes de cours
Méthodes économétriques

Année universitaire 2021 - 2022

Mohamed Bouzahzah

Sommaire
0. Introduction générale
0.1. Définitions
0.2. Modèle économique vs modèle économétrique
0.3. Objectifs de l’économétrie
0.5. Données et logiciels

1. Le modèle linéaire simple (MLS)


2.1. Les méthodes d’estimation MM, MMV, MMC
2.2. Inférence statistique dans le MLS
2.3. Application 1. Estimation du Nairu au Maroc
2.4. Application 2. Validité du MEDAF. Le cas de la BV de Casablanca

2. Le modèle linéaire multiple (MLM)


2.1. Estimation par les MCO
2.2. Inférence statistiques dans le MLM
2.3. Spécifications dans le MLM
2.4. Application. Validité du modèle de Solow (MRW, 1992)

3. Variations autour du MLM


3.1. Le problème de l’hétéroscédasticité
3.2. Le problème de l’autocorrélation
3.3. Application : à définir

1
19/02/2022

Bibliographie

L’ouvrage utilisé :

Econométrie, Régis de Bourbounais

D’autres ouvrages peuvent être consultés (liste non exhaustive et à titre indicatif) :

Econometrics, GRENNE

Introduction

- Etymologiquement le terme économétrie signifie « mesure de l’économie ». Cette définition est trop large
pour être utilisée. En économie, on mesure les agrégats (PIB, consommation nationale, investissement,…) en
utilisant la comptabilité nationale.

- L’économétrie est un ensemble de méthodes statistiques et mathématiques qui permettent d’analyser les
données

- C’est l’application des techniques de l’inférence statistique à l’économie

- Il s’agit d’une discipline récente mais qui ne cesse de prendre de l’importance en sciences économiques.

- Même s’il existait quelques travaux antérieurs, l’économétrie a démarré réellement avec la constitution de
l’Econometric Society en 1930.

- En 1933 est publié le premier numéro de la revue Economtrica (la revue scientifique de référence en
économétrie).

-Depuis, plusieurs modèles économétriques ont été construits.

- Aujourd’hui plusieurs prix Nobel d’économétrie Ragnar Frisch et Jan Tinbergen en 1969, Engel et Granger
(cointegration causalité, ARCH), Heckman et Mc Fadden (2000) Sims en 2011.

2
19/02/2022

Introduction

Les objectifs de l’économétrie :

L’économétrie est une application de la statistique inférentielle à l’économie

En économie, il n’existe pas d’expérimentation or plusieurs théories concurrentes co-existent. L’économétrie


est un moyen pour faire le tri entre les différentes théories

Elle permet de confirmer ou d’infirmer les théories économiques

Exemple : La théorie keynésienne de la consommation

Un exemple simple de modèle économique est la théorie keynésienne de la consommation. On peut


résumer cette théorie par trois hypothèses :

(i) seul le revenu disponible détermine la consommation nationale


(ii) loi psychologique fondamentale (la propension marginale à consommer est comprise entre 0 et 1
(iii) décroissance de la propension moyenne à consommer (l’existence d’une consommation
incompressible).

Introduction

Un exemple simple de modèle économique est la théorie keynésienne de la consommation. On peut


résumer cette théorie par trois hypothèses : (i) seul le revenu disponible détermine la consommation
nationale (ii) loi psychologique fondamentale (la propension marginale à consommer est comprise entre 0 et
1 (iii) décroissance de la propension moyenne à consommer (l’existence d’une consommation
incompressible).

Pour vérifier la validité empirique ce cette théorie, il faut réécrire ces hypothèses à vérifier sous forme
mathématique. Une relation simple qui rempli les trois hypothèses est la relation linéaire suivante :

𝐶 = 𝐶0 + 𝑐𝑌𝑑
avec 0<𝑐<1

Pour vérifier la validité empirique il faut tester les hypothèses

H1 : 𝐶0 ≠ 0 H2 : 𝐶0 ≠ 0

On peut aussi être tenté d’évaluer la valeur de c selon qu’elle est proche de 1 (vision keynésienne) ou faible
proche de 0 (vision néoclassique) ce qui permet d’estimer la valeur du multiplicateur et donne des
indications sur l’efficacité des politiques budgétaires (voir J.O. Blanchacrd et FMI, multiplicateurs crise 2008).

3
19/02/2022

Introduction

En réalité, l’économétrie peut remplir 4 objectifs

(i) confirmer ou infirmer une théorie (voir exemple ci-dessous concernant la validité du MEDAF). Trancher
entre des théories concurrentes (voir exemple ci-dessous entre théorie keynesienne et néoclassique de la
consommation).

(ii) L’économétrie peut être considéré comme un outil d’investigation statistique. L’économétrie peut être
utilisée pour découvrir des relations entre variables économiques. Lorsque de telles relations sont assez
stables, un contenu théorique peut être donné. C’est ce qui s’est passé avec la courbe de Phillips.

(iii) L’économétrie peut être utilisée pour évaluer quantitativement les effets de politiques économiques (les
modèles macroéconométriques)

(iv) Les modèles économétriques peuvent être utilisé pour réaliser des prévisions (les modèles autoregessifs
ARIMA, VAR, etc.)

Introduction

L’économétrie fonctionne avec des modèles économétriques. Ces derniers sont la contrepartie numérique
(empirique) des modèles économiques.

- Un modèle économique est une représentation simplifiée de la réalité. Comme dans l’exemple de la
fonction de consommation keynésienne qui explique la consommation nationale par le revenu disponible.
- Bien entendu la réalité est plus complexe. D’autres variables participent à expliquer la consommation
nationale. Le modèle économique est une approximation de la réalité. Keynes lui-même, reconnaissait que
le taux d’intérêt peut expliquer la consommation mais de manière très marginale.

Un modèle économétrique utilise le modèle économique avec les conditions suivantes :

- Retenir le modèle économique sous forme mathématique avec des variables observables et mesurables
- Remplacer la complexité de la réalité que ne retiennent pas les modèles théoriques par un aléa
(composante stochastique)
- Avoir une idée (sa distribution) sur l’aléa (l’erreur)

4
19/02/2022

Introduction

Il existe principalement trois types de données

- Les données ou coupe transversales (observations d’individus à une même période de temps).

- Les données chronologiques ou séries temporelles (time series) qui consistent à observer un individu dans
le temps
- Les données de panel qui consistent à observer plusieurs individus pendant une période de temps

Ces données donnent lieu à des diverses méthodes économétriques.

Nous l’avons déjà souligné, l’économétrie utilise des outils statistiques et des données. Les calculs se font
généralement en faisant appel à des logiciels (SPSS, Eviews, SAS, RATS, GAUSS, MATLAB, etc.) Il existe des
logiciels en open source ; le plus célèbre est le logiciel R.

Chapitre 1. Le modèle linéaire simple

10

5
19/02/2022

Chapitre 1. Le modèle linéaire simple

Introduction

- La régression simple constitue la base de l’estimation économétrique.

- Elle débute par un ensemble de propositions théoriques sur une question économique. En effet, la théorie
économique spécifie des relations théoriques entre des variables. La loi de la demande met en relation les
quantités et les prix relatifs d’un bien donné, la relation de Phillips met en relation le taux d’inflation et le
taux de chômage, la fonction de consommation keynésienne la consommation nationale et le revenu
disponible, etc.

- Certes, le coefficient de corrélation permet de détecter l’existence d’une relation statistique entre deux
variables mais ne donne aucune idée sur la nature de la relation (sens de la causalité, non linéarité, etc.). Un
coefficient de corrélation nulle (r = 0) ne signifie pas absence de relation entre les deux variables mais
absence de relation linéaire.

- L’estimation économétrique (le modèle linéaire simple) permet de décrire et d’évaluer quantitativement la
relation entre une variable donnée dite expliquée (ou dépendante ou endogène) et une variable dite
explicative (ou indépendante ou exogène).

- La variable expliquée est généralement notée y et la variable explicative notée x.

11

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

La relation entre la variable expliquée y et la variable explicative x prend la forme mathématique suivante :

𝑦 = 𝑓(𝑥) avec 𝑓(. ) une application

Il existe deux types de relations :

- Déterministe ou mathématique qui fait correspondre à chaque valeur de x une seule valeur de 𝑦 Ces
relations se rencontrent dans les sciences physiques mais pas dans les sciences humaines et sociales

- Statistique ou stochastique qui fait correspondre à chaque valeur de x un ensemble de valeurs de 𝑦 . Ce


type de relations existe dans les sciences physiques mais aussi dans les sciences humaines et sociales

En économétrie on s’intéresse bien entendu à ce deuxième type de relations.

12

6
19/02/2022

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

Considérons la relation ci-dessous entre la consommation 𝑦 et le revenu disponible 𝑥

𝑦 = 1000 + 0,8𝑥

Cette relation est déterministe ; le niveau de la consommation peut être déterminé de manière exacte pour
chaque niveau de revenu disponible.

Mais la consommation peut varier sous l’effet d’autres causes (prix, moral des consommateurs, taux
d’intérêt, etc.). Dans ce cas, la relation s’écrira

𝑦 = 1000 + 0,8𝑥 + 𝜀

Supposons que dans cette relation nous avons

100 𝑎𝑣𝑒𝑐 𝑝 = 0,5


𝜀=ቐ
−100 𝑎𝑣𝑒𝑐 𝑝 = 0,5

13

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

𝑦 = 1000 + 0,8𝑥 + 𝜀

100 𝑎𝑣𝑒𝑐 𝑝 = 0,5


𝜀=ቐ
−100 𝑎𝑣𝑒𝑐 𝑝 = 0,5

Ainsi, les valeurs de y seront données par

𝑥 𝑦
0 900 1100
100 980 1180
200 1060 1260
200 1140 1340
… … …

Si 𝑦 est continu, 𝜀 peut prendre n’importe qu’elle valeur (infinité).

Si 𝜀 suit une loi normale par exemple, on obtient la relation suivante entre 𝑦 et 𝑥

14

7
19/02/2022

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

15

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

Exemple. Considérons la relation entre la consommation et le revenu disponible et considérons les


propositions théoriques keynésiennes.

Notons 𝑦 la consommation nationale et 𝑥 le revenu disponible.


La relation entre la consommation et le revenu disponible est appelé propension marginale à consommer.

Pour Keynes, la relation entre ces deux variables est gouvernée par une loi psychologique. Il écrivait dans la
théorie générale «En moyenne et la plupart du temps, les hommes tendent à accroître leur niveau de
consommation à mesure que le revenu s’accroit mais non d’une quantité aussi grande que l’accroissement du
revenu».

En plus, pour Keynes, la propension moyenne à consommer est décroissante par rapport au revenu
disponible ce qui signifie l’existence d’un minimum vital (une consommation incompressible).

Ainsi, pour Keynes, la fonction de consommation doit satisfaire les conditions suivantes :

𝜕𝑦 et 𝑥
0< <1 𝜕
𝜕𝑥 𝑦
<0
𝜕𝑦

16

8
19/02/2022

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

Si on note la propension marginale à consommer 𝛽1 et la consommation incompressible 𝛽0

𝑦 = 𝛽0 + 𝛽1 𝑥

Avec 𝛽0 > 0 et 0 < 𝛽1 < 1

De plus pour les keynésiens la valeur de 𝛽0 est élevée et proche de 1 ce qui signifie un multiplicateur élevé
et donc une efficacité de la politique budgétaire.

Pour les néoclassiques, il n’existe pas de minimum vital 𝛽0 = 0 et bien que positive 𝛽1 est faible et
proche de 0.

Ce cadre offre une base pour une étude empirique qui permettrait de trancher entre la vision keynésienne
et classique.

Si on dispose des données relatives à la consommation nationale et au revenu disponible on peut estimer
les valeurs de 𝛽0 et 𝛽1 .

17

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

La figure ci-dessous met en relation la consommation et le revenu disponible au Maroc.

400
350
300
250
200
150
100
100 200 300 400 500

L’examen de la figure permet de voir que les données sont cohérentes avec la théorie keynésienne mais
qu’une relation déterministe ne semble pas appropriée pour décrire la relation.

On doit incorporer une composante aléatoire ou stochastique. L’approche la plus utilisée est l’approche
additive. Ainsi on obtient

𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝜀
18

9
19/02/2022

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

La présence de la composante stochastique 𝜀 est due à plusieurs causes

- Omission d’autres variables explicatives. Dans la réalité, beaucoup d’autres variables peuvent influencer la
consommation. Elles ne sont pas introduites soit parce qu’elles ne sont pas connues, soit qu’elles ne peuvent
pas être mesurées. Certaines sont connues et sont mesurables mais leurs effets est supposé marginal

- Aggrégation des variables. La consommation nationale et le revenu disponible sont les aggegations des
consommations individuelles et des revenus disponibles individuels. Toute aggrégation est en réalité une
approximation

- Mauvaise spécification du modèle. Le modèle peut être mal spécifié dans sa structure. La consommation
peut dépendre du revenu disponible mais peut dépendre aussi du revenu futur

- Mauvaise spécification des formes fonctionnelles. La relation peut ne pas être linéaire entre la variable
expliquée et la variable explicative.

- Erreurs de mesure.

19

Chapitre 1. Le modèle linéaire simple


1. Spécification des relations

Le travail économétrique consiste à utiliser un échantillon pour estimer les paramètres 𝛽0 et 𝛽1

De manière plus précise, on suppose que chaque observation dans notre échantillon
𝑦𝑖 , 𝑥𝑖 ; 𝑖 = 1,2, . . . , 𝑛 est générée par le processus suivant :

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 𝑖 = 1,2, . . . , 𝑛

-Notre objectif est d’utiliser une méthode d’estimation afin de construire des estimateurs des paramètres 𝛽0
et 𝛽1 .

- Ensuite, utiliser les données disponibles pour avoir des estimations des paramètres et examiner la validité
des propositions théoriques.

- On peut également utiliser le modèle pour réaliser les cas échéant des prévisions relatives à la
consommation.

La manière avec laquelle nous allons procéder va dépendre de la nature du processus stochastique qui sous-
tend nos données.

20

10
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les hypothèses du modèle linéaire simple

Les hypothèses qui sous-tendent le modèle linéaire, dites hypothèses de Gauss-Markov, se présentent
comme suit :

1. La relation doit être linéaire


𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 𝑖 = 1,2, . . . , 𝑛

2. La moyenne de l’erreur est nulle. De manière formelle 𝐸(𝜀𝑖 ) = 0 . Généralement, l’introduction de la


constante 𝛽0 assure la satisfaction de cette condition (c’est l’un des rôles de la constante). Si cette
condition n’est pas satisfaite, l’estimateur utilisé sera biaisé.

3. Homoscédasticité. La variance doit être constante. Formellement nous devons avoir

𝑉(𝜀𝑖 ) = 𝜎 2 𝑜𝑢 𝐸(𝜀𝑖2 ) = 𝜎 2

Bien entendu 𝜎 2 n’est pas connue nous allons devoir l’estimer. Si cette condition n’est pas satisfaite,
l’estimateur ne sera pas efficace.

21

Chapitre 1. Le modèle linéaire simple


2. Les hypothèses du modèle linéaire simple

4. Absence d’autocorrélation des erreurs. Les erreurs doivent être indépendantes. Formellement cela se
traduit par

cov( 𝜀𝑖 , 𝜀𝑗 ) = 0 𝑜𝑢 𝐸(𝜀𝑖 𝜀𝑗 ) = 0

Là encore, si cette condition n’est pas satisfaite, les estimateurs des paramètres ne seront pas efficaces.

5. Absence d’autocorrélation entre l’erreur et la variable explicative. Pour l’instant on suppose que la
variable explicative n’est pas stochastique. Elle est exogène cad déterminée en dehors du modèle. Cela
revient à ce que

cov( 𝑥𝑖 , 𝜀𝑖 ) = 0 𝑜𝑢 𝐸(𝑥𝑖 𝜀𝑖 ) = 0

6. Normalité des erreurs. En plus des conditions de Gauss-Markov nous supposons que les erreurs sont
normalement distribuées (conditions nécessaire pour l’inférence statistique).

22

11
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation

Nous supposons que nos données sont générées par la relation stochastique suivante :

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 𝑖 = 1,2, . . . , 𝑛

L’erreur pour chaque observation est donnée par

𝜀𝑖 = 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 𝑖 = 1,2, . . . , 𝑛

Les estimations à partir d’un échantillon sont notées 𝛽መ0 et 𝛽መ1 , l’erreur est estimée comme un résidu

𝜀𝑖Ƹ = 𝑦𝑖 − 𝛽መ0 − 𝛽መ1 𝑥𝑖 𝑖 = 1,2, . . . , 𝑛

Normalité des erreurs. En plus des conditions de Gauss-Markov nous supposons que les erreurs sont
normalement distribuées (conditions nécessaire pour l’inférence statistique).

Rappelons qu’il existe trois méthodes d’estimation des paramètres :


- La méthode des moments
- La méthode des moindres carrés
- La méthode du maximum de vraisemblance

23

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.1. La méthode des moments
Considérons les moments théoriques suivants :

𝐸(𝜀𝑖 ) = 0 𝐸(𝑥𝑖 𝜀𝑖 ) = 0

Leurs équivalents empiriques sont donnés par

1
𝐸(𝜀𝑖Ƹ ) = 0 ෍ 𝜀𝑖Ƹ = 0 ෍ 𝜀𝑖Ƹ = 0
ቊ 𝑛
𝐸(𝑥𝑖 , 𝜀𝑖Ƹ ) = 0
1
෍ 𝜀𝑖Ƹ 𝑥𝑖 = 0 ෍ 𝜀𝑖Ƹ 𝑥𝑖 = 0
𝑛

෍(𝑦𝑖 − 𝛽መ0,𝑀𝑀 − 𝛽መ1,𝑀𝑀 𝑥𝑖 ) = 0 ෍ 𝑦𝑖 − ෍ 𝛽መ0,𝑀𝑀 − 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖 = 0

෍(𝑦𝑖 − 𝛽መ0,𝑀𝑀 − 𝛽መ1,𝑀𝑀 𝑥𝑖 )𝑥𝑖 = 0 ෍ 𝑥𝑖 𝑦𝑖 − 𝛽መ0,𝑀𝑀 ෍ 𝑥𝑖 − 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖2 = 0

Equations normales
24

12
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.1. La méthode des moments

෍ 𝑦𝑖 − ෍ 𝛽መ0,𝑀𝑀 − 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖 = 0 (1)

෍ 𝑥𝑖 𝑦𝑖 − 𝛽መ0,𝑀𝑀 ෍ 𝑥𝑖 − 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖2 = 0 (2)

𝑛𝑦 = 𝑛𝛽መ0,𝑀𝑀 + 𝛽መ1,𝑀𝑀 𝑛𝑥

𝛽መ0,𝑀𝑀 = 𝑦 − 𝛽መ1,𝑀𝑀 𝑥

෍ 𝑥𝑖 𝑦𝑖 = 𝛽መ0,𝑀𝑀 𝑛𝑥 + 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖2

෍ 𝑥𝑖 𝑦𝑖 = (𝑦 − 𝛽መ1,𝑀𝑀 𝑥)𝑛𝑥 + 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖2

25

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.1. La méthode des moments

෍ 𝑥𝑖 𝑦𝑖 = (𝑦 − 𝛽መ1,𝑀𝑀 𝑥)𝑛𝑥 + 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖2

lj 𝑥lj − 𝛽መ1,𝑀𝑀 𝑛𝑥lj 2 + 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖2


෍ 𝑥𝑖 𝑦𝑖 = 𝑦𝑛

lj 𝑥lj = 𝛽መ1,𝑀𝑀 ෍ 𝑥𝑖2 − 𝑛𝑥lj 2


෍ 𝑥𝑖 𝑦𝑖 − 𝑦𝑛

σ 𝑥𝑖 𝑦𝑖 − 𝑦𝑛
lj 𝑥lj
𝛽መ1,𝑀𝑀 =
σ 𝑥𝑖2 − 𝑛𝑥lj 2

1
σ 𝑥𝑖 𝑦𝑖 − 𝑥lj 𝑦lj
𝛽መ1,𝑀𝑀 = 𝑛
1
σ 𝑥𝑖2 − 𝑥lj 2
𝑛

𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽መ1,𝑀𝑀 =
𝑣𝑎𝑟( 𝑥)

26

13
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.1. La méthode des moments

En définitive, les estimateurs par la méthode des moments sont donnés par

𝑐𝑜𝑣( 𝑥, 𝑦)
𝛽መ1,𝑀𝑀 =
𝑣𝑎𝑟( 𝑥)

𝛽መ0,𝑀𝑀 = 𝑦 − 𝛽መ1,𝑀𝑀 𝑥

27

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.1. La méthode du Maximum de vraisemblance

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 𝑖 = 1,2, . . . , 𝑛

𝜀𝑖 → 𝑁(0, 𝜎 2 )

𝐸(𝑦𝑖 ) = 𝛽0 + 𝛽1 𝑥𝑖 + 𝐸(𝜀𝑖 )= 𝛽0 + 𝛽1 𝑥𝑖 𝑉(𝑦𝑖 ) = 𝑉(𝜀𝑖 ) = 𝜎 2

𝑦𝑖 → 𝑁(𝛽0 + 𝛽1 𝑥𝑖 , 𝜎 2 )

1/2 2
1 1 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖
𝑓(𝑦𝑖 ) = exp − −
2𝜋𝜎 2 2 𝜎

𝑛 1/2 2
1 1 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖
𝐿(𝑦1 , . . . , 𝑦𝑛 ; 𝛽0 , 𝛽1 , 𝜎 2 ) = ෑ exp − −
2𝜋𝜎 2 2 𝜎
𝑖=1
28

14
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.1. La méthode du Maximum de vraisemblance
𝑛 1/2 2
1 1 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖
𝐿(𝑦1 , . . . , 𝑦𝑛 ; 𝛽0 , 𝛽1 , 𝜎 2 ) = ෑ exp − −
2𝜋𝜎 2 2 𝜎
𝑖=1

1 1
log 𝐿 (. ) = ෍ − log( 2𝜋𝜎 2 ) − 2 (𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 )2
2 2𝜎

1 1
log 𝐿 (. ) = − 𝑛 log( 2𝜋𝜎 2 ) − 2 ෍(𝑦𝑖 − 𝛽0 − 𝛽1 𝑥𝑖 )2
2 2𝜎

𝜕 log 𝐿 (. ) 1
= − 2 (2)(−1) ෍ 𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 = 0
𝜕𝛽መ0,𝑀𝑉 2𝜎𝑀𝑉
𝜕 log 𝐿 (. ) 1
= − 2 (2) ෍(−𝑥𝑖 ) 𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 = 0
𝜕𝛽መ1,𝑀𝑉 2𝜎𝑀𝑉
2
𝜕 log 𝐿 (. ) 1 1 1 σ(𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 )
2 =− 𝑛 2 + 4 =0
𝜕𝜎𝑀𝑉 2 𝜎𝑀𝑉 2 𝜎𝑀𝑉
29

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.1. La méthode du Maximum de vraisemblance

𝜕 log 𝐿 (. ) 1
= − 2 (2)(−1) ෍ 𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 = 0

𝜕𝛽0,𝑀𝑉 2𝜎𝑀𝑉
𝜕 log 𝐿 (. ) 1
= − 2 (2) ෍(−𝑥𝑖 ) 𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 = 0
𝜕𝛽መ1,𝑀𝑉 2𝜎𝑀𝑉
2
𝜕 log 𝐿 (. ) 1 1 1 σ(𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 )
2 =− 𝑛 2 + 4 =0
𝜕𝜎𝑀𝑉 2 𝜎𝑀𝑉 2 𝜎𝑀𝑉

Les deux équation 1 et 2 peuvent se réecrire comme suit

෍ 𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 = 0 ෍ 𝑦𝑖 − ෍ 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 ෍ 𝑥𝑖 = 0

෍ 𝑦𝑖 𝑥𝑖 − 𝛽መ0,𝑀𝑉 𝑥𝑖 − 𝛽መ1,𝑀𝑉 𝑥𝑖2 = 0 ෍ 𝑥𝑖 𝑦𝑖 − 𝛽መ0,𝑀𝑉 ෍ 𝑥𝑖 − 𝛽መ1,𝑀𝑉 ෍ 𝑥𝑖2 = 0

Equations normales
Nous obtenons les estimateurs suivants
cov( 𝑥, 𝑦)
𝛽መ1,𝑀𝑉 = 𝛽መ0,𝑀𝑉 = 𝑦 − 𝛽መ1,𝑀𝑉 𝑥
var( 𝑥)
30

15
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.1. La méthode du Maximum de vraisemblance

𝜕 log 𝐿 (. ) 1
= − 2 (2)(−1) ෍ 𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 = 0
𝜕𝛽መ0,𝑀𝑉 2𝜎𝑀𝑉
𝜕 log 𝐿 (. ) 1
= − 2 (2) ෍(−𝑥𝑖 ) 𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 = 0
𝜕𝛽መ1,𝑀𝑉 2𝜎𝑀𝑉
2
𝜕 log 𝐿 (. ) 1 1 1 σ(𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 )
2 =− 𝑛 2 + 4 =0
𝜕𝜎𝑀𝑉 2 𝜎𝑀𝑉 2 𝜎𝑀𝑉

De la troisième équation nous avons


2
2
σ(𝑦𝑖 − 𝛽መ0,𝑀𝑉 − 𝛽መ1,𝑀𝑉 𝑥𝑖 )
𝜎𝑀𝑉 =
𝑛

Nous obtenons l’estimateur suivant

2
σ 𝜀𝑖Ƹ 2
𝜎𝑀𝑉 =
𝑛

31

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

La méthode des moindres carrés ordinaires consiste à choisir les estimateurs 𝛽መ0,𝑀𝐶 et 𝛽መ1,𝑀𝐶 de manière à
minimiser la somme des carrés des erreurs. C'est-à-dire faire en sorte que la droite (le modèle) soit la plus
proche de toutes les observations (la réalité)

𝑦
9
8
7 𝜀2Ƹ
6
5
4
𝜀3Ƹ
3
2
1
0 𝑥
0 1 2 3 4 5 6

32

16
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

De manière formelle cela revient à résoudre le programme suivant :

𝑀𝑖𝑛 𝐸 = 𝑀𝑖𝑛 ෍(𝑦𝑖 − 𝛽መ0 − 𝛽መ1 𝑥𝑖 )2


෡ 0 ,𝛽
𝛽 ෡1 ෡ 0 ,𝛽
𝛽 ෡1
𝑖=1

𝑦
9
8
7 𝜀2Ƹ
6
5
4
𝜀3Ƹ
3
2
1
0 𝑥
0 1 2 3 4 5 6

33

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.3. La méthode des moindres carrés

De manière formelle cela revient à résoudre le programme suivant :


𝑛

𝑀𝑖𝑛 𝐸 = 𝑀𝑖𝑛 𝑖 ෍(𝑦𝑖 − 𝛽መ0 − 𝛽መ1 𝑥𝑖 )2


෡ 0 ,𝛽
𝛽 ෡1 ෡ 0 ,𝛽
𝛽 ෡1
𝑖=1
L’annulation des dérivées premières rend

𝜕𝐸(. )
= (2) ෍ 𝑦𝑖 − 𝛽መ0,𝑀𝐶 − 𝛽መ1,𝑀𝐶 𝑥𝑖 (−1) = 0
𝜕𝛽መ0,𝑀𝐶
𝜕𝐸(. )
= (2) ෍(−𝑥𝑖 ) 𝑦𝑖 − 𝛽መ0,𝑀𝐶 − 𝛽መ1,𝑀𝐶 𝑥𝑖 = 0
𝜕𝛽መ1,𝑀𝐶

Ou

෍ 𝑦𝑖 − ෍ 𝛽መ0,𝑀𝐶 − 𝛽መ1,𝑀𝐶 ෍ 𝑥𝑖 = 0
Equations normales
෍ 𝑥𝑖 𝑦𝑖 − 𝛽መ0,𝑀𝐶 ෍ 𝑥𝑖 − 𝛽መ1,𝑀𝐶 ෍ 𝑥𝑖2 = 0

Les estimateurs par la méthode des moindres carrés sont donnés par
cov( 𝑥, 𝑦)
𝛽መ1,𝑀𝐶 = 𝛽መ0,𝑀𝐶 = 𝑦 − 𝛽መ1,𝑀𝐶 𝑥
var( 𝑥)
34

17
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.4. Absence de biais des estimateurs

Rappelons que 𝑐𝑜𝑣( 𝑥, 𝑦)


𝛽መ1 =
𝑣𝑎𝑟( 𝑥)

En remplaçant y par son expression

cov( 𝑥, 𝑦) = cov( 𝑥, [𝛽0 + 𝛽1 𝑥 + 𝜀])


En distribuant, il vient
cov( 𝑥, 𝑦) = cov( 𝑥, 𝛽0 ) + cov( 𝑥, 𝛽1 𝑥) + cov( 𝑥, 𝜀)
Ou
cov( 𝑥, 𝑦) = 0 + 𝛽1 cov( 𝑥, 𝑥) + 0 = 𝛽1 var( 𝑥)

𝑐𝑜𝑣( 𝑥, 𝑦) 𝛽1 𝑣𝑎𝑟( 𝑥)
𝛽መ1 = = = 𝛽1
𝑣𝑎𝑟( 𝑥) 𝑣𝑎𝑟( 𝑥)

Ainsi, 𝐸(𝛽መ1 ) = 𝛽1

35

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.4. Absence de biais des estimateurs

Rappelons que 𝛽መ0 = 𝑦lj − 𝛽መ1 𝑥lj

𝐸(𝛽መ0 ) = 𝐸(𝑦) lj 𝛽መ1 )


lj − 𝑥𝐸(

Comme
𝐸(𝑦𝑖 ) = 𝛽0 + 𝛽1 𝑥𝑖 + 𝐸(𝜀𝑖 )
Ou
𝐸(𝑦𝑖 ) = 𝛽0 + 𝛽1 𝑥𝑖

𝐸(𝑦)
lj = 𝛽0 + 𝛽1 𝑥lj

En remplaçant
𝐸(𝛽መ0 ) = 𝛽0 + 𝛽1 𝑥lj − 𝛽1 𝑥lj

𝐸(𝛽መ0 ) = 𝛽0

36

18
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.4. Exemple numérique
Considérons les données suivantes :

Obs. xi yi 10

8
1 1 1
6
2 2 5
4
3 3 3
2
4 4 8
0
5 5 8 0 1 2 3 4 5 6

Total 15 25

On souhaite expliquer les variations de y par celles de x

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥𝑖 + 𝜀𝑖 𝑖 = 1,2, . . . , 5
Pour ce faire nous devons estimer les paramètres. Comme nous avons un modèle linéaire simple nous
savons que quel que soit la méthode d’estimation nous avons

cov( 𝑥, 𝑦)
𝛽መ1,𝑀𝐶 = 𝛽መ0,𝑀𝐶 = 𝑦 − 𝛽መ1,𝑀𝐶 𝑥
var( 𝑥)
37

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.4. Exemple numérique

Le logiciel Eviews rend le résultat suivant :

Dependent Variable: y
Method: Least Squares (MC)
Date: 03/14/21 Time: 10:17
Sample: 1 5
Included observations: 5 (n)

Variable Coefficient Std. Error t-Statistic Prob.

C -0.100000 1.826655 -0.054745 0.9598


x 1.700000 0.550757 3.086660 0.0539

R-squared 0.760526 Mean dependent var 5.000000


Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854

Nous allons tenter de retrouver les principaux résultats


38

19
19/02/2022

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.4. Exemple numérique
Le tableau suivant donne les calculs nécessaires à faire

Obs. xi 𝑦𝑖 𝑥 𝑖𝑦𝑖 𝑥𝑖2


1 1 1 1 1
2 2 5 10 4
3 3 3 9 9
4 4 8 32 16
5 5 8 40 25
Total 15 25 92 55

Les moyennes des deux variables sont données par

15 25
𝑥lj = =3 𝑦lj = =5
Ainsi 5 5
92
−3×5 et 𝛽መ0 = 5 − 1,7 × 3 = −0,1
𝛽መ1 = 5 = 1,7000
55
−3×3
5
En définitive nous avons
𝑦 = −0,1 + 1,7𝑥

39

Chapitre 1. Le modèle linéaire simple


2. Les méthodes d’estimation
2.4. Exemple numérique
𝑦 = −0,1 + 1,7𝑥
- Une hausse d’une unité de x augmente y de 1,7 unité
- La constante n’a pas toujours d’interprétation.
- Elle est introduite pour assurer la nullité de la moyenne des erreurs (hypothèse Gauss-Markov)
On peut calculer les résidus de la manière suivante :

𝜀𝑖Ƹ = 𝑦𝑖 − 𝛽መ0 − 𝛽መ1 𝑥𝑖

𝜀𝑖Ƹ = 𝑦𝑖 − (−0,1) − (1,7)𝑥𝑖

xi yi 𝜀𝑖Ƹ
Obs.
1 1 1 -0,6
2 2 5 1,7
3 3 3 -2
4 4 8 1,3
5 5 8 -0,4
Total 15 25 0
40

20
19/02/2022

Chapitre 1. Le modèle linéaire simple


3. Qualité de la régression

On peut mesure la qualité de la régression en examinant dans quelle mesure les variations de la variable
indépendante sont expliquées par celles de la variable expliquée ?
Un indicateur de la qualité de la régression est donné par le coefficient de détermination

Les variations de la variable indépendante sont mesurées en termes d’écarts par rapport à sa moyenne . La
somme de leurs carrées est appelée somme total des carrés (SCT).

lj 2
𝑆𝐶𝑇 = ෍(𝑦𝑖 − 𝑦)
La somme des carrés des résidus (SCR) est donné par

𝑆𝐶𝑅 = 𝜀𝑖Ƹ 2 = ෍(𝑦𝑖 − 𝛽መ0 − 𝛽መ1 𝑥𝑖 )2

𝑆𝐶𝑅 = 𝜀𝑖Ƹ 2 = ෍(𝑦𝑖 − 𝑦lj + 𝛽መ1 𝑥lj − 𝛽መ1 𝑥𝑖 )2

2
𝑆𝐶𝑅 = 𝜀𝑖Ƹ 2 = ෍ 𝑦𝑖 − 𝑦lj − 𝛽መ1 𝑥𝑖 − 𝑥lj

𝑆𝐶𝑅 = 𝜀𝑖Ƹ 2 = ෍ 𝑦𝑖 − 𝑦lj 2
+ 𝛽መ12 ෍ 𝑥𝑖 − 𝑥lj 2
− 2𝛽መ1 ෍ 𝑥𝑖 − 𝑥lj 𝑦𝑖 − 𝑦lj

41

Chapitre 1. Le modèle linéaire simple


3. Qualité de la régression

𝑆𝐶𝑅 = 𝜀𝑖Ƹ 2 = ෍ 𝑦𝑖 − 𝑦lj 2 + 𝛽መ12 ෍ 𝑥𝑖 − 𝑥lj 2 − 2𝛽መ1 ෍ 𝑥𝑖 − 𝑥lj 𝑦𝑖 − 𝑦lj

Nous avons
෍ 𝑥𝑖 − 𝑥lj 2 = 𝑛 × var( 𝑥)

෍ 𝑦𝑖 − 𝑦lj 2 = 𝑛 × var( 𝑦)

෍ 𝑥𝑖 − 𝑥lj 𝑦𝑖 − 𝑦lj = 𝑛 × cov( 𝑥, 𝑦)

Rappelons que
cov( 𝑥, 𝑦)
𝛽መ1 =
var( 𝑥)

𝑆𝐶𝑅 = 𝑛 var( 𝑦) + 𝛽መ12 𝑛 var( 𝑥) − 2𝛽መ1 𝑛 cov( 𝑥, 𝑦)

cov( 𝑥, 𝑦)2 cov( 𝑥, 𝑦)


𝑆𝐶𝑅 = 𝑛 var( 𝑦) + 𝑛 var( 𝑥) − 2 𝑛 cov( 𝑥, 𝑦)
var( 𝑥)2 var( 𝑥)

42

21
19/02/2022

Chapitre 1. Le modèle linéaire simple


3. Qualité de la régression

cov( 𝑥, 𝑦)2 cov( 𝑥, 𝑦)2


𝑆𝐶𝑅 = 𝜀𝑖Ƹ 2 = 𝑛 var( 𝑦) + 𝑛 − 2𝑛
var( 𝑥) var( 𝑥)

cov( 𝑥, 𝑦)2
𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛
var( 𝑥)

𝑆𝐶𝑅 = 𝑛 var( 𝑦) − 𝑛𝛽መ1 cov( 𝑥, 𝑦)

𝑆𝐶𝑅 = 𝑆𝐶𝑇 − 𝑆𝐶𝐸

𝑆𝐶𝑇 = 𝑆𝐶𝐸 + 𝑆𝐶𝑅

Un indicateur de la qualité de la régression est donné par le coefficient de détermination , donné par

𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅2 = =1−
𝑆𝐶𝑇 𝑆𝐶𝑇

Plus le 𝑅2 est élevé (proche de 1) plus le modèle est de bonne qualité. Cela signifie que les variations de la
variable expliquée sont attribuées aux variations de la variable explicative

43

Chapitre 1. Le modèle linéaire simple


3. Qualité de la régression
Reprenons notre exemple. Les calculs sont réalisés dans le tabaleau ci-dessous
Obs 𝑥𝑖 𝑦𝑖 𝑥𝑖 𝑦𝑖 𝑥𝑖2 lj 2
(𝑦𝑖 − 𝑦)
.
𝑦ො𝑖 𝜀𝑖Ƹ 2
1 1 1 1 1 1,6 0,36 16
2 2 5 10 4 3,3 2,89 0
3 3 3 9 9 5 4 4
4 4 8 32 16 6,7 1,69 9
5 5 8 40 25 8,4 0,16 9
Tot 15 25 92 55 25 9,1 38
al

𝑆𝐶𝑇 = 38 𝑆𝐶𝑅 = 9,1 𝑆𝐶𝐸 = 38 − 9,1 = 28,9

𝑆𝐶𝐸 = 1,7 × 5 × ((92/5) − 3 × 5) = 28,9

28,9
𝑅2 = = 0,76052 ≡ 76,052%
38

Ainsi 76,052% des variations de y sont expliquées par les variations de x


Notre modèle économique explique 76,052% de la réalité

44

22
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique dans le modèle linéaire simple
Tous les résultats obtenus sont des estimations ponctuelles. Leurs qualités dépend de l’échantillon
considéré. Pour surmonter cette limite il faut réaliser de l’inférence statistique (les intervalles de confiance
ou les tests d’hypothèses).

Pour obtenir les estimateurs de 𝛽0 et 𝛽1 , aucune hypothèse sur la distribution de l’erreur n’était
nécessaire. En effet, à partir des hypothèses de Gauss-Markov, on peut montrer que les estimateurs par la
méthode des moindres carrés ordinaires (MCO) (en anglais Ordinary Least squares OLS) sont non biaisés et
efficaces (BLUE).

4.1. Les intervalles de confiance des coefficients

Si en plus des hypothèses de Gauss-Markov on suppose que les erreurs sont normalement distribuées alors
il est possible de construire des intervalles de confiance et réaliser des tests d’hypothèses.

Nous allons le faire pour 𝛽1 .

Nous pouvons montrer que 𝛽1 est une variable aléatoire avec

𝜎2
𝐸(𝛽መ1 ) = 𝛽1 𝑉(𝛽መ1 ) =
𝑛 var( 𝑥)

45

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique dans le modèle linéaire simple

Les choses auraient été faciles si on connaissait 𝜎 2 . Bien entendu, en pratique il faut l’estimer. On peut
montrer qu’un estimateur non biaisé de 𝜎 2 est donné par

𝑆𝐶𝑅
𝜎ො2 =
𝑛−2

Ainsi, un intervalle de confiance pour le coefficient 𝛽መ1 est donné par

𝐼𝑛 = 𝛽መ1 − var( 𝛽መ1 ) × 𝑡𝛼,𝑛−2 ; 𝛽መ1 + var( 𝛽መ1 ) × 𝑡𝛼,𝑛−2

𝑡𝛼,𝑛−2 est lue sur la table de la loi de Student avec (n-2) degrés de libertés.

Qu’est ce qui se passe si l’erreur n’est pas distribuée normalement ?

Les résultats restent valables pour un grand nombre d’observations, sinon cela pose problème.

46

23
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique dans le modèle linéaire simple
Ainsi l’intervalle de confiance de 𝛽መ1 est donné par
A

𝐼𝑛 = 𝛽መ1 − var( 𝛽መ1 ) × 𝑡𝛼,𝑛−2 ; 𝛽መ1 + var( 𝛽መ1 ) × 𝑡𝛼,𝑛−2

𝑡𝛼−2 est lue sur la table de la loi de Student avec (n-2) degrés de libertés.
Qu’est ce qui se passe si l’erreur n’est pas distribuée normalement ? Les résultats restent valables pour un
grand nombre d’observations, sinon cela pose problème.

Reprenons notre exemple.


Calculons les écart-types de la régression et des deux coefficients

𝑆𝐶𝑅 9,1
𝜎ො 2 = = = 3,0333 𝜎ො = 𝑆. 𝐸. 𝑟𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 = 3,0333 = 𝟏, 𝟕𝟒𝟏𝟔
𝑛−2 3
D’un autre côté nous avons

𝜎ො 2 3,033
𝑉(𝛽መ1 ) = = = 0,30333
𝑛 var( 𝑥) 5 × 2

𝑆. 𝐸. (𝛽መ1 ) = 0,30333 = 𝟎, 𝟓𝟓𝟎𝟕

47

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique dans le modèle linéaire simple
Pour 𝛽መ0 on peut montrer que la variance est donnée par

1 𝑥lj 2 1 9
𝑉(𝛽0 ) = 𝜎ො 2 + = 3,03 + = 3,3366
𝑛 𝑛 var( 𝑥) 5 10

𝑆. 𝐸. (𝛽መ0 ) = 2,3366 = 𝟏, 𝟖𝟐𝟔𝟔𝟓

48

24
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique dans le modèle linéaire simple
Exemple numérique

Le logiciel Eviews rend le résultat suivant :

Dependent Variable: y
Method: Least Squares (MC)
Date: 03/14/21 Time: 10:17
Sample: 1 5
Included observations: 5 (n)

Variable Coefficient Std. Error t-Statistic Prob.

C -0.100000 1.826655 -0.054745 0.9598


x 1.700000 0.550757 3.086660 0.0539

R-squared 0.760526 Mean dependent var 5.000000


Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854

49

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique dans le modèle linéaire simple

Récapitulons nos calculs

𝛽መ0 = −0,1 𝛽መ1 = 1,7

𝑆. 𝐸. (𝛽መ0 ) = 1,826 𝑆. 𝐸. (𝛽መ1 ) = 0,550 𝑡𝛼,3 = 3,182

On peut maintenant calculer les intervalles de confiance au seuil 5%

𝛽0 ∈ −0,1 − 1,82 × 3,182 ; −0,1 + 1,82 × 3,182

𝛽0 ∈ −5,89 ; 5,69

𝛽1 ∈ 1,7 − 0,55 × 3,182 ; 1,7 + 0,55 × 3,182

𝛽1 ∈ −0,0501 ; 3,4501

50

25
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique

51

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique
4.2. Les tests d’hypothèses

- Comme nous l’avons souligné dans l’introduction générale on est essentiellement intéressé à savoir si les
variations de x sont à l’origine des variations de y.

- Autrement dit, si le paramètre 𝛽መ1 est significativement différent de 0.

- On peut également être intéressé, comme dans les exemples de la fonction de consommation keynésienne
ou du MEDAF, de savoir si 𝛽መ0 est significativement différent de zéro. On est amené dans ce cas à réaliser
des tests d’hypothèses (tests de Student)
On testera en particulier les hypothèses nulles

𝐻0 : 𝛽𝑖 = 0 contre 𝐻1 : 𝛽𝑖 ≠ 0 ∀𝑖 = 0,1

Dans ce cas on calcule les ratios de Student données par


𝛽መ𝑖
𝑡𝑜𝑏𝑠 = ∀𝑖 = 0,1
𝑠. 𝑒. (𝛽መ𝑖 )

Si cette valeur est incluse dans la zone d’acceptation définie par les valeurs lues sur la table de Student pour
un seuil 𝛼 et 𝑛 − 2 degrés de libertés, on accepte l’hypothèse nulle.

52

26
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique
4.2. Les tests d’hypothèses

- Dans notre exemple nous avons

𝛽መ0 −0,1000
𝑡𝑜𝑏𝑠 (𝛽መ0 ) = = 1,8266
𝑠. 𝑒. (𝛽መ0 ) 1,8266
𝛽መ1 1,7000
𝑡𝑜𝑏𝑠 (𝛽መ1 ) = = = 3,0866
𝑠. 𝑒. (𝛽መ1 ) 0,5507

La zone d’acceptation pour un seuil de 5% et 3 ddl est donnée par l’intervalle [-3,182 ; 3,182]

La zone d’acceptation pour un seuil de 10% et 3 ddl est donnée par l’intervalle [-2,363 ; 2,353]

Ainsi,
- La constante n’est pas significativement différente de 0 ni au seuil 5% ni au seuil 10%
- La pente n’est pas significativement différente de zéro au seuil 5% mais significativement différente de 0 au
seuil 10%

53

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique
4.2. Les tests d’hypothèses

Généralement on calcule plutôt la probabilité à partir de laquelle l’hypothèse nulle est acceptée ou rejetée.
Ainsi,

𝛼0 = 𝑃( 𝑧 < 0,0547) = 0,9598


𝛼1 = 𝑃( 𝑧 < 3,0866) = 0,0538

54

27
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique

55

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique
4.2. Les tests d’hypothèses
Les résultats plus complets se présentent comme suit
Coef. SE t-statistic Prob.
Constante -0,1000 1,8266 -0,0547 0,9598
X 1,7000 0,5507 3,0866 0,0539
R2 0,76
SEreg 1,74
SCR 9,1

Les ratios de Student ou les erreurs standards sont donnés pour tester d’autres hypothèses

On peut tester par exemple

𝐻0 : 𝛽1 = 2 𝐻0 : 𝛽1 ≠ 2
Le ratio de Student est donné par

𝛽መ1 − 2 0,3000
𝑡𝑜𝑏𝑠 (𝛽መ1 ) = = = 0,545
𝑠. 𝑒. (𝛽መ1 ) 0,5507

Comme 𝑡𝑜𝑏𝑠 (𝛽መ1 ) << 3,182 on ne rejette pas l’hypothèse nulle au seuil 5%

56

28
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique
4.3. Analyse de la variance
On peut regrouper les résultats dans le tableau suivant :

Source des variations Somme des carrés Degrés de libertés Carrés moyens
x SCE k–1 SCE / (k -1)
Résidus SCR n–2 SCR / (n – 2)
Total SCT n-1

Le but est de tester la significativité de la SCE. Dans le cas linéaire simple cela revient à tester la significativité
de la pente 𝛽1

La statistique de Fisher est donnée par


𝑆𝐶𝐸/1
𝐹= → 𝐹1,𝑛−2
𝑆𝐶𝑅/(𝑛 − 2)
Dans notre exemple nous avons
Source des Somme des carrés Degrés de libertés Carrés moyens
variations
x 28,9 1 28,9
Résidus 9,1 3 3,0333
Total 38 4

57

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique
4.3. Analyse de la variance
On peut regrouper les résultats dans le tableau suivant :

𝑆𝐶𝐸/1 28,9
𝐹= = = 9,52
𝑆𝐶𝑅/(𝑛 − 2) 3,0333

On peut vérifier que dans le modèle simple nous avons

𝐹 = 𝑡 2 = 3,0866 × 3,0866 = 9,52

La p-value est donnée par

𝛼 = 𝑃( 𝑧 < 9,52) = 0,0539

58

29
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Inférence statistique
4.3. Analyse de la variance

Dependent Variable: YI
Method: Least Squares (Gauss-Newton / Marquardt steps)
Date: 02/23/21 Time: 17:42
Sample: 1 5
Included observations: 5
YI=C(1)+C(2)*XI

Coefficient Std. Error t-Statistic Prob.

C(1) -0.100000 1.826655 -0.054745 0.9598


C(2) 1.700000 0.550757 3.086660 0.0539

R-squared 0.760526 Mean dependent var 5.000000


Adjusted R-squared 0.680702 S.D. dependent var 3.082207
S.E. of regression 1.741647 Akaike info criterion 4.236714
Sum squared resid 9.100000 Schwarz criterion 4.080489
Log likelihood -8.591784 Hannan-Quinn criter. 3.817422
F-statistic 9.527473 Durbin-Watson stat 3.600000
Prob(F-statistic) 0.053854

59

Chapitre 1. Le modèle linéaire simple


5. Fromes fonctionnelles et modèles linéaires

Revenons à la forme déterministe de notre modèle. Rappelons-le, il s’écrit

𝑦 = 𝛽0 + 𝛽1 𝑥

Le modèle est dit linéaire non pas en termes de relation entre y et x mais en terme de manière avec laquelle
ils sont considérés dans l’équation même de manière transformées.
Considérons la figure suivante :

𝑦 𝑦 = 𝛽0 + 𝛽1 𝑒 𝑥
1
𝑦 = 𝛽0 + 𝛽1 ( )
𝑥
𝑦 = 𝛽0 + 𝛽1 𝑥

𝑦 = 𝛽0 + 𝛽0 ln( 𝑥)

60

30
19/02/2022

Chapitre 1. Le modèle linéaire simple


5. Fromes fonctionnelles et modèles linéaires
Mais si nous posons
1 𝑣 = 𝑒𝑥 𝑤 = ln 𝑥
𝑧=
𝑥

Nous obtenons les relations linaires suivantes :


𝑦 = 𝛽0 + 𝛽1 𝑧 𝑦 = 𝛽0 + 𝛽1 𝑣 𝑦 = 𝛽0 + 𝛽1 𝑤

𝑦 𝑦 = 𝛽0 + 𝛽1 𝑣
𝑦 = 𝛽0 + 𝛽1 𝑧

𝑦 = 𝛽0 + 𝛽1 𝑥

𝑦 = 𝛽0 + 𝛽1 𝑤

61

Chapitre 1. Le modèle linéaire simple


5. Fromes fonctionnelles et modèles linéaires
Toutes les formes précédentes sont linéaires. Le nombre de formes fonctionnelles qui peuvent être
transformées en relations linéaires est important.
Une forme très utilisée est la forme log linéaire. Elle est donnée par
𝑦 = 𝐴𝑥 𝛽1

En termes log elle s’écrit ln( 𝑦) = 𝛽0 + 𝛽1 ln( 𝑥)

En plus lorsque les variables sont considérées en termes logarithmiques cela donne plusieurs avantages
- Rapprochement des échelles des variables x et y
- Parfois le log suffit pour s’assurer que les données soient homoscédastiques
- Le paramètre 𝛽1 s’interprète comme une élasticité

𝑦
𝛽1 = 2 𝛽1 = 1
𝛽1 = −1

𝛽1 = 0,5

62

31
19/02/2022

Chapitre 1. Le modèle linéaire simple


6. Application : estimation du Nairu dans le cas du Maroc

- Le Nairu (non accelerating inflation rate of unemployment) ou taux de chômage n’accélérant pas l’inflation
est un concept très intéressant il s’agit d’un taux de chômage naturel (d’équilibre) proche du taux de
chômage structurel

- Très utile de connaître sa valeur pour la conduite de la politique économique

- Lorsque le taux de chômage est au dessus du Nairu on peut mettre en place une politique expansionniste
pour réduire le taux de chômage sans que cela augmente l’inflation

-Lorsque le taux de chômage est en dessous du Nairu on doit s’attendre à des tensions inflationnistes

- On ne peut pas réduire de manière importante et durable le taux de chômage en dessous du Nairu par des
politiques conjoncturelles mais par des réformes du marché du travail

- L’OCDE et le FMI donnent régulièrement des estimations du NAIRU

- Etats Unis 6,1%


- France 9,2%
- Allemagne 6,3%
- Japon 4,3%

63

Taux de chômage
Taux de
chômage

Taux de chômage
naturel

Temps

64

32
19/02/2022

Chapitre 1. Le modèle linéaire simple


6. Application : estimation du Nairu dans le cas du Maroc

Le Nairu n’est pas observable, il doit être estimé. Il peut l’être à l’aide de la courbe de Phillips.
Dans sa version augmentée elle est donnée par

𝜋𝑡 = 𝜋𝑡𝑎 − 𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜀𝑡 𝛽>0

Dans cette équation 𝜋𝑡 est le taux d’inflation effectif, 𝜋𝑡𝑎 est le taux d’inflation anticipé, 𝑢𝑡 le taux de
chômage effectif, 𝑢𝑡𝑛 est le taux de chômage naturel, 𝜀𝑡 est un choc d’offre.

Ainsi, la courbe de Phillips identifie, dans sa version moderne, trois sources de l’inflation
1. l’inflation anticipée
2. l’écart du chômage par rapport à son taux naturel (chômage conjoncturel)
3. les chocs d’offre

Pour pouvoir utiliser la courbe de Phillips nous devons savoir de quoi dépend l’inflation anticipée.

Comment se forment les anticipations ?

Supposons que les agents économiques forment leurs anticipations d’inflation sur la base de l’histoire
récente de l’inflation.

65

Chapitre 1. Le modèle linéaire simple


4. Application : estimation du Nairu dans le cas du Maroc

Un exemple simple est de supposer que l’inflation anticipée est égale à l’inflation de la période précédente

𝜋𝑡𝑎 = 𝜋𝑡−1
Dans ce cas, la courbe de Phillips se réecrit

𝜋𝑡 − 𝜋𝑡−1 = Δ𝜋𝑡 = −𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜀𝑡

Dans cette configuration, le taux de chômage naturel est appelé NAIRU (= Non-Accelerating Inflation Rate of
Unemployment) taux de chômage n’accélérant pas l’inflation

Cette équation traduit une inertie de l’inflation

- En l’absence de chocs d’offre ou de chômage cyclique, le niveau de l’inflation ne change pas


- L’inflation passée, détermine l’inflation anticipée qui détermine les salaires et les prix fixés par les agents
économiques

66

33
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Application : estimation du Nairu dans le cas du Maroc

Principalement deux causes de l’inflation:

𝜋𝑡 − 𝜋𝑡−1 = Δ𝜋𝑡 = −𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜀𝑡

Inflation induite par les coûts (Cost Push Inflation) : L’inflation résulte des chocs sur l’offre : Un choc négatif
d’offre augmente les coûts de production ce qui augmente les prix (Exemple : choc pétrolier)

Inflation induite par la demande (Demand Push Inflation) : L’inflation peut résulter également d’un choc de
demande : un choc positif sur la demande provoque une baisse du taux de chômage en dessous du niveau
naturel ce qui cause une inflation

67

Chapitre 1. Le modèle linéaire simple


4. Application : estimation du Nairu dans le cas du Maroc

Le modèle économétrique s’écrit

Δ𝜋𝑡 = −𝛽(𝑢𝑡 − 𝑢𝑛 ) + 𝜀𝑡

Δ𝜋𝑡 = −𝛽𝑢𝑡 + 𝛽𝑢𝑛 + 𝜀𝑡

On pose
𝛽1 = −𝛽 𝛽0 = 𝛽𝑢𝑛 = −𝛽1 𝑢𝑛

Ou encore
Δ𝜋𝑡 = 𝛽0 + 𝛽1 𝑢𝑡 + 𝜀𝑡

On utilise la méthode des moindres carrés pour estimer 𝛽መ0 et 𝛽መ1

Ensuite on estime le taux de chômage naturel

𝛽መ0
𝑢ො 𝑛 = −
𝛽መ1

68

34
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Application : estimation du Nairu dans le cas du Maroc

Nous disposons des données suivantes relatives aux taux de chômage et au taux d’inflation

Taux de
Année chômage Taux d’inflation
1999 13,9399996 0,68478261
2000 13,5799999 1,89463457
2001 12,46 0,61980188
2002 11,5900002 2,79561967
2003 11,9200001 1,16773367
2004 10,8299999 1,49344403
2005 11,0100002 0,98264166
2006 9,67000008 3,28476167
2007 9,56000042 2,04208513
2008 9,56999969 3,70731707
2009 9,10000038 0,99482596
2010 9,06000042 0,98735533
2011 8,90999985 0,91461071
2012 8,98999977 1,28712871
2013 9,22999954 1,87232123
2014 9,69999981 0,4428698
2015 9,65999985 1,55790711
2016 9,39999962 1,63531114
2017 9,33199978 0,75466325

69

Chapitre 1. Le modèle linéaire simple


4. Application : estimation du Nairu dans le cas du Maroc

Nous allons commencer par calculer Δ𝜋𝑡


Taux de Taux
Année chômage d’inflation Var. inflation
1999 13,9399996 0,68478261
2000 13,5799999 1,89463457 -1,20985196
2001 12,46 0,61980188 1,27483269
2002 11,5900002 2,79561967 -2,17581779
2003 11,9200001 1,16773367 1,627886
2004 10,8299999 1,49344403 -0,32571036
2005 11,0100002 0,98264166 0,51080237
2006 9,67000008 3,28476167 -2,30212001
2007 9,56000042 2,04208513 1,24267654
2008 9,56999969 3,70731707 -1,66523194
2009 9,10000038 0,99482596 2,71249111
2010 9,06000042 0,98735533 0,00747063
2011 8,90999985 0,91461071 0,07274462
2012 8,98999977 1,28712871 -0,372518
2013 9,22999954 1,87232123 -0,58519252
2014 9,69999981 0,4428698 1,42945143
2015 9,65999985 1,55790711 -1,11503731
2016 9,39999962 1,63531114 -0,07740403
2017 9,33199978 0,75466325 0,88064789

Nous allons régresser la var de l’inflation sur le taux de chômage


70

35
19/02/2022

Chapitre 1. Le modèle linéaire simple


4. Application : estimation du Nairu dans le cas du Maroc

Le logiciel Eviews rend le résultat suivant


Dependent Variable: VARINF
Method: Least Squares
Date: 03/15/21 Time: 13:04
Sample: 2000 2017
Included observations: 18

Variable Coefficient Std. Error t-Statistic Prob.

C 0.833270 2.574425 0.323672 0.7504


TC -0.082086 0.250298 -0.327954 0.7472

R-squared 0.006677 Mean dependent var -0.003882


Adjusted R-squared -0.055405 S.D. dependent var 1.379881
S.E. of regression 1.417592 Akaike info criterion 3.640236
Sum squared resid 32.15308 Schwarz criterion 3.739166
Log likelihood -30.76212 Hannan-Quinn criter. 3.653877
F-statistic 0.107554 Durbin-Watson stat 3.304278
Prob(F-statistic) 0.747199

- La courbe
𝛽መ0 0,833270
- Le taux de chômage naturel est donné par 𝑢ො 𝑛 = − = = 10,15%
𝛽መ1 0,082086
71

Chapitre 1. Le modèle linéaire simple


4. Application : estimation du Nairu dans le cas du Maroc

TCE NAIRU

15
14
13
12
11
10
9
8
7

72

36
19/02/2022

Chapitre 2. Le modèle linéaire multiple

73

Chapitre 2. Le modèle linéaire multiple

- Le modèle linéaire multiple (régression multiple) est une généralisation du modèle linéaire simple.
-L’essentiel des techniques qui sous-tendent le modèle linéaire simple restent valables
- Dans le modèle multiple on s’intéresse à savoir dans quelle mesure les variations de la variable expliquée
sont expliquées par les variations des variables explicatives : x1, x2,…, xk

-Ainsi le modèle linéaire multiple s’écrira comme suit

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1 +. . . +𝛽𝑘 𝑥𝑘 + 𝜀𝑖 𝑖 = 1,2, . . . , 𝑛

On peut montrer que si les hypothèses suivantes (Gauss-Markov) sont remplies

1. 𝐸(𝜀𝑖 ) = 0 2. 𝑉(𝜀𝑖 ) = 𝜎 2 3. cov( 𝜀𝑖 , 𝜀𝑗 ) = 0 ∀𝑖 ≠ 𝑗

4. cov( 𝜀𝑖 , 𝑥𝑖 ) = 0 5. 𝜀𝑖 → 𝑁(0, 𝜎 2 )

Les estimateurs par les moindres carrés 𝛽መ0 , 𝛽መ1 , . . . , 𝛽መ𝑘 sont non biaisés et présentent la variance la plus
petite de tous les autres estimateurs (moments et maximum de vraisemblance)

74

37
19/02/2022

Chapitre 2. Le modèle linéaire multiple

Bien entendu, comme dans le cas simple, les estimateurs par les moindres carrés sont ceux qui minimisent la
somme des carrés des résidus. Soit

𝑛 𝑛

𝑆𝐶𝑅 = ෍ 𝜀𝑖Ƹ 2 = ෍ 𝑦𝑖 − 𝛽0 − 𝛽1 𝑥1 −. . . −𝛽𝑘 𝑥𝑘 2

𝑖=1 𝑖=1

En plus des hypothèses précédentes (Gauss-Markov), il ne faut pas qu’il ait de colliniarité entre les variables
explicatives. C’est-à-dire qu’il n’existe pas de relation linéaire déterministe entre les variables
explicatives.

On reviendra plus tard sur cette hypothèse.

75

Chapitre 2. Le modèle linéaire multiple


1. Coefficients de la régression multiple
Le modèle linéaire général s’écrit

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1𝑖 +. . . +𝛽𝑘 𝑥𝑘𝑖 + 𝜀𝑖 𝑖 = 1,2, . . . , 𝑛


Le système complet s’écrit

𝑦1 = 𝛽0 + 𝛽1 𝑥11 +. . . +𝛽𝑘 𝑥𝑘1 + 𝜀1


ቐ⋮
𝑦𝑛 = 𝛽0 + 𝛽1 𝑥𝑛1 +. . . +𝛽𝑘 𝑥𝑘𝑛 + 𝜀𝑛

Ou sous forme matricielle


𝑦1 1 𝑥11 ⋯ 𝑥1𝑘 𝛽0 𝜀1
𝑦2 1 𝑥12 ⋯ 𝑥𝑘2 𝛽1 𝜀2
⋮ = + ⋮
⋮ ⋮ ⋮ ⋮ ⋮
𝑦𝑛 1 𝑥1𝑛 ⋯ 𝑥𝑘𝑛 𝛽𝑘 𝜀𝑛

Ou encore

La colonne de la constante
𝑌 = 𝑋𝛽 + 𝜀
Les dimensions des matrices (n,1) = (n,k+1)*(k+1,1)+(n,1)

76

38
19/02/2022

Chapitre 2. Le modèle linéaire multiple


1. Coefficients de la régression multiple
La somme des carrés des résidus est donnée par

𝑆𝐶𝑅 = 𝜀′𝜀 = (𝑌 − 𝑋𝛽)′(𝑌 − 𝑋𝛽)


En développant,
𝑆𝐶𝑅 = 𝑌′𝑌 − (𝑋𝛽)′𝑌 − 𝑌′𝑋𝛽 + (𝑋𝛽)′(𝑋𝛽)

𝑆𝐶𝑅 = 𝑌′𝑌 − 2𝛽′𝑋′𝑌 + 𝑋′𝛽′𝑋𝛽

La minimisation de la somme des carrés des résidus est données par

𝜕𝑆𝐶𝑅
= −2(𝑋′𝑌) + 2(𝑋′𝑋)𝛽መ = 0
𝜕 𝛽መ
Enfin les estimateurs sont donnés par le vecteur suivant

𝛽መ = (𝑋′𝑋)−1 𝑋′𝑌

77

Chapitre 2. Le modèle linéaire multiple


2. Propriétés des coefficients de la régression multiple
Rappelons que les coefficients sont donnés par
𝛽መ = (𝑋′𝑋)−1 𝑋′𝑌
Ou encore
𝛽መ = (𝑋′𝑋)−1 𝑋′[𝑋𝛽 + 𝜀]

En distribuant,
𝛽መ = (𝑋′𝑋)−1 𝑋′𝑋𝛽 + (𝑋′𝑋)−1 𝑋′𝜀

Ou 𝛽መ = (𝑋′𝑋)−1 𝑋′𝜀

En introduisant l’espérance, il vient que


መ = 𝛽 + (𝑋′𝑋)−1 𝑋′𝐸(𝜀)
𝐸(𝛽)

መ =𝛽
𝐸(𝛽)

Les estimateurs par la Méthode des MCO sont non biaisés


Par ailleurs ont peux montrer qu’ils sont convergents
Enfin on peut montrer qu’ils sont Blue (Best Linear Unbiaised Estimator)

78

39
19/02/2022

Chapitre 2. Le modèle linéaire multiple


3. Exemple numérique
Exemple 1. Considérons les données suivantes
Y X1 X2 X3
8,5 16,9 0,7 2,1
7,2 19,2 0,9 2,4
11,3 9,6 0,6 2,0
4,6 4,9 0,3 2,0
13,0 18,0 0,9 1,9
11,0 10,5 0,6 2,2
10,1 14,8 0,8 2,0
7,8 19,9 1,0 2,0
9,1 17,8 0,9 1,9
11,0 16,4 0,9 2,1
12,0 18,1 0,8 2,0
11,1 9,3 0,5 2,1
9,2 13,6 0,7 2,4
4,6 10,0 0,6 1,8
3,1 1,2 0,1 1,7
18,5 20,4 1,1 2,0
12,6 15,3 0,9 2,2
12,0 18,9 0,8 2,1
4,9 5,4 0,3 2,0
15,9 17,4 0,9 2,2
9,2 8,7 0,5 2,1
10,6 10,3 0,6 2,1
12,2 18,2 0,9 2,0
13,9 14,4 0,7 2,4

Estimez sur excel et eviews la relation


𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛽3 𝑥3 + 𝜀
79

Chapitre 2. Le modèle linéaire multiple


3. Exemple numérique
Exemple 1. Excel rend les résultats suivants :

24,00 329,20 17,00 49,70


329,20 5165,78 261,78 688,03
𝑋′𝑋 =
17,00 261,73 13,40 35,47
49,70 688,03 35,47 103,61

6,49 0,068 −1,34 −3,10


0,068 0,020 −0,42 −0,023
𝑋 −1 =
−1,34 −0,42 9,53 0,17
−3,120 −0,023 0,17 1,59

243,40 𝛽መ0 −4,985


3616,28 𝛽መ1 −0,323
𝑋′𝑌 =
186,26 𝛽መ = =
𝛽መ2 16,237
509,00 3,894
𝛽መ3

80

40
19/02/2022

Chapitre 2. Le modèle linéaire multiple


3. Exemple numérique
Exemple 1. Excel rend les résultats suivants :

Le logiciel Eviews rend le résultat suivant :

Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

81

Chapitre 2. Le modèle linéaire multiple


4. Interprétation des coefficients dans la régression multiple
Supposons que deux variables x1 et x2 permettent d’expliquer une variable dépendante y

Le vrai modèle s’écrit alors

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝜀

Les coefficients 𝛽መ1 et 𝛽መ2 donnent une estimation de l’influence de chacune des deux variables
explicatives sur y en contrôlant l’effet de l’autre variable explicative.

Supposons que

𝛽መ1 > 0 𝛽መ2 > 0 cov( 𝑥1 , 𝑥2 ) > 0

Supposons que nous estimons le modèle

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1 + 𝜀

82

41
19/02/2022

Chapitre 2. Le modèle linéaire multiple


4. Interprétation des coefficients dans la régression multiple

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1 + 𝜀

Si x1 augmente alors

- y va augmenter car 𝛽መ1 > 0

- x2 va augmenter car cov( 𝑥1 , 𝑥2 ) > 0

- y va encore augmenter car x2 a augmenté et que 𝛽መ2 > 0

Ainsi avec un modèle simple, la valeur de 𝛽መ1 va capter tous ces effets et sa valeur sera sur-estimée par
rapport à la réalité. Donc 𝛽መ1 sera biaisé. Ainsi, lorsque certaines variables ne sont pas prises en compte
les estimateurs sont biaisés.

Ainsi, plus le nombre de variables explicatives est important, plus les estimateurs auront moins tendance à
être biaisés.

83

Chapitre 2. Le modèle linéaire multiple

3. Interprétation des coefficients dans la régression multiple

Malheureusement, on ne peut pas inclure toutes les variables. Et ce pour deux raisons
- Certaines ne sont pas connues ou ne sont pas mesurables
- La précision des estimations devient faible

Le choix des variables explicative à inclure dans le modèle est le problème majeur qui se pose en pratique.
Ces problèmes sont surmontés grâce à l’expérience et à la connaissance fine du domaine et de la théorie
économique.
Un autre problème se pose lorsqu’on considère un nombre important de variables explicatives. Il y a le
risque que certaines d’entre elles soient corrélées. Dans ce cas il est difficile de déterminer l’effet de
chacune d’entre elles. C’est le problème de la multicollinéarité.
Enfin se pose le problème de la stratégie d’estimation
- Du général vers le particulier
- Du particulier vers le général

84

42
19/02/2022

Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple

Les tests d’hypothèses présentés dans le cas simple restent valables.


On commence par tester les hypothèses
𝐻0 : 𝛽𝑖 = 0 contre 𝐻0 : 𝛽𝑖 ≠ 0

Comme dans le cas simple, la décision est prise en comparant l’écart observé
𝛽መ𝑖
𝑡𝑜𝑏𝑠 =
𝑠. 𝑒. (𝛽መ𝑖 )

À l’écart théorique lu sur la table de Student avec 𝑛−𝑘−1 d.d.l.

Lorsqu’une variable explicative n’est pas significative (c.a.d. pour laquelle H0 est acceptée) on régresse le
modèle à nouveau sans la prendre en considération. Par contre, on garde la constante même si elle n’est
pas significative (Stratégie d’estimation)

85

Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple

Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

86

43
19/02/2022

Chapitre 2. Le modèle linéaire multiple

4. l’inférence statistique dans la régression multiple


Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

Dependent Variable: Y
Method: Least Squares Dependent Variable: Y
Date: 04/15/21 Time: 13:54 Method: Least Squares
Sample: 1 24 Date: 04/15/21 Time: 13:55
Included observations: 24 Sample: 1 24
Included observations: 24
Variable Coefficien... Std. Error t-Statistic Prob.
Variable Coefficien... Std. Error t-Statistic Prob.
C -3.895437 6.810711 -0.571957 0.5734
X2 9.507400 2.427714 3.916195 0.0008 C 2.918405 1.747078 1.670449 0.1090
X3 3.526453 3.407275 1.034977 0.3125 X2 10.19755 2.338113 4.361444 0.0002

R-squared 0.489733 Mean dependent var 10.14167 R-squared 0.463705 Mean dependent var 10.14167
Adjusted R-squared 0.441136 S.D. dependent var 3.639269 Adjusted R-squared 0.439328 S.D. dependent var 3.639269
S.E. of regression 2.720616 Akaike info criterion 4.956062 S.E. of regression 2.725013 Akaike info criterion 4.922479
Sum squared resid 155.4367 Schwarz criterion 5.103319 Sum squared resid 163.3653 Schwarz criterion 5.020650
Log likelihood -56.47274 Hannan-Quinn criter. 4.995129 Log likelihood -57.06975 Hannan-Quinn criter. 4.948524
F-statistic 10.07746 Durbin-Watson stat 1.753960 F-statistic 19.02219 Durbin-Watson stat 1.601258
Prob(F-statistic) 0.000855 Prob(F-statistic) 0.000250

87

Chapitre 2. Le modèle linéaire multiple

5. Qualité globale de la régression


Comme dabs le modèle simple, nous avons

𝑆𝐶𝑇 = 𝑆𝐶𝐸 + 𝑆𝐶𝑅

2
෍(𝑦𝑖 − 𝑦) lj 2 + ෍(𝑦𝑖 − 𝑦ො𝑖 )2
lj = ෍(𝑦ො𝑖 − 𝑦)

Source des variations Somme des carrés Degrés de libertés Carrés moyens
x SCE K–1 SCE / (k -1)
Résidus SCR n–2 SCR / (n – 2)
Total SCT n-1

𝑆𝐶𝐸 𝑆𝐶𝑅
𝑅2 = =1−
𝑆𝐶𝑇 𝑆𝐶𝑇

88

44
19/02/2022

Chapitre 2. Le modèle linéaire multiple

5. Qualité globale de la régression


Dans le modèle linéaire multiple la qualité globale du modèle ne peut pas être évalué à l’aide du R2. Ce
dernier est d’autant plus important que le nombre de variables explicatives est important.
Par ailleurs, il n’est pas possible de comparer les qualités de plusieurs modèles qui n’ont pas le même
nombre de variables explicatives
C’est pourquoi on ajuste le R2 par rapport aux nombre de variables explicatives (nddl).
On définit le R2 ajusté noté ( 𝑅ሜ 2 )

Le R2 ajusté (par le nombre de ddl) est donné par

𝑆𝐶𝑅/(𝑛 − 𝑘 − 1)
𝑅ሜ 2 = 1 −
𝑆𝐶𝑇/(𝑛 − 1)

89

Chapitre 2. Le modèle linéaire multiple

5. Qualité globale de la régression


Reprenons notre exemple
Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

24 − 1
𝑅ሜ 2 = 1 − (1 − 0,506753) = 0,432766
24 − 3 − 1

90

45
19/02/2022

Chapitre 2. Le modèle linéaire multiple

6. Test de significativité globale de la régression


La statistique de Student est utilisée pour tester un seul coefficient à la fois. Si on souhaite tester des
hypothèses relatives à plusieurs variables on utilise la statistique de Fisher

La statistique de Fisher dans le cas multiple est donnée par


𝑆𝐶𝐸/𝑘 𝑅2 /𝑘
𝐹= = 2
𝑆𝐶𝑅/(𝑛 − 𝑘 − 1) (1 − 𝑅 )/(𝑛 − 𝑘 − 1)

Ainsi, on peut tester les hypothèses suivantes :

𝐻0 : 𝛽1 = 𝛽2 =. . . = 𝛽𝑘 = 0

𝐻1 : 𝛽𝑖 ≠ 0

Ce test donne le pouvoir explicatif des toutes les variables prises ensemble.
On peut montrer que F suit une loi de Fisher avec (k) et (n - k - 1) d.d.l

91

Chapitre 2. Le modèle linéaire multiple

6. Test de significativité globale des coefficients


Reprenons notre exemple
Dependent Variable: Y
Method: Least Squares
Date: 04/08/21 Time: 11:27
Sample: 1 24
Included observations: 24

Variable Coefficien... Std. Error t-Statistic Prob.

C -4.985071 6.985763 -0.713604 0.4837


X1 -0.323658 0.389601 -0.830742 0.4159
X2 16.23736 8.462302 1.918787 0.0694
X3 3.894463 3.461161 1.125190 0.2738

R-squared 0.506753 Mean dependent var 10.14167


Adjusted R-squared 0.432766 S.D. dependent var 3.639269
S.E. of regression 2.740913 Akaike info criterion 5.005471
Sum squared resid 150.2520 Schwarz criterion 5.201813
Log likelihood -56.06565 Hannan-Quinn criter. 5.057560
F-statistic 6.849215 Durbin-Watson stat 1.841169
Prob(F-statistic) 0.002341

𝑅2 /𝑘 0,5067/3
𝐹= = = 6,849
(1 − 𝑅2 )/(𝑛 − 𝑘 − 1) (1 − 0,5067)/(24 − 3 − 1)

Prob(𝐹) = 0,00234

92

46
19/02/2022

Application : validation empirique du modèle de Solow ?

Economiste américain
Travaux sur la théorie de la croissance, résidu de Solow
Paradoxe éponyme
Prix Nobel 1987 pour ces travaux.

Robert Solow (1956) « A Contribution to the Theory of Economic Growth », QJE


Robert Solow (1957) « Technical Change and the Aggregate Production Function», RES

93

Présentation du modèle

- Apportent une première explication aux écarts de développement et de taux de croissance entre pays
- Constituent les bases de la théorie de la croissance
- Courant néoclassique
Le modèle de Solow utilise deux équations ; la fonction de production et celle d’accumulation du capital.
L’ économie produit un bien composite en quantité Y à partir de deux facteurs primaires K et L selon une
technologie à rendements constants
Hypothèses :
- Economie fermée et absence de l’Etat I = S
- L’épargne est une fraction fixe s du revenu S = s Y
- Fonction de production néoclassique Y = F (K, L)
* substitution entre capital et travail
* PmF décroissantes (Hypothèse très importante)
* Rendements constants

94

47
19/02/2022

Présentation du modèle
Exemple : Fonction de production Cobb-Douglas

𝑌𝑡 = 𝐹(𝐾𝑡 , 𝐿𝑡 ) = 𝐾𝑡𝛼 𝐿1−𝛼


𝑡 0<𝛼
<1
Que représente L dans cette fonction ?
L est le nombre de travailleurs efficients

𝐿𝑡 = 𝐴𝑡 𝑁𝑡
𝐴𝑡 est l’efficience du travail
La fonction de production s’écrit
𝑌𝑡 = 𝐹(𝐾𝑡 , 𝐿𝑡 ) = 𝐾𝑡𝛼 𝐴1−𝛼
𝑡 𝑁𝑡1−𝛼
L’efficience s’accroit au taux g et la population au taux n

𝐴𝑡 = (1 + 𝑔)𝐴𝑡−1 𝑁𝑡 = (1 + 𝑛)𝑁𝑡−1

Le travail efficace croit alors au taux n + g

𝐿𝑡 = (1 + 𝑛 + 𝑔)𝐿𝑡−1

95

Pour simplifier, nous présentons toutes les variables par rapport au volume de la force de travail efficient

𝑌𝑡 𝐾𝑡
Ainsi, on pose 𝑦𝑡 = et 𝑘𝑡 =
𝐿𝑡 𝐿𝑡

𝑌𝑡
Le revenu par habitant est donné par 𝑦෤𝑡 =
𝑁𝑡

La production (le revenu) par travailleur est donc donnée par

𝑌𝑡
𝑦𝑡 = = 𝐹(𝑘𝑡 , 1) = 𝑓(𝑘𝑡 )
𝐿𝑡

Par la suite nous retenons comme exemple la fonction Cobb-Douglas

𝑌𝑡 = 𝐾𝑡𝛼 𝐿𝑡1−𝛼

𝑦𝑡 = 𝑘𝑡𝛼

96

48
19/02/2022

L ’accumulation du capital physique

La seconde équation de Solow décrit l’accumulation du capital physique


Le point de départ est la demande de biens et services (identité comptable = équilibre sur le marché des biens)

𝑦=𝑐+𝑖

Les individus épargnent une fraction constante s du revenu et consomment la fraction restante (1-s)

𝑐 = (1 − 𝑠)𝑦

𝑦 = (1 − 𝑠)𝑦 + 𝑖

𝑖 𝑖 = 𝑠𝑓(𝑘)
= 𝑠𝑦

L’accumulation du capital est donnée par l’investissement 𝑠𝑓(𝑘)


diminué de l’investissement stabilisateur (consommation du capital)
(𝛿 + 𝑛 + 𝑔)𝑘

Δ𝑘 = 𝑠𝑓(𝑘) − (𝛿 + 𝑛 + 𝑔)𝑘

97

3. Confrontations aux données

Déterminons le revenu de long terme (état stationnaire).

𝑦 = 𝑘𝛼

Δ𝑘 = 𝑠𝑓(𝑘) − (𝑛 + 𝛿 + 𝑔)𝑘
=0

𝑠𝑘 𝛼 − (𝑛 + 𝛿 + 𝑔)𝑘 = 0

𝑠𝑘 𝛼 = (𝑛 + 𝛿 + 𝑔)𝑘 𝑠𝑘 𝛼−1 = (𝑛 + 𝛿 + 𝑔)

1
𝑠 1−𝛼
𝑘𝑒𝑠 =
𝑛+𝛿+𝑔

98

49
19/02/2022

3. Confrontations aux données

Si on remplace dans la fonction de production et on introduit le logarithme des deux côtés nous obtenons

𝛼 𝛼
ln( 𝑦) = ln( 𝐴0 ) + ln( 𝑠) − ln( 𝑛 + 𝛿 + 𝑔)
1−𝛼 1−𝛼

Le 𝐴0 reflète non seulement l’état de la technologie mais aussi les ressources, le climat, les institutions, etc. Donc
il diffère d’un pays à un autre.

On peut écrire
𝐴0 = 𝛽0 + 𝜀

Ainsi le modèle économétrique s’écrit

ln( 𝑦) = 𝛽0 + 𝛽1 ln( 𝑠) + 𝛽2 ln( 𝑛 + 𝛿 + 𝑔) + 𝜀

Ainsi le modèle prédit


- Un effet positif de l’épargne (investissement) sur le revenu par tête
- Un effet négatif du taux de croissance de la population sur le revenu par tête
- Les coefficients des deux variables explicatives sont assez proches

99

3. Confrontations aux données

Nous utilisons les données de MANKIW N.G., D. ROMER et D. WEIL (1992), “A contribution to the
empirics of economic growth”, The Quarterly Journal of economics, vol. 107, no.2, pp. 407-437.

Eviews donne le résultat suivant :

Dependent Variable: GDP


Method: Least Squares
Date: 04/20/21 Time: 15:37
Sample: 1 106
Included observations: 106

Variable Coefficien... Std. Error t-Statistic Prob.

C 5.642796 1.411028 3.999069 0.0001


INV 1.470884 0.169561 8.674645 0.0000
POP -0.793577 0.606490 -1.308474 0.1936

R-squared 0.470702 Mean dependent var 8.123731


Adjusted R-squared 0.460425 S.D. dependent var 1.118648
S.E. of regression 0.821712 Akaike info criterion 2.473040
Sum squared resid 69.54667 Schwarz criterion 2.548420
Log likelihood -128.0711 Hannan-Quinn criter. 2.503592
F-statistic 45.79871 Durbin-Watson stat 1.398609
Prob(F-statistic) 0.000000

Le modèle économétrique confirme une partie des prédictions théoriques


Le modèle explique 47% de la réalité

100

50
19/02/2022

3. Confrontations aux données


MRW(1992) introduisent un troisième facteur : le capital humain
𝛽
𝑌𝑡 = 𝐾𝑡𝛼 𝐻𝑡 (𝐴𝑡 𝐿𝑡 )1−𝛼−𝛽
Le revenu d’équilibre est donné par

ln( 𝑦) = 𝛽0 + 𝛽1 ln( 𝑠𝑘 ) + 𝛽2 ln( 𝑛 + 𝛿 + 𝑔) + 𝛽2 ln( 𝑠ℎ ) + 𝜀


-MRW(1992) prédisent des paramètres 𝛽1 , 𝛽2 , 𝛽3
Dependent Variable: GDP
Method: Least Squares
Date: 04/20/21 Time: 15:36
Sample: 1 106
Included observations: 106

Variable Coefficien... Std. Error t-Statistic Prob.

C 6.938353 1.126200 6.160855 0.0000


INV 0.710886 0.164554 4.320074 0.0000
POP -0.862911 0.479046 -1.801312 0.0746
HC 0.686682 0.086412 7.946622 0.0000

R-squared 0.673093 Mean dependent var 8.123731


Adjusted R-squared 0.663478 S.D. dependent var 1.118648
S.E. of regression 0.648934 Akaike info criterion 2.010034
Sum squared resid 42.95375 Schwarz criterion 2.110541
Log likelihood -102.5318 Hannan-Quinn criter. 2.050770
F-statistic 70.00496 Durbin-Watson stat 1.956580
Prob(F-statistic) 0.000000

- L’explication des différences de développement entre les nations est améliorée


- Les différences d’accumulations du capital humain contribue a expliquer les différences de revenus
- Le modèle explique maintenant 66,3% de la réalité alors que le modèle de Solow n’explique que 46% de la réalité
- Les valeurs de paramètres sont pratiquement identiques comme le prédit la théorie

101

Chapitre 3. Variations autour du modèle


linéaire multiple

102

51
19/02/2022

- Les propriétés des estimateurs dépendent des propriétés de l’erreur


- Jusqu’à présent nous avons supposé que l’erreur satisfait toutes les conditions de Gauss-Markov
- Dans ce chapitre nous allons examiner ce que devient le modèle linéaire si une ou plusieurs conditions ne sont
pas satisfaites.

Pour chacune des conditions nous allons examiner, à chaque fois que c’est possible, les éléments suivants :

- Comment savoir si une des conditions est vérifiée ou non ?


- Les causes de la violation de la condition
- Les conséquences sur les coefficients, les écart-types etc.
- Les solutions

103

3.1. La nullité de la moyenne des erreurs 𝐸(𝜀) = 0

Bien entendu, il n’est pas possible de savoir si 𝐸(𝜀) = 0

C’est pourquoi on examine la validité de cette condition au niveau des résidus.


Nous devons avoir

෍ 𝜀𝑖Ƹ = 0

En réalité à chaque fois que le modèle contient une constante on est sûr que cette condition est vérifiée

104

52
19/02/2022

3.2. La variance est finie et constante

Nous avons supposé que la variance est constante 𝐸(𝜀 2 ) = 𝜎 2 . Dans ce cas on parle d’un modèle
homoscédastique. Dans le cas contraire on parle de modèle hétéroscédastique

Comment détecter l’ hétéroscédasticité ?


1. La méthode graphique. La distribution des résidus doit avoir la forme suivante

. . .. . .
. .
. . . ..
0

Homoscédasticité

105

3.2. La variance est finie et constante

Nous avons supposé que la variance est constante 𝐸(𝜀 2 ) = 𝜎 2 nous avons à faire à un modèle
homoscédastique. Dans le cas contraire nous parlons de modèle hétéroscédastique

Comment détecter l’ hétéroscédasticité ?


1. La méthode graphique. La distribution des résidus doit avoir la forme suivante

. .
.. . .
.. . . .
0

. .
Hétéroscédasticité
106

53
19/02/2022

3.2. La variance est finie et constante

Nous avons supposé que la variance est constante 𝐸(𝜀 2 ) = 𝜎 2 nous avons à faire à un modèle
homoscédastique. Dans le cas contraire nous parlons de modèle hétéroscédastique

Comment détecter l’ hétéroscédasticité ?


1. La méthode graphique. La distribution des résidus doit avoir la forme suivante

. .
.
. . .
0
. .. .
. .
.
hétéroscédasticité
107

3.2. La variance est finie et constante

Si nous reprenons l’exemple du modèle de Solow, la distribution des résidus est donnée par
4

-1

-2

-3
10 20 30 40 50 60 70 80 90 100

GDP Residuals

On peut suspecter au regard de ce graphique la violation de l’hypothèse de l’homoscédasticité

108

54
19/02/2022

3.2. La variance est finie et constante


Comment détecter l’ hétéroscédasticité ?
2. Les tests formels. Il en existe plusieurs. Le plus utilisé et qui est implémenté dans Eviews est le test de White
Il consiste à utiliser une régression auxiliaire.
On rérgesse le carré des résidus sur les variables explicatives, les carrés des variables explicatives et sur les produits
croisés des variables explicatives
Si par exemple notre modèle s’écrit
𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝜀
La régression auxiliaire est donnée par

𝜀Ƹ 2 = 𝛾0 + 𝛾1 𝑥1 + 𝛾2 𝑥2 + 𝛾3 𝑥12 + 𝛾4 𝑥22 + 𝛾5 𝑥1 𝑥2 + 𝜈

Si on note 𝑅𝜀2 le coefficient de détermination de cette régression on peut montrer que sous l’hypothèse nulle
d’homoscédasticité 𝑛𝑅𝜀2 suit approximativement un Chi-deux avec q degrés de libertés (q est le nombre de
variables explicatives dans le nouveau modèle (ici 5).
Bien entendu si 𝑛𝑅𝜀2 < 𝜒𝑞,𝛼
2 on accepte l’hypothèse nulle que le modèle est homoscédastique

109

3.2. La variance est finie et constante


Reprenons l’exemple du modèle de Solow
Dans Eviews il faut aller
view residual diagnistics heteroscedasticity tests white
Eviews rend le résultat suivant
Heteroskedasticity Test: White

F-statistic 16.70157 Prob. F(5,100) 0.0000


Obs*R-squared 48.23680 Prob. Chi-Square(5) 0.0000
Scaled explained SS 82.11785 Prob. Chi-Square(5) 0.0000

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 04/20/21 Time: 15:40
Sample: 1 106
Included observations: 106

Variable Coefficien... Std. Error t-Statistic Prob.


𝑁 × 𝑅2 = 106 × 0,455064 = 48,23680
C 113.7917 26.11136 4.357938 0.0000
INV^2 0.028777 0.362305 0.079427 0.9369
2
INV*POP
INV
2.587884
-5.165361
2.183923
5.213185
1.184970
-0.990826
0.2388
0.3242
𝜒5;0,05 = 11,0705
POP^2 27.17942 4.012494 6.773697 0.0000
POP -111.2389 20.43553 -5.443405 0.0000
𝑃𝑟 = 0,0000
R-squared 0.455064 Mean dependent var 0.656101
Adjusted R-squared 0.427817 S.D. dependent var 1.251820
S.E. of regression 0.946911 Akaike info criterion 2.783716
Sum squared resid 89.66409 Schwarz criterion 2.934477
Log likelihood -141.5369 Hannan-Quinn criter. 2.844820 On rejette l’hypothèse nulle.
F-statistic 16.70157 Durbin-Watson stat 1.900136
Prob(F-statistic) 0.000000 Le modèle est hétéroscédastique
110

55
19/02/2022

3.2. La variance est finie et constante


Conséquences de l’hétéroscédasticité
Si l’hypothèse de l’hétéroscédasticité est vérifiée, les coefficients restent toujours non biaisés mais pas BLUE. Cela
signifie qu’on peut toujours continuer à utiliser les MCO. Cependant les S.E. (écart-types) ne sont pas bons. On
ne peut pas faire de l’inférence statistique.

Solutions
- Si on connait la source de l’hétéroscédasticité (population non homogène, grand pays et petits pays, données non
stationnaires, etc.) on peut résoudre le problème (prendre des variables par tête, travailler avec des données
stationnaires, etc). Utilisation des données en log
- On estime les erreurs standards à la white
- Dans ce cas il faut être prudent pour rejeter l’hypothèse nulle de non significativité des coefficients

Dans Eviews
Estimate equation options white

111

3.2. La variance est finie et constante


Reprenons le modèle de Solow

Dependent Variable: GDP


Method: Least Squares
Dependent Variable: GDP Date: 04/20/21 Time: 15:38
Method: Least Squares Sample: 1 106
Date: 04/20/21 Time: 15:37 Included observations: 106
Sample: 1 106 White heteroskedasticity-consistent standard errors & covariance
Included observations: 106
Variable Coefficien... Std. Error t-Statistic Prob.
Variable Coefficien... Std. Error t-Statistic Prob.
C 5.642796 2.032262 2.776609 0.0065
C 5.642796 1.411028 3.999069 0.0001 INV 1.470884 0.133734 10.99859 0.0000
INV 1.470884 0.169561 8.674645 0.0000 POP -0.793577 0.982294 -0.807881 0.4210
POP -0.793577 0.606490 -1.308474 0.1936
R-squared 0.470702 Mean dependent var 8.123731
R-squared 0.470702 Mean dependent var 8.123731 Adjusted R-squared 0.460425 S.D. dependent var 1.118648
Adjusted R-squared 0.460425 S.D. dependent var 1.118648 S.E. of regression 0.821712 Akaike info criterion 2.473040
S.E. of regression 0.821712 Akaike info criterion 2.473040 Sum squared resid 69.54667 Schwarz criterion 2.548420
Sum squared resid 69.54667 Schwarz criterion 2.548420 Log likelihood -128.0711 Hannan-Quinn criter. 2.503592
Log likelihood -128.0711 Hannan-Quinn criter. 2.503592 F-statistic 45.79871 Durbin-Watson stat 1.398609
F-statistic 45.79871 Durbin-Watson stat 1.398609 Prob(F-statistic) 0.000000 Wald F-statistic 66.86426
Prob(F-statistic) 0.000000 Prob(Wald F-statistic... 0.000000

112

56
19/02/2022

3.2. Condition 3. Absence d’autocorrélation


Les erreurs ne doivent pas être corrélées entre elles cov( 𝜀𝑖 , 𝜀𝑗 ) = 0 ∀𝑖 ≠ 𝑗

On examine les résidus


𝜀
𝜀

0 0

𝜀
Autocorrélation positive Autocorrélation négative

0 Absence d’autocorrélation

113

3.2. Condition 3. Absence d’autocorrélation


Détection de l’autocorrélation
- Examen du graphique des résidus
- Tests formels : test du Durbin Watson (DW), test de Durbin, test LM

Le test de Durbin Watson permet de détecter les autocorrélations d’ordre 1.


Supposons que le vrai modèle est donné par
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜀𝑡 (1)

Et que 𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝜐𝑡 (2)

L’équation (2) décrit un modèle auto-régressif d’ordre 1 noté AR(1)


Un modèle AR(p) est donné par

𝜀𝑡 = 𝜌1 𝜀𝑡−1 + 𝜌2 𝜀𝑡−2 +. . . +𝜌𝑝 𝜀𝑡−𝑝 + 𝜐𝑡

114

57
19/02/2022

3.2. Condition 3. Absence d’autocorrélation


Détection de l’autocorrélation
-Il existe un autre type d’autocorrélation appelée moyenne mobile MA. Elle peut être d’ordre q et notée MA(q).
-Si nous avons par exemple MA(3), elle s’écrit

𝜀𝑡 = 𝜆0 𝜇𝑡 + 𝜆1 𝜇𝑡−1 + 𝜆 2𝜇𝑡−2 + 𝜆 3𝜇𝑡−3

-Bien entendu, il est possible d’avoir les deux types d’autocorrélations en même temps ARMA(p , q)
-Supposons que notre autocorrélation est de type AR(1)

𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝜐𝑡

- Si 𝜌 > 0 on a une autocorrélation positive


- Si 𝜌 < 0 on a une autocorrélation négative
- Si 𝜌 = 0 on n’a pas d’autocorrélation

115

3.2. Condition 3. Absence d’autocorrélation


Le test de Durbin Watson consiste à tester

𝐻 : 𝜌=0
ቐ 0
𝐻1 : 𝜌≠0
La statistique de DW est donnée par

σ(𝜀𝑡Ƹ − 𝜀𝑡−1Ƹ )2
𝐷𝑊 = 2
σ 𝜀𝑡Ƹ
Si n est très grand alors
𝐷𝑊 → 2 − 2𝜌
-Si pas d’autocorrélation 𝜌 = 0 ⇒ 𝐷𝑊 = 2
-Si autocorrélation positive 𝜌 → 1 ⇒ 𝐷𝑊 → 0
- Si autocorrélation négative 𝜌 → −1 ⇒ 𝐷𝑊 → 4

Ainsi 0 2 4

Auto. + Pas d’auto. Auto. -

116

58
19/02/2022

3.2. Condition 3. Absence d’autocorrélation


Pour décider de manière formelle, on compare la statistique de Durbin Watson à in intervalle [𝑑, 𝑑] qui dépend
des paramètres 𝛼, 𝑘, 𝑛 dont les valeurs sont lues sur une table de Durbin-Watson

Exemple (modèle de Solow). 𝑇 = 106 𝑘=2 𝛼 = 0,05

La table de Durbin watson rend l’intervalle [1,63; 1,72]

1,63 1,72 2,28 2,37


Ainsi
0 2 4

Autocorrélation
Absence négative
Autocorrélation d’autocorrélation
positive

117

3.2. Condition 3. Absence d’autocorrélation


Reprenons notre exemple relatif au modèle de Solow

Dependent Variable: GDP


Method: Least Squares
Date: 04/20/21 Time: 15:37
Sample: 1 106
Included observations: 106

Variable Coefficien... Std. Error t-Statistic Prob.

C 5.642796 1.411028 3.999069 0.0001


INV 1.470884 0.169561 8.674645 0.0000
POP -0.793577 0.606490 -1.308474 0.1936

R-squared 0.470702 Mean dependent var 8.123731


Adjusted R-squared 0.460425 S.D. dependent var 1.118648
S.E. of regression 0.821712 Akaike info criterion 2.473040
Sum squared resid 69.54667 Schwarz criterion 2.548420
Log likelihood -128.0711 Hannan-Quinn criter. 2.503592
F-statistic 45.79871 Durbin-Watson stat 1.398609
Prob(F-statistic) 0.000000

-La statistique du DW est donnée par 1,398


-Pour qu’il y ait absence d’autocorrélation la statistique de DW doit être comprise entre 1,72 et 2,28
- Le DW appartient à l’intervalle [0 ; 1,63] : il y a autocorrélation positive
118

59
19/02/2022

3.2. Condition 3. Absence d’autocorrélation


Conséquences de l’autocorrélation
Comme pour l’hétéroscédasticité, les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de
faire de l’inférence statistique.

Elimination de l’autocorrélation
Supposons que le vrai modèle est
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜀𝑡 (1)
Et
𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝜐𝑡 𝜐𝑡 → 𝑁(0, 𝜎 2 )

119

3.2. Condition 3. Absence d’autocorrélation


Conséquences de l’autocorrélation
Comme pour l’hétéroscédasticité, les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de
faire de l’inférence statistique.

Elimination de l’autocorrélation
Supposons que le vrai modèle est
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜀𝑡 (1)
Et
𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝜐𝑡 𝜐𝑡 → 𝑁(0, 𝜎 2 )

Si le modèle est vrai pour t, il l’est aussi pour t -1

𝑦𝑡−1 = 𝛽0 + 𝛽1 𝑥𝑡−1 + 𝜀𝑡−1

120

60
19/02/2022

3.2. Condition 3. Absence d’autocorrélation


Conséquences de l’autocorrélation
Comme pour l’hétéroscédasticité, les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de
faire de l’inférence statistique.

Elimination de l’autocorrélation
Supposons que le vrai modèle est
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜀𝑡 (1)
Et
𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝜐𝑡 𝜐𝑡 → 𝑁(0, 𝜎 2 )

Si le modèle est vrai pour t, il l’est aussi pour t -1


𝑦𝑡−1 = 𝛽0 + 𝛽1 𝑥𝑡−1 + 𝜀𝑡−1

𝜌𝑦𝑡−1 = 𝜌𝛽0 + 𝜌𝛽1 𝑥𝑡−1 + 𝜌𝜀𝑡−1 (2)

121

3.2. Condition 3. Absence d’autocorrélation


Conséquences de l’autocorrélation
Comme pour l’hétéroscédasticité, les coefficients restent non biaisés mais sont inefficients. Il n’est pas possible de
faire de l’inférence statistique.

Elimination de l’autocorrélation
Supposons que le vrai modèle est
𝑦𝑡 = 𝛽0 + 𝛽1 𝑥𝑡 + 𝜀𝑡 (1)
Et
𝜀𝑡 = 𝜌𝜀𝑡−1 + 𝜐𝑡 𝜐𝑡 → 𝑁(0, 𝜎 2 )

𝑦𝑡−1 = 𝛽0 + 𝛽1 𝑥𝑡−1 + 𝜀𝑡−1

𝜌𝑦𝑡−1 = 𝜌𝛽0 + 𝜌𝛽1 𝑥𝑡−1 + 𝜌𝜀𝑡−1 (2)


(1)-(2)
𝑦𝑡 − 𝜌𝑦𝑡−1 = 𝛽0 (1 − 𝜌) + 𝛽𝑥𝑡 − 𝜌𝛽1 𝑥𝑡−1 + 𝜀𝑡 − 𝜌𝜀𝑡−1

122

61
19/02/2022

3.2. Condition 3. Absence d’autocorrélation

𝑦𝑡 − 𝜌𝑦𝑡−1 = 𝛽0 (1 − 𝜌) + 𝛽𝑥𝑡 − 𝜌𝛽1 𝑥𝑡−1 + 𝜀𝑡 − 𝜌𝜀𝑡−1

𝑦𝑡 − 𝜌𝑦𝑡−1 = 𝛽0 (1 − 𝜌) + 𝛽𝑥𝑡 − 𝜌𝛽1 𝑥𝑡−1 + 𝜐𝑡

Comme on peut le voir, l’autocorrélation d’ordre 1 disparait


Dans Eviews on introduit AR(1) parmi les variables explicatives
Dependent Variable: GDP
Dependent Variable: GDP Method: ARMA Maximum Likelihood (OPG - BHHH)
Method: Least Squares Date: 04/20/21 Time: 17:20
Date: 04/20/21 Time: 15:37 Sample: 1 106
Sample: 1 106 Included observations: 106
Included observations: 106 Convergence achieved after 22 iterations
Coefficient covariance computed using outer product of gradients
Variable Coefficien... Std. Error t-Statistic Prob.
Variable Coefficien... Std. Error t-Statistic Prob.
C 5.642796 1.411028 3.999069 0.0001
INV 1.470884 0.169561 8.674645 0.0000 C 4.859152 1.230492 3.948951 0.0001
POP -0.793577 0.606490 -1.308474 0.1936 INV 1.145075 0.194530 5.886368 0.0000
POP 0.054681 0.454694 0.120260 0.9045
AR(1) 0.437891 0.095963 4.563139 0.0000
R-squared 0.470702 Mean dependent var 8.123731 SIGMASQ 0.568806 0.084472 6.733693 0.0000
Adjusted R-squared 0.460425 S.D. dependent var 1.118648
S.E. of regression 0.821712 Akaike info criterion 2.473040 R-squared 0.541126 Mean dependent var 8.123731
Sum squared resid 69.54667 Schwarz criterion 2.548420 Adjusted R-squared 0.522952 S.D. dependent var 1.118648
Log likelihood -128.0711 Hannan-Quinn criter. 2.503592 S.E. of regression 0.772635 Akaike info criterion 2.370009
F-statistic 45.79871 Durbin-Watson stat 1.398609 Sum squared resid 60.29343 Schwarz criterion 2.495643
Prob(F-statistic) 0.000000 Log likelihood -120.6105 Hannan-Quinn criter. 2.420929
F-statistic 29.77595 Durbin-Watson stat 2.171192

123

3.2. Normalité des erreurs


Afin de réaliser l’inférence statistiques nous avons supposé que les erreurs sont normales. Nous devons tester cette
hypothèse en testant la normalité des erreurs.
Il existe plusieurs tests pour vérifier si les erreurs sont un bruit blanc gaussien. Le plus connu et le plus utilisé
(implémenté dans Eviews) est le test de Jarque-Berra. Il est basé sur les moments d’ordre 3 (asymétrie ou Skewness)
et 4 (aplatissement ou Kurtosis).

3
1 𝜀𝑖Ƹ − 𝜀Ƹ
Le Skewness est donné par 𝑆= ෍
𝑇 𝜎
4
Le Kurtosis est donné par 1 𝜀𝑖Ƹ − 𝜀Ƹ
𝐾= ෍
𝑇 𝜎

Dans le cas de la loi normale nous avons 𝑆=0 et 𝐾=3


Le test de Jarque-Bera regroupe ces deux tests en un seul. La statistique de Jarque-Bera est donné par

𝑇−𝑘 2 1
𝐾= 𝑆 + (𝐾 − 3)2
6 4

124

62
19/02/2022

3.2. Normalité des erreurs

𝑇−𝑘 2 1
𝐽𝐵 = 𝑆 + (𝐾 − 3)2
6 4

On peut montrer que, sous l’hypothèse nulle (les erreurs suivant une loi normale), cette quantité suit une loi de Khi-
deux avec 2 d.d.l.
Ainsi si 𝐽𝐵 on ne peut rejeter l’hypothèse nulle et les erreurs suivent une loi normale.
< 𝜒2𝛼

Sur Eviews :
View Residual diagnostics Histogram-Normality test

Eviews donne la statistique de JB et la probabilité d’acceptation de l’hypothèse nulle.


Bien entendu si Pr > 0,05 on accepte H0 et les erreurs sont considérées normales au seuil 5%

125

3.3. Normalité des erreurs


Dans notre exemple relatif au modèle de Solow, Eviews rend le résultat suivant

20
Series: Residuals
Sample 1 106
16 Observations 106

Mean -2.79e-16
12 Median -0.035471
Maximum 3.156154
Minimum -2.002630
8 Std. Dev. 0.813848
Skewness 0.376422
Kurtosis 4.606005
4
Jarque-Bera 13.89495
Probability 0.000961
0
-2 -1 0 1 2 3

Comme la probabilité est inférieur à 0,05, on rejette H0 : les erreurs ne sont pas normales

126

63
19/02/2022

3.4. Les autres quesitons


Test de spécification fonctionnelle
Jusqu’à présent nous avons supposé que le modèle est linéaire. Ce qui n’est pas forcément le cas.
On peut tester formellement l’hypothèse que la forme est linéaire en utilisant le test RESET (Regression
Specification Error Test).
On teste H0 : Forme fonctionnelle correcte
H1: Erreur de spécification
Le test fonctionne de la manière suivante :
On construit une régression auxiliaire

𝑝
𝜀𝑡 = 𝛽0 + 𝛽1 𝑥1 +. . . +𝛽2 𝑥𝑘 + 𝛾1 𝑦ො𝑡2 +. . . +𝛾𝑝−1 𝑦ො𝑡 + 𝜐𝑡

Le test revient à tester l’hypothèse nulle 𝐻0 : 𝛾𝑖 = 0 ∀𝑖

La statistique associée à ce test est la statistique F de Fisher


Si H0 est acceptée alors le modèle ne souffre pas de mauvaise spécification

127

3.4. Les autres quesitons


Test de spécification fonctionnelle
Sur Eviews
-Estimer le modèle sous forme de liste de variables explicatives
View Stability test Ramsey RESET test Choix de P

En reprenant le modèle relatif au modèle de Solow et pour p =1, on obtient On accepte H0. Le
Ramsey RESET Test Unrestricted Test Equation:
modèle est bien
Equation: EQ01 Dependent Variable: GDP linéaire
Specification: GDP C INV POP Method: Least Squares
Omitted Variables: Squares of fitted values Date: 04/21/21 Time: 12:07
Sample: 1 106
Value df Probability Included observations: 106
t-statistic 1.431484 102 0.1553
F-statistic 2.049146 (1, 102) 0.1553 Variable Coefficie... Std. Error t-Statistic Prob.
Likelihood ratio 2.108397 1 0.1465
C -0.03257... 4.205901 -0.007746 0.9938
F-test summary: INV -2.75686... 2.958218 -0.931935 0.3536
Sum of S... df Mean Squares POP 1.836818 1.934073 0.949715 0.3445
Test SSR 1.369654 1 1.369654 FITTED^2 0.181975 0.127124 1.431484 0.1553
Restricted SSR 69.54667 103 0.675210
Unrestricted SSR 68.17702 102 0.668402 R-squared 0.481126 Mean dependent var 8.123731
Adjusted R-squared 0.465865 S.D. dependent var 1.118648
LR test summary: S.E. of regression 0.817559 Akaike info criterion 2.472017
Value df Sum squared resid 68.17702 Schwarz criterion 2.572524
Restricted LogL -128.071... 103 Log likelihood -127.016... Hannan-Quinn criter. 2.512753
Unrestricted LogL -127.016... 102 F-statistic 31.52652 Durbin-Watson stat 1.385906
Prob(F-statistic) 0.000000

128

64
19/02/2022

3.4. Les autres quesitons


Le problème de la multicollinéarité
- On parle de multicollinéarité lorsque certaines variables explicatives sont liées entre elles de manière linéaire
-Le problème survient essentiellement dans le cas des séries temporelles et lorsque les variables présentent des
tendances fortes
- Lorsqu’il y a multicollinéarité le R2 est très élevé mais les SE sont très élevés, il s’en suit des intervalles de
confiances assez larges donc absence de précisions au niveau des tests
- Il existe plusieurs tests pour tester la multicollinéarité
- Nous en présentons deux
-Test de Klein
- Test de Farrar-Glauber

129

3.4. Les autres questions


Le problème de la multicollinéarité
Test de Klein : il consiste à examiner la matrice des corrélations simple
Si les coefficients de corrélations simples élevés au carré sont tous inférieurs à R2 alors il n’y a pas de risque de
multicollinéarité.
Dans notre exemple relatif au modèle de Solow, la matrice des corrélations simple est donnée par
INV POP GDP
INV 1 -0,29457977 0,67963517
POP -0,29457977 1 -0,28984326
GDP 0,67963517 -0,28984326 1

La matrices des coefficients de corrélation au carré est donnée par

INV POP GDP


INV 1 0,08677724 0,46190396
POP 0,08677724 1 0,08400912
GDP 0,46190396 0,08400912 1

On voit qu’un des coefficients de corrélations simples élevés au carré est proche du R 2 =0,46, alors il y a risque de
multicollinéarité.
130

65
19/02/2022

3.4. Les autres quesitons


Le problème de la multicollinéarité
Test de Farrar—Glauber :Il teste que le déterminant D de la matrice de corrélation est égal à 1.

Ainsi on teste
H0 : Les variables explicatives sont des variables aléatoires non-corrélées
H1 : Les variables explicatives sont des variables aléatoires corrélées.
Le test est basé sur le fait que sous H0 et avec une hypothèse de normalité, la statistique (sur 10 observations)

2
1
𝜒𝑜𝑏𝑠 = − 𝑛 − 1 − [2(𝑘 + 1) + 5] log( 𝐷)
6
Suit une loi de Khi-deux à (𝑘 + 1)𝑘/2 d.d.l.

Bien entendu si 2
𝜒𝑜𝑏𝑠 << 𝜒𝛼2 il n’y a pas de problème de multicollinéarité

131

3.4. Les autres quesitons


Le problème de la multicollinéarité
Dans notre exemple, le déterminant de la matrice des coefficients de corrélation est donné par 0,483
Ainsi

2
1
𝜒𝑜𝑏𝑠 = − 10 − 1 − [2(3 + 1) + 5] log( 0,483) = 2,15
6
2
A comparer avec 𝜒0,05;6 = 12,59

2
Comme 𝜒𝑜𝑏𝑠 << 𝜒𝛼2 on ne rejette pas H0. Il n’ ya pas de problème de multicollinéarité

132

66

Vous aimerez peut-être aussi