Refsi, Malika
Refsi, Malika
Refsi, Malika
MEMOIRE DE MASTER
en
Mathématiques appliquées
Option Processus aléatoires et statistique de la décision
THEME
Présenté par
Sous la direction de
M elle Atil Lynda
Soutenu le : 29/10/2014
Remerciements
Nous remercions ”Dieu” le tout puissant d’avoir guidé nos pas
vers les portes du savoir, et nous avoir donné suffisamment de
santé et de courage pour mener nos travail à terme.
A tous ceux qui m’ont aidé, conseillé, et à tous ceux que j’aime
et que je porte dans mon cœur.
Malika
Table des matières
Introduction générale 2
1
2
3 Tests de cointégration. 43
3.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2 Tests de Racine Unitaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.2.1 Un modèle général pour les tests. . . . . . . . . . . . . . . . . . . . 45
3.2.2 Tests de Dickey-Fuller DF . . . . . . . . . . . . . . . . . . . . . . . 46
3.2.3 Test de Dickey-Fuller augmenté ADF . . . . . . . . . . . . . . . . . 47
3.2.4 Test de Phillips – Perron PP. . . . . . . . . . . . . . . . . . . . . . 48
3.3 L’approche de Engle et Granger (1987). . . . . . . . . . . . . . . . . . . . . 50
3.3.1 Estimation des modèles à correction d’erreur :Méthode d’estimation
en deux étapes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2 Tests univariés de cointégration (de Engle et Granger). . . . . . . . 51
3.4 Approche multivariée de la cointégration : l’analyse de Johansen. . . . . . . 52
3.4.1 Test du nombre de relations de cointégration. . . . . . . . . . . . . 54
3.5 Quelques commentaires à propos de la puissance des tests de cointégration . 55
3.6 Exemple d’application sous R . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.6.1 Méthode de Engle et Granger (1987) sous R . . . . . . . . . . . . . 59
3.6.2 Méthode de Johansen (1988) sous R : . . . . . . . . . . . . . . . . . 62
3.7 Exemple du marché du merlu en Bretagne . . . . . . . . . . . . . . . . . . 63
3.7.1 Le choix du marché . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.7.2 le choix de l’échantillon et des données . . . . . . . . . . . . . . . . 63
3.7.3 La méthode économétrique de cointégration . . . . . . . . . . . . . 64
3.7.4 Application de la méthode . . . . . . . . . . . . . . . . . . . . . . . 64
Introduction générale
Les études qui ont suivi les travaux de Nelson et Plosser ont analysé ces
problèmes dans les modèles à une ou plusieurs variables .Une partie de cette
littérature, se concentrant sur les propriétés des séries à une variable, a ana-
lysé la question de persistence des fluctuations macroéconomiques. Pour les
modèles à plusieurs variables, les développements théoriques se sont axés sur
la question de cointégration qui permet à certaines combinaisons linéaires
d’un ensemble de séries, possédant chacune une racine unitaire, d’être à leur
tour stationnaires.
3
4
1.1 Introduction.
Dans ce chapitre nous allons faire un rappel des séries chronologiques et ses concepts
fondamentaux, nous allons commencer par une définition génerale de ces séries chronolo-
giques suivit de ses diverses représentations graphiques et de ses composantes que nous
allons accompagner de simples exemples, comme nous allons rappeler de ses opérateurs,
les estimateurs empiriques et le modèle ARIM A .Pour pouvoir en seconde étape de ce
chapitre d’aborder la notion de stationnarité dans le cadre univarié et multivarié finissons
par la modélisation V AR en diffrences .
1.2 Définition.
Définition 1.2.1. De manière générale, les séries chronologiques modélise un phénomène
qui dépend du temps on les appelle aussi : Séries Temporelles, Chroniques ,(Time Series
en anglais).
En clair, une série chronologique est une suite finie (x1 ,. . ., xn ) de données indexées par le
temps. L’indice temps peut être selon les cas la minute, l’heure, le jour, l’année etc.... Le
nombre n est appelé la longueur de la série .Et lorsqu’on dispose de plusieurs séries (par
exemple la série des consommations mensuelles et celle des prix mensuels) on parle de
série chronologique multidimensionnelle .L’étude des séries temporelles à pour but de :
• Comprendre le passé : expliquer les variations observées
• Prédire les valeurs futures (proches)
• Etudier le lien avec d’autres séries.
Et les domaines d’applications des séries chronologiques sont très variés citons par
exemple :
• Finance et économétrie : évolution des indices boursiers, des prix, des données
économiques des entreprises, des ventes et achats de biens, des productions
agricoles ou industrielles .
5
Les séries chronologiques 6
Remarque 1.2.1. Les valeurs mesurées des série chronologiques peuvent être de deux
types :
• Niveau : On mesure une grandeur à un instant donné (exemple : nombre mensuel de
ventes d’un produit) ;
• Flux : On mesure la variation d’une grandeur durant une période (par exemple,
variations mensuelles du nombre de demandeurs d’emploi).
Fig. 1.1: Population française (haut), population des Etats-Unis (bas) en millions d’habi-
tants.
Remarque 1.3.1. Les démographes peuvent être intéressés par la prévision de la
population à 10 ans, à 20 ans. Remarquons que la population française varie de 35.4
à 41.7 sur 110 ans, tandis que celle des Etats-Unis varie de 3.93 à 203.00 sur 180 ans.
xt = at + b + εt t = 1, 2, · · · où Tt = at + b (1.1)
xt = a1 tp + a2 tp−1 + · · · + ap+1 + εt t = 1, 2, · · ·
xt = Tt εt t = 1, 2, · · · (1.3)
où Tt prend l’une des formes (linéaire, polynômiale etc · · · ). C’est alors le loga-
rithme des données (si elles sont positives !) qui présente une tendance additive.
∇2 Xt = (1 − B)2 Xt = (1 − 2B + B 2 )Xt
permet d’éliminer une tendance quadratique. Le nombre de fois où on applique
∇ est appelé ordre de differenciation.
2- L’opérateur ∇s .
1. permet d’éliminer la saisonnalité de période s .
2. On peut également l’appliquer plusieurs fois.
2 Indices de dispersion.
Les plus courants sont la variance empirique (ou plus exactement l’écart type
empirique qui en est la racine carrée) et l’étendue (différence entre la plus grande
valeur et la plus petite). Elles indiquent la dispersion des observations autour
de leur indice de tendance centrale ,définit par :
n
1X
σ̂n (0) = (xj − xn )2 (1.15)
n j=1
3 Indices de dépendance.
Les séries chronologiques 14
σ̂n (j)
ρbn (j) = , j = 0, · · · , h. (1.19)
σ̂n (0)
Pour |α| < 1 ce polynôme possède un inverse, c’est à dire que l’on peut définir :
∞
−1 1 X
A (B) = = αi B i (1.21)
1 − αB i=0
A(B) = 1 − α1 B − α2 B 2 − · · · − αp B p (1.22)
A(z) = 1 − α1 z − α2 z 2 − · · · − αp z p (1.23)
On a le théorème suivant :
Théorème 1.7.1. Le polynôme A(B) est inversible si les p racines lj de son équation
caractéristique associée sont toutes extérieures au cercle unité. Son inverse est donné par :
P X ∞
−1
Y 1
A (B) = [ ( )k B k ] (1.24)
j=1 k=0
j
Preuve 1.7.1. Factoriser le polynôme A(z) en utilisant les p racines de l’équation ca-
ractéristique :
YP
A(z) = (z − lj )αr (1.25)
j=1
On peut remarquer que le produit des racines est égal à 1/αr car :
P
Y
A(0) = 1 = (−lj )αr (1.26)
j=1
On peut alors ramener le calcul de l’inverse de A(z) au calcul simple suivant que l’on sait
effectuer :
P
−1
Y z
A (z) = (1 − )−1 (1.29)
j=1
lj
car : ∞
z X 1
(1 − )−1 = ( )k B k (1.30)
lj k=0
j
Cet inverse existe si les racines lj de l’équation caractéristique sont toutes en dehors du
cercle unité.
Définition 1.7.1. Alors si on veut définir les racines unitaires, elles représentent les lj à
l’intérieures du cercle unité.
i.e : |lj | < 1
Remarque 1.7.1. Dans le cadre multivarié ,on ne parle pas de l’inverse d’un polynôme
mais de l’inverse d’une matrice .
b2 B 2 + b1 B + b0 |−B+1
−(b2 B 2 + b2 B) − b2 B − (b1 + b2 )
0 + (b1 + b2 )B + b0
−((b1 + b2 )B − (b1 + b2 ))
(1.31)
0+ b0 + b1 + b2
Cet exemple permet de montrer que :
θ2 B + θ1 B + θ0 = − θ2 B − (θ1 + θ2 ) 1 − B + Θ(1) (1.32)
Si q est le degré du polynôme Θ(B), le polynôme Θ∗ (B) sera de degré q − 1 sans terme
constant avec :
Θ∗ (B) = θ1∗ B + θ2∗ B 2 + · · · + θq−1
∗
B q−1
Les séries chronologiques 17
A(B) = 1 − a1 B − a2 B 2 − · · · − ap B p (1.35)
On peut montrer par une technique similaire de division de polynôme les relations sui-
vantes :
A(B) = A(1) + (1 − B)[1 − A(1) − A∗ (B)] (1.36)
où les coefficients du polynôme A∗ (B) sont définis par :
p−1
X
a∗j = −( ai+1 ) j = 1, · · · , p − 1 (1.37)
i=j
et :
A(B) = (1 − [1 − A(1)]B) − (1 − B)A∗ (B) (1.39)
que l’on réécrira parfois comme :
Cette écriture sera utilisée dans les chapitres qui suivront notamment sur les tests de
racine unitaire en posant ρ = 1 − A(1). Cette dernière écriture permet de montrer que
si un polynôme de retards comporte une racine unitaire (1 − B), alors la somme de ses
coefficients est égale à zéro. Il suffit pour cela d’y poser B = 1.
Remarque 1.7.2. On peut effectuer le même type de factorisation dans le cas des po-
lynômes matriciels
Remarque 1.8.3. De façon générale voici quelques propriétés des séries intégrées
? ∀t ∈ Z, E(Xt ) = µ indépendant de t.
Ce type de stationnarité est aussi une propriété d’invariance des deux premiers moments
par translation dans le temps. Mais on ne dit rien sur les moments d’ordre supérieur, ce
qui fait que cette définition, très commode par ailleurs, est sans doute trop floue.
Au lieu de considérer simplement les deux premiers moments d’un processus, on peut
décider de s’intéresser à la distribution complète des observations. On peut alors accéder
à une définition plus stricte de la stationnarité.
Définition 1.9.3. La notion de stationnarité peut se définir de façon forte par une stabilité
en loi du processus : quelque soit n, t1 , · · · , tn et h, on a l’égalité entre les lois jointes
Dans ce cas , c’est la distribution jointe qui est invariante par translation. Cette propriété
est plus forte que la précédente car un processus stationnaire au second ordre peut posséder
des moments d’ordre supérieur qui ne sont pas invariants par translation.
Remarque 1.9.1. • Cette propriété est la plus demandée mais elle aussi la plus difficile
à obtenir en pratique
• On peut l’obtenir dans le cas gaussien avec des conditions précises
tel que εt est un bruit blanc centré de variance σ 2 et q est l’ordre de la moyenne
mobile.
Un processus moyenne mobile est évidemment stationnaire, et on a :
Xt = αXt−1 + εt (1.49)
1 Les processus T S.
Définition 1.9.4. (Xt ) est un processus non-stationnaire T S s’il peut s’écrire sous
la forme
Xt = f (t) + Zt (1.51)
où f (t) est une fonction (déterministe) du temps, et (Zt ) est un processus stationnaire.
Les séries chronologiques 22
Xt = a0 + a1 t + εt
avec (a0 , a1 ) ∈ R2 , et εt ∼ N (0, σε2 ) est i.i.d.. Dans ce cas, on vérifie que le proces-
sus Xt est non stationnaire puisque l’espérance, E(Xt ) = a0 + a1 t, dépend de t. En
revanche, le processus Yt défini par l’écart entre Xt et la composante déterministe
f (t) = a0 + a1 t, est quand à lui stationnaire : Yt = Xt − a0 − a1 t = εt et est un bruit
blanc, par définition stationnaire.
Une des propriétés importantes de ce type de processus réside dans l’influence des
innovations stochastiques εt . En effet, nous allons montrer que lorsque un processus
T S est affecté par un choc stochastique, l’effet de ce choc tend à disparaı̂tre au fur
et à mesure que le temps passe : c’est la propriété de non persistance des chocs. De
façon plus formelle, cette propriété est la suivante :
Proposition 1.9.1. L’influence d’un choc εt à une date T sur un processus Xt défini
par :
Xt = f (t) + Zt (1.52)
avec Zt stationnaire et E(Zt ) = 0, est transitoire. La tendance du modèle étant
déterministe, après le choc εT , la séquence des xt converge ainsi vers sa valeur
de long terme définie par f (t) . Il n’y a pas de persistance des chocs.
(Voir Hurlin. C )
2 Les processus DS.
En effet, on pose Φ(B)Xt = εt avec Φ(B) = (1 − B)b Φ(B). e Si l’on admet que
les racines du polynôme Φ(B) sont inférieures à l’unité en module, ce polynôme est
e
inversible. On peut alors écrire la différence déme de Xt sous la forme d’une somme
de valeurs retardées de εt , :
(1 − B)b Φ(B)X
e t = εt ⇔ (1 − B)b Xt = Ψ(B)εt (1.54)
Remarque 1.9.2. Dans la classe générale des processus DS, un type de processus
apparaı̂t de façon régulière, si bien que l’on lui a attribué un nom particulier : la
marche aléatoire.
Remarque 1.9.3. On note que la notion d’un processus I(0) est plus forte que la
notion de stationnarité puisqu’elle implique l’existence d’une représentation ARM A
inversible.
Les séries chronologiques 24
n
X
⇔ Xt0 Xt = kXt k22 = 2
Xi,t ∈ L1R (Ω, A, P)
i=1
Les séries chronologiques 25
E[εt ] = 0
(
Σ, h = 0
Γ(h) = E[εt ε0t+h ] = , ∀t ∈ Z
0, h 6= 0
Γ(h) = E[(Xt − µ)(Xt−h − µ)0 ] = Cov(Xt , Xt−h ) = (Cov(Xi,t , Xj,t−h ))1≤i,j≤n , ∀h (1.58)
Fonction d’autocorrélation.
Définition 1.10.6. La fonction d’autocorrélation de retard h, h ∈ Z, d’un processus
multivarié du second ordre, de moyenne E(Xt ) = µ et de matrice de covariance Γ(h), notée
R(h) = (ρi,j (h))1≤i,j≤n , ∀h est définie par :
γi,j (h)
ρi,j (h) = p (1.60)
γi,i (0)γj,j (0)
où Φ1 , · · · , Φp ,Ψ1 , · · · , Ψq sont des matrices réelles de dimension n×n et εt ∼ BB(0, Σ).(BB
veut dire bruit blanc)
L’équation (1.62) peut être réécrite sous la forme suivante :
q
X
Ψ(L) = In + Ψi B i
i=1
sont des opérateurs matriciels de dimension n × n, qui sont respectivement les opérateurs
autorégressifs et moyenne mobile multivariés tels que Φp 6= 0 et Ψq 6= 0 , et εt est un bruit
blanc tel que sa matrice de covariance est Σ.
Théorème 1.10.1. (Brockwell et Davis, 1991). Soit {Xt , t ∈ Z} un processus V ARM A(p, q)
pour lequel les polynômes matriciels Φ(.) et Ψ(.), d’ordre respectifs p et q, n’ont pas des
racines communes.
Alors, le processus {Xt , t ∈ Z} est causal si et seulement si le polynôme matriciel Φ(z)
issu de la partie autorégressive a toutes ses racines qui sont strictement supérieures à 1 en
valeur absolue. Autrement dit, il y a causalité du processus {Xt , t ∈ Z} si et seulemenet si
De plus on a :
∞
X ∞
X
Xt = Ψj εt−j , t ∈ Z, avec Ψj εt−j < ∞ (1.65)
j=0 j=0
Les séries chronologiques 28
De plus, un processus V ARM A(p, q) pouvant s’exprimer comme une combinaison linéaire
infinie de valeurs passées de Xt fait intervenir le concept d’inversibilité. Le théorème sui-
vant traite de l’inversibilité.
Théorème 1.10.2. (Brockwell et Davis, 1991). Le processus V ARM A(p, q) représenté
par l’équation précédente est inversible si :
In − Φ1 B − Φ2 B 2 − · · · − Φp B P Xt = c + εt
(1.71)
ou bien
Φ(B)Xt = c + εt (1.72)
où Φ(B) est le polynôme matriciel de retard de degré p, donné par :
p
X
Φ(B) = In − Φi B i (1.73)
i=1
avec µ = E(Xt ) = Φ(B)−1 c, où εt est un bruit blanc vectoriel et où la séquence des matrices
de dimension (n × n),{ψi }∞ i=0 satisfait ψ0 = In et est absolument sommable au sens où les
i
éléments ψj,k de ψi satisfont la condition :
∞
X
i
|(ψj,k )s | < ∞, ∀i ≥ 1, ∀(j, k) ∈ N2 (1.78)
s=0
IL est possible de déterminer de façon générale la forme des matrices de l’opérateur po-
lynômial associée à la représentation V M A(∞).
Les séries chronologiques 30
Ainsi par identification des termes de même ordre, on montre que les matrices de l’opérateur
polynômial associées à la forme V M A(∞) satisfont bien à une équation de récurrence cor-
respondant à celle de la proposition précédente.
Exemple 1.10.1. Soit un processus bivarié stationnaire {Yt , t ∈ Z} admettant une représentation
V AR(1) telle que :
Φ(B)Yt = c + εt
avec εt ∼ N (0, Σ), c = (3, 1)0 et
1 0 −0, 2 −0, 7 1 − 0, 2B −0, 7B
Φ(B) = Φ0 + Φ1 B = + B=
0 1 −0, 3 −0, 4 −0, 3B 1 − 0, 4B
Par application du théorème de Wold, on sait que ce processus peut être représenté sous
une forme V M A(∞) telle que :
∞
X
Xt = µ + ψi εt−1 = µ + Ψ(B)εt (1.81)
i=0
Ψ0 = I2
−0, 2 −0, 7
Ψ1 = Φ1 =
−0, 3 −0, 4
2
2 −0, 2 −0, 7
Ψ2 = Φ1 Ψ1 = Φ1 =
−0, 3 −0, 4
Et de façon générale, on a :
n
−0, 2 −0, 7
Ψn = Φ1 Ψn−1 = Φn1 = ∀ n≥1
−0, 3 −0, 4
Anisi on a :
∞ i
y1,t1 9, 25 X −0, 2 −0, 7 ε1,t−1
Yt = = +
y2,t1 6, 29 −0, 3 −0, 4 ε2,t−1
i=0
avec p
X
−Π = A1 + · · · + Ap et A∗s = Ai
i=s+1
A(B)Xt = εt (1.83)
Les séries chronologiques 32
c-à-d
[(I − ΠB) − (A∗1 B + A∗2 B 2 + · · · + A∗p−1 B p−1 )(I − B)]Xt = εt
donc
2.1 Introduction.
La modélisation V AR précédente (chapitre 1) repose sur une interprétation du théorème
de représentation de Wold et donc sur une hypothèse de stationnarité. Si les séries que
l’on doit modéliser au moyen d’un V AR ne sont pas stationnaires, la stationnarité sera en
général obtenue par différentiation des séries. On aura donc un modèle V AR en différences
comme il a été montré au chapitre 1 . Mais une différentiation systématique des séries
dans un modèle V AR peut conduire à perdre de l’information car il repose sur l’imposition
d’une contrainte paramétrique. Par exemple si le niveau des séries est utile pour décrire la
mémoire du processus, un V AR en différence requérait un nombre infini de retards. Dans
ce cas, il est donc nécessaire de conserver le niveau des séries, quitte à mélanger niveau et
différences. Les modèles CVAR ou VAR cointégrés appartiennent à cette classe de modèles
particuliers .La notion de cointégration a été introduite dès 1974 par Engle et Newbold,
sous le nom de ”spurious regressions”, ou régressions fallacieuses, puis formalisée par
Engle et Granger en 1987, et enfin par Johansen en 1991 et 1995.Et nous allons distinguer
le cas bivarié du cas général pour mettre en lumière certains problèmes spécifiques.
Notons bien que pour la simplicité de ce travail nous ne considérerons que des séries I(0)
ou I(1). Et avant de donner la définition de la cointégration, nous allons brièvement citer
cette définition,
33
La Cointégration et ses concepts 34
Zt = Xt − αYt (2.1)
sera encore I(1) ( d’après les propriétés des séries intégrées qu’on a vu dans le chapitre 1).
Mais on peut très bien trouver pour certaines séries une valeur de α telle que Zt soit I(0).
Et l’idée sous-jacente de cette exemple est la suivante :
A court terme, Xt et Yt peuvent avoir une évolution divergente (elles sont toutes les deux
I(1) donc non stationnaires), mais elles vont évoluer à long terme. Il existe donc une relation
stable à long terme entre Xt et Yt . Cette relation est appelée relation de cointégration ou
encore relation de long terme. Zt mesure donc l’ampleur du déséquilibre entre Xt et Yt et
est appelée ”erreur d’équilibre”. Et les exemples correspondant à une telle situation sont
nombreux en économie, on peut penser à la relation entre consommation et revenu, à celle
liant les taux d’intérêt à court terme et long terme, · · · etc.
Dans le cas bivarié, pour peu qu’on le normalise, le vecteur de cointégration est défini
de manière unique et est directement interprétable.
Dans le cas multivarié, cette propriété n’est plus vraie. A partir du moment où il peut y
avoir plusieurs vecteurs de cointégration, ceux-ci ne sont plus uniques.
La matrice β qui est de dimension n × r est alors une base de l’espace de cointégration
à r dimensions. Il est toujours possible de définir une autre matrice de cointégration par
simple changement de base. Il y a un problème d’identification et d’interprétation.
La Cointégration et ses concepts 35
Définition 2.4.1. Le vecteur aléatoire Xt ∈ Rn est cointégré s’il existe au moins un vecteur
cointégrant βi ∈ Rn tel que βi0 Xt soit trend stationnaire. S’il existe r vecteurs cointégrants
linéairement indépendants βi que l’on regroupe dans la matrice cointégrante β de dimen-
sion n × r, le vecteur aléatoire Xt est cointégrée de rang r.
Lorsque Engle et Granger ont étudié la notion de cointégration ,ils se sont placés dans le
cas sans composante déterministe pour aboutir à un concept particulier de cointégration,et
cette fois-ci on procède de la même manière qu’eux on ne définit la cointégration que sur
la partie stochastique des séries (et dans cet exemple on parle de ut ).
On pourrait aussi imposer une forme plus restrictive de cointégration en demandant à
ce même vecteur de cointégration βi qui annule les racines unitaires, qu’il rende aussi
constante la tendance, ce qui dans notre cas signifierait βδt = 0 (i.e Tt = µ).
La définition de Engle et Granger (1987) implique que toutes les variables soient intégrées
et intégrées de même ordre. La définition ci dessus est plus large car elle permet de définir
une relation de cointégration entre des variables plus ou moins hétérogènes :
• premièrement, des variables qui sont toutes stationnaires autour d’une tendance seront
trivialement cointégrées selon cette définition.
• deuxièmement, toute combinaison linéaire entre une variable I(1) et une variable I(0)
est encore I(1), il faut au moins deux variables I(1) dans une relation pour avoir
cointégration. Mais à partir du moment où l’on a cointégration, l’ajout d’une ou de
plusieurs variables stationnaires autour d’une tendance ne modifie pas la propriété
de cointégration.
Remarque 2.4.1. Ce que nous voulons dire dans ce dernier paragraphe est que l’on a plus
de chance d’obtenir une cointégration d’après la définition précédente.
La Cointégration et ses concepts 36
avec A(0) = I et A(1) ayant tous ses éléments finis (ou I est la matrice identité ).
Ce modèle correspond en fait à un modèle V AR .C’est donc une forme réduite, et cela
à cause de l’hypothèse A(0) = I. On appellera cette forme un modèle V AR − ECM . Dans
le cas le plus simple, le polynôme A(B) peut se réduire à la matrice identité.
β est bien sûr le vecteur de cointégration. Il peut s’interpréter naturellement comme la
solution de long terme du modèle quand r = 1. Son interprétation est plus délicate quand
r > 1.
La matrice α de dimension n × r représente la matrice des poids de la solution de long
terme dans chaque équation du V AR.
2.5.1 Représentation.
considérons un vecteur de deux composantes Xt et Yt .
Yt = aXt + b + εt (2.5)
α2 + α3 α0 vt
avec a = , b= et εt = (2.6)
1 − α1 1 − α1 1 − α1
Le ECM s’obtient à partir de la dynamique de court terme :
Yt = α0 + α1 Yt−1 + α2 Xt + α3 Xt−1 + vt
Remarque 2.6.1. Ces représentations seront ensuite utilisées dans des tests et méthode
d’estimation qui seront présentés plus tard (Chapitre 3) .
La Cointégration et ses concepts 38
où C(B) est un polynôme de retards matriciel infini. Que se passe-t-il au niveau de cette
représentation quand en plus Xt est cointégré, c’est à dire que β 0 Xt ∼ I(0) ? Le théorème
de représentation de Granger montre que C(1) est nécessairement singulier et de rang n−r,
c’est à dire que l’on va au moins avoir |C(1)| = 0.
Théorème 2.6.1. Soit un vecteur aléatoire Xt de Rn intégré d’ordre un. Ce vecteur est
cointégré de rang r si et seulement si la matrice C(1) de sa représentation M A(∞) est de
rang n − r.
Preuve 2.6.1. Pour montrer cette propriété, il suffit de se baser sur une décomposition
particulière de la série. Le polynôme matriciel C(B) peut toujours se réécrire, par analogie
avec le cas univarié :
le membre de gauche est par définition stationnaire et I(0). Le membre de droite doit
également l’être. Le dernier terme de droite est stationnaire par construction. Par contre
le terme précédent de droite comporte une marche aléatoire vectorielle, non stationnaire
par définition. Il faut donc dans cette écriture que β 0 C(1) = 0. Comme β est une matrice
n × r de rang plein, β 0 C(1) = 0 implique que le rang de C(1) est égal à n − r.
Remarque 2.6.2. Il n’est pas nécessaire de supposer que toutes les composantes de Xt
sont I(1). Il en suffit de deux. Les autres peuvent être I(0).( d’après la généralisation au
cas trend stationnaire.)
La Cointégration et ses concepts 39
β 0 C(1) = 0
C(1)α = 0
où β est la matrice n × r contenant les r vecteurs de cointégration et α la matrice n × r
de poids.
Remarque 2.6.3. Le fait que la matrice C(1) soit singulière implique que la représentation
en moyenne mobile (2.8) n’est pas inversible. Il ne sera donc pas possible de trouver une
représentation AR sur les différences qui ait un nombre fini de retards.
avec
m = −Πµ + δ
∗
Xt−1 = Xt−1 − δ(t − 1)
Comme on ne considère que le cas où Xt comporte au plus une seule racine unitaire dans
chacune de ses composantes, ∇Xt sera toujours stationnaire. Dans quels cas alors le membre
∗
de droite du modèle sera-t-il stationnaire ? Cela ne dépend que de ΠXt−1 et donc du rang
de Π.
∗
Si Π est de rang plein, on a n combinaisons linéaires indépendantes de ΠXt−1 qui doivent
être stationnaires. Les composantes de Xt ne peuvent pas être cointégrées, car on ne
∗
peut avoir au plus que n−1 relations de cointégration indépendantes. Pour que ΠXt−1
soit stationnaire, il faut que chaque composante de Xt soit stationnaire autour d’une
tendance. On a donc un modèle V AR qui doit s’écrire en niveau avec une tendance.
Si Π est de rang nul, on a Π = 0. Il n’existe aucune combinaison linéaire de Xt qui soit
trend stationnaire. On doit donc écrire le modèle V AR en différence.
Le dernier cas est le plus intéressant. Le rang de Π est égal à r compris entre 1 et n − 1.
A ce moment là on peut décomposer la matrice Π en produit de deux matrices de
dimension n × r α et β :
Π = αβ 0 (2.19)
∗
Pour que ΠXt−1 soit stationnaire, il suffit que β 0 Xt−1
∗
le soit. Dans ce cas, la matrice
β de rang plein et égal à r, est la matrice de cointégration. C’est elle qui rend
Xt stationnaire autour d’une tendance. On peut imposer un concept plus fort de
cointégration déterministe en demandant que les tendances disparaissent avec β 0 δ =
0.
On peut alors donner le théorème suivant :
La Cointégration et ses concepts 41
Théorème 2.6.3. Soit un vecteur aléatoire Xt de Rn dont toutes les composantes sont
I(1) et admettant la représentation autorégressive :
A(B)(Xt − µ − δt) = εt
−A(1) = αβ 0 (2.21)
Le théorème de représentation de Granger donné dans Engle and Granger (1987) per-
met de montrer comment on peut quand même opérer un passage entre la représentation
AR et la représentation M A du modèle. D’autres auteurs ont donné une formulation al-
ternative de ce théorème et en particulier Johansen (1991).
Nous reprendrons ici la présentation de Boswijk (1992). Partons d’un modèle V AR sur
les niveaux (les dynamiques de long terme) :
A(B)Xt = m + εt (2.22)
Cela nous conduit directement à représentation en modèle correcteur d’erreur si A(1) est
de rang r. Le passage de cette forme AR à la forme M A se fait au moyen du théorème
suivant :
On trouvera une preuve d’une version plus élaborée de ce théorème dans Johansen
(1991) et la preuve de cette version-ci dans Boswijk (1992). Notons que cette version du
théorème de représentation de Granger part de l’existence d’une représentation en terme
correcteur d’erreurs et en déduit la propriété de cointégration. La version originale du
théorème donnée dans Engle et Granger (1987) procède de manière strictement inverse
et montre que l’hypothèse de cointégration implique l’existence d’une représentation en
terme correcteur d’erreurs.
Tests de cointégration.
3.1 Introduction.
Comme nous l’avons vu dans le chapitre précédent ,la cointégration est la stationna-
rité d’une combinaison linéaire des composantes non stationnaires du vecteur aléatoire ,la
cointégration est une propriété qui permet donc de réduire le nombre de trend stochas-
tiques dans un vecteur aléatoire.
Par rapport au cas univarié, la représentation autorégressive de la série vectorielle devient
nettement plus complexe, même si une écriture matricielle laisse entrevoir une certaine
similitude. Les tests de cointégration dans les modèles autorégressifs avec cointégration de-
viennent eux aussi plus complexes.Et dans ce contexte deux approches ont été distinguées
dans la littérature .
1. L’approche ECM ou bien l’approche de Engle and Granger (1987) : Elle
permet de tester si une régression statique est cointégrante ou non. Mais elle ne
permet pas d’examiner des restrictions sur les vecteurs de cointégration,et pour cette
raison la méthode a connu des développements avec Phillips (1991) ,mais elles restent
des méthodes qu’on peut qualifier d’univariées car elles n’ont clairement défini que
le cas où il n’y a qu’un seul vecteur de cointégration (ce que nous appelons par la
cointégration univariée )
2. L’approche V AR ou bien l’approche de Johansen (1988) qui a été développé
par la suite dans Johansen (1991), Johansen and Juselius (1990) et Johan-
sen (1995) : C’est elle qui est majoritairement utilisée dans les logiciels, et qu’on
peut qualifier de multivariée .
Comme ces deux approches font appellent aux tests de racine unitaire univariés (tests
de stationnarité ) auxquels nous avons consacré la première partie, afin de mieux saisir
l’approche d’Engle et Granger (1987) dans la seconde section .
43
Tests de cointégration 44
yt = T Dt + ut (3.1)
En fait ce qui importe principalement dans la partie déterministe c’est son ordre .On
distingue trois cas :
1. T Dt = 0 ou pas de partie déterministe
2. T Dt = µ ou seulement un terme constant.
3. T Dt = µ + δt ou cette fois-ci une constante et un trend.
Par contre L’hypothèse de racine unitaire concerne la partie stochastique ut .
Et comme la racine unitaire se trouve dans la partie stochastique ut , on va modéliser cette
partie stochastique au moyen d’un processus ARM A :
yt = ρyt−1 + β0 + β1 t + εt (3.9)
est appelée régression de Dickey-Fuller à la suite de leur papier de 1981. L’idée d’un test
de racine unitaire est très simple. Il suffit d’estimer cette régression par la méthode des
moindres carrés et de tester ensuite ρ = 1 au moyen de la statistique de Student.
On soustrait yt−1 des deux côtés de la régression (3.9) :
La seconde statistique est basée sur le fait que z = T (ρ̂T − 1) converge en distribution vers
une fonctionnelle de Browniens qui ne dépend pas du paramètre de nuisance σ 2 .
Avec :
W (r) : est un mouvement Brownien standard.
T :la taille de l’échantillon à simuler.
0.5(W 2 (1) − 1)
L
τ−
→ (R 1 W 2 (r)dr)1/2 (3.13)
0
avec ρ = 1 − A(1).
On va supposer que le polynôme A∗ (B) a toutes ses racines en dehors du cercle unité
et s’intéresser à tester l’hypothèse nulle d’une seule racine unitaire ρ = 1.
Effectuons la multiplication entre la factorisation de A(B) et (yt − T Dt ) :
ce qui montre que l’on obtient le même type de modèle que précédemment, mais que cette
fois-ci on a simplement rajouté les différences premières retardées de yt .
Et pour bien voir cette simple différence prenons un exemple dans le cas où p = 2 et
T Dt = (µ + δt) on a A∗ (B) = a∗1 B et on obtient :
2. ∇yt = ρyt−1 + µ + εt
3. ∇yt = ρyt−1 + µ + δt + εt
La statistique de test de Phillips-Perron est une statistique de Student corrigée de la
présence d’autocorrélation par la prise en compte d’une estimation de la variance de long
terme de εt , robuste à la presence d’autocorrélation et d’hétéroscédasticité.
Phillips et Perron (1988) ont donc suggéré d’adjoindre à la statistique de Student du
coefficient autorégressif ρ, un facteur de correction afin d’éliminer les paramètres de nui-
sance, associés à l’existence de corrélations dans la composante stochastique du processus
génerateur de données [P GD] , qui perturbent les résultats des tests de Dickey et Fuller
simple.
L’estimation de cette variance de long terme est donnée par :
q
X
ψ = µε (0) + 2 µε (j) (3.20)
j=1
– Première étape :La première étape consiste à régresser par simples moindres carrés
ordinaires une des composantes de la variable multivariée sur les autres pour obte-
nir une estimation du vecteur de cointégration. Supposons que le modèle multivarié
s’écrive :
A(B)(∇Xt − ∇T Dt ) = αβ 0 (Xt−1 − ∇T Dt−1 ) + εt (3.25)
et que le rang de cointégration soit égal à un.β est alors un vecteur colonne.
On va choisir d’en normaliser le premier élément et de partitionner Xt de manière
conforme en :
β 0 = [1, β̃]
Xt = [X1t , X2t ]
Tel que X1t et X2t dont à la séparation de Xt endeux groupes, où X1t est une variable
scalaire I(1) et X2t est un vecteur (m × 1) de variable I(1) .
Alors pour estimer β̃, il suffit d’utiliser la méthode des moindres carrées ordinaires
dans la régression :
X1t = β̃ 0 X2t + T Dt + ε̃t (3.26)
– Deuxième ètape : La méthode d’estimation consiste à reporter dans le modèle
ECM-VAR l’estimation du vecteur de cointégration et d’estimer par la méthode
des moindres carrés ordinaires les paramétres du modèle :
A(B)(∇Xt − ∇T Dt ) = αβ̃ 0 (Xt−1 − ∇T Dt−1 ) + εt (3.27)
ou une des équations du modèle ECM structurel correspondant.
Le fait d’utiliser l’estimation de β̃ 0 au lieu de sa vraie valeur n’apporte aucune per-
turbation
Afin de simplifier cette approche :
Exemple 3.3.1. Nous considérons le cas d’une séries bivarié, telque ses composantes sont
Xt et Yt de même ordre I(1).
Donc reprenons les étapes précédente :
Tests de cointégration 51
2. puis en estimant, toujours par la méthode des moindres carrés ordinaires la relation
de court-terme :
∇Yt = λ∇Xt + µε̂t−1 + ηt . (3.29)
Le coefficient µ doit être significativement négatif, dans le cas contraire, on rejette
l’hypothèse d’une modélisation de la forme ECM .
Yt = b + aXt + εt (3.30)
εt = Yt − b − aXt (3.31)
Ainsi, le test valide la présence de cointégration si le vecteur résiduel issu de cette estimation
est stationnaire.
La méthode de Engle et Granger (1987) ne nous permet d’obtenir qu’une seule relation de
cointégration.
Afin de pallier cette difficulté, Johansen a proposé une approche multivariée de la cointégration
fondée sur la méthode du maximum de vraisemblance.
avec Φi matrice de dimension (n×n) et εt ∼ N (0, Σ) On peut réécrire ce modèle sous forme
d’un V ECM (Vector Error Correction Model). Pour cela considérons l’équation suivante :
et
i
X
Bi = Φj − In (3.38)
j=1
et
λmax (r, r + 1) = −T ln(1 − λ̂i ) (3.41)
où T est le nombre d’observations, r est le nombre de vecteur de cointégration sous l’hy-
pothèse nulle et λ
bi est la valeur estimée de la ième valeur propre de la matrice Π .
Nous ne développerons ici que le test de la trace car il est le plus utilisé.
Test de la trace.
La statistique λtrace (r) est associée au test où l’hypothèse nulle suppose que le nombre de
vecteur de cointégration est inférieur ou égal à r contre l’hypothèse alternative qu’ils soient
supérieurs à r (pour le test de la valeur propre maximale, H0 : r = r contre H1 : r = r + 1).
λtrace (r) suit une loi de probabilité tabulée par Johansen et Juselius. Et ce test fonctionne
par exclusion d’hypothèses alternatives :
(
H0 : r = 0, l’hypothèse aucune relation de cointégration
Test 1 : =
H1 : r > 0, il existe au moins une relation de cointégration
• Si λtrace (0) est supérieur à la valeur lue dans la table au seuil α, on rejette H0 ,
il existe au moins une relation, on passe alors à l’étape suivante, sinon on arrête et
r = 0.
(
H0 : r = 1, l’hypothèse d’une seule relation de cointégration
Test 2 : =
H1 : r > 1, il existe plus d’une relation de cointégration
Tests de cointégration 55
• Si λtrace (1) est supérieur à la valeur lue dans la table au seuil α, on rejette H0 , il
existe au moins deux relations, on passe alors à l’étape suivante, sinon on arrête et
r = 1.
..
.
..
.
Et ainsi de suite jusqu’à la dernière étape (si elle est nécessaire) :
(
H0 : r = (n − 1), l’hypothèse de (n-1) relations de cointégration
Test n : =
H1 : r > (n − 1), il existe au moins (n-1) relation de cointégration
• Si λtrace (n − 1) est supérieur à la valeur lue dans la table au seuil α, on rejette H0 ,
il existe au moins n relations, (en fait dans ce cas les n variables sont I(0)) sinon
r = n − 1.
Comme nous l’avons vu, certains tests de cointégration sont directement des tests de ra-
cines unitaire appliqués à des résidus estimés. On peut donc extrapoler certains resultats
obtenus pour les tests de racines unitaires pour une variable directement aux tests de l’hy-
pothèse nulle d’absence de cointégration .Pour les tests d’hypothèses d’une racine unitaire
Tests de cointégration 56
contre les alternatives stationnaires, il s’avère que la puissance des tests dépend beaucoup
plus de l’horizon temporel retenu que du nombre d’observations .
• Pour un nombre donné d’observations, la puissance s’accroit avec un accroissement de
l’horizon temporel des données .
• Pour un horrizon donné du temps, l’ajout d’observations suplémentaires obtenues un
echantillon à une plus grande fréquence qui ne permet qu’un accroissement marginal
de la puissance, cette accroissement est devenant négligeable lorsque l’intervalle entre
les observation décroit .
• Dans le cas d’applications contenant petit nombre de données annuelles sur une longue
période,on obtient des tests plus puissants que dans le cas d’échantillons contenant
plus d’observations sur une durée plus courte .
Ces résultats démontrent que les tests de racine unitaire et les tests de cointégration de-
vraient être construits en utilisant les données annuelles couvrant une longue période his-
torique .
Par contre, l’utilisation de données dans un passé plus lointain peut créer des problèmes
d’un autre ordre.
Premierement : Il se peut que la qualité des données historiques soit douteuse et que les
méthodes antérieures de construction d’indices introduisent un biais contre l’une ou
l’autre des hypothèses.
Deuxièment : L’utilisation d’un échantillon couvrant une longue période rend plus pro-
bable la présence dans la série étudiée d’un changement structurel majeur du proces-
sus caractérisant soit la composante tendancielle soit la composante stochastique .Un
tel changement structurel crée un biais en faveur de l’hypothése de racine unitaire .
Donc, méme si lutilisation d’un échantillon couvrant une longue periode est souhaitable
du point de vus de la puissance des tests, il faut interpréter les resultats avec prudence a
cause de ces effets secondaires possibles .
Fig. 3.2: prix de la douzaine d’oeufs et d’un poulet, durant 1930 à 1983
A partir de ces présentations graphiques on peut suspecter qu’il n’y a pas une relation de
cointégration entre prix de la douzaine d’oeufs et d’un poulet, durant 1930 à 1983 car ces
Tests de cointégration 59
deux séries ne peuvent pas être ajustées par une droite .Or cette proposition n’est qu’une
hypothèse qu’il faut confirmer ou infirmer par les tests de cointégration.
Coefficients :
. Estimate Std. Error t value Pr(>|t|)
(Intercept) 8.329e+04 4.260e+04 1.955 0.0564 .
z.lag.1 -1.821e-01 9.112e-02 -1.998 0.0514 .
tt -3.156e+02 2.670e+02 -1.182 0.2429
z.diff.lag -8.620e-02 1.435e-01 -0.601 0.5510
---
Signif. codes : 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
L’observation statique est inférieure aux extrémités des valeurs critiques, alors
on accepte l’hypothèse H0 :la série chic est non stationnaire
2.
>> library(tseries)
>> adf.test(egg, k=1)
data : egg
Dickey-Fuller = -1.6336, Lag order = 1, p-value = 0.7221
alternative hypothesis : stationary
>> library(tseries)
>> require(quadprog)
>> chic1< −diff(chic)
>> egg1< −diff(egg)
data : egg1
Dickey-Fuller = -4.3367, Lag order = 1, p-value = 0.01
alternative hypothesis : stationary
Message d’avis :
In adf.test(egg1, k = 1) : p-value smaller than printed p-value
data : chic1
Dickey-Fuller = -4.3796, Lag order = 1, p-value = 0.01
alternative hypothesis : stationary
Tests de cointégration 61
Message d’avis :
In adf.test(chic1, k = 1) : p-value smaller than printed p-value
On conclue que les deux séries différenciées sont stationnaires car les p-values
sont toutes inférieures à 0.05.
Ainsi on a deux séries qui sont I(1) (même ordre), donc on peut envisager
l’existence de relations de cointégration entre elles.
(ii) L’estimation de la relation de long-terme (ECM) :
>>Engle< −lm(chic egg)
>>summary(Engle)
Call :
lm(formula = chic egg)
Coefficients :
. Estimate Std. Error t value Pr(>|t|)
(Intercept) 470461.481 36111.963 13.028 <2e-16 ***
egg -10.219 . 7.133 -1.433 0.158
---
Signif. codes : 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
data : residual
Dickey-Fuller = -2.0247, Lag order = 1, p-value = 0.5645
alternative hypothesis : stationary
le p-value est supérieur à 0.05, donc on rejette l’altirnative (i.e : résiduel n’est pas un
I(0)) .
On conclue que les deux séries (chic, egg) sont pas cointégré.
Tests de cointégration 62
. Johansen-Procedure
Test type : trace statistic , without linear trend and constant in cointegration
Eigenvalues (lambda) : [1] 0.2675294 0.1013629 0.0000000
On conclue que les deux séries (chic, egg) ne sont pas cointégrées aussi, d’après
le test Johansen (la trace ou valeur propre maximale ), donc l’hypothèse qu’on a mis
est correcte.
Remarque 3.6.1. Si on veut utiliser le test de la valeur propre maximale il suffit de
remplacer dans type trace par eigen .
Tests de cointégration 63
Les données utilisées pour cette étude ont été obtenues auprès de l’Ofı̈mer qui alimente et
gère la base RIC (Réseau Inter Criée : Base de données enregistrant toutes les ventes de
produits de mer des criées en France). On utilisera des séries de prix moyens mensuels ou
bien des séries de prix hebdomadaires correspondant aux ventes de merlu par criée durant
1994 à 1999, toutes catégories confondues. On dispose d’information sur les 10 principaux
ports de Bretagne produisant du merlu qui sont les suivants :
Classement Port Quantité (tonnes)
1 LORIENT 1433
2 LATURBALLE 834
4 CONCARNEAU 798
5 LE GUILVINEC 701
9 SAINT GUENOLE 515
11 LOCTUDY 497
18 LESCONIL 177
21 DOUARNENEZ 93
22 QUIBERON 93
36 AUDIERNE 5
Tableau. 3.1 : Classement et production moyenne annuelle de merlu dans les principales
criées en Bretagne (période 1994-1997) .
I(1).
Maintenant on peut Comparer les variables par couples afin d’avoir une première vision
générale de l’existence de relations de cointégration entre les variables retenues. Il s’agit
de faire une première analyse pour déterminer les variables susceptibles de faire partie
du groupe des variables cointégrées, et pour cela l’utilisation de l’approche de Johansen
pour des tests bivariés a pour avantage (par rapport à l’approche de Engle Granger) de
considérer toutes les variables comme endogènes .
La totalité des tests effectués est présentée dans le tableau suivant :
D’où dans une première lecture de ce tableau, on peut voir que de manière générale les
marchés sont assez bien cointégrés par couples. Ainsi, ¡¡ Agûndez ¿¿ a trouvé des relations
stationnaires de long terme dans 73% des combinaisons possibles. Dans 22% des cas a
trouvé un vecteur de cointégration dans le modèle estimé, mais des tests d’exclusion lui
amène au rejet d’une des variables. Pour seulement 1% des cas il n’a pas trouvé aucune
relation de cointégration entre les deux variables du modèle.
On peut donc interpréter dans un premier temps ces résultats comme de forts indices
de cointégration dans l’ensemble.
Tests de cointégration 66
Cependant, cette analyse est insuffisante pour conclure des inter relations entre la tota-
lité des variables retenues pour cette étude. il a effectué ainsi des combinaisons de groupes
de ports pour lesquels il a testé l’existence de cointégration afin d’avoir un cadre d’analyse
plus large. Les combinaisons effectuées sont les suivantes :
( Il y a sept combinaisons de quatre ports )
• Dans tous les exemples de groupes construits il a trouvé au moins un vecteur de cointégration
reliant les variables de chaque modèle. Dans tous les cas, le test de trace et le test
de valeur propre maximum convergent vers la significativité d’un même nombre de
vecteurs de cointégration.
• Des tests d’exclusion ont été effectués et cela permet de déterminer si les variables
intégrantes du vecteur de cointégration sont statistiquement significatives, autre-
ment dit, si toutes les variables rentrent significativement dans la construction de
la relation stationnaire de long terme. Ces tests assurent la robustesse des relations
de cointégration.
Tous les tests d’exclusion appliqués aux variables de chaque groupe n’ont pas montré
d’exclusion quelconque.
• Il a trouvé d’autres combinaisons de ports qui ne se trouve pas sur la figure précédante
pour lesquels des tests d’exclusion il ont amené au rejet de certaines variables. Ce-
pendant, les différents groupes présentés (ainsi que d’autres obtenus) peuvent être
interprétés comme significatifs d’un marché cointégré dans son ensemble. Autrement
dit, les sous-marchés intégrant le marché breton varient sous une même tendance
à long terme malgré des chocs ponctuels à court terme .Il s’agit donc d’un marché
géographiquement unifié.
• Les ports étant plus faiblement cointégrés sont ceux ayant un moindre niveau de pro-
duction de merlu. C’est le cas de Douamenez et de Audieme. Plus la production d’un
port est forte et plus les débouchés de cette production pourront s’étendre dans une
aire géographique plus importante.
68
Bibliographie
69
Tests de cointégration 70
[18] Maddala. G. S et Kim. In-Moo, ”Unit Roots Cointegration and And Structural Change”,
c
Cambridge University Press (1998).
[19] Mbaye Baı̈dy Baro et Sene Serigne Moustapha,Document de Travail ”Analyse
et prévision des séries temporelles par la methode de BOX et JENKINS”,
DPEE/DSC/BPTCT@Décembre 2007.
[20] Nelson, C. R. et Plosser, C. I. [1982], ”Trends and Random Walks in Macroecomomic Time
Series”, Journal of Montary Economics, 10, PP . 139-162 .
[21] Perron P et Campbell .John Y, ”Racines unitaires en macroéconomie :le cas multidimen-
tionnel”, Annales d’economie et de statistique - N ◦ 27 - 1992 .
[22] Peter J. Brockwell et Richard A. Davis, ”Introduction to Time Series and Forecasting”,
c
2002, 1996 Springer-Verlag New York, Inc.
[23] Robert H. Shumway et David S. Stoffer, ”Time Series Analysis and Its Applications With
R Examples”,
c Springer Science+Business Media, LLC 2011 .
[24] Shiller R.J et Perron P(1985), ”Testing the Random Walk Hypothesis :Power Versus Fre-
quency of Observation”, Economie Letters, 18, PP.381-386 .
[25] Viano. M.-C et Philippé. A, ”Cours de Séries Temporelles”, Polycopie de cours, années 1999
à 2004, U.F.R. de Mathématiques Pures et Appliquées