Stochastiques
Stochastiques
Stochastiques
Élise Davignon
Email address: elise.davignon@umontreal.ca
Résumé. Ces notes de cours accompagnent le cours MAT2717 – Processus stochastiques,
enseigné au département de Mathématiques et Statistiques de la faculté des arts et sciences
de l’Université de Montréal.
Le cours de processus stochastiques est une suite quasi-directe du cours de probabilités
(MAT1720). Il est possible de trouver les notes de cours de probabilités ici.
Création le : 23 mai 2022.
Dernière compilation le : 4 mai 2023
Lien permanent vers la version la plus à jour :
https://www.dms.umontreal.ca/~davignon/files/notes/MAT2717-ndc.pdf
Introduction 1
Vous sortez de chez vous. Il fait beau, et vous avez en tête la seule idée d’aller marcher,
mais sans objectif précis. Avec vous, une bouteille d’eau pour la route. Pour choisir dans
quelle direction vous partez, vous la faites tourner sur elle-même jusqu’à ce qu’elle s’arrête.
Vous empruntez alors la direction suggérée par le goulot.
Arrivée à une intersection, vous ressortez votre bouteille, puis vous la faites tourner à
nouveau sur elle-même afin de choisir dans quelle direction vous diriger ensuite. Vous répétez
ces étapes chaque fois que vous avez à choisir parmi plusieurs chemins alternatifs.
Où irez-vous ? Jusqu’où irez-vous ? Reviendrez-vous un jour chez vous ? Ou errerez-vous
ainsi jusqu’aux confins de l’univers ? Et si vous revenez, combien de temps cela vous prendra-
t-il ? Et si vous ne revenez pas, à quel rythme vous éloignerez-vous tranquillement de votre
point d’origine ?
Le processus décrit plus haut est modélisé par ce que l’on appelle une marche aléatoire.
Il s’agit d’un des plus importants exemples de processus stochastiques – des processus dont
l’évolution est gouvernée par des phénomènes aléatoires. Ces notes de cours se penchent sur
la théorie mathématique qui décrit, à l’aide de la théorie des probabilités, le comportement
des processus stochastiques. C’est avec ces outils que nous pourrons répondre aux questions
posées plus haut.
Bonne lecture !
Remarque. Ce document contient les notes de cours pour le cours MAT2717 – Proces-
sus stochastiques. Il s’agit d’un cours de deuxième année au Baccalauréat en Mathématiques
au département de l’unviersité de Montréal.
Le contenu est inspiré de celui présenté dans l’ouvrage Processus stochastiques : cours
et exercices corrigés, de Sabin Lessard (éditions Ellipses).
Veuillez noter que ce document est un chantier en cours, et sera probablement modifié au
cours de la session ; la version la plus à jour sera toujours sur StudiUM, mais peut aussi être
récupérée, en tout temps, à l’adresse https://www.dms.umontreal.ca/~davignon/files/
notes/MAT2717-ndc.pdf.
1
Première partie
Tout au long de ces notes, notre discussion portera sur les processus sotchastiques. Gros-
sièrement parlant, les processus stochastiques sont des suites de variables aléatoires. Le nom
de « processus » provient du fait qu’on utilise très souvent de telles suites pour décrire l’évo-
lution dans le temps d’objets quelconques. C’est vague – par exprès. Le modèle est très
général, et permet de décrire autant la propagation d’un feu de forêt sur un territoire que
les déplacements de requins au fond des océans, ou l’achallandage d’un réseau de transport.
Dans ce chapitre, on se penche sur les processus stochastiques en général, c’est à dire
qu’on va décrire – de façon très vauge – un « système » qui évolue de façon aléatoire. Ça
peut être n’importe quoi. 1
5
6 1. LES CHAÎNES DE MARKOV
(g) Dans un processus qui décrit l’achallandage d’une ligne d’autobus, l’état du système
pourrait correspondre au nombre de voyageurs/ses desservi·e·s par l’autobus jusqu’à
présent.
(h) etc.
Exercice. Trouver d’autres exemples de processus qui pourraient être modélisés par
un processus stochastiques. Quels seraient les états possibles ?
2. Il est laissé en exercice de vérifier qu’hormis les deux premiers, les 48 états subséquents sont listés
dans un ordre tel qu’il serait possible de les parcourir en voiture sans jamais décoller de Terre.
1.1. QUOI ? – L’ÉTAT DU SYSTÈME 7
En ce qui nous concerne, la toute première charactéristique qui nous servira à décrire un
processus sera donc l’espace des états – c’est à dire l’ensemble des états possibles dans
lequel notre système peut se trouver.
Définition 1.1 (L’espace des états.). L’espace des états correspond à l’ensemble des
états possibles pour un processus stochastique.
On le dénotera souvent par S. Il peut être fini, infini dénombrable ou même indénom-
brable, et il peut également porter des structures supplémentaires – par exemple, ça peut être
un espace vectoriel, ou un espace topologique, ou une variété riemannienne, ou un groupe,
ou les sommets d’un graphe, etc.
On dira que S est discret si il est fini ou dénombrable. Sinon, S sera continu 3.
Remarque. Attention de bien distinguer l’espace des états S de l’ensemble fondamental
d’une expérience aléatoire Ω. Ici, l’expérience aléatoire correspond à toute l’évolution du sys-
tème dans le temps. Son ensemble fondamental est donc beaucoup plus riche que simplement
S.
Définition 1.2 (Processus stochastique). Un processus stochastique sur S est une
famille de variables aléatoires 4 X = (Xt : Ω → S)t≥0 à valeurs dans S.
Exemple 1.2. Soit (Xi )i∈Z+ une suite de variables aléatoires i.i.d. à valeurs dans R.
Cette suite est techniquement un processus stochastique.
Toutefois, bien sûr, les Xi étant tous indépendants, ça ne servira pas à grand chose de
l’étudier comme un processus stochastique. L’intérêt de l’étude des processus stochastiques,
c’est de se pencher sur des processus où il y a une certaine dépendance entre les variables...
Exemple 1.3. On lance une pièce de monnaie de manière répétée. À chaque lancer, on
gagne un point si la pièce retombe sur « pile ». Soit Xn le nombre de points total que l’on
a accumulé après n lancers.
La suite (Xn )n∈Z+ est un processus stochastique sur l’ensemble des états S = Z+ . La
figure 1.2 montre l’évolution d’une réalisation de ce processus pour les cent premiers lancers.
3. Les termes discret et continu font respectivement référence aux topologie discrète et du « continuum » ;
pas forcément au cardinal. Toutefois, pour nous, le terme discret sera systématiquement synonyme de fini
ou dénombrable.
4. Il convient ici de rappeler qu’une variable aléatoire est en fait une fonction qui dépend du résultat d’une
expérience aléatoire. Dans le cours de probabilités, on s’est particulièrement intéressés au cas particulier où
les valeurs de ces variables étaient des nombres, mais ce n’est pas forcément le cas. Ici, nos variables aléatoires
prennent des valeurs dans l’ensemble S.
8 1. LES CHAÎNES DE MARKOV
50
40
30
20
10
20 40 60 80 100
5. Nous reparlerons plus loin des parallèles entre la théorie de processus stochastique et celle des systèmes
dynamiques « déterministes »...
1.2. POURQUOI ? – LA QUÊTE DE SENS 9
Dans le cas d’un espace d’états discret, il nous suffira d’étudier la fonction de masse 6 –
soit la probabilité que Xt = y sachant que X0 = x :
P {Xt = y | X0 = x} .
Nous verrons comment, en utilisant des outils d’analyse et d’algèbre linéaire, nous par-
viendrons à calculer ces quantités d’intérêt.
Naturellement, la prochaine question à considérer sera celle de...
À condition, bien sûr, que cette limite existe ! Ça ne sera pas forcément toujours le cas. En
fait, la détermination-même de l’existence de cette limite fera l’objet d’une partie importante
de notre étude. On portera une attention toute particulière aux raisons spécifiques qui font en
sorte qu’elle pourrait ne pas exister. On s’intéressera aussi à d’autres façon de la déterminer,
sans passer par le calcul direct de la limite (ça pourrait s’avérer laborieux).
L’intérêt d’identifier si il existe une distribution-limite, c’est de comprendre si le com-
portement du système « se stabilise à long terme » – c’est-à-dire, de déterminer si, après un
moment, l’influence de la condition initiale (la valeur de X0 , l’état initial du système) sera
complètement dissipée.
La proportion de temps passée dans l’état y serait alors Nt (y)/t, et en moyenne, à long
terme, on s’intéresserait donc à :
" t #
1 1
1{Xk =y}
X
lim E [Nt (y) | X0 = x] = lim E X0 = x
t→∞ t t→∞ t
k=1
t
1X
= lim P {Xk = y | X0 = x} .
t→∞ t
k=1
6. Vous aurez deviné que dans le cas d’un espace d’états continu, il faudra plutôt s’intéresser à une
fonction de densité sur S. Nous en reparlerons à la fin des notes lorsque nous aborderons le mouvement
Brownien.
10 1. LES CHAÎNES DE MARKOV
1.2.4. Les temps d’atteinte, les temps de visite, les temps de retour ... On
s’intéressera également à une panoplie d’autres quantités pertinentes ; en voici une petite
liste non-exhaustive :
– le temps moyen entre deux visites au même état ;
– en partant de l’état x, la probabilité de visiter l’état y avant l’état z,
– et le cas particulier lorsque x = z ;
– la probabilité de ne jamais revenir à l’état x ;
– le nombre moyen de visites à l’état x ;
– lorsqu’on aura une notion de distance dans l’espace des états : la vitesse moyenne
à laquelle le système se déplace ;
– etc.
Pour l’instant, ces quantités ne sont pas bien définites ; ce n’est pas important. L’objectif
de cette section était surtout de citer des exemples du genre de mystères que nous chercherons
(et que parfois nous réussirons) à élucider.
Exemple 1.4. Voici quelques exemples de processus stochastiques. Dire quel est l’espace
des états S. Dire aussi si ce sont des chaînes de Markov.
(a) On lance une pièce de monnaie à répétition. Xi est le résultat de l’ième lancer. Soit
X = (Xi )i≥1 .
(b) On lance une pièce de monnaie à répétition. Soit Xi le nombre de lancers effectués depuis
la dernière fois qu’on a obtenu « Pile », après i lancers (inclusivement). Soit X = (Xi )i≥1 .
(Par exemple, si on a obtenu Pile, Face, Face, Pile, Pile, Face, Pile, ..., on aurait
X = (0, 1, 2, 0, 0, 1, 0, ...).)
(c) On lance une pièce de monnaie à répétition. Après i lancers, soit Xi le nombre de lancers
restants avant d’obtenir Pile de nouveau (incluant le lancer où on obtient finalement
Pile). Soit X = (Xi )i≥0 .
(Par exemple, si on a obtenu Pile, Face, Face, Pile, Pile, Face, Pile, ..., on aurait
X = (1, 3, 2, 1, 1, 2, ...).)
(d) Soit k ∈ N. On lance une pièce de monnaie à répétition. Après i + k lancers (pour i ≥ 1),
on note Xi le nombre de fois qu’on a obtenu « Pile » entre les ième et (i+k)ièmes lancers
(inclusivement). Soit X = (Xi )i≥1 .
(Par exemple, avec k = 1, si on a obtenu Pile, Face, Face, Pile, Pile, Face, Pile, ...,
on aurait X = (1, 0, 1, 2, 1, 1, ...)
Solution. (a) L’espace des états serait S = {Pile, Face}. Le processus X a la propriété
de Markov – en effet, puisque tous les lancers sont indépendants, il est trivialement vrai
que le futur du processus après le temps t est indépendant du passé avant le temps t.
(b) L’espace des états serait S = Z+ – en effet, il peut s’écouler un nombre entier de lancers
depuis la dernière fois qu’on a eu « Pile », mais aussi 0, lorsqu’on vient tout juste d’avoir
Pile.
C’est une chaîne de Markov – si je sais combien de lancers j’ai fait depuis la dernière
fois que j’ai eu « Pile », ce qui s’est passé avant n’importe pas – je sais qu’au prochain
lancer, j’aurai soit Pile (et on retombera à 0), ou Face (et le compteur augmentera
encore).
(c) L’espace des états serait S = N – à chaque lancer, soit le prochain sera Pile (alors il faut
un lancer pour avoir Pile de nouveau), ou bien ce sera Face (alors il faudra plus d’un
lancer pour avoir Pile de nouveau).
Malgré que ça puisse paraître contre-intuitif, le processus X a bel et bien la pro-
priété de Markov. En effet, même si la valeur de Xt dépend du futur des lancers, ça ne
correspond pas à la définition d’une chaîne de Markov !
Dans les faits, une fois qu’on sait que Xi = 5, par exemple, peu importe ce qui s’est
passé avant, on sait immédiatement que Xi+1 = 4, Xi+2 = 3, etc. Peu importe, donc, ce
qui s’est passé avant.
12 1. LES CHAÎNES DE MARKOV
Corollaire 1.1. Soit X = (Xt )t≥0 une chaîne de Markov homogène sur l’espace d’états
discret S. Les probabilités de transition ont les propriétés suivantes :
i. Pour tous x, y ∈ S :
(
1 si x = y
(1.4.5) (0)
Px,y = δx,y =
0 ̸ y.
si x =
Définition 1.6 (Probabilité de transition en un pas.). Soit X = (Xt )t∈Z+ une chaîne
de Markov à temps discret sur l’espace d’états discret S. Soient x, y ∈ S deux états. Alors
la probabilité de transition de x vers y en un pas au temps t est donnée par
En particulier, dans le cas homogène, cette notation est très pratique. En effet, elle
permet d’obtenir le résultat suivant :
Proposition 1.2. Soit X = (Xt )t∈Z+ une chaîne de Markov à temps discret homo-
gène sur un espace d’états discret S. Soit P = (Px,y )(x,y)∈S×S la famille des probabilités de
transition en un pas.
Alors, cette famille caractérise entièrement la loi de X.
Démonstration. Soient t1 < t2 < · · · < tn un nombre fini de temps (entiers non-
négatifs), et soient x1 , x2 , x3 , . . . , xn autant d’états.
1.4. LES PROBABILTIÉS DE TRANSITION 15
Alors, par une propriété élémentaire des probabilités, ainsi qu’avec la propriété de Mar-
kov, on a :
n
Y
P {Xt1 = x1 , . . . , Xtn = xn } = P Xtk = xk Xtk−1 = xk−1 , . . . , Xt1 = x1
k=2
Yn
= P Xtk = xk Xtk−1 = xk−1
k=2
n
(t −t )
Y
k k−1
= Pxk−1 ,xk .
k=2
Autrement dit, ces probabilités ne dépendent que des probabilités de transition.
Or, pour tout x, y ∈ S, et pour tout m ∈ N, par (1.4.7) on peut écrire :
X
(m+1) (m)
Px,y = Px,z Pz,y .
z∈S
(m)
Et par récurrence, on a que pour tout x, y ∈ S, et pour tout m ∈ N, Px,y peut être écrit
comme une somme de produits d’éléments de P .
Par conséquent, si P = (Px,y )(x,y)∈S×S est donnée, cela fixe la valeur de P {Xt1 = x1 , . . . , Xtn = xn }
pour toute famille finie de temps t1 < · · · < tn et toute famille finie d’états x1 , . . . , xn .
En somme, donc, la loi de toute sous-famille finie de X est caractérisée par P , donc la
loi de X est également caractérisée par P . □
Cette numérotation sera pratique parce qu’elle permettra de noter sans ambiguïté la
famille de probabilités de transition P = (Px,y )(x,y)∈S ′ ×S ′ comme une matrice P ∈ Rn×n .
Exemple 1.6. On considère une chaîne de Markov homogène indiquant pour le jour t
quel temps il fera. Les états possibles sont S = {clair, nuageux, pluvieux}.
— Si le temps est clair, la probabilité qu’il fasse nuageux le lendemain est de 2/5, et la
probabilité qu’il pleuve, 1/10. Sinon il fera encore beau.
— Si le temps est nuageux, la probabilité qu’il fasse nuageux le lendemain est de 1/2,
et la probabilité qu’il pleuve est de 1/3. Sinon, il fera beau.
— Si le temps est pluvieux, la probabilité qu’il fasse beau (clair) le lendemain est de 3/5,
et la probabilité qu’il fasse nuageux est de 1/10. La probabilité qu’il pleuve encore
est de 3/10.
On associe des numéros aux états de la façon suivante :
(1) clair ;
(2) nuageux ;
(3) pluvieux ;
Alors, la matrice de transition en un pas P = (Pi,j )1≤i,j≤3 ∈ R3×3 est donnée par :
1/2 2/5 1/10
P = 1/6 1/2 1/3 .
3/5 1/10 3/10
Dans cette matrice, l’entrée Pi,j (ième ligne, jème colonne) donne la probabilité de
transition de l’état i vers l’état j en un pas.
De façon complètement analogue, on peut définir des matrices pour tous les types de
probabilités de transition que nous avons vu jusqu’ici. Nous utiliserons en particulier ces
notations :
– P (s, t) = (Pi,j (s, t))1≤i,j≤n ∈ Rn×n , la matrice de transition entre les temps s et t,
pour 0 ≤ s ≤ t ;
(t)
– P (t) = (Pi,j )1≤i,j≤n ∈ Rn×n , la matrice de transition sur un intervalle de temps t
pour les chaînes de Markov homogènes ;
– P (t) = P (t, t + 1) = (Pi,j (t))1≤i,j≤n ∈ Rn×n , la matrice de transition en un pas au
temps t pour les chaînes de Markov inhomogènes.
Avec cette notation, on obtient directement les propriétés suivantes :
Proposition 1.3. Soit X = (Xt )t≥0 une chaîne de Markov sur un espace fini d’états
S = {1, 2, 3, . . . n}, et soient P (s, t) ses matrices de transition entre les temps s et t, pour
0 ≤ s ≤ t. Les matrices de transition ont les propriétés suivantes :
i. Pour tout t ≥ 0,
(1.4.8) P (t, t) = In
où In est l’identité n × n.
ii. Pour tous 0 ≤ s ≤ t et tout 1 ≤ i ≤ n,
X n
(1.4.9) Pi,j (s, t) = 1.
j=1
Autrement dit, la somme de chaque ligne est de 1.
1.4. LES PROBABILTIÉS DE TRANSITION 17
Proposition 1.4. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret
sur un espace d’états fini S = {1, 2, 3, . . . , n}, et soit P sa matrice de transition en un pas,
et P (t) ses matrices de transition en un intervalle de temps t ∈ Z+ .
Alors,
(1.4.14) P (t) = P t .
Démonstration. On voit immédiatement que cela est vrai pour t = 1. Supposons que
ce soit vrai pour t = m :
P (m) = P m .
Alors,
P (m+1) = P (m) P (1) = P m P = P m+1 ,
où toutes la première égalité est par (1.4.10) ; les autres sont par hypothèse d’induction, par
définition et par associativité du produit.
On a donc vérifié que si c’est vrai pour t = m, c’est aussi vrai pour t = m + 1. Par
induction, puisque c’est vrai pour tout t =, c’est donc vrai pour tout t ∈ N. On accepte
également par convention que P 0 = In = P (0) . □
Exemple 1.8. On va régler ça tout de suite : quand une chaîne de Markov a deux états
possible, notre matrice de transition ne peut que ressembler à ceci :
(1 − a) a
P = ;
b (1 − b)
Trouver P (n) pour un n arbitraire ; calculer limn→∞ P (n) .
Solution. On veut P (n) = P n . Pour trouver cette valeur, il faudra diagonaliser P afin
de pouvoir l’écrire comme
P = QDQ−1 ,
où
λ1 0
D=
0 λ2
20 1. LES CHAÎNES DE MARKOV
est une matrice diagonale. λ1 et λ2 sont les valeurs propres de P ; ce sont les zéros du
polynôme caractéristique det(P − λI).
Étape 1 : calculer les valeurs propres. Pour ce faire, on cherche d’abord le polynôme
caractéristique. C’est le déterminant de P − λI :
On trouve :
p
(2 − a − b) + (2 − a − b)2 − 4(1 − a − b)
λ1 = = 1,
2
et p
(2 − a − b) − (2 − a − b)2 − 4(1 − a − b)
λ2 = = 1 − a − b.
2
Pour la suite, on présume que a, b ∈ (0, 1)) parce que sinon le comportement à long
terme est assez prévisible.
Étape 2 : calculer les vecteurs propres. Il nous faut un vecteur propre par valeur
propre ; ce sera un vecteur v qui solutionne
P v = λv
pour la valeur propre λ de notre choix.
Pour λ1 = 1, on cherche donc une solution P v1 = v1 ; on peut prendre v1 = (1, 1), et la
condition de normalisation nous garantit que ça fonctionne !
Pour λ2 = 1 − a − b, il faut résoudre. On cherche une solution à
P v2 = (1 − a − b)v2 ,
, ou : (
(1 − a)v12 + av22 = (1 − a − b)v12
bv12 + (1 − b)v22 = (1 − a − b)v22 .
En triturant ce système d’équations, on trouve entre autres que
bv12 = −av22 ,
qui peut avoir pour solution v12 = a et v22 = −b On peut donc prendre
v2 = (a, −b).
Étape 3 : trouver la matrice Q.
La matrice Q est celle dont les colonnes sont les vecteurs propres ; la colonne i un vecteur
propre associé à la valeur propre λi . Donc, ici, on aurait
1 a
Q= ,
1 −b
par exemple.
1.4. LES PROBABILTIÉS DE TRANSITION 21
(1 − a) a 1 a
PQ =
b (1 − b) 1 −b
1 (1 − a − b)a
= .
1 −b(1 − a − b)
1 a 1 0
QD =
1 −b 0 1−a−b
1 a(1 − a − b)
= .
1 −b(1 − a − b)
Check !
Étape 4 : inverser Q. Pour ça, on peut utiliser le truc de l’échelonnage-réduisage (pour
les plus grosses matrices c’est la façon la plus simple). Pour une matrice 2 × 2, on peut se
servir de la formule générale :
x y −1 1 w −y
A= ⇒ A = .
z w xw − yz −z x
Donc, dans notre cas, on trouve :
−1 1 −b −a
Q = ;
ab −1 1
on peut encore tester :
1 1 a −b −a
QQ−1 = −
a + b 1 −b −1 1
1 −(a + b) 0
=−
a+b 0 −(a + b)
= I.
Check !
Étape 5 : trouver P n . Pour faire ça, il faut juste tout mettre ensemble. On se souvient
qu’on a
P n = QDn Q−1
1 1 a 1 0 −b −a
=−
a + b 1 −b 0 (1 − a − b)n −1 1
1 a(1 − a − b)n
1 −b −a
=−
a + b 1 −b(1 − a − b)n −1 1
−b − a(1 − a − b) −a + a(1 − a − b)n
n
1
=−
a + b −b + b(1 − a − b)n −a − b(1 − a − b)n
b + a(1 − a − b)n a − a(1 − a − b)n
1
= .
a + b b − b(1 − a − b)n a + b(1 − a − b)n
22 1. LES CHAÎNES DE MARKOV
Ici, la seconde inégalité est simplement par la forumle de probabilités totale ; la dernière
égalité est due à la définition du produit matriciel. Les autres égalités sont simplement par
définition des symboles. □
et
(3) 577
x1 = ≈ 38, 47%.
1500
(6)
(b) De même, on cherche x2 . Puisqu’on sait qu’il pleut aujourd’hui, on a bien sûr
x(0) = 0 0 1 ;
et
(6) 366821
x2 = ≈ 36, 68%.
1000000
(c) Ici, on cherche (P1,1 )5 = 32 .
1
24 1. LES CHAÎNES DE MARKOV
8. Consulter au besoin l’annexe A sur le vocabulaire de la théorie des graphes et les définitions de base.
1.5. LA REPRÉSENTATION EN GRAPHES ET LES CLASSES D’ÉQUIVALENCE. 25
technique n’a pas réussi un jour, la machine demeure endommagée (vu que l’équipe
tentera encore de la réparer le lendemain). Donc, on a P2,2 = 1/5 et P2,3 = 0.
En mettant tout ceci ensemble, on a donc :
47/50 1/20 1/100
P = 4/5 1/5 0 .
1 0 0
En fonction
3 2
En remplacement Endommagée
Rappels : les graphes orientés. Le graphe des transitions possibles nous servira en quelque
sorte de « carte » de notre espace d’états, et il sera très utile pour comprendre plus intui-
tivement la dynamique du processus à l’étude. Pour cette raison, ça vaut la peine de faire
un petit rappel du vocabulaire de base de la théorie des graphes – en particulier pour les
graphes orientés qu’on utilise ici.
Définition (Vocabulaire des graphes orientés). À noter que ces définitions sont des
rappels ; pour des versions plus détaillées et complètes, consulter l’annexe A, qui présente
les définitions importantes pour les graphes orientés et non-orientés, de façon très générale.
i. Un graphe orienté G = (V, E) est un objet mathématique constitué d’un ensemble
de sommets V et d’un ensemble d’arêtes E ⊆ V 2 .
ii. Une arête e ∈ E est représentée par une paire ordonnée de deux sommets (x, y), avec
x, y ∈ V . On dit que l’arête e part de x et qu’elle se termine en y, ou qu’elle est
incidente à y.
On note x → e et e → y respectivement pour indiquer que l’arête e part de x et se
termine en y.
Pour une arête e ∈ E, on note e− ∈ X le sommet d’où l’arête e part, et e+ le
sommet où l’arête e se termine.
iii. On dit que le sommet y ∈ V est adjacent au sommet x ∈ V si et seulement si l’arête
(x, y) est dans E. On note alors x → y.
Attention : Dans les graphes orientés, l’adjacence n’est pas symétrique ; on peut
avoir y adjacent à x sans que x soit adjacent à y.
26 1. LES CHAÎNES DE MARKOV
On dit que l’arête f suit l’arête e si e+ = f − ; c’est à dire que l’arête e se termine au
même sommet où f commence. L’arête e est incidente sur l’arête f . On note e → f .
On dit également que les arêtes e et f se suivent, ou s’enchaînent.
iv. Un chemin fini de longueur n est une suite d’arêtes C = (e1 , e2 , e3 , . . . , en ) où les
−
arêtes consécutives s’enchaînent ; c’est-à-dire que e+ i−1 = ei pour tout i = 2, 3, 4, . . . , n.
Par abus de notation, on notera |C| la longueur du chemin C (même si C n’est pas
un ensemble).
Un tel chemin peut également être décrit par une famille de n+1 sommets (x0 , x1 , x2 , . . . , xn ),
à condition que les arêtes (xi−1 , xi ) = ei soient toutes inclues dans E.
v. Un chemin fini passant par les sommets (x0 , x1 , x2 , . . . , xn ) est un cycle si x0 = xn .
vi. On dit que le sommet y ∈ V est accessible depuis x ∈ V si il existe un chemin fini
passant par les sommets (x0 , x1 , x2 , . . . , xn ) tel que x0 = x et xn = y. On note cela
x −→ y.
On dit que les sommets x et y sont connectés si x est accessible depuis y et y
est accessible depuis x ; on note cela x ←→ y. On admet également que le sommet x
est accessible depuis lui-même par le chemin de longueur 0 (x0 = x), et qu’il est donc
connecté à lui-même.
vii. Pour tous x, y ∈ V , la distance de x à y – notée d(x, y) – est nulle lorsque x = y.
Lorsque x ̸= y, c’est la longueur du plus court chemin reliant x à y, s’il existe. Attention :
dans les graphes orientés, la distance n’est pas symétrique ! On n’a pas forcément que
d(x, y) = d(y, x).
Ouf ! C’est beaucoup de vocabulaire, mais ça demeure relativement intuitif.
1.5.2. Classification des états. La suite de notre discussion repose sur un constat
important concernant la relation de connexité entre deux sommets :
Lemme 1.1. Soit G = (V, E) un graphe orienté. Alors, la relation ←→ sur les sommets
S est une relation d’équivalence entre les sommets. C’est à dire que :
i. La relation est réflexive : x ←→ x pour tous x ∈ V ;
ii. La relation est symétrique : x ←→ y si et seulement si y ←→ x, pour tous x, y ∈ V ;
iii. La relation est transitive : Pour tous x, y, z ∈ V , si x ←→ y et y ←→ z, alors x ←→ z.
Démonstration. i Par l’item vi de la définition, c’est immédiat.
ii C’est également évident par la définition ; si x ←→ y, alors y −→ x et x −→ y, et
il suit que y ←→ x, et vice-versa.
iii Pour montrer la transitivité, on va « rabouter » des chemins ensemble ; ce qu’on
appelle la concaténation :
Si x ←→ y et y ←→ z, alors en particulier x −→ y et y −→ z. Alors, il existe
des chemins C1 = (e1 , e2 , e3 , . . . , em ) et C2 = (f1 , f2 , f3 , . . . , fn ) tels que C1 va de
x à y, et C2 va de y à z. Mais alors, on considère le chemin
C = (e1 , e2 , e3 , . . . , em , f1 , f2 , . . . , fn )
C’est un chemin, puisque les arêtes consécutives s’enchaînent – on vérifie que
−
m = y = f1 ; les autres paires d’arêtes consécutives s’enchaînent puisqu’elles sont
e+
à l’intérieur des chemins C1 ou C2 .
1.5. LA REPRÉSENTATION EN GRAPHES ET LES CLASSES D’ÉQUIVALENCE. 27
Exemple 1.11. Les états de la chaîne décrite à l’exemple 1.10 sont tous dans la même
classe d’équivalence, puisqu’ils sont tous connectés entre eux dans le graphe des transitions
possibles (figure 1.3).
1 2 3 4
6 3
5 1 2
7 4
Exemple 1.13. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret sur
l’espace fini des états S = {1, 2, 3, 4, 5, 6, 7}, avec la matrice de transition en un pas
0 2/3 0 0 1/3 0 0
0 0 1 0 0 0 0
0 0 0 1 0 0 0
P = 0 1 0 0 0 0 0 .
0 0 0 0 0 1 0
0 0 0 0 0 0 1
0 0 0 0 1 0 0
(a) Tracer le graphe des transitions possibles.
(b) Identifier les classes d’équivalence.
Solution. (a) Le graphe est présenté à la figure 1.5.
(b) Il y a trois classes d’équivalence :
– L’état 1 est tout seul dans sa classe d’équivalence car il n’est connecté à aucun
autre état, puisqu’il n’est accessible depuis aucun autre état.
– Les états 2, 3 et 4 sont dans une classe, puisqu’ils sont tous connectés entre eux (ils
font tous partie d’un cycle).
– Les états 5, 6 et 7 sont dans une classe puisqu’ils sont tous connectés entre eux (ils
font tous partie d’un cycle).
Démonstration. La preuve de cette proposition n’est pas nécessaire mais elle est amu-
sante.
On considère le graphe orienté Γ = (G/ ←→, E), où les sommets sont les classes d’équi-
valence du graphe G, et on choisit :
E = {(C, C ′ ) ∈ (G/ ←→)2 : ∃x ∈ C, y ∈ C ′ : (x, y) ∈ E, C ̸= C ′ }.
En mots : il y a une arête de C à C ′ si et seulement si il existe une arête dans G entre un
sommet de C et un sommet de C ′ (et que C et C ′ sont différentes).
Le graphe Γ n’admet aucun cycle. Si il y avait un cycle passant par les classes C et C ′ ,
par exemple, tous les sommets de C et de C ′ seraient équivalents les uns aux autres – donc
C = C ′.
D’un autre côté, si on suppose que toutes les classes C sont ouvertes, alors il existe
toujours au moins une arête dans le graphe Γ qui part de C et qui se termine à une autre
classe. On commence avec une classe quelconque, que l’on appelle C0 . Puis, pour tout i ∈ N,
on choisit un Ci+1 parmi les classes adjacentes à Ci ; on construit ainsi une suite infinie de
classes d’équivalence. Or, puisque V est fini, G/ ←→ est également fini ; il y a un nombre
fini de classes d’équivalences, et donc forcément, il existe deux entiers i et j avec i < j et
tels que Ci = Cj . Le chemin dans Γ qui passe par les sommets (Ci , Ci+1 , Ci+2 , . . . , Cj ) est
donc un cycle – ce qui est une contradiction, puisque comme nous venons de le montrer, le
graphe Γ n’admet pas de cycles.
On est donc forcé·e·s d’admettre que le graphe Γ admet au moins un sommet C qui n’est
le point d’origine d’aucune arête – c’est à dire qu’il existe au moins une classe d’équivalence
C qui est fermée. □
Exemple 1.14. Pour les processus décrits dans les exemples 1.10, 1.12 et 1.13, identifier
les classes d’équivalences et dire si elles sont ouvertes ou fermées.
Solution. Pour le processus de l’exemple 1.10 (figure 1.3), il n’y a qu’une classe d’équi-
valence. Elle est donc fermée.
Pour le processus de l’exemple 1.12 (figure 1.4), la classe d’équivalence contenant l’état 4
est fermée ; toutes les autres ont un lien vers cette dernière, et sont par conséquent ouvertes.
Pour le processus de l’exemple 1.13 (figure 1.5), la classe d’équivalence contenant l’état
1 est ouverte ; les deux autres sont fermées.
Mais pourquoi diantre ces classes d’équivalences nous intéressent-elles ? C’est parce que,
comme nous allons le voir sous peu, les états de la même classe d’équivalence partagent
certaines propriétés...
Définition 1.10 (Temps d’atteinte, temps de retour). Soit X = (Xt )t≥0 un processus
stochastique quelconque sur un espace d’états quelconque S.
On introduit les variables aléatoires suivantes :
i. Le temps d’atteinte (ou temps de frappe, de l’anglais hitting time) de la région A ⊆ S
– que nous noterons τA – correspond au « moment où le processus entre en A pour la
toute première fois » (figure 1.6). On définit rigoureusement :
(1.6.1) τA = inf {t ≥ 0 : Xt ∈ A} .
Par abus de notation, pour un état x ∈ S, on admet τx := τ{x} .
ii. Le temps d’atteinte positif de la région A est défini de façon analogue, mais en
excluant 0. On le note τA+ :
(1.6.2) τA = inf {t > 0 : Xt ∈ A} .
Et on fait le même abus de notation : pour x ∈ S, τx+ := τ{x}
+
.
iii. Le temps de retour à l’origine est le temps d’atteinte positif de X0 (τX +
0
) ; c’est le
temps requis pour « revenir au point de départ ».
En pratique, comme on considère souvent la mesure de probabilités sachant que
X0 = x pour un certain x ∈ S, le temps de retour à l’origine sera alors τx+ .
Par convention, on admet que ces temps sont infinis si l’ensemble dont on prend l’infimum
est vide (c’est-à-dire si on n’atteint jamais la région A ou l’état x, par exemple).
Remarque. Ces définitions sont très générales ; dans le cas précis où nous sommes en
temps discret, les infimums seront en fait des minimums.
A
x
τA
S
Figure 1.6 – Le temps d’atteinte de la région A correspond au premier
moment où on touche A.
Pour un processus stochastique X = (Xt )t≥0 quelconque sur un espace d’états S quel-
conque, avec x ∈ S un état et A ⊆ S une région de S (on suppose x ∈
/ A), on peut s’intéresser
aux quantités suivantes 10 :
– Px {τA < τB } : la probabiltié qu’on atteigne A avant la région B ;
10. Il est à noter que dans l’ouvrage de Sabin Lessard, l’auteur utilise les symboles suivants (section 1.6.1) :
32 1. LES CHAÎNES DE MARKOV
1 2 3
4 5 6
7 8 9
Chaque fois qu’elle arrive dans une pièce, Alexe choisit aléatoirement l’une des portes
dans la pièce de façon équiprobable. Si Alexe atteint la sortie, elle s’évade ; si elle croise le
meurtrier sanguinaire, celui-ci la découpe en petits morceaux.
— fi,j = Pi τj+ , la probabilité qu’on atteigne l’état j (ou qu’on revienne en i si j = i) sachant qu’on
i;
part de l’état
— µi = Ei τi+ l’espérence du temps du premier retour en i sachant qu’on part de l’état i.
1.6. TEMPS D’ATTEINTE ET DE RETOUR, RÉCURRENCE, TRANSIENCE, PÉRIODICITÉ 33
Notez que les états 7 et 9 sont davantage « Alexe est coupée en petits morceaux »
et « Alexe s’est sauvée », plutôt que simplement les numéros des pièces...
(b) Ce qu’on cherche, ici, c’est la probabilité d’atteindre éventuellement l’état 9 avant l’état
7, sachant que l’on part de l’état 1 ; P1 {τ9 < τ7 }.
Cela peut être compliqué de calculer cette valeur directement ; il existe une infinité de
trajectoires possibles qui permettraient de passer de 1 à 9 dans cette chaîne de Markov.
Cependant, on peut employer une astuce :
Si on note ui = Pi {τ9 < τ7 } la probabilité d’atteindre l’état 9 sachant que l’on
commence en i, alors pour tout i, on a l’équation suivante :
X
ui = Pi,j uj .
j:i→j
La seconde égalité est donnée par la loi des probabilités totales, pour tous les j adjacents
à l’état i (c’est à dire tous les états j accessibles en un pas depuis l’état i). La dernière
égalité est par définition de Pi,j .
Or, par la propriété de Markov, on a bien sûr que
Pi {τ9 < τ7 | X1 = j} = Pj {τ9 < τ7 } ;
en effet, une fois que nous savons que nous sommes à l’état j, nous savons également
que la probabilité d’atteindre l’état 9 éventuellement est la même que si nous avions
simplement commencé à l’état j.
34 1. LES CHAÎNES DE MARKOV
Donc, on a finalement
X
ui = Pi,j Pi {τ9 < τ7 | X1 = j}
j∈S
X
= Pi,j uj .
j∈S
P u = u,
11. Attention – ceci n’est pas forcément vrai en général, même si c’est le cas ici.
1.6. TEMPS D’ATTEINTE ET DE RETOUR, RÉCURRENCE, TRANSIENCE, PÉRIODICITÉ 35
Le raisonnement que l’on fait ici n’est pas si spécifique à notre problème ; on peut donc
en extraire facilement le résultat suivant (plus général) :
Lemme 1.2. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret sur
l’espace d’états dénombrables S = {1, 2, 3, . . . } ; soient k, l ∈ S deux états de S distincts.
Alors,
i. Alors on a le systèmes d’équations suivant :
X
Pi {τk < τl } = Pi,j Pj {τk < τl } ∀i ̸= k, l
j∈S
(1.6.3)
P {τ < τl } = 1
k k
Pl {τk < τl } = 0
ii On remarque que pour tout j ̸= l, Pj τk < τl+ = Pj {τk < τl }, puisqu’on sait
qu’on n’est de toute façon pas en l au temps 0.
On applique donc le même raisonnement que pour la preuve de i.
□
On va laisser de côté Px {τx+ < +∞} et Px {τA < +∞} pour l’instant ; bien qu’une mé-
thode similaire soit applicable pour ces événements également, nous verrons plus loin que
ce sont des cas de figure un peu particuliers.
On va s’intéresser plutôt à l’espérance des temps d’atteinte avec un exemple fameux :
Exemple 1.17 (La ruine du parieur). Aymeric et Brandon jouent à un périlleux jeu de
hasard, au risque de leurs vastes fortunes respectives – en tout, ils possèdent N dollars.
À chaque partie, les deux misent 1$ ; le joueur qui l’emporte remporte la mise et sa
fortune personnelle s’accroit de 1$ tandis que celle de l’autre diminue du même montant.
Comme Aymeric et Brandon ne se font aucunement confiance, ils arrêtent de jouer lorsque
l’un d’entre eux a acquis la fortune entière de l’autre (puisque le plus riche refusera systé-
matiquement de faire crédit au predant).
Les parties sont indépendantes ; chacune est remportée par Aymeric avec probabilité p
et par Brandon avec probabilité q := (1 − p).
(a) Décrire le processus stochastique d’intérêt ; donner les états et la matrice de transition.
(b) En supposant qu’Aymeric commence avec a dollars (et Brandon avec b = N − a dollars),
donner la probabilité que celui-ci remporte toute la fortune de Brandon.
(c) Trouver l’espérance du nombre de parties qui seront jouées dans le cas où p = q.
Solution. (a) On considère Xt la fortune d’Aymeric après t parties jouées ; les états
possibles sont S = {0, 1, 2, . . . , N } ; la matrice de transition (dont les indices commencent
à 0) est donnée par les équations suivantes :
P0,0 = PN,N = 1; Pi,i+1 = p, Pi,i−1 = q ∀i : 1 ≤ i ≤ N − 1.
Tous les autres éléments de la matrice sont nuls.
(b) On cherche Pa {τN < τ0 } ; on va définir ui = Pi {τN < τ0 }.
Par le Lemme 1.2, on sait qu’on a le système d’équations suivant :
1.6. TEMPS D’ATTEINTE ET DE RETOUR, RÉCURRENCE, TRANSIENCE, PÉRIODICITÉ 37
ui = qui−1 + pui+1 ∀i : 1 ≤ i ≤ N − 1
u0 = 0
u = 1
N
(c) On cherche maintenant Ea τ{0,N } , le temps d’atteinte de la région comprenant les états
0 et N ; c’est le temps où on a joué la dernière partie, puisqu’après ce temps, on arrête
de jouer.
On définit µi = Ei τ{0,N } ; Peut-on utiliser un conditionnement par le premier pas
pour obtenir un système d’équatoins pour µi ? Oui.
En effet,
µi = Ei τ{0,N }
= Ei Ei τ{0,N } X1
X
= Pi,j Ei τ{0,N } X1 = j .
j∈S
Or, encore une fois, par la propriété de Markov, une fois qu’on sait qu’on a atteint
l’état j, la loi du processus est la même que si on venait tout juste de commencer !
Autrement dit, la loi de τ{0,N } sachant que Xt = j est exactement la loi de t + τ{0,N } en
ne sachant rien (on ajoute t parce qu’on sait qu’on a au moins fait t pas avant d’arriver).
Donc,
Ei τ{0,N } X1 = j = 1 + Ej τ{0,N } .
µ 0 = µN = 0
Encore une fois, pour résoudre ce système d’équations, on peut faire appel aux
techniques de résolution d’équations aux différences finies. En manipulant un peu les
équations et en notat δi = µi − µi−1 , on trouve que pour 1 ≤ i ≤ N − 1, on trouve que
dans ces cas :
1
δi+1 = ρδi − .
p
δi = µ1 − 2(i − 1),
1.6. TEMPS D’ATTEINTE ET DE RETOUR, RÉCURRENCE, TRANSIENCE, PÉRIODICITÉ 39
et
0 = µN
N
X
= δi
i=1
XN
= (µ1 − 2(i − 1))
i=1
N
X −1
= N µ1 − 2 i
i=1
= N µ1 − N (N − 1),
d’où µ1 = N − 1 et
a
X
µa = δi = a(N − 1) − a(a − 1) = a(N − a).
i=1
On peut donner un résultat similaire au Lemme 1.2 pour l’espérance du temps d’atteinte
et des temps de retour à l’état k à partir de n’importe où ; cette fois, on trouve les solutions
à l’aide d’un système d’équations inhomogènes (c’est à dire qu’elles ont des termes constants
non-nuls) :
Lemme 1.3. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret sur
l’espace d’états dénombrable S = {1, 2, 3, . . .} ; soit k ∈ S un états distincts de S. Alors,
i. on a le système d’équations suivant :
X
Ei [τk ] = 1 +
Pi,j Ej [τk ] ∀i ̸= k
(1.6.5) j∈S
E [τ ] = 0.
k k
Définition 1.11 (Récurrence, transience). Soit X = (Xt )t≥0 une chaîne de Markov
homogène sur l’espace d’états S quelconque, et soit un état x ∈ S.
L’état x est récurrent si Px {τx+ < +∞} = 1 ; sinon, il est transient.
Remarque. Remarquer qu’on s’est replacés dans le contexte des chaînes de Markov
homogènes, pour simplifier les choses.
Dans une chaîne de Markov homogène, un état est donc récurrent si on est (presque)
sûr qu’on va y revenir lorsqu’on en part ; dans ce cas, par la propriété de Markov, une fois
qu’on y est revenu, le processus recommence – et on va donc revenir (presque sûrement) au
point de départ une nouvelle fois, et ainsi de suite.
Autrement dit, si la chaîne commence dans un état récurrent, cet état sera visité un
nomre infini de fois ; à l’inverse, si un état est transient, on le visite seulement un nombre
fini de fois, mais éventuellement, on cesse complètement d’y revenir.
Exemple 1.18. Dans l’exemple 1.10, tous les états sont récurrents ; en effet, on remarque
qu’on finit toujours par revenir éventuellement à l’état 1. On peut se convaincre assez facile-
ment que les états 2 ou 3 sont récurrents aussi ; Si on commence en 3, par exemple, on atteint
éventuellement 1, et de 1, on atteindra éventuellement 3 de nouveau. Même raisonnement
pour l’état 2.
Dans l’exemple 1.12, tous les états sont transients ; En effet, il est manifeste qu’une fois
qu’on a quité un état pour un autre, on ne peut plus y revenir. La seule exception est l’état
4, qui est récurrent.
Dans l’exemple 1.13, l’état 1 est transient ; il est évident qu’on ne peut jamais y revenir
depuis aucun autre état. Les autres états sont récurrents. En effet, si par exemple on com-
mence à l’état 2 (resp. 3, 4), on y revient forcément après avoir fait un petit tour du cycle
2, 3, 4. Même chose pour les états 5, 6 et 7.
Dans l’exemple 1.15, tous les états sont transients sauf les états 7 et 9, qui sont récurrents.
Dans l’exemple 1.17, les états 0 et N sont récurrents tandis que tous les autres sont transients.
Le nombre de visites. Comme nous l’avons déjà mentionné, une façon de distinguer
un état récurrent d’un état transient, c’est de compter le nombre de fois qu’on y revient
lorsqu’on laisse le processus évoluer indéfiniment. Nous avons déjà identifié que, pour un
état transient, le nombre de visites serait forcément infini. Nous allons maintenant utiliser
cette observation pour obtenir la proposition suivante (très utile) :
Proposition 1.8. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret
sur l’espace d’états discret S = {1, 2, 3, . . . } (fini ou dénombrable).
P (t)
L’état i est récurrent si et seulement si la série t∈N Pi,i diverge.
Démonstration. Comme annoncé plus tôt, nous allons utiliser le nombre de visites en
i pour déterminer si un état est transient est récurrent. Soit
(u)
1{Xt =i}
X
Ni =
t>u
(0)
le nombre de visites en i après le temps u. On note aussi Ni = Ni le nombre total de
visites en i.
1.6. TEMPS D’ATTEINTE ET DE RETOUR, RÉCURRENCE, TRANSIENCE, PÉRIODICITÉ 41
Les deux premières égalités sont simplement une présentation de la loi des probabilités
totales. La troisième est due au fait que l’événement τi+ = u est identiquement égal à
l’événement X1 , X2 , X3 , . . . , Xu−1 ̸= i; Xu = i, et qu’on peut donc y appliquer la propriété
de Markov et ne garder que la condition que Xu = i.
L’égalité suivante est due au fait que le nombre de visites après u si on sait qu’on est en i
au temps u, c’est (par homogénéïté du processus et par la propriété de Markov) une variable
qui a la même loi que le nombre total de retours en i si on a commencé à i. Finalement, on
peut mettre le tout en évidence. La dernière égalité vient du fait que
∞
[
+ +
τi < +∞ = τi = u ,
u=1
Or, Pi {Ni ≥ 1} = Pi τi+ < +∞ , puisque c’est simplement la probabilité qu’on revienne
en i au moins une fois ! Donc, finalement, on a que :
k
Pi {Ni ≥ k} = Pi τi+ < +∞ .
On a donc que
∞ ∞
(t) k
X X
Pi τi+ < +∞
Pi,i = Ei [Ni ] = .
t=1 k=1
Cette série (l’espérance du nombre de visites) diverge si et seulement si Pi τi+ < +∞ =
1 ; autrement, elle converge.
(t)
Donc, par définition, la série ∞
t=1 Pi,i diverge si et seulement si l’état i est récurrent. □
P
Exemple 1.19. Dans le processus de l’exemple 1.13 (dont le graphe est présenté à la
figure 1.5), on voit clairement que pour tout k ≥ 1, on a que
(3k) (3k) (3k)
P2,2 = P3,3 = P4,4 = 1;
(t) (3k)
ce que cela signifie, c’est que forcément, ∞
P∞
k=1 P2,2 = +∞ et que la série
P
t=1 P2,2 ≥
diverge ; donc, les états 2, 3 et 4 sont récurrents. On peut voir que ça fonctionne aussi pour
les états 4, 5 et 6.
Bien sûr, on sait aussi que l’espérance du nombre de visites en j partant de j est au
moins le nombre de visites en j après avoir touché i ; donc :
n o
Ej [Nj ] ≥ Pj τi < τj+ Ei [Nj ]
n o
≥ Pj τi < τj+ Pi τj < τi+ Ei [Ni ] .
1.6. TEMPS D’ATTEINTE ET DE RETOUR, RÉCURRENCE, TRANSIENCE, PÉRIODICITÉ 43
Et si i est récurrent, alors Ei [Ni ] diverge, et Ej [Nj ] diverge, donc j est forcément récur-
rent aussi.
Puisque les états sont connectés, on peut inverser i et j dans le raisonnement précédent
pour obtenir une preuve similaire dans l’autre sens : si j est récurrent, alors i est récurrent
aussi. □
Au vu des propositions 1.9, 1.10 et 1.12, il vaut la peine de faire la définition suivante :
Définition 1.12 (irréductibilité). Soit X = (Xt )t∈Z+ une chaîne de Markov homogène
à temps discret sur l’espace des états dénombrable S = {1, 2, 3, . . .} (possiblement fini), et
soit Γ = (S, E) son graphe des transitions possibles.
44 1. LES CHAÎNES DE MARKOV
On dit que X est irréductible si le graphe Γ n’a qu’une seule classe d’équivalence
(c’est-à-dire que Γ/ ←→= {S}).
Corollaire 1.3. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret
irréductible sur l’espace des états fini S = {1, 2, 3, . . . , n}.
Alors tous les états sont récurrents.
on se débrouille avec.
Proposition 1.11. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret
sur l’espace des états dénombrable S = {1, 2, 3, . . .} (possiblement fini).
i. Si i est un état récurrent, alors on a, pour tout j ̸= i :
(
1 si i ←→ j ;
(1.6.7) Pi {τj < +∞} =
0 sinon.
ii. Si i est un état transient, et j et j ′ sont deux états récurrents avec j ←→ j ′ , alors
(1.6.8)
Pi {τj < +∞} = Pi τj ′ < +∞ .
iii. Si R ⊂ S est l’ensemble des états récurrents, et C ⊆ R est une classe d’équivalence
récurrente, alors, pour tout i ∈ S, k ∈ C, on a que Pi {/tauk < +∞} = Pi {τC < +∞}.
De plus, on a le système d’équations suivant :
X
Pi {τC < +∞} = Pi,j Pj {τC < +∞} ∀i ∈ / R;
j∈S
(1.6.9)
P {τ < +∞} = 0 ∀i ∈ R \ C;
i C
Pi {τC < +∞} = 1 ∀i ∈ C.
X
Pi {τk < +∞} = Pi,j Pj {τk < +∞} ∀i ∈
/ R, i ̸= k;
j∈S
(1.6.10)
Pi {τk < +∞} = 0 ∀i ∈ R;
Pk {τk < +∞} = 1.
1.6. TEMPS D’ATTEINTE ET DE RETOUR, RÉCURRENCE, TRANSIENCE, PÉRIODICITÉ 45
1.6.3. Périodicité. Une autre propriété importante des états est leur périodicité ; des
états dits « périodiques » sont des états qui, même à long terme, sont « périodiquement ac-
cessibles » ; c’est-à-dire qu’on ne peut y revenir qu’après des multiples d’un certain intervalle
de temps. On fait la définition suivante :
Définition 1.13 (Période, périodicité). Soit X = (Xt )t∈Z+ une chaîne de Markov ho-
mogène à temps discret sur l’espace d’états dénombrable S = {1, 2, 3, ...} (possiblement
fini).
On dit que la période de l’état i – notée d(i) – est donnée par
n o
(n)
(1.6.11) d(i) = pgcd n ∈ N : Pi,i > 0 .
(n)
Les états dont la période est 1 et les états pour lesquels Pi,i = 0 pour tout n ∈ N sont
dits apériodiques ; les autres sont périodiques.
Si Γ = (S, E) est le graphe des transitions possibles pour i, et Ci l’ensemble des cycles du
graphe Γ qui passent par i ; si de plus on note |C| la longueur d’un cycle pour tout C ∈ Ci ,
alors la période de i est égale au PGCD des longueurs de tous les cycles de Ci :
(1.6.12) d(i) = pgcd {|C| : C ∈ Ci }
46 1. LES CHAÎNES DE MARKOV
Exemple 1.20. Dans l’exemple 1.10, l’état 1 est apériodique ; en effet, P1,1 > 0, ce qui
signifie que d(1) ≤ 1. Mais comme d(1) ≥ 1, d(1) = 1. De même pour l’état 2. L’état 3 est
également apériodique en effet, selon le graphe des transitions possibles (figre 1.3), on voit
(2) (3)
que P3,3 > 0 (il est possible de revenir à 3 en deux pas), mais P3,3 > 0 aussi (il est possible
de revenir à 3 en 3 pas, par exemple par le chemin 3 → 1 → 1 → 3).
Dans l’exemple 1.12, tous les états sont apériodiques, car pour tout i, Pi,i > 0.
(n)
Dans l’exemple 1.13, l’état 1 est apériodique puisque P1,1 = 0 pour tout n ≥ 1 ; une
fois partis de 1, on n’y retourne jamais. Les états 2, 3 et 4 sont périodiques de période 3. En
effet, la seule façon de revenir en 2 est par le cycle 2 → 3 → 4 → 2 (et resp. pour 3 et 4).
De même, dans cet exemple, les états 4, 5 et 6 aussi périodiques, de période 3.
Dans l’exemple 1.15, (figure 1.7), les états 7 et 9 sont apériodiques. Les autres sont de
période 2 ; en effet, on remarque que le graphe des transitions possible est biparti ; tous les
cycles qui reviennent à leur point de départ (autre que 7 et 9) sont de longueur paire (donc
le PGCD est 2).
Même chose pour l’exemple 1.17 : tous les états sauf 0 et N sont périodiques de période
2. Les états 0 et N sont apériodiques.
La périodicité est une autre propriété que partagent les états de même classe d’équiva-
lence :
Proposition 1.12. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret
sur l’espace d’états dénombrable S = {1, 2, 3, . . .} (possiblement fini). Soit Γ = (S, E) son
graphe des transitions possibles, et soient i, j ∈ S deux états connectés (c’est-à-dire que
i ←→ j).
Alors, d(i) = d(j).
Démonstration. Puisque i et j sont connectés, il existe C un cycle qui passe par i et
par j.
Puisque le cycle C passe par i et par j, on a que |C| est un multiple de d(i) et de d(j).
Supposons Ci un cycle quelconque qui passe par i. La concaténation 12 de C avec Ci
(notée C → Ci ) est elle-même un cycle qui passe aussi par i et j. Donc, on doit aussi
avoir que |C → Ci | est un multiple de d(i) et d(j). Mais alors, |Ci |, la longueur du cycle Ci
lui-même, donnée par |Ci | = |C → Ci | − |C| doit aussi être un multiple de d(i) et d(j).
Donc, pour tout cycle Ci passant par i, on a que |C| est un multiple de d(j) et de d(i)
– c’est à dire que d(j) est un commun diviseur des longueurs de tous les cycles qui passent
par i. On a donc que d(j) ≤ d(i) ; en effet, d(i) est le plus grand commun diviseur.
Par le raisonnement inverse, on voit que d(i) ≤ d(j). Donc, d(i) = d(j). □
12. La concaténation de deux chemins est le chemin qui résulte quand on met ces deux chemins « bout-
à-bout ». Voir la définition A.4 v
1.7. LE THÉORÈME ERGODIQUE ET LA DISTRIBUTION STATIONNAIRE. 47
Remarque. Une chaîne de Markov X peut possiblement avoir plus d’une distribution
stationnaire, selon que le système d’équations (‡) admet une ou plusieurs solutions. Elle
pourrait également n’avoir aucune solution stationnaire. Nous verrons un peu plus loin à
quelles conditions une distribution stationnaire.
La distribution stationnaire est appelée ainsi parce que si, au temps t, la distribution de
la variable Xt est stationnaire (le vecteur de masses x(t) est une distribution stationnaire),
alors elle le sera aussi pour tous les temps u ≥ t ; une fois atteinte, elle ne change plus.
Dans le cas spécifiqu où on considère un espace d’états fini S = {1, 2, 3, . . . , n}, la famille
des probabilités de transition en un pas P = (Px,y )x,y∈S est en fait une matrice n × n.
Si on voit une distribution stationnaire π = (πx )x∈S comme un vecteur-ligne (dans
R1×n ), alors le système d’équations (‡) se réduit à :
π = πP
(‡)
π · 1n = 1.
Attention!. Le vecteur π est un vecteur-ligne, pas un vecteur-colonne. La multiplica-
tion par la matrice est par la droite, puisque l’expression P π n’aurait pas de sens – en effet,
les formats des matrices P et π sont incompatibles.
1.7.2. Théorème ergodique. Alors ? Peut-on dire qu’on a trouvé la distribution-
limite pour Xt ? Non.
Souvenez-vous : on a commencé la section 1.7.1 avec l’importante supposition que la
(t)
limite de Px,y existe pour toute paire x, y ∈ S ; est-ce vrai ? On a également assumé que
la distribution-limite était indépendante de l’état de départ. Ça aussi, c’est une hypothèse
importante qui, a priori, n’est pas évidente à démontrer. Et pour cause : parfois, c’est faux !
Exemple 1.21. On considère la chaîne de Markov X = (Xt )t∈Z+ à temps discret et
homogène, sur l’espace des états S = {1, 2, 3}, avec la matrice des probabilités de transition
en un pas :
0 1 0
P = 0 0 1 .
1 0 0
Exemple 1.22. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret sur
l’espace des états S = {1, 2, 3, 4, 5, 6, 7} avec la matrice de transition en un pas
1/7 1/7 1/7 1/7 1/7 1/7 1/7
1 0 0 0 0 0 0
0 0 0 1 0 0 0
P = 0 0 0 0 1 0 0 .
0 0 1 0 0 0 0
0 0 0 0 0 1/4 3/4
0 0 0 0 0 3/4 1/4
(a) Tracer le graphe des transitions possibles.
(b) Identifier les classes d’états et leurs propriétés (récurrence/transience, période).
(c) Y a-t-il plus d’une distribution stationnaire possibles ?
(d) Est-ce que la distribution limite dépend de l’état initial ici ?
Solution. (a) Le graphe est reproduit à la figure 1.8.
(b) Il y a trois classes d’états :
– Les états 1 et 2 sont transients car ils forment une classe ouverte. Ils sont apério-
diques (puisque P1,1 > 0).
– Les états 3, 4 et 5 sont récurrents puisqu’ils forment une classe fermée. Ils sont
périodiques avec période 3 (la seule chaîne possible pour revenir en 3 est 3 → 4 →
5 → 3).
– Les états 6 et 7 sont récurrents puisqu’ils forment une classe fermée. Ils sont apé-
riodiques puisque P6,6 > 0.
(c) Oui. On remarque que π (1) = (0, 0, 1/3, 1/3, 1/3, 0, 0) et π (2) = (0, 0, 0, 0, 0, 0, 1/2, 1/2)
sont tous les deux des distributions stationnaires ; puisqu’on a affaire à un système
d’équations linéaires, toutes les combinaisons linéaires de ces deux solutions sont égale-
ment des solutions stationnaires. En particulier, si p ∈ (0, 1),
π = pπ (1) + (1 − p)π (2)
est aussi forcément une distribution stationnaire.
Il existe donc une infinité de distributions stationnaires correspondant aux différentes
valeurs du paramètre p.
50 1. LES CHAÎNES DE MARKOV
3
6
4 1
7
5 2
(t)
et donc, il faut forcément que Px,y tende aussi vers 0, puisque cette série doit aussi converger.
(t)
Dans le cas où x ̸→ y, naturellement, Px,y = 0 pour tout t.
(t)
Donc, dans tous les cas, on a limt→∞ Px,y = 0. □
Donc, on a déjà un élément de réponse ; pour tous les états transients, la limite existe –
elle est nulle et ne dépend pas de la condition initiale.
Reste les états récurrents ; là, ça va être un peu plus difficile. On va revenir à notre
première question à la fin ; pour l’instant, on peut répondre à la deuxième :
Proposition 1.14. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret
sur l’espace des états des états discret S (dénombrable, possiblement infini). Soient y ∈ S
un état récurrent et apériodique.
Alors, on a que pour tout x ∈ S connecté à y dans le graphe des transitions possibles
(c’est-à-dire que x ←→ y), on a que
(1.7.2) (t)
lim Px,y (t)
− Py,y = 0.
t→∞
(t) (t)
En particulier, si limt→∞ Py,y existe, alors limt→∞ Px,y existe pour tout x connecté à y
dans le graphe des transitions possibles ; de plus, ces limites sont égales.
Démonstration. Sans perdre de généralité, nous allons assumer que la chaîne X est
irréductible.
Pour faire cette preuve, nous allons procéder par un argument de couplage – plutôt que
de travailler directement sur la chaîne X, nous allons créer une autre chaîne de Markov,
dont X sera « une composante ».
Partie 1 : Le couplage. On introduit d’abord la chaîne Y = (Yt )t∈Z+ , indépendante
de X, et ayant exactement la même loi (c’est à dire les mêmes probabilités de transition
en un pas). Intuitivement, c’est comme si on avait deux « copies indépendantes » de notre
processus, et qu’on suivant simultanément l’évolution des deux.
En soi, cela est un nouveau processus – appelons-le Z = (Zt = (Xt , Yt ))t∈Z+ . Que peut-on
dire sur Z ?
Pour commencer, l’espace des états de Z est S 2 – l’ensemble des couples d’états (x, y)
où x et y sont des états de S.
Quelles sont les de Z ? Pour éviter la confusion, nous allons noter la famille des probabili-
(t)
tés de transition après t unités de temps Q(t) = (Qx,y )x,y∈S 2 , où x = (x1 , x2 ) et y = (y1 , y2 )
sont des états possibles de Z (dans S 2 ) ; c’est à dire que x1 , x2 , y1 ety2 sont dans S.
Puisque X et Y sont indépendantes, on doit avoir que pour tous t ≥ 0 et pour tous
x = (x1 , x2 ), y = (y1 , y2 ) ∈ S 2 ,
(t)
Qx,y = P {Xt = y1 , Yt = y2 | X0 = x1 , Y0 = x2 }
= P {Xt = y1 | X0 = x1 } P {Yt = y2 | Y0 = x2 }
= Px(t) P (t) .
1 ,y1 x2 ,y2
Pour que la chaîne Z soit irréductible, il suffit qu’il existe, pour tous x = (x1 , x2 ) et
(t)
y = (y1 , y2 ) dans S 2 un certain t ∈ N tel que Qx,y > 0 ; ça voudrait dire que le graphe des
transitions possibles admet un chemin de tout état dans S 2 à tout autre état dans S 2 . Pour
que Z soit apériodique en plus, il suffira de trouver pour tous x, y ∈ S 2 un N (x, y) tel que
(t)
si t > N , alors Qx,y > 0.
Puisque X (et donc Y aussi) est apériodique, pour tous x, y ∈ S (souvenez-vous qu’on
assume que X est irréductible – sinon, c’est pour tous x connectés à y), il existe un N (x, y)
tel que pour tous t > N (x, y), on a que
(t)
Px,y > 0.
En particulier, si x = (x1 , x2 ) et y = (y1 , y2 ) sont deux états dans S 2 , on peut prendre
N (x, y) = max {N (x1 , y1 ), N (x2 , y2 )} .
Dès lors, si t > N (x, y), on a que t > N (x1 , y1 ) et t > N (x2 , y2 ), ce qui implique immédia-
tement :
(t)
Qx,y = Px(t) P (t) > 0,
1 ,y1 x2 ,y2
et on a donc que Z est bel et bien irréductible et apériodique.
Partie 2 : L’argument. On fixe x ∈ S et y ∈ S. À partir d’ici, on va noter x = (x, y)
et y = (y, y) ; ce sont deux états de S 2 qui sont particulièrement intéressants pour nous.
Il va y avoir deux cas à considérer :
– Soit l’état y est récurrent (et donc tous les états de S 2 sont récurrents) ;
– soit l’état y est transient.
Si y est transient, alors pour tous x, y ∈ S, avec x = (x, y), on a que
(t) (t) (t)
Qx,x = Px,x Py,y → 0,
(t)
et en particulier, on devra donc avoir (Px,x )2 → 0 pour tout x ∈ S lorsque t tend vers
(t)
l’infini ; tant que Px,y converge aussi vers 0, ça va.
(t) (t) (t)
Or, Q(x,x),(y,y) = (Px,y )2 ; supposons que Q(x,x),(y,y) ne converge pas vers 0. Alors, il
(t )
existe ϵ > 0 et une suite strictement croissante de temps tk telle que Q(x,x),(y,y)
k
> 0;
Si N(y,y) = u=1 1{Zt =(y,y)} le nombre de visites en (y, y) par Z, alors
P∞
∞ ∞
X (u)
X
E(x,x) N(y,y) = Q(x,x),(y,y) > ϵ = +∞,
u=1 k=1
et l’état (y, y) est récurrent, ce qui est contradictoire.
(t) (t) (t)
Donc, on doit avoir que Q(x,x),(y,y) = (Px,y )2 tend vers 0, et donc il faut aussi que Px,y
tende vers 0 pour tous x ∈ S.
Si y est récurrent, alors il y a plus de travail.
On considère maintenant
τy+ = inf {t ∈ N : Zt = (Xt , Yt ) = (y, y) = y} .
Il s’agit du temps du premier retour simultané en y pour X et Y. Puisque y est récurrent
(et donc x aussi, vu qu’ils communiquent), on a bien sûr que Px τy+ < +∞ = 1.
Une première remarque à faire, c’est que l’on a :
+
τy = u = {Z0 , Z1 , Z2 , . . . , Zu−1 ̸= y; Zu = y} ;
1.7. LE THÉORÈME ERGODIQUE ET LA DISTRIBUTION STATIONNAIRE. 53
On s’attaque maintenant au plus gros morceau : que peut-on dire sur les états récurrents ?
Proposition 1.15. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret
sur l’espace des états discret S (dénombrable, fini ou non). Soit y ∈ S un état récurrent
apériodique.
Alors,
i. si Ey τy+ < +∞, on a que
1
(1.7.3) (t)
lim Py,y = + ;
t→∞ Ey τy
ii. si Ey τy+ diverge, on a que
(1.7.4) (t)
lim Py,y = 0.
t→∞
Démonstration. Prologue : Un peu d’intuition. La preuve qui suit est longue et
assez subtile. Avant de se lancer dedans, je voudrais donner au moins un peu d’intuition
pour justifier ce résultat
possiblement surprenant.
La quantité Ey τy+ représente le temps qu’il faut, en moyenne, pour revenir à y lorsqu’on
en part. Vu sur un long intervalle de temps, si y est un état récurrent, on va y revenir
tout le temps ; c’est donc (modulo des
variations aléatoires) « un peu comme un processus
dynamique périodique » – et Ey τy+ , avec l’homogénéité du processus, et la propriété de
Markov, ça nous donne la « période », c’est à dire le temps qu’il faut pour revenir, ou le
« nombre d’unités de temps par retour en y »
(t)
Quelle relation avec Py,y ? Eh bien, on a déjà vu que
t
1 X (t) 1 (t)
Py,y = Ey Ny ,
t t
u=1
(t) (t)
où Ny est le nombre de retours en y jusqu’au temps t ; à la limite, Ny représente la
« fréquence » à laquelle on revient, ou le « nombre de retours par unités de temps ». Il
est donc naturel d’imaginer qu’il y aurait une relation de proportionalité inverse entre les
(t)
probabilités Py,y à la limite, et Ey τy+ – puisque dans tout système périodique, la période
est l’inverse de la fréquence.
En théorie des processus stochastiques, des événements qui reviennent « stocha-périodiquement » 14,
on appelle ça des renouvellements.
Étape 1 : L’équation du renouvellement. Notre première étape, ça va être d’obtenir
une équation « simple » dont on pourra prendre une limite, au moment opportun (et en
faisant très très attention).
L’équation du renouvellement est l’affirmation mathématique simple que « la probabilité
qu’il y ait un renouvellement après le temps t est de 1. » Puisque l’état y est récurrent, c’est
trivialement vérifié, bien sûr.
Ce qu’il y a de particulier, c’est la façon dont on va l’écrire, cette probabilité. On va
la disséquer selon la valeur d’un temps aléatoire un peu particulier : le temps du dernier
renouvellement avant t.
On définit
Tt = sup u ∈ Z+ : 0 ≤ u < t, Xu = y ,
14. C’est un mot de mon invention, allez pas dire des affaires comme ça dans des colloques ; ils vont rire
de vous !
1.7. LE THÉORÈME ERGODIQUE ET LA DISTRIBUTION STATIONNAIRE. 55
(t−u)
D’autre part, Py {Xt−u = y} = Py,y , évidemment.
Donc, finalement, on se retrouve avec l’équation du renouvellement, sous sa forme finale :
t
X
(t−u)
Py τy+ ≥ u = 1...
Py,y
u=1
Enfin, presque. On va utiliser une dernière petite astuce, qui nous aidera plus tard : on va
transformer la sommation (dont une borne dépend de t) en une série (dont les bornes sont
constantes). Comment ?
56 1. LES CHAÎNES DE MARKOV
Comme
+
y est apériodique, on peut sans perdre de généralité supposer que Py,y =
Py τy = 1 > 0.
(t −1)
On va montrer que limk→∞ Py,yk = λ aussi ; en effet, on considère l’équation suivante :
tk
X
(tk )
Py Xtk = y, τy+ = u
Py,y =
u=1
Xtk
τy+ = u Py τy+ = u .
= Py Xtk = y
u=1
On a que
τy+ = u = {X1 , X2 , X3 , . . . , Xu−1 ̸= y; Xu = y} ,
ou, en réarrangeant :
(tk −1) (tk −1)
lim sup Py,y ≤ λ ≤ lim inf Py,y ,
k→∞ k→∞
et on obtient immédiatement
(tk −1)
lim Py,y = λ.
k→∞
Par induction, on déduit que
lim P (tk − u)y,y = λ,
k→∞
pour tout u ≥ 1.
On utilise maintenant notre équation (†) – l’équation du renouvellement.
On distingue maintenant les deux cas :
i Ey τy+ < +∞. Dans ce cas, on a bien sûr que
∞
X
Ey τy+ = Py τy+ ≥ u .
u=1
∞
1{u≤tk } Py,y
X
(tk −u)
Py τy+ ≥ u
1 = lim
k→∞
u=1
∞
X
Py τy+ ≥ u
=λ
u=1
= λEy τy+ ,
Mais évidemment, puisque Ey τy+ diverge, on peut obtenir une somme nu=1 Py τy+ ≥ u
P
arbitrairement grande en choisissant n comme on veut ; la seule façon de s’en tirer,
c’est qu’on doit avoir λ = 0 ; on en tire donc
(tk )
lim Py,y = 0.
k→∞
(1.7.6) (t)
lim Py,y = 0.
t→∞
1.7. LE THÉORÈME ERGODIQUE ET LA DISTRIBUTION STATIONNAIRE. 59
ii. Si Ey τy +
< +∞, on a que
t
1 X (u) 1 (t) 1
(1.7.7) lim Py,y = lim Ey Ny = + ,
t→∞ t t→∞ t Ey τy
u=1
(t)
1{Xu =y} est le nombre de retours en y jusqu’au temps t inclus.
Pt
où Ny = u=1
(t)
Comme on l’a déjà vu, la suite des Py,y n’admet pas forcément de limite (voir
l’exemple 1.21).
On définit
qt = ⌊t/d⌋ =: sup {n ∈ Z : n ≤ t/d} , rt = t − dnt ,
soit nt le quotient (entier) de t par d, et rt le reste de la division. Il est clair que
0 ≤ rt ≤ d − 1. On a que
t dnt +rt
1 X (u) 1 X (u)
Py,y = Py,y
t t
u=1 u=1
dn
Xt dn t +rt
1 (u) 1 X
(u)
= Py,y + Py,y ,
t t
u=1 u=dnt +1
Pnt (u)
en particulier, la sous-suite 1
nt u=1 Qy,y doit admettre la même limite ; on obtient
donc finalement
t
1 X (t) 1 d 1
lim Py,y = · + = + .
t→∞ t d Ey τy Ey τy
u=1
Et ça y est enfin ! On a fait le tour de tous les types d’états qui existent, et identifié
les moments où une limite existe, et laquelle ! Pour célébrer, nous allons regrouper tous ces
résultats dans un seul gros théorème !
Théorème 1.1 (Théorème ergodique – temps discret, espace d’états discret). Soit X =
(Xt )t∈Z+ une chaîne de Markov homogène à temps discret sur l’espace des états discret S
(t)
(fini ou dénombrable), avec probabilités de transition en t pas P (t) = (Px,y )x,y∈S .
i. Pour tout état y ∈ S exceptés les états récurrents périodiques où Ey τy+ < +∞, on a
que pour tout x ∈ S,
(t)
i Si on assume que limt→∞ Py,y = λ, alors on a que
t
X
(t)
Px Xt = y, τy+ = u
Px,y =
u=1
Xt
= Px {Xt = y | τy = u} Px {τy = u}
u=1
t
X
= Px {Xt = y | Xu = y} Px {τy = u}
u=1
Xt
(t−u)
= Py,y Px {τy = u}
u=1
∞
1{u≤t} Py,y
X
(†) = (t−u)
Px {τy = u} .
u=1
Par le théorème de convergence dominée, puisque
lim 1{u≤t} Py,y
(t−u)
Px {τy = u} = λPx {τy = u} ,
t→∞
on obtient donc que :
∞
X
(t)
lim Px,y =λ Px {τy = u} = λPx {τy < +∞} .
t→∞
u=1
On complète la preuve en appliquant simplement les propositions 1.13, 1.15 et
1.16 ; le seul cas non-couvert par ces propositions est le cas où y serait un état
récurrent périodique mais que Ey τy+ < +∞.
(t)
ii Si on sait que limt→∞ Px,y existe, alors par un résultat d’analyse, on a que
t
1 X (u) (t)
lim Px,y = lim Px,y ;
t→∞ t t→∞
u=1
il suffit alors d’appliquer la partie i du présent théorème pour obtenir
+ le résultat.
Dans le cas où un état y est récurrent périodique et que Ey τy < +∞, on
utilise l’équation (†) pour obtenir
t t u t t
1 X (t) 1 X X (u−k) 1 X X (u−k)
Px,y = Py,y Px {τy = k} = Py,y Px {τy = k}
t t t
u=1 u=1 k=1 k=1 u=k
∞ t−k
!
1 X (u)
1{k≤t}
X
= Py,y Px {τy = k} .
t
k=1 u=1
(u)
Supposons que limt→∞ 1t tu=1 Py,y = λ.
P
1.7.3. De retour aux distributions stationnaires. Pour obtenir cette dernière in-
formation, on a utilisé des méthodes analytiques, et ç’a été très ardu. Mais souvenez-vous, au
début de la section 1.7.1, quand on parlait de distributions stationnaires... Le motif n’était-il
pas de trouver une solution simple au problème de la distribution limite ?
Voici venu le temps de boucler la boucle, en rendant plus rigoureux le résultat suggéré
au début du chapitre :
Théorème 1.2. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret
h id’états discret S = {1, 2, 3, . . .} (fini ou dénombrable) irréductible et récurrente,
sur l’espace
avec Ej τj+ < +∞ pour tout j.
X X X
[vj ]i = (Pi,j − δi,j ) = Pi,j − 1 = 0.
j∈S j∈S j∈S
t
1 X (u)
λy = lim Px,y ;
t→∞ t
u=1
1
λy = + ;
Ey τy
1.7. LE THÉORÈME ERGODIQUE ET LA DISTRIBUTION STATIONNAIRE. 65
Ce qu’il faut faire maintenant, c’est montrer que λy est une distribution sta-
tionnaire. On a d’une part que :
t
!
X X 1 X (u)
λz Pz,y = lim Px,z Pz,y
t→∞ t
z∈S z∈S u=1
t X
1 X
(u)
= lim Px,z Pz,y
t→∞ t
u=1 z∈S
t
1X (u+1)
= lim Px,y
t→∞ t
u=1
t+1
!
t+1 1 X
(u)
= lim Px,y − Px,y
t→∞ t t+1
u=1
t+1
1 X (u)
= lim Px,y
t→∞ t + 1
u=1
= λy .
(Pour obtenir la seconde égalité, il faut sortir la limite de la sommation, possi-
blement à l’aide du théorème de convergence dominée. Le reste est le résultat des
équations de Chapman-Kolmogorov, et de réarrangement de termes et de change-
ments d’indices.)
On a donc que les λx forment une solution stationnaire ; sont-ils une distribu-
tions stationnaire ? Eh bien oui ! En effet,
t
!
X X 1 X (u)
λy = lim Px,y
t→∞ t
y∈S x∈S u=1
t X
1 X
(u)
= lim Px,y
t→∞ t
u=1 y∈S
t
1X
= lim 1 = 1.
t→∞ t
u=1
année : il est déclassé une fois pour chaque tranche complète de 100$ qui lui ont été versées,
tandis qu’il est surclassé si il n’a effectué aucune réclamation.
La Métropo’n’cenne estime que, chaque année,
(a) Donner la matrice des probabiltiés de transition en un pas pour X = (Xt )t∈Z+ .
(b) Tracer le graphe des transitions possibles, et identifier la/les classe·s d’équivalence. Pour
chaque classe, indiquer le type (récurrent/transient) et donner la période.
(c) Est-ce que cette chaîne admet une distribution stationnaire ? Si oui, trouver la distribu-
tion stationnaire unique, ou donner une expression générale pour toutes les distributions
stationnaires possibles si il y en a plus d’une.
(d) À long terme, quelle proportion des assuré·e·s paye plus de 80% de la prime maximale
en moyenne chaque année ?
(e) Avant son accident, cela faisait déjà longtemps qu’Alexandre était assuré chez la Mé-
tropo’n’cenne pour son auto. Si la prime maximale est de 1000$ par année, en moyenne
combien Alexandre payait-il par année au cours des dernières années ?
(f) Si Alex est à la classe 5 au départ, en moyenne combien de temps met-il avant de revenir
à la classe 5 ?
50% 50% 0 0 0
50% 0 50% 0 0
P = 15% 35%
0 50% 0
.
3% 12% 35% 0 50%
0, 2% 2, 8% 12% 35% 50%
(c) En vertu du théorème 1.2, il y a une distribution stationnaire unique. Pour le trouver,
on résout :
500 500 150 30 2
π1 = π1 + π2 + π3 + π4 + π5
1000 1000 1000 1000 1000
500 350 120 28
π2 = π1 + pi3 + π4 + π5
1000 1000 1000 1000
π = 500 350 120
3 π2 + π4 + π5
1000 1000 1000
500 350
π4 = π3 + π5
1000 1000
500 500
π5 = π4 + π5
1000 1000
1= π1 +π2 +π3 +π4 +π5 ;
on trouve que la solution doit être :
1
π= (1057, 830, 650, 500, 500).
3537
Ou, en approximations décimales,
π ≈ (30%, 24%, 18%, 14%, 14%).
(d) On demande à long terme, quelle est la probabilité qu’Alexandre paye plus de 80% de
la prime pour une année donnée. Il s’agit de la distribution-limite pour les gens qui sont
dans les classes 1, 2 ou 3, soit
2537
π1 + π2 + π3 = ≈ 72%.
3537
(e) À la limite où Alexandre souscrit depuis longtemps, on assume que la fonction de masse
pour sa classe est donnée par la distribution stationnaire. Alors, on a que
P {N = 1000$ × 100%} = π1
P {N = 1000$ × 90%} = π2
P {N = 1000$ × 85%} = π3
P {N = 1000$ × 80%} = π4
P {N = 1000$ × 75%} = π5 .
On cherche E [N ] – c’est :
E [N ] = 1000$ × (100%π1 + 90%π2 + 85%π3 + 80%π4 + 75%π5 )
1057 9 830 85 650 8 500 75 500
= 1000$ × + · + · + · + ·
3537 10 3537 100 3537 10 3537 100 3537
6263
= 1000$ ×
7074
≈ 885$.
(f) On cherche
1 3537
E5 τ5+ = ≈ 7, 1 ans.
=
π5 500
68 1. LES CHAÎNES DE MARKOV
5 3
1 2
Ceci complète notre étude de la théorie des chaînes de Markov homogènes à temps discret
sur les espaces d’états discrets.
Dans le chapitre 2, nous allons nous intéresser de plus près à deux exemples de chaînes de
Markov à temps discret sur des espaces d’états infinis. Nous verrons comment utiliser certains
autres outils analytiques pour nous tirer d’affaire et résoudre des problèmes intéressants.
Au chapitre 3, nous allons nous intéresser aux chaînes de Markov à temps continu,
d’abord en restant toujours sur les espaces d’états discrets. Au chapitre 4, nous nous pen-
cherons de façon similaire sur différentes applications de cette théorie.
Au chapitre 5, nous nous intéresserons à la théorie des renouvellements, et à certains
résultats utiles. Nous verrons même comment on peut arriver à les utiliser pour traiter les
cas de certains processus qui n’ont pas la propriété de Markov !
Au chapitre 6, nous allons nous pencher sur une classe de processus stochastiques très
intéressants : les martingales.
Finalement, au chapitre 7, nous ferons une brève incursion dans le monde des processus
stochastiques à temps continus sur des espaces d’états continus.
Bref, il y a de quoi faire !
Et la fin du chapitre ? La section 1.8 est un supplèments qui discute brièvement des
chaînes de Markov d’un point de vue plus abstrait, en utilisant des notions très générales
d’analyse fonctionnelle et d’algèbre linéaire.
La section 1.9 regroupe des exercices à faire pour se pratiquer à manier la matière.
Lorsque ceux-ci sont tirés d’une source précise, cette source sera citée.
X : Ω → S est une variable aléatoire à valeurs dans S, alors la mesure µX définie par
µX (A) = P {X ∈ A}
pour tout A ⊆ S (ou au moins tout A dans une tribu de parties mesurables de S), correspond
à la distribution de X. 17
Comme mentionné en début de chapitre, donc : ce qui nous intéresse, c’est la distribution
de notre variable aléatoire Xt – et plus particulièrement, on voudrait savoir comment cette
distribution évoluera dans le temps.
Dans tout le chapitre 1, on s’attaque à cette question d’un point de vue calculatoire
presqu’entièrement calculatoire. Dans ce qui suit, on va plutôt se pencher sur les structures
abstraites. Plutôt que de détailler ce qu’est la distribution de Xt , on va se contenter de la
manipuler comme un objet abstrait – comme un vecteur, en fait.
Les mesures signées. Pour faire ça, il faut prendre un petit pas de recul. En effet, si on
se limite seulement aux distributions sur S, on n’a pas un espace vectoriel. Même si on se
restreint seulement aux mesures positives, on n’a toujours pas un espace vectoriel. Pour ça,
il faut considérer l’espace des mesures signées. Une mesure signée est une mesure (au sens
de la définition B.4) mais qui ne respecte pas le premier axiome – c’est-à-dire qu’on peut
assigner à une partie mesurable une mesure négative.
Si µ est une mesure signée sur S, le théorème de décomposition de Hahn 18 garantit
qu’il existe une partition de S en deux parties P et N , et deux mesures positives µ+ et µ− ,
supportées respectivement sur P et N , et telles que
µ = µ+ − µ− .
On peut définir |µ|, la valeur absolue de la meusure µ, par
|µ| = µ+ + µ− .
Attention ! En général, |µ| (A) ̸= |µ(A)|.
On dit qu’une mesure signée µ sur S est finie lorsque |µ| (S) < +∞.
On introduit M(s) l’ensemble des mesures signées finies sur S. On fait les définitions évi-
dentes pour l’aaddition de deux mesures, et la multiplication d’une mesure par un scalaire :
pour tout A mesurable dans S, et pour tout k ∈ R,
(µ1 + µ2 )(A) = µ1 (A) + µ2 (A); (kµ)(A) = k(µ(A)).
Avec ces définitions, M vérifie les axiomes d’un espace vectoriel !
Le cône positif. Pour retrouver nos distributions, il faut rajouter les axiomes des mesures
de probabilités qui manquent – d’abord, la positivité. On notera M+ (S) l’ensemble des
mesures positives sur S – c’est à dire des mesures de M(S) qui prennent seulement des
valeurs non-négatives. Tous les éléments de M+ (S) sont des mesures au sens exact de la
définition B.4. Nos distributions y sont, mais pas que ! Toutes les mesures positives finies y
sont ! On appelle M+ (S) le cône positif de M(S).
La norme. Pour achever de repérer nos distributions dans l’espace M(S), on va définir
une norme sur M(S). On notera :
∥µ∥ = |µ| (S).
17. On consultera l’annexe B, ou les notes d’André Giroux sur la théroe de la mesure, pour davantage de
détails sur la théorie de la mesure.
18. Consulter l’article Wikipédia en anglais.
70 1. LES CHAÎNES DE MARKOV
Armés de cette norme, c’est évident : les distributions sont précisément les éléments
unitaires du cône positif – c’est à dire les mesures positives dont la mesure totale est de 1.
1.8.2. Les opérateurs stochastiques. Bon, d’accord – on a bel et bien placé nos dis-
tributions – toutes les distributions possibles sur S – dans le contexte d’un espace vectoriel.
Mais qu’est-ce que ça peut bien nous faire ? Eh bien, pour tout temps t, on peut dénoter par
µt ∈ M+ (S) la distribution de Xt . Ce qu’on cherche maintenant, bien entendu, c’est une
façon de « faire évoluer » µt dans le temps – on voudrait bien savoir µt+1 , par exemple, ou
plus généralement, µt+u , pour un quelconque u ≥ 0.
Cet objet, qu’on cherche, c’est une application P (u) : M(S) → M(S), qui a pour
argument une mesure, et qui nous redonne la mesure correspondante après que se soit écoulé
un intervalle de temps de longueur u (on assume que le processus stochastique étudié est
homogène dans le temps).
Immédiatement, on observe que de telles applications doivent respecter certains axiomes :
i. L’opérateur P (0) est l’opérateur identité ;
ii. Pour tout u ≥ 0, l’opérateur P (u) est linéaire : 19
P (u) (kµ1 + µ2 ) = kP (u) µ1 + P (u) µ2 ;
iii. Pour tout u ≥ 0 et toute mesure µ l’opérateur P (u) préserve la masse totale :
P (u) µ(S) = µ(S),
et en particulier, pour les mesures positives, P (u) préserve la norme ;
iv. Pour tous u, v ≥ 0, on a l’équation de Chapman-Kolmogorov :
P (u+v) = P (u) P (v) .
Les plus fûté·e·s d’entre vous aurez reconnus les propriétés détaillées pour les probabilités
de transition à plusieurs reprises, plus haut.
La famille d’opérateurs (P (u) )u≥0 constitue un semi-groupe stochastique. Algébrique-
ment, elle a la structure d’un semi-groupe parce qu’elle est algébriquement fermée pour la
composition, qu’elle admet un élément neutre, et que le produit y est associatif ; notons tou-
tefois que les éléments n’y admettent en général pas d’inverse. L’appellation de semi-groupe
stochastique renvoie à l’équation de Chapman-Kolmogorov spécifiquement, et à la condition
que les opérateurs doivent préserver la norme.
1.8.3. L’espace des operateurs. Si M(S) est un espace vectoriel, on peut introduire
l’espace vectoriel L(M(S)) :
L(M(S)) = {T : M(S) → M(S) : T est linéaire et continue.}
L(M(S)) est l’espace des transformations linéaires continues de notre espace des mesures
signées sur S. Les éléments du semi-groupe stochastique – les P (u) – sont des éléments de
L(M(S)).
On peut introduire une norme aussi sur L(M(S)) : pour tout opérateur linéaire T :
M(S) → M(S), la norme de T dans L(M(S)) est donnée par :
∥T ∥ := sup {∥T (µ)∥ : µ ∈ M(S), ∥µ∥ ≤ 1.}
19. Intuitivement, ceci s’explique par un principe de « superposition » ; si on s’imagine que l’opérateur
agit sur la somme de deux distributions, on veut que chacune de ces deux distributions soit propagée dans
le temps indépendamment l’une de l’autre, un peu comme le sont les ondes ou la chaleur (ce n’est pas une
coincidence non plus !
1.8. BONUS : DU POINT DE VUE DE L’ALGÈBRE ET DE L’ANALYSE. 71
≤ P (u) µ+ + P (u) µ−
= µ+ + µ−
= ∥µ∥ ;
Il suit donc immédiatement que P (u) ≤ 1. Or, puisqu’il existe au moins une distri-
bution µ ∈ M+ (S) avec ∥µ∥ = 1 (donc telle que P (u) µ = 1), on doit aussi avoir que
P (u) ≥ 1, et finalement, pour tout u ≥ 0, l’opérateur stochastique P (u) a la propriété
suivante :
P (u) = 1.
Intuitivement, la norme d’une transformation linéaire indique « le facteur maximal par
lequel la transformation peut allonger un vecteur. » En l’occurence, ici, ce facteur est de 1
pour les opérateurs stochastiques.
La distance entre deux distributions. C’est bien beau tout ça, mais à quoi ça sert ? Pour
le découvrir, on peut s’intéresser à la distance entre deux distributions µ1 et µ2 :
∥µ2 − µ1 ∥ .
Cette distance donne une façon de déterminer si deux distributions sont semblables ou pas.
On s’intéresse à ce qui arrive à la distance entre deux distributions lorsqu’on les fait « avancer
dans le temps » en appliquant l’opérateur P (u) :
P (u) µ1 − P (u) µ2 = P (u) (µ1 − µ2 )
≤ ∥µ1 − µ2 ∥ .
Ce que ce résultat nous indique, c’est que, en avançant dans le temps, la distance entre
deux distributions ne peut pas augmenter.
opérateurs adjoints, valeurs propres et points fixes. En analyse fonctionnelle, l’espace
dual de l’espace vectoriel M(S), noté M(S)′ , est l’espace vectoriel constitué de toutes les
applications linéaires de M(S) dans le corps C des nombres complexes.
Par exemple, l’application f : M(S) → R donnée par
f (µ) = µ(S)
pour tout µ ∈ M(S)
est une application linéaire – c’est donc un élément de l’espace dual de M(S).
Les éléments de l’espace dual sont appelés des covecteurs. Donc, ici, f est un covecteur.
Dans l’espace L(M(S)) des opérateurs linéaires continus sur M(S), on introduit pour
tout opérateur T la notion d’opérateur adjoint noté T ∗ . L’opérateur adjoint T ∗ est un
opérateur linéaire sur l’espace dual M(S)′ , qui est défini pour tout covecteur g par :
T ∗ (g) = g ◦ T.
72 1. LES CHAÎNES DE MARKOV
P {E} = x(0) · uE ,
où
P1 {E}
P2 {E}
uE = P3 {E} .
..
.
Pn {E}
Nous avons vu ce vecteur à la section 1.6, lorsque nous appliquions la méthode
du conditionnement par le premier pas.
74 1. LES CHAÎNES DE MARKOV
1.9. Exercices
Exercice 1.1. Connaissez-vous des phénomènes de la vie courante (au sens large) que vous
pourriez modéliser par des processus stochastiques ? Quel serait l’espace des états ? Ces
processus seraient-ils à temps discret ou continu ?
Exercice 1.2. Pour les processus suivants, dites si oui ou non ils ont la propriété de Markov ;
si oui, sont-ils homogènes ? Si c’est bien le cas, donner une matrice des probabilités de
transition en un pas.
(a) On lance un dé à six faces façon répétée. Soit Sn le total des points observés après n
lancers ; on définit alors Xn ≡ Sn ( mod 6) le reste de la division de Sn par 6.
(b) On pige un dé d’une boîte qui contient des dés à 6, 8, 10, 12 et 20 faces, en proportions
égales. Puis, sans regarder ce qu’on a pigé, on le lance de façon répétée, et un ami nous
annonce le résultat Xn du nième lancer.
(c) À chaque fois qu’il neige, le nombre de jours avant la prochaîne averse de neige suit une
loi de Poisson de paramètre λ > 0. On note Xt le nombre de jours où il a neigé t jours
après la toute première averse de neige.
(d) À chaque fois qu’elle va courir, Clémence note le temps qu’elle met pour parcourir les
5, 3 kilomètres de sa boucle habituelle. En particulier, elle prend note du compteur des
secondes sur son chronomètre – qui affiche un nombre entre 00 et 59. À chaque fois que
le nombre qu’elle observe apparaît pour la première fois, elle le raye d’une liste. Xt est
le nombre de nombres (entre 0 et 59 inclusivement) que Clémence a rayé de sa liste.
Exercice 1.3 (Lessard, ex. 1.1). Supposons que le temps qu’il fait d’une journée à la
suivante est décrit par une chaîne de Markov sur les états 1, 2, 3 (1 pour ensoleillé, 2 pour
nuageux, 3 pour pluvieux ), dont la matrice de transition en un pas est donnée par
1/2 1/2 0
P = 1/4 1/2 1/4 .
0 1/2 1/2
On est jeudi et c’est nuageux. Déterminer :
(a) la probabilité que les trois prochains jours soient ensoleillés ;
(b) la probabilité que dimanche prochain soit ensoleillé.
76 1. LES CHAÎNES DE MARKOV
Exercice 1.4 (Lessard, ex. 1.2). En utilisant les propriétés des matrices de transition
pour les chaînes de Markov homogènes à temps discret, montrer que si P (t) et P sont les
matrices de probabilités de transition en t unités de temps et en un pas respectivement,
pour une chaîne de Markov à deux états {1, 2}, on a toujours
(2) (2)
P1,1 ≥ P2,1 .
Exercice 1.5 (Lessard, ex. 1.3). Une chaîne de production comprend deux machines-outils
qui fonctionnent indépendamment l’une de l’autre. Chaque machine-outil a une fiabilité de
90% au cours d’une journée, ce qui signifie que sa probabilité de tomber en panne pendant
cette période est de 10%. Il faut une nuit pour réparer une machine-outil qui tombe en
panne, mais une seule à la fois peut être réparée.
(a) Quelle est la matrice de transition pour le nombre de machines-outils en état de fonc-
tionnement au début d’une journée (les indices pourront commencer en 0).
(b) S’il faut deux nuits pour réparer une machine-outil, quels états doit-on considérer pour
que notre chaîne ait la propriété de Markov ? Quelle est la matrice de transition ?
Exercice 1.6. Soit P la matrice des probabilités de transition en un pas pour une chaîne
de Markov à temps discret homogène sur un espace d’états S = {1, 2, 3, . . . , n}.
(a) Montrer que λ = 1 est une valeur propre de P .
(b) Montrer que le vecteur-colonne 1n = (1, 1, 1, . . . , 1) est un vecteur propre de P associé
à la valeur propre λ = 1.
(c) Montrer que dim ker(P − In ) < n.
Exercice 1.7 (Lessard, ex. 1.4). On considère un pentagone régulier dont les sommets
sont numérotés de 1 à 5 dans le sens horaire. Initialement, deux coccinelles sont placées aux
sommets 1 et 3. À chaque instant suivant, chacune des coccinelles se déplace indépendam-
ment de l’autre, vers l’un des deux sommets adjacents, chacun ayant probabilité 1/2.
Combien de temps faudra-t-il en moyenne pour que les deux coccinelles se rencontrent au
même sommet ?
Indice : Considérer la distance en nombre d’arêtes entre les deux coccinelles...
Exercice 1.8 (Lessard, ex. 1.5). Anastasia et Barrah jouent au tennis de table ; toutes
les deux sont excellentes et elles sont rendues à 21 points chacune – à partir de maintenant,
l’une d’entre elles doit avoir au moins deux points d’avance pour remporter la victoire. Une
joueuse avec un point d’avance est dite avoir « l’avantage ».
En supposant qu’Anastasia remporte chaque point indépendamment avec probabilité p, et
Barrah avec probabilité q = 1 − p,
(a) déterminer la probabilité qu’Anastasia remporte la partie, et
(b) donner l’espérance du nombre de fois où Anastasia sera en avantage avant la fin du jeu.
1.9. EXERCICES 77
Exercice 1.9 (Lessard, ex. 1.6). On lance une pièce de monnaie équilibrée plusieurs fois
indépendamment, jusqu’à obtenir trois « Face » de suite. Les résultats des trois premiers
jets sont « Face, Pile, Face ».
En incluant ces trois premiers jets, déterminer la probabilité d’obtenir trois « Pile » consé-
cutifs avant la fin du jeu.
Exercice 1.10 (Lessard, ex. 1.7). Une espèce de fleurs peut se trouver dans trois états :
(1) viable ;
(2) en voie de disparition ;
(3) éteinte.
Les probabilités des transitions d’une année à l’autre sont données par les matrices suivantes :
85% 15% 0 90% 10% 0
P (0, 1) = 0 70% 30% P (1, 2) = 10% 70% 20%
0 0 100% 0 0 100%
95% 5% 0 95% 5% 0
P (2, 3) = 20% 70% 10% P (t − 1, t) = 50% 50% 0 t > 3.
0 0 100% 0 0 100%
Calculer la probabilité que l’espèce de fleurs s’éteigne ultimement, étant donné qu’elle est
initialement en voie de disparition.
Exercice 1.11 (Lessard, ex. 1.14). Tracer les graphes des transitions possibles, identifier
les classes d’équivalence et donner les types d’états pour les chaînes de Markov dont les
matrices de transition en un pas sont les suivantes :
0 1/3 1/3 0 1/3 0 1/4 0 0 1/4 1/4 1/4
1/2 0 0 1/2 0 0 0 1 0 0 0 0
(a) 0
0 0 1 0
1/3 0 0 1/3 0
0 1/3
(b)
0 0 0 0 1 1/2 0 0 0 1/2 0 0
0 0 1/2 1/2 0 0
0 0 0 0 1 0
0 0 0 0 1/2 0 1/2
0 0 0 0 0 1/2 1/2
78 1. LES CHAÎNES DE MARKOV
Exercice 1.12. Pour chacune des matrices de probabilités de transition en un pas suivantes,
dessiner les graphes des transitions possibles, identifier les classes d’équivalence et dire si elles
sont ouvertes ou fermées.
(a)
0 0 1 0 0 0
1 0 0 0 0 0
0 1/2 0 1/2 0 0
P =
0 0 0 0 1 0
0 0 0 0 0 1
0 0 0 1 0 0
(b)
0 1/3 1/3 0 1/3
1/2 0 0 1/2 0
P = 0
0 0 1 0
0 0 0 0 1
0 0 1/2 1/2 0
(c)
0 1/4 0 0 1/4 1/4 1/4
0 0 1 0 0 0 0
1/3 0 0 1/3 0 0 1/3
1/2 0 0 0 1/2 0
P = 0
0 0 0 0 0 1 0
0 0 0 0 1/2 0 1/2
0 0 0 0 0 1/2 1/2
Exercice 1.13. Cinq boules blanches et cinq boules noires sont distribées dans deux urnes
A et B ; chacune contient cinq boules (pas forcément de la même couleur). On va procéder
à des échanges successifs entre deux boules choisies au hasard dans les urnes. On note Xt le
nombre de boules blanches dans l’urne A.
(a) Expliquer pourquoi Xt est une chaîne de Markov homogène.
(b) Quel est l’espace des états possibles pour X = (Xt )t∈Z+ .
(c) Donner les probabilités de transition.
(d) Dessinter le graphe des transitions possibles. Combien y a-t-il de classes d’équivalence ?
1.9. EXERCICES 79
Exercice 1.15. On lance un dé à six faces de façon répétée, et on note Xt le minimum des
résultats observés après t lancers (pour t ≥ 1).
(a) Donner la matrice des probabilités de transition en un pas P pour cette chaîne de
Markov.
(b) Combien y a-t-il de classes d’équivalence ? Lesquelles sont ouvertes ? Fermées ?
(c) Donner limt→∞ P (t) .
Exercice 1.16. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret sur
l’espace des états S = {1, 2, 3, . . . , n}, avec matrice de probabilités de transition en un pas
P.
On suppose que P est une matrice triangulaire supérieure.
(a) Montrer que chaque état est seul dans sa classe d’équivalence.
Indice : deux états i, j ∈ S communiquent si et seulement si il existe un cycle qui
passe par i et par j.
(b) Montrer que Pn,n = 1.
(c) On suppose que Pi,i < 1 pour tout i ̸= n. Expliquer pourquoi, dans ce cas, on a que
(t)
limt→∞ Pi,n = 1.
80 1. LES CHAÎNES DE MARKOV
Exercice 1.17. Soit X = (Xt )t∈Z+ une chaîne de Markov sur l’espace des états S = Z+ =
{0, 1, 2, . . .} , avec
1 k
P0,1 = 1; Pk,0 = , Pk,k+1 = ∀k ≥ 1.
k+1 k+1
(a) Esquisser le graphe des transitions possibles pour cette chaîne de Markov.
(b) Combien y a-t-il de classes d’équivalence ? Pour chacune, dire si elles sont fermées ou
ouvertes.
(t)
(c) Calculer P0,t pour t ≥ 1.
(d) En partant de 0, quelle est la probabilité qu’on revienne en 0 pour la première fois au
temps t ?
(e) Quelle est la probabilité de ne jamais revenir à l’état 0 sachant qu’on part de 0 ?
Indice : prendre la limite de la partie (d) lorsque t tend vers l’infini.
Exercice 1.18. Pour chaque état de chacune des matrices à l’exercice 1.12,
(a) déterminer s’il est récurrent ou transient ;
(b) déterminer sa période.
Exercice 1.20. Pour le processus avec la matrice comme à l’exercice 1.14, calculer E1 [τ2 ]
et E3 [τ2 ].
Exercice 1.22. Soit X = (Xt )t∈Z+ une chaîne de Markov homogène à temps discret sur
l’espace des états S = Z, avec les probabilités de transition en un pas
Pi,i+1 = p > q = 1 − p = Pi,i−1 .
(a) On définit la famille d’événements (En = {τn < τ−1 })n∈N . Calculer P0 {En }.
(b) Montrer que si X0 = 0, alors En ⊇ En+1 pour tout n ; déduire que
( )
\
lim P0 {En } = P0 Ek .
n→∞
k∈N
Exercice 1.23 (Lessard, ex. 1.34). Kamila et Mahily jouent à roche-papier-ciseaux jusqu’à
ce que l’une des deux mène par deux parties sur son adversaire. Pour rappel : Le papier
enveloppe la roche, la roche casse les ciseaux et les ciseaux coupent le papier ; le choix de
deux stratégies identiques résulte en une partie nulle.
Soit Xt la différence entre le nombre de victoires de Kamila et le nombre de victoires de
Mahily.
(a) Quels sont les états pour cette chaîne ? Donner la matrice de transition en un pas.
(b) Donner l’espérance du nombre de parties avant la fin du jeu.
Exercice 1.24 (Lessard, ex 1.16). On considère la chaîne de Markov sur Z, avec les
probabilités de transition en un pas suivantes pour tout i ∈ Z :
Pi,i−1 = 1 − p, Pi,i+1 = p
(t)
(a) Déterminer P0,0 .
(b) Déterminer pour quelles valeurs de p les états sont récurrents, et pour quelles valeurs de
p ils sont transients.
Exercice 1.25. Sur une autoroute, il y a des camions et des autos. Le 3/4 des autos sont
suivies par une autre auto, et 1/5 des camions sont suivis par un autre camion. On note Xt
le type du tième véhicule sur la route – 1 pour une auto, et 2 pour un camion.
(a) Donner la matrice des probabilités de transition en un pas pour ce processus.
(b) En moyenne sur un long tronçon de cette route, quel pourcentage des véhicules sont des
camions ?
82 1. LES CHAÎNES DE MARKOV
Exercice 1.26 (Lessard, ex. 1.18). Supposons que, d’une génération à la suivante, les
familles changent de groupe de revenu (bas, moyen, élevé) selon une chaîne de Markov dont
la matrice des probabilités de transition en un pas est donnée par
80% 15% 5%
P = 30% 60% 10% .
0% 20% 80%
Quel sera la répartition à long terme des familles dans ces trois classes ?
Exercice 1.27 (Lessard, ex. 1.19). Les résultats successifs de parties d’échecs d’un joueur
contre un logiciel d’échecs suivent une chaîne de Markov sur les états S = {1, 2, 3}, où 1
correspond à une victoire, 2 correspond à une défaite, et 3 correspond à une partie nulle. La
matrice des probabilités de transition en un pas est donnée par :
3/4 0 1/4
P = 0 3/4 1/4 .
1/2 1/4 1/4
(a) Déterminer la proportion moyenne p de victoires à long terme pour ce joueur.
(b) Donner l’espérance du nombre de parties entre deux victoires.
(c) En supposant plutôt que le joueur remporte chaque partie de façon indépendante avec
probabilité p, déterminer maintenant l’espérance du nombre de parties entre deux vic-
toires. Comparer avec le résultat précédent, et commenter.
(d) Chaque victoire compte pour trois points, et chaque partie nulle compte pour un point.
Les défaites ne comptent pour aucun point. À long terme, en moyenne combien de points
le joueur accumule-t-il par partie ?
Exercice 1.28 (Lessard, ex. 1.20). Soit Sn la somme du nombre de points observés après
n lancers d’un dé équilibré à six faces. Est-ce que P {Sn ≡ 0 ( mod 6)} converge lorsque n
tend vers l’infini ?
1.9. EXERCICES 83
Exercice 1.29 (Lessard, ex. 1.24). Une chaîne de Markov sur un nombre fini d’états avec
matrice de probabilités de transition en un pas P est dite régulière s’il existe un certain
N tel que la matrice des probabilités de transition en N pas P N est strictement positive
(c’est-à-dire que toutes les entrées sont strictement positives).
(a) Donner un exemple d’une chaîne de Markov irréductible qui n’est pas régulière.
(b) Montrer que la chaîne de Markov sur S = {1, 2, 3, 4, 5} avec la matrice des probabilités
de transition en un pas
3/4 1/4 0 0 0
3/4 0 1/4 0 0
3/4 0
P = 0 1/4 0
3/4 0 0 0 1/4
1 0 0 0 0
est régulière.
(c) A-t-elle une distribution stationnaire unique ? Si oui, quelle est-elle ?
(d) Donner une condition suffisante pour qu’une chaîne de Markov soit régulière.
Exercice 1.30 (Lessard, ex. 1.25). Une sauterelle se déplace sur les sites 1, 2 et 3 disposés
sur un cercle en allant à chaque saut au site adjacent (dans le sens horaire) avec probabilité
p, et dans le sens anti-horaire avec probabilité 1 − p.
(t)
(a) Déterminer les valeurs de p pour lesquelles Pi,j converge lorsque t tend vers l’infini, pour
tous i, j. Dans ces cas, trouver les limites.
(u)
(b) Trouver les valeurs de p pour lesquelles 1t tu=1 Pi,j converge lorsque t tend vers l’infini.
P
Trouver les limites.
(c) Répondre aux mêmes questions si on a plutôt N sites, pour N ∈ N.
Exercice 1.31 (Lessard, ex. 1.29). Il vous en coûte 2$ pour jouer dans une machine à
sous, qui vous redonne 3$ lorsque vous gagnez la partie. Pour vous encourager à y jouer, le
casino annonce en grosses lettres qu’il y a toujours au moins 50% de chances de gagner.
En effet, le fonctionnement de la machine est de telle sorte que, pour chaque partie, la
probabilité de gagner est égale à (k + 1)/(k + 2), où k est le nombre de défaites aux deux
parties précédentes.
On souhaite déterminer si cette machine à sous est profitable pour le casino en utilisant une
chaîne de Markov.
(a) Quelle chaîne de Markov peut-on utiliser pour résoudre ce problème ? Donner les états
et la matrice des probabilités de transition en un pas.
(b) Trouver la distribution stationnaire pour cette chaîne de Markov.
(c) En vous servant de la distribution stationnaire, déterminer si l’espérance de l’argent
gagné par le casino en moyenne en une partie est positive ou négative.
Chapitre 2
Au chapitre 1, nous avons introduit les notions de base de la théorie des chaînes de
Markov, et nous avons développé des outils analytiques pratiques pour l’étude de chaînes
homogènes à temps discret sur des espaces d’états discrets ; notamment, nous avons fourni
une charactérisation assez complète du comportement de chaînes sur un nombre fini d’états.
Les chaînes sur des nombres infinis d’états peuvent être plus complexes à étudier, et
même si les fondements théoriques sont les mêmes, l’étude de chaînes particulières requiérera
l’emploi de techniques et de méthodes particulières adaptées aux sujets à l’étude.
Dans ce chapitre, nous allons nous intéresser à deux types de chaînes de Markov spéci-
fique ; pour chacune d’entre elles, nous explorerons les principaux résultats qu’il est possible
d’obtenir, et explorerons les méthodes employées pour y parvenir.
85
86 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
Il suit que Zt ne dépend que de (ξu,i )u<t,i∈N ; en particulier, pour tout t, Zt est indépen-
dant de ξt,n pour tout n ∈ N.
Lemme 2.1. Le processus Z = (Zt )t∈Z+ est une chaîne de Markov homogène à temps
discret sur l’espace des états S = Z+ .
Démonstration. En effet, sachant que Zt = k, la loi de Zt+1 est tout simplement la
loi d’une somme de k variables aléatoires i.i.d. avec fonction de masse p ; cette loi ne dépend
pas de Zu pour u < t – donc c’est une chaîne de Markov. Mais cette loi ne dépend pas non
plus de t ; donc le processus est homogène. □
Solution. On cherche P {Zt+1 = j | Zt = i}. Comme mentionné plus haut, sachant que
Zt = i, la loi de Zt+1 est simplement la loi d’une somme de i variables aléatoires géométriques
indépendantes de paramètre q ; on sait aussi que cette loi est une loi binomiale négative de
paramètres (i, q) ; donc, pour j ≥ i :
j−1
Pi,j = (1 − q)j−i q i .
i−1
(t) (t)
Pk,0 = (P1,0 )k .
Dans l’exemple 2.2, ce que nous venons de voir, c’est que l’état 0 joue un rôle un peu
particulier dans un processus de Galton-Watson : il signifie la fin de la reproduction pour les
individus de la population. Si on assume que chaque individu meure après s’être reproduit,
l’état 0 représente la fin du processus, l’extinction de la population.
Questions intéressantes. De façon générale, les quantités qui vont nous intéresser
sont :
(t)
– P1,k = P {Zt = k | Z0 = 1}, la distribution du nombre d’individus de la t-ième
génération, et en particulier,
(t)
– P1,0 , la probabilité qu’il n’y ait aucun individu né à la t-ième génération – c’est-à-
dire que la population s’est éteinte à un moment avant la tième génération inclusi-
vement.
On note τ0 = inf {t ∈ Z+ : Zt = 0} le temps d’atteinte de l’état 0. La question primor-
diale est de connaître la probabilité de toucher 0 éventuellement ; on recherche
P1 {τ0 < +∞} ,
ce que l’on appellera la probabilité d’extinction.
On peut déjà entrevoir au moins un résultat amusant :
88 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
Démonstration. Puisque les p(k) sont des probabilités, on a que |p(k)| ≤ 1 pour tout
k, et il suit par comparaison que la série
∞
X
p(k)sk
k=0
converge pour tout s ∈ (−1, 1). Si s = −1, on a que
X∞
ψ(−1) = (−1)k p(k).
k=0
Or, cette série est absolument convergente – donc elle est convergente – puisque ∞
P
k=0 p(k) =
1; c’est également pour cela qu’on peut affirmer que la Pn série converge pour s = 1. Donc,
ψ(s) est bien définie. Par ailleurs, si on écrit fn (s) = k=0 p(k)s pour la n-ième somme
k
X
sup |ψ(s) − fn (s)| = sup p(k)sk
s∈[−1,1] s∈[−1,1] k>n
X
≤ p(k);
k>n
On conclue en remarquant que tend vers 0 lorsque n tend vers l’infini.
P
k>n p(k) □
Remarque. Le rayon de convergence n’est pas forcément strictement égal à 1 ; il peut
être plus grand. Mais on sait au moins que ψ(s) est définie sur l’intervalle [−1, 1].
Lemme 2.4. La fonction ψ(s) est infiniment dérivable (on dit aussi lisse) sur l’intervalle
nième dérivée de ψ, notée ψ (n) , correspond à la nième dérivée,
(−1, 1). Sur cet intervalle, la P
terme par terme, de la série k≥0 p(k)sk :
k! Z1 !
1{Z1 ≥n} ;
X
Z1 −n
(2.1.5) (n)
ψ (s) = p(k) s k−n
=E s
(k − n)! (Z1 − n)!
k≥n
Cette série converge uniformément sur tout intervalle [−ϵ, ϵ] pour 0 < ϵ < 1. En particulier,
pour tout n, on a que :
(2.1.6) ψ (n) (0) = n!p(n)
Si E [Z1n ] < +∞, alors cette série converge uniformément sur [−1, 1] et on peut étendre,
par continuité, la fonction ψ (n) à l’intervalle fermé [−1, 1] avec :
(2.1.7) ψ (n) (±1) = lim ψ (n) (s).
s→±1∓
En particulier, on a que :
Z1 !
(2.1.8) (n)
ψ (1) = E 1 = E [Z1 (Z1 − 1)(Z1 − 2) · · · (Z1 − n + 1)]
(Z1 − n)! {Z1 ≥n}
est le nième moment factoriel de Z1 .
Démonstration. On a que (k−n)! k!
≤ k n . Il suffit donc de montrer que la série k≥n p(k)k n sk−n
P
converge uniformément sur l’intervalle (−ϵ, ϵ) pour tout ϵ ∈ (0, 1). En supposant que
s ∈ [−ϵ, ϵ], la valeur absolue du terme général est bornée par ≤ k n ϵk ; c’est une série qui
converge. On prouve alors la convergence uniforme de façon similaire à la preuve du Lemme
2.3. On peut donc dériver terme par terme une infinité de fois
Maintenant, si on suppose que E [Z1n ] < +∞, la série k≥n k n p(k) converge, et donc
P
k!
p(k) converge aussi, et on peut prouver la convergence uniforme de la série
P
k ≥ n (k−n)!
k! k−n ur l’intervalle [−1, 1] de la même façon qu’on l’a fait dans le Lemme
P
k≥n p(k) (k−n)! s
2.3. Il suit que les limites lims→±1∓ ψ (n) (s) existent et sont bien égales aux valeurs corres-
pondantes des séries. □
Lemme 2.5. La fonction ψ et ses dérivées sont positives, croissantes et convexes 1 partout
où elles sont définies dans l’intervalle [0, 1].
Démonstration. Si s ≥ 0, alors le terme général de la série qui définit ψ (et de celles
qui sont égales à ses dérivées) est positif : p(k)sk ≥ 0. Par conséquent, ψ(s) ≥ 0, et de même,
ψ (n) (s) ≥ 0. En particulier, les premières et secondes dérivées de ψ et de ψ (n) sont positives
partout où elles sont définies sur [0, 1], et il suit immédiatement qu’elles sont croissantes et
convexes (pas forcément strictement). □
1.0
0.8
0.6
0.4
0.2
(t)
déjà que la limite limt→∞ P1,0 existe, et que :
(t)
lim P1,0 = P1 {τ0 < +∞} .
t→∞
(t) (t)
On a également vu, à la partie (b) de l’exemple 2.2, que Pk,0 = (P1,0 )k . On va se servir
de ces deux faits pour raisonner, en obtenant une récurrence, par un conditionnement par
le premier pas :
∞
(t)
X
P1,0 = P1 {Zt = 0 | Z1 = k} P1 {Z1 = k}
k=0
∞
(t−1)
X
= p(k)Pk,0 .
k=0
La seconde égalité s’obtient en vertu du fait que P1 {Zt = 0 | Z1 = k} est simplement égale
à Pk Zt−1 = 0 par homogénéïté et la propriété de Markov ; quant à P1 {Z1 = k}, c’est la
probabilité que l’individu de la génération 0 ait eu k enfants, soit p(k).
On utilise maintenant le résultat de l’exemple 2.2 (b), pour écrire :
∞
(t) (t−1) (t−1)
X
(2.1.9) P1,0 = p(k)(P1,0 )k = ψ(P1,0 ).
k=0
Cette relation de récurrence s’avère très utile ; en effet, puisque la fonction ψ est continue
(t) (t−1)
sur [0, 1], et que la limite limt→∞ P1,0 = u (et limt→∞ P1,0 = u) existe, on doit avoir que
cette limite u satisfait :
u = ψ(u).
La limite u est donc ce que l’on appelle un point fixe de la fonction ψ – c’est un point
de l’intervalle où ψ est définie, et dont l’image par ψ est simplement le point lui-même.
Sur un graphe de la fonction ψ(s) pour s ∈ [0, 1], les points fixes sont les endroits où le
graphe de la fonction croise la diagonale y = s (représentée en pointillés sur la figure 2.2).
Notre objectif, maintenant, c’est d’identifier les points fixes de la fonction ψ. On peut
déjà faire la proposition suivante :
Proposition 2.1. Soit Z = (Zt )t∈Z+ un processus de Galton-Watson avec fonction de
masse du nombre d’enfants p, fonction génératrice des probabilités pour le nombre d’enfants
ψ, et µ = E [Z1 ] = ψ ′ (1). Alors,
i. si µ ≤ 1, alors la probabilité d’extinction est de 1 :
P1 {τ0 < +∞} = 1.
ii. si µ > 1, alors la probabilité P1 {τ0 < +∞} = u est l’unique nombre dans l’intervalle
(0, 1) qui satisfait u = ψ(u).
Démonstration. i On sait déjà que la valeur u = 1 satisfait u = ψ(u) ; il faut
maintenant montrer que c’est la seule valeur possible qui satisfait cette équation
dans l’intervalle [0, 1]. Pour ce faire, on utilise des arguments d’analyse simples. On
peut comprendre intuitivement ce qui se passe lorsqu’on regarde la courbe bleue de
la figure 2.2 – lorsque µ = ψ ′ (1) ≤ 1, le graphe de ψ doit se situer au-dessus de la
diagonale pointillée sauf en s = 1.
On considère la fonction f (s) = ψ(s) − s ; on veut montrer qu’elle ne peut pas
s’annuler avant s = 1. On a que f (0) = p(0) > 0, et f (1) = 0. Or, la fonction
2.1. LE PROCESSUS DE GALTON-WATSON. 93
f a pour dérivée f ′ (s) = ψ ′ (s) − 1, et bien sûr, la fonction ψ ′ (s) est strictement
croissante en s (puisque ψ est strictement convexe) ; Puisque ψ ′ (1) = µ ≤ 1, on
doit avoir que ψ ′ (s) < 1 pour tout s < 1.
Donc, on a que f ′ (s) = ψ ′ (s) − 1 < 0 pour tout s < 1, et il suit que la fonction
f est strictement décroissante sur l’intervalle [0, 1) ; en supposant qu’il existe u < 1
tel que f (u) = 0, on devrait donc avoir f (1) < 0, ce qui est contradictoire puisqu’on
sait que f (1) = 0.
Donc, u = 1 est bel et bien la seule solution de l’équation u = ψ(u) dans ce cas.
(t)
Or, la limite u = limt→∞ P1,0 = P1 {τ0 < +∞} par le théorème ergodique, et il
suit nécessairement que P1 {τ0 < +∞} = 1.
ii Si on suppose plutôt que µ > 1, alors, toujours avec notre fonction f (s) = ψ(s) − s,
on a que f ′ (1) > 0, tandis que f ′ (0) = ψ ′ (0) − 1 = p(1) − 1 < 0. Par continuité,
monotonicité de f ′ et le théorème des valeurs intermédiaires, il existe exactement un
unique point x ∈ (0, 1) tel que f ′ (x) = 0 ; ce point doit être un minimum absolu pour
la fonction f sur l’intervalle [0, 1], puisque cette dernière est strictement convexe
(en effet, f ′′ (s) = ψ ′′ (s) > 0). On doit donc avoir f (x) < 0.
Encore par le théorème des valeurs intermédiaires, et par monotonicité de f sur
l’intervalle [0, x], on doit donc avoir un unique u < x tel que f (u) = 0. Il existe
donc un unique u ∈ (0, 1) qui satisfait f (u) = 0.
Par convexité de f , on a que :
– pour tout s ∈ [0, u), f (u) > 0 ;
– pour tout s ∈ (u, 1), f (u) < 0.
Encore une fois, on comprend bien ce qui arrive en regardant la courbe jaune de la
figure 2.2 : la fonction génératrice ψ ne peut croiser la diagonnale pointillée qu’une
seule fois avant s = 1.
Mais on a donc deux valeurs possible dans [0, 1] qui satisfont l’équation u =
ψ(u) : 1, et une autre strictement plus petite que 1. On va montrer que la suite
(t)
P1,0 ne converge pas vers 1, en procédant par contradiction.
(t)
Supposons que limt→∞ P1,0 = 1. Dans ce cas, il existe un certain N ∈ N tel que
(t)
pour tout t > N , on a que P1,0 > u, où u est le point fixe non-trivial de ψ (donc
0 < u < 1).
(t)
puisque P1,0 > u pour tout t > N , alors il suit que, si t > N , on a que
(t+1) (t) (t)
P1,0 = ψ(P1,0 ) < P1,0 ,
(t)
soit que la suite décroit strictement. Puisque la suite P1,0 est strictement décrois-
sante et bornée supérieurement par 1, sa limite doit être strictement inférieure à 1,
ce qui contredit l’hypothèse que nous avons introduite ; on doit donc la rejeter : la
(t)
suite P1,0 ne peut pas converger vers 1 si µ > 1.
(t)
Donc, on est forcé·e·s de conclure que la limite de la suite P1,0 est l’unique
valeur u contenue dans (0, 1) et qui satisfait u = ψ(u).
□
94 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
8.
(a) Quelle est la valeur de E [Z1 ] ?
(b) Ce processus s’éteindra-t-il forcément ? Si non, quelle est la probabilité de survie ?
Solution. (a) On a que E [Z1 ] = np = 3
2 = µ.
(b) Puisque µ = 32 > 1, il suit que le processus a une probabilité d’extinction inférieure à 1
– donc une probabilité de survie positive.
Pour trouver la probabilité de survie, il faut d’abord trouver ψ(s) ; c’est :
1 3 3 1
ψ(s) = + s + s2 + s3 .
8 8 8 8
On veut maintenant résoudre :
ψ(s) = s.
On obtient l’équation :
s3 + 3s2 − 5s + 1 = 0.
Évidemment, s = 1 satisfait cette équation ; on peut donc factoriser (s − 1). On trouve
que
s3 + 3s2 − 5s + 1 = (s − 1)(s2 + 4s − 1),
et on peut maintenant résoudre
0 = s2 + 4s − 1
= (s2 + 4s + 4) − 5
= (s + 2)2 − 5.
√ √
Finalement, on trouve que (s + 2) = ± 5, donc que s = −2 ± 5.
Bien
√ sûr, on veut une solution entre 0 et 1 exclusivement. Il faut donc prendre
s = 5 − 2.
Finalement, on a donc que
√
P1 {τ0 < +∞} = 5 − 2 ≈ 23, 6%.
La probabilité de survie est donc
√
1 − P1 {τ0 < +∞} = 3 − 5 ≈ 76, 4%.
Donc,
E sZt Zt−1 = ψ(s)Zt−1 ,
On conclue donc :
ψt = ψt−1 ◦ ψ.
Évidemment ψ1 = ψ par définition de ψ ; on voit facilement que l’équation 2.1.11 est
vraie par induction sur t. □
Les détails de la distribution de Zt peuvent tout de même rester ardus à obtenir ; il faut
d’abord calculer ψt , puis la dériver plusieurs fois. Mais c’est théoriquement possible. Par
ailleurs, on peut montrer certaines choses assez facilement.
Proposition 2.3. Soit Z = (Zt )t∈Z+ un processus de Galton-Watson avec µ = E1 [Z1 ] .
Alors, on a que
(2.1.12) E1 [Zt ] = µt .
Démonstration. Soient ψ et ψt les fonctions génératrices des probabilités respective-
ment pour Z1 et Zt ; alors, on a que : ψt (s) = ψt−1 (ψ(s)), et en dérvant, on trouve :
ψt′ (s) = ψt−1
′
(ψ(s))ψ ′ (s).
Donc,
ψt′ (1) = ψt−1
′
(ψ(1))ψ ′ (1) = ψt−1
′
(1)µ.
96 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
Bien sûr, avec ψ1′ (1) = ψ ′ (1) = µ, on trouve donc, par récurrence, que
ψt′ (1) = E1 [Zt ] = µt .
□
2.2.1. Le cas d = 1. Le modèle en une dimension nous est déjà quelque peu familier :
on suppose que les probabilités de transition sont données par
Pi,i+1 = p Pi,i−1 = q = 1 − p,
où p fait office de paramètre.
La figure 2.3 montre des trajectoires typiques pour différentes valeurs de p.
L’analyse de ce processus nous est déjà quelque peu familière ; nous savons déjà qu’il n’y
a qu’une seule classe d’équivalence.
Proposition 2.4. Soit X = (Xt )t∈Z+ une marche aléatoire sur Z avec probabilités de
transition en un pas Pi,i+1 = p et Pi,i−1 = 1 − p =: q.
Alors, l’espérance du temps de retour en 0 est infinie :
E0 τ0+ = +∞.
2.2. LA MARCHE ALÉATOIRE SUR Zd 97
40 60
20 40
20
100 200 300 400 500
-20
100 200 300 400 500
-20
-40
300
150
250
200
100
150
100
50
50
100 200 300 400 500 100 200 300 400 500
Figure 2.3 – Pour chaque valeur de p, 30 réalisations des 500 premiers pas
d’une marche aléatoire sur Z.
Démonstration. En supposant que cette espérance est finie, puisque la chaîne est
irréductible, on devrait avoir que
(t)
lim P0,0 = 1/E0 τ0+ ,
t→∞
or, puisque la chaîne est irréductible et que l’espérance est finie, il existe une distribution
stationnaire. Mais on a
πi = πi−1 p + πi+1 q;
En soustrayant qπi + pπi−1 de part et d’autre on trouve
p(πi − πi−1 ) = q(πi+1 − πi ),
ou, réarrangeant :
p
πi+1 − πi =(πi − πi−1 ).
q
On remarque donc que la différence entre les πi est au mieux constante lorsque p = q, ou
exponentielle si p ̸= q ; puisque ces équations sont valides pour tous i ∈ Z, si p ̸= q, on
peut toujours trouver un i tel que πi > 1, peu importe la valeur de π0 et π1 . Ceci est une
contradiction, et on doit conclure que, bien qu’il puisse exister une solution stationnaire, ça
n’est pas une distribution.
Si p = q, la différence entre πi et πi−1 est constante – elle doit être nulle, sinon, il y a
forcément un i tel que πi < 0. Mais alors, les seules solutions stationnaires sont de la forme
πi = C, et il n’en existe aucune qui satisfait la condition de normalisation. Donc il n’y a
toujours pas de distribution stationnaire.
98 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
On a donc : √
1 2n 4πn (2n/e)2n 1
n
∼ 2n =√ ,
4 n 4n 2πn (n/e) πn
P∞ P∞
et bien sûr, n=1
√1
πn
diverge, donc t=1 P0 {Xt = 0} aussi, et l’état 0 est récurrent. □
Les limites supérieures et inférieures ; la vitesse de croisière. Par la loi des grands
nombres, on a bien sûr que
Xt
(2.2.1) lim = p − q p. s.
t→∞ t
Ceci nous donne une indication sur la vitesse de croisière de la marche ; elle s’éloigne de son
point d’origine à un rythme moyen égal à (p − q) pas par unité de temps.
Bien sûr, lorsque p = q = 12 , cette vitesse de croisière est nulle. Néanmoins, on sait que
pour tout élément ±i, avec i ∈ N, on a que, puisque la chaîne est irréductible et que les
états sont récurrents,
P0 {τ±i < +∞} = 1;
c’est à dire qu’on atteindra éventuellement tous les éléments de Z. Autrement dit, dans le
cas récurrent :
(2.2.2) lim sup ±Xt = +∞ p. s.
t→∞
Si on souhaite être plus précis, on peut utiliser à nouveau le théorème
√ de la limite centrale
dans le cas récurrent : dans ce cas, la variable aléatoire Zt = Xt / t converge en distribution
vers une variable aléatoire de loi normale standard ; conséquemment, Zt2 = Xt2 /t converge
en distribution vers une variable aléatoire de loi χ2 ; on a donc que
Var [Xt ] ∼ t.
La figure 2.4 montre les excurisions lors des 50 premiers pas d’une marche aléatoire
récurrente sur Z.
On peut se convaincre que :
P0 {H ≥ n} = P1 {τn < τ0 } ;
en effet, l’excursion sera de hauteur au moins n si et seulement si, partant de 0, selon qu’on
est allé.e.s d’abord à ±1, on touche ensuite ±n avant de revenir en 0. Comme nous l’avons
vu à l’exemple 1.17, cette probabilité est donc :
1
P0 {H ≥ n} = ;
n
on peut donc caractériser complètement la fonction de masse de H :
1 1 1
P0 {H = n} = P {H ≥ n} − P {H ≥ n + 1} = − = 2 .
n n+1 n +n
100 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
10 20 30 40 50
-2
-4
Figure 2.4 – Les excursions sont séparées par des lignes verticales rouges.
être intéressant d’obtenir plus de détails sur la distribution de τ0+ ; dans les faits, on a le
résultat suivant :
+ 1 2n 1
P0 τ0 = 2n = n
= P0 {X2n = 0} ...
(2n − 1)4 n 2n − 1
Si c’était le cas en une dimension, le fait d’avoir rajouté encore plus d’endroits où aller pour
éviter de retourner à 0 n’aura pas amélioré les choses.
La question demeure : ce processus est-il récurrent ou transient ? La réponse n’est pas
triviale dutout !
Pour la trouver, il faut...
Une analogie avec les circuits électriques. Le problème posé est le suivant : on s’imagine
que notre graphe est en fait un vaste circuit électrique ; sur chaque arête, on a placé une
résistance d’un Ohm (figure 2.6).
A priori, on semble avoir changé complètement de sujet... mais en fait, non ! Il existe
un parallèle puissant entre circuits électriques et marches aléatoires ! C’est ce qu’on explore
dans les prochains paragraphes.
2.2. LA MARCHE ALÉATOIRE SUR Zd 101
Figure 2.5 – Les 10000 premiers pas d’une marche aléatoire dans Z2 ; les
points de départ et d’arrivée sont marqués en rouge.
Dans notre circuit électrique, si les sommets x et y sont adjacents (c’est à dire qu’ils
sont reliés par une composante électrique), on note la conductance de cette composante
c(x, y). La conductance est une quantité positive (ou nulle si le courant ne peut pas
passer), et on a que, bien sûr,
c(x, y) = c(y, x).
iv. La résistance d’une composante électrique mesure sa propension à empêcher le passage
du courant ; c’est simplement l’inverse de la conductance :
r(x, y) = c(x, y)−1 .
Dans le système international d’unités, les résistances sont mesurées en Ohm (noté Ω),
et les conductances en Ohm−1 .
v. Lorsqu’on applique à un circuit une différence de potentiel entre deux nœuds x et y,
ces nœuds sont appelés des sources de courant.
Les lois physiques qui régissent les interactions entre ces différentes quantités sont dictées
par des principes physiques que nous accepterons ici sans trop de justification, comme des
postulats ; ce sont les lois d’Ohm et de Kirchhoff :
Postulat 1 (Loi d’Ohm). Le courant qui circule à travers un composant électrique est
en proportion de sa conductance et de la différence de potentiel à ses bornes ; en fait :
(2.2.3) i(x, y) = c(x, y)(v(x) − v(y)),
2.2. LA MARCHE ALÉATOIRE SUR Zd 103
où nous avons écrit λ(z) = w:z∼w c(z, w) la somme de toutes les conductances des compo-
P
santes incidentes au nœud z.
On dit que le potentiel est une fonction harmonique pour notre circuit, puisque v(z) est
la moyenne du potentiel sur les nœuds voisins, pondérée par les conductances ; en résolvant
ce système d’équations linéaire (l’équation (2.2.5) pour tout z ̸= x, y, avec v(x) = 1 et
v(y) = 0), on peut trouver le potentiel.
La conductance effective. Pour savoir quel est le courant total qui circule entre les sources
x et y lorsqu’on y applique une différence de potentiel d’un volt, on peut s’imaginer un instant
qu’on cherche à remplacer tout le circuit entre ces deux nœuds par une seule composante.
La quantité d’énergie dissipée par cette composante doit être la même que celle dissipée par
tout le circuit.
Définition 2.2 (Conductance, résistance effectives). La conductance effective du
circuit entre les sources x et y est la conductance qu’il faut donner a un unique composant
de circuit placé entre ces deux sources pour que le courant qui y circule soit égal au courant
total qui circulait dans le circuit original. On la note Ceff (x, y).
La résistance effective du circuit entre les sources x et y, notée Reff (x, y), est simple-
ment :
Reff (x, y) = Ceff (x, y)−1 .
Pour calculer ces quantités, on réduit le circuit de façon itérative en y effectuant des
transformations qui réduisent chaque fois le nombre de composantes, tout en préservant la
conductance effective, jusqu’à ce qu’il ne reste plus qu’une seule composante de circuit (soit
une seule arête dans le graphe). Les transformations possibles sont les suivantes (figure 2.7) :
104 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
c1
r1 r2
c1+c2
r1+r2 c2
(a) Composantes en série : les (b) Composantes en parallèle : les conductances
résistances s’additionnent. s’additionnent.
Postulat 3. On peut toujours remplacer deux composantes placées en série par une
seule dont la résistance est la somme des deux composantes remplacées.
Postulat 4. On peut toujours remplacer deux composantes placées en parallèle par
une seule dont la conductance est la somme des deux composantes remplacées.
Il existe finalement une autre équivalence pratique qui ne réduit pas le nombre d’arêtes,
mais qui peut se révéler utile tout de même pour la réduction de circuits – on l’appelle
l’équivalence étoile-triangle (figure 2.8) :
r1 γ/c3
c1 c2
1/(γr3) 1/(γr2)
r2 r3 γ/c2 γ/c1
1/(γr1) c3
γ=(r1+r2+r3)/(r1r2r3) γ=(c1c2c3)/(c1+c2+c3)
Postulat 5. En supposant qu’on a trois sommets z1 , z2 , z3 tels que zi ∼ zi+1 (où les
indices sont modulo 3), le triangle de composantes est équivalent à une « étoile », où on
ajoute un quatrième sommet w ; on retire alors toutes les composantes entre les zi et zi±1 ,
et on ajoute à la place des composantes respectivement entre zi et w, avec les conductances
c′ (zi , w) = γ/c(zi−1 , zi+1 ),
où
r(z1 , z2 ) + r(z2 , z3 ) + r(z3 , z1 )
γ= .
r(z1 , z2 )r(z2 , z3 )r(z3 , z1 )
En utilisant les postulats 3, 4 et 5 (en fait ce sont des résultats démontrables mais on
les accepte comme tels), on peut toujours réduire n’importe quel circuit jusqu’à n’obtenir
qu’une seule composante ; on a alors que, avec un voltage unitaire (v(x) − v(y) = 1) :
X
Itot = i(x, z) = Ceff (x, y),
z:x∼z
2.2. LA MARCHE ALÉATOIRE SUR Zd 105
ou, en développant :
!
X c(x, z)
(2.2.6) Ceff (x, y) = λ(x) 1 − v(z) .
z:x∼z
λ(x)
Exemple 2.4. Réduire le circuit électrique suivant (où les conductances sont toutes
unitaires) pour torouver Ceff (x, y).
1/3 y
y
1/2
1 1/2
x x
1/3
1/11
1/11 2/11 y
x y
3/11
20/33 15/22 1/2
x 1/3
7/17
x y
Et les marches aléatoires ? Revenons-y. Qu’est-ce que tout ça a à voir avec les marches
aléatoires, donc ?
Eh bien c’est simple : il y a une connexion directe. Si on définit une marche aléatoire
X = (Xt )t∈Z+ sur les états S avec le graphe G = (S, E) de notre circuit, et c : S 2 → R+ la
fonction qui donne les conductances pour chaque composante de circuit, on peut choisir les
106 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
Or, d’autre part, si on note uz = Pz {τx < τy }, on a que les uz satisfont exactement le
même système d’équations (Lemme 1.2). Puisque la solution à ce système est unique, on a
la correspondance suivante :
∞n
Figure 2.10 – La boîte Bn (ici représentée avec n = 2). Tous les états à
l’extérieur ont été condensés dans l’état ∞n .
où δv(e) est la différence de potentiel aux bornes de e. Mais δv(e) ≤ 1, ce qui complète la
« preuve »... □
En fait, on peut même posser ce résultat plus loin ; c’est le théorème de Nash-Williams :
Théorème 2.1 (Nash-Williams). Soient E1 , E2 , E3 , . . . , En une famille de coupures dis-
jointes de x. Alors, on doit avoir que
−1
n
X X
Reff (x, ∞) ≥ c(e) .
i=1 e∈Ei
Démonstration. Encore une fois, très loussement, ça fonctionne parce que si on fait
des coupures successives, et que chaque coupure a une « résistance effective » égale à l’inverse
de la somme des conductances, alors les coupures successives sont comme « en série », et
leurs résistances effectives s’additionnent. □
La marche sur Z2 est récurrente. Enfin, on lève le suspense. La marche aléatoire sur Z2
est récurrente. Pour le prouver, on va montrer que la résistance effective entre 0 et l’infini
est elle-même infinie.
Pour ça, on retourne à nos boîtes Bn ; les arêtes qui en sortent, on les appellera En . On
a bien sûr que |En | = 4(2n + 1); chaque côté a 2n + 1 sommet sur le bord et une arête qui
2.2. LA MARCHE ALÉATOIRE SUR Zd 109
sort par ce côté-là pour chacun de ces sommets. Bien sûr, donc :
X
c(e) = |En | = 4(2n + 1),
e∈En
puisqu’on se souvient que dans notre graphe, les probabilités de transition sont toutes égales
– donc les arêtes ont toutes la même conductance : c(e) = 1 pour tout e.
Mais, par Nash-Williams, pour tout n ∈ N,
−1
n
X X
Reff (x, ∞) ≥ c(e)
i=1 e∈Ei
n
X 1
= .
4(2n + 1)
i=1
En prenant une limite lorsque n tend vers l’infini, on trouve finalement que
Reff (x, ∞) = +∞,
ce qui signifie qu’aucun courant ne peut passer, et que la marche aléatoire est récurrente. □
2.2.3. Le cas d ≥ 3. De façon générale, on peut définir la marche aléatoire à d dimen-
sions comme étant la marche aléatoire sur le circuit électrique dans Zd avec les conductances
toutes à 1 ; la probabilité de transitionner vers l’un des nœuds voisins est alors 1/(2d).
On peut appliquer les mêmes outils qu’on vient de développer (et il en faut encore plus)
pour démontrer le théorème suivant :
Théorème 2.2 (Pólya). La marche aléatoire dans Zd est récurrente pour d ≤ 2 ; elle est
transiente pour d ≥ 3.
Ça va même plus loin ; on fait la définition suivante :
Définition 2.4 (Dimension de Hausdorff). Soit G = (S, E) un graphe infini. On note
Bn (x) la boule centrée en x de rayon n ; Bn (x) = {y ∈ S : d(x, y) ≤ n}. On dit que le graphe
G a la dimension d ≥ 0 (ça peut être fractionnaire ou pas) si et seulement si pour tout x ∈ S
on a que
log |Bn (x)|
lim = d.
n→∞ log n
Par exemple, si |Bn (x)| croit comme n2 , on est en dimension 2. Si |Bn (x)| croit comme
n , on est en dimension 3. Mais la puissance n’est pas obligée d’être entière.
3
2.3. Exercices
2.3.1. Exercices sur les processus de Galton-Watson.
Exercice 2.1. Montrer que si p(0), p(1) > 0 et p(0) + p(1) < 1, on a forcément que :
p(0)
P1 {τ0 < +∞} > .
1 − p(1)
Exercice 2.3 (Lessard, ex. 1.8). Dans un processus de branchement avec générations
séparées, chaque individu de chaque génération, indépendamment de tous les autres, produit
k individus de la génération suivate avec probabilité (1 − p)pk , pour k ≥ 0. Déterminer la
probabilité d’extinction :
(a) si 0 < p < 1/2 ;
(b) si p = 1/2 ;
(c) si 1/2 < p < 1.
Dans les cas où l’extinction est certaine, déterminer le nombre total moyen de descen-
dants d’un individu.
Exercice 2.4 (Lessard, ex. 1.9). Supposons que, dans un processus de branchement,
le nombre d’individus produits par chaque individu de chaque génération a comme fonction
génératrice ψ(s) = 21 + 12 s3 . Quelle est la probabilité d’extinction de la population si il y a
2 individus à la première génération ?
Exercice 2.5 (Lessard, ex. 1.10). Supposons que, dans un processus de branchement,
le nombre d’individus produits par chaque individu de la génération n a comme fonction
génératrice ψ(s) = 41 + 34 s si n est pair, et ϕ(s) = 14 = 34 s2 si n est impair. Quelle est la
probabilité d’extinction de la population si il y a un seul individu à la génération 0 ?
Exercice 2.6 (Lessard, ex. 1.11). Une plante survit d’un printemps au suivant avec
probabilité 3/4 et, dans ce cas, elle produit le printemps suivant 0, 1 ou 2 autres plantes
identiques à elle-même avec la même probabilité 1/3. Une plante peut donc survivre et
se reproduire plusieurs printemps de suite. On suppose une seule plante au départ, et on
considère le nombre total de plantes à chaque printemps suivant.
(a) L’extinction est-elle certaine ?
(b) Si elle ne l’est pas, quelle est sa probabilité ?
Exercice 2.10. Soient X = (Xt )t∈Z+ et Y = (Yt )t∈Z+ deux marches aléatoires symé-
triques sur Z (p = q = 21 ).
On note
Xt + Yt Xt − Yt
Ut = , Vt = ,
2 2
et finalement
Zt = (Ut , Vt ).
(a) Montrer que Z = (Zt )t∈Z+ est une chaîne de Markov à temps discret sur l’espace des
états Z2 . Montrer que cette chaîne est irréductible. Donner les probabilités de transition
en un pas.
(b) On écrit
N = t ∈ Z+ : Xt = Yt .
Que peut-on dire sur E(0,0 [N ] , où E(i,j) est l’espérance sachant que X0 = i, Y0 = j ?
Exercice 2.11. On considère X = (Xt )t∈Z+ la marche aléatoire simple sur Zd – c’est à
dire que pour {e1 , e2 , e3 , . . . , ed } la base orthonormale cannonique de Rd , on a les probabilités
de transition suivantes pour tout x ∈ Zd :
1
Px,x±ei = .
2d
(i)
On note Ut = Xt · ei , pour i = 1, 2, 3, . . . , n ; il s’agit de la ième coordonnée du vecteur
Xt :
(1) (2) (d)
Xt = (Ut , Ut , . . . , Ut ).
112 2. CHAÎNES DE MARKOV À TEMPS DISCRET : ÉTUDES.
(i)
(a) Montrer que pour tout i, on a que U(i) = (Ut )t∈Z+ est une marche aléatoire paresseuse
sur Z comme à l’exercice 2.9 avec p = q = 2d
1
et r = d−1
d .
(b) On suppose d ≥ 3. Soient i, j fixés et distincts. Est-ce que U(i) et U(j) sont indépen-
dants ?
(c) Est-ce que les processus (U(i) )i=1,2,3,...,d forment une famille indépendante ?
Exercice 2.13. On considère une marche aléatoire sur l’espace des états S = Z2 , mais
avec les probabilités de transition suivantes : pour tout j ̸= 0 :
1
P(i,j),(i,j±1) = .
2
Du reste,
r
P(i,0),(i+1,0) = p, P(i,0),(i−1,0) = q, P(i,0),(i,±1) = , (p + q + r = 1)
2
et toutes les autres transitions sont impossibles. La figure 2.11 illustre le graphe des transi-
tions possibles et les probabilités de transition.
r/2 1/2
q p
r/2
(b) Dans le cas où β = 1, utiliser le théorème de Nash-Williams pour montrer que le pro-
cessus Xt est récurrent.
(c) Dans le cas où β ̸= 1 (vous pouvez assumer que β > 1 sans perdre de généralités), le
processus est-il récurrent ? Transient ?
Chapitre 3
Dans les deux premiers chapitres, nous avons discuté des processus stochastiques à temps
discret – spécifiquement, le temps était une variable entière non-négative, et on pouvait
parler de « pas de temps » entiers. Dans les chapitres qui suivent, nous allons reprendre cette
discussion, mais cette fois, nous allons laisser le temps être « continu » au sens topologique
– c’est à dire que le temps sera une variable réelle non-négative.
Par chance, tout n’est pas perdu ! En effet, une bonne partie de la discussion au début du
chaître 1 ne dépend pas du fait que le temps soit discret et/ou continu. Nous commençons
donc ce chaitre en rappelant ces éléments
Corollaire ( 1.2 ). Soit X = (Xt )t∈R+ une chaîne de Markov homogène sur un espace
fini d’états S = {1, 2, 3, . . . , n} et P (t) sa matrice de transition en un intervalle de temps t,
pour t ≥ 0. Alors les matrices de probabilités de transition ont les propriétés suivantes :
i
( 1.4.11) P (0) = In .
3.1.2. Ce qui change. Jusqu’ici, on voit bien que rien n’a changé – sauf bien sûr que
t est une variable réelle plutôt qu’entière. Qu’est-ce qui nous empêche de continuer comme
ça ?
Examinons de plus près la section 1.4.1 – on y introduit la matrice de transition « en un
pas » :
P = P (1) .
On y montre également que P (t) = P t pour tout t ∈ Z+ . Et... c’est encore vrai !
Mais ce n’est pas très pratique ; en effet, dans le contexte du processus continu, la notion
d’un « pas » n’a plus vraiment de signification spéciale. On aimerait avoir une façon plus
évidente et intuitive de caractériser les probabilités de transition et la loi de notre chaîne de
Markov. Mais pour ça, il faudra travailler un peu plus fort.
10 20 30 40 50
-2
Figure 3.1 – Le graphe d’une chaîne de Markov à temps continu. Ici, Xt est
un processus de Poisson composé ; nous reparlerons de celui-ci au chapitre 4.
Xt
x
t t+T
Figure 3.2 – Si on est en x au temps t, on y reste pour un temps aléatoire
T ; au temps t + T , on transitionne instantannément vers un autre état y ;
puis, on recommence.
Proposition 3.1. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu.
Si on définit
T = inf {t ≥ 0 : Xt ̸= x}
le temps passé à l’état x avant de transitionner vers un autre état, alors sous Px , T suit une
distribution exponentielle : il existe λ ≥ 0 tel que pour tout u ≥ 0 :
{T > u} = {Xs = x ∀s : 0 ≤ s ≤ u} ;
Ce que nous venons de montrer, c’est que les temps entre les transitions dans une chaîne
de Markov à temps continu sur un espace d’état discret sont de loi exponentielle, et que le
taux λ de ces lois dépend potentiellement de l’état x dans lequel on se trouve. On définit
formellement les temps de transition et inter-transition, et les taux inter-transition :
Définition 3.1 (Temps de transition, temps inter-transition, taux inter-transition). Soit
X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu sur l’espace des états discret
S (fini ou dénombrable).
Avec T0 = 0, on va noter le temps de la kième transition :
(3.2.2)
Tk = inf t ≥ Tk−1 : Xt ̸= XTk−1 ;
On peut également noter le kième temps inter-transition :
(3.2.3) Uk = Tk − Tk−1 .
La famille U = (Uk )k∈N est une famille indépendante. Sachant que XTk−1 = x, on a que
Uk suit une loi exponentielle de paramètre λx ≥ 0 ;
Les (λx )x∈S sont appelés les taux inter-transition.
Si on note px,y la probabilité de transitionner de l’état x vers l’état y au moment où
on effectue notre transition, alors on peut préciser un peu notre description de nos deux
« phases »
i. Au temps Tk−1 , on arrive à l’état x. On y reste un temps Uk = Tk − Tk−1 . Puisqu’on
sait qu’on se trouve en x pendant ce temps, on sait que Uk suit une loi exponentielle
de paramètre λx .
ii. À la fin de cet intervalle de temps, on transitionne vers un état y avec probabilité px,y ;
On arrive donc en y au temps Tk ; on recommence alors.
3.3. PROBABILITÉS DE TRANSITIONS SUR UN INTERVALLE DE TEMPS. 119
Remarque. On remarque qu’avec ces définitions, le processus Y = (XTk )k∈Z+ est une
chaîne de Markov à temps discret. Ses probabilités de transition en un pas sont simplement
Px,y = px,y .
Le graphe des transitions possibles, les classes d’états et leurs types. De façon analogue
aux chaînes de Markov à temps discret, on peut tracer le graphe des transitions possibles
pour le processus X = (Xt )t∈R+ en plaçant une arête de x vers y si et seulement si px,y > 0.
À noter qu’il ne sert à rien d’inclure une probabilité de transitionner de x vers x – en
effet, ça signifierait seulement rester à l’état x encore plus longtemps ; ça n’est aucunement
nécessaire – voir l’exercice 3.2. Donc, on pourra toujours assumer que px,x = 0.
Tout le reste des raisonnements développés par rapport aux classes d’équivalence sont
les mêmes. On a les mêmes définitions de classes ouvertes et fermées, etc. On peut montrer
que si on définit Yk = XTk , alors la chaîne de markov homogène à temps discret (Yk )k∈Z+
a les mêmes classes d’états et des mêmes types que la chaîne X = (Xt )t∈R+ . En somme :
les problèmes de récurrence et de transience dans le cas continu se réduisent facilement à
des problèmes de récurrence et de transience dans le cas discret ; nous n’en parlerons pas
beaucoup plus.
3.3.1. Les transitions dans un intervalle de temps très petit. La première chose
que nous allons montrer, c’est que, en générall (sous quelques conditions peu encombrantes),
la probabilité qu’il survienne plus d’une transition dans un intervalle de temps de longueur
h est une valeur négligeable devant h lorsque h est très petit.
Proposition 3.2. Soit X = (Xt )t∈R+ une chaîne de Markov à temps continu sur l’espace
des états discret S (fini ou dénombrable).
De plus, on fait l’hypothèse que pour tout état x, les taux des temps inter-transition
(λy )y:x→y pour états y adjacents à x sont bornés par λ < ∞ ; cela est vérifié immédiatement
si |S| < +∞, ou si tout x a un nombre fini d’états adjacents. 1
Soit Tk le temps de la kième transition.
Alors, pour tout x ∈ S, on a que
Px {T2 ≤ h}
lim = 0.
h→0+ h
Démonstration. Pour démontrer cela, nous allons conditionner par l’état XT1 auquel
nous avons transitionné lors de la première transition. On sait que T1 = U1 est de loi
exponentielle avec paramètre λx ; on a bien sûr que T2 = U1 + U2 ; sachant que XT1 = y,
alors U2 est de loi exponentielle avec paramètre λy , nous allons temporairement écrire :
Px→y {·} = Px {· | XT1 = y} .
1. Cette condition est très permissive ; tous les cas traités dans ces notes la satisfont sans problème.
120 3. CHAÎNES DE MARKOV À TEMPS CONTINU
Ce qu’on vient de montrer, c’est que dans un tout petit intervalle de largeur h, la
probabilité de transitionner deux fois est négligeable – plus précisément, c’est o(h).
On raisonne donc comme suit : si h est très petit,
(h)
Px,y = Px {Xh = y} = Px { T1 < h et on transitionne vers y et T2 > h}+Px {T2 ≥ h et Xh = y} .
Comme on peut approximer qu’il n’y a qu’une transition entre les temps 0 et h (vu que
h est petit), le premier terme est simplement :
Px { T1 < h et on transitionne vers y} ;
le second terme est bien sûr borné par Px {T2 ≤ h} = o(h). Finalement, on a donc que,
lorsque h est très petit,
(h)
Px,y = (1 − e−λx h )px,y + o(h),
et en faisant encore une fois un développement en série limitée pour l’exponentielle, on trouve
que, si y ̸= x :
(3.3.1) (h)
Px,y = λx px,y h + o(h).
Bien sûr, si au plus une transition peut se produire dans l’intervalle de temps de longueur
h, on doit aussi avoir
(3.3.2) (h)
Px,x = Px {T1 > h} + o(h) = 1 − λx h + o(h).
3.3.2. Les équations de Kolmogorov et le générateur. On va immédiatement
utiliser les équations (3.3.1) et (3.3.2) pour obtenir le lemme suivant :
Lemme 3.1. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu sur
l’espace des états discret S (fini ou dénombrable), avec les taux inter-transition (λx )x∈S et
les probabilités de transition (px,y )x,y∈S .
Alors, on a le résultat suivant :
(
d (t) λx px,y si x ̸= y
(3.3.3) P =
dt x,y t=0 −λx si x = y.
Démonstration. Ce résultat suit directement des équations (3.3.1) et (3.3.2) en se
souvenant que l’on a toujours, pour toute fonction f dérivable en u
df f (t) − f (u)
= lim .
dt t=u
t→u t−u
□
Cela motive l’introduction de valeurs que nous appelerons les taux générateurs :
Définition 3.2 (Taux générateurs). Soit X = (Xt )t∈R+ une chaîne de Markov homogène
à temps continu sur l’espace des états discrets S (fini ou dénombrable), avec les taux inter-
transition (λx )x∈S et les probabilités de transition (px,y )x,y∈S .
Alors, on définit le taux générateur des transitions de x vers y, noté Gx,y , par :
(
d (t) λx px,y si x ̸= y
(3.3.4) Gx,y = Px,y =
dt t=0 −λx si x = y.
Lorsque |S| = n < +∞, G est une matrice n × n, que l’on appelle le générateur de X.
Les taux générateurs ont la propriété suivante :
122 3. CHAÎNES DE MARKOV À TEMPS CONTINU
Proposition 3.3. Soit X = (Xt )t∈R+ une chaîne de Markov à temps continu sur l’espace
des états discrets S (fini ou dénombrable), avec les taux générateurs G = (Gx,y )x,y∈S .
Alors, pour tout x ∈ S, on a ;
X
(3.3.5) Gx,y = 0.
y∈S
Démonstration. En supposant que l’on a les taux inter-transition (λx )x∈S et les pro-
babilités de transition (px,y )x,y∈S , on a forcément que :
X X
Gx,y = −λx + λx px,y
y∈S y:y̸=x
X
= −λx + λx px,y .
y:x̸=y
Or, tel que précédemment discuté, on doit avoir px,x = 0 ; dans ce cas, par la condition
de normalisation, on a bien
X
px,y = 1,
y:x̸=y
et il suit que
X
Gx,y = −λx + λx = 0.
y∈S
Corollaire 3.2. Lorsque |S| = n < +∞, G est une matrice n × n de nombres réels ;
la somme de chaque ligne est égale à 0 ; on a donc l’équation matricielle :
(3.3.6) G1n = 0;
On peut maintenant utiliser la propriété de Markov pour montrer les équations progres-
sives et régressives de Kolmogorov :
Proposition 3.4. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu
sur l’espace des états discret S (fini ou dénombrable). Soit G = (Gx,y )x,y∈S la famille des
taux générateurs pour les transitions de X.
i. L’équation progressive de Kolmogorov est vérifiée pour tous x, y ∈ S :
d (t) X (t)
(3.3.7) P = Px,z Gz,y .
dt x,y
z∈S
Démonstration. Par les équations (1.4.5) et (1.4.7) du corollaire 1.1, on a que pour
tous t, h ≥ 0 :
!
(t+h) (t)
Px,y − Px,y 1 X (t) (h) (t)
= Px,z Pz,y − Px,y
h h
z∈S
(t) (h)
X Px,z Pz,y − δz,y
=
h
z∈S
(h) (0)
X
(t) Pz,y − Pz,y
= Px,z ;
h
z∈S
Par le théorème de convergence dominée, on peut passer la limite à l’intérieur de la
somme ; par définition des taux générateurs, on trouve
(t+h) (t)
d (t) Px,y − Px,y
P = lim
dt x,y h→0+ h
!
(h) (0)
X
(t) Pz,y − Pz,y
= Px,z lim
h→0+ h
z∈S
X
(t)
= Px,z Gz,y .
z∈S
La preuve de l’équation régressive est entièrement analogue. □
Corollaire 3.3. Si |S| = n < +∞, G est une matrice n × n, ainsi que P (t) ; on a alors
que :
i. l’équation progressive de Kolmogorov devient, sous forme matricielle :
d (t)
(3.3.9) P = P (t) G
dt
ii. l’équation régressive de Kolmogorov devient, sous forme matricielle :
d (t)
(3.3.10) P = GP (t)
dt
Exemple 3.1. On va faire comme pour les marches aléatoires à temps discret, et on va
régler tout de suite la question du cas où |S| = n = 2 ; dans ce cas, le générateur de notre
chaîne de Markov prendra toujours la forme :
−α α
G= .
β −β
Pour calculer P (t) = exp(tG), on va commencer par diagonaliser G.
Étape 1 : Trouver les valeurs propres de G. Pour trouver les valeurs propres de G, on
calcule :
0 = det(G − λI)
= (−α − λ)(−β − λ) − αβ
= (α + λ)(β + λ) − αβ
= λ2 + (α + β)λ
= λ(λ + α + β).
3.4. TAUX GÉNÉRATEURS ET TEMPS D’ARRIVÉE EXPONENTIELS. 125
pour tout x ∈ S.
Supposons que dans l’état x, n types d’événements imprévisibles ; chacun de ces événe-
ments engendre respectivement une transition vers les états y1 , y2 , y3 , . . . , yn .
On notera Ti le temps avant que ne se produise un événement du type i ; puisque l’évé-
nement doit être complètement imprévisible, Ti doit être sans-mémoire – donc être de loi
exponentielle, disons avec taux µi . Ce taux reflète le nombre moyen d’événements qui se
produiront par unité de temps.
La transition surviendra lorsqu’arrivera le premier événement de tous types confondus ;
le temps inter-transition T est donc :
T = min {T1 , T2 , T3 , . . . , Tn } .
On fait l’hypothèse que les événements de différent types surviennent indépendamment
les uns des autres ; avec cette hypothèse, le temps inter-transition T a aussi une loi expo-
nentielle :
Px {T > u} = Px {min {T1 , T2 , T3 , . . . , Tn } > u}
= Px {T1 > u, T2 > u, T3 > u, . . . , Tn > u} .
= Px {T1 > u} Px {T2 > u} Px {T3 > u} · · · Px {Tn > u}
= e−µ1 u e−µ2 u e−µ3 u · · · e−µn u
= e−µu ,
où µ = nk=1 µk est le taux inter-transition depuis l’état x ; on a donc λx = µ.
P
On calcule la probabilité
Pn que le minimum soit T1 ; si T′ = min {T2 , T3 , . . . , Tn }, alors
′
Exemple 3.2. Deux rampes mobiles qui amènent les étudiant·e·s au pavillon Roger-
Gaudry de l’Université de Montréal (avant 2018, mettons) fonctionnent indépendamment
l’une de l’autre. Chacune d’entre elle se brise à un taux β = 1 fois par heure.
Cependant, comme il y a un seul technicien, il ne peut réparer qu’une seule rampe à
la fois ; lorsqu’au moins une rampe est brisée, le technicien peut réparer ρ = 2 rampes par
heure en moyenne ; tous les temps de réparation et de fonctionnement sont indépendants.
(a) Quel est le générateur de la chaîne X = (Xt )t∈R+ , où Xt est le nombre de rampes en
fonctionnement au temps t ?
(b) Trouver P (t) et donner la limite lorsque t tend vers 0.
(c) À long terme, quelle proportion de temps les deux rampes fonctionnent-elles ?
Solution. (a) Pour trouver le générateur, nous devons d’abord identifier, pour chaque
état,
i. Quels événements peuvent survenir.
ii. À quel taux chacun de ces événements survient-il ?
iii. Pour chaque type d’événement qui peut survenir : quelle transition cet événement
engendre-t-il ?
Alors allons-y :
État 0 : Lorsqu’on est dans l’état 0, aucune des rampes ne fonctionne. Le seul événement
qui peut survenir est que le réparateur a fini de réparer l’une des deux rampes ; Il
effectue cette réparation à un taux moyen de ρ = 2 réparations par heure, et lorsque
cet événement survient, on transitionne dans l’état 1.
On a donc G0,1 = ρ et G0,0 = −ρ. Les autres taux générateurs de cette ligne sont
nuls.
État 1 : Lorsqu’on est dans l’état 1, il peut survenir deux types d’événements :
– Le réparateur finit de réparer la rampe brisée à un taux de ρ = 2 réparation
par heure ; dans ce cas, on transitionne vers l’état 2. Donc, G1,2 = ρ.
– La rampe fonctionnelle se brise à un taux de β = 1 bris par heure ; dans ce
cas, on transitionne vers l’état 0. Donc, G1,0 = β.
Finalement, on doit donc avoir G1,1 = −ρ − β. Les autres taux générateurs de cette
ligne sont nuls.
État 2 : Lorsqu’on est dans l’état 2, il peut survenir deux événements :
– La rampe n° 1 se brise avec un taux de β = 1 bris par heure, ou
– La rampe n° 2 se brise, aussi avec un taux de β = 1 bris par heure.
Ces deux événements causent tous les deux des transitions vers l’état 1 ; on a donc
G2,1 = β + β = 2β.
Finalement, on doit donc avoir G2,2 = −2β. Les autres taux générateurs de cette
ligne sont nuls.
En mettant tout cela ensemble, on trouve que :
−2 2 0
G = 1 −3 2 .
0 2 −2
128 3. CHAÎNES DE MARKOV À TEMPS CONTINU
(b) On diagonalise G ;
Étape 1 : Trouver les valeurs propres. On a λ1 = 0, λ2 = −2 et λ3 = −5.
Étape 2 : Trouver des vecteurs propres. On peut prendre
1 −2 −2
v1 = 1 , v2 = 0 , v3 = 3 .
1 1 −2
il s’agit du premier temps où on atteint l’état y. Encore une fois, on peut utiliser le condi-
tionnement par la première transition pour arriver à nos fins. On a :
3.5. ESPÉRANCE DE TEMPS D’ATTEINTE. 129
Lemme 3.2. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu sur
l’espace des états S avec taux générateurs G = (Gx,y )x,y∈S ; on note λx = −Gx,x le taux
inter-transition de l’état x et px,y = Gx,y /λx la probabilité de transition de l’état x à l’état
y.
Pour x, y ∈ S fixés, on a le système d’équations suivant :
X
P z {τx < τy } = pz,w Pw {τx < τy } ∀z ̸= x, y
w∈S
(3.5.2)
Px {τx < τy } = 1
Py {τx < τy } = 0.
Remarque. On constate que les probabilités Pz {τx < τy } satisfont exactement le même
système d’équations que pour le processus Yk = XTk , à temps discret. Ce n’est pas un hasard ;
le temps passé à état (donc les taux inter-transitions) n’affectent aucunement la probabilité
d’atteindre un état avant un autre.
C’est – encore une fois – la raison pour laquelle nous ne nous éterniserons pas sur ces
résultats.
La vraie différence importante interviendra lorsqu’on voudra calculer les espérance des
temps d’atteinte ; en effet, à ce moment-là, on aura besoin d’information sur les temps inter-
transitions.
On a le lemme suivant :
Lemme 3.3. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu sur
l’espace des états S avec taux générateurs G = (Gx,y )x,y∈S ; on note λx = −Gx,x le taux
inter-transition de l’état x, et px,y = Gx,y /λx la probabilité de transition de l’état x à l’état
y.
Pour y ∈ S fixé, on a le système d’équations suivant :
1
X
Ex [τy ] = + px,z Ez [τy ] ∀x ̸= y
(3.5.3) λx
z∈S
Ey [τy ] = 0.
Exemple 3.3. En reprenant l’exemple 3.2, calculer l’espérance du temps avant d’avoir
un arrêt complet du service des rampes si on commence la journée avec deux rampes fonc-
tionnelles.
Solution. Le générateur pour ce processus est
−2 2 0
G = 1 −3 2 .
0 2 −2
Si on pose ui = Ei [τ0 ], on a le système d’équations suivant :
u0 = 0
1 1 2
u1 = + u0 + u2
3 3 3
1
u2 = + u1 .
2
On trouve donc :
5
u0 = 0, u1 = 2, u2 = .
2
Donc, E2 [τ0 ] = 2 , et il faut en moyenne 2h 30 minutes avant de se trouver dans une
5
2. En fait, ici, T1 est un temps aléatoire ; a priori, la propriété de Markov ne s’applique que si le temps
est constant. Toutefois, il s’avère qu’on a aussi que la propriété de Markov fonctionne pour T1 ; c’est ce qu’on
appelle la propriété de Markov forte.
3.6. DISTRIBUTION STATIONNAIRE ET THÉORÈME ERGODIQUE. 131
3.6.1. Rappel de la section 1.7.2. On suppose un instant que X = (Xt )t∈Z+ soit
une chaîne de Markov homogène à temps discret sur l’espace des états discret S (fini ou
dénombrable), et que x, y ∈ S sont deux états.
D’une part, le théorème ergodique (Théorème 1.1) nous garantit que si l’état y satisfait
au moins l’une des conditions suivantes :
– l’état y est transient ;
– l’espérance du temps de retour à y, Ey τy+ est infinie ;
ce même vecteur est une solution stationnaire s’il satisfait toutes ces équations sauf la
dernière (la conditione de normalisation).
Finalement, le théorème 1.2 nous garantissait que dans le cas où X est une chaîne
irréductible
+ et récurrente, et que les espérances des temps de retour sont finies pour tout état
y (Ey τy < +∞ pour tout y ∈ S), alors il existe une distribution stationnaire unique. De
−1
plus, nous avions vu que πx = Ex [τx+ ] , de telle sorte que lorsque la chaîne est apériodique
(t)
et que la limite existe, on doit forcément avoir limt→∞ Px,y = πy .
Ce que nous allons voir maintenant, c’est comment on obtient des résultats analogues
dans le cas continu.
Définition 3.3. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu
sur l’espace des états discret S (fini ou infini dénombrable).
π = (πx )x∈S est une solution stationnaire pour la chaîne X si et seulement si elle
satisfait les équations
X
(3.6.1) πy = (t)
πx Px,y ∀y ∈ S, t ∈ R+ .
x∈S
Bien sûr, lorsque S = {1, 2, 3, . . . , n} et qu’on a les matrice de transition sur un intervalle
de temps t données par P (t) , les équations de stationnarité se réduisent à
π = πP (t) ∀t ∈ R+ .
Cette définition est une généralisation naturelle de la définition de la stationnarité pour
les chaînes à temps discret ; toutefois, elle n’est pas très pratique à vérifier. On remarque
tout de suite la proposition suivante :
Proposition 3.6. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu
sur l’espace des états discret S (fini ou infini dénombrable). Soit G = (Gx,y )x,y∈S la famille
des taux générateurs pour X.
Alors, π = (πx )x∈S est une solution stationnaire pour X si et seulement si elle satisfait
les équations
X
(3.6.3) πx Gx,y = 0 ∀y ∈ S.
x∈S
Remarque. Encore une fois, dans le cas où S = {1, 2, 3, . . . , n} est fini, on peut noter
ces équations tout simplement comme l’équation matricielle :
πG = 0,
où π est un vecteur-ligne.
Démonstration. Nous allons faire la preuve dans le cas où S est fini ; ce sera plus
simple, mais l’idée reste la même dans le cas infini.
Dans un sens, la preuve est immédiate ; en effet, si πG = 0, alors πGn = 0 pour tout
n ∈ N, et
πP (t) = π exp(tG)
∞
!
X 1 k
= π In + G
k!
k=1
∞
X 1
=π+ (πGk )
k!
k=1
= π,
et on respecte les équations de stationnarité ; π est une solution stationnaire.
3.6. DISTRIBUTION STATIONNAIRE ET THÉORÈME ERGODIQUE. 133
Dans l’autre sens, c’est légèrement plus angoissant. On y arrive avec les équations de
Kolmogorov ; on remarque, bien sûr, que le vecteur π est constant ; donc :
d
π = 0.
dt
Or, par les équations de stationnarité, si π est une solution stationnaire, on doit avoir que
d
0= (πP (t) ) = πGP (t) ,
dt
par l’équation régressive de Kolmogorov. Par associativité, on a donc
0 = (πG)P (t) ,
ce qui doit être vrai pour tout t ; Bien sûr, en particulier, ça doit être vrai pour t = 0, et on
conclue finalement que 0 = πG. □
ii. La famille λx = (λx,y )y∈S est une solution stationnaire (potentiellement triviale) pour
tout x ∈ S.
Démonstration. ii Ce sera plus simple de commencer par montrer que si on
suppose que les limites existent pour tous x, y ∈ S, alors elles sont toutes des
solutions stationnaires.
(t)
Si on suppose que λx,y = limt→∞ Px,y , alors bien sûr puisque λx,y est une
constante, sa dérivée par rapport à t est nulle, et on doit avoir :
d (t)
limP = 0.
dt x,y
t→∞
Mais par l’équation progressive de Kolmogorov, on obtient :
X
(t)
0 = lim Px,z Gz,y
t→∞
z∈S
X
(t)
= lim Px,z Gz,y
t→∞
z∈S
X
= λx,z Gz,y ,
z∈S
i Il ne reste plus qu’à montrer que les limites existent. Pour ce faire, nous allons
considérer des chaînes discrétisées.
(δ)
Notons Y(δ) = (Yn = Xn+δ )n∈Z+ ; pour tout δ ∈ R+ , Y(δ) est une chaîne
de Markov homogène à temps discret dont les probabilités de transition en un pas
(1)
est Px,y = Px,y correspondent aux probabilités de transition sur un intervalle de
longueur 1 pour X.
En l’occurence, pour tout x ∈ S, Px,x > eGx,x > 0, et tous les états dans S sont
apériodiques pour la chaîne Y(δ) ; par le théorème ergodique, on a donc que pour
tout état de départ x ∈ S, la distribution limite existe ; notons
(n)
λx,y (0) = lim Px,y .
n→∞
Par un argument similaire à ce que l’on a fait plus haut, on constate que λx,y (0)
doit être une solution stationnaire ; on doit avoir
X
λx,z (0)Gz,y = 0
z∈S
pour tout x, y ∈ S.
Par les équations de Chapman-Kolmogorov, on trouve que
X
(n+δ) (n) (δ)
Px,y = Px,z Pz,y ,
z∈S
et en prenant la limite de part et d’autre, on voit que
X
(n+δ) (δ)
λx,y (δ) = lim Px,y λx,z (0)Pz,y .
n→∞
z∈S
Ce théorème n’est a priori pas d’une très grande aide dans le cas où de multiples solutions
stationnaires linéairement indépendantes existent ; toutefois, on peut formuler un certain
corollaire :
Corollaire 3.4. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu
sur l’espace des états discret S (fini ou dénombrable) ; on suppose que X est irréductible.
Alors, toutes les solutions stationnaires non-triviales sont linéairement dépendantes (c’est-
à-dire qu’elles sont des multiples les unes des autres). En particulier, on distingue deux cas :
3.6. DISTRIBUTION STATIONNAIRE ET THÉORÈME ERGODIQUE. 135
i. Soit il existe une unique distribution stationnaire ; dans ce cas, soit π = (πx )x∈S
cette
P distribution stationnaire (c’est-à-dire la solution stationnaire qui satisfait aussi
x∈S πx = 1). Alors, pour tout x, y ∈ S,
(3.6.4) (t)
lim Px,y = πy .
t→∞
3.6.4. Un exemple. Pour illustrer l’application de ces résultats, nous allons voir quelques
exemples. 3
Exemple 3.4. Pour aller faire sa carte OPUS donnant droit au tarif réduit, il faut
d’abord attendre en file pour faire valider l’attestation qui donne bel et bien le droit à ce
tarif. Puis, une fois l’attestation validée, on doit attendre ensuite dans une autre file, afin
d’être photographié·e ; on reçoit ensuite sa carte identifiée avec sa photo imprimée dessus,
et on est libre de partir.
On fait les hypothèses suivantes :
– Les usagers arrivent pour faire valider leur attestation à un taux moyen de 2 par
minute, à intervalles aléatoires de loi exponentielle.
– Le processus de validation est d’une durée aléatoire de loi exponentielle, qui dure
en moyenne 1/4 de minutes (15 secondes).
3. Ces exemples sont tirés et/ou adaptés de l’ouvrage de Sabin Lessard.
136 3. CHAÎNES DE MARKOV À TEMPS CONTINU
En résolvant, on trouve :
1
(π1 , π2 , π3 , π4 ) = (3, 2, 3, 1).
9
(c) La proportion moyenne du temps où le photographe est occupé est la proportion moyenne
du temps passée dans les états 3 ou 4 ; c’est :
4
π3 + π4 = .
9
(d) Soit N (x) le nombre de compotoirs qui sont occupés à l’état x ; on a que N (1) = 0,
N (2) = N (3) = 1 et N (4) = 2. On cherche limt→∞ E [N (Xt )] ; c’est :
7
N (1)π1 + N (2)π2 + N (3)π3 + N (4)π4 = 0π1 + 1π2 + 1π3 + 2π4 =
9
(e) On distingue les cas suivants en conditionnant selon l’état dans lequel on se trouve
lorsque l’usager arrive.
— Sachant que l’usager est arrivé alors qu’on était à l’état 1 (il n’y a personne), la
probabilité que celui-ci reçoive sa carte avec photo est de 1.
— Sachant que l’usager est arrivé pendant qu’on était dans l’état 3 (pendant qu’il y a
quelqu’un à la prise de photos), la probabilité que celui-ci reçoive sa carte avec photo
correspond à la probabilité qu’on transitionne de 4 (où on est maintenant que l’usager
est arrivé à la validation et qu’il y a encore quelqu’un à la prise de photos) vers l’état
2 (la prise de photos s’est libéré avant que notre usager ait fini sa validation) – c’est
une probabilité de 2/(2 + 4) = 1/3.
— Sachant que l’usager est arrivé pendant que le compotoir de validation était occupé
(états 2 ou 4), la probabilité qu’il reçoive sa carte avec photo est 0.
— La probabilité que l’usager arrive pendant qu’on est dans l’état i est πi .
Donc, la probabilité totale qu’un usager reçoive sa carte avec photo est :
1 4
1π1 + 0π2 + π3 + 0π4 = .
3 9
(f) Encore une fois, on va prendre l’espérance conditionnellement à l’état dans lequel on se
trouve quand l’usager arrive.
— Sachant que l’usager arrive alors qu’on est dans l’état 1, celui-ci passe 15 secondes
en moyenne à la validation, puis 30 secondes en moyenne à la prise de photos ; c’est
donc 45 secondes, ou 3/4 de minutes en moyenne.
— Sachant que l’usager arrive alors qu’on est dans l’état 3, le client va faire tout le
processus de validation – donc il va passer au moins 15 secondes en moyenne au
comptoir. Puis, il y a deux possibilités :
— soit la prise de photos s’est libérée entre temps (probabilité 1/3), auquel cas il va
passer en moyenne 30 secondes (1/2 minutes) à la prise de photos ;
— soit la prise de photos ne s’est PAS libérée entre temps (probabilité 2/3), auquel
cas il va passer s’en aller tout de suite.
Donc, sachant qu’on est arrivé dans l’état 3, le temps moyen passé dans le système
est : 14 + ( 31 × 12 + 23 × 0) = 12
5
minutes (25 secondes).
— Sachant que l’usager arrive alors qu’on est dans les états 2 ou 4, il s’en va tout de
suite et passe 0 secondes dans le système.
138 3. CHAÎNES DE MARKOV À TEMPS CONTINU
3.7. Exercices
Exercice 3.1. Soit X = (Xt )t∈R+ une chaîne de Markov à temps continu sur l’espace
des états discret S (fini ou dénombrable), et soient (λx )x∈S les taux respectifs des temps
inter-transition pour chaque état dans S.
On considère maintenant la restriction de cette chaîne aux temps entiers ; il s’agit d’une
chaîne de Markov à temps discret.
Montrer que les probabilités de transition en un pas pour cette nouvelle chaîne satisfont :
Px,x ≥ e−λx > 0.
Déduire que tous les états d’une telle chaîne sont forcément apériodiques.
Exercice 3.2. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu
sur l’espace des états discret S (fini ou dénombrable). Soient (px,y )x,y∈S les probabilités de
transitionner de l’état x à y pour tous x, y ∈ S au moment d’une transition.
Supposons que px,x > 0 ; c’est à dire qu’on a une probabilité non-nulle de transitionner
de x vers x au moment de la transition.
(a) On suppose que N est le nombre de transitions qu’il faut faire pour finalement quitter
l’état x. Quelle est la loi de N ? Donner sa fonction de masse et sa fonction génératrice
des probabilités ψN (s) = E sN .
(b) Soit Ti le temps passé en x avant la ième transition (on suppose qu’on est revenus en x à
la (i − 1)ième transition). Expliquer pourquoi les Ti sont indépendants et identiquement
distribués, de loi exponentielle de paramètre λx . Quelle est la fonction génératrice des
moments M (s) de la distribution des Ti ?
(c) On note T le temps passé à l’état x avant de transitionner vers un état différent. On a
donc
N
X
T = Ti .
i=1
Montrer que
E [exp(sT ) | N = k] = M (s)k .
(d) On note MT (s) la fonction génétratrice des moments de T . Montrer que
MT (s) = ψN (M (s));
déduire que T suit aussi une loi exponentielle avec taux
λ = (1 − px,x )λx .
Remarque. Cet exercice illustre la raison pour laquelle il est inutile d’inclure la possi-
bilité que px,x > 0.
Exercice 3.3. Soit G le générateur des transitions pour une chaîne de Markov homogène
à temps continu sur un espace d’états fini de n états.
Est-ce que det(G − λI) est toujours factorisable par λ ? Expliquer ?
140 3. CHAÎNES DE MARKOV À TEMPS CONTINU
Exercice 3.4. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu
avec G = (Gx,y )x,y∈S sa famille de taux générateurs. Montrer qu’on a, pour tout y ∈ S, le
système d’équations : X
− Gx,z Ez [τy ] = 1 ∀x ̸= y
z∈S
Ey [τy ] = 0.
Exercice 3.5 ( Lessard, ex. 2.1). Deux employées d’une maison de courtage reçoivent
des appels de clients au sujet d’achat ou de vente de fonds mutuels. Lorsque leurs lignes
téléphoniques étaient indépendantes, chacune d’elles était occupé un temps de loi exponen-
tielle avec une espérance de 15 minutes (1/4 d’heure) avec chaque client ; pendant ce temps,
tout nouvel appel reçu sur la ligne était rejeté. Il passait en moyenne 60 minutes (1 heure)
entre chaque nouvel appel sur la ligne téléphonique.
Depuis une réorganisation du service, lorsqu’un appel est reçu à n’importe lequel des
deux numéros de téléphone, il est transféré à l’autre courtière si la première destinataire de
l’appel est occupée ; si aucune des deux n’est libre, l’appel est rejeté.
Déterminer le générateur pour le nombre de lignes occupées
(a) avant la réorganisation du service, et
(b) après.
Exercice 3.6 ( Lessard, ex. 2.2). On suppose qu’un appareil tombe en panne suite
à un kième choc avec probabilité k 2 /9 pour k = 1, 2, 3 ; dans le cas où il est en panne, il
est remplacé par un appreil neuf. Si les chocs surviennent à des intervalles de temps de loi
exponentielle à un taux de 9 chocs par semaine, quel est le générateur pour le nombre de
chocs subis par l’appareil ?
Exercice 3.7 ( Lessard, ex. 2.3). Une chaîne de Markov homogène à temps continu
sur les états 0, 1 et 2 a comme générateur :
−3 2 1
2 −4 2 .
0 1 −1
Déterminer le temps moyen pour atteindre l’état 2 à partir de l’état 0.
Exercice 3.8 ( Lessard, ex. 2.4). Un sous-marin dispose au départ de trois systèmes de
navigation et il reste en mer tant qu’au moins deux de ces systèmes fonctionnent. Les temps
de fonctionnement de ces systèmes sont indépendants et de loi exponentielle d’espérance 1
an, 1, 5 ans et 3 ans respectivement. Quel est le temps moyen que le sous-marin reste en mer
après son départ ?
Exercice 3.9 ( Lessard, ex. 2.28). Une grenouille sur le bord d’un étang (état 1)
saute dans l’étang (état 2) et vice versa, selon une chaîne de Markov à temps continu dont
le générateur est
−3 3
G= .
2 −2
3.7. EXERCICES 141
Exercice 3.10 (Lessard, ex. 2.29). Un médecin de garde reçoit des appels à un taux
d’environ 1 toutes les 12 heures ; chaque appel nécessite un temps exponentiel de 3 heures
en moyenne, indépendant de tout le reste.
Si le médecin commence sa garde le vendredi à 18h, quelle est la probabilité qu’il puisse
passer sa soirée de samedi (de 18h à minuit) avec sa famille sans être dérangé ?
Exercice 3.11. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu
sur l’espace des états discret S, avec des taux inter-transition (λx )x∈S , et soit π = (πx )x∈S
une distribution stationnaire pour X.
On note Y = (Yk = XTk )k∈Z+ , où Yk est la position immédiatement après la kième
transition. Les éléments de la matrice des probabilités de transition en un pas de Y est
donnée par px,y .
(a) Montrer que π satisfait les équations
X
0 = −πy λy + πx λx px,y .
x∈S:x̸=y
Exercice 3.13 (Lessard, ex. 2.13). Une chaîne de Markov à temps continu sur les
états 0, 1 et 2 possède comme générateur la matrice
−2 1 1
G = 2 −4 2 .
0 1 −1
Déterminer la fraction moyenne de temps, à long terme, que la chaîne passe à l’état 0.
142 3. CHAÎNES DE MARKOV À TEMPS CONTINU
Exercice 3.14 (Lessard, ex. 2.14). Un courtier d’assurances reçoit des appels de clients
à un taux moyen de 4 par heure, à intervalles de longueur aléatoire de loi exponentielle.
Chaque conversation téléphonique est d’une durée aléatoire de loi exponentielle et dure en
moyenne 1/4 d’heure. Si un autre appel arrive durant cette période, il est mis en attente
jusqu’à la fin de la converstaion en cours, mais alors la ligne téléphonique est inaccessible,
et tous les appels subséquents sont rejetés jusqu’à ce que la ligne se libère de nouveau.
Un client en attente s’impatientera au bout d’un intervalle de temps aléatoire de loi
exponentielle d’une durée moyenne d’un quart (1/4) d’heure.
Déterminer
(a) La proportion moyenne de temps où le courtier est au téléphone ;
(b) la proportion moyenne de clients auxquels le courtier finira par parler ;
(c) le temps moyen qu’un client passe au téléphone.
Exercice 3.15 (Lessard, ex. 2.17). Des automobilistes se présentent à une station-
service au taux de 20 par heure, à des intervalles aléatoires de loi exponentielle, mais n’entrent
pas si il y a au moins quatre voitures dans la station. Il y a deux pompes disponibles dans la
station, et le temps de service à chacune d’elle est de loi exponentielle d’espérance 6 minutes.
(a) Quelle est la distribution stationnaire pour le nombre de voitures dans la station ?
(b) En moyenne, à long terme, combien d’automobilistes sont servis par heure ?
Exercice 3.16 (Lessard, ex. 2.18). Une boutique qui vend des ordinateurs en garde au
plus 3 en stock. Les acheteurs se présentent selon à des intervalles aléatoires indépendants de
loi exponentielle à un taux de 2 par semaine en moyenne, et ils repartent avec un ordinateur
s’il y en a au moins un en stock. Lorsqu’il reste un seul ordinateur, la boutique en commande
2 autres ; elle les reçoit après un temps aléatoire exponentiel d’une durée moyenne d’une
semaine.
Déterminer :
(a) Le nombre moyen d’ordinateurs en stock, à long terme.
(b) Le nombre moyen d’ordinateurs vendus chaque semaine.
Exercice 3.17 (Lessard, ex. 2.19). Un coiffeur a de la place pour 2 clients seulement
dans son salon. Les clients arrivent à des intervalles aléatoires exponentiels indépendants, au
taux moyen de 2 par heure, mais ils vont ailleurs si il y a déjà deux clients dans le salon. Si
le coiffeur met un temps aléatoire de loi exponentielle pour couper les cheveux d’un client,
combien de temps en moyenne doit-il passer par client afin de ne perdre pas plus de 1/7 de
sa clientèle à long terme ?
Chapitre 4
Au chapitre 3, nous avons fourni le cadre d’analyse général pour les chaînes de Markov
homogènes à temps continu sur des espaces d’états discrets ; nous avons également obtenu
des solutions complètes pour la distribution marginale du processus dans le cas des chaînes
sur des nombres d’états finis.
Dans ce qui suit, nous allons nous pencher sur une certaine catégorie de processus à
temps continu simples sur un nombre infini d’états, et nous verrons comment il est possible
d’analyser ces problèmes également.
1
t
+ 0.0 0.1 0.2 0.3 0.4 0.5
4.1.3. Propriétés. Les processus de Poisson sont nommés ainsi en raison de leur plus
remarquable propriété :
Proposition 4.1. Soit N = (Nt )t∈R+ un processus de Poisson d’intensité λ > 0. Alors,
pour tout t ∈ R+ , Nt suit une loi de Poisson de paramètre λt.
Démonstration. On remarque qu’on a l’égalité entre les événements suivants :
{Nt ≤ k} = {Tk+1 > t} ;
en effet, Nt est inférieur ou égal à k si et seulement si la k + 1ième transition a eu lieu
strictement après le temps t.
Or, on a que
k+1
X
Tk+1 = Ui ,
i=1
4.1. LE PROCESSUS DE POISSON. 145
où les Ui sont des variables aléatoires de loi exponentielle de taux λ indépendantes. Il suit
donc que Tk+1 suit une loi Gamma de paramètres k + 1, λ, donc on a que
P0 {Nt ≤ k} = P0 {Tk+1 ≥ t}
Z ∞ k+1
λ
= uk e−λu du
u=t k!
Z ∞ k+1
−λt λ
=e (v + t)k e−λv dv
v=0 k!
k+1 Z ∞X k
−λt λ k!
=e ti v k−i e−λv dv
k! v=0 i!(k − i)!
i=0
k
(λt)i ∞ λk+1−i k−i −λv
X Z
= e−λt v e dv
i=0
i! v=0 (k − i)!
k
X (λt)i
= e−λt .
i!
i=0
Ici, la dernière égalité est obtenue en vertu de la condition de normalisation pour la densité
d’une variable aléatoire de loi Gamma de paramètres (k + 1 − i), λ :
Z ∞ k+1−i
λ
v k−i e−λv dv = 1.
v=0 (k − i)!
En prenant la différence entre P0 {Nt ≤ k} et P0 {Nt ≤ k − 1}, on trouve que :
(λt)k
P0 {Nt = k} = e−λt ;
k!
la fonction de masse de Nt est donc celle d’une variable aléatoire de Poisson de paramètre
λt. □
On a le lemme suivant :
Lemme 4.1. Soit X = (Xt )t≥0 une chaîne de Markov homogène et spatialement homo-
gène sur l’espace des états discret S additif.
146 4. PROCESSUS DE NAISSANCES ET DE MORT
(s)
Alors, le processus Y(s) = (Yt = Xs+t − Xs )t≥0 suit, pour tout s ≥ 0, exactement la
même loi que le processus X. En particulier, Xs+t − Xs ∼ Xt − X0 , où l’équivalence est en
distribution.
Démonstration. On fixe un s ≥ 0 arbitraire. Soient Px,y (t, u) et Qx,y (t, u) les proba-
bilités de transition respectivement pour les chaînes X et Y(s) ; il suffit de montrer que ces
quantités sont égales.
On a :
n o
(s)
Qx,y (t, u) = P Yu(s) = y Yt = x
= P {Xs+u − Xs = y | Xs+t − Xs = x}
X
= P {Xs+u − Xs = y | Xs+t − Xs = x, Xs = z} P {Xs = z}
z∈S
X
= P {Xs+u = z + y | Xs+t = z + y, Xs = z} P {Xs = z}
z∈S
X
= P {Xs+u = z + y | Xs+t = z + y} P {Xs = z}
z∈S
X
= Pz+x,z+y (s + t, s + u)P {Xs = z}
z∈S
X
= Px,y (t, u)P {Xs = z}
z∈S
= Px,y (t, u).
Dans l’ordre on applique successivement les définitions des probabilités de transition et
du processus Y(s) ; ensuite, on conditionne par l’état Xs , puis on applique la propriété de
Markov, l’homogénéité temporelle et spatiale, et enfin la condition de normalisation qui
garantit que z∈S P {Xs = z} = 1.
P
□
Proposition 4.2. Soit N = (Nt )t∈R+ un processus de Poisson d’intensité λ > 0. Alors,
ce processus a la propriété d’homogénéité spatiale.
Démonstration. Pour montrer cette propriété, il suffit de vérifier que les taux géné-
rateurs satisfont la propriété que Gx,y ne dépend que de y − x ; c’est vrai. En effet, d’après
la définition, on a que
(
−λ si y − x = 0
Gx,y =
λ si y − x = 1.
□
Corollaire 4.1. Soit N = (Nt )t∈R+ un processus de Poisson d’intensité λ > 0. Alors,
puisqu’il est spatialement et temporellement homogène, on a que pour tous 0 ≤ s ≤ t,
Nt − Ns ∼ Nt−s ;
en particulier, Nt − Ns suit donc une loi de Poisson de paramètre λ(t − s).
4.1. LE PROCESSUS DE POISSON. 147
Lemme 4.2. Soit X = (Xt )t≥0 un processus de Markov homogène (temps continu ou
discret) spatialement homogène sur l’espace des états discret additif S. Soient 0 ≤ s ≤ t.
Alors, l’incrément Xt − Xs est indépendant de Xs .
Démonstration. Il suffit de calculer :
P {Xs = x, Xt − Xs = y} = P {Xs = x, Xt = x + y}
= P {Xt = x + y | Xs = x} P {Xs = x}
= P0,y (s, t)P {Xs = x} .
On a que la fonction de masse jointe de Xt − Xs et Xs se factorise en un facteur qui ne
dépend que de x, et un facteur qui ne dépend que de y. On a donc que
P {Xt − Xs = y} = P0,y (s, t).
□
Corollaire 4.2. Soit N = (Nt )t∈R+ un processus de Poisson d’intensité λ > 0.
Alors, les incréments de N sur des intervalles disjoints sont indépendants. En particulier,
si (si )i∈N et (ti )i∈N sont des suites croissantes de temps, avec 0 ≤ si ≤ ti ≤ si+1 , alors (Nti −
Nsi )i∈N est une suite indépendante de variables aléatoires, chacune suivant respectivement
une loi de Poisson de paramètre λ(ti − si ).
Exemple 4.1. Un radar photo placé sur le bord de l’autoroute enregistre un grand excès
de vitesse chaque fois qu’un·e automobiliste passe devant celui-ci à une vitesse supérieure
à 130 km/h. 2 Selon les données du radar, le jour, ces excès surviennent au taux de 3 par
heure en moyenne.
(a) Quelle est la probabilité que l’on n’ait observé aucun excès de vitesse pendant une
période d’une heure consécutive ?
(b) Sachant qu’on a observé cinq excès de vitesse entre 13h et 15h, quelle est la probabilité
que ceux-ci se soient tous produits avant 14h ?
Solution. (a) On cherche P {N1 = 0} = e−λ = e−3 .
(b) Si t est le temps écoulé depuis 13h, alors on cherche :
P {N1 = 5, N2 − N1 = 0}
P {N1 = 5 | N2 = 5} = .
P {N2 = 5}
On peut utiliser l’indépendance des incréments pour obtenir que
5
e−λ λ5! · e−λ 1
P {N1 = 5 | N2 = 5} = (2λ)5
= .
e−2λ 32
5!
2. Cette mise en situation pourrait ne pas refléter la réalité – je ne sais pas trop comment ça marche ces
machins-là. Conduisez prudemment, bande de dare-devils délinquants !
148 4. PROCESSUS DE NAISSANCES ET DE MORT
Exemple 4.2. Au Québec, parmi les jeunes filles nées entre le 1er janvier 1999 et le 31
décembre 2001, 1483 ont reçu le prénom « Camille ». 3
Quelle est la probabilité qu’au moins une jeune femme prénomée Camille soit née le 29
février 2000 ? Quelles hypothèses fait-on pour répondre à cette question ?
Solution. Pour répondre à la question, on fait l’hypothèse que les intervalles successifs
entre les naissances de Camilles dans ces années-là sont sans-mémoire, de taux identique
et indépendants ; Si Nt est le nombre de Camilles nées à la fin du tième jour depuis le 1er
janvier 1999, alors on sait que N1096 = 1483.
La probabilité qu’il n’y ait eu aucune Camille née le 29 février 2000 correspond à la
probabilité que les 1483 soient toutes nées les autres jours ; C’est :
1095 1483
P {N425 − N424 = 0 | N1096 = 1483} = ≈ 25, 8%.
1096
Il est donc très probable qu’une Camille soit née le 29 février 2000.
3. D’après la liste des prénoms de Retraite-Québec des enfants admissibles aux prestations familiales,
nés ou ayant immigré au Québec depuis 1980.
4.1. LE PROCESSUS DE POISSON. 149
À l’inverse, supposons qu’on considère que pour chacuns des événements dénombrés par
le processus N, celui-ci peut être d’un certain type « A » avec probabilité p, indépendam-
ment pour chacun des événements, alors le processus N(A) qui dénombre uniquement les
événements de type A est aussi un processus de Poisson.
Proposition 4.5. Soit N = (Nt )t∈R+ un processus de Poisson d’intensité λ, et soient
(Ak )k∈N une suite indépendante et identiquement distribuée de variables aléatoires de Ber-
noulli avec probabilité p (c’est-à-dire que P {Ak = 1} = p et P {Ak = 0} = 1 − p).
(A) (A) = (N (A) )
Alors, si on note Nt = N
P t
k=1 Ak , le processus N t t∈R+ est un processus de
Poisson d’intensité λp.
Démonstration. Soit Tk le temps de la kième transition du processus N, et Uk =
(A)
Tk − Tk−1 les temps inter-transition de ce processus. Si on note T1 le temps de la première
transition pour N(A) , et K = min {k : Ak = 1} la première transition de N qui entraîne une
transition pour N(A) , alors on a que, d’une part :
K
(A)
X
T1 = Uk ,
k=1
où K suit une loi géométrique de paramètre p (puisque c’est le premier indice où on a un
succès), et les Uk sont des variables aléatoires exponentielles indépendantes de paramètre λ.
Par un résultat
h du cours
i de probabilités, on voit que la fonction génératrice des moments
(A)
MA (t) = E exp(tT1 ) est donnée par :
MA (t) = ψK (MU (t)),
où ψK est la fonction génératrice des probabilités pour la distribution de K, et MU (t) est
la fonction génératrice des moments pour la distribution des Uk . En l’occurence, on a que :
ps λ
ψK (s) = , MU (t) = ,
1 − (1 − p)s λ−t
150 4. PROCESSUS DE NAISSANCES ET DE MORT
et il suit que
pλ λp
MA (t) = = ,
(λ − t − (1 − p)λ λp − t
(A)
et T1 suit une loi exponentielle de paramètre λp ; donc, le taux inter-transition pour l’état
0 est de λp, et bien sûr la seule transition possible est vers l’état 1.
En faisant le même raisonnement pour les états k et k + 1, on trouve que les taux
générateurs sont Gk,k+1 = λp et Gk,k = −λp ; donc, le processus N(A) est un processus de
Poisson d’intensité λp. □
On parle d’un processus de naissances tout-court lorsque Gi,i−1 = 0 pour tout i – c’est
à dire qu’il n’y a « jamais de morts. »
Le processus de Poisson, que nous venons de voir, est un processus de naissance. C’est
le plus simple, puisque c’est un processus de naissance spatialement homogène ; c’est à dire
que Gk,k et Gk,k+1 ne dépendent pas de k dutout.
Une toute petite coche de complexité au-dessus, on trouve...
Le cas le plus général d’un processus de naissance est celui où le taux générateur Gk,k =
−νk dépend de k. Puisqu’il s’agit d’un processus de naissance, on sait que le seul autre taux
générateur non-nul est Gk,k+1 = νk .
Dans ce cas très général, il est difficile d’obtenir une idée aussi précise des distributions
impliquées ; cela dépendra bien sûr des valeurs exactes des taux de naissances (νk )k∈Z+
On observe tout de même le phénomène suivant :
Proposition 4.6. Soit X = (Xt )t∈R+ un processus de naissances avec taux de nais-
sances (νk )k∈Z+ . On définit T0 = 0 et
Tk = inf t > Tk−1 : Xt ̸= XTk−1
le temps de la kième transition (de sorte que XTk = X0 + k pour tout k ∈ Z+ .)
Alors, on a que
n
X 1
(4.2.1) E0 [Tn ] = .
νk
k=1
Démonstration. On sait d’emblée que les variables (Uk = Tk − Tk−1 )k∈N (les temps
inter-transition) sont des variables aléatoires indépendantes. De plus, sachant que XTk−1 = x,
on sait que Uk est une variable aléatoire exponentielle de paramètre νx .
4.2. LES PROCESSUS DE NAISSANCES 151
Or, bien sûr, puisque X est un processus de naissance, la suite (XTn )n∈Z+ et entièrement
déterminée – en effet, on a XTn = n. Donc, on sait immédiatement que Uk suit une loi
exponentielle de paramètre νk . Donc,
1
E0 [Uk ] = .
νk
On conclue en utilisant la linéarité de l’espérance et une somme télescopique :
n n
X X 1
E0 [Tn ] = E0 [Uk ] = .
νk
k=1 k=1
4.2.1. Les explosions. On vient de voir que dans un processus de naissances avec les
taux de naissances (λk )k∈Z+ , l’espérance du temps requis pour atteindre l’état n est donnée
par :
n
X 1
( 4.2.1) E0 [Tn ] = .
νk
k=1
Clairement, cette suite est croissante. Mais que se passe-t-il si elle est bornée ? En effet,
a priori, il n’est pas exclu, par exemple, d’avoir
lim E0 [Tn ] = t∞ < +∞;
n→∞
Cela voudrait dire que, peu importe la valeur de n qu’on choisit, on aurait que E0 [Tn ] <
t∞ . Autrement dit, « en moyenne », le processus pourrait partir à +∞ en un temps fini !
C’est ce qu’on appelle gentiment une explosion.
En fait, on va faire la définition suivante, très générale :
Définition 4.5. Soit X = (Xt )t∈R+ un processus stochastique à temps continu sur
l’espace des états discret S.
On dit que X explose si il existe un intervalle fini de temps durant lequel se produisent
une infinité de transitions.
À noter que, a priori, le fait que t∞ < +∞ existe ne signifie pas forcément que notre
processus explose à chaque réalisation – mais on sait que les temps successifs des transitions
ont une espérance bornée – mais ce qu’on va voir, c’est que dans le cas où cette limite existe,
la probabilité que le processus explose est de 1. Pour ce faire, on introduit le temps de vie :
152 4. PROCESSUS DE NAISSANCES ET DE MORT
Définition 4.6. Soit X = (Xt )t∈R+ un processus stochastique à temps continu sur
l’espace des états discret S. On définit T0 = 0 et le temps de la nième transition
Tn = inf t > Tn−1 : Xt ̸= XTn−1 .
Le temps de vie de X, noté T∞ , est donné par :
T∞ = sup Tn : n ∈ Z+ = lim Tn .
n→∞
À noter que le temps de vie peut être infini, dans le cas où la suite (Tn )n∈Z+ ne serait
pas bornée supérieurement.
Le temps de vie du processus est le temps requis pour effectuer toutes les transitions –
comme on vient de le voir, dans le cas d’une explosion, ça sera un temps fini !
Proposition 4.7. Soit X = (Xt )t∈Z+ un processus de naissances avec taux de naissances
(νk )k∈Z+ . On note T0 = 0, Tn le temps de la nième transition et T∞ = sup {Tn : n ∈ Z+ } le
temps de vie Pde X.
Alors, si k≥1 νk−1 converge, P {T∞ < +∞} = 1. Si k≥1 νk−1 diverge, alors P0 {T∞ < +∞} =
P
0.
où p = P0 {T∞ > t}. Or, cela est une contradiction, puisqu’on suppose que E0 [T∞ ] = +∞.
Donc, la seule possibilité est qu’on doit avoir que pour tout t, P0 {T∞ > t} = 1 ; en prenant
la limite lorsque t tend vers 0, on trouve donc que P0 {T∞ = +∞} = 1. □
Exemple 4.4. On suppose une colonie de bactéries, dans laquelle chaque bactérie se
clone à un taux de ν fois par minutes.
(a) Quels-sont les taux générateurs du processus (Xt )t∈R+ , où Xt compte le nombre de
bactéries au temps t ?
(b) Combien de temps cela prend-t-il en moyenne avant que la colonie atteigne n bactéries ?
(c) Y a-t-il explosion ?
Solution. (a) Lorsqu’il y a k bactéries dans la colonie, chacune d’entre elle se clone
avec un taux λ. Donc, il y aura une transition au taux de λk = kλ, aussitôt que l’une
des bactéries se sera clonée ! On a donc Gk,k = −kλ et Gk,k+1 = kλ.
(b) On cherche
n
X 1 log(k)
E0 [Tn ] = ≈ .
kλ λ
k=1
(c) Non, il n’y a pas d’explosions, puisque cette suite diverge. Donc, le temps de vie est
infini. La croissance de la colonie est exponentielle de taux λ.
Ces processus sont assez complexes pour modéliser plusieurs types de phénomènes in-
téressants. Les processus de naissances (tout court) sont simplement un cas particulier des
processus de naissances et de mort qui survient lorsque µk = 0 pour tout k ∈ N.
154 4. PROCESSUS DE NAISSANCES ET DE MORT
4.3.1. Les explosions. Les processus de naissances et de morts sont plus compliqués
à gérer que les simples processus de naissances ; en effet, on ne peut pas estimer aussi
facilement l’espérance du temps de vie, puisque’il est impossible de l’écrire comme une
somme de variables aléatoires indépendantes dont la distribution est connue d’avance.
On peut toutefois remarquer une borne intéressante :
Lemme 4.3. Soit X = (Xt )t∈R+ une chaîne de Markov homogène à temps continu sur
l’espace des états discret S.
Si le processus X explose avec une probabilité positive, alors l’ensemble {Xt : t ≥ 0} ⊆ S
des états visités est infini.
Démonstration. Rappel de notation : on va utiliser T0 = 0, Tk = inf t > Tk−1 : Xt ̸= XTk−1 ,
T∞ = limn→∞ Tn et Uk = Tk − Tk−1 .
Si on note A = {T∞ < +∞} l’événement où X explose, et B = {|{Xt : t ≥ 0}| < +∞}
l’événement où le nombre d’états visités est fini. Ce qu’on va montrer, c’est que P0 {A | B} =
0 ; sachant qu’on a visité un nombre fini d’états, la probabilité d’exploser doit être nulle.
Supposons le contraire ; alors, on doit avoir que P {A, B} > 0. Alors, cela signifie qu’on
doit avoir une explosion en visitant un nombre fini d’états. Pour faire simple, supposons
sans perdre de généralité que S = N ; on peut supposer que sur l’événement B, il existe une
variable aléatoire N telle que Xt ≤ N pour tout t.
Ce qu’on peut faire, c’est partitionner B selon la valeur de N ; sachant que N = n, on va
noter mn = max {λi : 1 ≤ i ≤ n}, où λi est le taux inter-transiiton de l’état i (λi = −Gi,i ).
Pour les besoins de cette preuve, on notera
(n)
P {·} = P {· | N = n} .
C’est la mesure de probabilités sachant qu’on se restreint seulement aux états entre 1 et n.
Alors,
n
(n) X (n) (n)
P {Uk > δ} = P Uk > δ XTk−1 = i P XTk−1 = i
i=1
n
X (n)
= P Uk > δ XTk−1 = i P XTk−1 = i
i=1
n
X (n)
= e−λi δ P XTk−1 = i
i=1
−mn δ
≥e .
On a donc que
∞
X (n)
P {Uk > δ} = +∞;
k=1
par le Lemme de Borel-Cantelli et la loi zéro-un de Kolmogorov 4, on peut conclure que
puisque la série diverge, avec probabilité 1, une infinité de Uk sont supérieurs à δ, et T∞ =
+∞. Donc, sur N = n, on a que
(n)
P {A} = 0.
4. Il s’agit de résultats importants en théorie des probabilités. Consulter l’annexe C pour plus de détails.
4.3. LES PROCESSUS DE NAISSANCES ET DE MORTS GÉNÉRAUX. 155
Donc,
∞
X (n)
P {A | B} = P {A} P {N = n} = 0,
n=1
et on a montré que la probabilité d’explosion sachant qu’on n’atteint qu’un nombre fini
d’états est nulle. □
Le résultat des courses : si on veut une explosion dans une chaîne de Markov homogène
à temps continu, il faut visiter un nombre infini d’états. Et si on visite un nombre infini
d’états, il faut les quitter un par un. On a donc la proposition suivante :
Proposition 4.8. Soit X = (Xt )t∈R+ un processus de naissances et de morts avec taux
de naissances (νi )i∈Z+ et taux de morts (µi )i∈N .
Alors, si
Xn
(νi + µi )−1 = ∞,
i=1
on a que P {T∞ < +∞} = 0 ; le processus n’explose presque sûrement pas.
Démonstration. Cette preuve n’est pas entièrement rigoureuse mais elle donne une
idée du raisonnement.
Ce qu’il suffit de faire ici, c’est de remarquer que par le Lemme 4.3, pour qu’il y ait une
explosion, il faut visiter un nombre infini d’états – et pour faire ça, il faut absolument juste
visiter tous les états (à partir de celui où on a commencé), vu qu’on ne peut que passer de
k à k ± 1.
Si on note Vi le temps passé à l’état i la premièreP∞ fois qu’on y est arrivés, Vi suit une
loi
P∞ exponentielle de taux λ i = µ i + νi . Or, T∞ > i=1 Vi si on commence en 1 ; si la série
(µ + ν ) −1 diverge, on doit alors avoir que E [T ] diverge, et donc on doit avoir une
i=1 i i ∞
explosion. □
P∞
Autrement dit, donc, il suffit de vérifier que i=1 (νi + µi )
−1 diverge pour s’assurer qu’il
n’y aura pas d’explosion.
4.3.2. Quelques exemples.
Exemple 4.5. Dans une colonie de bactéries, chaque bactérie se divise en deux bac-
téries identiques après un temps sans mémoire de taux ν, indépendamment de toutes les
autres bactéries. De plus, chaque bactérie meure après un temps sans mémoire de taux µ,
indépendamment de toutes les autres.
(a) Soit Xt la taille de la population de bactéries (en numbre de bactéries) après un temps
t ∈ R+ . Quels sont les taux générateurs pour X = (Xt )t∈R+ ?
(b) Si on commence avec une seule bactérie, est-ce que la population finit par s’éteindre ?
(c) Quelle condition garantit l’extinction éventuelle de la population ?
(d) Dans le cas où l’extinction est garantie, quelle est l’espérance du temps avant l’extinc-
tion ?
Solution. (a) Lorsqu’on est dans l’état k ∈ N, il y a k bactéries dans la colonie. Deux
types d’événements peuvent survenir :
– Une des k bactérie se reproduit. Cela survient à un taux kν, et on transitionne vers
l’état k + 1.
156 4. PROCESSUS DE NAISSANCES ET DE MORT
– Une des k bactéries meure. Cela survient à un taux kµ, et on transitionne vers l’état
k − 1.
On a donc les taux de transition suivants :
Gk,k−1 = kµ, Gk,k = −k(µ + ν), Gk,k+1 = kν.
Bien sûr, dans l’état 0, aucune transition n’est possible, donc les taux générateurs
des transitions sont tous nuls dans cet état ; l’état 0 est absorbant – une fois atteint, on
y reste indéfiniment.
(b) Si on commence avec une seule bactérie, on peut considérer le processus discret Y =
(Yn = XTn )n∈Z+ où Tn est le temps de la nième transition (et T0 = 0). Les probabilités
de transition en un pas pour Y sont données par :
kµ µ ν
P0,0 = 1; Pk,k−1 = = , Pk,k+1 = .
k(µ + ν) µ+ν µ+ν
Remarque. Une autre façon amusante de répondre aux questions est de raisonner
par arbres de Galton-Watson. La descendance immédiate de chaque bactérie corres-
pond au nombre de fois qu’elle se divisera avant de mourrir ; c’est une variable aléatoire
géométrique (commençant en 0) avec fonction de masse
p(k) = pk q (k ≥ 0).
La fonction génératrice des probabilités pour la descendance immédiate d’une bac-
térie est donc :
q
ψ(s) = ;
1 − ps
on trouve
pq
ψ ′ (s) = ,
(1 − ps)2
d’où ψ ′ (1) = p/q = 1/ρ. L’extinction est assurée si ψ ′ (1) ≤ 1, d’où ρ ≥ 1, ce qui
correspont exactement à ce que nous avons trouvé.
Comme c’est vrai pour tout i, et que la série ∞ j=1 jν diverge, on doit avoir que u1
1
P
En effet
ui = Ei [τ0 ] = Ei [τi−1 ] + Ei−1 [τ0 ]
= Ei [τi−1 ] + ui−1 .
Intuitivement, on voit qu’on doit avoir Ei [τi−1 ] ≤ E1 [τ0 ] parce que toutes les tran-
sitions surviennent plus rapidement lorsqu’on passe de i à i − 1 (vu qu’il y a plus
d’individus). 5
On rappelle que
i
X 1 i−j
δi = ρi u1 − ρ .
jν
j=1
∞
X xi
− log(1 − x) = .
i
i=1
5. L’argument rigoureux ici est une peu compliqué et pas super important.
4.3. LES PROCESSUS DE NAISSANCES ET DE MORTS GÉNÉRAUX. 159
Exemple 4.6. Soit X = (Xt )t∈R+ un processus de naissances et de morts avec taux de
naissances (νi )i∈Z+ et taux de mort (µi )i∈N . On dit que X est un processus linéaire avec
immigration si les taux de naissance et de mort sont donnés par :
νk = λ + kν, µk = kµ.
À long terme, peut-on estimer la taille de la population si on assume que µ ̸= ν ?
Solution. Pour faire cet estimé, nous allons simplement calculer E0 [Xt ], l’espérance
du nombre d’individus au temps t. On a :
∞
(t)
X
Ei [Xt ] = jPi,j .
j=1
∞ ∞ ∞
(t) (t) (t)
X X X
(2) (λ + (j − 1)ν)Pi,j−1 =λ Pi,j +ν jPi,j
j=1 j=0 j=0
= λ + νEi [Xt ] .
160 4. PROCESSUS DE NAISSANCES ET DE MORT
(3 + 6)
∞ ∞ ∞ h i
(t) (t) (t)
X X X
(j + 1)(j + 1)µPi,j+1 − j(jµ)Pi,j = (j + 1)(j + 1)µP (t) − i, j + 1 − j(jµ)Pi,j
j=1 j=1 j=1
(t)
= −µPi,1 .
∞ ∞
(t) (t)
X X
(4) − (j + 1)µPi,j+1 = − jµPi,j
j=1 j=2
∞
(t) (t)
X
= −µ jP − P i,j i,1
j=1
(t)
= −µEi [Xt ] + µPi,1 .
Tout ceci ensemble donne finalement
d
Ei [Xt ] = λ + (ν − µ)Ei [Xt ] ;
dt
si on écrit Mi (t) = Ei [Xt ], on a en fait une équation différentielle inhomogène :
λ
Mi (t) = (1 − e(ν−µ)t ) + ie(ν−µ)t .
µ−ν
4.3. LES PROCESSUS DE NAISSANCES ET DE MORTS GÉNÉRAUX. 161
Exemple 4.7. On considère une file d’attente dans un magasin. Les client·e·s arrivent à
des intervalles indépendants et sans mémoire d’espérance 1/ν > 0. Le préposé au comptoir
sert chaque client·e, tour à tour, en prenant chaque fois un temps aléatoire sans mémoire
d’espérance 1/µ. Lorsqu’unė client·e arrive et qu’il y a déjà quelqu’un en file, le/ladit·e
client·e se place en file et attend son tour.
On note Xt le nombre de personnes qui sont en file au temps t.
(a) Donner les taux générateurs pour le processus Xt . De quel type de processus s’agit-il ?
(b) Dans quels cas la distribution stationnaire existe-t-elle ? À quoi cela correspond-il ?
(c) Si une distribution stationnaire existe, quelle est cette distribution ? Donner l’espérance
du nombre de client·e·s en file.
Solution. (a) Dans l’état 0, on transitionne vers l’état 1 avec un taux ν. Dans l’état
k, pour k ≥ 1, quelqu’un arrive dans la file (et on transitionne vers k + 1) avec un taux
ν. La personne au comptoir est servie (et s’en va) avec un taux µ (et on transitionne
vers k − 1).
Donc, on a :
G0,0 = −ν, G0,1 = ν; Gk,k−1 = µ, Gk,k = −µ − ν, Gk,k+1 = ν.
(b) On prend
k
ν
θk = ;
µ
Pour que la distribution stationnaire existe, il faut que
∞
X
M= θk < +∞.
k=0
C’est le cas lorsque ν/µ < 1, soit lorsque ν < µ – c’est à dire que si les client·e·s
arrivent à un taux plus lent que le service. Dans ce cas, on a que
1 µ
M= = ,
1 − ν/µ µ−ν
et
µ(ν/µ)k
πk =
µ−ν
est une distribution stationnaire.
(c) La distribution stationnaire est une distribution géométrique à partir de 0, avec para-
mètre p = 1 − µν . l’espérance du nombre de client·e·s en file à long terme est
∞
X 1−p ν/µ ν
kπk = = = .
p 1 − ν/µ µ−ν
k=0
4.4. Exercices
Exercice 4.1 (Lessard, ex. 2.11 – SOA M A06 #9). Un jeu dans un casino fait des
paiements selon un processus de Poisson d’intensité 5 par heure, et le montant d’un paiement
est de n dollars avec probabilité (1/2)n . Les paiements sont indépendants les uns des autres.
(a) Quelle est la probabilité qu’il n’y ait aucun paiement de moins de 4 dollars dans une
durée de 20 minutes ?
(b) Quelle est la probabilité qu’il n’y ait aucun paiement de plus de 3 dollars dans une
période de 20 minutes ?
(c) Quelle est la probabilité qu’il n’y ait aucun paiement durant une période de 20 minutes ?
Exercice 4.2. Un processus de morts est un cas particulier d’un processus de nais-
sances et de morts où νk = 0 pour tout k ∈ Z+ . Les éléments du générateur sont donc
Gk,k = −µk , Gk,k−1 = µk .
(a) On dit qu’un processus de morts est linéaire lorsque µk = kµ pour µ > 0 et k ∈ Z+ .
Soit τ0 = inf {t > 0 : Xt = 0} le temps d’atteinte de l’état 0.
Calculer En [τ0 ].
(b) Peut-il y avoir une explosion dans un processus de morts ? Pourquoi, ou pourquoi pas ?
Exercice 4.4 (Lessard, ex. 2.21). On considère une station de taxis dans un aéroport
où les taxis et les clients arrivent selon des processus de Poisson d’intensité 2 et 3 respecti-
vement. On suppose qu’un taxi attend à la station, quel que soit le nombre de taxis présents
lors de son arrivée. En revanche, si un client ne trouve pas de taxi à son arrivée, il décide
d’utiliser un autre moyen de transport.
(a) Quelle est la proportion moyenne à long terme des clients qui prennent un taxi ?
(b) Quelle est le nombre moyen de taxis qui attendent à l’aéroport à long terme ?
(c) Lorsqu’un taxi arrive à un instant au hasard à la station, quel est le temps moyen que
ce taxi doit attendre avant de servir un client ?
4.4. EXERCICES 165
Exercice 4.5 (Lessard, ex. 2.23). Déterminer, si elle existe, la distribution stationnaire
d’un processus de naissances et de morts dont les taux de naissances et de morts sont donnés
par
k
νk = ν, µk = .
k+1
Exercice 4.6 (Lessard, ex. 2.24). Une population reçoit des immigrants au taux de
1. De plus, chaque individu se reproduit à un taux constant égal à 2 et meurt à un taux
donné par 1 + k lorsqu’il y a k individus.
(a) Donner les taux de naissances et de morts pour cette population.
(b) Existe-t-il une distribution stationnaire ?
Exercice 4.7 (Lessard, ex. 2.25). Des clients se présentent pour recevoir un service
selon un processus de Poisson d’intensité λ. Ils sont servis un à la fois et le temps de service
est exponentiel de paramètre µ. De plus, les clients qui attendent en file pour être servis
deviennent impatients et ils quittent la file au taux δ indépendamment les uns des autres.
(a) Donner la distribution stationnaire dans le cas où δ = µ.
(b) Montrer que la distribution stationnaire existe pour tout δ > 0.
Montrer que Z = (Zt )t∈R+ est aussi un processus de naissances et de morts. Quels sont
les taux de naissance et de mort pour Z ?
Deuxième partie
Processus de renouvellements
(À venir)
169
Chapitre 6
Les martingales
Dans les quatre premiers chapitres, nous nous sommes penchés sur les chaînes de Markov
– c’est-à-dire un type particulier de processus stochastique, qui satisfait la propriété de
Markov, telle que définine au chapitre 1. Dans le chapitre qui suit, nous nous intéresserons
à une autre propriété intéressante : la propriété de martingale.
Un peu de contexte
Pour rappel, on s’intéresse à des processus stochastiques – c’est à dire des familles comme
X = (Xt )t≥0 de variables aléatoires à valeur dans un espace d’états S, indicées par le temps
t. Nous avons vu au chapitre 1 que l’on peut distinguer l’étude de ces processus selon :
– la topologie du temps : soit le temps est discret (c’est Z+ ), soit il est continu (c’est
R+ ).
– la topopologie de l’espace : soit l’espace S est discret, soit il est continu – nous
n’avons encore pas touché à cette dernière possibilité, puisqu’il était beaucoup plus
simple de travailler avec des fonctions de masse qu’avec des densités.
Dans la section 4.1.3, nous avons également introduit les notions d’incrément, et nous
avons remarqué qu’il est souvent utile de préciser un peu plus les structures disponibles sur
l’espace d’états S – en l’occurence, pour définir les incréments et l’homogénéité spatiale, il
fallait que S ait une structure « additive » – c’est-à-dire qu’on veut une définition adéquate
de l’opérations d’addition dans S, avec un élément neutre, un inverse unique, etc.
Dans le contexte des martingales, le temps pourra être discret ou continu. Par contre,
nous aurons besoin de quelques structures supplémentaires sur l’espace des états S : 1 :
i. Nous aurons besoin que S soit muni d’opérations d’addition et de soustraction bien
définies, comme précédemment.
ii. Nous aurons besoin aussi d’une notion de « mesure » sur l’espace S, afin de pouvoir y
définir une intégrale. 2
Pour nos intérêts, il suffira amplement de choisir S = Rn ; dorénavant dans ce chapitre,
nous travaillerons donc toujours dans l’espace des états Rn . La variable Xt prendra donc
des valeurs dans Rn , et on aura donc accès aux notions et aux quantités suivantes :
– Les incréments : Xt − Xs ;
– La norme : ∥Xt ∥ ;
– L’espérance : E [Xt ].
1. À noter qu’on peut également fournir une définition de martingale à temps continu dans le cas où S
est une variété différentiable dont l’espace tangent possède en tout point ces propriétés. Pour en apprendre
plus sur les variétés différentiables... il faudra faire un cours de géométrie différentielle !
2. Vous pouvez consulter les notes d’André Giroux au sujet de la théorie de la mesure.
171
172 6. LES MARTINGALES
Pour la grande majorité des exemples vus dans ce chapitre-ci, nous travaillerons en temps
discret. Toutefois, a priori, la théorie est à peu près la même en temps continu. Lorsque les
distinctions sont importantes, elles seront mentionnées explicitement.
iii. On dit que X a la propriété de martingale par rapport à Y si, pour tous temps s, t
avec 0 ≤ s ≤ t, on a
(6.1.1) E [Xt | Y≤s ] = Xs .
Le processus X est une martingale par rapport à la famille Y s’il est adapté à Y,
intégrable pour tout t et possède la propriété de martingale par rapport à Y. On dit que
X est simplement une martingale (sans préciser) si elle est une martingale par rapport à
elle-même.
Solution. (a) Si Xt est le nombre de Pile obtenus jusqu’à la tième partie inclusivement,
alors on a que
Xt
Xt = Yi
i=1
(et X0 = 0). On voit bien que Xt est entièrement déterminée par les valeurs de Y≤t .
Donc, X est adapté à Y.
(b) De même, il est clair que Yt = Xt − Xt−1 , qui ne dépend que des valeurs de X≤t . Donc,
dans ce cas-ci, Y est adapté à X aussi. Attention ! Ça n’est pas toujours le cas !
(c) La variable Zt donne le nombre de lancers, immédiatement après le tième, qu’il faut
encore réaliser pour obtenir Pile à nouveau. Comme nous avions vu à l’exemple 1.4, Zt
est bel et bien une chaîne de Markov ; même si Zt « dépend du futur » (on ne peut pas
connaître Zt sans savoir ce qui se passera dans les lancers subséquents), ce futur est
indépendant du passé lorsqu’on connaît le présent.
Toutefois, Z n’est pas adapté à Y, puisque justement, dans le cas où Zt−1 = 1,
Zt est entièrement indépendant de Y≤t ; en effet, lorsqu’on vient juste d’obtenir Pile,
connaître les parties qu’i ly a eu avant le temps t ne nous aide en rien à prédire combien
ça prendra de temps avant d’avoir Pile à nouveau.
On remarque en outre que toute famille X = (Xt )t≥0 est forcément adaptée à elle-même.
Intégrabilité. On requiert que Xt soit intégrable afin que l’espérance conditionnelle soit
bien définie ; si ce n’était pas le cas, on courrait le risque que la propriété de martingale n’ait
pas vraiment de sens !
Équivalences pour la propriété de martingale par rapport à Y. Il s’agit du gros morceau
de notre définition. Nous allons maintenant voir un peu plus intuitivement ce uqe la propriété
de martingale signifie, d’un point de vue plus intuitif. Supposons que X = (Xt )t≥0 est une
martingale par rapport à Y = (Yt )t≥0 .
Le tout premier constat à faire, c’est que, par définition des espérances conditionnelles,
on a que pour tout s,
E [Xs | Y≤s ] = Xs
Il suit donc que, lorsque l’on a la propriété de martingale par rapport à Y, pour tous
s, t avec 0 ≤ s ≤ t, on a :
E [Xt − Xs | Y≤s ] = 0.
En fait, on a même l’équivalence :
Lemme 6.1. Soit X = (Xt )t≥0 un processus intégrable pour tout t et adapté à Y =
(Yt )t≥0 .
X a la propriété de martingale par rapport à Y si et seulement si, pour tous s, t tels que
0 ≤ s ≤ t, on a :
(6.1.2) E [Xt − Xs | Y≤s ] = 0.
Démonstration. On a :
E [Xt | Y≤s ] = E [Xt − Xs + Xs | Y≤s ]
= E [Xt − Xs | Y≤s ] + Xs ,
où la seconde égalité est par linéarité et puisque X est adapté à Y.
174 6. LES MARTINGALES
Mais on peut aller plus loin ! En effet, la propriété de martingale interagit de façon
amusante avec la propriété de Markov :
Lemme 6.2. Soit X = (Xt )t≥0 une chaîne de Markov sur Rn intégrable pour tout t.
Alors, X est une martingale (par rapport à elle-même) si et seulement si elle satisfait
(6.1.3) E [Xt | Xs ] = Xs .
E [Xt | Xs ] = Xs .
Lemme 6.3. Soit X = (Xt )t≥0 une chaîne de Markov spatialement homogène sur Rn et
intégrable pour tout t.
Alors, X est une martingale si et seulement si, pour tous s, t tels que 0 ≤ s ≤ t :
(6.1.4) E [Xt − Xs ] = 0.
mais puisque X est spatialement homogène, par le lemme 4.2 3, on a que forcément, Xt − Xs
est indépendant de Xs , et
E [Xt − Xs | Xs ] = E [Xt − Xs ] .
3. Le lemme 4.2 est dans le cas d’un espace d’états discret S ; notre définition de l’homogénéité spatiale
est aussi faite dans ce cadre ; pourtant, on peut éa définir de façon plus générale aussi pour des espace d’états
continus ; l’intuition demeure la même.
6.1. DÉFINITION ET EXEMPLES 175
Le cas du temps discret. Pour terminer cette discussion, nous allons introduire également
une équivalence qui nous simplifiera beaucoup la vie dans le cas où le temps est discret :
Lemme 6.4. Soit X = (Xt )t∈Z+ un processus stochastique à temps discret, adapté à
Y = (Yt )t∈Z+ et intégrable en tout t ∈ Z+ .
Alors X est une martingale par rapport à Y si et seulement si, pour tout t ∈ Z+ , on a
(6.1.5) E [Xt+1 | Y≤t ] = Xt .
Démonstration. Il est évident que si X est une martingale par rapport à Y, il suffit
de choisir t = s + 1 dans la définition pour obtenir (6.1.5). Nous allons maintenant montrer
que ça marche aussi dans l’autre sens.
Supposons qu’on a déjà vérifié que
E [Xt+k | Y≤t ] = Xt
pour tout k ≤ n et pour tous t On a alors 4 :
E [Xt+n+1 | Y≤t ] = E [E [Xt+1+n | Y≤t+1 ] | Y≤t ]
La proposition suivante fait un bref résumé des équivalences pertinentes pour la condition
de martingale :
Proposition 6.1. Soit X = (Xt )t≥0 un processus stochastique adapté à Y = (Yt )t≥0
(avec Y0 = 0) et intégrable pour tout t ≥ 0.
X est une martingale si et seulement si au moins l’une des conditions suivantes est
remplie ; si l’une d’elle est remplie, toutes les suivantes le sont aussi.
6.1.2. Exemples. Nous allons maintenant nous pencher sur quelques exemples simples.
Exemple 6.2. On définit Y = (Yt )t∈N une suite de variables aléatoires indépendantes
et identiquement distribuées sur Rn . Puis, on définit :
t
X
Xt = Yi .
i=1
Le processus X = (Xt )t∈Z+ est adapté à Y ; il est également intégrable pourvu que
E [∥Y1 ∥] < +∞.
On appelle ce type de processus une marche aléatoire spatialement homogène sur Rn ;
c’est une chaîne de Markov homogène à temps discret, spatialement homogène. Donc, on a
que X est une martingale si et seulement si E [Y1 ] = 0.
Par exemple, La marche aléatoire symétrique sur Zd est une martingale.
Exemple 6.3. On considère Y = (Yt )t∈N une suite de variables aléatoires indépendantes
et identiquement distribuées avec
P {Y1 = 1} = p P {Y1 = −1} = q = 1 − p,
Pt
et on définit Xt = i=1 Yi .
Le processus X = (Xt )t∈Z+ est une martingale lorsque p = q ; autrement, non.
6.2. TEMPS D’ARRÊT 177
Or, si on pose ρ = q/p, Le processus Z = (Zt = ρXt )t∈Z+ est une martingale par rapport
à Y. En effet,
E [Zt+1 | Y≤t ] = E Zt ρYt+1 Y≤t
= Zt E ρYt+1
= Zt (pρ + qρ−1 )
= Zt
Avant d’aller plus loin, il convient de donner une intuition pour cette définition. Comme
au début de la section 6.1.1, Y = (Yt )t∈Z+ représente une famille de variables aléatoires qui
encode à chaque temps la nouvelle information dont on dispose. Ainsi, Y≤t contient toute
l’information dont on dispose au temps t.
Dans ce contexte, la condition que τ soit un temps d’arrêt signifie, intuitivement, qu’on
peut savoir, au temps t, si le temps τ est déjà survenu ou pas. On dit que τ est un temps
d’arrêt parce que c’est un temps auquel on peut « arrêter » un chronomètre imaginaire
aussitôt qu’il survient, parce qu’on sait au temps t si le temps est déjà survenu ou pas.
Exemple 6.5. (a) Disons qu’on note Yi = 1 si il neige le jour i, et Yi = 0 si il ne neige
pas ce jour-là. On peut définir « la date de la première neige » :
τ = min {i ∈ N : Yi = 1} .
5. Dans le langage plus précis de la théorie de la mesure, on dira que l’événement {τ ≥ t} est mesurable
par rapport à la tribu engendrée par Y≤t .
178 6. LES MARTINGALES
La propriété forte de Markov, c’est la même chose, mais on peut remplacer le temps t
par un temps d’arrêt !
Définition 6.3. Soit X = (Xt )t≥0 un processus stochastique quelconque (à temps
discret ou continu, sur un espace d’états S discret ou continu).
On dit que le processus X possède la propriété de Markov forte si, pour tout temps
d’arrêt τ (par rapport à X), on a que
P {X>τ ∈ A | Xτ = i, X<τ ∈ B} = P {X>τ ∈ A | Xτ = i} .
Mais existe-t-il une réelle différence entre les propriétés de Markov faibles et fortes ? En
temps discret, non ! Voici une proposition (laissée sans démonstration) :
Proposition 6.2. Soit X = (Xt )t∈Z+ un processus stochastique à temps discret sur
l’espace des états S. Alors, X a la propriété de Markov forte si et seulement si X a la
propriété de markov faible.
6.2. TEMPS D’ARRÊT 179
Démonstration. On a que
"N # "∞ #
Yi 1{N ≥i}
X X
E Yi = E
i=1 i=1
∞
E Yi 1{N ≥i}
X
=
i=1
∞
X
=µ P {N ≥ i}
i=1
= µE [N ] .
□
Exemple 6.6. Une pièce de monaie tombe sur Pile avec probabilité p et sur Face avec
probabilité 1−p. On joue jusqu’à obtenir k fois Pile. Soit N le nombre de lancers nécessaires.
Calculer E [N ].
Solution. On pourrait faire deux arguments ; on pourrait voir N comme une somme
de k variables géométriques indépendantes, chacune d’espérance 1/p. Ou...
Si Yi = 1 lorsque le ième lancer retombe sur Pile, et 0 sinon, on voit que N est un temps
d’arrêt par rapport à Y = (Yi )i∈N . On a :
N
X
Yi = k.
i=1
≤ E [|Xt |] + E [|Xτ |]
τ
" #
X
= E [|Xt |] + E X0 + (Xu − Xu−1 )
u=1
τ
" #
X
≤ E [|X0 |] + E [|Xt |] + E |(Xu − Xu−1 | .
u=1
Puisque X est une martingale, les deux premiers termes après la dernière égalité sont
finis ; il suffit donc de montrer que le dernier l’est aussi ; or, pour tout u ≤ τ , Mu − Mu−1 =
Xu − Xu−1 , et on a donc que |Xu − Xu−1 | ≤ K ; on trouve donc :
" τ #
X
E [|Mt |] ≤ E [|X0 |] + E [|Xt |] + E K
u=1
= E [|X0 |] + E [|Xt |] + KE [τ ] .
Et puisque τ est intégrable, la variable Mt l’est aussi, pour tout t.
Étape 3 : Vérifier la condition de martingale.
Ça, c’est assez rapide :
Corollaire 6.3. Soit X = (Xt )t∈Z+ une martingale par rapport à Y = (Yt )t∈Z+ , τ un
temps d’arrêt par rapport à Y et M le processus X arrêté en τ .
En supposant que M et τ satisfont l’une des conditions du théorème d’arrêt de Doob, il
suit que
E [X0 ] = E [Xτ ] .
Démonstration. Puisque M est aussi une martingale par rapport à Y, son espérance
est aussi constante. Or, bien sûr,
lim Mt = Xτ ,
t→∞
et par conséquent, puisque P {τ < +∞} = 1, on doit avoir que
E [X0 ] = E [M0 ] = lim E [Mt ] = E [Xτ ] .
t→∞
10 20 30 40 50
-2
-4
Figure 6.1 – Une réalisation d’une marche aléatoire symétrique (en bleu)
et le processus arrêté au temps τ−1 (en jaune).
Exemple 6.8 (la ruine du joueur, version martingale). Soit X = (Xt )t∈Z+ une marche
aléatoire simple symétrique sur Z, comme à l’exemple précédent. Cette fois, on considére
τ{−b,a} , le temps d’atteinte de l’un ou l’autre des états −b ou a :
10 25
5 20
15
50 100 150 200 250 300
10
-5
5
-10
(a) Une réalisation du processus qui s’est ar- (b) Une réalisation du processus qui s’est ar-
rêté en −b. rêté en a.
τ{−b,a} est un temps d’arrêt. De plus, lorsque X0 = 0, bien sûr, Xt∧τ{−b,a} est contenu
entre −b et a ; donc c’est borné, et on est également garanti d’atteindre −b ou a éventuel-
lement, puisque X est un processus transient. Donc P τ{−b,a} < +∞ = 1. On peut donc
appliquer le théorème d’arrêt de Doob – et son corollaire !
184 6. LES MARTINGALES
Or, bien sûr, Xτ{−b,a} = b si et seulement si τ−b < τa , et vice versa ; on trouve donc que :
0 = −bP0 {τ−b < τa } + a(1 − P0 {τ−b < τa } ,
et on peut isoler P0 {τ−b < τa } pour trouver :
a
P0 {τ−b < τa } = .
a+b
Si on décale tout de b unités vers la droite (donc on additionne b à tous les états), et
qu’on pose b = k et a + b = N , alors on retrouve le fameux résultat de la ruine du parieur
dans le cas symétrique (Comparer avec l’exemple 1.17) :
N −k
Pk {τ0 < τN } = .
N
Le raisonnement est rapide, et on n’a pas besoin de se casser la tête avec des récurrences !
Exemple 6.9 (La ruine du parieur, biaisée.). Soit X = (Xt )t∈Z+ une marche aléatoire
simple biaisée sur Z ; c’est-à-dire qu’on a
Pi,i+1 = p; Pi,i−1 = q := 1 − p,
avec p ̸= q. On prend τ{−b,a} comme à l’exemple précédent.
Cette fois-ci, X n’est pas une martingale. On prent Zt = ρXt , où ρ = q/p. Comme nous
l’avons vu précédemment, Z = (Zt )t∈Z+ est une martingale par rapport à X. De plus, on
a aussi que Mt = Zt∧τ{−b,a} est bornée, puisque d’une part Zt > 0, et d’autre part, Zt ≤
max ρ−b , ρa . Puisqu’on sait aussi qu’on va forcément atteindre l’état a éventuellement
(puisque X est transient et tend vers +∞), on sait donc que P0 τ{−b,a} < +∞ = 1, et on
peut utiliser le théorème de Doob et son corollaire.
La conséquence, c’est bien sûr que
1 = E0 [Z0 ] = E0 ρX0
h i
= E0 Zτ{−b,a}
= ρa P0 {τa < τ−b } + ρ−b P0 {τ−b < τa }
= ρa + (ρ−b − ρa )P0 {τ−b < τa } .
Et on conclue que
1 − ρa ρb − ρa+b
P0 {τ−b < τa } = = .
ρ−b − ρa 1 − ρa+b
Encore une fois, avec b = k, a + b = N et une petite translation de k = b états vers la droite,
on trouve donc le même résultat de ruine du parieur :
ρk − ρN
Pk {τ0 < τN } = .
1 − ρN
6.3. LE THÉORÈME D’ARRÊT. 185
En prenant a qui tend vers +∞, lorsque p > q (donc ρ < 1), on trouve que
P0 {τ−b < +∞} = ρb .
Mais
Pt on peut même aller plus loin ! En utilisant la formule de Wald – attendu que
Xt = i=1 ξi , où les (ξi )i∈N sont i.i.d., avec
(
+1 avec probabilité p
ξi = Xi − Xi−1 =
−1 avec probabilité q,
alors, on trouve bien sûr que
h i
E0 Xτ{−b,a} = E τ{−b,a} E0 [ξ1 ] .
Or, E0 [ξ1 ] = p − q. En mettant tout cela ensemble, on trouve donc :
1 − ρb ρb − ρa+b
1
E0 τ{−b,a} = a −b .
p−q 1 − ρa+b 1 − ρa+b
Nous n’avions pas pu obtenir ce résultat par la méthode des récurrences ; c’est possible
maintenant, entièrement grâce à notre théorème d’arrêt et à la formule de Wald !
186 6. LES MARTINGALES
6.4. Exercices
Les exercices de ce chapitre sont entièrement tirés de la section 4.3 de l’ouvrage de Sabin
Lessard.
Exercice 6.1. Une urne contient des boules rouges et des boules vertes. À chaque
instant n ≥ 0, on tire une boule au hasard de l’urne et on la remet dans l’urne en ajoutant
une autre boule de la même couleur que celle tirée. On désigne par Xn la proportion de
boules rouges dans l’urne à cet instant et on suppose qu’il y a une boule de chaque couleur
dans l’urne initialement.
Montrer que X = (Xn )n∈Z+ est une martingale.
Exercice 6.2. Soit X = (Xt )t∈Z+ une marche aléatoire simple sur Z ; c’est-à-dire qu’on
peut écrire
Xt
Xt = Yi ,
i=1
avec Y = (Yi )i∈N une famille de variables aléatoires indépendantes identiquement distribuées
satisfaisant P {Y1 = ±1} = 12 .
(a) Soient τ−b et τa respectivement les temps d’atteinte des états −b et a par X. On note
τ−b,a = τ−b ∧ τa . Est-ce un temps d’arrêt ?
(b) Utiliser le théorème d’arrêt de Doob pour calculer P0 Xτ−b,a = a.
X )
(a) Montrer que (2t∈Z
t
+ est une martingale par rapport à Y = (Yt )t∈Z+ .
Exercice 6.5. Un joueur mise un dollar sur chacun des jeux d’une série de jeux iden-
tiques et indépendants. Son gain net par partie – le gain brut moins la mise d’un dollar – est
d’espérance µ = −1/2 et de variance σ 2 = 1, en plus d’être borné par une constante K > 0.
Le gain net après t ≥ 1 jeux est donc donné par
t
X
Xt = Yi ,
i=1
où Yi est le gain net sur l’ième jeu (on assume X0 = 0).
On introduit maintenant, pour tous t ≥ 0 :
Mt = Xt − µt; Wt = Mt2 − σ 2 t,
et on définit
τ = min {t ≥ 0 : Xt = −N } ,
où N est un entier naturel quelconque.
(a) Montrer que M = (Mt )t∈Z+ et W = (Wt )t∈Z+ sont des martingales par rapport à Y.
(b) Vérifier que τ est un temps d’arrêt par rapport à Y.
(c) Utiliser le théorème d’arrêt pour déterminer l’espérance et la variance de τ .
Troisième partie
Sujets avancés
Chapitre 7
Le mouvement Brownien
Pour clore la discussion des processus stochastiques, nous faisons une petite incursion
dans le territoire des martingales à temps continu en explorant la reine parmi les reines des
martingales à temps continu : le processus de Wiener.
Mais... et le mouvement Brownien ? L’apellation mouvement Brownien, que vous reco-
naissez sûrement, fait référence au mouvement imprévisible de particules en suspens dans
un fluide dont on ne peut voir les courants. Lucrèce, disciple d’Épicure, décrit par exemple
le mouvement des grains de poussière dans l’air en ces termes 1 :
Lorsqu’à travers la nuit d’une chambre fermée
Le Soleil entre et darde une flèche enflammée
Regarde, et tu verras dans le champ du rayon
D’innombrables points d’or mêlés en tourbillons
Former leurs rangs, les rompre, encor, toujours, sans trêve
Et livrer un combat qui jamais ne s’achève.
[...]
Vois ces points sous des heurts que l’œil ne saisit pas,
Changer de route, aller, revenir sur leurs pas
Ici, là. En passant, quelqu’atome les dérange,
Et c’est ce qui reforme ou défait leur phalange :
Par lui-même en effet se meut tout corps premier.
Sur les groupes errants qui n’ont pu se lier
S’il tombe un poids égal, il les réduit en poudre.
L’imperceptible choc n’a-t-il pu les dissoudre ?
Ont-ils pu résister ? Ils tremblent seulement.
Ainsi des corps premiers part tout ce mouvement
Qui par degrés arrive à nos sens et rencontre
Enfin ces frêles grains que le rayon nous montre.
Nous voyons ondoyer leur poussière, et nos yeux
Ne peuvent point saisir la cause de leurs jeux.
Près de 1900 ans plus tard, c’est le biologiste écossais Robert Brown remarque un mou-
vement similaire en observant des grains de pollen suspendus dans l’eau. C’est le nom de
Brown qui restera acollé à ce type de mouvement. La description mathématique survien-
dra plus tard ; on la devra en partie à Albert Einstein, puis, plus tard, au mathématicien
américain Norbert Wiener.
Ce qu’il faut retenir, donc, c’est que tandis que le nom mouvement Brownien fait réfé-
rence, de façon plus ou moins vague, à un certain type de phénomène physique, le processus
1. Lucrèce, De la nature des choses, trad. André Lefèvre. Société d’éditions littéraire, Paris, 1899.
Extrait du Livre Deuxième, « Les atomes », vers 121 à 148.
191
192 7. LE MOUVEMENT BROWNIEN
de Wiener est le processus stochastique qui fournit un modèle mathématique qui permet de
décrire ce mouvement – en une dimension.
Et ça ressemple à quoi ? On se sert du processus de Wiener pour modéliser une panoplie
de phénomènes qui se comporte aléatoirement en temps continu ; l’exemple le plus fréquem-
ment employé est le cours d’une action en bourse. La figure 7.1 illustre l’évolution de la
valeur de certains actifs financiers entre le 1er janvier et le 6 décembre 2022. 2
44 400
42
300
40
38 200
36
100
34
32 0
Jan Apr Jul Oct Jan Apr Jul Oct
(a) Le cours de l’action du groupe Kraft- (b) Le cours de l’action de Tesla Motors Inc.
Heinz Corporation.
350
50 000
300
40 000
250
200 30 000
150
20 000
100
10 000
50
0 0
Jan Apr Jul Oct Jan Apr Jul Oct
(c) Le cours de l’action de l’entreprise Meta. (d) La valeur d’un Bitcoin en dollars améri-
cains.
1 2 3 4 5
-2
-4
Figure 7.2 – Dix réalisations différentes d’un processus de Wiener sur l’in-
tervalle [0, 5]
7.1.1. Commentaires sur la définition. Avant d’aller plus loin, ça vaut tout de
même la peine de faire quelques constats sur les conséquences des axiomes. Nous allons les
présenter ici sous forme de petits lemmes.
Attention ! Nous n’avons pas encore montré que le processus de Wiener existe ! Donc,
ces petits lemmes ne sont pas forcément utiles. Évidemment, on ne ferait pas tout ça si le
processus de Wiener n’existait pas ! Mais pour l’instant, on n’en a pas de preuve. Ça viendra
après.
Propriété de Markov et de martingale. Vous remarquerez qu’à priori, le fait que W soit
un processus de Wiener ne garantit pas qu’il soit une chaîne de Markov. C’est pourtant le
cas ; en effet, on a le résultat suivant :
Lemme 7.1. Soit X = (Xt )t≥0 un processus stochastique spatialement homogène sur
l’espace additif S.
Alors, X a la propriété de Markov faible.
194 7. LE MOUVEMENT BROWNIEN
Démonstration. Nous n’entrerons pas dans les détails formels de la preuve parce qu’en
temps et espace continus ça peut devenir difficile.
Connaître X≤s , ça revient à connaître n’importe quelle suite d’incréments consécutifs
entre 0 et s, et de connaître Xs . Mais peu importe les incréments qu’on connaît, il est
impossible qu’ils influent sur Xt − Xs . Dès lors, si on connaît Xs , Xt = (Xt − Xs ) + Xs est
indépendante de quoique ce soit d’autre aussitôt qu’on connaît Xs ; c’est précisément ça que
dit la propriété de Markov. □
Ainsi donc, W est bel et bien une chaîne de Markov ; en fait, W a aussi la propriété de
Markov forte. W est aussi homogène dans le temps, puisque la distribution des incréments
ne dépend que de la largeur de l’intervalle.
W est aussi une martingale !
Lemme 7.2. Soit W un processus de Wiener. Alors, W est une martingale.
Démonstration. Pour prouver cela, il suffit de constater que W est spatialement
homogène, et que par conséquence, puisque E [Wt − Ws ] = 0 pour tous s ≤ t (puisque
Wt − Ws ∼ N (0, t − s)), on peut conclure que c’est une martingale en vertu de la proposition
6.1 ; en effet, W est forcément adapté à lui-même, et Wt ∼ N (0, t) est intégrable pour tout
t. □
L’équation de la chaleur est l’équation aux dérivées partielles qui gouverne tout processus
physique de diffusion ; il est donc naturel de s’attendre à ce que, pour un processus symétrique
comme le processus de Wiener, la densité de Wt satisfasse cette équation. Or, la solution à
cette équation différentielle est :
1 − x2
f (t, x) = √
e 2t .
2πt
Cela correspond exactement à la densité d’une variable aléatoire normale centrée de
variance t !
Remarque. Cette construction est simple mais elle n’est pas entièrement satisfaisante
puisque l’on n’a qu’une limite en distribution. On peut tout de même s’en servir pour faire des
déductions intéressantes, comme on le verra plus loin. Il existe cependant des constructions
(légèrement plus élaborées) qui permettent de construire le processus de Wiener comme une
limite presque sûre ; dans ces cas-là, on peut littéralement faire des approximations de Wt ,
directement.
Finalement, pour clore cette section, il convient d’ajouter quelques mots à propos de
l’unicité de la distribution jointe pour le processus de Wiener. Après tout, nous avons main-
tenant montré qu’il existe des processus stochastiques qui satisfont les axiomes de la défini-
tion 7.1, mais ce n’est a priori pas évident que tous ces processus ont la même distribution
jointe.
Le résultat suivant (laissé sans preuve) nous le garantit :
Proposition 7.2. Soient W et W′ deux processus de Wiener. Alors W ∼ W′ ; autre-
ment dit, les distributions jointes de W et W′ coïncident. Autrement dit, les axiomes de la
définition 7.1 caractérisent complètement la distribution jointe d’un processus de Wiener.
(N ) σ
Xt = √ S⌊N t⌋ .
N
7.2. LE PROCESSUS DE WIENER AVEC DÉRIVE ET VARIANCE. 197
10 10
5 5
3 4 5 3 4 5
-5 -5
-10 -10
(a) µ = 0, σ = 1 (b) µ = 0, σ = 2
10 10
5 5
3 4 5 3 4 5
-5 -5
-10 -10
Annexes
Annexe A
(a) Un graphe simple : les sommets peuvent (b) Un multigraphe : il peut y avoir plus
être reliés par au plus une arête. qu’une arête distincte entre deux sommets.
Figure A.1 – Quatre types de graphes : les graphes simples, les multi-
graphes, les graphes orientés et les multigraphes orientés.
On note u → v s’il existe une arête qui va de u à v, et on dit que v est adjacent
à u. Dans un graphe orienté, u → v n’implique pas v → u.
On dit que l’arête e sort de u (noté u → e si f1 (e) = u ; on dit qu’elle entre en
u (noté e → u si f2 (e) = u. On dit qu’une arête e est incidente au sommet u (noté
e ∼ u ou u ∼ e) indistinctement si elle sort de u ou si elle entre en u. (figure A.2b)
On dit que les arêtes e et ē sont conjuguées si f1 (e) = f2 (ē) et f2 (e) = f1 (ē). On
dit qu’un graphe orienté est symétrique si les arêtes (excluant les boucles) peuvent
être partitionnées en paires d’arêtes conjuguées.
iii. Si le graphe est non-orienté (figures A.1a, A.1b), la fonction f a des images dans
V
1 ∪ 2 , c’est à dire l’ensemble des singletons et des paires de V . Puisque le graphe
V 1
est non-orienté, l’ordre importe peu. On dit qu’une arête relie les sommets u et v si et
seulement si
f (e) = {u, v}.
On note u ∼ v s’il existe une arête qui relie u et v, et on dit que v est adjacent à
u. Dans un graphe non-orienté, u ∼ v est strictement équivalent à v ∼ u.
On dit que l’arête e est incidente à u si u ∈ f (e). (figure A.2a)
Qu’un graphe soit orienté ou non, u ∈ V est une extrémité (ou une terminaison)
de e ∈ E si et seulement si e est incidente à v.
iv. Qu’un graphe soit orienté ou non, une arête qui relie un sommet à lui-même est appelée
une boucle. On dit qu’un graphe admet les boucles si de telles arêtes sont permises.
v. Qu’un graphe soit orienté ou non, deux arêtes e et e′ sont adjacentes si elles ont au
moins une extrémité en commun. On note e ∼ e′ .
Dans un graphe orienté, les arêtes e et e′ se s’enchaînent ou se suivent si elles
f2 (e) = f1 (e′ ). On note e → e′ .
vi. Qu’un graphe soit orienté ou non, le graphe est simple si la fonction f est injective –
dans ce cas, il existe au plus une arête reliant toute paire (possiblement ordonnée) de
sommets. Si la fonction f n’est pas injective, c’est un multigraphe.
vii. Qu’un graphe soit orienté ou non, le graphe est complet si la fonction f est surjective
– dans ce cas, toutes les paires de sommets possibles (ordonnées ou non) sont reliées
par au moins une arête.
En pratique, on travaillera presque toujours avec des graphes simples ; dans ce cas, on
pourra simplement étiqueter les arêtes directement parla paire
(resp. la paire ordonnée) de
V V
sommets que l’arête relie. On aurait alors que E ⊆ 1 ∪ 2 (resp. V × V ), et la fonction
f serait simplement l’identité. On noterait alors
e = {u, v} (resp. (u, v))
si l’arête e relie les sommets u et v (resp. va de u à v). Dans le cas d’un graphe orienté,
spécifiquement, si on a e = (u, v), alors
u = e1 , v = e2 .
soit que X
k
est l’ensemble des parties de X à exactement k éléments distincts.
A.1. DESCRIPTION DE LA STRUCTURE DES GRAPHES 203
e e' e e'
u v w u v w
(a) Ici, f (e) = {u, v}, f (e′ ) = {v, w}. Les (b) Ici, f (e) = (u, v) et f (e′ ) = (v, w). Les v
sommets u et v sont adjacents ; on note u ∼ v. est adjacent à u, mais le seule sommet adja-
Les arêtes e et e′ sont adjacentes. L’arête e est cent à v est w. (u → v et v → w, mais pas
incidente à u et à v, qui sont ses extrémités v → u, par exemple). L’arête e sort de u et
(ou ses terminaisons). entre en v ; l’arête e′ sort de v et entre en w.
Les arêtes e et e′ s’enchaînent.
Définition A.2 (Degré). Dans un graphe quelconque (V, E), le degré du sommet
v ∈ V , noté deg(v), correspond au nombre d’arêtes incidentes à v – plus précisément, le
degré correspond au nombre de fois où v est une terminaison. En particulier, une boucle de
v à v contribue deux fois au degré de v.
Dans un graphe orienté, on distingue le degré sortant deg+ (v), correspondant au
nombre d’arêtes qui sortent de v, ainsi que le degré entrant deg− (v), correspondant au
nombre d’arêtes qui entrent en v. On a dès lors le résultat évident :
′ ′
V V
E ′ = e ∈ E : f (e) ∈ ∪ (resp. V × V ).
1 2
Dans le cas de graphes simples, on peut simplement choisir
′ ′
′ V V
E =E∩ ∪ (resp. V × V ).
1 2
V ′ = f1 (e) : e ∈ E ′ ; f2 (e) : e ∈ E ′ .
204 A. LEXIQUE DE LA THÉORIE DES GRAPHES
ii. Le chemin C est eulérien s’il visite chaque arête de E exactement une fois.
Définition A.6 (Cycles). Soit v ∈ V un sommet du graphe G = (V, E).
i. Un chemin entre v et v est un cycle. Un chemin orienté de v à v est un cycle orienté.
ii. Un cycle est hamiltonien s’il visite chaque sommet exactement une fois (à l’exception
du sommet de départ).
Un cycle est eulérien s’il visite chaque arête exactement une fois.
Définition A.7 (Genre, graphe planaire). Soit G = (V, E) un graphe.
i. Un plongement de G dans une surface Σ est « un dessin » du graphe G, où les sommets
sont représentés par des points, et les arêtes sont représentées par des arcs de courbes
reliant ces points de telle façon qu’aucune paire d’arête ne s’intersecte.
ii. Le genre du graphe G correspond au genre minimal d’une surface Σ qui admet un
plongement de G. 2
iii. Les graphes planaires sont les graphes de genre 0 – ils peuvent être plongés dans une
sphère ou dans un plan. Intuitivement, les graphes planaires sont ceux qu’il est possible
de tracer sur du papier sans que deux arêtes ne se croisent.
Définition A.8 (Distance). Soit G = (V, E) un graphe.
i. La distance d(u, v) entre les sommets u et v est la longueur minimale d’un chemin
reliant u et v. Dans les graphes non-orientés et les graphes symétriques, c’est une
métrique sur V . 3
ii. Le diamètre d’un graphe est la plus grande distance possible entre deux sommets de
ce graphe.
2. En topologie, le genre d’une surface compacte correspond au « nombre de trous » formés par la
surface. Pour les surfaces compactes, le genre identifie les classes d’équivalence par homéomorphisme. Par
exemple, une sphère possàde un genre 0 puisqu’elle ne forme aucun trou. Un tore (un « beigne » possède un
genre 1, etc.
3. Une métrique sur un espace V est une fonction m : V × V → R+ qui respecte les axiomes suivants :
i. m(u, v) = 0 si et seulement si u = v ;
ii. m(u, v) = m(v, u) (symétrie) ;
iii. m(u, w) ≤ m(u, v) + m(v, w) (inégalité du triangle).
Annexe B
Résultats d’analyse
Le présent annexe regroupe des résultats généraux d’analyse utilisés dans les présentes
notes. Veuillez prendre note que toutes les preuves ne sont pas présentées.
limsup an
liminf an
n
Figure B.1 – Les notions de limites supérieures et inférieures sont très
utiles.
Proposition B.2 (Lemme de Cesàro). Soit (an ) une suite avec limn an = a. Alors, on
a que
n
1X
lim ak = a.
n→∞ n
k=1
Démonstration. Si an converge vers a, pour tout ϵ > 0 il existe N tel que lorsque
n > N , |an − a| < ϵ/2
Également, puisque N/n tend vers 0 quand n tend vers l’infini, pour tout ϵ > 0 et
M > 0, il existe un N2 ∈ N tel que pour tout n > N2 , on a que N
n < ϵ/(4M ).
Et puisque la suite an converge, elle est bornée en valeur absolue par une certaine
constante M > 0. Clairement |a| ≤ M également.
On a donc que pour ϵ > 0, si n > max N, N2 ,
n n
1X 1X
ak − a = (ak − a)
n n
k=1 k=1
n
1X
≤ |ak − a|
n
k=1
N n
1 X 1 X
= |ak − a| + |ak − a|
n n
k=1 k=N +1
N ϵ
≤ 2M +
n 2
≤ ϵ.
et on conclue que
n
1X
lim an = a.
n→∞ n
k=1
□
210 B. RÉSULTATS D’ANALYSE
Définition B.2. On dit qu’une suite (an )n converge vers a au sens de Cesàro si la
limite
n
1X
lim ak = a.
n→∞ n
k=1
Toutes les suites convergentes convergent au sens de Cesàro, mais l’inverse n’est pas vrai
en général.
B.3. Convexité
Définition B.3. Soit f : R → R une fonction continue.
Elle est dite convexe (resp. concave) si pour n’importe quels deux points sur son
graphe, la corde qui les relie est au-dessus (resp. en-dessous) du graphe. Autrement dit, f
est convexe (resp. concave) si, pour tout x < y et pour tout t ∈ [0, 1], on a que :
(B.3.1) f (tx + (1 − t)y) ≤ tf (x) + (1 − t)f (y). (resp. ≥)
On dit qu’elle est strictement convexe (resp. concave) si l’inégalité est stricte pour
tout t ∈ (0, 10.
Proposition B.3. Soit f : R → R une fonction continue dérivable deux fois continû-
ment.
Alors, f est convexe (resp. strictement convexe) si et seulement si f ′′ (x) ≥ 0 (resp. >).
Voici quelques exemples fameux de mesures sur Rn , avec comme ensembles mesurables
la tribu borélienne B. 1
– La mesure de Lebesgue est la mesure uniforme sur Rn : pour toute partie A mesu-
rable dans Rn , on a que
Z
µ(A) = dn x = Voln (A),
A
1. La tribu borélienne est la plus petite tribu qui contient tous les ouverts. Une tribu est un ensemble
de parties d’un ensemble qui satisfait les axiomes énoncès après la définition 2.2 dans les notes de cours
de MAT1720. (Paragraphe 2.1.2 – Les événements). Pour plus de détails, vous pouvez consulter le premier
chapitre de l’excellent Knowing the Odds, par John B. Walsh (Graduate texts in Mathematics, AMS).
B.4. MESURES, FONCTIONS GÉNÉRALISÉES ET DISTRIBUTIONS. 211
ii. Pour tout A ⊆ Rn tel que x ∈ A, et pour toute fonction f : Rn → R, on doit avoir
Z
f (y)δx (y)dn y = f (x).
A
2. Pour les plus curieux/ses d’entre vous, renseignez-vous sur l’intégrale de Lebesgue et le théorème de
Radon-Nikodym.
212 B. RÉSULTATS D’ANALYSE
Exemple B.1. Si X est une variable aléatoire réelle discrète pouvant P prendre les valeurs
V = {v1 , v2 , v3 , . . .}, avec la fonction de masse p(vi ) = pi pour tout i (et ∞i=1 pi = 1), alors
la fonction généralisée
∞
X
f (x) = pi δvi (x)
i=1
est la « densité » de la mesure de probabilité induite par X sur R.
En effet, par exemple, on voit que
Z X∞ ∞
X Z
P {X = vi } = pj δvj (x) dx = pj δvj (x)dx = pi ,
{vi } j=1 j=1 vi
Dans un espace de probabilités, la tribu des événements (notée E dans les notes de cours
de MAT1720) est une tribu.
D’un point de vue intuitif, une tribu d’événements représente l’information qui peut être
déterminée par un aléa – c’est l’ensemble des événements dont on peut décider, sachant
l’aléa, si ils sont réalisés ou non. Sous cet angle, les axiomes sont très logiques : si on sait
que E est réalisé, on peut inférer logiquement que E c ne l’est pas, et vice versa. Donc, si
E est dans notre tribu, E c doit l’être aussi. De même pour les réunions et les intersections
dénombrables d’événements.
Définition C.2 (Tribus engendrées). La tribu engendrée par une variable aléa-
toire X, notée σ(X), est la plus petite tribu qui contient tous les événements de la forme
{X ≤ u}.
La tribu engendrée par une variable aléatoire X correspond à l’information que nous
donne la variable X ; ça représente l’ensemble des événemtns dont on peut déterminer si
ils se sont réalisés seulement en connaissant la valeur de X – et pas forcément le résultat
complet de l’expérience aléatoire.
Bien entendu, σ(X) ⊆ E ; c’est une sous-tribu de la tribu des événements.
Définition C.3 (Mesurabilité par rapport à une tribu). On dit que la variable aléatoire
X est mesurable par rapport à la tribu F si σ(X) ⊆ F.
On a le lemme suivant :
Lemme C.1. Y est mesurable par rapport à σ(X) si et seulement si il existe une fonction
f : R → R telle que f (X) = Y presque sûrement.
Corollaire C.1. σ(X) = σ(Y ) si et seulement si alors il existe une fonction f inver-
sible telle que f (X) = Y et f −1 (Y ) = X presque sûrement.
213
214 C. NOTIONS AVANCÉS EN PROBABILITÉS
On a le lemme suivant :
Lemme C.2. X et Y sont des variables aléatoires indépendantes si et seulement si σ(X)
et σ(Y ) sont des tribus indépendantes.
L’exemple le plus courant d’une filtration est définie le long d’un processus stochastique :
si X = (Xt )t≥0 est un processus stochastique, on définit Ft = σ(Xu : u ≤ t) la tribu
engendrée par le processus X≤t . Alors, les Ft forment naturellement une filtration.
Définition C.6 (Processus adapté à une filtration). On dit que le processus stochastique
X = (Xt )t≥0 est adapté à la filtration (Ft )t≥0 si Xt est mesurable par rapport à Ft pour
tout t.