0% ont trouvé ce document utile (0 vote)
22 vues116 pages

Ran 1

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1/ 116

Sorbonne Université, Ecole Polytechnique

M2 “Probabilités et Finance"

INTRODUCTION AUX PROCESSUS DE DIFFUSION


Lorenzo Zambotti
Année 2022–2023

Version du 19 septembre 2022


Durant le cours ces notes seront mises à jour à la page :
https://www.lpsm.paris/users/zambotti/
Table des matières

Chapitre 1. Construction du mouvement brownien 1


1.1. Rappels sur les variables gaussiennes 1
1.2. Construction du mouvement brownien 3
1.3. Régularisation des trajectoires 6
1.4. Processus canonique et mesure de Wiener 9

Chapitre 2. Mouvement brownien et propriété de Markov 13


2.1. Premières propriétés 13
2.2. Propriété de Markov simple 14
2.3. Semi-groupe du mouvement brownien 16
2.4. Propriété de Markov forte 18
2.5. Variation quadratique du mouvement brownien 21
2.6. Les zéros du mouvement brownien 22
2.7. Mouvement brownien multi-dimensionnel 23

Chapitre 3. Martingales à temps continu 25


3.1. Filtrations et conditions habituelles 25
3.2. Temps d’arrêt 27
3.3. Rappels sur les martingales à temps discret 29
3.4. Martingales à temps continu 30
3.5. Mouvement brownien en tant que martingale 33

Chapitre 4. Semimartingales continues 35


4.1. Processus à variation finie 35
4.2. Martingales locales continues 41
4.3. Variation quadratique d’une martingale locale 44
4.4. Semimartingales continues 48

Chapitre 5. Intégrale stochastique 51


5.1. Intégration pour les martingales dans L2 51
1
2 Table des matières

5.2. Variation quadratique d’une intégrale stochastique 55


5.3. Les intégrales stochastiques par rapport à un mouvement brownien 58
5.4. Intégration stochastique pour les martingales locales 60

Chapitre 6. Formule d’Itô et applications 65


6.1. Formule d’Itô 65
6.2. Semimartingales exponentielles 69
6.3. Caractérisation de Lévy du mouvement brownien 70
6.4. Théorème de Dubins–Schwarz 71
6.5. Théorème de Girsanov 79
6.6. Inégalités de Burkholder-Davis-Gundy 87

Chapitre 7. Équations différentielles stochastiques 91


7.1. Solutions faibles et fortes 91
7.2. Coefficients lipschitziens 96
7.3. Processus de Markov 101
7.4. Propriété de Markov et diffusions 103
7.5. Le problème de martingale 106
7.6. Liens avec des EDP linéaires 108

Chapitre 8. Références bibliographiques 113


Chapitre 1

Construction du mouvement brownien

Ce cours est une introduction au mouvement brownien et au calcul stochastique. Dans


ce premier chapitre, on démontre l’existence du mouvement brownien, et étudie quelques
propriétés élémentaires.
L’expression “mouvement brownien" provient du mouvement irrégulier des grains de pol-
len à la surface d’eau, observé par le botaniste écossais Robert Brown en 1828. Bache-
lier (1900) et Einstein (1905) étudient quantitativement ce mouvement irrégulier en finance
(déjà !) et en physique, respectivement. C’est Wiener qui, en 1923, établit la modélisation
mathématique du mouvement brownien, que l’on étudie dans ce cours, tandis que la décou-
verte de beaucoup de propriétés profondes du mouvement brownien remonte à Paul Lévy
(1939, 1948).

1.1. Rappels sur les variables gaussiennes

Soit ξ une variable gaussienne centrée réduite. On vérifie facilement que la transformée
de Laplace complexe de ξ est donnée par
2
E ezξ = ez /2 ,
 
z ∈ C.

En particulier, la fonction caractéristique de ξ vaut


2
E eitξ = e−t /2 ,
 
t ∈ R.

Théorème 1.1.1 (queue de distribution gaussienne). Si ξ suit la loi gaussienne centrée


réduite, alors pour tout x > 0,
 
1 1 1 2 1 1 −x2 /2
√ − 3 e−x /2 ≤ P(ξ > x) ≤ √ e ,
2π x x 2π x
2
P(ξ > x) ≤ e−x /2 .
2
Remarque 1.1.2. (i) On a, P(ξ > x) ∼ √1 1 e−x /2 , x → ∞.
2π x
−x2 /2 2
(ii) La borne supérieure e est moins précise, mais plus simple, que √12π x1 e−x /2 . Elle
peut être utile dans une situation où il n’y a pas d’exigence extrême de précision sur la borne
supérieure. □
1
2 1. CONSTRUCTION DU MOUVEMENT BROWNIEN

Preuve du Théorème 1.1.1. Voir TD. □

Soient µ ∈ R et σ > 0. On dit qu’une variable aléatoire réelle η suit la loi gaussienne
N (µ, σ 2 ) si elle admet pour densité
(y − µ)2
 
1
√ exp − , y ∈ R.
σ 2π 2σ 2

Il est clair que η suit la loi gaussienne N (µ, σ 2 ) si et seulement si η = σξ + µ, où ξ suit


la loi gaussienne centrée réduite N (0, 1).

Remarque 1.1.3. Il sera commode de considérer la masse de Dirac δµ en un point µ ∈ R


comme une loi gaussienne (cas dégénéré). □

Proposition 1.1.4 (convergence de suite de variables gaussiennes). Soit (ξn ) une suite
de variables aléatoires gaussiennes, telle que ξn suive la loi N (µn , σn2 ).
(i) Si la suite (ξn ) converge en loi vers une variable aléatoire ξ, alors ξ suit la loi gaus-
sienne N (µ, σ 2 ), où µ := limn→∞ µn et σ := limn→∞ σn .
(ii) Si la suite (ξn ) converge en probabilité vers ξ, alors la convergence a lieu dans Lp ,
pour tout p ∈ [1, ∞[ .

Preuve. Voir TD. □

Définition 1.1.5 (vecteur aléatoire gaussien). Un vecteur aléatoire (ξ1 , · · · , ξn ) est dit
gaussien si toute combinaison linéaire de ses coordonnées (c’est-à-dire nj=1 λj ξj = λ1 ξ1 +
P

· · · + λn ξn pour λ = (λ1 , · · · , λn ) ∈ Rn ) suit une loi gaussienne.

Remarque 1.1.6. Si (ξ1 , · · · , ξn ) est un vecteur gaussien, alors chaque coordonnée est
une variable gaussienne réelle. Attention, la réciproque est fausse. □

Proposition 1.1.7. Pour ξ = (ξ1 , · · · , ξn ) vecteur gaussien, on définit m = E(ξ) et


Qij = Cov(ξi , ξj ), i, j = 1, . . . , n.
(1) La fonction caractéristique de ξ est donnée par
1
E[exp(i⟨ξ, u⟩)] = exp(i⟨m, u⟩ − ⟨Qu, u⟩), u ∈ Rn ,
2
où ⟨·, ·⟩ est le produit scalaire canonique de Rn .
(2) m et Q déterminent uniquement la loi de ξ. On écrit ξ ∼ N (m, Q).
(3) Si det Q ̸= 0 alors la loi de ξ admet une densité explicite :
1 1
N (m, Q)(dx) = p exp(− ⟨Q−1 (x − m), x − m⟩) dx, x ∈ Rn . (1.1)
(2π)n det Q 2
1.2. CONSTRUCTION DU MOUVEMENT BROWNIEN 3

(4) Si A : Rn → Rm est une application linéaire, alors Aξ est un vecteur gaussien avec
loi N (Am, AQAT ) ou AT : Rm → Rn est la matrice transposée.
(5) Pour que les variables aléatoires ξ1 , · · · , ξn soient indépendantes, il faut et il suffit que
la matrice Q des covariances de ξ soit diagonale.
(6) Soit (η1 , · · · , ηN ) un vecteur gaussien et 0 = n1 < n2 < · · · < nm = N . Pour
que la famille de vecteurs aléatoires (θ1 , · · · , θm−1 ), où θk = (ηnk +1 , . . . , ηnk+1 ), soit
indépendante, il faut et il suffit que Cov(ηi , ηj ) = 0, ∀i, j ≤ N tels que nk < i ≤ nk+1
et nh < j ≤ nh+1 pour k ̸= h.

1.2. Construction du mouvement brownien

On se place dans un espace probabilisé (Ω, F , P).

Définition 1.2.1. Un processus est une famille X = (Xt , t ∈ T) de variables aléatoires


réelles définies sur (Ω, F , P). Un processus X = (Xt , t ∈ T) est un processus gaussien si
pour tout n ≥ 1 et tout (t1 , · · · , tn ) ∈ Tn , (Xt1 , · · · , Xtn ) est un vecteur gaussien. On dit que
X est centré si pour tout t ∈ T, E(Xt ) = 0.

Définition 1.2.2. On dit que B = (Bt , t ≥ 0) est un mouvement brownien (réel, issu
de 0), si B est un processus gaussien centré de covariance

E(Bs Bt ) = min{s, t} =: s ∧ t, s ≥ 0, t ≥ 0.

Remarque 1.2.3. (i) De temps en temps, on dit que B est un mouvement brownien
standard, car on peut s’intéresser également aux processus gaussiens centrés de covariance
σ 2 (s ∧ t).
(ii) Pour tout réel T > 0, on appelle un mouvement brownien (standard) sur [0, T ] tout
processus gaussien centré de covariance s ∧ t, (s, t) ∈ [0, T ]2 . □

Proposition 1.2.4. (Bt , t ≥ 0) est un mouvement brownien si et seulement si il vérifie


les conditions suivantes :
(i) B0 = 0, p.s.
(ii) Pour tout n ≥ 2, et tous 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn , le vecteur aléatoire (Bt1 , Bt2 −
Bt1 , . . . , Bn − Btn−1 ) est une famille indépendante.
(iii) Pour tous t ≥ s ≥ 0, Bt − Bs suit la loi gaussienne N (0, t − s).

Remarque 1.2.5. On dira que le mouvement brownien est à accroissements indépendants


(propriété (ii)) et stationnaires (propriété (iii)). □
4 1. CONSTRUCTION DU MOUVEMENT BROWNIEN

Preuve de la Proposition 1.2.4. “Si" : On suppose que B vérifie (i)–(iii). Soient 0 ≤ t1 ≤


t2 ≤ · · · ≤ tn . Par hypothèse, Btn − Btn−1 , · · · , Bt2 − Bt1 , Bt1 sont des variables gaus-
siennes indépendantes. Donc (Bt1 , Bt2 − Bt1 , · · · , Btn − Btn−1 ) est un vecteur gaussien, et
(Bt1 , Bt2 , · · · , Btn ) l’est aussi. On a donc démontré que B est un processus gaussien, qui est
évidemment centré d’après (iii) et (i).
Pour vérifier que B est un mouvement brownien, il suffit maintenant de déterminer sa
fonction de covariance. Soient t ≥ s ≥ 0. On a E(Bs Bt ) = E(Bs (Bt − Bs )) + E(Bs2 ). L’in-
dépendance entre Bs et Bt − Bs nous dit que E(Bs (Bt − Bs )) = 0, tandis que d’après (iii),
E(Bs2 ) = s. Donc E(Bs Bt ) = s. Évidemment, si (s, t) ∈ R2+ est quelconque, on a alors par
symétrie E(Bs Bt ) = s ∧ t. En conclusion, B est un mouvement brownien.
“Seulement si" : Soit B un mouvement brownien. Alors E(B02 ) = 0, d’où (i). Soient
maintenant t ≥ s ≥ 0. La variable Bt − Bs suit une loi gaussienne centrée, de variance
E(Bt − Bs )2 = E(Bt2 ) + E(Bs2 ) − 2E(Bs Bt ) = t + s − 2s = t − s. D’où (iii).
Il reste donc à prouver (ii). Soient 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn . On sait que (Btn −
Btn−1 , · · · , Bt2 − Bt1 , Bt1 ) est un vecteur gaussien. En plus, la matrice de covariance de
ce vecteur gaussien est diagonale, car pour j > i, E[(Btj − Btj−1 )(Bti − Bti−1 )] = E(Btj Bti ) −
E(Btj−1 Bti ) − E(Btj Bti−1 ) + E(Btj−1 Bti−1 ) = ti − ti − ti−1 + ti−1 = 0. D’après la Proposition
1.1.7, les composantes de ce vecteur gaussien sont indépendantes. □

Nous obtenons donc que

Corollaire 1.2.6. Si B = (Bt , t ≥ 0) est un mouvement brownien alors pour tous


0 := t0 < t1 < t2 < · · · < tn , (Bt1 , . . . , Btn ) a densité dans Rn
n
!
1 1 X (xi − xi−1 )2
P((Bt1 , . . . , Btn ) ∈ dx) = p exp − dx,
(2π)n t1 (t2 − t1 ) · · · (tn − tn−1 ) 2 i=1 ti − ti−1

où x0 := 0.

Preuve. On applique la Proposition 1.1.7 à ξ = (Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) qui a loi
N (0, R), où R := diag(t1 , t2 − t1 , . . . , tn − tn−1 ). Si on définit Ax = (x1 , x1 + x2 , . . . , x1 +
· · · + xn ), alors (Bt1 , . . . , Btn ) = Aξ a loi N (0, ARAT ) et densité donnée par (1.1) avec
Q−1 = (AT )−1 R−1 A−1 . Un calcul montre que A−1 x = (x1 , x2 − x1 , . . . , xn − xn−1 ) et ceci
permet de conclure puisque
n
−1 −1 −1 −1
X (xi − xi−1 )2
⟨Q x, x⟩ = ⟨R A x, A x⟩ = .
i=1
ti − ti−1
1.2. CONSTRUCTION DU MOUVEMENT BROWNIEN 5

Pour terminer il faut calculer det Q = (det A)2 det R ; or A est une matrice triangulaire
inférieure avec Aii = 1 pour tout i = 1, . . . , n, donc det A = 1 et det Q = det R = t1 (t2 −
t1 ) · · · (tn − tn−1 ). □

Théorème 1.2.7. On peut construire au moins un mouvement brownien.

Preuve. Nous considérons l’espace mesuré (R+ , B, dx) où B sont les Boréliens de R+ et dx
est la mesure de Lebesgue. L’espace H := L2 (R+ , B, dx) est hilbertien séparable et admet
donc une base hilbertienne (ek )k∈N . Nous considérons une suite iid (ξk )k∈N de variables réelles
gaussiennes standard et nous définissons
n
ξk ⟨ek , 1[0,t] ⟩,
X
Btn = t ∈ R+ , n ∈ N,
k=0

où ⟨·, ·⟩ est le produit scalaire canonique de H. Alors pour m > n


m
⟨ek , 1[0,t] ⟩2
X
E((Btn − Btm )2 ) =
k=n+1

ce qui montre que (Btn )n∈N est une suite de Cauchy dans L2 (P) car

⟨ek , 1[0,t] ⟩2 = ∥1[0,t] ∥2L2 (R+ ) = t < +∞.


X

Pour tout t ∈ R+ il existe donc une limite Bt dans L2 (P) de Btn quand n → +∞.
Il faut maintenant prouver que (Bt )t∈R+ a les propriétés souhaitées. D’abord, pour tout
choix de (t1 , . . . , ti ) ∈ (R+ )i , (Btn1 , . . . , Btni ) est un vecteur gaussien centré car fonction linéaire
du vecteur (ξ1 , . . . , ξn ), et la limite dans Lp de vecteurs gaussiens centrés est un vecteur
gaussien centré. Il reste à calculer la fonction de covariance :
n
⟨ek , 1[0,s] ⟩ ⟨ek , 1[0,t] ⟩
X
E(Bsn Btn ) =
k=0

et par la convergence dans L2 (P) de Btn vers Bt nous obtenons



⟨ek , 1[0,s] ⟩ ⟨ek , 1[0,t] ⟩ = ⟨1[0,s] , 1[0,t] ⟩ = s ∧ t.
X
E(Bs Bt ) =
k=0

Ceci conclut la preuve. □



6 1. CONSTRUCTION DU MOUVEMENT BROWNIEN

1.3. Régularisation des trajectoires

On se met dans un espace probabilisé complet (Ω, F , P), c’est-à-dire que F contient tous
les ensembles P-négligeables.
Soit B = (Bt , t ≥ 0) un mouvement brownien. Les applications t 7→ Bt (ω) pour ω ∈ Ω,
sont appelées les trajectoires de B. Pour l’instant, on ne peut rien affirmer au sujet de
ces trajectoires : il n’est même pas évident (ni vrai en général) que ces applications soient
mesurables. Le but de ce paragraphe est de montrer que, quitte à “modifier un peu" B, on
peut faire en sorte que les trajectoires soient continues.

Définition 1.3.1. Soient (Xt , t ∈ T) et (X et , t ∈ T) deux processus aléatoires (c’est-à-


dire deux familles de variables aléatoires) indexés par le même ensemble T. On dit que X e
est une modification de X si

∀ t ∈ T, P[Xt = X
et ] = 1.

On remarque que pour tout t1 , t2 , · · · , tn , le vecteur aléatoire (X


et1 , · · · , X
etn ) a même loi
que (Xt1 , · · · , Xtn ). En particulier, si X est un mouvement brownien, alors X e est aussi un
mouvement brownien. En revanche, les trajectoires de X e peuvent avoir un comportement
totalement différent de celles de X. Il peut arriver par exemple que les trajectoires de X
e
soient toutes continues alors que celles de X sont toutes discontinues.

Définition 1.3.2. Deux processus X et X


e sont dits indistinguables si

P[ ∀ t ∈ T, Xt = X
et ] = 1.

Ceci signifie que l’ensemble { ∀ t ∈ T, et } contient une partie mesurable de


Xt = X
probabilité 1.
Si X et X e sont indistinguables, alors X
e est une modification de X. La notion d’indis-
tinguabilité est cependant beaucoup plus forte : deux processus indistinguables ont presque
sûrement les mêmes trajectoires.
Si T = I est un intervalle de R, et si X et Xe sont deux processus dont les trajectoires
sont p.s. continues, alors X e est une modification de X si et seulement si X et X e sont
indistinguables. En effet, si Xe est une modification de X, alors p.s. pour tout t ∈ I ∩ Q,
Xt = X et . Par continuité, p.s. pour tout t ∈ I, Xt = X et , c’est-à-dire que X et X
e sont
indistinguables.

Théorème 1.3.3 (critère de Kolmogorov). Soit X = (Xt , t ∈ I) un processus aléatoire


indexé par un intervalle I ⊂ R, à valeurs dans un espace métrique complet (E, d). Supposons
1.3. RÉGULARISATION DES TRAJECTOIRES 7

qu’il existe trois réels strictement positifs p, ε et C tels que


E [ d(Xs , Xt )p ] ≤ C |t − s|1+ε , ∀ s, t ∈ I.
Alors il existe une modification X
e de X dont les trajectoires sont localement höldériennes
d’exposant α, pour tout α ∈ ]0, pε [ : c’est-à-dire que pour tout T > 0 et tout α ∈ ]0, pε [ , il
existe Cα (T, ω) tel que
d(X et (ω)) ≤ Cα (T, ω) |t − s|α ,
es (ω), X ∀ s, t ∈ I, s, t ≤ T.
En particulier, il existe une modification continue de X, qui est unique à indistinguabilité
près.
Preuve. L’unicité provient de la remarque avant l’énoncé du théorème.
On démontre l’existence. Pour simplifier l’écriture, on suppose que I = [0, 1]. L’hypothèse
du théorème implique que, pour a > 0 et s, t ∈ [0, 1],
E[d(Xs , Xt )p ] C |t − s|1+ε
P(d(Xs , Xt ) ≥ a) ≤ ≤ .
ap ap
On applique cette inégalité à s = i−1
2n
et t = 2in et a = 2−nα pour voir que
C
P d(X(i−1)/2n , Xi/2n ) ≥ 2−nα ≤ i = 1, 2, · · · , 2n .

,
2(1+ε−pα)n
Donc
C
P ∃i ≤ 2n : d(X(i−1)/2n , Xi/2n ) ≥ 2−nα ≤

,
2(ε−pα)n
ce qui est sommable (car pα < ε). Le lemme de Borel–Cantelli nous dit que l’on peut trouver
A ∈ F avec P(A) = 1 tel que pour tout ω ∈ A, il existe n0 = n0 (ω) < ∞ de sorte que
(∗) d(X(i−1)/2n , Xi/2n ) < 2−nα , ∀n ≥ n0 , ∀1 ≤ i ≤ 2n .
On note D l’ensemble dénombrable des nombres dyadiques de [0, 1[ , c’est-à-dire des réels
t ∈ [0, 1[ qui s’écrivent
p
X εk
t= ,
k=1
2k
avec εk = 0 ou 1. Considérons s, t ∈ D avec s < t. Soit q ≥ 0 le plus grand entier tel que
t − s ≤ 2−q . On note pour x ∈ R
⌊x⌋ := max{n ∈ Z : n ≤ x}, ⌈x⌉ := min{n ∈ Z : n ≥ x}.
Soit k := ⌊2q s⌋, et k ≤ ⌊2q t⌋ ≤ k + 1. On peut trouver deux entiers ℓ ≥ 0 et m ≥ 0, tels que
k εq+1 εq+ℓ
s = q + q+1 + · · · + q+ℓ ,
2 2 2
k εeq εeq+1 εeq+m
t = q + q + q+1 + · · · + q+m ,
2 2 2 2
8 1. CONSTRUCTION DU MOUVEMENT BROWNIEN

où εj , εej = 0 ou 1 (si q = 0, alors k = 0). Si l’on note


k εq+1 εq+i
si = q
+ q+1 + · · · + q+i , 0 ≤ i ≤ ℓ,
2 2 2
k εeq εeq+1 εeq+j
tj = q + q + q+1 + · · · + q+j , 0 ≤ j ≤ m,
2 2 2 2
alors pour ω ∈ A,
d(Xs , Xt ) = d(Xsℓ , Xtm )

X m
X
≤ d(Xs0 , Xt0 ) + d(Xsi−1 , Xsi ) + d(Xtj−1 , Xtj )
i=1 j=1

X m
X
−qα −(q+i)α
≤ Kα (ω) 2 + Kα (ω) 2 + Kα (ω) 2−(q+j)α ,
i=1 j=1


d(X(i−1)/2n , Xi/2n )
Kα (ω) := sup maxn
n≥1 1≤i≤2 2−nα
qui est finie d’après (∗). Donc pour ω ∈ A,

X 2Kα (ω)2−qα 21+α Kα (ω)
d(Xs , Xt ) ≤ 2Kα (ω) 2−(q+i)α = −α
≤ −α
(t − s)α ,
i=0
1 − 2 1 − 2
car 2−(q+1) < t−s. Ceci nous dit que p.s. la fonction t 7→ Xt (ω) est höldérienne sur D et donc
uniformément continue sur D. Puisque (E, d) est complet, cette fonction a p.s. un unique
prolongement continu à I = [0, 1], et ce prolongement est lui aussi höldérien d’exposant α.
Plus précisément, soit pour tout t ∈ [0, 1]
X
et (ω) := lim Xs (ω)
s→t, s∈D

si ω ∈ A, et Xet (ω) := x0 (un point quelconque de E) si ω ∈ / A. D’après les remarques


précédentes, X a des trajectoires höldériennes d’exposant α sur [0, 1].
e
e est une modification de X. Pour tous s, t ∈ [0, 1] nous avons par
Il reste à voir que X
l’hypothèse du théorème
E [ (d(Xs , Xt )p ) ∧ 1 ] ≤ E [ d(Xs , Xt )p ] ≤ C |t − s|1+ε .
Pour s ∈ D, puisque Xs = X
es ,
h  i
E d(Xs , Xt ) ∧ 1 = E [ (d(Xs , Xt )p ) ∧ 1 ] ≤ C |t − s|1+ε .
e p

Si on fait tendre s ∈ D vers t ∈ [0, 1], ce qui est possible par la densité de D dans [0, 1], l’on
obtient par convergence dominée
h  i
E et , Xt )p ∧ 1 = 0.
d(X
1.4. PROCESSUS CANONIQUE ET MESURE DE WIENER 9

Donc p.s. X
e t = Xt . □

Corollaire 1.3.4. Soit B = (Bt , t ≥ 0) un mouvement brownien. Le processus B admet


une modification dont les trajectoires sont localement höldériennes d’exposant 21 −ε, pour tout
ε ∈ ]0, 21 [ . En particulier, B admet une modification continue.

Preuve. Fixons ε ∈ ]0, 21 [ . Soient t, s ≥ 0. La variable aléatoire Bt − Bs suit la loi gaussienne


N (0, |t−s|). Donc pour tout p > 0, E[ |Bt −Bs |p ] = Cp (t−s)p/2 , où Cp = E[ |N (0, 1)|p ] < ∞.
Il suffit alors de prendre p suffisamment grand tel que 21 − ε < (p/2) − p1 pour voir que B
admet une modification dont les trajectoires sont localement höldériennes d’exposant 12 − ε.

On voit donc que si B est un mouvement brownien, on peut toujours le remplacer par
un processus B ′ tel que ∀ t ≥ 0, P(Bt′ = Bt ) = 1 et tel que B ′ soit à trajectoires continues
(voire à trajectoires localement höldériennes d’exposant 12 − ε). Dans la suite, on fera ce
remplacement systématiquement : cela revient à dire que dans la définition du mouvement
brownien, on impose aussi la condition que le processus soit à trajectoires continues.
Il est naturel de se demander si les trajectoires d’un mouvement brownien peuvent être
localement höldériennes d’exposant 21 . La réponse à cette question est non, comme on le
verra dans l’Exemple 2.2.7. On verra dans le Corollaire 2.5.2 dans le prochain chapitre une
autre propriété de (manque de) régularité pour les trajectoires du mouvement brownien.

1.4. Processus canonique et mesure de Wiener

On considère C(R+ , R) l’espace des fonctions réelles continues sur R+ , muni de la topo-
logie de convergence uniforme sur les intervalles fermés bornés :


X 1 δn (w, w′ )
d(w, w ) = ,
n=1
2n 1 + δn (w, w′ )
où δn (w, w′ ) := supt∈[0,n] |w(t) − w′ (t)|.
Soit (Xt , t ≥ 0) le processus des coordonnées :

Xt (w) := w(t), w ∈ C(R+ , R).

Le lemme suivant identifie la tribu σ(Xt , t ≥ 0) engendrée par ces coordonnées (c’est-à-dire
la plus petite tribu rendant mesurables toutes les applications Xt ) avec la tribu borélienne
C (R+ , R).

Lemme 1.4.1. On a σ(Xt , t ≥ 0) = C (R+ , R).


10 1. CONSTRUCTION DU MOUVEMENT BROWNIEN

Preuve. Pour tout t ≥ 0, Xt est continue, donc mesurable par rapport à C (R+ , R). Par
conséquent, σ(Xt , t ≥ 0) ⊂ C (R+ , R).
Inversement, pour tout w0 ∈ C(R+ , R), la fonction w 7→ δn (w, w0 ) = supt∈[0,n]∩Q |w(t) −
w0 (t)| est σ(Xt , t ≥ 0)-mesurable, ainsi que d(w, w0 ). Soit maintenant F un ensemble fermé
quelconque de C(R+ , R), et soit (wn ) une suite dense de F (car on est dans un espace
séparable), et on a alors

F = {w ∈ C(R+ , R) : d(w, F ) = 0} = {w ∈ C(R+ , R) : inf d(w, wn ) = 0},


n

qui est un élément de σ(Xt , t ≥ 0). Par conséquent, C (R+ , R) ⊂ σ(Xt , t ≥ 0). □

Soit Z = (Zt )t≥0 un processus continu défini sur (Ω, F , P). On considère l’application φ
suivante :

Ω −→ C(R+ , R)
ω 7−→ φ(ω) = (t 7→ Zt (ω)).

Cette application est mesurable si on munit l’espace C(R+ , R) de la tribu σ(Xt , t ≥ 0) et


donc, par le Lemme précédent, si on le munit de la tribu borélienne.
On appelle loi de Z la mesure image sur (C(R+ , R), C (R+ , R)) de P par l’application φ.
Il est clair par le théorème de classe monotone que la loi de Z est déterminée par les lois
fini-dimensionnelles (Zt1 , · · · , Ztn ). En effet, deux mesures sur C(R+ , R) sont identiques si
elles attribuent les mêmes valeurs aux ensembles du type de (Xt1 (w), · · · , Xtn (w)) ∈ A, où
A ∈ B(Rn ) (tribu borélienne de Rn ).
Dans le cas particulier où Z est un mouvement brownien, cette mesure image particulière
de Z sera notée par W. Il s’agit d’une mesure de probabilité sur C(R+ , R) telle que W{w :
w(0) = 0} = 1, et que pour tout n ≥ 1, tout 0 = t0 < t1 < t2 < · · · < tn et tout A ∈ B(Rn ),

W {w : (Xt1 (w), · · · , Xtn (w)) ∈ A}


n
!
1 X (xk − xk−1 )2
Z
1
= p exp − dx1 · · · dxn ,
A (2π)
n/2 t1 (t2 − t1 ) · · · (tn − tn−1 ) 2 k=1 tk − tk−1

avec la notation x0 := 0, par le Corollaire 1.2.6. Cette formule caractérise la mesure de


probabilité W, et ne dépend pas du choix du mouvement brownien pour la construction. On
appelle W la mesure de Wiener, et le processus des coordonnées (Xt , t ≥ 0) est appelé
processus canonique (du mouvement brownien). En résumé, on a prouvé le

Théorème 1.4.2. Il existe une unique probabilité (mesure de Wiener) sur C(R+ , R) sous
laquelle le processus des coordonnées (Xt , t ≥ 0) est un mouvement brownien.
1.4. PROCESSUS CANONIQUE ET MESURE DE WIENER 11

Le processus canonique du mouvement brownien permet de voir clairement la mesurabi-


lité de la plupart des ensembles dans la pratique. Par exemple, pour tout t > 0, sup0≤s≤t Xs
Rt
et 0 Xs2 ds sont des variables aléatoires. En terme du mouvement brownien générique, on
Rt
sait que pour tout t > 0, sup0≤s≤t Xs et 0 Xs2 ds sont des variables aléatoires, si B est un
mouvement brownien.

Soit x ∈ R. Soit Wx la mesure image de W par l’application w 7→ w + x. Autrement


dit, Wx est la loi de (x + Xt )t≥0 . Il est clair que Wx {w : w(0) = x} = 1. Le processus
des coordonnées (Xt , t ≥ 0) sous Wx est appelé un mouvement brownien issu de X0 = x.
Il s’agit d’un processus à trajectoires continues p.s. et à accroissements indépendants avec
X0 = x, p.s., tel que ∀ t ≥ s, Xt − Xs suit la loi N (0, t − s).
Chapitre 2

Mouvement brownien et propriété de Markov

Le mouvement brownien est au carrefour de plusieurs classes importantes de processus


aléatoires. Nous l’avons introduit dans le chapitre précédent comme un processus gaussien.
Le présent chapitre est consacré à l’étude du mouvement brownien en tant que processus de
Markov (au sens fort). Plus tard dans le Chapitre 3, on étudiera le mouvement brownien en
tant que martingale.

2.1. Premières propriétés

Soit (Ω, F , P) un espace de probabilité, et soit B = (Bt , t ≥ 0) un mouvement brownien


issu de 0. Autrement dit, B est un processus à trajectoires continues p.s. et à accroissements
indépendants avec B0 = 0, p.s., tel que ∀ t ≥ s, Bt − Bs suit la loi N (0, t − s).

Proposition 2.1.1. Si B est un mouvement brownien, alors les processus suivants sont
aussi des mouvements browniens.
(i) Bet = −Bt . (symétrie)
(ii) Bt = tB1/t , B0 = 0.
e (inversion du temps)
1
(iii) a > 0 fixé, B
et = √ Bat .
a
(scaling)
et = BT − BT −t , t ∈ [0, T ].
(iv) T > 0 fixé, B (retournement du temps)

Preuve. Triviale. Il suffit de vérifier à chaque fois que B est un processus gaussien centré de
covariance s∧t. Seule la partie (ii) a besoin d’un traitement spécifique puisque les trajectoires
ne sont pas nécessairement continues au point 0. Cela ne nous pose pas vraiment de problème,
car dans ce cas B est, d’après le critère de Kolmogorov, indistinguable d’un mouvement
brownien. □

Exemple 2.1.2 (pont brownien). Soit B un mouvement brownien, et soit bt = Bt − tB1 ,


t ∈ [0, 1]. Il s’agit d’un processus gaussien centré de covariance (s ∧ t) − st. On appelle b un
pont brownien (standard).
Le processus (bt , t ∈ [0, 1]) est indépendant de la variable aléatoire B1 .
Si b est un pont brownien, alors (b1−t , t ∈ [0, 1]) est aussi un pont brownien.
13
14 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV

et = (1 + t)bt/(1+t) , t ≥ 0, est un mouvement brownien.


Si b est un pont brownien, alors B
Notons que bt = (1 − t)B
et/(1−t) . □

Exemple 2.1.3. Par continuité, limt→0+ Bt = 0, p.s. Par inversion du temps, on obtient
que
Bt
lim = 0, p.s.
t→∞ t

2.2. Propriété de Markov simple

Dans cette section, Ft désigne la tribu engendrée par (Bs , 0 ≤ s ≤ t).

Théorème 2.2.1 (propriété de Markov simple). Soit s ≥ 0. Le processus (B


et := Bt+s −
Bs , t ≥ 0) est un mouvement brownien, indépendant de Fs .
Preuve. On peut facilement vérifier que B e est un processus gaussien centré à trajectoires
p.s. continues, avec B
e0 = 0, p.s., dont la covariance vaut E(B et′ ) = t ∧ t′ ; il est donc un
et B
mouvement brownien.
Pour démontrer l’indépendance, il suffit de montrer que pour 0 ≤ t1 < · · · < tn et
0 < s1 < · · · < sm ≤ s, les vecteurs (B etn ) et (Bs1 , · · · , Bsm ) sont indépendants. Or,
et1 , · · · , B
Cov(Bet , Bs ) = E[(Bs+t − Bs )Bs ] = 0 (car s ≥ sj ) ; comme (B et1 , · · · , B
etn , Bs1 , · · · , Bsm )
i j i j
et1 , · · · , B
est un vecteur gaussien, on a l’indépendance entre (B etn ) et (Bs1 , · · · , Bsm ). □
La propriété de Markov du mouvement brownien peut être renforcée de la façon suivante.

Théorème 2.2.2. Soit s ≥ 0, et soit


\
Fs+ := Fu .
u>s

et := Bt+s − Bs , t ≥ 0) est indépendant de Fs+ .


Le processus (B
Preuve. Pour démontrer le théorème, il suffit de vérifier par un argument de classe monotone
que, pour A ∈ Fs+ , 0 ≤ t1 < t2 < · · · < tn et F : Rn → R continue et bornée,
h i
E 1A F (Bt1 , · · · , Btn ) = P(A) E [F (Bt1 , · · · , Btn )] .
e e (2.2)
Soit ε > 0. D’après le Théorème 2.2.1, le processus t 7→ Bt+s+ε − Bs+ε est indépendant
de Fs+ε , et a fortiori de Fs+ . Donc
E [ 1A F (Bt1 +s+ε − Bs+ε , · · · , Btn +s+ε − Bs+ε )] = P(A) E [F (Bt1 , · · · , Btn )] .
En faisant ε → 0, et à l’aide de la continuité des trajectoires et du théorème de convergence
dominée, on obtient (2.2). □
2.2. PROPRIÉTÉ DE MARKOV SIMPLE 15

Théorème 2.2.3 (loi 0–1 de Blumenthal). La tribu F0+ est triviale, au sens où ∀ A ∈
F0+ , P(A) = 0 ou 1.

Preuve. Par le Théorème 2.2.2, F0+ est indépendante de la tribu σ(Bt , t ≥ 0). Soit A ∈ F0+ .
Comme F0+ est contenue dans σ(Bt , t ≥ 0), on en déduit que A est indépendant de lui-
même. □

Exemple 2.2.4. Soit τ := inf{t > 0 : Bt > 0}. Alors, p.s. τ = 0.


Preuve. En effet, pour tout n ∈ N
( )
\
{τ = 0} = sup Bu > 0 ∈ F1/n ,
m≥n, m∈N 0≤u≤1/m

donc {τ = 0} ∈ ∩n F1/n = F0+ . Pour tout t > 0, P(τ ≤ t) ≥ P(Bt > 0) = 1/2. Donc
P(τ = 0) = limt→0+ P(τ ≤ t) ≥ 1/2. Par la loi 0–1 de Blumenthal, P(τ = 0) = 1. □

Exemple 2.2.5. Grâce à l’exemple précédent, nous obtenons plusieurs résultats intéres-
sants :
(1) Comme −B est un mouvement brownien, on voit que p.s. inf{t ≥ 0 : Bt < 0} =
0. Donc le mouvement brownien visite R+ et R− dans chaque voisinage de 0. Par
conséquent, il existe une suite (tn = tn (ω))n≥0 strictement décroissante vers 0 telle
que Btn (ω) = 0, ∀ n. En particulier, p.s. inf{t > 0 : Bt = 0} = 0.
(2) Par inversion du temps, on voit aussi que p.s. {t > 0 : Bt = 0} est non bornée.
(3) D’autre part, on a vu que P(sup0≤s≤t Bs > 0) = 1, ∀ t > 0. Soit x > 0. On a
   
x
P sup Bs > x = P sup Bs > √ .
0≤s≤t 0≤s≤1 t
En faisant t → +∞, le terme à droite tend vers 1. Donc P(sups≥0 Bs > x) = 1,
∀ x > 0. Autrement dit, sups≥0 Bs = +∞, p.s. Par symétrie, inf s≥0 Bs = −∞, p.s.
(En particulier, cela confirme que {t > 0 : Bt = 0} est p.s. non bornée.) Donc, si
τa := inf{t > 0 : Bt = a}, a ∈ R (convention : inf ∅ := ∞), alors P(τa < ∞, ∀ a ∈
R) = 1.

Exemple 2.2.6. Soit (tn )n≥1 une suite de nombres strictement décroissante vers 0. Alors
p.s. Btn > 0 pour une infinité de n, et Btn < 0 pour une infinité de n.
En effet, soit An := {Btn > 0}. Alors P(lim sup An ) = limN →∞ P(∪∞
n=N An ), qui est
≥ lim supN →∞ P(AN ) = 21 . Or pour tous n ≥ m on a An ∈ Ftm et donc lim sup An =
∩n ∪k≥n Ak = ∩n≥m ∪k≥n Ak ∈ Ftm . Il s’en suit que lim sup An ∈ F0+ , d’où P(lim sup An ) = 1.

16 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV

Exemple 2.2.7. On a
Bt Bt
lim sup √ = +∞, lim inf √ = −∞, p.s.
t→∞ t t→∞ t

En effet, fixons K > 0, et soit An := { n B1/n > K}. Comme P(lim sup An ) ≥
lim supN →∞ P(AN ) = P(B1 > K) > 0, on a, par la loi 0–1, P(lim sup An ) = 1, et a for-
Bt
tiori, lim supt→0 √
t
= +∞, p.s. (Donc p.s. les trajectoires de B ne sont pas höldériennes
1
d’exposant 2
.) On obtient le résultat voulu à l’aide de l’inversion du temps et par symétrie.

On peut énoncer la propriété de Markov du mouvement brownien sous une forme plus
faible mais qui aura une extension à une classe plus large de processus. On rappelle les
notations introduites dans la section 1.4 ; Xt : C(R+ , R) → R, Xt (w) := wt est le processus
canonique, C (R+ , R) est la tribu borélienne de C(R+ , R) et Wx est la loi de (x + Bt )t≥0 .
Nous posons aussi FtX := σ(Xu , u ≤ t). Alors

Proposition 2.2.8. Pour toute fonction mesurable F : C(R+ , R) 7→ R+ , x ∈ R et s ≥ 0

Wx F (Xt+s , t ≥ 0) | FsX = WXs [F ],


 
Wx − p.s.

Preuve. Sous Wx , (Xt − x)t≥0 est un mouvement brownien ; donc par le Théorème 2.2.1
(Xt+s − x − (Xs − x))t≥0 = (Xt+s − Xs )t≥0 est un MB indépendant de σ(Xu − x, u ≤ s) =
σ(Xu , u ≤ s) = FsX . Donc pour tout A ∈ FsX
Wx [1A F (Xt+s , t ≥ 0)] = Wx [1A F (Xs + Xt+s − Xs , t ≥ 0)]
h  i h i
Wx 1A Wx F (Xs + Xt+s − Xs , t ≥ 0) | FsX = Wx 1A WXs [F ] .


Ceci conclut la preuve. □

2.3. Semi-groupe du mouvement brownien

On note Cb (R) := {f : R 7→ R continue bornée}. Si on munit Cb (R) de la norme


∥f ∥∞ := sup |f | on obtient un espace de Banach. On note aussi C0 := {f ∈ Cb (R) :
lim|x|→∞ f (x) = 0} ; (C0 , ∥ · ∥∞ ) est aussi de Banach. On définit pour f ∈ Cb (R), t ≥ 0
et x ∈ R
(x − y)2
Z  
1
Pt f (x) := Wx [f (Xt )] = √ exp − f (y) dy.
R 2πt 2t
Proposition 2.3.1. Pour toute f ∈ Cb (R), Pt f ∈ Cb (R) et ∥Pt f ∥∞ ≤ ∥f ∥∞ . De plus,
Pt (Ps f ) = Pt+s f et on a les propriétés suivantes :
1. Propriété de Feller : Si f ∈ C0 , alors Pt f ∈ C0 et limt↓0 ∥Pt f − f ∥∞ = 0.
2.3. SEMI-GROUPE DU MOUVEMENT BROWNIEN 17

2
2. Générateur infinitésimal : Si f ∈ CK (fonction de classe C 2 à support compact),
Pt f (x)−f (x)
alors limt↓0 t
= 21 f ′′ (x).
3. Lien avec l’équation de la chaleur : Si f ∈ Cb (R), soit u(t, x) := Pt f (x). On a
u(0, x) = f (x) et
∂u 1 ∂ 2u
= , t > 0.
∂t 2 ∂x2
Preuve. Soit FtX , comme avant, la tribu engendrée par le processus canonique (Xs , 0 ≤
s ≤ t). Par la propriété de Markov, pour tout s > 0 et toute fonction borélienne positive
f : R → R+ ,
Wx [ f (Xt+s ) | FsX ] = Pt f (Xs ) = Wx [ f (Xt+s ) | Xs ].
On obtient que Pt (Ps f ) = Pt+s f , car

Pt+s f (x) = Wx [f (Xt+s )] = Wx [ Wx [f (Xt+s ) | FtX ]] = Wx [Ps f (Xt )] = Pt (Ps f )(x).

Soit t > 0. On a Z
1 2
(Pt f )(x) = √ f (x + t1/2 z)e−z /2 dz.
2π R
Par convergence dominée (car f est continue et bornée), on a Pt f ∈ C0 .
Montrons maintenant que limt↓0 Pt f = f uniformément sur R. On écrit
Z
1 2
(Pt f )(x) − f (x) = √ e−z /2 [f (x + t1/2 z) − f (x)] dz.
2π R
Le théorème de convergence dominée permet de voir tout de suite que Pt f → f simplement.
2
Soit ε > 0. Comme f est bornée, il existe M > 0 tel que |z|>M e−z /2 ∥f ∥∞ dz < ε. Pour
R

|z| ≤ M , comme f est uniformément continue sur R, il existe δ > 0 tel que pour t ≤ δ, on a
sup|z|≤M |f (x+t1/2 z)−f (x)| ≤ ε, ∀x ∈ R. Par conséquent, pour tout t ≤ δ, |Pt f (x)−f (x)| ≤
√2ε + ε ≤ 2ε, ∀x ∈ R.

On écrit

(Pt f )(x) − f (x) f (x + t1/2 z) + f (x − t1/2 z) − 2f (x) −z2 /2
Z
1
=√ e dz.
t 2π 0 2t
f (x+t1/2 z)+f (x−t1/2 z)−2f (x)
On fait t → 0. Comme f ∈ C 2 , on a 2t
→ z 2 f ′′ (x), et il existe une
1/2 1/2 z)−2f (x)
constante K < ∞ telle que pour tout t ≤ 1, f (x+t z)+f (x−t 2t
≤ Kz 2 (on utilise, en
2 −z 2 /2
plus, l’hypothèse que f soit à support compact). Puisque z e est intégrable, il résulte du
(Pt f )(x)−f (x) ∞ 2
→ 2√12π 0 z 2 f ′′ (x) e−z /2 dz = 12 f ′′ (x).
R
théorème de convergence dominée que t
Fixons t > 0 et x ∈ R. On a
1
Z
1  (r − x)2 
u(t, x) = f (r) exp − dr.
(2π)1/2 R t1/2 2t
18 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV

Comme f est bornée, on peut utiliser le théorème de convergence dominée pour prendre la
dérivée (partielle par rapport à r) sous le signe intégrale :
(r − x)2   (r − x)2 
Z
∂u(t, x) 1  1
= f (r) − 3/2 + exp − dr.
∂t (2π)1/2 R 2t 2t5/2 2t
De même, toujours grâce à la bornitude de f et au théorème de convergence dominée, on
peut prendre la deuxième dérivée (partielle par rapport à x) sous le signe intégrale :
∂ 2 u(t, x) 1  1 (r − x)2   (r − x)2 
Z
1
= f (r) − + exp − dr.
∂x2 (2π)1/2 R t1/2 t t2 2t
∂u(t, x) 1 ∂ 2 u(t, x)
On constate alors que ∂t
= 2 ∂x2
. □

2.4. Propriété de Markov forte

Soit B un mouvement brownien défini dans un espace de probabilité complet, et soit Ft la


tribu engendrée par (Bs , 0 ≤ s ≤ t). On note F∞ pour la tribu engendrée par (Bs , s ≥ 0).
La propriété de Markov nous dit que pour tout s, (Bt+s − Bs , t ≥ 0) est un mouvement
brownien, indépendant de Fs . Dans cette section, on étend cette propriété à des instants
aléatoires s.

Définition 2.4.1. Une application τ : Ω → R+ ∪ {∞} est un temps d’arrêt si pour tout
t ≥ 0, {τ ≤ t} ∈ Ft .

Exemple 2.4.2. Le temps constant τ ≡ t est un temps d’arrêt. Un autre exemple est
τ = τa , où τa := inf{t > 0 : Bt = a} (avec la convention habituelle inf ∅ := +∞). En effet,
pour a ≥ 0, {τa ≤ t} = {sup0≤s≤t Bs ≥ a} ∈ Ft . En revanche, τ = sup{s ≤ 1 : Bs = 0} n’est
pas un temps d’arrêt (cela découlera par l’absurde de la propriété de Markov forte ci-dessous
et de l’Exemple 2.2.5-(1)). □

Définition 2.4.3. Soit τ un temps d’arrêt. La tribu des événements antérieurs à τ est
Fτ = {A ∈ F∞ : ∀ t ≥ 0, A ∩ {τ ≤ t} ∈ Ft } .

Exemple 2.4.4. Les variables τ et Bτ 1{τ <∞} sont Fτ -mesurables. Pour τ , il suffit de
remarquer que {τ ≤ u} ∩ {τ ≤ t} = {τ ≤ u ∧ t} ∈ Ft pour tous u, t ≥ 0. Pour Bτ 1{τ <∞} ,
on voit que
∞ ∞
Bτ 1{τ <∞} = lim 1{i/2n <τ ≤(i+1)/2n } Bi/2n = lim 1{i/2n <τ } − 1{(i+1)/2n <τ } Bi/2n
X X 
n→+∞ n→+∞
i=0 i=0
et que 1{s<τ } Bu est Fτ -mesurables si u ≤ s, puisque
{1{s<τ } Bu ≤ a} ∩ {τ ≤ t} = {Bu ≤ a, s < τ ≤ t} ∪ {0 ≤ a, τ ≤ s ∧ t} ∈ Ft .
2.4. PROPRIÉTÉ DE MARKOV FORTE 19

Théorème 2.4.5 (propriété de Markov forte). Soit τ un temps d’arrêt. Conditionnel-


lement à {τ < ∞}, le processus B
e := (Bτ +t − Bτ , t ≥ 0) est un mouvement brownien
indépendant de Fτ .

Preuve. On va montrer que, pour A ∈ Fτ , 0 ≤ t1 < · · · < tn et F : Rn → R+ continue et


bornée,
h i
E 1A∩{τ <∞} F (B
et1 , · · · , B
etn ) = P(A ∩ {τ < ∞}) E [F (Bt1 , · · · , Btn )] . (2.3)

Cela suffira pour montrer que, conditionnellement à {τ < ∞}, B


e est un mouvement brownien
(en prenant A = Ω) et qu’il est indépendant de Fτ .
Si τm := ⌈τ 2m ⌉/2m sur {τ < ∞}, où ⌈x⌉ := min{n ∈ Z : n ≥ x}, alors
1A∩{τ <∞} F (Bτm +t1 − Bτm , · · · , Bτm +tn − Bτm )

1A∩{(k−1)/2m <τ ≤k/2m } F (B(k/2m )+t1 − Bk/2m , · · · , B(k/2m )+tn − Bk/2m ).
X
=
k=0

Par la continuité des trajectoires, le terme gauche de cette égalité converge p.s. quand m → ∞
vers 1{τ <+∞} F (B
et1 , · · · , B
etn ), et par convergence dominée
h i
E 1A∩{τ <∞} F (B et1 , · · · , B
etn )

E 1A∩{(k−1)/2m <τ ≤k/2m } F (B(k/2m )+t1 − Bk/2m , · · · , B(k/2m )+tn − Bk/2m ) .
X  
= lim
m→∞
k=0

Pour chaque k, A ∩ {(k − 1)/2m < τ ≤ k/2m } ∈ Fk/2m . Par la propriété de Markov simple
au temps k/2m
E 1A∩{(k−1)/2m <τ ≤k/2m } F (B(k/2m )+t1 − Bk/2m , · · · , B(k/2m )+tn − Bk/2m ) =
 

= E 1A∩{(k−1)/2m <τ ≤k/2m } E [F (Bt1 , · · · , Btn )]


 

et donc
h i ∞
E 1A∩{τ <∞} F (B E 1A∩{(k−1)/2m <τ ≤k/2m } E [F (Bt1 , · · · , Btn )]
X  
et1 , · · · , B
etn ) = lim
m→∞
k=0
= P(A ∩ {τ < ∞}) E [F (Bt1 , · · · , Btn )] ,

d’où (2.3). □

Exemple 2.4.6. Soit τa := inf{t > 0 : Bt = a}. Par la propriété de Markov forte, le
processus (τa , a ≥ 0) est à accroissements indépendants et stationnaires, et à trajectoires
20 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV

croissantes. En plus, pour tout c > 0, les processus (c−2 τca , a ≥ 0) et (τa , a ≥ 0) ont la même
loi car
(c−2 τca )a≥0 = (inf{c−2 t > 0 : Bt = ca})a≥0 = (inf{t > 0 : c−1 Bct = a})a≥0
(d)
= (inf{t > 0 : Bt = a})a≥0 = (τa )a≥0 .
On dit que (τa , a ≥ 0) est un subordinateur stable d’indice (1/2). □

Théorème 2.4.7 (principe de réflexion). Soit St = sup0≤s≤t Bs , t > 0. Alors

P (St ≥ a, Bt ≤ b) = P (Bt ≥ 2a − b) , a ≥ 0, b ≤ a. (2.4)

En particulier, pour tout t > 0 fixé, St a la même loi que |Bt |.

Remarque 2.4.8. L’identité en loi entre St et |Bt | n’est vraie que pour t > 0 fixé. Les
processus (St , t ≥ 0) et (|Bt |, t ≥ 0) ont des comportements tout à fait différents (par
exemple, le premier est monotone, ce qui n’est pas le cas pour le second). Un résultat de P.
Lévy dit néanmoins que (St − Bt , t ≥ 0) et (|Bt |, t ≥ 0) ont la même loi. □

Preuve du Théorème 4.7. Rappelons que τa < ∞, p.s. On a


 
P (St ≥ a, Bt ≤ b) = P (τa ≤ t, Bt ≤ b) = P τa ≤ t, B
et−τa ≤ b − a ,

es := Bs+τa − Bτa = Bs+τa − a. Par la propriété de Markov forte, B


où B e est un mouvement
brownien indépendant de Fτa . En particulier le couple (τa , B)
e est indépendant. Puisque −B
e
e nous obtenons que (τa , −B)
a même loi que B, e a même loi que (τa , B)
e et donc
   
P τa ≤ t, Bt−τa ≤ b − a = P τa ≤ t, −Bt−τa ≤ b − a .
e e

Nous obtenons
 
P (St ≥ a, Bt ≤ b) = P τa ≤ t, −B
et−τa ≤ b − a

= P (τa ≤ t, Bt ≥ 2a − b) ,

ce qui prouve (2.4), car {Bt ≥ 2a − b} ⊂ {τa ≤ t} par a ≥ b.


Pour compléter la preuve du théorème, il suffit de noter que

P(St ≥ a) = P(St ≥ a, Bt > a) + P(St ≥ a, Bt ≤ a) = 2P(Bt ≥ a) = P(|Bt | ≥ a). ⊓


Corollaire 2.4.9. La loi du couple (St , Bt ) a pour densité


(2a − b)2
 
2(2a − b)
f(St ,Bt ) (a, b) = √ exp − 1{a>0, b<a} .
2πt3 2t
2.5. VARIATION QUADRATIQUE DU MOUVEMENT BROWNIEN 21

Exemple 2.4.10. On s’intéresse à la loi de τa . D’après le Théorème 2.4.7, pour tout t > 0,

 2 
a
P(τa ≤ t) = P(St ≥ a) = P(|Bt | ≥ a) = P( t |B1 | ≥ a) = P ≤t .
B12
Donc τa a même loi que a2 /B12 , ∀a ∈ R. D’où, pour a ̸= 0,
 2
|a| a
fτa (t) = √ exp − 1{t>0} .
2πt3 2t
En particulier, E(τa ) = ∞ si a ̸= 0. On rappelle que, par les exemples 2.2.4 et 2.2.5-(3),
P(τ0 = 0) = 1 et P(τa < +∞) = 1. □

2.5. Variation quadratique du mouvement brownien

Proposition 2.5.1 (Lévy). Fixons t > 0. Soit ∆n := {0 = tn0 < tn1 < · · · < tnpn = t} une
suite de subdivisions de [0, t] de pas tendant vers 0, c’est-à-dire supi (tni − tni−1 ) → 0, n → ∞.
Alors
pn
X
lim (Btni − Btni−1 )2 = t, dans L2 (P).
n→∞
i=1
Si en plus les subdivisions sont emboîtées, c’est-à-dire ∆1 ⊂ ∆2 ⊂ · · · , alors la convergence
a lieu également au sens presque sûr.

Preuve. Montrons d’abord la convergence dans L2 (P). Soit


Yi = Yin := (Btni − Btni−1 )2 − (tni − tni−1 ), 1 ≤ i ≤ pn .
Les variables aléatoires (Yi , 1 ≤ i ≤ pn ) sont indépendantes et centrées. De plus, (soit
a := tni − tni−1 ), E(Yi2 ) = a2 E[(B12 − 1)2 ] = a2 (E(B14 ) − 1) = 2a2 . Donc
h Xpn 2 i h Xpn 2 i X pn
2
E (Btni − Btni−1 ) − t = E Yi = Var(Yi )
i=1 i=1 i=1
pn
X
= 2 (tni − tni−1 )2
i=1
≤ 2t sup (tni − tni−1 ) → 0.
1≤i≤pn

D’où la convergence dans L2 (P).


On démontre la convergence p.s. seulement 1 pour le cas particulier où tni = i/2n , 0 ≤ i ≤
⌊t2n ⌋ := pn . On a vu que
pn pn
h X 2 i X t
E Yi =2 (tni − tni−1 )2 ≤ .
i=1 i=1
2n−1

1. La preuve de la convergence p.s. dans le cas général est plus technique ; on peut consulter par exemple
la Proposition 2.12 du Chapitre II du livre de Revuz et Yor 1999.
22 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV

Par l’inégalité de Tchebychev,


pn
 X 1 tn2
P Yi > ≤ n−1 ,
i=1
n 2
qui est sommable en n ≥ 1. Par le lemme de Borel–Cantelli, il existe un événement A tel
que P(A) = 0, et que pour tout ω ∈ Ac , on puisse trouver n0 = n0 (ω) < ∞ satisfaisant
pn
X 1
Yi ≤ , ∀ n ≥ n0 .
i=1
n
D’où la convergence p.s. □

Corollaire 2.5.2. Le mouvement brownien a p.s. variation infinie sur tout intervalle
[a, b], 0 ≤ a < b, i.e.
( p )
X
|B|([a, b]) := sup |B(ti ) − B(ti−1 )| = +∞,
i=1

où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp de [a, b].

Preuve. Soit O ⊂ Ω un mesurable tel que P(O) = 1 et pour tout ω ∈ O :


⌊b2n ⌋
X
lim (Btni (ω) − Btni−1 (ω))2 = b,
n→∞
i=1

tni n
pour tous les b ∈ Q, où = i/2 , i ≥ 0. Soit ω ∈ O et a < b, a, b ∈ Q. Nous avons que
X
(Btni (ω) − Btni−1 (ω))2 ≤ |B· (ω)|([a, b]) · sup |Bs (ω) − Br (ω)|.
a≤tn s,r∈[a,b],|s−r|≤2−n
i ≤b

Puisque r 7→ Br (ω) est uniformément continue sur [a, b], si la variation totale |B· (ω)|([a, b])
sur [a, b] est finie, alors la limite du terme de droite quand n → +∞ doit être nulle, alors
que nous savons que le terme de gauche tend vers b − a > 0. Si a < b sont génériques, il suffit
de considérer a < a′ < b′ < b avec a′ , b′ ∈ Q. □

Remarque 2.5.3. Dans la Proposition 2.5.1, si l’on enlève la condition que les subdivi-
sions soient emboîtées, la convergence p.s. ne peut avoir lieu en général. Pour des discussions
détaillées sur ce sujet, voir p. 48 du livre de D. Freedman intitulé “Brownian Motion and
Diffusion" (Holden-Day, 1971). □

2.6. Les zéros du mouvement brownien

Proposition 2.6.1. Soit Z := {t ≥ 0 : Bt = 0}. Montrer que p.s. Z est fermé, non
borné, sans points isolés.
2.7. MOUVEMENT BROWNIEN MULTI-DIMENSIONNEL 23

Preuve. Par la continuité de t 7→ Bt nous obtenons que Z est un ensemble fermé. Dans
l’exemple 2.2.5 nous avons montré que Z est p.s. non-borné. Il s’agit donc de vérifier que
Z n’admet p.s. pas de point isolé.
Pour tout t ≥ 0, soit τt := inf{s ≥ t : Bs = 0} qui est un temps d’arrêt. Il est clair que
τt < ∞, p.s., Bτt = 0. La propriété de Markov forte nous dit que τt n’est pas un zéro isolé
de Z . Donc, p.s., pour tout r ∈ Q+ , τr n’est pas un zéro isolé.
Soit t ∈ Z \{τr , r ∈ Q+ }. Il suffit de montrer que t n’est pas un zéro isolé. Soit une suite
de rationnels (rn ) ↑↑ t. Il est clair que rn ≤ τrn < t. Par le théorème des gendarmes, τrn → t,
et donc t n’est pas un zéro isolé. □
Il est connu en analyse (voir, p.72 du livre de Hewitt, E. et Stromberg, K. : Real and
Abstract Analysis. Springer, New York, 1969) qu’un ensemble fermé sans points isolés est
infini non-dénombrable. Donc Z est p.s. infini non-dénombrable.

2.7. Mouvement brownien multi-dimensionnel


(d)
Un processus (Bt )t≥0 := ((Bt1 , · · · , Btd ))t≥0 est un mouvement brownien à valeurs dans
Rd si B 1 , · · · , B d sont n mouvements browniens indépendants. La plupart des propriétés du
mouvement brownien que l’on a étudiées jusqu’à maintenant peuvent être étendues en di-
mension quelconque. En particulier, la propriété de Markov forte reste vraie, avec exactement
la même démonstration.
Chapitre 3

Martingales à temps continu

On présente les rudiments de la théorie des processus, au moins la partie qui nous sera
utile par la suite. On commence par introduire les notions de filtration, tribu, temps d’arrêt
et processus, pour étudier ensuite les martingales à temps continu.

3.1. Filtrations et conditions habituelles

Soit (Ω, F , P) un espace de probabilité. Une filtration (Ft )t≥0 sur cet espace est une
famille croissante de sous-tribus de F . On dit que (Ω, F , (Ft ), P) est un espace de probabilité
filtré.

Définition 3.1.1. Une application τ : Ω → R+ ∪ {+∞} est un temps d’arrêt si


∀ 0 ≤ t ≤ ∞, {τ ≤ t} ∈ Ft .

Pour tout t ≥ 0, on pose


\
Ft+ = Fs .
s>t
La famille (Ft+ , t ≥ 0) est aussi une filtration. On voit facilement que σ : Ω 7→ R+ ∪ {+∞}
est un (Ft+ )-temps d’arrêt ssi pour tout t ≥ 0 l’on a {σ < t} ∈ Ft , car
(1) si {σ < t} ∈ Ft pour t ≥ 0, alors pour tout n ∈ N
\
{σ ≤ t} = {σ < t + 1/k} ∈ Ft+1/n
k≥n

et donc {σ ≤ t} ∈ Ft+ ;
(2) si {σ ≤ t} ∈ Ft+ pour tout t ≥ 0, alors
[
{σ < t} = {σ ≤ t − 1/n} ∈ Ft .
n

Exemple 3.1.2. Soit (Bt , t ≥ 0) un mouvement brownien et (Ft ) sa filtration canonique.


Alors pour a ∈ R
τa := inf{t ≥ 0 : Bt = a}, inf ∅ := +∞,
est un (Ft )-temps d’arrêt. Or si a ≥ 0 et
σa := inf{t ≥ 0 : Bt > a}, inf ∅ := +∞,
25
26 3. MARTINGALES À TEMPS CONTINU

alors on sait par les exemples 2.2.4-2.2.5 et la propriété de Markov forte que p.s. τa = σa .
D’un autre côté, σa n’est pas un (Ft )-temps d’arrêt. On voit que pour tout n ∈ N
{σa < t} = {St > a} ∈ Ft
et donc σa est un (Ft+ )-temps d’arrêt. Voir les exemples 3.2.3 et 3.2.4 ci-dessous. □

Cet exemple montre que la propriété d’être un temps d’arrêt par rapport à la filtration
canonique n’est pas stable si on change la variable sur un ensemble de probabilité nulle. Ce
phénomène semble peu naturel et motive les définitions suivantes.

Définition 3.1.3. On dit que la filtration (Ft , t ≥ 0) est continue à droite si Ft+ =
Ft , ∀ t ≥ 0. Si (Ft ) est une filtration et F0 (donc toute Ft ) contient tous les ensembles
P-négligeables, alors on dit que la filtration est complète.

Il est clair que la filtration (Ft+ , t ≥ 0) est continue à droite.

Définition 3.1.4. On dit que la filtration (Ft ) satisfait les conditions habituelles si
elle est à la fois continue à droite et complète.

Étant donnée une filtration (Ft ) quelconque, on peut construire une filtration qui satisfait
les conditions habituelles, simplement en ajoutant à chaque tribu Ft+ la classe des ensembles
P-négligeables de F . C’est l’augmentation habituelle de la filtration (Ft ). On suppose
dorénavant que nos filtration satisfont les conditions habituelles sans le répéter chaque fois.

On étudie maintenant la mesurabilité pour les processus. Un processus (Xt , t ≥ 0) est


dit continu à droite (resp. à gauche) si ses trajectoires sont p.s. continues à droite (resp. à
gauche).

Définition 3.1.5. Un processus (Xt )t≥0 est dit mesurable si l’application


(t, ω) 7−→ Xt (ω)
définie sur R+ × Ω est mesurable par rapport à la tribu B(R+ ) ⊗ F .

Cette propriété est plus forte que de dire que ∀ t ≥ 0, Xt est F -mesurable. En revanche,
si les trajectoires sont assez régulières (par exemple, continues à droite ou à gauche), alors
les deux propriétés sont équivalentes ; il suffit en effet d’approcher X par des processus “en
escalier" qui sont quant à eux mesurables.

Définition 3.1.6. Un processus (Xt )t≥0 est dit adapté (par rapport à la filtration (Ft ))
si ∀ t ≥ 0, Xt est Ft -mesurable.
3.2. TEMPS D’ARRÊT 27

Définition 3.1.7. Un processus (Xt )t≥0 est dit progressif ou progressivement mesurable
(par rapport à la filtration (Ft )) si ∀ t ≥ 0,
(s, ω) 7−→ Xs (ω)
est mesurable sur [0, t] × Ω muni de la tribu B([0, t]) ⊗ Ft .

Il est clair que tout processus progressif est adapté et mesurable (car, pour tout A ∈ E
où l’on suppose que (Xt ) est à valeurs dans (E, E ), {(s, ω) ∈ R+ × Ω : Xs (ω) ∈ A} =
S∞
n=1 {(s, ω) ∈ [0, n] × Ω : Xs (ω) ∈ A} ∈ B(R+ ) ⊗ F ). Le résultat suivant nous fournit une
inversion partielle.

Proposition 3.1.8. Tout processus adapté et continu à droite (ou continu à gauche) à
valeurs dans un espace métrique est progressif.

Preuve. Soit (Xt ) adapté et continu à droite. Soit t > 0. Pour tout n ≥ 1, on définit
Xs(n) := Xt∧ (⌊ns/t⌋+1)t , s ∈ [0, t].
n
(n)
Alors Xs (ω) → Xs (ω) par la continuité à droite. D’autre part, pour tout A ∈ E (on suppose
que (Xt ) est à valeurs dans l’espace (E, E , d))
(s, ω) : s ∈ [0, t], Xs(n) (ω) ∈ A

n h 
[ (k − 1)t kt h
= , × {Xkt/n ∈ A} ∪ ({t} × {Xt ∈ A})
k=1
n n
∈ B([0, t]) ⊗ Ft ,
donc (s, ω) 7→ Xs (ω) sur [0, t] × Ω est mesurable par rapport à la tribu B([0, t]) ⊗ Ft .
La preuve est similaire si (Xt ) est adapté et continu à gauche ; il suffit alors de prendre
(n)
Xs := X⌊ns/t⌋ nt . □

Une partie A ∈ B(R+ ) ⊗ F est dite progressive si le processus Xt (ω) := 1A (t, ω) est
progressif. L’ensemble des parties progressives forme une tribu sur R+ × Ω, que l’on appelle
la tribu progressive. On peut facilement vérifier par définition qu’un processus (Xt )t≥0 est
progressif si et seulement si l’application (t, ω) 7→ Xt (ω) est mesurable sur R+ × Ω muni de
la tribu progressive.

3.2. Temps d’arrêt

Soit (Ω, F , (Ft ), P) un espace filtré. On définit


[  _
F∞ := σ Ft =: Ft ,
t≥0 t≥0
28 3. MARTINGALES À TEMPS CONTINU

la tribu engendrée par tous les éléments de toutes les tribus Ft , t ≥ 0.

À chaque temps d’arrêt τ , on peut associer les tribus suivantes :

Fτ := {A ∈ F∞ : ∀ t ≥ 0, A ∩ {τ ≤ t} ∈ Ft } ,
Fτ + := {A ∈ F∞ : ∀ t ≥ 0, A ∩ {τ < t} ∈ Ft } .

On se donne quelques propriétés simples de ces tribus. Leur preuve est tout à fait élémentaire.
• Fτ ⊂ Fτ + ;
• si (Ft ) est une filtration continue à droite, alors Fτ + = Fτ ;
• une application τ est un (Ft+ )-temps d’arrêt si et seulement si ∀ t, {τ < t} ∈ Ft , ou
encore si et seulement si ∀ t, τ ∧ t est Ft -mesurable ;
• si τ ≡ t, alors Fτ = Ft et Fτ + = Ft+ ;
• τ est Fτ -mesurable ;
• pour tout A ∈ F∞ , τ A := τ 1A + (+∞)1Ac est un temps d’arrêt si et seulement si
A ∈ Fτ .
• Si σ ≤ τ sont deux temps d’arrêt, alors Fσ ⊂ Fτ .

Proposition 3.2.1. Soit τ un temps d’arrêt, alors



⌈τ 2n ⌉ X k
τn := = 1{(k−1)/2n <τ ≤k/2n } + (+∞) 1{τ =∞}
2n k=0
2n
est une suite de temps d’arrêt qui décroît vers τ .

Preuve. Il est clair que (τn ) décroît vers τ . Il suffit de montrer que chaque τn est un temps
d’arrêt. Or, τn est Fτ -mesurable, et comme τn ≥ τ , on a {τn ≤ t} = {τn ≤ t}∩{τ ≤ t} ∈ Ft ,
car {τn ≤ t} ∈ Fτ . □

C’est le moment de préciser la principale raison pour laquelle on a introduit la notion de


processus progressif dans la section précédente.

Théorème 3.2.2. Si (Xt )t≥0 est un processus progressif à valeurs dans Rd , et si τ est un
temps d’arrêt, alors Xτ 1{τ <∞} est Fτ -mesurable.

Preuve. Soit Y := Xτ 1{τ <∞} . Pour que Y soit Fτ -mesurable, il suffit que Y 1{τ ≤t} soit
Ft -mesurable pour tout t ≥ 0. Or Y 1{τ ≤t} = Xτ ∧t 1{τ ≤t} . On remarque que Xτ ∧t est la
composition des deux applications :

(Ω, Ft ) −→ ([0, t] × Ω, B([0, t]) ⊗ Ft )


ω 7−→ (τ (ω) ∧ t, ω)
3.3. RAPPELS SUR LES MARTINGALES À TEMPS DISCRET 29

et
([0, t] × Ω, B([0, t]) ⊗ Ft ) −→ (Rd , B(Rd ))
(s, ω) 7−→ Xs (ω)
qui sont toutes les deux mesurables (la deuxième par la définition d’un processus progressif).
Donc Xτ ∧t , ainsi que Xτ ∧t 1{τ ≤t} , sont Ft -mesurables. □

Exemple 3.2.3. Si (Xt )t≥0 est un processus adapté continu à valeurs dans un espace
métrique (E, d), alors pour tout ouvert G ⊂ E,
τG := inf{t ≥ 0 : Xt ∈ G}
S
est un (Ft+ )-temps d’arrêt. En effet, {τG < t} = s∈[0,t[ ∩Q {Xs ∈ G}. □

Exemple 3.2.4. Si (Xt )t≥0 est adapté et continu à valeurs dans un espace métrique
(E, d), alors pour tout fermé F ⊂ E,
τF := inf{t ≥ 0 : Xt ∈ F }
est un temps d’arrêt. En effet, {τF ≤ t} = {inf s∈[0,t]∩Q d(Xs , F ) = 0}. □

3.3. Rappels sur les martingales à temps discret

Soit (Mn )n≥0 un processus réel adapté défini sur l’espace filtré (Ω, F , (Ft ), P) tel que
E(|Mn |) < +∞ pour tout n ≥ 0. On dit que (Mn )n≥0 est
(i) une sous-martingale si E(Mm | Fn ) ≥ Mn p.s. pour tout m ≥ n ≥ 0
(ii) une sur-martingale si E(Mm | Fn ) ≤ Mn p.s. pour tout m ≥ n ≥ 0
(iii) une martingale si E(Mm | Fn ) = Mn p.s. pour tout m ≥ n ≥ 0.
Si (Mn )n≥0 est une sous-martingale et il existe M∞ ∈ L1 tel que p.s. Mn ≤ E(M∞ | Fn ) alors
on dit que (Mn )n≥0 est fermée par M∞ en tant que sous-martingale. Si Mn = E(M∞ | Fn )
pour tout n alors (Mn )n≥0 est fermée par M∞ en tant que martingale.
Soit (Xα , α ∈ A) une famile de variables aléatoires réelles, indexée par un ensemble non
vide A quelconque. Alors (Xα , α ∈ A) est dite uniformément intégrable si
lim sup E(|Xα | 1(|Xα |>K) ) = 0.
K→+∞ α∈A

Nous rappelons les résultats suivants :


(1) (Mn )n≥0 sous-martingale, τ temps d’arrêt ⇒ (Mτ ∧n )n≥0 sous-martingale.
1 1
(2) (Doob) (Mn )n≥0 martingale, p
+ q
= 1 (p > 1, q > 1), k ≥ 0, ⇒

max |Mn | ≤ q ∥Mk ∥p , sup |Mn | ≤ q sup ∥Mk ∥p .


0≤n≤k p n≥0 p k≥0
30 3. MARTINGALES À TEMPS CONTINU

(3) (Lévy) ξ v.a. intégrable ⇒ E(ξ | Fn ) → E(ξ | F∞ ) p.s. et dans L1 .


(4) (Théorème d’arrêt) (Mn )n≥0 martingale fermée, σ ≤ τ temps d’arrêt. Alors p.s.
E(Mτ | Fσ ) = Mσ .
(5) Si ξ ∈ L1 (P), alors la famille de v.a. (E(ξ | G ), G tribu ⊂ F ) est uniformément
intégrable.
(6) Si Xn est une v.a. qui tend en probabilité vers X quand n → +∞, alors (Xn )n est
uniformément intégrable si et seulement si Xn → X dans L1 (P).
(7) Une martingale (Mn )n≥0 est fermée si et seulement si elle est uniformément intégrable.

3.4. Martingales à temps continu

Soit (Mt )t≥0 un processus aléatoire réel défini sur l’espace filtré (Ω, F , (Ft ), P).

Définition 3.4.1. On dit que (Mt )t≥0 est une martingale (resp. surmartingale ; sous-
martingale) si
(i) (Mt )t≥0 est adapté ;
(ii) ∀ t ≥ 0, E(|Mt |) < ∞ ;
(iii) ∀ s < t, E(Mt | Fs ) = Ms , p.s. (resp. ≤ Ms ; ≥ Ms ).

Exemple 3.4.2. Soit (Bt , t ≥ 0) un mouvement brownien, et soit (Ft ) sa filtration


canonique. Alors (Bt , t ≥ 0) est une martingale.
On peut facilement vérifier que Bt2 − t est aussi une martingale, car, pour t > s, E(Bt2 −
t | Fs ) = E[(Bt − Bs + Bs )2 | Fs )] − t, et comme pour tout x ∈ R, E[(Bt − Bs + x)2 ] =
Var(Bt − Bs ) + x2 = t − s + x2 , on obtient E(Bt2 − t | Fs ) = t − s + Bs2 − t = Bs2 − s.
2
Il existe une autre martingale importante : exp(θBt − θ2 t), où θ ∈ R est un réel quelconque.
θ2 θ2 θ2
, on a E[eθBt − 2 t | Fs ] = eθ
2 (t−s)/2 2 (t−s)/2
En effet, comme E[eθ(Bt −Bs ) ] = eθ eθBs − 2 t = eθBs − 2 s .

Exemple 3.4.3. L’exemple précédent s’étend à tous les processus à accroissements indé-
pendants (PAI), i.e. un processus (Xt , t ≥ 0) tel que pour 0 ≤ t1 < t2 < · · · < tn , Xtn −Xtn−1 ,
Xtn−1 − Xtn−2 , · · · , Xt1 sont indépendantes. Le mouvement brownien est un PAI. Un autre
exemple PAI est le processus de Poisson Nt := ∞ n=1 1{τn ≤t} , où τn := W1 + · · · Wn , et (Wi )
P

est une suite iid de variables aléatoires exponentielles.


Soit (Ft ) la filtration canonique d’un PAI (Xt , t ≥ 0). Par classe monotone, pour tout
s < t, Xt − Xs est indépendante de Fs .
et := Xt −E(Xt ) est clairement une martingale ;
(i) Si pour tout t, Xt est intégrable, alors X
3.4. MARTINGALES À TEMPS CONTINU 31

e 2 − E(X
(ii) Si, pour tout t, Xt est de carré-intégrable, alors Yt := X e 2 ) est une martingale.
t t
En effet, si s < t,
h i
E [ Yt | Fs ] = E (Xt − Xs + Xs ) | Fs − E[X
e e e 2 et2 ]
h i h i
es )2 | Fs + X
et − X
= E (X e 2 + 2Xes E X et − Xes | Fs − E[X
e 2]
s t
h i h i
= E (X es )2 + X
et − X e 2 + 2X es E X et − X es − E[X e 2]
s t

e 2 ] − E[X
= E[X e 2] + X
e 2 − E[X
e 2]
t s s t

= Ys .

(iii) Soit θ ∈ R. Si E(eθXt ) < ∞ pour tout t, alors


eθXt
Zt :=
E[eθXt ]
est une martingale. En effet, pour t > s,
eθXs E[eθ(Xt −Xs ) | Fs ] eθXs
E [ Zt | Fs ] = = = Zs . ⊓

E[eθXs ] E[eθ(Xt −Xs ) ] E[eθXs ]
Il est facile de voir que la plupart des propriétés élémentaires des martingales à temps
discret sont encore valables pour les martingales à temps continu. Par exemple si (Mt )t≥0 est
une martingale et si f est une fonction convexe telle que E(|f (Mt )|) < ∞, ∀ t, alors (f (Mt ))
est une sous-martingale. Si (Mt )t≥0 est une sous-martingale et si f est une fonction convexe
et croissante telle que E(|f (Mt )|) < ∞, alors (f (Mt )) est une sous-martingale.
Une autre observation est que si (Mt )t≥0 est une martingale, et si p ≥ 1, alors t 7→ E(|Mt |p )
est croissante, car (|Mt |p ) est une sous-martingale.

Théorème 3.4.4 (inégalité de Doob). Soit (Ms )s≥0 une martingale continue à droite,
telle que Mt ∈ Lp (P), alors

sup |Ms | ≤ q ∥Mt ∥p , sup |Ms | ≤ q sup ∥Mt ∥p ,


s∈[0,t] p s≥0 p t≥0

1 1
où p
+ q
= 1.

Preuve. Soit D ⊂ R+ dénombrable et dense. Par l’inégalité de Doob pour les martingales à
temps discret et convergence monotone,

sup |Ms | ≤ q ∥Mt ∥p .


s∈[0,t]∩D p

Comme la continuité à droite des trajectoires de (Ms )s≥0 nous dit que sups∈[0,t]∩D |Ms | =
sups∈[0,t] |Ms | p.s., on obtient l’inégalité cherchée. La deuxième inégalité suit en prenant la
32 3. MARTINGALES À TEMPS CONTINU

limite t → +∞ dans la première, et en remarquant que pour une martingale la fonction


t 7→ ∥Mt ∥p est monotone non-décroissante par la remarque qui précède l’énoncé. □

Proposition 3.4.5. Soit (Mt )t≥0 une martingale continue à droite, et soit τ un temps
d’arrêt. Alors (Mτ ∧t )t≥0 est une (Ft )-martingale (et a fortiori, une (Fτ ∧t )-martingale).

Preuve. Soit 0 ≤ s ≤ t. En considérant éventuellement τ ∧ t on peut supposer que τ est


borné. Soit n fixé et τn := 2−n ⌈2n τ ⌉ comme dans la Proposition 3.2.1. Alors τn est un
(Fk2−n )k≥0 -temps d’arrêt qui prend valeurs dans l’ensemble dénombrable {k2−n , k ∈ N} et
(Mk2−n )k≥0 est une (Fk2−n )k≥0 -martingale. Nous notons tn := 2−n ⌈2n t⌉ ≥ t. Par le résultat
sur les martingales à temps discret, pour tout s ≤ t nous avons E(Mτn ∧tn | Fsn ) = Mτn ∧sn ,
i.e. pour tout A ∈ Fs ⊆ Fsn : E[1A Mτn ∧tn ] = E[1A Mτn ∧sn ].
Nous voulons maintenant passer à la limite quand n → +∞ : il suffit de remarquer que
la famille (Mτn ∧tn )n est uniformément intégrable car Mτn ∧tn = E[M⌈t⌉ | Fτn ∧tn ]. La continuité
des trajectoires de M nous dit que, quand n → +∞, Mτn ∧tn → Mτ ∧t p.s. et dans L1 et cela
donne que Mτ ∧t ∈ L1 et (Mτ ∧t )t≥0 est une martingale. □

Une martingale (Mt , t ≥ 0) est dite fermée s’il existe M∞ ∈ L1 telle que Mt = E(M∞ | Ft )
p.s. pour tout t ≥ 0. Quitte à remplacer M∞ par E(M∞ | F∞ ), on peut supposer que M∞ soit
F∞ -mesurable. En particulier on a que Mσ = Mσ 1{σ<∞} + M∞ 1{σ=∞} est F∞ -mesurable.

Théorème 3.4.6 (Théorème d’arrêt). Soit (Mt )t≥0 une martingale continue à droite et
fermée. Soient σ ≤ τ deux temps d’arrêt. Alors p.s.

E(Mτ | Fσ ) = Mσ . (3.5)

Preuve. Montrons que Mτ est intégrable. Soient τn := 2−n ⌈2n τ ⌉ et σn := 2−n ⌈2n σ⌉ comme
dans la Proposition 3.2.1 deux suites de temps d’arrêt. Il est clair que, pour tout n, le
processus (Mi/2n+1 , i ≥ 0) est une martingale à temps discret, fermée par M∞ . Le théorème
d’arrêt (pour les martingales à temps discret) permet alors de dire que p.s. E(M∞ | Fτn ) =
Mτn , donc (Mτn )n forme une famille uniformément intégrable. Or par la continuité à droite
des trajectoires, Mτn converge p.s. vers Mτ quand n → +∞ ; donc Mτn converge vers Mτ
dans L1 et Mτ est intégrable.
Soit (σn )n la suite de temps d’arrêt associée à σ. De même, Mσn → Mσ p.s. et dans
L1 . Puisque σn ≤ τn , le théorème d’arrêt (version à temps discret) nous dit que Mσn =
E[ Mτn | Fσn ], et donc pour tout A ∈ Fσ ⊂ Fσn , E[ Mσn 1A ] = E[ Mτn 1A ]. En faisant
tendre n → ∞ et en constatant la convergence dans L1 , on obtient : E[ Mσ 1A ] = E[ Mτ 1A ].
Puisque A ∈ Fσ est quelconque, on a p.s. E[ Mσ | Fσ ] = E[ Mτ | Fσ ]. Or, (Mt )t≥0 est
3.5. MOUVEMENT BROWNIEN EN TANT QUE MARTINGALE 33

progressif (Proposition 3.1.8), on sait que Mσ = Mσ 1{σ<∞} + M∞ 1{σ=∞} est Fσ -mesurable


(Théorème 3.2.2), on obtient (3.5). □

Remarque 3.4.7. Si σ et τ sont bornés par une constante finie K, alors le théorème
d’arrêt est valable pour toute martingale continue à droite (Mt )t≥0 : il suffit de remplacer
(Mt )t≥0 par (Mt∧K )t≥0 pour obtenir une martingale fermée.

Remarque 3.4.8. Une conséquence importante du théorème d’arrêt est que, sous les
mêmes hypothèses,
E(Mτ ) = E(Mσ ).

3.5. Mouvement brownien en tant que martingale

Définition 3.5.1. Soit (Ω, F , (Ft ), P) un espace filtré. On dit que (Bt )t≥0 un (Ft )-
mouvement brownien si
(i) (Bt )t≥0 est (Ft )-adapté ;
(ii) pour tout s > 0, (Bt+s − Bs )t≥0 est un mouvement brownien indépendant de Fs .

Par exemple, un mouvement brownien standard est un mouvement brownien par rapport
à sa filtration canonique.
Durant toute la section, on suppose que (Bt )t≥0 est un (Ft )-mouvement brownien. On
se donne quelques exemples d’applications des théorèmes d’arrêt.

Exemple 3.5.2. Soit τ1 := inf{t > 0 : Bt = 1}. Par l’exemple 2.2.5-(3) ce temps d’arrêt
est p.s. fini mais par l’exemple 2.4.10 E(τ1 ) = +∞. Puisque p.s. Bτ1 = 1,

1 = E[Bτ1 | F0 ] ̸= B0 = 0.

Dans ce cas (Bt )t≥0 n’est pas une martingale fermée et τ1 n’est pas borné ; le théorème d’arrêt
ne s’applique donc pas. □

Exemple 3.5.3 (identités de Wald). Soit τ un temps d’arrêt tel que E(τ ) < ∞. Alors
Bτ ∈ L2 , E(Bτ ) = 0 et E(Bτ2 ) = E(τ ).
Observons d’abord que (Bt )t≥0 n’est pas une martingale fermée et τ n’est pas supposé être
borné ; le théorème d’arrêt ne s’applique donc pas directement. Par la Proposition 3.4.5, Bt∧τ
2 2 2
et Bt∧τ − t ∧ τ sont des martingales et E(Bt∧τ ) = E(t ∧ τ ) ≤ E(τ ), et donc supt E(Bt∧τ )≤
E(τ ) < ∞. Par conséquent, Bt∧τ est une martingale continue uniformément intégrable,
fermée par Bτ (en particulier, Bτ est intégrable). Par le théorème d’arrêt, E(Bτ ) = E(B0∧τ ) =
0.
34 3. MARTINGALES À TEMPS CONTINU

Par l’inégalité de Doob,


 
2
 2 
E sup Bt∧τ ≤ 4 sup E Bt∧τ ≤ 4E(τ ) < ∞,
t≥0 t≥0
2
et donc (Bt∧τ , t ≥ 0) est uniformément intégrable. Comme (t ∧ τ, t ≥ 0) est uniformément
2
intégrable, Bt∧τ − t ∧ τ est une martingale continue uniformément intégrable, fermée par
Bτ2 − τ (en particulier, Bτ est de carré-intégrable). Par le théorème d’arrêt, E(Bτ2 − τ ) = 0.
Autrement dit, E(Bτ2 ) = E(τ ). □
2 t/2
Exemple 3.5.4. Soit τa := inf{t ≥ 0 : Bt = a}. Soit θ > 0. On sait que (eθBt −θ )t≥0
2
est une martingale. Si a > 0, alors θBt∧τa − θ (t ∧ τa )/2 ≤ θa, donc, par la Proposition 3.4.5,
2 2
(eθBt∧τa −θ (t∧τa )/2 , t ≥ 0) est une martingale continue bornée qui converge p.s. vers eθa−θ τa /2
quant t → +∞ (rappelons que τa < ∞ p.s.). On a par le théorème de convergence dominée
que h i
2
1 = E eθa−θ τa /2 .

Autrement dit, E[e−θ a /2
] = e−θa . De façon équivalente, pour tout a ∈ R :

E e−λτa = e−|a| 2λ ,
 
λ ≥ 0.
On peut facilement vérifier que ceci est en accord avec la densité de τa donnée dans l’Exemple
2.4.10. □

Exemple 3.5.5. Soit ((Xt , Yt ))t≥0 est un mouvement brownien à valeurs dans R2 issu
de (X0 , Y0 ) = (0, 1) (c’est-à-dire que (Xt ) et (Yt ) sont deux mouvements browniens linéaires
indépendants). Soit τ := inf{t ≥ 0 : Yt = 0}. Quelle est la loi de Xτ ?
2
D’après l’exemple précédent, pour tout θ ∈ R, E[e−θ τ /2 ] = e−|θ| . Comme τ est indépen-
dante de σ(Xt )t≥0 , on a pour tout θ ∈ R,
h √ i h 2
i
E eiθXτ = E eiθ τ X1 = E e−θ τ /2 = e−|θ| .
 

Autrement dit, Xτ suit la loi de Cauchy standard.


Cela donne un exemple d’une variable non-intégrable obtenue en calculant la position
d’un brownien à un temps d’arrêt p.s. fini. □
Chapitre 4

Semimartingales continues

De même que les mesures sont les objets mathématiques pour lesquels on peut construire
des intégrales déterministes, les semimartingales sont des processus aléatoires pour lesquels
on peut construire un calcul intégral puissant qui étend le calcul intégral déterministe. Nous
travaillerons toujours avec des semimartingales continues, mais il est possible, au prix de
difficultés techniques supplémentaires, de faire de même avec des processus admettant des
sauts.
Une semimartingale se décompose en somme d’une martingale locale et d’un processus à
variation finie. Nous allons étudier séparément les deux notions.

4.1. Processus à variation finie

Commençons par un rappel sur les fonctions (déterministes) croissantes.

Théorème 4.1.1 (Stieltjes). Soit F : R → R une fonction croissante continue à droite.


Il existe une unique mesure dF sur (R, B(R)), appelée mesure de Stieltjes associée à F ,
vérifiant :
∀ a, b ∈ R, a ≤ b, dF (]a, b]) = F (b) − F (a).

Pour une démonstration, voir l’ouvrage de Briane et Pagès.

Exemple 4.1.2. L’exemple principal est F (x) = x, x ∈ R. La mesure de Stieltjes associée


est la mesure de Lebesgue dx. Pour toute variable aléatoire X à valeurs dans R, si on définit

F (t) := P(X ≤ t), t ∈ R,

alors la mesure de Stieltjes associée à F est la loi de X et F est appelée la fonction de


répartition de (la loi de) X. De façon équivalente, pour toute mesure de probabilité µ sur R,
si on définit
F (t) := µ(] − ∞, t]), t ∈ R,

alors la mesure de Stieltjes associée à F est µ.


35
36 4. SEMIMARTINGALES CONTINUES

Remarque 4.1.3. Si F : R → R est croissante et continue à droite, alors F est continue


en x si et seulement si dF ({x}) = 0, car
dF ({x}) = F (x) − F (x−), F (x−) := lim F (y).
y↑x

La fonction F est donc continue sur R ssi dF n’a pas d’atômes. □

Exemple 4.1.4. Un exemple très instructif est la fonction escalier du diable, construite
par récurrence de la façon suivante. On prend f0 : [0, 1] → [0, 1], f0 (x) = x, x ∈ [0, 1]. La
fonction f1 : [0, 1] → [0, 1] est la fonction continue affine par morceaux qui vaut 0 en 0, 1 en
1, et 1/2 sur [1/3, 2/3].
On passe de même de fn à fn+1 en remplaçant fn , sur chaque intervalle [u, v] = 3in , i+1
 
3n
où elle n’est pas constante, par la fonction continue affine par morceaux qui vaut fn (u)+f
2
n (v)

sur le tiers central de l’intervalle [u, v].


Alors on vérifie que pour tout x ∈ [0, 1], |fn+1 (x) − fn (x)| ≤ 2−n−1 , ce qui montre que la
P
série de fonctions n≥0 (fn+1 − fn ) converge uniformément, et donc que la suite fn converge
uniformément. La fonction limite f est continue, monotone, et l’on a f (0) = 0 et f (1) = 1
comme annoncé.
De plus, f a une dérivée nulle sur le complémentaire de l’ensemble de Cantor K, construit
par récurrence de la façon suivante. Nous définissons
   
1 2 Kn 2 + Kn
K1 := 0, ∪ ,1 , Kn+1 := ∪ , n ≥ 1.
3 3 3 3
On voit facilement que Kn ⊂ Kn+1 ⊂ [0, 1] et K := ∩n Kn est donc un compact. En plus
la mesure de Lebesgue de Kn est égale à (2/3)n , donc K a mesure de Lebesgue nulle. Le
complémentaire A := [0, 1] \ K et un ouvert avec mesure de Lebesgue 1 donc dense dans
[0, 1]. Donc f est dérivable sur A avec dérivée nulle, où A ⊂ [0, 1] est un ouvert dense dans
[0, 1]. Pourtant f est continue etf (1) = 1 > 0 = f (0), donc f n’est pas constante !
L’explication est que la mesure de Stieltjes df associée à f est concentrée sur K, qui
a mesure de Lebesgue nulle. Comme expliqué dans la Remarque 4.1.3, la continuité de f
implique que df n’a pas d’atômes. Voir l’ouvrage de Briane et Pagès pour plus de détails. □

Nous passons maintenant aux fonctions (déterministes) à variation finie. Soit T > 0 fixé.
On rappelle qu’une mesure signée sur un espace mesurable (E, E ) est toute différence de
deux mesures finies positives.

Définition 4.1.5. Une fonction a : [0, T ] → R continue à droite avec a(0) = 0 est dite à
variation finie s’il existe une mesure signée, notée da, sur [0, T ] telle que a(t) = da([0, t])
pour tout t ∈ [0, T ].
4.1. PROCESSUS À VARIATION FINIE 37

Remarque 4.1.6. Une fonction a : [0, T ] → R continue à droite avec a(0) = 0 est donc
à variation finie ssi a = F1 − F2 où Fi : [0, T ] → R est croissante continue à droite : il suffit
d’écrire da = µ1 − µ2 avec µi mesure finie positive, et Fi (t) := µi ([0, t]), t ∈ [0, T ], i = 1, 2.

Si a est croissante, da est la mesure de Stieltjes de a. Pour toute a à variation finie,


par classe monotone la mesure da est déterminée de façon unique par a. Par contre la
décomposition de da = µ1 − µ2 comme différence de deux mesures finies positives n’est pas
unique, mais elle le devient si l’on impose de plus que les mesures de µ1 et µ2 soient étrangères
(c’est-à-dire, µ1 (E) = 0 = µ2 (E c ) pour un borélien E).

Lemme 4.1.7. Si a est une fonction à variation finie alors il existe un seul couple
(da+ , da− ) de mesures finies sur [0, T ] étrangères et telles que da = da+ − da− .

Preuve. Pour une décomposition quelconque da = µ1 − µ2 la mesure ν = µ1 + µ2 est positive


finie telle que µ1 ≪ ν et µ2 ≪ ν. Par le théorème de Radon-Nikodym il existe deux fonctions
boréliennes non-négatives h1 et h2 sur [0, T ] telles que

dµi = hi dν, i = 1, 2.

Si on pose h := h1 − h2 alors

da = h dν = h+ dν − h− dν =: da+ − da−

et les deux mesures da+ et da− sont portées par les ensembles boréliens disjoints D+ := {t ∈
[0, T ] : h(t) > 0} et D− := {t ∈ [0, T ] : h(t) < 0} respectivement.
L’unicité de cette décomposition découle du fait que

da+ (A) = sup{da(C) : C ∈ B([0, T ]), C ⊆ A}, ∀ A ∈ B([0, T ]),

car pour tout C borélien contenu dans A

da(C) = da+ (C) − da− (C) ≤ da+ (C) ≤ da+ (A), da+ (A) = da(A ∩ D+ ).

Ceci conclut la preuve. □

On note
|da| := da+ + da− ,
mesure finie appelée variation totale de da. On a |da|(E) ≤ |da(E)| pour tout A ∈
B([0, T ]), mais l’égalité est fausse en général. La densité de Radon-Nikodym de da par
rapport à |da| est donnée par
da = 1D+ − 1D− |da|.

(4.6)
38 4. SEMIMARTINGALES CONTINUES

Proposition 4.1.8. Une fonction a continue est à variation bornée sur [0, T ] si et seule-
ment si elle s’écrit comme différence de deux fonctions continues croissantes.
Preuve. Le seul point à prouver est que si a continue est la différence de deux fonctions
croissantes, alors a est la différence de deux fonctions croissantes continues. Puisque la mesure
da n’a pas d’atomes par la continuité de a, l’on obtient que da+ et da− doivent avoir les
mêmes atomes qui appartiennent donc à l’intersection des deux supports. Puisque les deux
mesures sont étrangères, elles n’ont donc pas d’atomes et leurs fonctions de répartition sont
continues. □

Exemple 4.1.9. Si µ est une mesure finie sur [0, T ] et f : [0, T ] 7→ R est une fonctionne
R
borélienne telle que [0,T ] |f | dµ < +∞, alors la fonction
Z t
at := f dµ, t ∈ [0, T ],
0
est à variation finie et
da = f dµ, da+ = f + dµ, da− = f − dµ, |da| = |f | dµ,
où f + := max{f, 0} et f − := max{−f, 0}. □

On peut maintenant définir l’intégrale par rapport à une fonction à variation finie : si
a : [0, T ] → R est à variation finie, et si f : [0, T ] → R est une fonction mesurable telle que
R
[0,T ]
|f | |da| < ∞, alors les intégrales suivantes sont bien définies :
Z T Z T Z T
f da = f (s) da+ (s) − f (s) da− (s),
0 0 0
Z T Z T Z T
f |da| = f (s) da+ (s) + f (s) da− (s).
0 0 0
On a l’inégalité triangulaire
Z T Z T
f da ≤ |f | |da| .
0 0

Remarquons que la fonction t 7→ 0 f da := 0 f 1[0,t] da est aussi à variation finie, la mesure


Rt RT

associée étant f da.


Une façon alternative de présenter les fonctions à variation finie consiste à regarder la
variation de a par rapport aux subdivisions de [0, T ] :

Proposition 4.1.10. Si a est à variation bornée, alors pour tout t ∈ [0, T ]


( p )
X
|da| ([0, t]) = sup |a(ti ) − a(ti−1 )| ,
i=1
4.1. PROCESSUS À VARIATION FINIE 39

où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp = t de [0, t].

Preuve. La minoration est triviale, car |a(ti ) − a(ti−1 )| ≤ |da| ( ]ti−1 , ti ]). Pour la majoration,
on utilise un argument de martingale. On suppose pour simplifier l’écriture que t = 1. On
|da|
munit Ω := [0, 1] de la tribu borélienne F := B([0, 1]) et de la probabilité P := |da|([0,1])
. Si
l’on pose en rappelant (4.6)
da
Y (s) := (s) = 1D+ (s) − 1D− (s), s ∈ [0, 1],
|da|
alors Y est une variable aléatoire P-intégrable.
Pour chaque n, soit Bn la tribu engendrée par les intervalles Ii = Ii (n) := ] i−1
2n
, i
2n
],
1 ≤ i ≤ 2n . On considère la martingale Mn := E(Y | Bn ). D’après le Théorème de Lévy
rappelé dans la section 3.3, Mn → E(Y | B∞ ), p.s. et dans L1 , où B∞ := n Bn est la tribu
W

borélienne de [0, 1] (donc E(Y | B∞ ) = Y ). En particulier,

E(|Mn |) → E(|Y |) = 1, n → ∞,

(cette dernière identité étant claire car |Y | = 1, P-p.s.). Or, Mn étant Bn -mesurable est
i=1 ci 1Ii . Comme
P2n
constant sur chaque ] i−1
2n , 2
i
n ] ; soit Mn =
da(Ii ) ci |da|(Ii )
E[Y 1Ii ] = , E[Mn 1Ii ] = ci P(Ii ) = ,
|da|([0, 1]) |da|([0, 1])
da(Ii )
on obtient ci = |da|(Ii )
, et donc
2n
1 X i i−1
E(|Mn |) = a( n ) − a( n ) .
|da|([0, 1]) i=1 2 2
Ceci permet de conclure la preuve. □

Corollaire 4.1.11. Une fonction a : [0, T ] → R continue à droite avec a(0) = 0 est à
variation bornée si et seulement si
( p )
X
sup |a(ti ) − a(ti−1 )| < +∞, (4.7)
i=1

où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp = T de [0, T ].

Preuve. Si a est à variation bornée, alors (4.7) suit de la Proposition 4.1.10. Inversement, si
l’on suppose (4.7), alors la fonction
( p )
X
St := sup |a(ti ) − a(ti−1 )| , t ∈ [0, T ]
i=1
40 4. SEMIMARTINGALES CONTINUES

où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp = t de [0, t], est
bien définie et croissante. En plus, la fonction S − a est aussi croissante et par la Proposition
4.1.8 nous obtenons que a est à variation bornée. □

Lemme 4.1.12. Si f : [0, T ] → R est une fonction continue et si 0 = tn0 < tn1 < · · · <
tnpn = T est une suite de subdivisions de [0, T ] dont le pas tend vers 0, alors
Z T pn
X
f (s) da(s) = lim f (tni−1 )(a(tni ) − a(tni−1 )).
0 n→∞
i=1

Preuve. Soit fn la fonction définie par fn (s) := f (tni−1 ) si s ∈ ]tni−1 , tni ] (et fn (0) := 0). On a
pn Z T
X
n n n
f (ti−1 )(a(ti ) − a(ti−1 )) = fn (s)µ(ds),
i=1 0

et le résultat voulu en découle par convergence dominée. □

On dira qu’une fonction continue à droite a : R+ → R est à variation finie sur R+ si


pour tout T > 0, la restriction de a sur [0, T ] est à variation finie. Il est facile d’étendre
R∞
les définitions précédentes. En particulier, 0 f (s) da(s) est bien définie pour toute fonction
R∞ RT
mesurable f telle que 0 |f (s)| |da(s)| = supT >0 0 |f (s)| |da(s)| < ∞.

Passons maintenant au cas aléatoire. Fixons (Ω, F , (Ft ), P) un espace de probabilité


filtré, dont la filtration vérifie les conditions habituelles.

Définition 4.1.13. Un processus à variation finie A := (At )t≥0 est un processus


continu adapté dont les trajectoires sont p.s. à variation finie avec A0 = 0. Le processus A
est appelé processus croissant si de plus les trajectoires de A sont p.s. croissantes.

En particulier, A est un processus progressif.

Proposition 4.1.14. Soit A un processus à variation finie, et soit H un processus pro-


gressif tel que pour tout t > 0,
Z t
|Hs (ω)| |dAs (ω)| < ∞, p.s.
0

Alors le processus H · A défini par


Z t
(H · A)t := Hs dAs
0

est aussi un processus à variation finie.


4.2. MARTINGALES LOCALES CONTINUES 41
Rt
Preuve. Presque sûrement, 0
|Hs (ω)| |dAs (ω)| < ∞ pour tout t > 0. Il est alors clair d’après
les remarques précédentes que les trajectoires de H · A sont p.s. à variation finie.
Il nous faut maintenant vérifier que H ·A est adapté. Il suffit de montrer que si h : [0, t]×
Rt
Ω → R est mesurable par rapport à la tribu B([0, t]) ⊗ Ft , et si 0 |h(s, ω)| |dAs (ω)| < ∞,
Rt
p.s., alors la variable 0 h(s, ω) dAs (ω) est Ft -mesurable.
Lorsque h(s, ω) = 1 ]u,v] (s) 1Γ (ω), avec ]u, v] ⊂ [0, t] et Γ ∈ Ft , le résultat est évident. Par
classe monotone, il est encore vrai si h = 1G , où G ∈ B([0, t])⊗Ft . Si h est positive, alors on
peut toujours l’écrire comme limite (ponctuelle) d’une suite croissante de fonctions étagées
Rt Rt
hn , ce qui assure que 0 hn (s, ω) dAs (ω) → 0 h(s, ω) dAs (ω) par convergence monotone.
Enfin, pour le cas général, il suffit de considérer séparément h+ et h− . □

4.2. Martingales locales continues

On se place dans un espace de probabilité filtré (Ω, F , (Ft ), P) qui vérifie les conditions
habituelles. Si τ est un temps d’arrêt, et si X := (Xt , t ≥ 0) est un processus continu, on
note X τ le processus arrêté (Xtτ = Xt∧τ )t≥0 .

Définition 4.2.1. Un processus continu adapté M := (Mt )t≥0 est appelé une martin-
gale locale (continue) s’il existe une suite croissante (τn , n ≥ 1) de temps d’arrêt telle que
τn ↑ ∞ p.s. et que pour tout n, M τn − M0 soit une martingale uniformément intégrable.
On dit que la suite de temps d’arrêt (τn ) réduit M .

Remarque 4.2.2. Si M est une martingale locale, la variable aléatoire Mt n’est pas
nécessairement intégrable. En particulier, on n’a aucune information a priori sur M0 , à part
qu’il s’agit d’une variable aléatoire F0 -mesurable. □

Voici une collection de propriétés élémentaires pour les martingales locales :

Exercice 4.2.3.
(1) Une martingale continue est une martingale locale (la suite τn := n réduisant M ).
(2) Dans la définition d’une martingale locale, on peut remplacer “martingale uniformé-
ment intégrable" par “martingale" (il suffit de remplacer τn par τn ∧ n).
(3) Si M est une martingale locale, alors pour tout temps d’arrêt τ , M τ est une martingale
locale (rappeler la Proposition 3.4.5).
(4) Si (τn ) réduit M et si (σn ) est une suite croissante de temps d’arrêt telle que σn ↑ ∞,
alors la suite (σn ∧ τn ) réduit M .
42 4. SEMIMARTINGALES CONTINUES

(5) L’espace des martingales locales est un espace vectoriel (utiliser la propriété précé-
dente).

On se gardera d’appliquer sans précaution aux martingales locales les résultats que l’on
a démontrés pour les martingales. Il est important de savoir si une martingale locale est
une vraie martingale. Nous allons prouver quelques premiers résultats dans ce sens. Nous
rappellons d’abord le

Lemme 4.2.4 (Fatou version conditionnelle). Si (Xn )n est une suite de v.a. non-négatives
et G ⊆ F est une tribu, alors p.s.
h i
E lim inf Xn G ≤ lim inf E [Xn | G ] .
n n
Preuve. Soit Yn := inf k≥n Xk . Alors Yn est une suite croissante et lim inf n Xn = supn Yn .
Donc p.s. pour tout k ≥ n
E [Yn | G ] ≤ E [Xk | G ]
et donc
E [Yn | G ] ≤ inf E [Xk | G ] .
k≥n
Il est facile de montrer la propriété de convergence monotone de l’espérance monotone : ici,
p.s. E [ limn Yn | G ] = limn E [Yn | G ]. Nous obtenons
h i
E lim inf Xn G ≤ lim inf E [ Xn | G ]
n n
p.s., et la preuve est terminée. □

Proposition 4.2.5. Soit M une martingale locale.


(1) Une martingale locale positive M telle que M0 ∈ L1 (P) est une surmartingale.
(2) Si pour tout t, E(sups∈[0,t] |Ms |) < ∞, alors M est une martingale.
(3) La suite de temps d’arrêt τn := inf{t ≥ 0 : |Mt − M0 | = n} réduit M .
Preuve.
(1) Soit (τn ) une suite de temps d’arrêt qui réduit Mt . Comme M0 ∈ L1 (P), M τn est une
martingale. Donc pour s < t,
E [Mt∧τn | Fs ] = Ms∧τn , p.s. (4.8)
On applique le Lemme 4.2.4 pour n → ∞, pour voir que
E [Mt | Fs ] ≤ Ms , p.s.
(A fortiori, ceci confirme l’intégrabilité de Mt en considérant s = 0.) Par conséquent,
M est une surmartingale.
4.2. MARTINGALES LOCALES CONTINUES 43

(2) On a toujours (4.8). Comme Mt∧τn → Mt , p.s., et |Ms∧τn | ≤ Yt := supu∈[0,t] |Mu | ∈ L1


pour tout s ∈ [0, t], le théorème de convergence dominée nous dit que Mt∧τn → Mt et
Ms∧τn → Ms dans L1 . En faisant n → ∞ dans (4.8), on obtient alors E[Mt | Fs ] = Ms ,
p.s.
(3) Il s’agit d’une conséquence de (2), car (M − M0 )τn est une martingale locale bornée
par n donc une martingale uniformément intégrable.
La preuve est terminée. □

Remarque 4.2.6. La propriété (2) de la Proposition 4.2.5 pourrait donner l’impression


que toute martingale locale telle que (Ms , s ∈ [0, t]) soit uniformément intégrable pour tout
t ≥ 0 est une martingale, mais cela est faux ! On verra dans la suite un exemple d’une
martingale locale bornée dans L2 qui n’est pas une martingale.

Théorème 4.2.7. Soit M une martingale locale continue. Si M est à variation finie,
alors P(Mt = M0 , ∀ t ≥ 0) = 1.

Preuve. Quitte à remplacer M par M − M0 , on peut supposer que p.s. M0 = 0. Supposons


que M soit à variation finie. Posons
 Z t 
τn := inf t : |dMs | ≥ n .
0

Comme τn ≤ inf{t : |Mt | ≥ n}, la Proposition 4.2.5, partie (2), nous dit que N = M τn est une
(vraie) martingale bornée, issue de N0 = 0, p.s. Soit t > 0, et soit 0 = t0 < t1 < · · · < tp = t
une subdivision de [0, t]. On a
p h i Xp
X
E(Nt2 ) = E Nt2i − Nt2i−1 = E (Nti − Nti−1 )2
 
i=1 i=1
p
" #
X
≤ E sup |Nti − Nti−1 | |Nti − Nti−1 | .
1≤i≤p
i=1
Pp
Comme i=1 |Nti − Nti−1 | ≤ n par la Proposition 4.1.10, on obtient
 
2
E(Nt ) ≤ n E sup |Nti − Nti−1 | .
1≤i≤p

Prenons maintenant une suite de subdivisions 0 = tk0 < tk1 < · · · < tkpk = t de [0, t]
dont le pas tend vers 0 quand k → ∞. Puisque N est continue et bornée, le théorème de
convergence dominée nous confirme que E(Nt2 ) = 0, soit par la continuité des trajectoires
P(Mt∧τn = 0, ∀ t ≥ 0) = 1. Il suffit alors de faire n tendre vers +∞. □
44 4. SEMIMARTINGALES CONTINUES

4.3. Variation quadratique d’une martingale locale

On se place toujours dans un espace filtré (Ω, F , (Ft ), P) vérifiant les conditions habi-
tuelles. Le théorème suivant joue un rôle très important dans la suite du cours.

Théorème 4.3.1. Soit M une martingale locale continue. Il existe un processus croissant,
noté ⟨M ⟩ := (⟨M ⟩t )t≥0 , unique à indistinguabilité près, tel que Mt2 −⟨M ⟩t soit une martingale
locale et ⟨M ⟩0 = 0.
De plus, pour tout t > 0, si 0 = tn0 < tn1 < · · · < tnpn = t est une suite de subdivisions
emboîtées de [0, t] de pas tendant vers 0, alors
pn
X
lim (Mtni − Mtni−1 )2 = ⟨M ⟩t , en probabilité.
n→∞
i=1

Remarque 4.3.2.
(i) Le processus ⟨M ⟩ est appelé la variation quadratique de M .
(ii) Quand M = B est un mouvement brownien, on sait que ⟨B⟩t = t. C’est une consé-
quence du Théorème de Lévy (Proposition 2.5.1), ou du fait que Bt2 − t est une martingale.
(iii) On ne va pas prouver ce théorème en détail. Néanmoins plus tard on donnera une
preuve pour une classe moins générale de martingale, qui couvre la totalité des exemples que
nous verrons dans ce cours, voir la Remarque 5.2.3 ci-dessous.
Preuve. L’unicité découle du Théorème 4.2.7. En effet, si A et A e sont deux processus crois-
sants satisfaisant les conditions du théorème, alors le processus A− A et )−(M 2 −At )
e = (M 2 − A
t t
est une martingale locale continue issue de 0 et à variation finie.
Pour une démonstration détaillée de l’existence, voir par exemple le livre de Le Gall (Thm
4.2, page 64). On mentionne la version pour les martingales à temps discret, dont l’énoncé
est alors très concret et simple. Soit (Xn , n ≥ 0) une martingale telle que E(Xn2 ) < ∞, ∀ n.
Soit n
X
E (Xi − Xi−1 )2 | Fi−1 .
 
An :=
i=1
Alors Xn2 − An est une martingale. □

Proposition 4.3.3. Soit M une martingale locale, et soit τ un temps d’arrêt. Alors
⟨M τ ⟩ = ⟨M ⟩τ .
2
Preuve. Puisque Mt∧τ − ⟨M ⟩t∧τ est une martingale locale, on a ⟨M ⟩t∧τ = ⟨M τ ⟩t . □

Définition 4.3.4. Une martingale continue M est de carré intégrable (ou dans L2 ) si
E(Mt2 ) < ∞ pour tout t.
4.3. VARIATION QUADRATIQUE D’UNE MARTINGALE LOCALE 45

Théorème 4.3.5. Soit M une martingale locale telle que p.s. M0 = 0. Alors E[⟨M ⟩t ] < ∞
pour tout t ≥ 0 si et seulement si M est une martingale de carré intégrable. Dans ce cas,
(Mt2 − ⟨M ⟩t , t ≥ 0) est une martingale.
Preuve. Partie “si". Supposons que M soit une martingale de carré intégrable. Quitte à
remplacer M par M T pour T ≥ 0 fixé, on peut supposer que M soit bornée dans L2 .
Pour tout n, soit τn := inf{t ≥ 0 : ⟨M ⟩t ≥ n}. Alors τn est un temps d’arrêt, tel que
2
⟨M ⟩t∧τn ≤ n. La martingale locale Mt∧τ n
− ⟨M ⟩t∧τn étant dominée par la variable aléatoire
2
n + supt≥0 Mt qui est intégrable, elle est une vraie martingale uniformément intégrable
(Proposition 4.2.5) et nulle au temps 0, ce qui implique E[⟨M ⟩τn ] = E[Mτ2n ]. Par le Théorème
d’arrêt Mτn = E[M∞ | Fτn ] p.s. et donc ∥Mτn ∥L2 ≤ ∥M∞ ∥L2 pour tout n. Par conséquent, à
l’aide de la convergence monotone l’on obtient
E[⟨M ⟩∞ ] = lim E[⟨M ⟩τn ] = lim E[Mτ2n ] ≤ E[M∞
2
] < +∞.
n→∞ n→∞

Partie “seulement si". Supposons que E(⟨M ⟩t ) < ∞ pour tout t. Soit τn := inf{t ≥ 0 :
2
|Mt |+⟨M ⟩t ≥ n}. Alors Mt∧τ n
−⟨M ⟩t∧τn est une martingale locale bornée donc une martingale
2
(Proposition 4.2.5), et E(Mt∧τn ) = E(⟨M ⟩t∧τn ) ≤ E(⟨M ⟩t ). D’autre part, (Mt∧τn , t ≥ 0)
2
étant une (vraie) martingale bornée, on a, d’après l’inégalité de Doob, E(sups∈[0,t] Ms∧τ n
)≤
2
4 sups∈[0,t] E(Ms∧τ n
) ≤ 4E(⟨M ⟩t ). Par le lemme de Fatou,
" #
E sup Ms2 ≤ 4E(⟨M ⟩t ) < ∞. (4.9)
s∈[0,t]

Donc si E(⟨M ⟩t ) < ∞ pour tout t ≥ 0, alors, par la Proposition 4.2.5, M est une martingale
de carré intégrable.
Montrons maintenant que (Ms2 − ⟨M ⟩s , s ∈ [0, t]) est une martingale sous la condition
que E[⟨M ⟩t ] < ∞ : en effet, la martingale locale (Ms2 − ⟨M ⟩s , s ∈ [0, t]) est dominée par la
variable aléatoire intégrable sups∈[0,t] Ms2 + ⟨M ⟩t , et elle est donc une vraie martingale par la
Proposition 4.2.5. □

Corollaire 4.3.6. Soit M une martingale dans L2 telle que p.s. M0 = 0. Alors
E(Mt2 ) = E(⟨M ⟩t ), ∀ t ≥ 0. (4.10)
En plus ⟨M ⟩t = 0 p.s. pour tout t ≥ 0 si et seulement si (Mt )t≥0 est indistinguable de 0.
Preuve. La preuve de (4.10) suit du fait que M 2 − ⟨M ⟩ est une martingale et que p.s.
⟨M ⟩0 = 0. Supposons que ⟨M ⟩t = 0 p.s. pour tout t ≥ 0. D’après les Théorèmes 4.3.1 et
4.3.5, M 2 est une martingale. Donc E(Mt2 ) = E(M02 ) = 0 et M est indistinguable de 0 par
la continuité des trajectoires. □
46 4. SEMIMARTINGALES CONTINUES

On étend maintenant la notion de crochet pour un couple de martingales locales.

Définition 4.3.7. Soient M et N deux martingales locales. On pose


1h i 1h i
⟨M, N ⟩t := ⟨M + N ⟩t − ⟨M − N ⟩t = ⟨M + N ⟩t − ⟨M ⟩t − ⟨N ⟩t .
4 2
En particulier, ⟨M, M ⟩ = ⟨M ⟩.

Proposition 4.3.8. Soient M et N deux martingales locales.


(1) ⟨M, N ⟩ est l’unique (à indistinguabilité près) processus à variation finie tel que Mt Nt −
⟨M, N ⟩t soit une martingale locale.
(2) L’application (M, N ) 7→ ⟨M, N ⟩ est bilinéaire et symétrique.
(3) Soit t > 0. Si 0 = tn0 < tn1 < · · · < tnpn = t est une suite de subdivisions emboîtées de
[0, t] de pas tendant vers 0, alors
pn
X
lim (Mti − Mti−1 )(Nti − Nti−1 ) = ⟨M, N ⟩t , en probabilité. (4.11)
n→∞
i=1

(4) Si τ est un temps d’arrêt, alors ⟨M τ , N τ ⟩ = ⟨M τ , N ⟩ = ⟨M, N ⟩τ .

Preuve. Les parties (1) et (3) découlent de leur analogue dans le Théorème 4.3.1 par pola-
risation. Les parties (2) et (4) sont des conséquences de (3) (car arrêter M ou N ou ⟨M, N ⟩
revient à sommer sur les ti tels que ti ≤ τ ). □

Définition 4.3.9. On dit que deux martingales M et N locales sont orthogonales si


⟨M, N ⟩ = 0, ce qui équivaut à dire que le produit M N est une martingale locale.

Théorème 4.3.10 (Inégalité de Kunita–Watanabe). Soient M et N deux martingales


locales continues, et H et K deux processus mesurables. Alors pour tout T ≥ 0
s s
Z T Z T Z T
|Hs | |Ks | |d⟨M, N ⟩s | ≤ 2
Hs d⟨M ⟩s Ks2 d⟨N ⟩s . (4.12)
0 0 0

Preuve. Écrivons ⟨M, N ⟩ts


:= ⟨M, N ⟩t − ⟨M, N ⟩s pour s ≤ t. Pour chaque couple s < t, il
résulte des approximations de ⟨M, N ⟩, ⟨M ⟩ et ⟨N ⟩ données par (4.11) et de l’inégalité de
Cauchy–Schwarz que
p p
⟨M, N ⟩ts ≤ ⟨M ⟩ts ⟨N ⟩ts , (4.13)
presque sûrement. Donc (4.13) est valable p.s. pour tous les rationnels s < t, et par continuité
p.s. pour tous s < t. Fixons à partir de maintenant ω ∈ Ω tel que (4.13) soit valable pour
tous s < t, et on travaillera toujours avec cette valeur de ω.
4.3. VARIATION QUADRATIQUE D’UNE MARTINGALE LOCALE 47

Soit s = t0 < t1 < · · · < tp = t une subdivision de [s, t]. Alors d’après (4.13),
p p q q
X X
|⟨M, N ⟩ttii−1 | ≤ ⟨M ⟩ti−1 ⟨N ⟩ttii−1 .
ti

i=1 i=1

Par Cauchy–Schwarz, le terme de droite est majoré par


v v
u p u p
uX uX p p
t ⟨M ⟩ti t ⟨N ⟩ti = ⟨M ⟩t ⟨N ⟩t .
ti−1 ti−1 s s
i=1 i=1

D’après la Proposition 4.1.10, ceci implique que pour tous s < t,


Z t p p
|d⟨M, N ⟩u | ≤ ⟨M ⟩ts ⟨N ⟩ts . (4.14)
s

On montre que cette inégalité peut être généralisée de la façon suivante : pour toute
partie borélienne A ⊂ R+ ,
Z sZ sZ
|d⟨M, N ⟩u | ≤ d⟨M ⟩u d⟨N ⟩u . (4.15)
A A A

R R R
En effet, soit µ(A) := A
|d⟨M, N ⟩u |, et soit ν(A) := µ(A) + A
d⟨M ⟩u + A
d⟨N ⟩u . Il est
clair que µ, d⟨M ⟩ et d⟨N ⟩ sont des mesures positives absolument continues par rapport à
ν, et on note f := dµ/ dν, g := d⟨M ⟩/ dν et h := d⟨N ⟩/ dν. Pour tout λ ∈ R, considérons

a(t) := λ2 ⟨M ⟩t + 2λµ([0, t]) + ⟨N ⟩t , t ≥ 0.

Il est clair que a(0) = 0 et que a : R+ → R+ est continue et croissante (la monotonie étant
une conséquence de (4.14)). Donc da est une mesure positive sur R+ , et on a da/ dν =
λ2 g + 2λf + h ≥ 0, ν-p.p. Ceci étant simultanément vrai pour tout λ ∈ Q, on déduit que
f 2 ≤ gh, ν-p.p. Par l’inégalité de Cauchy–Schwarz,
Z ∞ Z ∞ p
µ(A) = 1A f dν ≤ 1A gh dν
0 0
sZ sZ
∞ ∞
≤ 1A g dν 1A h dν
0 0
sZ sZ
= d⟨M ⟩u d⟨N ⟩u .
A A

D’où (4.15).
48 4. SEMIMARTINGALES CONTINUES

ai 1Ai et k = 1Ai deux fonctions étagées positives. On a


P P
Soient h = i i bi
Z X Z
h(u)k(u) |d⟨M, N ⟩u | = ai b i |d⟨M, N ⟩u |
i Ai
s Z s Z
X X
≤ a2i d⟨M ⟩u b2i d⟨N ⟩u
i Ai i Ai
sZ sZ
= h2 (u) d⟨M ⟩u k 2 (u) d⟨N ⟩u ,

ce qui donne l’inégalité voulue pour les fonctions étagées. Il reste à écrire une fonction
mesurable positive comme limite croissante de fonctions étagées positives. □

4.4. Semimartingales continues

Définition 4.4.1. Un processus X = (Xt , t ≥ 0) est appelé une semimartingale


continue s’il s’écrit sous la forme

Xt = X0 + Mt + Vt ,

où M est une martingale locale continue et V est un processus à variation finie, avec M0 =
V0 = 0.

Remarque 4.4.2. D’après le Théorème 4.2.7, la décomposition Xt = X0 + Mt + Vt


pour une semimartingale continue est unique à indistinguabilité près. Elle est appelée la
“décomposition canonique" de la semimartingale X. □

Définition 4.4.3. Soient Xt = X0 + Mt + Vt et X


et = X
e0 + M
ft + Vet deux semimartingales
continues. On pose

⟨X, X⟩
e t := ⟨M, M
f⟩t .

En particulier, ⟨X⟩t = ⟨M ⟩t .

Proposition 4.4.4. Soit 0 = tn0 < tn1 < · · · < tnpn = t une suite de subdivisions emboîtées
de [0, t] de pas tendant vers 0 quand n → +∞. Alors
pn
X
lim (Xtni − Xtni−1 )(X
etn − X
i
etn ) = ⟨X, X⟩
i−1
e t, en probabilité.
n→∞
i=1
4.4. SEMIMARTINGALES CONTINUES 49

Preuve. Par polarisation, i.e. par la Définition 4.3.7, il suffit de traiter le cas où X = X.
e
Alors
pn pn pn
X X X
(Xtni − Xtni−1 )2 = (Mtni − Mtni−1 ) + 2
(Vtni − Vtni−1 )2
i=1 i=1 i=1
pn
X
+2 (Mtni − Mtni−1 )(Vtni − Vtni−1 )
i=1
=: I1 (n) + I2 (n) + I3 (n),
avec des notations évidentes. Le Théorème 4.3.1 nous dit que I1 (n) → ⟨M ⟩t = ⟨X⟩t en
probabilité. D’autre part, par la Proposition 4.1.10,
 pn
X
I2 (n) ≤ max |Vtni − Vtni−1 | |Vtni − Vtni−1 |
1≤i≤pn
i=1
  Z t
≤ max |Vtni − Vtni−1 | |dVs |,
1≤i≤pn 0
qui converge p.s. vers 0 par la continuité de s 7→ Vs . De même,
  Z t
|I3 (n)| ≤ max |Mtni − Mtni−1 | |dVs | → 0, p.s.
1≤i≤pn 0
Par conséquent, I1 (n) + I2 (n) + I3 (n) → ⟨X⟩t en probabilité. □
Chapitre 5

Intégrale stochastique

Nous nous approchons dans ce chapitre de l’objet principal du cours : l’intégrale stochas-
tique par rapport à une semimartingale continue. La construction de l’intégrale stochastique
se fait en deux étapes : nous commençons par construire l’intégrale stochastique par rapport
à une martingale continue et dans L2 ; ensuite nous définissons l’intégrale stochastique par
rapport à une martingale locale continue.

5.1. Intégration pour les martingales dans L2

Durant tout le chapitre, on se place dans un espace de probabilité filtré (Ω, F , (Ft ), P)
qui vérifie les conditions habituelles, et on construit l’intégrale stochastique par rapport à
une martingale continue et dans L2 sur [0, T ].

Définition 5.1.1. On note MT2 l’espace des martingales (Mt , t ∈ [0, T ]) continues, dans
L2 et telles que M0 = 0. On définit le produit scalaire sur MT2

(M, N )MT2 := E[MT NT ].

En identifiant les processus indistinguables, nous obtenons

Proposition 5.1.2. L’espace MT2 muni du produit scalaire (M, N )MT2 est un espace de
Hilbert.

Preuve. Il faut montrer que MT2 est complet pour la norme ∥M ∥MT2 . Soit (M n )n une suite
de Cauchy pour cette norme. Comme ∥N ∥MT2 = ∥NT ∥L2 pour tout N ∈ MT2 , MTn converge
dans L2 vers une v.a. X ∈ L2 (F∞ ). Il faut maintenant montrer qu’il existe une (unique
à indistinguabilité près) martingale continue M = (Mt , t ∈ [0, T ]) dans MT2 telle que p.s.
MT = X.
Tout d’abord nous allons prouver qu’il existe un processus continu (Mt , t ∈ [0, T ]) tel que
" #
lim E sup (Mtn − Mt )2 = 0. (5.16)
n→+∞ t∈[0,T ]

51
52 5. INTÉGRALE STOCHASTIQUE

Remarquons que par l’inégalité de Doob,


" #
sup (Mtn − Mtm )2 ≤ 4E (MTn − MTm )2 ,
 
E
t∈[0,T ]

qui tend vers 0 si m, n ≥ N et N → +∞. Il suffirait de remarquer que l’espace L2 (Ω; C([0, T ]))
est complet par rapport à la norme ∥f ∥ := ∥ sup |f | ∥L2 (P) . Nous donnons maintenant une
preuve plus directe.
n
Il existe une suite déterministe (nk ) telle que nk+1 > nk et E[supt∈[0,T ] (Mt k+1 − Mtnk )2 ] <
n
2−k pour tout k. Si on pose Ak := {supt∈[0,T ] |Mt k+1 − Mtnk |2 > k −4 } alors par l’inégalité de
Markov P(Ak ) ≤ k 2 2−k et donc par Fubini P(L) = 1 où L := lim inf Ack . Or pour tout ω ∈ L,
il existe k(ω) tel que si j ≥ k(ω) alors
n n 1
sup |Mt j+1 (ω) − Mt j (ω)| ≤ 2
t∈[0,T ] j
et si on définit pour tout ω ∈ L

n n
X
Mt (ω) := Mtn1 (ω) + (Mt j+1 (ω) − Mt j (ω)), t ∈ [0, T ],
j=1

alors

X
nj
sup |M (ω) − M (ω)| ≤ sup |M nk+1 (ω) − M nk (ω)| → 0
[0,T ] k=j [0,T ]

si j → +∞. Par conséquent, p.s. M nk → M uniformément sur [0, T ], et donc M est p.s.
continu sur [0, T ]. De plus par construction
" # ∞
" # ∞
X X
E sup |M − M | ≤ nj
E sup |M nk+1 nk
−M | ≤ 2−k → 0
[0,T ] k=j [0,T ] k=j

quand j → +∞.
Maintenant que (5.16) est prouvé, nous allons montrer que M appartient à MT2 . Puisque
MTn converge vers X dans L2 (Ω), nous avons par la continuité de l’espérance conditionnelle
dans L2 (Ω) que pour tout t ∈ [0, T ]

lim E(MTn | Ft ) = E(X | Ft ), dans L2 (Ω).


n→∞

Puisque p.s. M nk → M uniformément sur [0, T ], cela implique que Mt = E(X | Ft ) p.s. pour
tout t ∈ [0, T ] et donc M est une martingale continue dans L2 . □

On remarque que pour toute M, N ∈ MT2 , par le Corollaire 4.3.6

(M, N )MT2 = E[⟨M, N ⟩T ], ∥M ∥2M 2 = E[⟨M ⟩T ] (5.17)


T

où ⟨M, N ⟩T et ⟨M ⟩T sont les crochets définis dans la Section 4.3.


5.1. INTÉGRATION POUR LES MARTINGALES DANS L2 53

Définition 5.1.3. On note P la tribu progressive sur R+ × Ω définie à la fin de la


section 3.1. Pour M ∈ MT2 , on note L2T (M ) := L2 ([0, T ] × Ω, P, d⟨M ⟩s ⊗ dP), l’espace des
processus progressifs H tels que
Z T 
E Hs2 d⟨M ⟩s < ∞.
0

Remarque 5.1.4. Comme n’importe quel espace L2 , l’espace L2T (M ) est un espace de
RT
Hilbert avec le produit scalaire (H, K)L2T (M ) := E( 0 Hs Ks d⟨M ⟩s ). □

Remarque 5.1.5. Dans le cas du mouvement brownien B, puisque p.s. ⟨B⟩t = t, ces
formules sont particulièrement simples : L2T (B) := L2 ([0, T ] × Ω, P, ds ⊗ dP),
Z T Z T
(H, K)L2T (B) := E(Hs Ks ) ds, ∥H∥L2T (B) := E(Hs2 ) ds. □
0 0

Définition 5.1.6. On dit que H : [0, +∞[×Ω 7→ R est élémentaire s’il s’écrit sous la
forme
p
H (i) (ω) 1]ti , ti+1 ] (s),
X
Hs := s ≥ 0,
i=0
où p ≥ 0 est un entier, 0 ≤ t0 ≤ t1 ≤ · · · ≤ tp+1 sont des réels, et H (i) est une variable
aléatoire réelle bornée et Fti -mesurable (pour 0 ≤ i ≤ p). Notons E l’espace vectoriel formé
des processus élémentaires.

Lemme 5.1.7. E ⊂ L2T (M ) est dense dans L2T (M ).


Preuve. Il est clair que E ⊂ L2T (M ).
Soit K ∈ L2T (M ) orthogonal à E . Il s’agit de prouver que K est l’élément 0 de L2T (M ).
Rt
Considérons le processus X défini par Xt := 0 Ks d⟨M ⟩s . Ce processus est bien défini,
Puisque K ∈ L2T (M ), on peut appliquer l’inégalité de Cauchy–Schwarz et rappeler que
M ∈ MT2 , pour voir que X est bien défini, et que E(|Xt |) < ∞, ∀t ∈ [0, T ]. Par conséquent,
pour tous v > u ≥ 0 et A ∈ Fu , on a
E[(Xv − Xu ) 1A ] = 0.
Il suffit, en effet, d’écrire (H, K)L2T (M ) = 0 pour le processus H ∈ E défini par Ht (ω) :=
1A (ω) 1]u, v] (t). Ceci signifie que X est une martingale continue. Comme X, par la Proposition
4.1.14, est également un processus à variation finie, on a X = 0 par le Théorème 4.2.7. Donc
p.s. Z t
Ks d⟨M ⟩s = 0, t ≥ 0,
0
ce qui entraîne que p.s. Ks = 0, d⟨M ⟩s -presque partout. Autrement dit, K est l’élément 0
de L2T (M ). □
54 5. INTÉGRALE STOCHASTIQUE

Théorème 5.1.8. Soit M ∈ MT2 et H ∈ E . On définit le processus


p
X
(H · M )t := H (i) (Mti+1 ∧t − Mti ∧t ), t ∈ [0, T ].
i=0

Alors (H · M )t∈[0,T ] est dans MT2avec variation quadratique ⟨H · M ⟩ = 0
Hs2 d⟨M ⟩s et
Z T 
2 2

E (H · M )T = E Hs d⟨M ⟩s .
0

En particulier, l’application H 7→ H · M est une isométrie de E muni de la norme de L2T (M )


dans MT2 .

Preuve. Il est clair que H · M est une martingale continue et dans L2 , nulle en 0. Autrement
dit, H · M ∈ MT2 . De plus, l’application H 7→ H · M est de toute évidence linéaire. Montrons
maintenant ∥H · M ∥MT2 = ∥H∥L2T (M ) , ∀H ∈ E .
Soit H := pi=0 H (i) (ω) 1]ti , ti+1 ] ∈ E . Alors (H · M )t = pi=0 Lt , où, pour 0 ≤ i ≤ p,
P P (i)

(i)
Lt := H (i) (Mti+1 ∧t − Mti ∧t ).
(i) 2
Il est facile de voir que ((Lt )2 − H (i) (⟨M ⟩ti+1 ∧t − ⟨M ⟩ti ∧t ))t≥0 est une martingale ; en
2
particulier, p.s. ⟨L(i) ⟩t = H (i) (⟨M ⟩ti+1 ∧t − ⟨M ⟩ti ∧t ). Or les martingales (L(i) )i=0,...,p sont
orthogonales, et donc
p Z t
X
(i) 2
⟨H · M ⟩t = [H ] (⟨M ⟩ti+1 ∧t − ⟨M ⟩ti ∧t ) = Hs2 d⟨M ⟩s .
i=0 0
RT
Par conséquent, ∥H · M ∥2M 2 = E[ 0 Hs2 d⟨M ⟩s ] = ∥H∥2L2 (M ) . □
T T

Définition 5.1.9. Soit M ∈ MT2 . On note H 7→ H · M l’isométrie de L2T (M ) dans MT2


qui est l’unique prolongement continu de E ∋ H 7→ H · M ∈ MT2 si on munit E de la norme
de L2T (M ). La martingale H · M est appelée intégrale stochastique ou intégrale d’Itô
de H par rapport à M . On écrira souvent
Z t
Hs dMs := (H · M )t .
0

Par le Théorème 5.1.8, pour toute M ∈ MT2 et H ∈ L2T (M ) nous avons pour tout
t ∈ [0, T ]
"Z 2 #
Z t  t Z t 
E Hs dMs = 0, E Hs dMs =E Hs2 d⟨M ⟩s . (5.18)
0 0 0

Attention : ces deux identités ne seront plus vraies en général pour les extensions de l’in-
tégrale stochastique qui seront définies dans la section suivante.
5.2. VARIATION QUADRATIQUE D’UNE INTÉGRALE STOCHASTIQUE 55

Définition 5.1.10. Nous notons par M 2 l’espace des martingales continues (Mt , t ≥ 0)
qui appartiennent à MT2 pour tout T ≥ 0. Pour M ∈ M 2 nous notons par L2 (M ) l’ensemble
des processus progréssifs (Ht , t ≥ 0) qui appartiennent à L2T (M ) pour tout T ≥ 0.

Par les considérations précédentes, l’intégrale stochastique ((H · M )t , t ≥ 0) de H par


rapport à M est bien définie et appartient à M 2 pour tous M ∈ M 2 et H ∈ L2 (M ). On peut
d’ailleurs pour tout T ≥ 0 plonger canoniquement MT2 → M 2 par l’injection M 7→ M·∧T . De
même l’application H 7→ H 1[0,T ] donne un plongement canonique de L2T (M ) dans L2 (M ).

5.2. Variation quadratique d’une intégrale stochastique

Grâce aux Définitions 5.1.9 et 5.1.10, nous avons une construction de la martingale H · M
pour toute M ∈ M 2 et tout H ∈ L2 (M ). Nous étudions maintenant la variation quadratique
⟨H · M ⟩ de H · M .

Théorème 5.2.1. Soit M ∈ M 2 . Pour tout H ∈ L2 (M ), H · M est le seul élément de


M 2 tel que
⟨H · M, N ⟩ = H · ⟨M, N ⟩, ∀ N ∈ M 2, (5.19)

où H · ⟨M, N ⟩ := 0
Hs d⟨M, N ⟩s est l’intégrale de H par rapport au processus à variation
finie ⟨M, N ⟩.

Preuve. Commençons par prouver l’unicité. Soient L et L e deux éléments de M 2 tels que
⟨L, N ⟩ = ⟨L,e N ⟩, pour tout N ∈ M 2 . En particulier, ⟨L − L⟩ e = 0. Comme L0 − L e0 = 0, il
résulte du Corollaire 4.3.6 que L = L. e
Montrons d’abord (5.19) lorsque H ∈ E . Soit H := pi=0 H (i) (ω) 1]ti , ti+1 ] ∈ E . Avec les
P

mêmes notations que dans la preuve du Théorème 5.1.8, on a ⟨H · M, N ⟩t = pi=0 ⟨L(i) , N ⟩t ,


P

et ⟨L(i) , N ⟩t = H (i) (⟨M, N ⟩ti+1 ∧t − ⟨M, N ⟩ti ∧t ). Donc


p Z t
X
(i) (i)
⟨H · M, N ⟩t = ⟨L , N ⟩t = H (⟨M, N ⟩ti+1 ∧t − ⟨M, N ⟩ti ∧t ) = Hs d⟨M, N ⟩s ,
i=0 0

ce qui donne l’identité cherchée.



Montrons maintenant l’identité ⟨H · M, N ⟩· = 0 Hs d⟨M, N ⟩s dans le cas général H ∈
L2 (M ). Soit T ≥ 0. Par le Lemme 5.1.7 il existe une suite (H n )n d’éléments de E telle
que H n → H dans L2T (M ). Par la définition de H · M et (5.18), nous avons la convergence
H n · M → H · M dans MT2 .
D’autre part, H n étant un élément de E , d’après ce que l’on a prouvé ci-dessus, ⟨H n ·
Rt
M, N ⟩t = 0 Hsn d⟨M, N ⟩s pour tout t ∈ [0, T ]. D’après l’inégalité de Kunita–Watanabe
56 5. INTÉGRALE STOCHASTIQUE

(4.12),
Z T 
E (Hsn − Hs ) d⟨M, N ⟩s ≤ ∥H n − H∥L2T (M ) ∥N ∥MT2 ,
0
Rt Rt
i.e. 0
Hsn d⟨M, N ⟩s converge dans L1 vers 0
Hs d⟨M, N ⟩s .
Soit N ∈ MT2 . Pour tout n le processus X n := (H n · M )N − H n · ⟨M, N ⟩ est une
martingale et par les convergences que l’on vient de prouver on obtient que Xtn → Xt :=
[(H · M )N − H · ⟨M, N ⟩]t pour tout t ∈ [0, T ] dans L1 ; par conséquent le processus continu
(Xt , t ∈ [0, T ]) est une martingale et cela signifie que ⟨H · M, N ⟩ = H · ⟨M, N ⟩. □

Rt
Corollaire 5.2.2. Soit M ∈ M 2 et H ∈ L2 (M ). Alors ⟨H · M ⟩t = 0
Hs2 d⟨M ⟩s , t ≥ 0.

Preuve. Par le Théorème 5.2.1

⟨H · M ⟩ = ⟨H · M, H · M ⟩ = H · ⟨M, H · M ⟩ = H 2 · ⟨M, M ⟩ = H 2 · ⟨M ⟩.

Cela termine la preuve. □

Remarque 5.2.3. Nous rappelons que dans la preuve du Théorème 4.3.1 nous n’avons
pas prouvé l’existence de la variation quadratique d’une martingale générale dans L2 conti-
nue, mais seulement (dans l’Exemple 3.4.2 et dans la Proposition 2.5.1) dans le cas d’un
mouvement brownien. Par le Corollaire 5.2.2, si (Bt )t≥0 est un (Ft )-mouvement brownien,
R· Rt
H ∈ L2 (B) et M := H · B = 0 Hs dBs alors (Mt2 − 0 Hs2 ds)t≥0 est une martingale. En
Rt
particulier, p.s. ⟨H · B⟩t = 0 Hs2 ds et pour tout t ≥ 0
"Z 2 # Z t
t
E Hs2 ds.
 
E Hs dBs = (5.20)
0 0

Proposition 5.2.4 (Associativité). Si K ∈ L2 (M ) et H ∈ L2 (K · M ), alors HK ∈


L2 (M ), et
(HK) · M = H · (K · M ).

Preuve. D’après le Corollaire 5.2.2, ⟨K · M ⟩ = K 2 · ⟨M ⟩. Donc


Z T Z T
2 2
Hs Ks d⟨M ⟩s = Hs2 d⟨K · M ⟩s ,
0 0

ce qui donne HK ∈ L (M ). De plus, pour tout N ∈ M 2 ,


2

⟨(HK) · M, N ⟩ = HK · ⟨M, N ⟩ = H · (K · ⟨M, N ⟩)


= H · ⟨K · M, N ⟩ = ⟨H · (K · M ), N ⟩,
ce qui implique que (HK) · M = H · (K · M ). □
5.2. VARIATION QUADRATIQUE D’UNE INTÉGRALE STOCHASTIQUE 57

La prochaine proposition est cruciale dans la construction de l’intégrale stochastique par


rapport à une martingale locale donnée dans la Section 5.4.

Proposition 5.2.5. Soit M ∈ M 2 , et soit H ∈ L2 (M ). Si τ est un temps d’arrêt, alors

H · M τ = (H 1[0,τ ] ) · M = (H · M )τ .

Preuve. Il est clair que 1[0,τ ] ∈ L2 (M ). Pour tout N ∈ M 2 , puisque t 7→ ⟨M, N ⟩t est à
variation finie,
Z τ∧ ·
⟨M, N ⟩ = τ
d⟨M, N ⟩ = 1[0,τ ] · ⟨M, N ⟩.
0

Par conséquent, en utilisant le Théorème 5.2.1, pour tout N ∈ M 2

⟨M τ , N ⟩ = ⟨M, N ⟩τ = 1[0,τ ] · ⟨M, N ⟩ = ⟨1[0,τ ] · M, N ⟩

et donc M τ = 1[0,τ ] · M . D’après la Proposition 5.2.4, on a

H · M τ = H · (1[0,τ ] · M ) = (H 1[0,τ ] ) · M.

D’autre part, puisque M τ = 1[0,τ ] · M , en remplaçant M par H · M , on obtient (H · M )τ =


1[0,τ ] · (H · M ). Il résulte alors de la Proposition 5.2.4 que
(H · M )τ = 1[0,τ ] · (H · M ) = (1[0,τ ] H) · M.

La preuve de la proposition est complète. □

Remarque 5.2.6.
(i) De manière informelle, l’égalité dans la proposition 5.2.4 s’écrit
Z t Z t
Hs (Ks dMs ) = (Hs Ks ) dMs .
0 0

(ii) La propriété dans (5.19) s’écrit


DZ · E Z t
Hs dMs , N = Hs d⟨M, N ⟩s .
0 t 0

En appliquant deux fois cette relation, on a aussi


DZ · Z · E Z t
Hs dMs , Ks dNs = Hs Ks d⟨M, N ⟩s .
0 0 t 0

En particulier,
DZ · E Z t
Hs dMs = Hs2 d⟨M ⟩s .
0 t 0
58 5. INTÉGRALE STOCHASTIQUE

(iii) Si M et N sont des éléments de M 2 , et H ∈ L2 (M ), K ∈ L2 (N ), alors pour tout


temps d’arrêt borné τ Z τ 
E Hs dMs = 0,
0
Z τ Z τ  Z τ 
E Hs dMs Ks dNs =E Hs Ks d⟨M, N ⟩s .
0 0 0

5.3. Les intégrales stochastiques par rapport à un mouvement brownien

Nous considérons dans cette section le cas particulier où M = B est un mouvement brow-
nien. Nous voulons compléter la preuve du Théorème 4.3.1 pour une classe de martingales
obtenues comme intégrale stochastique par rapport à B.

Proposition 5.3.1. Soit B un (Ft )-mouvement brownien et F ∈ L2T (B) un processus


progressif dans C([0, T ]; L2 (P)), i.e. tel que Ft ∈ L2 (P) pour tout t et ∥Fs − Ft ∥L2 (P) → 0
quand |t − s| → 0. Soit σ = {t0 , . . . , tp } avec 0 = t0 < t1 < · · · < tp = T une subdivision de
[0, T ] de pas |σ| := supi=1,...,p (ti − ti−1 ). Alors
p Z T
X
2
lim Fti−1 (Bti − Bti−1 ) = Fs ds dans L2 .
|σ|→0 0
i=1
Pp
Preuve. Soit Jσ := Fti−1 (Bti − Bti−1 )2 . Il suffit de montrer que
i=1
 !2 
p
X
Gσ := E  Jσ − Fti−1 · (ti − ti−1 )  → 0,
i=1

puisque par Cauchy-Schwarz


 !2 
p Z T p Z ti h
X X 2 i
E Fti−1 · (ti − ti−1 ) − Fs ds ≤T E Fti−1 − Fs ds
i=1 0 i=1 ti−1

qui tend vers 0 par convergence dominée puisque F ∈ C([0, T ]; L2 (P)). Or, en posant
ai = ti − ti−1 , Yi := (Bti − Bti−1 )2 − ai , Hi := Fti−1 , 1 ≤ i ≤ p,
nous avons
 !2 
p p
X X X
E (Hi Yi )2 + 2
 
Gσ = E  Hi Yi = E [Hi Hj Yi Yj ] .
i=1 i=1 i<j

En utilisant l’indépendance des accroissements de B, on voit que la dernière somme est nulle
car pour i < j
E [Hi Hj Yi Yj ] = E [Hi Hj Yi ] E [Yj ] = 0.
5.3. LES INTÉGRALES STOCHASTIQUES PAR RAPPORT À UN MOUVEMENT BROWNIEN 59

Pour la même raison


p
X
E Hi2 E Yi2 .
   
Gσ =
i=1

Puisque E(Yi2 ) = a2i E[(B12 − 1)2 ] = a2i (E(B14 ) − 1) = 2a2i ,


p p
X X
Hi2 2
E Hi2 (ti − ti−1 )
   
Gσ = 2 E (ti − ti−1 ) ≤ 2 sup |ti − ti−1 |
i=1,...,p
i=1 i=1

qui tend vers 0 quand |σ| → 0, d’où la convergence dans L2 (P) souhaitée. □

Proposition 5.3.2. Soient B un (Ft )-mouvement brownien, H ∈ L2T (B) un processus


progressif dans C([0, T ]; L4 (P)), i.e. tel que Ht ∈ L4 (P) pour tout t et ∥Hs − Ht ∥L4 (P) → 0
Rt
quand |t − s| → 0. Soit Mt := 0 Hs dBs , t ≥ 0, et σ = {t0 , . . . , tp } avec 0 = t0 < t1 < · · · <
tp = T une subdivision de [0, T ] de pas |σ| := supi=1,...,p (ti − ti−1 ). Alors
p Z T
X
2
lim (Mti − Mti−1 ) = Hs2 ds dans L1 .
|σ|→0 0
i=1

Preuve. Nous écrivons


p p Z ti 2
X 2 X
Mti − Mti−1 = Hs dBs = α σ + βσ ,
i=1 i=1 ti−1

p p
(Z 2 )
X 2 X ti 2
ασ := Ht2i−1 Bti − Bti−1 , βσ := Hs dBs − Ht2i−1 Bti − Bti−1 .
i=1 i=1 ti−1

Puisque H ∈ C([0, T ]; L (P)), H ∈ C([0, T ]; L2 (P)) et par la Proposition 5.3.1, ασ →


4 2
RT 2
0
Hs ds dans L2 . Concernant βσ , nous avons par Cauchy-Schwarz et (5.20)
p  Z ti Z ti 
X
E[|βσ |] ≤ E (Hs − Hti−1 ) dBs (Hs + Hti−1 ) dBs
i=1 ti−1 ti−1

p
( "Z 2
# "Z 2
#) 21
X ti ti
≤ E (Hs − Hti−1 ) dBs E (Hs + Hti−1 ) dBs
i=1 ti−1 ti−1
p Z
X ti Z ti  21
E (Hs − Hti−1 )2 ds E (Hs + Hti−1 )2 ds
   
= .
i=1 ti−1 ti−1

Par les hypothèses sur H, on voit que E[Hs2 ] ≤ M < +∞ pour tout s ∈ [0, T ] et, pour
 
tout ε > 0, si |σ| est suffisamment petit alors E (Hs − Hti−1 )2 ≤ ε. Nous obtenons que

E[|βσ |] ≤ 2 M ε et la convergence souhaitée est prouvée. □
60 5. INTÉGRALE STOCHASTIQUE

Remarque 5.3.3. La proposition 5.3.2 complète une prouve rigoureuse du Théorème


4.3.1 pour une classe de martingales définies par des intégrales stochastiques H · B où B est
un (Ft )-mouvement brownien et H un processus progressif avec des propriétés d’intégrabilité
appropriées.

5.4. Intégration stochastique pour les martingales locales

Définition 5.4.1. Soit M une martingale locale nulle en 0. On note L2loc (M ) l’espace
des processus progressifs H tels que pour tout t ≥ 0,
Z t
Hs2 d⟨M ⟩s < ∞, p.s.
0

Théorème 5.4.2. Soit M une martingale locale issue de 0.


(1) Pour tout H ∈ L2loc (M ), il existe une unique martingale locale issue de 0, notée H ·M ,
telle que pour toute martingale locale N ,

⟨H · M, N ⟩ = H · ⟨M, N ⟩.

(2) Si τ est un temps d’arrêt, on a H · M τ = (H 1[0,τ ] ) · M = (H · M )τ .


(3) Lorsque M ∈ M 2 et H ∈ L2 (M ), cette définition étend celle du Théorème 5.1.8.
Rt
Preuve. Soit τn := inf{t ≥ 0 : ⟨M ⟩t + 0 Hs2 d⟨M ⟩s ≥ n}. Nous avons ⟨M τn ⟩t = ⟨M ⟩t∧τn ≤ n,
et donc E(⟨M τn ⟩∞ ) < ∞. D’après la Proposition 4.3.5, M τn ∈ M 2 .
R∞ Rτ
D’autre part, 0 Hs2 d⟨M τn ⟩s = 0 n Hs2 d⟨M ⟩s ≤ n. Donc H ∈ L2 (M τn ). On peut donc
définir pour chaque n l’intégrale stochastique H · M τn .
Soient m > n. Pour tout N ∈ M 2 , comme
⟨(H · M τm )τn , N ⟩ = ⟨H · M τm , N ⟩τn = (H · ⟨M τm , N ⟩)τn
= H · ⟨M τm , N ⟩τn = H · ⟨M τn , N ⟩ = ⟨H · M τn , N ⟩,
par l’unicité prouvée dans le Théorème 5.2.1 l’on a (H · M τm )τn = H · M τn . Ceci étant vrai
pour tout couple m > n, on déduit qu’il existe un (unique) processus, noté H · M , tel que
(H ·M )τn = H ·M τn , ∀ n. En effet, il suffit de prendre (H ·M )0 := 0 et (H ·M )t := (H ·M τn )t ,
si τn−1 < t ≤ τn ; on voit que H · M est un processus continu et adapté. Comme H · M τn est
une martingale dans M 2 , H · M est une martingale locale issue de 0 et (τn ) réduit H · M .
Soit N une martingale locale issue de 0. Soit σn := inf{t ≥ 0 : |Nt | ≥ n}, et soit
Sn := τn ∧ σn . On a
⟨H · M, N ⟩Sn = ⟨(H · M )Sn , N Sn ⟩ = ⟨(H · M τn )Sn , N Sn ⟩ = ⟨H · M Sn , N Sn ⟩
= H · ⟨M Sn , N Sn ⟩ = H · ⟨M, N ⟩Sn = (H · ⟨M, N ⟩)Sn ,
5.4. INTÉGRATION STOCHASTIQUE POUR LES MARTINGALES LOCALES 61

d’où l’égalité ⟨H · M, N ⟩ = H · ⟨M, N ⟩. Ceci est vrai sans l’hypothèse N0 = 0, car


⟨M, N ⟩ = ⟨M, N − N0 ⟩.
Le fait que cette égalité valable pour toute martingale locale N caractérise H · M se
démontre avec l’argument d’unicité qui se trouve au début de la preuve du Théorème 5.2.1.
La preuve de H · M T = (H 1[0,T ] ) · M = (H · M )T est identique à celle de la Proposition
5.2.5, car elle utilise seulement la propriété caractéristique (5.19) que l’on vient d’étendre, et
l’associativité que l’on formule et démontre aisément.
Enfin, si M ∈ M 2 et H ∈ L2 (M ), l’égalité ⟨H · M ⟩ = H 2 · ⟨M ⟩ (où H · M est le processus
que l’on vient de définir) montre que E(⟨H ·M ⟩T ) < ∞ pour tout T ≥ 0, et donc H ·M ∈ M 2 .
La propriété caractéristique (5.19) montre alors que H · M n’est autre que l’objet défini dans
le Théorème 5.2.1. □

Remarque 5.4.3. Soit M une martingale locale issue de 0, et soit H ∈ L2loc (M ). Soit τ

un temps d’arrêt (en particulier, si τ = t ∈ [0, ∞]). Si E[⟨H · M ⟩τ ] = E[ 0 Hs2 d⟨M ⟩s ] < ∞,
alors par le Théorème 4.3.5 (H · M )τ ∈ M 2 et de plus (H · M )τ est fermée par (H · M )τ ∈ L2 ,
et on a
"Z 2 #
Z τ  τ Z τ 
E Hs dMs = 0, E Hs dMs =E Hs2 d⟨M ⟩s .
0 0 0

Par contre, en général ces formules sont fausses, d’autant que l’on ne sait même pas si (H ·M )t
est intégrable pour t ≥ 0. □

On étend maintenant l’intégrale stochastique à toutes les semimartingales continues.

Définition 5.4.4. On dit qu’un processus progressif H est localement borné si

p.s., ∀ t ≥ 0, sup |Hs | < ∞.


s∈[0,t]

Remarquons que tout processus continu adapté est localement borné. De plus, si H est
localement borné, alors pour tout process V à variation finie,
Z t
p.s. ∀t ≥ 0 : |Hs | |dVs | < ∞.
0

De même, si H est localement borné, alors H ∈ L2loc (M ) pour toute martingale locale M .

Définition 5.4.5. Soit X = X0 + M + V une semimartingale (continue), et soit H un


processus progressif localement borné. L’intégrale stochastique H · X est alors définie par

H · X := H · M + H · V,
62 5. INTÉGRALE STOCHASTIQUE

et l’on note Z t
Hs dXs := (H · X)t .
0

Exercice 5.4.6.
(1) L’application (H, X) 7→ H · X est bilinéaire.
(2) Si H et K sont localement bornés, alors H · (K · X) = (HK) · X.
(3) Si τ est un temps d’arrêt, alors (H · X)τ = (H 1[0,τ ] ) · X = H · X τ .
(4) Si X est une martingale locale (resp. un processus à variation finie), alors il en va de
même pour H · X.
Pp−1
(5) Si H est un processus progressif de forme Hs (ω) = i=0 H i (ω) 1 ]ti ,ti+1 ] (s), où, pour
chaque i, H i est Fti -mesurable, alors
p−1
X
(H · X)t = H i (Xti+1 ∧t − Xti ∧t ).
i=0

Ces propriétés découlent facilement des résultats obtenus quand X est une martingale
locale, resp. un processus à variation finie. Il est à noter que dans la propriété (5) on ne
suppose pas que la variable H i soit bornée.

Proposition 5.4.7. Soient X une semimartingale (continue) et H un processus continu


adapté. Alors pour tout t > 0 et toute suite 0 = tn0 < tn1 < · · · < tnpn = t de subdivisions
emboîtées de [0, t] de pas tendant vers 0,
pn −1 Z t
X
lim Hti (Xti+1 − Xti ) =
n n n Hs dXs , en probabilité.
n→∞ 0
i=0
Preuve. On peut traiter séparément les parties martingale et à variation finie de X. La partie
à variation finie est déjà traitée par le Lemme 4.1.12. On peut donc supposer que X = M
est une martingale locale issue de 0.
Pour chaque n, soit K n le processus défini par
Ksn = Htni 1(tni <s≤tni+1 ) .
Posons τm := inf{s ≥ 0 : |Hs | + ⟨M ⟩s ≥ m}. Remarquons que H 1[0,τm ] , K n 1[0,τm ] et ⟨M τm ⟩
sont tous bornés. D’après le Théorème 5.2.1 et la Proposition 5.2.5,
Z t
n τm 2
(K n − H)2 1[0,τm ] d⟨M τm ⟩s

t 7→ (K − H) 1[0,τm ] · M t

0
est une martingale (uniformément intégrable). Donc
h Z t 
n
 i
τm 2 n 2 τm
E (K − H) 1[0,τm ] · M t
=E (K − H) 1[0,τm ] d⟨M ⟩s .
0
5.4. INTÉGRATION STOCHASTIQUE POUR LES MARTINGALES LOCALES 63

Lorsque n → ∞, le terme de droite converge vers 0 (convergence dominée), ce qui entraîne


que

(K n 1[0,τm ] · M τm )t → (H 1[0,τm ] · M τm )t , dans L2 (P),

c’est-à-dire (K n · M )t∧τm → (H · M )t∧τm dans L2 (P) et a fortiori en probabilité : pour tout


ε > 0, il existe n0 < ∞ tel que n ≥ n0 ⇒ P[ |(K n · M )t∧τm − (H · M )t∧τm | > ε] < ε. D’autre
part, il existe m0 = m0 (ε, t) < ∞ tel que P(τm < t) ≤ ε pour tout m ≥ m0 . Donc si n ≥ n0 ,

P [ |(K n · M )t − (H · M )t | > ε ]
≤ P |(K n · M )t∧τm0 − (H · M )t∧τm0 | > ε + P(τm0 < t)
 

≤ 2ε.

Autrement dit, (K n · M )t → (H · M )t en probabilité. □

Remarque 5.4.8. Contrairement à l’intégrale de Stieltjes (Lemme 4.1.12), dans la pro-


P n −1
position précédente, le choix de Htni dans la somme partielle pi=0 Htni (Xtni+1 − Xtni ) est
très important : on ne peut pas remplacer Htni par exemple par Htni+1 : en effet, si H est
P n −1 P n −1
une semimartingale continue, alors pi=0 Htni+1 (Xtni+1 − Xtni ) − pi=0 Htni (Xtni+1 − Xtni ) =
Ppn −1
i=0 (Hti+1 − Hti ) (Xti+1 − Xti ), qui converge en probabilité vers ⟨H, X⟩t et cette limite
n n n n

n’est en général pas nulle. □

La proposition précédente permet d’établir la formule d’intégration par parties pour


l’intégrale stochastique. Il s’agit d’un cas spécial de la formule d’Itô, que l’on étudiera dans
le chapitre suivant.

Proposition 5.4.9 (intégration par parties). Soient X et Y deux semimartingales conti-


nues. On a pour tout t ≥ 0
Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + ⟨X, Y ⟩t .
0 0

En particulier,
Z t
Xt2 = X02 +2 Xs dXs + ⟨X⟩t .
0

Preuve. Fixons t > 0. Soit 0 = tn0 < tn1 < · · · < tpnn = t une suite de subdivisions emboîtées
de [0, t] dont le pas tend vers 0. Par la proposition précédente, quand n → ∞, on a, en
64 5. INTÉGRALE STOCHASTIQUE

probabilité,
pn −1 Z t
X
Xtni (Ytni+1 − Ytni ) → Xs dYs ,
i=0 0
pn −1 Z t
X
Ytni (Xtni+1 − Xtni ) → Ys dXs ,
i=0 0

tandis que la Proposition 4.4.4 nous confirme que


pn −1
X
(Xtni+1 − Xtni ) (Ytni+1 − Ytni ) → ⟨X, Y ⟩t .
i=0
On somme les trois formules. Comme
Xtni (Ytni+1 − Ytni ) + Ytni (Xtni+1 − Xtni ) + (Xtni+1 − Xtni ) (Ytni+1 − Ytni )
= Xtni (Ytni+1 − Ytni ) + Ytni+1 (Xtni+1 − Xtni )
= Xtni+1 Ytni+1 − Xtni Ytni ,
Ppn −1
et i=0 (Xtni+1 Ytni+1 − Xtni Ytni ) = Xt Yt − X0 Y0 , on obtient
Z t Z t
Xs dYs + Ys dXs + ⟨X, Y ⟩t = Xt Yt − X0 Y0 .
0 0
Il suffit d’utiliser la continuité de tous les processus pour voir que l’identité est vraie p.s.
pour tout t. □

Remarque 5.4.10.
(i) La formule d’intégration par parties nous dit que si X et Y sont des semimartingales
continues, alors XY l’est également. On verra dans le chapitre suivant que l’on peut étendre
ce résultat à beaucoup d’autres fonctions de (X, Y ).
(ii) Lorsque X = M est une martingale locale (continue), on sait que M 2 − ⟨M ⟩ est une
martingale locale. La formule d’intégration par parties nous dit que cette martingale locale
est Z t
M02 +2 Ms dMs . ⊓

0
Chapitre 6

Formule d’Itô et applications

La formule d’Itô est sans doute l’outil le plus puissant de la théorie du calcul stochastique.
On démontre d’abord cette formule, et présente ensuite plusieurs applications profondes, no-
tamment en ce qui concerne : (a) semimartingales exponentielles ; (b) caractérisation de
Lévy du mouvement brownien ; (c) Théorème de Dubins–Schwarz pour les martingales lo-
cales continues ; (d) inégalités de Burkholder–Davis–Gundy ; (e) représentation des martin-
gales d’un mouvement brownien ; et enfin (f) Théorème de Girsanov pour le changement de
probabilité.

6.1. Formule d’Itô

Durant tout le chapitre, on se place dans un espace de probabilité filtré (Ω, F , (Ft ), P) qui
vérifie les conditions habituelles. La formule d’Itô nous dit qu’une fonction de classe C 2 de d
semimartingales continues est encore une semimartingale continue, et exprime explicitement
la décomposition de cette semimartingale.

Théorème 6.1.1 (formule d’Itô).


(i) (Cas unidimensionnel). Soit X une semimartingale continue et soit F : R → R une
fonction de classe C 2 . Alors
Z t
1 t ′′
Z

F (Xt ) = F (X0 ) + F (Xs ) dXs + F (Xs ) d⟨X⟩s .
0 2 0
(ii) (Cas multidimensionnel). Soient X 1 , · · · , X d des semimartingales continues et soit
F : Rd → R une fonction de classe C 2 . Alors
d Z t d Z
X ∂F i 1 X t ∂ 2F
F (Xt ) = F (X0 ) + (Xs ) dXs + (Xs ) d⟨X i , X j ⟩s ,
i=1 0 ∂xi 2 i,j=1 0 ∂xi ∂xj

où Xt := (Xt1 , · · · , Xtd ), ∀ t ≥ 0.

Preuve. (i) Fixons t > 0. Soit 0 = tn0 < tn1 < · · · < tnpn = t une suite de subdivisions emboîtées
P n −1
de [0, t] dont le pas tend vers 0. On a F (Xt ) = F (X0 ) + pi=0 [F (Xtni+1 ) − F (Xtni )]. D’après
65
66 6. FORMULE D’ITÔ ET APPLICATIONS

la formule de Taylor,
1
F (Xtni+1 ) − F (Xtni ) = F ′ (Xtni ) (Xtni+1 − Xtni ) + fn,i (ω) (Xtni+1 − Xtni )2 ,
2
où fn,i est tel que
inf F ′′ (x) ≤ fn,i ≤ sup F ′′ (x),
x∈In,i x∈In,i

et In,i := [Xtni , Xtni+1 ] ou [Xtni+1 , Xtni ] selon que Xtni est inférieur ou supérieur à Xtni+1 . (Il est
à noter que fn,i est bien mesurable.)
La proposition 5.4.7 nous dit que
pn −1 Z t
X

lim F (Xtni ) (Xtni+1 − Xtni ) = F ′ (Xs ) dXs , probabilité.
n→∞ 0
i=0

Supposons pour l’instant que l’on sache montrer que


pn −1 Z t
X
lim 2
fn,i (Xtni+1 − Xtni ) = F ′′ (Xs ) d⟨X⟩s , en probabilité, (6.21)
n→∞ 0
i=0
Rt Rt
alors on aura : pour tout t, p.s. F (Xt ) = F (X0 ) + 0
F ′ (Xs ) dXs + 1
2 0
F ′′ (Xs ) d⟨X⟩s . La
continuité des processus nous confirmera la formule d’Itô dans le cas d = 1.
Il reste donc à prouver (6.21). Soient n > m. On a
pn −1 pm −1
X X X
2
fn,i (Xtni+1 − Xtni ) − fm,j (Xtni+1 − Xtni )2
i=0 j=0 i: tm n m
j <ti ≤tj+1

pn −1
X
≤ Zm,n (Xtni+1 − Xtni )2 , (6.22)
i=0


Zm,n := sup sup |fn,i − fm,j |.
0≤j≤pm −1 i: tm n m
j <ti ≤tj+1

(En effet, pour tout i, il existe un unique j tel que tm n m


j < ti ≤ tj+1 .)
Comme F est de classe C 2 , presque sûrement F ′′ est uniformément continue sur l’inter-
valle (aléatoire) [inf s∈[0,t] Xs , sups∈[0,t] Xs ]. Donc Zm,n → 0 p.s. (et a fortiori en probabilité)
Ppn −1 2
quand m, n → ∞. D’autre part, i=0 (Xti+1 − Xti ) converge en probabilité vers ⟨X⟩t
n n

(quand n → ∞) d’après la Proposition 4.4.4. Soit ε > 0. Il existe donc N1 < ∞ tel que
n > m ≥ N1 ⇒
pn −1
" #
X
P Zm,n (Xtni+1 − Xtni )2 ≥ ε ≤ ε. (6.23)
i=0
6.1. FORMULE D’ITÔ 67

Pour chaque m, considérons la fonction aléatoire hm définie par


pm −1
fm,j 1 ]tm
X
hm (s) := m
j ,tj+1 ]
(s).
j=0

Il est clair que p.s., pour tout s ∈ ]0, t], hm (s) → F ′′ (Xs ) (m → ∞). Or, presque sûrement,
F ′′ est bornée sur [inf s∈[0,t] Xs , sups∈[0,t] Xs ], et par convergence dominée, lorsque m → ∞,
Rt Rt
0 m
h (s) d⟨X⟩s → 0 F ′′ (Xs ) d⟨X⟩s p.s. (et a fortiori, en probabilité). Par conséquent, il
existe N2 < ∞ tel que m ≥ N2 ⇒
 Z t Z t 
′′
P hm (s) d⟨X⟩s − F (Xs ) d⟨X⟩s ≥ ε ≤ ε. (6.24)
0 0

On fixe désormais la valeur m := N1 + N2 . D’après la Proposition 4.4.4, on a, lorsque n


tend vers l’infini, la convergence en probabilité suivante :
pm −1 pm −1  
X X X
2
fm,j (Xtni+1 − Xtni ) → fm,j ⟨X⟩tm
j+1
− ⟨X⟩tm
j
j=0 i: tm n m
j <ti ≤tj+1 j=0
Z t
= hm (s) d⟨X⟩s .
0
Il existe donc N3 < ∞ tel que pour tout n ≥ N3 ,
 
pm −1 Z t
X X
P fm,j (Xtni+1 − Xtni )2 − hm (s) d⟨X⟩s ≥ ε ≤ ε. (6.25)
tm n m 0
j=0 i: j <ti ≤tj+1

En rassemblant (6.22), (6.23), (6.24) et (6.25), on a, pour tout n ≥ N3 ,


" p −1 Z t #
n
X
P fn,i (Xtni+1 − Xtni )2 − F ′′ (Xs ) d⟨X⟩s ≥ 3ε ≤ 3ε,
i=0 0

ce qui entraîne (6.21). La formule d’Itô est donc prouvée quand d = 1.


(ii) Dans le cas où d est quelconque, la formule de Taylor donne
d
X ∂F
F (Xtni+1 ) − F (Xtni ) = k
(Xtni ) (Xtkni+1 − Xtkni )
k=1
∂x
d
1 X k,ℓ k
+ fn,i (Xtni+1 − Xtkni )(Xtℓni+1 − Xtℓni ),
2 k,ℓ=1
avec
∂ 2F k,ℓ ∂ 2F
inf (x) ≤ f n,i ≤ sup (x),
x∈Ii,n ∂xk ∂xℓ k
x∈Ii,n ∂x ∂x

où Ii,n := [Xt1ni , Xt1ni+1 ]×· · ·×[Xtdni , Xtdni+1 ] (bien sûr, il faut remplacer [Xtkni , Xtkni+1 ] par [Xtkni+1 , Xtkni ]
si Xtkni > Xtkni+1 ).
68 6. FORMULE D’ITÔ ET APPLICATIONS

De nouveau, la proposition 5.4.7 nous donne le résultat cherché pour les termes faisant
intervenir les dérivées premières. De plus, avec le même argument que dans la preuve de
(6.21), on a, pour chaque couple (k, ℓ) avec 1 ≤ k, ℓ ≤ d,
Z t
k,ℓ k k ℓ ℓ ∂ 2F
fn,i (Xtni+1 − Xtni )(Xtni+1 − Xtni ) → k ∂xℓ
(Xs ) d⟨X k , X ℓ ⟩s , en probabilité,
0 ∂x
ce qui complète la preuve du théorème. □

Remarque 6.1.2. (i) En prenant F (x, y) = xy dans la formule d’Itô, on retrouve la


formule d’intégration par parties :
Z t Z t
Xt Yt = X0 Y0 + Xs dYs + Ys dXs + ⟨X, Y ⟩t .
0 0

(ii) Il est clair que dans la preuve du théorème précédent, on n’a pas besoin que F soit
C 2 sur tout Rd . En effet, la formule d’Itô reste valable si (Xt ) prend p.s. ses valeurs
dans un domaine ouvert convexe D ⊂ Rd et si F : D → R est de classe C 2 .
(iii) On écrira de temps en temps la formule d’Itô sous sa forme différentielle
1 ′′
dF (Xt ) = F ′ (Xt ) dXt + F (Xt ) d⟨X⟩t . ⊓

2
Exemple 6.1.3. Rappelons qu’un (Ft )-mouvement brownien Bt = (Bt1 , · · · , Btd ) (à va-
leurs dans Rd ) issu de 0 est un processus adapté tel que tout s > 0, t 7→ Bt+s − Bs soit
un mouvement brownien (à valeurs dans Rd ) indépendant de Fs . Plus généralement, un
processus B à valeurs dans Rd est dit un (Ft )-mouvement brownien, si B0 est F0 -mesurable
et si Bt − B0 est un (Ft )-mouvement brownien issu de 0, indépendant de F0 .
Lorsque d = 1, la formule d’Itô nous dit que
Z t
1 t ′′
Z

F (Bt ) = F (B0 ) + F (Bs ) dBs + F (Bs ) ds.
0 2 0
En prenant Bt1 = t et Bt2 = Bt , on a aussi pour toute fonction F : R2 → R de classe C 2 ,
Z t Z t
1 ∂ 2F

∂F ∂F
F (t, Bt ) = F (0, B0 ) + (s, Bs ) dBs + + (s, Bs ) ds.
0 ∂x 0 ∂t 2 ∂x2
∂F 2
En particulier, si ∂t
+ 12 ∂∂xF2 = 0, alors F (t, Bt ) est une martingale locale. Ceci est le cas par
exemple pour F1 (t, x) := x, F2 (t, x) := x2 − t ou F3 (t, x) := x3 − 3tx. Plus généralement, si
2 2
d
Hn (x) := (−1)n ex /2 dx (e−x /2 ) et Hn (x, t) := tn/2 Hn ( t1/2
x
) (polynômes d’Hermite “modifiés").
i j
Pour d quelconque, comme ⟨B , B ⟩ = 0 (i ̸= j ; rappelons que deux martingales locales
indépendantes sont nécessairement orthogonales), la formule d’Itô confirme que pour toute
6.2. SEMIMARTINGALES EXPONENTIELLES 69

fonction F : Rd → R de classe C 2 ,
d Z t Z t
X ∂F 1
F (Bt ) = F (B0 ) + i
(Bs ) dBsi + ∆F (Bs ) ds.
i=1 0 ∂x 2 0

On a une formule analogue pour F (t, Bt ). □

6.2. Semimartingales exponentielles

Notre première application de la formule d’Itô est l’étude des semimartingales exponen-
tielles.

Théorème 6.2.1. Soit X une semimartingale continue. Il existe une unique semimar-
tingale Z telle que
Z t
X0
Zt = e + Zs dXs . (6.26)
0
Cette unique solution est Z = E (X), où
 
1
E (X)t := exp Xt − ⟨X⟩t . (6.27)
2
Preuve. Soit E (X) le processus défini dans (6.26). Par la formule d’Itô,
1 1
dE (X)t = E (X)t dXt − E (X)t d⟨X⟩t + E (X)t d⟨X⟩t = E (X)t dXt .
2 2
Comme E (X)0 = e , on voit que E (X) est une solution de (6.26).
X0

Pour montrer l’unicité, on pose Yt := exp(−Xt + 12 ⟨X⟩t ). Par la formule d’Itô, Y est une
semimartingale telle que
1 1
dYt = −Yt dXt + Yt d⟨X⟩t + Yt d⟨X⟩t = −Yt dXt + Yt d⟨X⟩t .
2 2
D’autre part, soit Z une semimartingale vérifiant (6.26), alors par la formule d’intégration
par parties (qui est en fait un cas spécial de la formule d’Itô),

d(Yt Zt ) = Yt dZt + Zt dYt + d⟨Y, Z⟩t


= Yt Zt dXt − Zt Yt dXt + Zt Yt d⟨X⟩t − Yt Zt d⟨X⟩t
= 0.

Donc Yt Zt = Y0 Z0 = 1 ; autrement dit, Zt = 1/Yt = E (X)t . □

Remarque 6.2.2. Comme dans la formule d’Itô, on écrit souvent l’équation (6.26) sous
sa forme différentielle (avec la condition initiale Z0 = eX0 )

dZt = Zt dXt . ⊓

70 6. FORMULE D’ITÔ ET APPLICATIONS

Remarque 6.2.3. La preuve du Théorème 6.2.1 a été écrite sous forme différentielle. On
remarque que ce qui justifie les passages du genre dYt = −Yt dXt + Yt d⟨X⟩t ⇒ Zt dYt =
−Zt Yt dXt + Zt Yt d⟨X⟩t est l’associativité de l’intégrale stochastique et de l’intégrale de
Stieltjes. □

Le Théorème 6.2.1 a pour corollaire le résultat suivant. On dit qu’un processus à valeurs
dans C est une martingale locale (continue) si sa partie réelle et sa partie imaginaire sont
des martingales locales.

Corollaire 6.2.4. Si M est une martingale locale, et si λ ∈ C, alors


λ2
 
E (λM )t := exp λMt − ⟨M ⟩t ,
2
est une martingale locale. Les martingales locales E (λM ) sont appelées les martingales locales
exponentielles de M .

6.3. Caractérisation de Lévy du mouvement brownien

On sait que si (X 1 , · · · , X d ) est un (Ft )-mouvement brownien à valeurs dans Rd , alors


⟨X i , X j ⟩t = δij t, où δij := 1{i=j} est le symbole de Kronecker. Le théorème suivant, dû à
Paul Lévy, nous dit que la réciproque est également vraie, ce qui fournit une caractérisation
importante et simple du mouvement brownien.

Théorème 6.3.1 (Lévy). Soient M 1 , · · · , M d des martingales locales issues de 0 telles


que
⟨M i , M j ⟩t = δij t.
Alors (M 1 , · · · , M d ) est un (Ft )-mouvement brownien à valeurs dans Rd .
En particulier, si M est une martingale locale telle que ⟨M ⟩t = t pour tout t ∈ [0, T ],
alors M est un (Ft )-mouvement brownien.
Pd j
Preuve. Fixons ξ = (ξ1 , · · · , ξd ) ∈ Rd , et soit Nt := ξ · Mt = j=1 ξj Mt . Il s’agit d’une
martingale locale telle que
d X
X d d
X
j k
⟨N ⟩t = ξj ξk ⟨M , M ⟩t = ξj2 t = ∥ξ∥2 t.
j=1 k=1 j=1
∥ξ∥2
D’après le Corollaire 6.2.4, E (iN )t = exp[i(ξ ·Mt )+ 2
t] est une martingale locale (à valeurs
∥ξ∥2
dans C). Pour tout t > 0, sups∈[0,t] |E (iN )s | ≤ exp[ 2 t] qui est intégrable. Par la Proposition
4.2.5, E (iN ) est une (vraie) martingale. En particulier, pour s < t, E[Nt | Fs ] = Ns , et donc
∥ξ∥2
h i  
E e i(ξ·(Mt −Ms ))
Fs = exp − (t − s) .
2
6.4. THÉORÈME DE DUBINS–SCHWARZ 71

Soit A ∈ Fs . Alors
∥ξ∥2
 
E 1A e i(ξ·(Mt −Ms ))
 
= P(A) exp − (t − s) .
2
En prenant A = Ω, on voit que Mt − Ms est un vecteur gaussien centré de covariance
(t − s)Id. De plus, fixons A ∈ Fs tel que P(A) > 0, et notons PA (·) := P( · |A) la probabilité
conditionnelle sachant A. Soit EA l’espérance associée à PA . On voit que
∥ξ∥2
 
 i(ξ·(Mt −Ms )) 
EA e = exp − (t − s) ,
2
ce qui signifie que la loi conditionnelle de Mt − Ms sachant A est aussi celle du vecteur
gaussien centré de covariance (t − s)Id. Cela suffit pour prouver que (Mt+s − Ms )t≥0 est un
MB indépendant de Fs et donc que (Mt )t≥0 est un (Ft )-MB selon la définition 3.5.1. □

Exemple 6.3.2. Soit (X, Y ) un mouvement brownien à valeurs dans R2 , issu de (0, 0),
et soit θ ∈ R. On pose

Xtθ := Xt cos θ − Yt sin θ, Ytθ := Xt sin θ + Yt cos θ, t ≥ 0.

Alors (X θ , Y θ ) est de nouveau un mouvement brownien à valeurs dans R2 . En effet, X θ et


Y θ sont des martingales telles que ⟨X θ ⟩t = t = ⟨Y θ ⟩t et ⟨X θ , Y θ ⟩t = 0. Le résultat découle
alors du théorème de Lévy.
On peut reformuler ce résultat en interprétant R2 comme le plan complexe C : on introduit
Zt := Xt +iYt , t ≥ 0, qui est appelé le mouvement brownien complexe. Alors pour tout θ ∈ R,
(eiθ Zt )t≥0 est encore un mouvement brownien complexe, voir l’exemple 6.4.10 ci-dessous. □
Rt
Exemple 6.3.3. Soit B un (Ft )-mouvement brownien, et soit βt := 0
sgn(Bs ) dBs , où
sgn(x) := 1{x>0} − 1{x≤0} (donc sgn(0) = −1).
Comme sgn(Bs ) est un processus localement borné (il est clair que ce processus est
progressif, car composé du processus progressif (s, ω) 7→ Bs (ω) et de l’application borélienne
x 7→ sgn(x)), βt est bien défini, et est une martingale locale continue. De plus, ⟨β⟩t =
Rt
0
(sgn(Bs ))2 ds = t. D’après le Théorème 6.3.1 de Lévy, β est un (Ft )-mouvement brownien.
Cet exemple sera repris dans les Exemples 7.1.3 et 7.1.8. □

6.4. Théorème de Dubins–Schwarz

Le Théorème de Dubins–Schwarz nous dit que toute martingale locale continue peut
s’écrire comme un mouvement brownien “changé de temps". On prouve seulement un cas
spécial.
72 6. FORMULE D’ITÔ ET APPLICATIONS

Théorème 6.4.1 (Dubins–Schwarz). Soit M une martingale locale continue telle que
M0 = 0 et ⟨M ⟩∞ = ∞ p.s. Il existe alors un mouvement brownien B tel que

Mt = B⟨M ⟩t .

La preuve de ce théorème s’appuie sur le résultat préliminaire suivant.

Lemme 6.4.2. Soit M une martingale locale telle que M0 = 0. Alors p.s. t 7→ Mt et
t 7→ ⟨M ⟩t ont les mêmes intervalles de constance.

Preuve. Soient

Tr := inf{t > r : Mt ̸= Mr }, Sr := inf{t > r : ⟨M ⟩t ̸= ⟨M ⟩r }.

Il suffit de montrer que pour tout r ∈ Q+ , Tr = Sr p.s.


A cet effet, on remarque que 1]r,Tr ] · M est une martingale locale continue issue de 0, dont
la variation quadratique vaut 1]r,Tr ] · ⟨M ⟩. Or,

(1]r,Tr ] · M )t = (1[0,Tr ] · M )t − (1[0,r] · M )t = MTr ∧t − Mr∧t = 0,

ce qui implique que 1]r,Tr ] · ⟨M ⟩ = 0, et donc Tr ≤ Sr p.s.


Inversement, considérons la martingale 1]r,Sr ] ·M = M Sr −M r qui a pour variation quadra-
tique 1]r,Sr ] · ⟨M ⟩. Cette dernière est identiquement nulle. Donc M Sr − M r est identiquement
nulle. Autrement dit, Sr ≤ Tr p.s. □

Preuve du Théorème 6.4.1. Pour tout r ≥ 0, on définit le temps d’arrêt

τr := inf {t ≥ 0 : ⟨M ⟩t > r} .

L’hypothèse que ⟨M ⟩∞ = ∞ p.s. assure que p.s., τr < ∞ pour tout r. De plus, on voit
facilement que la fonction r 7→ τr est croissante et càdlàg, avec

τr− := lim τs = inf {t ≥ 0 : ⟨M ⟩t ≥ r} ,


s↑↑r

si r > 0 (il convient de faire un dessin ici). On pose

Br := Mτr , r ≥ 0.

Le processus B ainsi défini est adapté par rapport à la filtration Gr := Fτr (rappelons que
HT 1{T <∞} est FT -mesurable si H est progressif et T est un temps d’arrêt, voir le Théorème
3.2.2). On remarque aussi que la nouvelle filtration (Gr ) satisfait les conditions habituelles,
car si (τn ) est une suite de temps d’arrêt qui décroît vers τ , alors Fτ + = n Fτn + (voir
T

l’exercice 1-(iv) de la feuille de TD n. 3 ; rappelons que la filtration (Ft ) est continue à


droite).
6.4. THÉORÈME DE DUBINS–SCHWARZ 73

On montre maintenant que B est un processus continu. Il est clair qu’il est càdlàg, car
M est continue et r 7→ τr est càdlàg. Si l’on note Br− := lims↑↑r Bs , alors Br− = Mτr− . Donc
dire que Br ̸= Br− équivaut à dire que τr− < τr et Mτr− ̸= Mτr . Or, si τr− < τr , comme
⟨M ⟩τr− = r = ⟨M ⟩τr , le Lemme 6.4.2 nous confirme que Mτr− = Mτr . Par conséquent, les
trajectoires de B sont p.s. continues.
On vérifie ensuite que Bt et Bt2 − t sont des martingales par rapport à la filtration
(Gr ). Soient t > s. Prenons n tel que n ≥ t > s. Comme ⟨M τn ⟩∞ = ⟨M ⟩τn = n, par le
Théorème 4.3.5 M τn et (M τn )2 − ⟨M τn ⟩ sont des (vraies) martingales continues. Or M τn est
uniformément intégrable puisque bornée dans L2 ; de plus nous avons comme dans (4.9)
" #
E sup (Msτn )2 ≤ 4n, (Muτn )2 − ⟨M τn ⟩u ≤ sup (Msτn )2 + n, u ∈ [0, t],
s∈[0,t] s∈[0,t]

et (M τn )2 − ⟨M τn ⟩ est donc uniformément intégrable. Par le théorème d’arrêt,

E [ Bt | Gs ] = E Mττtn | Fτs = Mττsn = Bs ,


 

et

E Bt2 − t | Gs = E (Mττtn )2 − ⟨M τn ⟩τt | Fτs


   

= (Mττsn )2 − ⟨M τn ⟩τs = Bs2 − s.

En particulier, B est une (Gr )-martingale continue telle que ⟨B⟩t = t. D’après le Théorème
6.3.1 de Lévy, B est un (Gr )-mouvement brownien.
Par définition de B, on a p.s. pour tout t, B⟨M ⟩t = Mτ⟨M ⟩t . Comme ⟨M ⟩ est constant sur
l’intervalle [t, τ⟨M ⟩t ] (et vaut ⟨M ⟩t sur cet intervalle), le Lemme 6.4.2 dit que Mt = Mτ⟨M ⟩t ,
et donc B⟨M ⟩t = Mt . □

Remarque 6.4.3. Dans le Théorème 6.4.1, le mouvement brownien B n’est pas adapté
par rapport à la filtration (Ft ), mais par rapport à la filtration “changée de temps" (Fτt ).□

Il existe une version multidimensionnelle du Théorème 6.4.1. D’autre part, on peut


s’affranchir de la condition ⟨M ⟩∞ = ∞ dans le Théorème de Dubins–Schwarz.

Théorème 6.4.4 (Knight). Soient M 1 , · · · , M n des martingales locales continues issues


de 0 telles que ⟨M i ⟩∞ = ∞ (∀ i). Si ⟨M i , M j ⟩ = 0 (∀ i ̸= j), alors il existe un mouvement
brownien B à valeurs dans Rn tel que pour tout i,

Mti = B⟨M
i
i⟩ .
t
74 6. FORMULE D’ITÔ ET APPLICATIONS

Théorème 6.4.5 (Dubins–Schwarz). Soit M une martingale locale continue issue de


0. Alors éventuellement sur un espace de probabilité “élargi" (vérifiant les conditions habi-
tuelles), on peut definir un mouvement brownien B tel que

Mt = B⟨M ⟩t .

Remarque 6.4.6. Dans le Théorème de Knight, on sait a priori par Dubins–Schwarz que
i
pour chaque i, il existe un mouvement brownien unidimensionnel B i tel que Mti = B⟨M i⟩ .
t

Le Théorème de Knight consiste donc à dire que ces mouvements browniens B 1 , · · · , B d


sont indépendants. Pour une preuve de ce théorème on peut consulter le Chapitre V du livre
de Revuz et Yor (1999). (ii) Pour la signification exacte d’un “élargissement" d’espace de
probabilité, et pour la preuve de ces deux théorèmes, on peut consulter le Chapitre V du
livre de Revuz et Yor (1999).
(iii) Comme dans le cas unidimensionnel, pour le Théorème de Knight, la condition
⟨M i ⟩∞ = ∞ n’est pas nécessaire. □

Exemple 6.4.7 (points polaires du mouvement brownien plan). Le mouvement brownien


B dans R visite p.s. tous les points de R infiniment souvent, car p.s. lim supt→+∞ Bt = +∞
et lim inf t→+∞ Bt = −∞. En dimension supérieure la situation est différente. Remarquons
d’abord que si A ⊂ Rd est un ensemble mesurable avec mesure de Lebesgue positive, alors
(d) (d)
P(Bt ∈ A) > 0 pour tout t > 0 car Bt a une densité continue et strictement positive. Si
(d)
A a mesure de Lebesgue nulle alors P(Bt ∈ A) = 0 pour tout t > 0 mais avec probabilité
(d)
positive on peut avoir des temps aléatoires où Bt ∈ A ; si ce n’est pas le cas, on dit que A
est polaire. Nous considérons dans cet exemple le cas particulier A = {x}.
Soit (X, Y ) un mouvement brownien à valeurs dans R2 , issu de (0, 0). On considère

Mt := eXt cos(Yt ), Nt := eXt sin(Yt ).

Par la formule d’Itô (remarquons que ⟨X, Y ⟩ = 0),


1 1
dMt = eXt cos(Yt ) dXt − eXt sin(Yt ) dYt + eXt cos(Yt ) dt − eXt cos(Yt ) dt
2 2
Xt Xt
= e cos(Yt ) dXt − e sin(Yt ) dYt .

Donc M est une martingale dans L2 continue. De même, N en est une, car

dNt = eXt sin(Yt ) dXt + eXt cos(Yt ) dYt .

Remarquons que d⟨M ⟩t = e2Xt cos2 (Yt ) dt + e2Xt sin2 (Yt ) dt = e2Xt dt = d⟨N ⟩t . D’où
Z t
⟨M ⟩t = ⟨N ⟩t = e2Xs ds.
0
6.4. THÉORÈME DE DUBINS–SCHWARZ 75

On montre maintenant que ⟨M ⟩∞ = ⟨N ⟩∞ = ∞ p.s. Ceci suit de la propriété de Markov


forte de X, en introduisant les temps d’arrêt τ0 := 0 et τk+1 := inf{t > τk + 1 : Xt = 0}, et

en remarquant que les variables aléatoires Jk := τkk+1 e2Xs ds sont i.i.d. ; par la loi des grands
nombres l’on obtient alors
Z +∞ ∞ Z
X τk+1
2Xs
e ds = e2Xs ds = +∞ p.s.
0 k=0 τk

On s’intéresse ensuite à ⟨M, N ⟩. Comme

d⟨M, N ⟩t = (eXt cos(Yt ))(eXt sin(Yt )) dt − (eXt sin(Yt ))(eXt cos(Yt )) dt = 0,

et donc ⟨M, N ⟩ = 0, le Théorème 6.4.4 nous dit qu’il existe un mouvement brownien B à
valeurs dans R2 , tel que (remarquons que M0 = 1 et N0 = 0)

(Mt − 1, Nt ) = B⟨M ⟩t ,

ou alors (Mt , Nt ) = B⟨M ⟩t + (1, 0). Comme le module euclidien ∥(Mt , Nt )∥ = eXt ne
s’annule jamais, on conclut que p.s. B⟨M ⟩t ne visite jamais le point (−1, 0). Vu que t 7→ ⟨M ⟩t
est continue, et ⟨M ⟩∞ = ∞, on a démontré que p.s. le mouvement brownien B ne visite
jamais le point (−1, 0).
Par rotation et scaling, pour tout a ∈ R2 \{0} fixé, avec probabilité 1, B ne visite jamais
le point a. Pour le cas a = 0, on a, par la propriété de Markov,

P [∃ t > 0, Bt = 0] = lim P ∃ t ≥ n−1 , Bt = 0 = 0.


 
n→∞

En conclusion, pour tout a ∈ R2 , P(∃ t > 0, Bt = a) = 0. On dit que les points sont
polaires pour le mouvement brownien planaire B.
A fortiori, si B est un mouvement brownien à valeurs dans Rd (d ≥ 2), alors pour tout
a ∈ Rd , P(∃ t > 0, Bt = a) = 0.
On aurait pu simplifer la preuve de cet exemple en adoptant l’écriture complexe M +iN =
Z
e , avec Z = X + iY , voir l’exemple 6.4.10 ci-dessous. □

Exemple 6.4.8 (mouvement brownien dans l’espace). Soit B un mouvement brownien


à valeurs dans Rd , avec d ≥ 3. On a limt→∞ ∥Bt ∥ = ∞ p.s., et on dit que B est transient.
Il suffit de démontrer la transience pour d = 3, et on suppose sans perte de généralité
que B0 = a ̸= 0. Considérons la semimartingale continue Xt := ∥Bt ∥2 . Par la formule d’Itô,
3 Z
X t 3
Z tX Z t
Xt = X0 + 2 Bsi dBsi + 3t, ⟨X⟩t = 4 i 2
(Bs ) ds = 4 Xs ds.
i=1 0 0 i=1 0
76 6. FORMULE D’ITÔ ET APPLICATIONS

Comme X est p.s. à valeurs dans R∗+ , on peut appliquer la formule d’Itô à la fonction
F : R∗+ → R définie par F (x) := x−1/2 :
1 t 1 3 t 1
Z Z
1 1
√ =√ − dXs + d⟨X⟩s
Xt X0 2 0 Xs3/2 8 0 Xs5/2
3 t 1 3 t 1
Z Z
= martingale locale − ds + ds
2 0 Xs3/2 2 0 Xs3/2
= martingale locale.
1 1
Autrement dit, ∥B∥
est une martingale locale, positive, issue de ∥a∥
. Par la Proposition 4.2.5
1
toute martingale locale non-négative telle que M0 ∈ L est une surmartingale. Puisque toute
surmartingale positive continue admet une limite finie p.s. (voir Le Gall, Théorème 3.5 page
47), ∥B1t ∥ → ξ quand t → +∞, qui d’après Fatou donne E(ξ) ≤ lim inf t→∞ E( ∥B1t ∥ ).
Or, si N := (N 1 , N 2 , N 3 ) désigne la loi gaussienne standard à valeurs dans R3 , alors
E( ∥B1t ∥ ) = E( ∥a+√1 t N ∥ ). Par rotation, on peut supposer que a = (∥a∥, 0, 0), alors
  !
1 1 1
E √ ≤√ E p → 0, t → ∞.
∥a + t N ∥ t (N 2 )2 + (N 3 )2
(En général, E( ∥N1∥q ) < ∞ ⇔ q < d.) Donc ξ = 0 p.s., c’est-à-dire ∥Bt ∥ → ∞ p.s.
1
On remarquera que ∥B∥
est une martingale locale uniformément intégrable 1, qui n’est
pas une martingale. □

Exemple 6.4.9. Soit B = (B 1 , · · · , B d ) un mouvement brownien à valeurs dans Rd (d ≥


2), issu de x ̸= 0. Par la formule d’Itô, d(∥Bt ∥2 ) = 2 di=1 Bti dBti + d dt. Soit F : R∗+ → R
P

de classe C 2 . Comme p.s. ∥Bt ∥2 ∈ R∗+ pour tout t, on a


1 ′′
dF (∥Bt ∥2 ) = F ′ (∥Bt ∥2 ) d(∥Bt ∥2 ) + F (∥Bt ∥2 ) d⟨∥Bt ∥2 ⟩t
2
d
X
= F ′ (∥Bt ∥2 )2 Bti dBti + dF ′ (∥Bt ∥2 ) + 2F ′′ (∥Bt ∥2 )∥Bt ∥2 dt.

i=1

Le terme à variation finie s’annule dans le points y tels que F ′ (y)+ d2 yF ′′ (y) = 0 ; remarquons
que cette équation est satisfaite par F (y) := log(y) (d = 2) et par F (y) := y 1−(d/2) .
Soient 0 < r < ∥x∥ < R. Pour a = r ou R, on pose

Ta := inf{t ≥ 0 : ∥Bt ∥ = a}.

On étudie d’abord la dimension d = 2. Soit F : R∗+ → R, F (y) = log y pour tout y >
0. Alors t 7→ F (∥Bt∧Tr ∧TR ∥) = log ∥Bt∧Tr ∧TR ∥ est une martingale locale continue bornée.

1. Car supt E( ∥Bt1∥1+ε ) < ∞ pour ε ∈ ]0, 1[ .


6.4. THÉORÈME DE DUBINS–SCHWARZ 77

Par le théorème d’arrêt, E [ log ∥BTr ∧TR ∥ ] = log ∥x∥. (Remarquons que TR < ∞ p.s., car
lim supt→∞ ∥Bt ∥ ≥ lim supt→∞ |Bt1 | = ∞ p.s.) Donc

log ∥x∥ = (log r) P[Tr < TR ] + (log R) P[Tr > TR ]


= (log r − log R) P[Tr < TR ] + log R,

et par conséquent
log R − log ∥x∥ log ∥x∥ − log r
P[Tr < TR ] = , P[TR < Tr ] = .
log R − log r log R − log r
En faisant R → ∞, et comme TR → ∞, on obtient P[Tr < ∞] = 1 pour tout r > 0. Donc
pour tout a ∈ R2 et tout voisinage Va , le mouvement brownien plan visite p.s. Va infiniment
souvent.
Si d ≥ 3, soit F : R∗+ → R, F (y) = y 2−d pour tout y ≥ 0. Alors F (∥Bt∧Tr ∧TR ∥) =
∥Bt∧Tr ∧TR ∥2−d est une martingale continue bornée. Par le théorème d’arrêt

∥x∥2−d = E[ ∥BTr ∧TR ∥2−d ].

Donc
∥x∥2−d − R2−d r2−d − ∥x∥2−d
P[Tr < TR ] = , P[TR < Tr ] = .
r2−d − R2−d r2−d − R2−d
En particulier, en faisant R → ∞, on obtient
 d−2
r
P[Tr < ∞] = ,
∥x∥
ce qui est en accordance avec la transience de B. □

Exemple 6.4.10 (le mouvement brownien complexe). Soit h : C → C une fonction


holomorphe (c’est-à-dire dérivable au sens complexe en tout point de C). Rappelons que
h = f + ig holomorphe revient à dire que (équations de Cauchy–Riemann)
∂f ∂g ∂f ∂g
= , =− ,
∂x ∂y ∂y ∂x
et on a ∆f = ∆g = 0. De plus, h′ (z) = 21 ( ∂h
∂x
− i ∂h
∂y
)= ∂h
∂x
.
Soit Z = X + iY un mouvement brownien complexe (on identifie C avec R2 ) issu de
Z0 ∈ C. Alors par la formule d’Itô,
∂f ∂f 1
df (Zt ) = (Zt ) dXt + (Zt ) dYt + (∆f )(Zt ) dt
∂x ∂y 2
∂f ∂f
= (Zt ) dXt + (Zt ) dYt ,
∂x ∂y
78 6. FORMULE D’ITÔ ET APPLICATIONS

∂g ∂g
et de même dg(Zt ) = ∂x
(Zt ) dXt + ∂y (Zt ) dYt . (On écrit formellement dh(Zt ) = h′ (Zt ) dZt .)
Donc h(Zt ) est une martingale continue. De plus,
 
∂f 2 ∂g 2
d⟨f (Z)⟩t = d⟨g(Z)⟩t = ( ) + ( ) (Zt ) dt = |h′ (Zt )|2 dt,
∂x ∂x
 
∂f ∂g ∂f ∂g
d⟨f (Z), g(Z)⟩t = + (Zt ) dt = 0.
∂x ∂x ∂y ∂y
Par le Théorème 6.4.4 il existe un mouvement brownien planaire B = (B 1 , B 2 ) tel que
h(Z) = B⟨f (Z)⟩ . Cette propriété s’appelle invariance conforme du brownien complexe.

Exemple 6.4.11 (représentation skew-product du mouvement brownien plan). Dans les


Rt
notations de l’Exemple 6.4.10, on prend maintenant h(z) := ez . Alors ⟨f (Z)⟩t = 0 e2Xs ds =:
At , et on sait que ⟨f (Z)⟩∞ = ∞ p.s. par un argument qui se trouve dans l’Exemple 6.4.7.
D’après le Théorème 6.4.4, il existe un mouvement brownien complexe B = B 1 + iB 2 issu
de 1, tel que eZt = BAt . Soit Ct = A−1
t . Alors

Bt1 + iBt2 = exp (ZCt ) = exp (XCt + iYCt ) = Rt exp(iθt ),

où nous obtenons ainsi respectivement la partie radiale et le nombre de tours de (B 1 , B 2 ) :

Rt := |Bt1 + iBt2 | = eXCt , θt := YCt .

On écrit maintenant Ct en termes de B 1 et de B 2 . Comme A : R+ → R+ est une bijection


de classe C 1 avec dérivée Ȧt = e2Xt > 0, son inverse C est dérivable avec dérivée
1 1
Ċt = = e−2XCt = 2 ,
ȦCt Rt
c’est-à-dire
Z t
ds
Ct = , t ≥ 0.
0 Rs2
Nous obtenons donc la représentation skew-product du mouvement brownien plan : soit
B = (B 1 , B 2 ) un mouvement brownien plan issu de (1, 0), et soient R et θ sa partie radiale
et son nombre de tours, respectivement. Alors il existe un mouvement brownien plan (X, Y )
issu de (0, 0), tel que
Rt = exp(XCt ), θt = YCt ,

Z t  Z s 
ds 2Xu
Ct = = inf s ≥ 0 : e du > t .
0 Rs2 0

On remarque que le processus (Ct )t≥0 est indépendant du mouvement brownien Y . □


6.5. THÉORÈME DE GIRSANOV 79

6.5. Théorème de Girsanov

On considère comme précédemment dans ce chapitre, un espace de probabilité filtré


(Ω, F , (Ft ), P) satisfaisant les conditions habituelles. Notre objectif est d’étudier comment
les notions de martingales/semimartingales se transforment lorsque l’on remplace la proba-
bilité P par une probabilité Q qui est absolument continue par rapport à P.

Lemme 6.5.1. Supposons que Q ≪ P sur F∞ . Pour tout 0 ≤ t ≤ ∞, soit


dQ
Dt := | ,
dP Ft
la dérivée Radon–Nikodym de Q par rapport à P sur la tribu Ft . Le processus D est une
(Ft )-martingale uniformément intégrable.

Preuve. Soit A ∈ Ft . On a

Q(A) = EQ [1A ] = E[1A D∞ ] = E[1A E(D∞ | Ft )].

Par unicité de la dérivée de Radon–Nikodym sur Ft , on obtient :

Dt = E(D∞ | Ft ).

Donc D est une martingale uniformément intégrable, fermée par D∞ . □

Lemme 6.5.2. Soit D la martingale du Lemme précédent ; nous supposons que D est p.s.
continue.
(i) Si T est un temps d’arrêt, alors
dQ
DT = | .
dP FT
(ii) Si en plus Q est équivalente à P sur F∞ , alors p.s. pour tout t ≥ 0, Dt > 0.

Preuve. (i) Pour tout A ∈ FT , on a,

Q(A) = EQ [1A ] = E[1A D∞ ] = E[1A E(D∞ | FT )].

qui vaut E[1A DT ] par le théorème d’arrêt. Puisque DT est FT -mesurable, on obtient :
dQ
DT = | .
dP FT
(ii) Considérons le temps d’arrêt S := inf{t ≥ 0 : Dt = 0}. Par continuité à droite,
DS = 0 p.s. sur {S < ∞}. Soit A := {S < ∞} ∈ FS . Alors Q(A) = E[1A DS ] = 0, et donc
P(A) = 0. □
80 6. FORMULE D’ITÔ ET APPLICATIONS

Lemme 6.5.3. Soit D une martingale locale continue, strictement positive. Il existe alors
une unique martingale locale continue L, telle que
 
1
Dt = exp Lt − ⟨L⟩t = E (L)t .
2
De plus, L est donnée par la formule
Z t
dDs
Lt = log D0 + .
0 Ds
Preuve. (Unicité) Soit L e une martingale locale continue telle que E (L)e = E (L). Alors
L−L e = ⟨L⟩−⟨L⟩
e
. Il découle que L − L e est une martingale locale continue issue de 0 (car
2
L0 = L
e0 = log D0 ), qui est à variation finie. Par le Théorème 4.2.7, L = L.
e
R t −1
(Existence) Soit Lt := log D0 + 0 Ds dDs , qui est une martingale locale continue.
Comme D est à valeurs dans R∗+ , on peut appliquer la formule d’Itô à F (Dt ), où F : R∗+ → R
est définie par F (x) = log x. Il en découle que
Z t
dDs 1 t d⟨D⟩s
Z
1
log Dt = log D0 + − 2
= Lt − ⟨L⟩t .
0 Ds 2 0 Ds 2
Autrement dit, D = E (L). □

Théorème 6.5.4 (Girsanov). Soit Q une probabilité équivalente à P sur F∞ . Soit D la


martingale associée à Q définie dans le Lemme 6.5.1. On suppose que D est continue. Soit
L la martingale locale continue telle que D = E (L). Alors pour toute P-martingale locale
continue M , le processus
f := M − ⟨M, L⟩
M
est une Q-martingale locale continue.
Preuve. Soit T un temps d’arrêt, et soit X un processus continu adapté avec X0 = 0. On
montre d’abord que si (XD)T est une P-martingale, alors X T est une Q-martingale.
En effet, d’après le Lemme 6.5.2, EQ [ |XT ∧t | ] = E[ |XT ∧t DT ∧t | ] < ∞, donc XtT ∈ L1 (Q)
pour tout t. Soient s < t et A ∈ Fs . Puisque (XD)T est une P-martingale et A ∩ {T > s} ∈
Fs ,
E[ 1A∩{T >s} XT ∧t DT ∧t ] = E[ 1A∩{T >s} XT ∧s DT ∧s ].
dQ dQ
D’après le Lemme 6.5.2, DT ∧t = dP |FT ∧t
et DT ∧s = dP |FT ∧s
. D’autre part, A ∩ {T > s} ∈
FT ∧s ⊂ FT ∧t . Donc
EQ [ 1A∩{T >s} XT ∧t ] = EQ [ 1A∩{T >s} XT ∧s ].
Or, on a EQ [ 1A∩{T ≤s} XT ∧t ] = EQ [ 1A∩{T ≤s} XT ] = EQ [ 1A∩{T ≤s} XT ∧s ], ce qui implique que
EQ [ 1A XT ∧t ] = EQ [ 1A XT ∧s ]. Par conséquent, X T est une Q-martingale.
6.5. THÉORÈME DE GIRSANOV 81

Comme conséquence immédiate de ce que l’on a démontré, on voit que

XD une P-martingale locale ⇒ X une Q-martingale locale. (6.28)


f := M − ⟨M, L⟩. Par la
Soit maintenant M une P-martingale locale continue, et soit M
formule d’Itô (ou plus précisément, par la formule d’intégration par parties)
Z t Z t
Mt Dt =
f Ms dDs +
f Ds dMfs + ⟨Mf, D⟩t
0 0
Z t Z t Z t
= M
fs dDs + Ds dMs − Ds d⟨M, L⟩s + ⟨M, D⟩t
0 0 0
Z t Z t
= Ms dDs +
f Ds dMs ,
0 0

car d⟨M, L⟩s = Ds−1 d⟨M, D⟩s par le Lemme 6.5.3. Donc (M
ft Dt ) est une P-martingale locale.
Par (6.28), (M
ft ) est une Q-martingale locale. □

Remarque 6.5.5. (i) Un résultat établi p.s. ou en probabilité sous P reste vraie sous Q.
f sous Q est égale à ⟨M ⟩. Dans la remarque (iii)
Par exemple, la variation quadratique de M
suivante, on montre que les intégrales stochastiques sont aussi les mêmes sous P et sous Q.
(ii) Le Théorème de Girsanov nous confirme qu’une P-semimartingale reste une Q-semi-
martingale (et réciproquement, car Q et P sont supposées équivalentes), et on a la décom-
position canonique : si X = X0 + M + V est une P-semimartingale, alors X = X0 + M f + Ve ,
avec Ve := V + ⟨M, L⟩, est la décomposition canonique de X en tant que Q-semimartingale.
Réciproquement, la décomposition canonique d’une Q-semimartingale en tant que P-
semimartingale est aussi explicite. En effet, comme L est une P-martingale locale, le Théo-
rème de Girsanov dit que L e := L − ⟨L⟩ est une Q-martingale locale, telle que ⟨L⟩
e = ⟨L⟩.
Donc on peut considérer la Q-martingale locale exponentielle E (−L)
e t = exp(−Let − 1 ⟨L⟩
2
e t) =
exp(−Lt + 1 ⟨L⟩t ) = 1 . Par conséquent, P = E (−L)
2 E (L)t
e ∞ • Q sur F∞ . En particulier, en
appliquant le Théorème de Girsanov (en échangeant les rôles de P et Q), si N e est une Q-
martingale locale continue, alors N := Ne − ⟨N e , −L⟩
e est une P-martingale locale. Comme
⟨N
e , −L⟩
e = −⟨N e , L⟩, on a N := Ne + ⟨N
e , L⟩.
En conclusion, M est une P-martingale locale si et seulement si M − ⟨M, L⟩ est une
Q-martingale locale.
(iii) Montrons maintenant que les intégrales stochastiques sont les mêmes sous P et sous
Q. Soit H un processus (progressif) localement borné, et soit M une P-martingale locale issue
de 0. On écrit (H · M )P et (H · M )Q pour les intégrales sous P et sous Q, respectivement. Soit
f := M −⟨M, L⟩, qui est une Q-martingale locale. On écrit (H ·M )Q = (H · M
M f)Q +H ·⟨M, L⟩,
82 6. FORMULE D’ITÔ ET APPLICATIONS

et (H · M
f)Q est une Q-martingale locale. D’après (ii), (H · M f)Q + ⟨(H · M f)Q , L⟩ est une
P-martingale locale. Par définition, (H · M
f)Q est une Q-martingale locale telle que pour toute
semimartingale N , ⟨(H · M
f)Q , N ⟩ = H · ⟨M
f, N ⟩ = H · ⟨M, N ⟩. Donc ⟨(H · M f)Q , L⟩ =
H · ⟨M, L⟩, ce qui implique que (H · M )Q est une P-martingale locale. On a vu que pour
toute P-martingale locale N , ⟨(H · M )Q , N ⟩ = H · ⟨M, N ⟩. D’où : (H · M )Q = (H · M )P .
(iv) On utilise très souvent la version de Girsanov “à horizon fini", c’est-à-dire sur l’inter-
valle de temps [0, t] fixé. En effet, la filtration sera (Fs , s ∈ [0, t]) au lieu de (Fs , s ∈ R+ ),
qui vérifie les conditions habituelles (attention, l’hypothèse de complétion signifie que chaque
tribu Fs contient les P-négligeables de Ft ). Si Q est une probabilité équivalente à P sur Ft ,
dQ
on définit la martingale (Ds , s ∈ [0, t]) (donc Dt := dP
jouera le rôle de D∞ ), et si D a
une modification continue, alors on peut définir la martingale locale (Ls , s ∈ [0, t]) telle que
Ds = exp(Ls − 12 ⟨L⟩s ), s ∈ [0, t]. L’analogue du théorème reste alors vraie.
(v) Si M = B est un (Ft , P)-mouvement brownien, alors B e := B −⟨B, L⟩ est une (Ft , Q)-
martingale locale continue, telle que ⟨B⟩
e t = ⟨B⟩t = t. Le Théorème 6.3.1 de Lévy nous dit
alors que B
e est un (Ft , Q)-mouvement brownien.
(vi) En pratique, on se sert du Théorème de Girsanov pour éliminer le drift qui nous
ennuie. Voir les Exemples 6.5.13 et 6.5.15. □

Si l’on regarde la preuve du Théorème de Girsanov de plus près, on se rend compte que
la condition Q ∼ P sert seulement à assurer à ce que D soit à valeurs dans R∗+ . Donc on
peut énoncer la version suivante du Théorème de Girsanov sans que la probabilité Q soit
nécessairement équivalente à P sur F∞ (c’est le cas sur chacune des tribus Ft , en revanche).

Théorème 6.5.6 (Girsanov). Soit (Dt , t ≥ 0) une martingale continue uniformément


intégrable, à valeurs dans R∗+ , telle que E(Dt ) = 1 pour tout t ≥ 0. Soit L la martingale
locale continue telle que D = E (L). Posons Q := D∞ • P. Alors pour toute P-martingale
locale continue M , le processus
f := M − ⟨M, L⟩
M
est une Q-martingale locale continue.

Remarque 6.5.7. On insiste sur le fait que dans le Théorème 6.5.6, Q est absolument
continue par rapport à P sur F∞ , et est équivalente à P sur toute Ft , t ≥ 0.

Remarque 6.5.8. Dans la plupart des applications du Théorème 6.5.6, on part d’une
martingale locale continue L issue de 0, alors la probabilité Q := E (L)∞ • P est bien définie
si E (L) est une (vraie) martingale uniformément intégrable. Or, E (L) étant une martingale
locale continue à valeurs dans R∗+ et issue de 1, elle est une surmartingale par la Proposition
6.5. THÉORÈME DE GIRSANOV 83

4.2.5. Par le Théorème 3.5 à page 47 du livre de Le Gall, toute surmartingale positive et
continue à droite admet p.s. une limite (finie). Notons E (L)∞ := limt→∞ E (L)t . Par le lemme
de Fatou, E[E (L)∞ ] ≤ 1. Supposons que l’on a

E[E (L)∞ ] = 1, (6.29)

alors d’après le Lemme 6.5.10 suivant, E (L) est une (vraie) martingale continue uniformé-
ment intégrable. On sera alors parfaitement dans le cadre du Théorème 6.5.6.
La condition (6.29) a donc une importance capitale. Le théorème suivant donne deux
conditions suffisantes pour assurer (6.29). □

Théorème 6.5.9. Soit L une martingale locale continue, issue de 0. Considérons les
propriétés suivantes :
1
(i) E[e 2 ⟨L⟩∞ ] < ∞ ;
1
(ii) L est une martingale uniformément intégrable, et E[e 2 L∞ ] < ∞ ;
(iii) E[E (L)∞ ] = 1 (donc E (L) est une martingale uniformément intégrable).
Alors (i) ⇒ (ii) ⇒ (iii).

La preuve du Théorème 6.5.9 se trouve à la fin de la section. On montre d’abord que


sous (6.29), E (L) est une (vraie) martingale continue uniformément intégrable.

Lemme 6.5.10. Soit D une surmartingale positive continue, issue de 1. Si E[D∞ ] = 1,


alors D est une martingale uniformément intégrable.

Preuve. Soit t ≥ 0. Comme D0 = 1, on a E[Dt ] ≤ E[D0 ] = 1. D’autre part, d’après le lemme


4.2.4 de Fatou (version conditionnelle), E[D∞ | Ft ] ≤ Dt p.s. En prenant l’espérance dans les
deux côtés de cette inégalité, on obtient 1 = E[D∞ ] ≤ E[Dt ] ≤ 1. Par conséquent, E[Dt ] = 1
et E[D∞ | Ft ] = Dt p.s. □

Exemple 6.5.11. Soit M une P-martingale locale continue, et soit H ∈ L2loc (M ). On


pose
Z t
Lt := Hs dMs , t ≥ 0,
0
Rt Rt
Donc E (L)t = exp( 0 Hs dMs − 1
2 0
Hs2 d⟨M ⟩s ). Si E [E (L)∞ ] = 1, alors en posant Q :=
E (L)∞ • P, le Théorème de Girsanov dit que
Z t
Xt := Mt − Hs d⟨M ⟩s , t ≥ 0,
0

est une Q-martingale locale. □


84 6. FORMULE D’ITÔ ET APPLICATIONS

Exemple 6.5.12. [formule de Cameron–Martin] On se met dans l’espace canonique Ω :=


C([0, T ], R), muni de la mesure de Wiener W. Soit (Xt , t ∈ [0, T ]) le processus canonique.
(Donc sous W, X est un mouvement brownien standard défini sur [0, T ].) Soit h ∈ L2 ([0, T ])
Rt
(donc h ∈ L2T (X)). On pose Lt := 0 h(s) dXs , t ∈ [0, T ].
RT
Puisque ⟨L⟩T = 0 h2 (s) ds qui est une constante finie, le Théorème 6.5.9 nous guarantit
que E[E (L)T ] = 1. Comme E (L)T > 0, en posant
Z T
1 T 2
Z 
Q := exp h(s) dXs − h (s) ds • W, sur FT ,
0 2 0
le Théorème de Girsanov nous dit que
Z t
Xt − h(s) ds, t ∈ [0, T ],
0
est un Q-mouvement brownien. Puisque (Xt , t ∈ [0, T ]) sous W est aussi un MB, nous
obtenons que pour toute fonction mesurable bornée Φ : C([0, T ]) → R
  Z t 
E Φ Xt + hs ds, t ∈ [0, T ] = E (Φ (Xt , t ∈ [0, T ]) E (L)T )
0
 Rt 
où E est l’espérance par rapport à W. Autrement dit, la loi de Xt + 0
hs ds, t ∈ [0, T ]
sous W est Q.
γ2
En particulier, si h(x) = γ ∈ R, ∀ x ∈ [0, T ], alors Q = eγXT − 2 T • W, et (Xt − γt, t ∈
[0, T ]) est un Q-mouvement brownien. □

Exemple 6.5.13. La formule de Cameron–Martin évoquée dans l’exemple précédent per-


met souvent de traiter le processus Xt + γt (mouvement brownien avec drift). Dans cet
exemple, on s’intéresse à la loi de supt∈[0,1] (Xt + γt), où γ ∈ R∗ est un réel non-nul.
γ2
On se met dans l’espace canonique avec T = 1, et soit Q = eγX1 − 2 • W (sur F1 ) comme
dans l’exemple précédent. Sous Q, X est un mouvement brownien avec drift γ. Pour tout
x > 0,
!  
2
γX1 − γ2
Q sup Xt < x = W 1{supt∈[0,1] Xt <x} e
t∈[0,1]
 2

γB1 − γ2
= E 1{supt∈[0,1] Bt <x} e (6.30)

où B est un mouvement brownien sous P. (Par abus de notation, on écrit W à la place de


l’espérance associée à W.) On note S1 := supt∈[0,1] Xt , et on rappelle la densité conjointe de
(S1 , X1 ) que l’on a déterminée dans le Corollaire 2.4.9 :
(2a − b)2
 
2(2a − b)
fS1 ,X1 (a, b) = √ exp − 1{a>0, b<a} .
2π 2
6.5. THÉORÈME DE GIRSANOV 85

Donc la probabilité dans (6.30) vaut


2
2e−γ /2 x
Z a
(2a − b)2
Z  
= √ da db (2a − b) exp − + γb
2π 0 −∞ 2
2
2e−γ /2 x
Z x
(2a − b)2
Z  
= √ db da (2a − b) exp − + γb
2π −∞ b+ 2
2
e−γ /2 x
Z Z 2x−b  2 
y
= √ db dy y exp − + γb ,
2π −∞ 2b+ −b 2

avec un changement de variables y := 2a − b. En remarquant que 2b+ − b = |b|, on obtient :


! 2 x
e−γ /2
Z h 2 i
2
P sup (Xt + γt) < x = √ db eγb e−b /2 − e−(2x−b) /2 . ⊓

t∈[0,1] 2π −∞

Remarque 6.5.14. Il est possible d’obtenir (6.30) sous une autre écriture. En effet, soit
γ2
Q = e−γX1 − 2 • W sur F1 , alors Xt + γt est un Q-mouvement brownien, et
!  
2
γX1 + γ2
W sup (Xt + γt) < x = EQ 1{supt∈[0,1] (Xt +γt)<x} e
t∈[0,1]
 2

γB1 − γ2
= E 1{supt∈[0,1] Bt <x} e .

Ceci équivaut à (6.30). □

Exemple 6.5.15 (formule de Cameron–Martin, suite). On travaille dans l’espace cano-


nique Ω := C(R+ , R), muni de la mesure de Wiener W.
Rt
Soit h : R+ → R une fonction mesurable telle que ∀ t, 0 h2 (s) ds < ∞. On pose
Rt
Lt := 0 h(s) dXs . D’après le Théorème 6.5.9, E (L) est une (vraie) martingale continue.
Rt
Soit Q la mesure de probabilités sur F∞ définies comme la loi de (Xt + 0 hs ds)t≥0 sous
W. Par l’Exemple 6.5.12, pour tout T ≥ 0 nous avons que Q|FT = E (L)T • W|FT . Attention,
Q et W ne sont pas nécessairement équivalentes sur F∞ . Le Théorème de Girsanov nous dit
Rt
que (Xt − 0 h(u) du, t ≥ 0) est un Q-mouvement brownien.
γ2
En particulier, si h(t) = γ ∈ R, alors Q|FT = eγXT − 2 T • W|FT . Le processus (Xt − γt)t≥0
est un Q-mouvement brownien, et X sous Q est un mouvement brownien avec drift γ.
On s’intéresse à τa := inf{t ≥ 0 : Xt = a} quand h(t) = γ. Pour tout t > 0,
 2
   2

γXt − γ2 t γXt − γ2 t
Q[τa ≤ t] = W 1{τa ≤t} e = W 1{τa ≤t} W e Fτa ∧t .
86 6. FORMULE D’ITÔ ET APPLICATIONS

γ2
Comme (eγXs − 2 s , s ≥ 0) est une (vraie) W-martingale, le théorème d’arrêt (pour les temps
d’arrêt bornés) nous dit alors que
 2

γXτa ∧t − γ2 (τa ∧t)
Q[τa ≤ t] = W 1{τa ≤t} e
 2

γa− γ2 τa
= W 1{τa ≤t} e
Z t
γ2
= eγa− 2 s W[τa ∈ ds]. (6.31)
0
a2
Or, on a vu dans l’Exemple 2.4.10 que sous W, τa a la même loi que X12
, et que la densité
|a| 2
vaut fτa (s) = √
2πs3
exp(− a2s ) 1{s>0} . Donc
t
γ 2 s a2
 
|a|
Z
Q[τa ≤ t] = √ exp γa − − ds.
0 2πs3 2 2s
On écrit maintenant tout pour le mouvement brownien avec drift Xt + γt : la variable
(γ)
aléatoire τa := inf{t ≥ 0 : Xt + γt = a} a pour densité
(a − γt)2
 
(γ)
 |a|
P τa ∈ dt = √ exp − 1{t>0} dt. (6.32)
2πt3 2t
En faisant t → ∞ dans (6.31), on obtient
 2

(γ) γa− γ2 τa
= eγa−|γa| ,

P τa < ∞ = W e

où la dernière identité provient de l’Exemple 3.5.4. Par conséquent, le mouvement brownien


avec drift Xt + γt (γ ̸= 0) atteint le niveau a (a ̸= 0) avec probabilité 1 si et seulement si a
et γ sont de même signe. Dans le cas contraire, la probabilité en question vaut e2γa , ce que
l’on a vu dans un TD il y a quelque temps.
Si γa > 0, la loi de probabilité dans (6.32) porte dans la littérature le nom de la loi
gaussienne inverse. □

On termine la section avec la preuve du Théorème 6.5.9.

Preuve du Théorème 6.5.9.


1
(i) ⇒ (ii) [ théorème de Novikov, modifié ] Supposons E[e 2 ⟨L⟩∞ ] < ∞. A fortiori, ⟨L⟩∞
est intégrable. Ceci implique que L est une (vraie) martingale
p 1 continue bornée dans L2 ,
1
donc uniformément intégrable. On écrit e 2 L∞ = E (L)∞ e 2 ⟨L⟩∞ , et on obtient, à l’aide de
p

l’inégalité de Cauchy–Schwarz, que


q
1 p 1
L
E[ e 2 ∞ ] ≤ E [E (L)∞ ] E[ e 2 ⟨L⟩∞ ].
1 1
Par le lemme de Fatou, E [E (L)∞ ] ≤ 1. D’autre part, E[e 2 ⟨L⟩∞ ] < ∞. D’où E[e 2 L∞ ] < ∞.
6.6. INÉGALITÉS DE BURKHOLDER-DAVIS-GUNDY 87

(ii) ⇒ (iii) [ Théorème de Kazamaki, modifié ] On suppose maintenant que L est une
1
martingale uniformément intégrable telle que E[e 2 L∞ ] < ∞. Dans ce cas, pour tout temps
d’arrêt T , LT = E[L∞ | FT ], et par l’inégalité de Jensen (version conditionnelle),

e 2 LT = e 2 E[L∞ | FT ] ≤ E[ e 2 L∞ | FT ].
1 1 1

1
Donc la famille de variables {e 2 LT , T temps d’arrêt} est uniformément intégrable.
a
Soit maintenant a ∈ ]0, 1[ , et soit Zt := e 1+a Lt . Alors
a2 2 L − a2 ⟨L⟩ 2 2
E (aL)t = eaLt − 2 ⟨L⟩t = ea t 2 t
ea(1−a)Lt = [E (L)t ]a [Zt ]1−a .

Soit T un temps d’arrêt, et soit A ∈ F∞ . Par l’inégalité de Hölder, ceci implique que
2 2
E [1A E (aL)T ] ≤ {E [E (L)T ]}a {E [1A ZT ]}1−a .
2 (1+a)/(2a)
L’inégalité de Jensen nous donne {E [1A ZT ]}1−a ≤ {E[1A ZT ]}2a(1−a) (car 1+a
2a
> 1),
1
L 2a(1−a)
et cette dernière vaut {E[1A e 2 T ]} . On arrive donc à
2
n h 1
io2a(1−a)
E [1A E (aL)T ] ≤ {E [E (L)T ]}a E 1A e 2 LT . (6.33)

Puisque E (L)T est une surmartingale positive, E (L)T = limt→∞ E (L)t∧T existe, et par
1
le lemme de Fatou, E[E (L)T ] ≤ 1. Par conséquent, E[1A E (aL)T ] ≤ {E[1A e 2 LT ]}2a(1−a) .
1
Comme {e 2 LT , T temps d’arrêt} est uniformément intégrable, c’est également le cas pour
{E (aL)T , T temps d’arrêt} (rappel : (Bi , i ∈ I) est uniformément intégrable si et seulement
si supi∈I E[ |Bi | ] < ∞ et ∀ ε > 0, ∃ δ > 0, P(A) ≤ δ ⇒ supi∈I E[ |Bi | 1A ] ≤ ε).
Rappelons 2 que si M est une martingale locale continue, alors M est une martingale
uniformément intégrable si et seulement si (MT 1{T <∞} , T temps d’arrêt) est uniformément
intégrable. En particulier, E (aL) est une (vraie) martingale uniformément intégrable. En
particulier, E[E (aL)∞ ] = 1. Par (6.33) (avec T = ∞ et A = Ω), 1 = E[E (aL)∞ ] ≤
2 1 1
{E[E (L)∞ ]}a {E[e 2 L∞ ]}2a(1−a) . Par hypothèse, E[e 2 L∞ ] est finie. En faisant a → 1, on obtient
alors E[E (L)∞ ] ≥ 1. Donc nécessairement E[E (L)∞ ] = 1 (lemme de Fatou). □

6.6. Inégalités de Burkholder-Davis-Gundy

Les inégalités suivantes relient une martingale locale avec sa variation quadratique. Pour
toute martingale continue M , on note Mt∗ := sups∈[0,t] |Ms |.

Lemme 6.6.1. Soit p ≥ 2 et (Mt )t≥0 une martingale locale telle que M0 = 0. Alors
 ∗ 2p 
E [(⟨M ⟩∞ )p ] ≤ pp E (M∞ ) .
2. Voir TD n.4.
88 6. FORMULE D’ITÔ ET APPLICATIONS

Preuve. Quitte à remplacer M par M τn , où τn = inf{t ≥ 0 : |Mt | + ⟨M ⟩t ≥ n}, on peut


supposer que M et ⟨M ⟩ sont bornés ; une fois montré le résultat pour M τn , on peut faire
tendre n → +∞ et appliquer la convergence monotone aux deux côtés de l’inégalité cherchée.
On sait que pour tout temps d’arrêt τ l’on a E[Mτ2 ] = E[⟨M ⟩τ ] et donc
2
E[⟨M ⟩∞ − ⟨M ⟩τ ] = E[M∞ 2
− Mτ2 ] = E[(M∞ − Mτ2 )1(τ <∞) ] ≤ E[M∞
2
1(τ <∞) ].
2
Notons par simplicité At := ⟨M ⟩t et Z := M∞ . Soit λ > 0 et τ := inf{t ≥ 0 : At > λ}, avec
inf ∅ := ∞. Alors {A∞ > λ} = {τ < ∞} ⊆ {Aτ = λ} et {A∞ ≤ λ} = {τ = ∞} ⊆ {A∞ =
Aτ } et donc

E[1(A∞ >λ) (A∞ − λ)] = E[1(A∞ >λ) (A∞ − Aτ )] = E[A∞ − Aτ ] ≤ E[1(A∞ >λ) Z].

Pour tout x ≥ 0, par différentiation on voit que


Z x Z ∞
p
x = p−2
(x − λ)p(p − 1)λ dλ = p(p − 1) 1(x>λ) (x − λ)λp−2 dλ.
0 0

En considérant x = A∞ nous obtenons


Z ∞ Z ∞
p
E 1(A∞ >λ) (A∞ − λ) λ dλ ≤ p(p − 1) E 1(A∞ >λ) Z λp−2 dλ
  p−2  
E [A∞ ] = p(p − 1)
0 0
p−1 1
= p E[Ap−1
∞ Z] ≤ p (E[Ap∞ ]) p p
(E[Z ]) .
p

p−1
Puisque E[Ap∞ ] < +∞, nous obtenons l’inégalité souhaitée en divisant par (E[Ap∞ ]) p . □

Lemme 6.6.2. Pour p ≥ 2 il existe une constante Cp > 0 telle que pour toute M martin-
gale locale issue de 0
∗ p
) ] ≤ Cp E ⟨M ⟩p/2
 
E [(M∞ ∞ .

Preuve. Par localisation on peut supposer que M est bornée. Si p ≥ 2 alors la fonction
x 7→ |x|p est de classe C 2 et par la formule d’Itô
Z t
1 t
Z
p p−1
|Mt | = p|Ms | sgn(Ms ) dMs + p(p − 1)|Ms |p−2 d⟨M ⟩s .
0 2 0
En prenant l’espérance
Z t 
pp(p − 1) p−2
E [|Mt | ] = E |Ms | d⟨M ⟩s
2 0
p(p − 1)  ∗ p−2 
≤ E (Mt ) ⟨M ⟩t
2
p(p − 1) ∗ p (p−2)/p
h
p/2
i2/p
≤ E [(Mt ) ] E ⟨M ⟩t ,
2
6.6. INÉGALITÉS DE BURKHOLDER-DAVIS-GUNDY 89

par l’inégalité de Hölder. Par Doob


 p
p
E [(Mt∗ )p ] ≤ E [|Mt |p ]
p−1
et donc  p
p p(p − 1) h
p/2
i2/p
E [(Mt∗ )p ] ≤ E [(Mt∗ )p ](p−2)/p E ⟨M ⟩t .
p−1 2
En divisant les deux côtés par E [(Mt∗ )p ](p−2)/p et en faisant tendre t → +∞ par convergence
monotone nous obtenons le résultat souhaité. □

Corollaire 6.6.3 (Théorème de Burkholder-Davis-Gundy). Pour tout p > 0, il existe


des constantes cp , Cp > 0 telles que, pour toute martingale locale (Mt )t≥0 issue de 0,
∗ p
cp E ⟨M ⟩p/2 ) ] ≤ Cp E ⟨M ⟩p/2
   
∞ ≤ E [(M∞ ∞ .

Preuve. La première inégalité a été prouvée dans le lemme 6.6.1 pour p ≥ 4, la deuxième
dans le lemme précédent pour p ≥ 2. Pour le cas général, on peut consulter l’ouvrage de
Revuz-Yor (chapitre 5). □
Si τ est un temps d’arrêt, en remplaçant M par la martingale locale arrêtée M τ , nous
obtenons
cp E ⟨M ⟩p/2 ≤ E [(Mτ∗ )p ] ≤ Cp E ⟨M ⟩p/2
   
τ τ .
Chapitre 7

Équations différentielles stochastiques

Ce dernier chapitre consiste en une introduction à la théorie des équations différentielles


stochastiques. On y étudie seulement les ingrédients essentiels de la théorie, à savoir les
notions de solutions fortes et faibles, l’existence et unicité de solution d’une équation diffé-
rentielle à coefficients lipschitziens, ainsi que la propriété de Markov forte de cette solution.

7.1. Solutions faibles et fortes

Les équations différentielles stochastiques (EDS) peuvent être vues comme des équations
différentielles, ou comme des équations intégrales dans lesquelles interviennent des intégrales
stochastiques par rapport à un mouvement brownien. Elles ont été d’abord étudiées par
Itô, dans le but de construire les diffusions (c’est-à-dire, processus continus et fortement
markoviens dont les générateurs sont des opérateurs différentiels du second ordre). C’est
d’ailleurs dans ce but qu’il a introduit le calcul stochastique.
Un point de vue plus moderne consiste à voir les EDS comme des équations différen-
tielles ordinaires, perturbées par un bruit aléatoire. Typiquement, on considère une équation
différentielle de la forme y ′ (t) = b(t, y(t)), que l’on écrit sous forme différentielle dyt =
b(t, yt ) dt. On la perturbe en ajoutant un bruit de la forme σB, où B est un mouvement
brownien, et σ > 0 est une constante (qui représente l’intensité du bruit). On obtient l’EDS
dyt = b(t, yt ) dt + σ dBt , c’est-à-dire sous forme intégrale
Z t
yt = y0 + b(s, ys ) ds + σBt .
0

Plus généralement, on peut autoriser σ à dépendre du temps t et de l’état au temps t,


c’est-à-dire σ = σ(t, yt ), et on peut considérer un instant initial s ≥ 0 de sorte que l’EDS
devient
Z t Z t
yt = y0 + b(s, ys ) du + σ(s, ys ) dBs
0 0
où l’intégrale stochastique est dans le sens d’Itô.
On se donne une définition formelle (et multi-dimensionnelle).

91
92 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Définition 7.1.1. Soient d ≥ 1 et m ≥ 1 des entiers, σ : R+ × Rd → Rd×m et


b : R+ × Rd → Rd mesurables et localement bornées. On écrit σ = (σij )1≤i≤d, 1≤j≤m et
b = (bi )1≤i≤d . On considère l’EDS suivante que l’on appelle Ex (σ, b, s) :

 dXt = σ(t, Xt ) dBt + b(t, Xt ) dt, t≥0

X0 = x

On dit que E(σ, b) admet une solution s’il existe :


• un espace probabilisé filtré (Ω, F , (Ft ), P) vérifiant les conditions habituelles ;
• sur cet espace, un (Ft )-mouvement brownien B = (B 1 , · · · , B m ) ;
• un processus X = (X 1 , · · · , X d ) qui est (Ft )-adapté et continu, tel que
Z t Z t
Xt = X0 + σ(s, Xs ) dBs + b(s, Xs ) ds ;
0 0
c’est-à-dire pour tout 1 ≤ i ≤ d,
Xm Z t Z t
i i j
Xt = X0 + σij (s, Xs ) dBs + bi (s, Xs ) ds.
j=1 0 0

Lorsque de plus X0 = x ∈ Rd , on dira que (Ω, F , (Ft ), P, B, X) est une solution de Ex (σ, b).

Définition 7.1.2. (i) On dit qu’il y a existence faible pour E(σ, b), si pour tout x ∈ Rd ,
il existe une solution de Ex (σ, b).
(ii) On dit qu’il y a unicité faible pour E(σ, b) si pour tout x ∈ Rd , toutes les solutions
de Ex (σ, b) ont la même loi.

L’unicité faible est aussi appelée unicité en loi car elle concerne la loi de X.

Exemple 7.1.3. Soit β un mouvement brownien réel issu de x. On pose


Z t
Bt := sgn(βs ) dβs ,
0
avec la convention sgn(u) = 1 si u > 0 et sgn(u) = −1 si u ≤ 0. Le Théorème 6.3.1 de Lévy
Rt
nous dit que B est un mouvement brownien issu de 0. Comme βt = x + 0 sgn(βs ) dBs , on
voit qu’il y a existence faible pour l’EDS
dXt = sgn(Xt ) dBt ,
car, d’après le théorème 6.3.1 de Lévy, toute solution issue de x est un mouvement brownien.

Exemple 7.1.4 (résolution par le Théorème de Girsanov). On s’intéresse à l’EDS


dXt = dBt + b(t, Xt ) dt, X0 = x,
7.1. SOLUTIONS FAIBLES ET FORTES 93

où b : R+ × Rd → R est une fonction borélienne bornée et B = B (d) est un mouvement


brownien de dimension d.
On se donne l’espace canonique (Ω, F , (Ft ), W) du mouvement brownien (Xt ). On in-
troduit
t
1 t
Z Z 
2
Q|Ft := exp b(s, Xs ) dXs − |b(s, Xs )| ds W|Ft .
0 2 0
Par le Théorème de Novikov, la probabilité Q est bien définie. On pose Bt := Xt − x −
Rt
0
b(s, Xs ) ds. D’après le Théorème de Girsanov, (Bt ) est un Q-mouvement brownien. Donc
(Ω, F , (Ft ), Q, B, X) est une solution. □

Exemple 7.1.5 (norme carrée du mouvement brownien de dimension d). On revient à


l’exemple 6.4.9 : soit B = (B 1 , · · · , B d ) un mouvement brownien à valeurs dans Rd (d ≥ 2),
issu de x ∈ Rd avec ∥x∥2 = a. Par la formule d’Itô,
d
X
2
d(∥Bt ∥ ) = 2 Bti dBti + d dt.
i=1

Nous définissons
Z tXd
Bui
βt := dBui
0 i=1 ∥Bu ∥
et nous voyons facilement que β est une martingale dans L2 continue avec ⟨β⟩t = t, i.e. β
est un mouvement brownien réel. Puisque
Xd Z t Z t
i i
Bu dBu = ∥Bu ∥ dβu
i=1 0 0

nous obtenons que ∥Bt ∥2 et β donnent une solution faible de l’EDS


Z tp
Xt = a + dt + 2 Xu dβu , t ≥ 0.
0

Exemple 7.1.6 (résolution par changement de temps). On s’intéresse à l’EDS

dXt = σ(Xt ) dBt ,

où σ : R → R∗+ est une fonction continue.


On se donne un espace filtré (Ω, F , (Ft ), P) (vérifiant les conditions habituelles) et
Rt
un (Ft )-mouvement brownien (βt ), issu de x. On pose Mt := 0 σ(β1 s ) dβs . Ainsi, ⟨M ⟩t =
Rt 1
0 σ 2 (βs )
ds, qui est continu et strictement croissant. Comme β est récurrent, on voit que
⟨M ⟩∞ = ∞ p.s.
94 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Soit τ (t) := inf{s : ⟨M ⟩s > t}. Donc ⟨M ⟩τ (t) = τ⟨M ⟩t = t. D’après le théorème de
Dubins–Schwarz, Bt := Mτ (t) est un (Fτ (t) )-mouvement brownien.
Admettons pour l’instant la formule de changement de variables
Z τ (t) Z t
Hs dMs = Hτ (s) dMτ (s) , (7.34)
0 0

pour tout H processus (progressif) localement borné. (En général, ce genre de changement
de temps reste valable si M reste constante sur ]τs− , τs [ .) On pose
Z τ (t) Z τ (t) Z t
Xt := βτ (t) = x + dβs = x + σ(βs ) dMs = x + σ(Xs ) dBs .
0 0 0

Donc (Ω, F , (Fτ (t) ), P, B, X) est une solution.


Il reste à vérifier (7.34). On montre d’abord que si N est une (Ft )-martingale locale
continue issue de 0, alors N
et := Nτ (t) est une (Fτ (t) )-martingale locale continue. Soit (Tn ) une
suite de (Ft )-temps d’arrêt telle que N Tn soit une (Ft )-martingale uniformément intégrable.
Posons Sn := ⟨M ⟩Tn . On a {Sn > t} = {Tn > τt } ∈ Fτ (t) ; donc chaque Sn est un (Fτ (t) )-
temps d’arrêt. Comme N et∧Sn = Nτ (t)∧τ (Sn ) = Nτ (t)∧Tn , et N Tn est une martingale continue
uniformément intégrable, le théorème d’arrêt implique que pour s ≤ t, E[N et∧Sn | Fτ (s) ] =
N e Sn est une (Fτ (t) )-martingale. Donc Nτ (t) est une (Fτ (t) )-martingale
es∧Sn , c’est-à-dire que N
locale.
En remplaçant N par N 2 − ⟨N ⟩, on voit que Nτ2(t) − ⟨N ⟩τ (t) est une (Fτ (t) )-martingale
locale. Donc la variation quadratique de Nτ (t) (en tant que (Fτ (t) )-martingale locale), que l’on
notera par ⟨⟨N ⟩⟩t , est égale à ⟨N ⟩τ (t) . Par polarisation et avec notation similaire, ⟨⟨N
e , L⟩⟩
e t=
⟨N, L⟩τ (t) si N et N
e sont deux martingales locales.
Rt R τ (t)
En résumé, Mτ (t) (donc 0 Hτ (s) dMτ (s) ) et 0 Hs dMs sont des (Fτ (t) )-martingales lo-
R τ (t) Rt
cales. Pour montrer (7.34), il suffit de montrer que ⟨⟨ 0 Hs dMs − 0 Hτ (s) dMτ (s) ⟩⟩ = 0. Or,
cette variation quadratique à l’instant t est, d’après l’identité ⟨⟨N e t = ⟨N, L⟩τ (t) ,
e , L⟩⟩

= ⟨⟨H
] ·M − Hτ (·) · M
f⟩⟩t

= ⟨⟨H
] ·M ⟩⟩t + ⟨⟨Hτ (·) · M
f⟩⟩t − 2⟨⟨H
] ·M , Hτ (·) · M
f⟩⟩t

= ⟨H · M ⟩τ (t) + (Hτ2(·) · ⟨⟨M


f⟩⟩)t − 2(Hτ (·) · ⟨⟨H
] ·M , M
f⟩⟩)t

= (H 2 · ⟨M ⟩)τ (t) + (Hτ2(·) · ⟨M ⟩τ (·) )t − 2(Hτ (·) · ⟨H · M, M ⟩τ (·) )t


= (H 2 · ⟨M ⟩)τ (t) + (Hτ2(·) · ⟨M ⟩τ (·) )t − 2(Hτ (·) · (H · ⟨M ⟩)τ (·) )t
= 0,

la dernière identité provenant de la formule suivante de changement de variables pour l’in-


tégrale de Stieltjes. Soient A : R+ → R+ et α : R+ → R+ deux fonctions continues et
7.1. SOLUTIONS FAIBLES ET FORTES 95

croissantes telles que A(0) = α(0) = 0. Alors pour toute fonction f : R+ → R+ mesurable,
Z t Z α(t)
f (α(s)) dA(α(s)) = f (u) dA(u). (7.35)
0 0

Il suffit de remarquer que la mesure dA est la mesure image de dA(α(s)) par l’application
α : [0, t] → [0, α(t)]. (Rappel : si ν est la mesure image de µ par l’application φ : E → F ,
R R
alors E f (φ) dµ = F f dν.) Or, ceci est tout à fait évident. En effet, soit ν la mesure image
de µ := dA(α(s)) par l’application α, alors par définition, pour tout [a, b] ⊂ [0, α(t)],

ν( ]a, b]) = µ({s ∈ [0, t] : a < α(s) ≤ b})


= µ( ]β(a), β(b)]) β(r) := inf{s : α(s) > r}; {s > β(r)} ⇔ {α(s) > r}
= A(α(β(b))) − A(α(β(a))) définition de µ
= A(b) − A(a), α(β(r)) = r,

ce qui signifie que ν = dA.

Définition 7.1.7. (i) On dit que l’EDS E(σ, b) a la propriété d’unicité trajectorielle
e associées au même espace (Ω, F , (Ft ), P) et au
si, pour tout x ∈ Rd , deux solutions X et X
même mouvement brownien B telles que X0 = X e0 p.s., sont indistinguables.
(ii) Fixons un espace filtré (Ω, F , (Ft ), P) (satisfaisant les conditions habituelles) et un
(Ft )-mouvement brownien B.
On dit que qu’un solution (Ω, F , (Ft ), P, B, X) de Ex (σ, b) est forte si X est adapté à
la filtration canonique de B.

Exemple 7.1.8. Considérons l’EDS suivante :

dXt = sgn(Xt ) dBt .

On a vu l’existence et unicité faible pour cette EDS dans l’Exemple 7.1.3. Il n’y a en revanche
pas d’unicité trajectorielle de cette EDS. En effet, si X est une solution de l’EDS avec
X0 = 0, alors −X est aussi une solution : remarquons que X est un mouvement brownien
et la martingale 0 1{Xs =0} dBs = 0 car sa variation quadratique 0 1{Xs =0} ds est p.s. nulle.
Rt Rt

Cette EDS n’a pas de solution forte. Si X est une solution issue d’une valeur détermi-
niste, on peut montrer que la filtration canonique de X coïncide avec celle de |B|, qui est
strictement plus petite que celle de B. □

Exemple 7.1.9. Considérons l’EDS suivante :

dXt = λXt dBt ,


96 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

avec λ ∈ R. D’après le Théorème 7.2.2 ci-dessous il y a unicité trajectorielle et d’après le


λ2
Théorème 6.2.1, pour tout x, l’unique solution forte de Ex (σ, b) est Xt = xeλBt − 2
t
. □

Le théorème suivant, que l’on admettra sans preuve, relie les différentes notions d’exis-
tence et d’unicité.

Théorème 7.1.10 (Yamada–Watanabe). S’il y a existence faible et unicité trajectorielle,


alors il y a aussi unicité faible. De plus, dans ce cas, pour tout espace filtré (Ω, F , (Ft ), P) et
tout (Ft )-mouvement brownien B, il existe pour chaque x ∈ Rd une (unique) solution forte
de Ex (σ, b).

7.2. Coefficients lipschitziens

On établit dans cette section l’existence forte et l’unicité trajectorielle pour une famille
importante de coefficients. Durant toute la section, on a l’hypothèse suivante sur les coeffi-
cients.

Hypothèse 7.2.1. Les fonctions σ et b sont continues sur R+ × Rd , et il existe une


constante finie L telle que
|σ(t, x) − σ(t, y)| + |b(t, x) − b(t, y)| ≤ L|x − y|, ∀ t ≥ 0, ∀ x, y ∈ Rd
et |b(t, 0)| + |σ(t, 0)| ≤ L, for all t ≥ 0.

Théorème 7.2.2. Sous l’Hypothèse 7.2.1, il y a unicité faible et unicité trajectorielle pour
E(σ, b). De plus, pour tout espace filtré (Ω, F , (Ft ), P) et tout (Ft )-mouvement brownien B,
il existe pour chaque x ∈ Rd une (unique) solution forte de Ex (σ, b).

Pour simplifier l’écriture, on ne traite que le cas où d = m = 1. La preuve du cas général


est la même, avec une attention dans les notations au fait que σ est une matrice plutôt qu’un
scalaire.

Remarque 7.2.3. (i) Le théorème entraîne en particulier qu’il y a existence faible


pour E(σ, b). L’unicité faible découlera de l’unicité trajectorielle et du Théorème 7.1.10 de
Yamada–Watanabe.
(ii) Il est possible d’affaiblir l’Hypothèse 7.2.1. Par exemple, l’hypothèse de continuité
en la variable t n’intervient que pour majorer supt∈[0,T ] |σ(t, x)| et supt∈[0,T ] |b(t, x)| pour x
fixé. On peut aussi “localiser" l’hypothèse sur le caractère lipschitzien de σ et b (la constante
K dépendra du compact sur lequel on considère t et x, y), à condition de conserver une
condition de croissance linéaire
|σ(t, x)| ≤ K(1 + |x|), |b(t, x)| ≤ K(1 + |x|).
7.2. COEFFICIENTS LIPSCHITZIENS 97

Ce type de condition, qui sert à éviter l’explosion de la solution, intervient déjà dans les
équations différentielles ordinaires. □

Soit K ≥ 0, T ≥ s ≥ 0 et pour tout processus (Xt )t∈[s,T ] continu et adapté on définit


Xt∗ := supu∈[s,t] |Xu | et ∥X∥K := supt∈[s,T ] e−Kt ∥Xt∗ ∥L2 . On note par Es,T l’espace des pro-
cessus (Xt )t∈[s,T ] continus et adaptés tels que ∥XT∗ ∥L2 < +∞ ; on voit facilement que pour
tout K ≥ 0 cet espace, muni de ∥ · ∥K , est de Banach et que toutes les normes (∥ · ∥K )K≥0
sont équivalentes sur Es,T .
Si η est une v.a. Fs -mesurable à valeurs dans Rd de carré intégrable, et X ∈ Es,T , soit
Γη (X) := Y défini par
Z t Z t
Yt := η + b(u, Xu ) du + σ(u, Xu ) dBu , t ∈ [s, T ].
s s

Lemme 7.2.4.
(1) Pour tout X ∈ Es,T , Γη (X) ∈ Es,T .
(2) Pour η i ∈ Rd , X i ∈ Es,T , i = 1, 2, et Y i := Γηi (X i ), en définissant Ut := |Yt1 − Yt2 |,
Vt := |Xt1 − Xt2 |, si K > 0 alors
∥U ∥K ≤ ∥η 1 − η 2 ∥L2 + L C(K) ∥V ∥K , lim C(K) = 0. (7.36)
K→+∞

Preuve. Remarquons d’abord que par l’Hypothèse 7.2.1 il existe C > 0 tel que
|b(·, x)| + |σ(·, x)| ≤ C(1 + |x|), x ∈ Rd .
Alors si Y := Γη (X) et X ∈ Es,T :
Z t Z t
|Yt | ≤ |η| + C (1 + |Xu |) du + σ(u, Xu ) dBu .
s s
2
Par l’inégalité de Doob pour les martingales dans L
" #
Z r 2 Z t 
2
E sup σ(u, Xu ) dBu ≤ 4E σ (u, Xu ) du
r∈[s,t] s s
Z t  Z t
2 2 2
≤ 8C E (1 + |Xu | ) du = 8C (1 + ∥Xu ∥2L2 ) du.
s s
Donc si C0 := 4C
Z t Z t  21
∥Yt∗ ∥L2 ≤ ∥η∥L2 + C (1 + ∥Xu ∥L2 ) du + C0 (1 + ∥Xu ∥2L2 ) du
s s
et nous obtenons que Γη : Es,T 7→ Es,T .
Nous prouvons maintenant le deuxième résultat. Nous avons
Z t Z t
1 2
σ(u, Xu1 ) − σ(u, Xu2 ) dBu .

Ut ≤ |η − η | + L Vu du +
s s
98 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Par l’inégalité de Doob pour les martingales dans L2


" #1  21
Z r 2 2  Z t
1 2
2
σ(u, Xu1 ) σ(u, Xu2 )

E sup σ(u, Xu ) − σ(u, Xu ) dBu ≤2 E − du
r∈[s,t] s s
 Z t  12 Z t  12
Vu2 du = 2L E Vu2 du .
 
≤ 2L E
s s

Donc
"Z
t Z t  21 #
e−Kt ∥Ut∗ ∥L2 ≤ ∥η 1 − η 2 ∥L2 + Le−Kt ∥Vu ∥L2 du + 2 ∥Vu ∥2L2 du
s s
"Z
t Z t  21 #
≤ ∥η 1 − η 2 ∥L2 + Le−Kt ∥V ∥K eKu du + 2 e2Ku du
s s
  12 !
1 2
≤ ∥η 1 − η 2 ∥L2 + L + ∥V ∥K .
K K

1 2
 12
Donc C(K) := K
+ K
→ 0 quand K → +∞. □

Proposition 7.2.5. Soit T ≥ s ≥ 0 et η une v.a. Fs -mesurable à valeurs dans Rd de


carré intégrable. Il existe un unique processus X(s, ·, η) ∈ Es,T tel que
Z t Z t
X(s, t, η) = η + b(u, X(s, u, η)) du + σ(u, X(s, u, η)) dBu , t ∈ [s, T ]. (7.37)
s s

Si p.s. η ≡ x une constante, alors X(s, t, x) est σ(Br − Bs , r ∈ [s, t])-mesurable.

Preuve. Par le lemme 7.2.4, nous savons que Γη : Es,T 7→ Es,T et que si K est suffisamment
grand (ici η 1 = η 2 )

∥Γη (X 1 ) − Γη (X 2 )∥K ≤ δ ∥X 1 − X 2 ∥K , δ < 1.

Donc si K est suffisamment grand, Γη est une contraction dans Es,T muni de la norme ∥ · ∥K .
En particulier, il existe un seul point fixe X de Γη et de plus ∥Z n −X∥K → 0 quand n → +∞,

Zt0 := η, t ∈ [s, T ], Z n+1 := Γη (Z n ).
Par récurrence nous voyons que Ztn est σ(Br − Bs , r ∈ [s, t])-mesurable pour tout n et donc
B l’est aussi par passage à la limite en n. □

Preuve du Théorème 7.2.2. L’existence d’une solution forte est donnée par la Proposition
7.2.5. Nous prouvons l’unicité trajectorielle.
7.2. COEFFICIENTS LIPSCHITZIENS 99

Soient X et X
e deux solutions (sur le même espace, avec le même mouvement brownien),
telles que X0 = X
e0 . Fixons M > 0. Posons
n o
τ := inf t ≥ 0 : |Xt | + |X
et | ≥ M .

Pour tout t ≥ 0,
Z t∧τ Z t∧τ
Xt∧τ = X0 + σ(u, Xu ) dBs + b(u, Xu ) du,
0 0
e à la place de X. En définissant Ut := |Xt − X
et on a une équation similaire pour X et |
Z t∧τ Z t∧τ  
Ut∧τ ≤ L Uu du + σ(u, Xu ) − σ(u, X
eu ) dBu .
0 0

Par l’inégalité de Doob pour les martingales dans L2


" #
Z r∧τ   2 Z t∧τ  2 
E sup σ(u, Xu ) − σ(u, Xu ) dBu
e ≤ 4E σ(u, Xu ) − σ(u, X
eu ) du
r∈[0,t] 0 0
Z t∧τ  Z t
2
Uu2 2
 2 
≤ 4L E du ≤ 4L E Uu∧τ du.
0 0
Donc pour tout K ≥ 0 et T ≥ 0
"Z
t Z t  21 #
e−Kt ∥Ut∧τ

∥L2 ≤ Le−Kt ∥Uu∧τ ∥L2 du + ∥Uu∧τ ∥2L2 du
0 0
"Z
t Z t  12 #
≤ Le−Kt ∥U·∧τ ∥K eKu du + 2 e2Ku du
0 0
r !
1 2
≤L + ∥U·∧τ ∥K .
K K
Si K est suffisamment grand, nous obtenons ∥U·∧τ ∥K ≤ δ∥U·∧τ ∥K avec δ < 1, et ceci est
possible seulement si ∥U·∧τ ∥K = 0. En faisant tendre M → +∞, nous trouvons que X et X
e
sont indistinguables sur [0, T ].
Reste à prouver l’unicité faible. Ce résultat suit du Théorème 7.1.10 de Yamada-Watanabe
et du Théorème 7.2.2, mais on peut donner aussi une preuve plus directe. Soit (X, B) une so-
lution faible de Ex (σ, b) définie sur un espace filtré (Ω, F , (Ft ), P). Nous pouvons considérer
sur cet espace de probabilité l’équation (7.37) dirigée par le mouvement brownien B. Comme
nous l’avons montré dans la preuve de la proposition 7.2.5, en définissant les processus
Zt0 := x, t ∈ [s, T ], Z n+1 := Γx (Z n ),
nous avons que ∥Z n − X̃∥K → 0 quand n → +∞ où X̃ est une solution de Ex (σ, b) ; par
construction, la loi de X̃ dépend uniquement de x et des coefficients b et σ. Puisque le
100 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Théorème 7.2.2 donne unicité trajectorielle pour Ex (σ, b), alors X et X̃ sont indistinguables
et ont donc la même loi. Nous avons ainsi prouvé que toute solution faible de Ex (σ, b) a la
même loi. □

Exemple 7.2.6. Soit B un mouvement brownien standard, et soit Xt := sh(Bt + t), où


sh(x) := (ex − e−x )/2. D’après la formule d’Itô,
1
dXt = ch(Bt + t) d(Bt + t) + sh(Bt + t) dt
p 2 
p 1
= 1 + Xt2 dBt + 1 + Xt2 + Xt dt.
2
p p
On s’intéresse maintenant à l’EDS dXt = 1 + Xt2 dBt + ( 1 + Xt2 + 12 Xt ) dt avec X0 =
x ∈ R.
√ √ x
Les fonctions σ(t, x) := 1 + x2 et b(t, x) := 1 + x2 + 2
satisfont l’Hypothèse 7.2.1.
D’après le Théorème 7.2.2, il y a unicité trajectorielle pour cette EDS. Or, sh(Bt + t + y) (où

y est tel que sh(y) = x, c’est-à-dire y := ln(x + 1 + x2 )) est une solution, ce qui implique
que Xt = sh(Bt + t + y). □

Exemple 7.2.7. Considérons l’EDS sur R :

dXt = αXt dBt + βXt dt,

avec condition initiale X0 = x. Le Théorème 7.2.2 nous garantit l’unicité trajectorielle de


l’EDS.
Dans le cas particulier où β = 0, la solution de dXt = αXt dBt (avec X0 = x) est la
α2
martingale exponentielle Xt = xeαBt − 2
t
.
Dans le cas général, on vérifie facilement par la formule d’Itô que la solution est Xt =
α2
xeαBt +(β− 2 )t . Ce processus, qui est souvent utilisé pour modéliser le cours d’une action en
mathématiques financières, est appelé le mouvement brownien géométrique. □

Exemple 7.2.8. Soit


dXt = |Xt | dBt + Xt dt,
tel que X0 = x ∈ R.
Les fonctions σ(t, x) := |x| et b(t, x) := x satisfont l’Hypothèse 7.2.1. D’après le Théorème
7.2.2, il y a unicité trajectorielle pour cette EDS. Si x = 0, la constante 0 est évidemment
une solution, ce qui implique que Xt = 0 dans ce cas. Si x > 0, alors l’exemple précédent
1
(avec α = β = 1) montre que Xt = xeBt + 2 t ≥ 0 est la seule solution. Si x < 0, alors l’exemple
1
précédent (avec −α = β = 1) montre que Xt = xe−Bt + 2 t ≤ 0 est la seule solution. □
7.3. PROCESSUS DE MARKOV 101

7.3. Processus de Markov

Un processus (Xt )t≥0 à valeurs dans un espace mesurable (E, E ) est markovien si, pour
faire une prédiction sur son futur, on a exactement les mêmes informations si on connait toute
la trajectoire passée ou seulement l’état présent. Dans cette section nous allons formaliser
cette idée.

Définition 7.3.1. Une famille (ps,t (x, ·))0≤s≤t,x∈E de mesures de probabilités sur (E, E )
est dite un noyau de transition si
(1) pour tout A ∈ E l’application (s, t, x) 7→ ps,t (x, A) est mesurable
(2) pour tout A ∈ E et 0 ≤ s ≤ r ≤ t nous avons la relation de Chapman-Kolmogorov
Z
ps,t (x, A) = pr,t (y, A) ps,r (x, dy), ∀ x ∈ E,
E
et ps,s (x, ·) = δx .
Si pour tout t, s ≥ 0 nous avons ps,s+t = p0,t =: pt alors le noyau est dit homogène. Dans ce
cas la relation de Chapman-Kolmogorov devient
Z Z
ps+t (x, A) = pt (y, A) ps (x, dy) = ps (y, A) pt (x, dy), ∀ x ∈ E, t, s ≥ 0.
E E

Définition 7.3.2. Soit (ps,t (x, ·))0≤s≤t,x∈E un noyau de transition sur (E, E ). Un pro-
cessus adapté sur un espace filtré (Ω, F , (Ft ), P) à valeurs dan E est dit markovien avec
noyau de transition (ps,t (x, ·)) si pour toute f : E 7→ R+ mesurable
E(f (Xt ) | Fs ) = Ps,t f (Xs ) p.s.
R
où Ps,t f (x) := f (y) ps,t (x, dy). Si le noyau est homogène, le processus est dit homogène
R
aussi et l’on note Pt f (x) := f (y) pt (x, dy).

La relation de Chapman-Kolmogorov implique que


Ps,r Pr,t = Ps,t , 0≤s≤r≤t
et dans le cas homogène Pt+s = Pt Ps = Ps Pt pour tous t, s ≥ 0, i.e. (Pt )t≥0 forme un
semigroupe.
Nous nous intéressons de processus à valeurs dans Rd . Nous considérons l’espace cano-
nique C(R+ , Rd ) et le processus canonique (Xt , t ≥ 0), où Xt : C(R+ , Rd ) → Rd , Xt (w) := wt ,
t ≥ 0. Nous notons FtX := σ(Xs , s ∈ [0, t]) et F X := σ(Xs , s ≥ 0).

Théorème 7.3.3. Soit (pt (x, ·)) un noyau de transition homogène sur Rd et ν une me-
sure de probabilité sur Rd . Alors il existe au plus une mesure de probabilité Pν sur l’espace
102 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

canonique telle que


Pν (Xti ∈ Ai , i = 0, . . . , n) =
Z Z Z Z
(7.38)
= ν(dx0 ) pt1 (x0 , dx1 ) pt2 −t1 (x1 , dx2 ) · · · ptn −tn−1 (xn−1 , dxn )
A0 A1 A2 An

pour tout choix de 0 = t0 < t1 < · · · < tn et Ai ∈ B(Rd ). Si ν = δx avec x ∈ Rd alors nous
notons Px := Pν . Le processus canonique est markovien sur (C(R+ , Rd ), F X , (FtX ), Pν ).

Preuve. Soit P := 0=t0 ≤t1 <···<tn ,n∈N σ(Xti , i = 0, . . . , n). Alors P ⊂ F X est un π-système
S

(i.e. stable par intersection finie) ; en plus, Pν est uniquement déterminée sur P par (7.38).
Par le lemme de la classe monotone nous obtenons l’unicité de Pν . □

Le Théorème d’extension de Kolmogorov permet d’étendre Px : P 7→ [0, 1] à une mesure


de probabilité sur l’espace (Rd )R+ muni de la plus petite tribu qui rend mesurable le processus
canonique ; d’autre part les mesures ainsi définies ne sont pas nécessairement supportés par
C(R+ , R). Quand nous étudierons les diffusions, par exemple dans la section 7.4, nous verrons
comment construire de telles mesures de probabilités.

Définition 7.3.4. Soit (pt (x, ·)) un noyau de transition homogène sur Rd . Si (Px )x∈Rd
est une famille de mesures de probabilités sur (C(R+ , Rd ), F X ) satisfaisant
Px (Xti ∈ Ai , i = 1, . . . , n) =
Z Z Z
(7.39)
= pt1 (x, dx1 ) pt2 −t1 (x1 , dx2 ) · · · ptn −tn−1 (xn−1 , dxn )
A1 A2 An

pour tout choix de 0 ≤ t1 < · · · < tn et Ai ∈ B(Rd ), alors (Px )x∈Rd est dite une famille
markovienne associée au noyau p.

Si (Px )x∈Rd est une famille markovienne, pour toute mesure de probabilité ν sur Rd on
définit la mesure de probabilité sur l’espace canonique
Z
Pν := ν(dx) Px .
Rd

Exemple 7.3.5. Si Wx est la loi de (x + Bt )t≥0 , où B est un MB, alors par la Proposition
2.3.1 (Wx )x∈R forme une famille markovienne avec noyau de transition homogène pt (x, ·) =
N (x, t), car si 0 < t1 < · · · < tn et Ai ∈ B(R) :

Wx (Xt1 ∈ A1 , · · · , Xtn ∈ An )
n
!
1 X (xk − xk−1 )2
Z
1
= p exp − dx1 · · · dxn ,
A1 ×···×An (2π)
n/2 t1 (t2 − t1 ) · · · (tn − tn−1 ) 2 k=1 tk − tk−1
avec x0 := x.
7.4. PROPRIÉTÉ DE MARKOV ET DIFFUSIONS 103

Exemple 7.3.6. Soit v ∈ R fixé et Px la loi de (x + vt + Bt )t≥0 . On peut montrer


que (Px )x∈R forme une famille markovienne avec noyau de transition homogène pt (x, ·) =
N (x + vt, t) (exercice !).

Exemple 7.3.7. Soit λ > 0 fixé et pt (x, ·) = N (e−λt x, (1−e−2λt )/(2λ)). On peut montrer
que (pt (x, ·))t≥0,x∈R est un noyau de transition homogène sur R (exercice !).

7.3.1. Propriété de Markov simple. Nous introduisons l’opérateur de décalage sur


l’espace canonique (shift en anglais) :
θs : C(R+ , Rd ) 7→ C(R+ , Rd ), θs (w) := ws+· , s ≥ 0.
Alors une famille Markovienne satisfait la propriété de Markov simple :

Théorème 7.3.8. Pour toute F : C(R+ , Rd ) 7→ R+ mesurable, s ≥ 0 et pour toute


mesure de probabilité ν sur (Rd , B(Rd )) :
Eν F ◦ θs | FsX = EXs [F ],
 
Pν − p.s.
où Eν est l’espérance sous Pν .
Preuve. Par linéarité il suffit de considérer ν = δx , x ∈ Rd , et de montrer que pour tout
A ∈ FsX
Ex [1A F ◦ θs ] = Ex [1A EXs [F ]].
Par le lemme de la classe monotone, il suffit de considérer A = {(Xti ∈ Ai , i = 1, . . . , n) avec
0 ≤ t1 ≤ · · · ≤ tn = s et Ai ∈ B(Rd ) et F (w) = f (wu1 , . . . , wum ) avec 0 < u1 < . . . < um .
Alors la formule souhaitée est une simple conséquence de (7.38) :
Ex [1A F ◦ θs ] = Ex 1(Xti ∈Ai ,i=1,...,n) f (Xs+uj , j = 1, . . . , m)
 
Z
= pt1 (x, dy1 ) · · · ps−tn−1 (yn−1 , dyn ) f (yn+1 , . . . , yn+m ) ·
A1 ×···×An ×(Rd )m
· pu1 (yn , dyn+1 ) pu2 −u1 (yn+1 , dyn+2 ) · · · pum −um−1 (yn+m−1 , dyn+m )
= Ex [1A EXs [F ]].

7.4. Propriété de Markov et diffusions

Par le Théorème 7.2.2, sous l’Hypothèse 7.2.1 l’équation E(σ, b) satisfait l’unicité faible,
l’unicité trajectorielle et l’existence de solutions fortes.
Etant donnés un espace filtré (Ω, F , (Ft ), P) et un (Ft )-mouvement brownien B, nous
avons vu dans la Proposition 7.2.5 comment construire une solution de E(σ, b) adapté à la
104 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

filtration canonique de B. Nous nous intéressons maintenant à la propriété de Markov des


solutions.

7.4.1. Le cas général. Nous considérons à nouveau le processus (X(s, t, x))0≤s≤t,x∈Rd


défini par (7.37) et nous supposons que les coefficients satisfont l’Hypothèse 7.2.1. Soit

ps,t (A) := P (X(s, t, x) ∈ A) , x ∈ Rd , t ≥ s ≥ 0, A ∈ B(Rd ).

Proposition 7.4.1. (ps,t (x, ·))x∈Rd ,0≤s≤t est un noyau de transition (voir la définition
7.3.1 ci-dessus).

Preuve. Par (7.37) nous avons que pour r ≥ s


Z r Z r
X(s, r, x) = x + b(u, X(s, u, x)) du + σ(u, X(s, u, x)) dBu .
s s

Si η := X(s, r, x), alors le processus t 7→ X(s, t, x) satisfait pour t ≥ r


Z t Z t
X(s, t, x) = x + b(u, X(s, u, x)) du + σ(u, X(s, u, x)) dBu
s s
Z t Z t
=η+ b(u, X(s, u, x)) du + σ(u, X(s, u, x)) dBu
r r

alors que par définition pour t ≥ r


Z t Z t
X(r, t, η) = η + b(u, X(r, u, η)) du + σ(u, X(r, u, η)) dBu .
r r

Par le résultat d’unicité de la Proposition 7.2.5, nous obtenons que pour tous 0 ≤ s ≤ r ≤ t
p.s.
X(r, t, X(s, r, x)) = X(s, t, x). (7.40)

De plus, X(s, r, x) est Fr -mesurable alors que X(r, t, ·) est σ(Bu − Br , u ≥ r)-mesurable et
donc indépendant de Fr . Nous obtenons pour toute f : Rd → R mesurable et non-négative
Ps,t f (x) :=E [f (X(s, t, x))] = E [f (X(r, t, X(s, r, x)))] = E [E [f (X(r, t, X(s, r, x))) | Fr ]]
=E [Pr,t f (X(s, r, x))] = Ps,r Pr,t f (x).
Ceci conclut la preuve. □

La relation de Chapman-Kolmogorov pour le noyau de transition est donc une consé-


quence de la formule (7.40) et des propriétés d’indépendance du mouvement brownien. La
formule (7.40) suit de l’unicité trajectorielle.
7.4. PROPRIÉTÉ DE MARKOV ET DIFFUSIONS 105

7.4.2. Le cas homogène. Dans cette section, on suppose l’Hypothèse 7.2.1 et la pro-
priété suivante
σ(t, x) = σ(x), b(t, x) = b(x), (7.41)
c’est-à-dire que les coefficients ne dépendent pas du temps. Nous nous intéressons donc à
l’EDS Z t Z t
X(t, x) = x + b(X(u, x)) du + σ(X(u, x)) dBu , t≥0 (7.42)
0 0
qui satisfait unicité trajectorielle, unicité faible et existence de solutions fortes par le Théo-
rème 7.2.2. En particulier la loi Px de (X(t, x), t ≥ 0) est uniquement déterminée par (x, σ, b)
pour tout x ∈ Rd .
Remarquons que nous sommes en train de travailler avec deux (ou plusieurs) espaces de
probabilités. D’un côté nous avons un espace filtré (Ω, F , (Ft ), P) sur lequel est défini un
(Ft )-mouvement brownien B ; par la Proposition 7.2.5 nous construisons par une itération de
Picard une solution de (7.42) définie sur (Ω, F , (Ft ), P). De l’autre côté nous avons l’espace
canonique (C(R+ , Rd ), F X , (FtX )) sur lequel nous considérons les lois Px , pour x ∈ Rd .
On veut profiter de l’existence de ces deux points de vue, par exemple dans la preuve du
caractère markovien de (X(t, x), t ≥ 0, x ∈ Rd ).

Proposition 7.4.2. Si σ et b satisfont l’Hypothèse 7.2.1 et (7.42), alors il existe une


application mesurable Λ : Rd × C(R+ ; Rd ) 7→ C(R+ ; Rd ) telle que p.s. X(·, x) = Λ(x, B). En
particulier, la loi de Λ(x, B) est Px .

Preuve. Comme nous l’avons montré dans la preuve de la proposition 7.2.5, en définissant
les processus
Z t Z t
Zt0 := x, t ≥ 0, Ztn+1 := x + b(Zun ) du + σ(Zun ) dBu , t≥0
0 0

nous avons que ∥Z n −X(·, x)∥K → 0 quand n → +∞. Par récurrence Z n est une fonctionnelle
mesurable de (x, B) pour tout n et la limite X(·, x) l’est aussi. □

Théorème 7.4.3. (Px , x ∈ Rd ) forme une famille markovienne avec noyau de transition
pt (x, dy) := P(X(t, x) ∈ dy) (voir la définition 7.3.4).

Preuve. Pour tout s ≥ 0


Z t+s Z t+s
X(t + s, x) = X(s, x) + b(X(u, x)) du + σ(X(u, x)) dBu
s s
Z t Z t
= X(s, x) + b(X(u + s, x)) du + σ(X(u + s, x)) dBu(s) , t ≥ 0,
0 0
106 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

(s)
où Bt := Bt+s − Bs est un mouvement brownien independant de Fs et X(s, x) est Fs -
mesurable. Par la proposition 7.4.2, nous avons X(· + s, x) = Λ(X(s, x), B (s) ) et donc la loi
conditionnelle de X(· + s, x) sachant Fs est égale à PX(s,x) . □

Théorème 7.4.4 (Propriété de Markov forte). Sous l’Hypothèse 7.2.1 et (7.41), la famille
(Px , x ∈ Rd ) est fortement markovienne, i.e. si τ est un (FtX )-temps d’arrêt fini Px -p.s., et
si F : C(R+ , Rd ) → R+ est mesurable, alors

Ex F ◦ θτ | FτX = EXτ [ F ] ,
 
Px − p.s.

Remarque 7.4.5. Dans le cas particulier σ = Id, b = 0, ce théorème se réduit à la


propriété de Markov forte du mouvement brownien prouvée dans le Théorème 2.4.5. □

Preuve du Théorème 7.4.4. Soit (Gt ) la filtration canonique du mouvement brownien B.


On note (X(t, x))t≥0 la seule solution de (7.42). Soit ρ : Ω → [0, +∞[ défini par ρ :=
τ ◦ X(·, x) ; alors ρ est un (Gt )-temps d’arrêt p.s. fini. Nous allons prouver que pour toute
F : C(R+ , Rd ) → R+ mesurable, p.s.

E [ F (X(t + ρ, x))t≥0 | Gρ ] = EX(ρ,x) [F ] .

Par définition,
Z t+ρ Z t+ρ
X(t + ρ, x) − X(ρ, x) = σ(X(s, x)) dBs + b(X(s, x)) ds.
ρ ρ

Remarquons que X(ρ + ·, x) est continu et adapté à la filtration (Gt+ρ )t≥0 , donc progressif
(ρ)
par rapport à (Gt+ρ )t≥0 . Soit Bt := Bt+ρ −Bρ , t ≥ 0, qui est un (Gt+ρ )-mouvement brownien
indépendant de Gρ . Nous obtenons
Z t Z t
(ρ)
X(t + ρ, x) = X(ρ, x) + σ(X(u + ρ, x)) dBs + b(X(u + ρ, x)) ds.
0 0

Par la proposition 7.4.2, nous avons X(·+ρ, x) = Λ(X(ρ, x), B (ρ) ) et donc la loi conditionnelle
de X(· + ρ, x) sachant Gρ est égale à PX(ρ,x) . □

7.5. Le problème de martingale

Dans cette section on suppose que σ et b sont des fonctions boréliennes et localement
bornées satisfaisant (7.41).
Il est important de pouvoir attacher des martingales continues aux processus que nous
avons construits. On note Cck (Rd ) l’espace des fonctions sur Rd de classe C k à support
compact.
7.5. LE PROBLÈME DE MARTINGALE 107

Théorème 7.5.1. Supposons que (7.41) soit satisfaite. Soit f ∈ Cc2 (Rd ). Soit
d d d
1 XX ∂ 2f X ∂f
L f (x) := (σσ ∗ )ij (x) (x) + bi (x) (x), (7.43)
2 i=1 j=1 ∂xi ∂xj i=1
∂x i

où σ ∗ désigne la transposée de la matrice σ. Si X est une solution de E(σ, b), alors


Z t
f (Xt ) − f (X0 ) − L f (Xs ) ds
0

est une martingale.

Preuve. Par la formule d’Itô,


Z tXd Z d d
∂f i 1 t X X ∂ 2f
f (Xt ) = f (X0 ) + (Xs ) dBs + (Xs ) d⟨B i , B j ⟩s
0 i=1 ∂x i 2 0 i=1 j=1 ∂x i ∂x j

Z tX d
∂f
= Mt + (Xs )bi (Xs ) ds
0 i=1 ∂xi
Z d d m
1 t X X ∂ 2f X
+ (Xs ) σik (Xs )σjk (Xs ) ds
2 0 i=1 j=1 ∂xi ∂xj k=1
Z t
= Mt + L f (Xs ) ds
0

avec M une martingale. Cela donne le résultat cherché. □

Remarque 7.5.2. Sous l’Hypothèse 7.2.1 et (7.41), X est un processus de Markov fort
Rt
continu tel que pour toute f ∈ Cc2 (Rd ), f (Xt ) − f (X0 ) − 0 L f (Xs ) ds soit une martingale,
où L est l’opérateur différentiel du second ordre défini dans (7.43). On dira que X est une
diffusion (homogène) de covariance σσ ∗ et de drift b. Les EDS apportent une construction
explicite de diffusions.
Le processus X permet de donner une approche ou une interprétation probabiliste de
nombreux résultats analytiques concernant l’opérateur L . Ces liens entre probabilités et
analyse ont été une motivation importante pour l’étude des équations différentielles stochas-
tiques. □

Dans la suite, a : Rd → Rd×d désigne une application borélienne et localement bornée,


telle que pour tout x ∈ Rd , a(x) est une matrice symétrique positive (c’est-à-dire, pour
tout (λ1 , · · · , λd ) ∈ Rd , di,j=1 aij (x)λi λj ≥ 0). On se met dans l’espace canonique (Ω :=
P

C(R+ , Rd ), C (R+ , Rd )) avec processus canonique (Xt )t≥0 .


108 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Définition 7.5.3 (Problème de martingale). Une probabilité Px sur C(R+ , Rd ) est une
solution du problème de martingale (a, b), issu de x ∈ Rd , si
(i) Px (X0 = x) = 1 ;
(ii) pour toute f ∈ Cc2 (Rd ),
Z t
Mtf := f (Xt ) − f (X0 ) − L f (Xs ) ds
0

est une Px -martingale par rapport à la filtration canonique de X, où


d d d
1 XX ∂ 2f X ∂f
L f (x) := aij (x) (x) + bi (x) (x).
2 i=1 j=1 ∂xi ∂xj i=1
∂x i

Il y a équivalence entre existence faible/unicité faible de Ex (σ, b) et existence/unicité


pour le problème de martingale (σσ ∗ , b).

Théorème 7.5.4. Supposons que (7.41) soit satisfaite.


(i) Soit x ∈ Rd . Il y a existence faible pour Ex (σ, b) si et seulement si le problème de
martingale (σσ ∗ , b) issu de x a une solution.
(ii) Il y a unicité faible pour E(σ, b) si et seulement si pour tout x ∈ Rd , il y a au plus
une solution pour le problème de martingale (σσ ∗ , b) issu de x.

Preuve. D’après le Théorème 3.2, si X est une solution de Ex (σ, b), alors la loi de X dans
C(R+ , Rd ) est une solution pour le problème de martingale (σσ ∗ , b) issu de x (notons que
Rt
si f (Xt ) − f (X0 ) − 0 L f (Xs ) ds est une (Ft )-martingale, alors elle est aussi une (FtX )-
martingale). La réciproque est admise, et est une conséquence du Theorem V.20.1 de Rogers
et Williams (1987) qui dit que si Px est une solution pour le problème de martingale (σσ ∗ , b)
issu de x, alors on peut construire dans un certain espace filtré une solution X pour l’EDS
Ex (σ, b) telle que X a pour loi Px . □

Dans l’ouvrage de Stroock-Varadhan on trouve une analyse très profonde des problèmes
de martingale pour les diffusions dans Rd .

7.6. Liens avec des EDP linéaires

Nous supposons dans cette section que σ et b sont continus et indépendants du temps.
Soit L l’opérateur différentiel défini par (7.43). On note Cbk (Rd ) l’espace des fonctions sur Rd
de classe C k continues et bornées avec leurs dérivées jusqu’à l’ordre k. Nous nous intéressons
7.6. LIENS AVEC DES EDP LINÉAIRES 109

à des équations aux dérivees partielles (EDP) paraboliques de la forme


∂u


 = L u, t>0
∂t (7.44)

u(0, x) = f (x), x ∈ Rd

où f ∈ Cb (Rd ) et u : R+ × Rd 7→ R est continue bornée, avec

u(·, x) ∈ C 1 (]0, +∞[), u(t, ·) ∈ Cb2 (Rd ), ∀ (t, x) ∈ ]0, +∞[×Rd . (7.45)

Théorème 7.6.1. Soit x ∈ Rd . Si u satisfait (7.44)-(7.45) et (Xt )t≥0 est une solution de
Ex (σ, b), alors
u(t, x) = Ex [f (Xt )], t ≥ 0. (7.46)

Preuve. Le résultat suit en appliquant la formule d’Itô au processus (u(t − s, Xs ))s∈[0,t] :


 
∂u
du(t − s, Xs ) = − + L u (t − s, Xs ) ds + dMs
∂t
où M est une martingale. Donc

u(t, x) = u(0, Xt ) + Mt = f (Xt ) + Mt ,

et en prénant l’espérance nous avons le résultat souhaité. □

Remarque 7.6.2. Le théorème 7.6.1 dit que l’existence de Ex (σ, b) pour tout x implique
l’unicité de l’EDP (7.44) dans une classe de fonctions régulières. Une autre conséquence
intéressante de la représentation probabiliste (7.46) est le principe du maximum

∥u∥∞ ≤ ∥f ∥∞ ,

où ∥g∥∞ := sup |g|.

Un théorème d’analyse, connu sous le nom de estimations de Schauder, donne un résultat


d’existence et unicité pour des EDP à coefficients Hölder :

Théorème 7.6.3. Soit θ ∈ ]0, 1[. Si f , b et σ sont bornés et Hölder d’exposant θ, alors
il existe une et une seule fonction u satisfaisant (7.44)-(7.45).

Si σ et b sont bornés et Lipschitziens, alors les Théorèmes 7.6.1-7.6.3, combinés avec le


théorème 7.2.2, donnent la représentation probabiliste de la solution de l’EDP (7.44) :
Z t Z t
u(t, x) = Ex [f (X(t, x))], X(t, x) = x + b(X(u, x)) du + σ(X(u, x)) dBu , t ≥ 0.
0 0
110 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

Remarque 7.6.4. On peut essayer d’utliser une approche probabiliste à l’existence de


solutions de (7.44). Si f et les coefficients de l’EDS b et σ sont suffisamment régulier, par
exemple de classe C 3 , il est possible de différencier l’application (t, x) 7→ Ex [f (X(t, x))] et
montrer que cette fonction satisfait (7.44)-(7.45). D’autre côté les hypothèses du théorème
7.6.3 sont bien plus faibles.

7.6.1. La formule de Feynman-Kac. Soit V : Rd 7→ R continue et bornée inférieure-


ment (inf V > −∞). Nous nous intéressons à l’EDP
∂u


 = L u − V u, t>0
∂t (7.47)

u(0, x) = f (x), x ∈ Rd

où f ∈ Cb (Rd ).

Théorème 7.6.5. Soit x ∈ Rd . Si u satisfait (7.47)-(7.45) et (Xt )t≥0 est une solution de
Ex (σ, b), alors
  Z t 
u(t, x) = E f (Xt ) exp − V (Xs ) ds , t ≥ 0. (7.48)
0
Rs
Preuve. Le résultat suit en appliquant la formule d’Itô au processus (e− 0 V (Xu ) du
u(t −
s, Xs ))s∈[0,t] :
 
 Rs 
− 0s V (Xu ) du
R ∂u
d e − 0 V (Xu ) du
u(t − s, Xs ) = e − + L u − V u (t − s, Xs ) ds + dMs
∂t
où M est une martingale. Donc
Rt Rt
u(t, x) = e− 0 V (Xu ) du
u(0, Xt ) + Mt = e− 0 V (Xu ) du
f (Xt ) + Mt ,

et en prénant l’espérance nous avons le résultat souhaité. □

Cette formule a été inspirée par la mécanique quantique, où V joue le rôle d’un potentiel.

7.6.2. Equations elliptiques. Nous nous intéressons à l’EDP

λu − L u = f (7.49)

où f ∈ Cb (Rd ) et λ > 0.

Théorème 7.6.6. Soit x ∈ Rd . Si u satisfait (7.49), u ∈ Cb2 (Rd ) et (Xt )t≥0 est une
solution de Ex (σ, b), alors
Z ∞
u(x) = e−λt E [f (Xt )] dt. (7.50)
0
7.6. LIENS AVEC DES EDP LINÉAIRES 111

Preuve. Le résultat suit en appliquant la formule d’Itô au processus (e−λs u(Xs ))s∈[0,t] :

d e−λs u(Xs ) = e−λs (−λu + L u) (Xs ) ds + dMs




où M est une martingale. Donc


Z t
−λt
u(x) − e u(Xt ) = e−λs f (Xs ) ds − Mt .
0

En prénant l’espérance et en faisant tendre t → +∞ nous obtenons


Z ∞
u(x) = e−λs Ex [f (Xs )] ds.
0

7.6.3. Problème de Dirichlet. Nous considérons un ouvert régulier borné O ⊂ Rd et


l’EDP
∂u


 = L u, t > 0, x ∈ O
 ∂t



u(t, x) = g(x), t > 0, x ∈ ∂O (7.51)





u(0, x) = f (x), x∈O

où f ∈ Cb (O), g ∈ Cb (∂O) et u : R+ × O 7→ R est continue bornée, avec

u(·, x) ∈ C 1 (]0, +∞[), u(t, ·) ∈ Cb2 (O), ∀ (t, x) ∈ ]0, +∞[×O. (7.52)

Théorème 7.6.7. Soit x ∈ O. Si u satisfait (7.51)-(7.52) et (Xt )t≥0 est une solution de
Ex (σ, b), alors pour tout t ≥ 0

u(t, x) = Ex [1(t<τ ) f (Xt )] + Ex [1(t≥τ ) g(Xτ )], / O}.


τ := inf{u > 0 : Xu ∈ (7.53)

Preuve. Le résultat suit en appliquant la formule d’Itô au processus (u(t−s∧τ, Xs∧τ ))s∈[0,t] :
 
∂u
du(t − s ∧ τ, Xs∧τ ) = − + L u (t − s ∧ τ, Xs∧τ ) ds + dMsτ
∂t
où M est une martingale bornée. Donc

u(t, x) = u(t − t ∧ τ, Xt∧τ ) − Mtτ = 1(t<τ ) f (Xt ) + 1(t≥τ ) g(Xτ ) − Mtτ .

Donc, par le théorème d’arrêt, en prénant l’espérance nous avons le résultat souhaité. □

Exemple 7.6.8. Si g ≡ 0 alors nous avons un problème de Dirichlet homogène et la


solution s’écrit
u(t, x) = Ex [1(t<τ ) f (Xt )].
112 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES

On peut remarquer que cette solution est égale à celle d’une équation de Feynman-Kac avec
x∈O

0
V (x) =
+∞ x ∈ /O
car dans ce cas exp(− 0 V (Xu ) du) = 1(t<τ ) . On dit que le processus X est tué au bord de
Rt

O.

Si nous considérons maintenant l’équation


x∈O

 −L u = f,
(7.54)
u(x) = g(x), x ∈ ∂O

où f ∈ Cb (O) et u : O 7→ R est continue bornée, avec u ∈ Cb2 (O).

Théorème 7.6.9. Soit x ∈ O. Si u satisfait (7.54) et (Xt )t≥0 est une solution de Ex (σ, b)
/ O}, P(τ < +∞) = 1, alors
et, en définissant τ := inf{u > 0 : Xu ∈
Z τ 
u(x) = E [g(Xτ )] + E f (Xs ) ds . (7.55)
0
Preuve. Le résultat suit en appliquant la formule d’Itô au processus (u(Xs∧τ ))s∈[0,t] :
du(Xs∧τ ) = 1(s<τ ) (−λu + L u) (Xs∧τ ) ds + dMsτ
où M est une martingale bornée. Donc
Z t∧τ
u(x) = u(Xt∧τ ) + f (Xs ) ds − Mtτ .
0
Par le théorème d’arrêt, en prénant l’espérance nous avons
Z t∧τ 
u(x) = E [u(Xt∧τ )] + E f (Xs ) ds
0
et en faisant tendre t → +∞
Z τ 
u(x) = E [g(Xτ )] + E f (Xs ) ds .
0

Chapitre 8

Références bibliographiques

M. Briane et G. Pagès : Théorie de l’intégration, 5e édition, Vuibert 2012.


Chung, K.L. et Williams, R.J. : Introduction to Stochastic Integration ; 2e édition.
Birkhäuser, 1990.
Comets, F. et Meyre, T. : Calcul Stochastique et Modèles de Diffusions, Cours et
Exercices. Dunod, 2006.
Dellacherie, C. et Meyer, P.-A. : Probabilités et Potentiel, Vol. II, Théorie des Mar-
tingales. Hermann, 1980.
Durrett, R. : Brownian Motion and Martingales in Analysis. Wadsworth, 1984.
Ikeda, N. et Watanabe, S. : Stochastic Differential Equations and Diffusion Processes ;
2e édition. North Holland, 1988.
Le Gall, J.-F. : Mouvement Brownien, Martingales et Calcul Stochastique. Livre à pa-
raître ; téléchargeable sur http://www.math.u-psud.fr/˜jflegall/indexbis.html
Karatzas, I. et Shreve, S. : Brownian Motion and Stochastic Calculus ; 2e édition
corrigée. Springer, 1994.
Mörters, P. et Peres, Y. : Brownian Motion. Cambridge University Press, 2010.
Revuz, D. et Yor, M. : Continuous Martingales and Brownian Motion, 3e édition.
Springer, 1999.
Rogers, L.C.G. et Williams, D. : Diffusions, Markov Processes and Martingales, Vol.
II, Itô Calculus. Wiley, 1987.
D.W. Stroock, S.R.S. Varadhan, Multidimensional diffusion processes. Springer Ver-
lag, second ed, 1997.

113

Vous aimerez peut-être aussi