Ran 1
Ran 1
Ran 1
M2 “Probabilités et Finance"
Soit ξ une variable gaussienne centrée réduite. On vérifie facilement que la transformée
de Laplace complexe de ξ est donnée par
2
E ezξ = ez /2 ,
z ∈ C.
Soient µ ∈ R et σ > 0. On dit qu’une variable aléatoire réelle η suit la loi gaussienne
N (µ, σ 2 ) si elle admet pour densité
(y − µ)2
1
√ exp − , y ∈ R.
σ 2π 2σ 2
Proposition 1.1.4 (convergence de suite de variables gaussiennes). Soit (ξn ) une suite
de variables aléatoires gaussiennes, telle que ξn suive la loi N (µn , σn2 ).
(i) Si la suite (ξn ) converge en loi vers une variable aléatoire ξ, alors ξ suit la loi gaus-
sienne N (µ, σ 2 ), où µ := limn→∞ µn et σ := limn→∞ σn .
(ii) Si la suite (ξn ) converge en probabilité vers ξ, alors la convergence a lieu dans Lp ,
pour tout p ∈ [1, ∞[ .
Définition 1.1.5 (vecteur aléatoire gaussien). Un vecteur aléatoire (ξ1 , · · · , ξn ) est dit
gaussien si toute combinaison linéaire de ses coordonnées (c’est-à-dire nj=1 λj ξj = λ1 ξ1 +
P
Remarque 1.1.6. Si (ξ1 , · · · , ξn ) est un vecteur gaussien, alors chaque coordonnée est
une variable gaussienne réelle. Attention, la réciproque est fausse. □
(4) Si A : Rn → Rm est une application linéaire, alors Aξ est un vecteur gaussien avec
loi N (Am, AQAT ) ou AT : Rm → Rn est la matrice transposée.
(5) Pour que les variables aléatoires ξ1 , · · · , ξn soient indépendantes, il faut et il suffit que
la matrice Q des covariances de ξ soit diagonale.
(6) Soit (η1 , · · · , ηN ) un vecteur gaussien et 0 = n1 < n2 < · · · < nm = N . Pour
que la famille de vecteurs aléatoires (θ1 , · · · , θm−1 ), où θk = (ηnk +1 , . . . , ηnk+1 ), soit
indépendante, il faut et il suffit que Cov(ηi , ηj ) = 0, ∀i, j ≤ N tels que nk < i ≤ nk+1
et nh < j ≤ nh+1 pour k ̸= h.
Définition 1.2.2. On dit que B = (Bt , t ≥ 0) est un mouvement brownien (réel, issu
de 0), si B est un processus gaussien centré de covariance
E(Bs Bt ) = min{s, t} =: s ∧ t, s ≥ 0, t ≥ 0.
Remarque 1.2.3. (i) De temps en temps, on dit que B est un mouvement brownien
standard, car on peut s’intéresser également aux processus gaussiens centrés de covariance
σ 2 (s ∧ t).
(ii) Pour tout réel T > 0, on appelle un mouvement brownien (standard) sur [0, T ] tout
processus gaussien centré de covariance s ∧ t, (s, t) ∈ [0, T ]2 . □
où x0 := 0.
Preuve. On applique la Proposition 1.1.7 à ξ = (Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) qui a loi
N (0, R), où R := diag(t1 , t2 − t1 , . . . , tn − tn−1 ). Si on définit Ax = (x1 , x1 + x2 , . . . , x1 +
· · · + xn ), alors (Bt1 , . . . , Btn ) = Aξ a loi N (0, ARAT ) et densité donnée par (1.1) avec
Q−1 = (AT )−1 R−1 A−1 . Un calcul montre que A−1 x = (x1 , x2 − x1 , . . . , xn − xn−1 ) et ceci
permet de conclure puisque
n
−1 −1 −1 −1
X (xi − xi−1 )2
⟨Q x, x⟩ = ⟨R A x, A x⟩ = .
i=1
ti − ti−1
1.2. CONSTRUCTION DU MOUVEMENT BROWNIEN 5
Pour terminer il faut calculer det Q = (det A)2 det R ; or A est une matrice triangulaire
inférieure avec Aii = 1 pour tout i = 1, . . . , n, donc det A = 1 et det Q = det R = t1 (t2 −
t1 ) · · · (tn − tn−1 ). □
Preuve. Nous considérons l’espace mesuré (R+ , B, dx) où B sont les Boréliens de R+ et dx
est la mesure de Lebesgue. L’espace H := L2 (R+ , B, dx) est hilbertien séparable et admet
donc une base hilbertienne (ek )k∈N . Nous considérons une suite iid (ξk )k∈N de variables réelles
gaussiennes standard et nous définissons
n
ξk ⟨ek , 1[0,t] ⟩,
X
Btn = t ∈ R+ , n ∈ N,
k=0
ce qui montre que (Btn )n∈N est une suite de Cauchy dans L2 (P) car
Pour tout t ∈ R+ il existe donc une limite Bt dans L2 (P) de Btn quand n → +∞.
Il faut maintenant prouver que (Bt )t∈R+ a les propriétés souhaitées. D’abord, pour tout
choix de (t1 , . . . , ti ) ∈ (R+ )i , (Btn1 , . . . , Btni ) est un vecteur gaussien centré car fonction linéaire
du vecteur (ξ1 , . . . , ξn ), et la limite dans Lp de vecteurs gaussiens centrés est un vecteur
gaussien centré. Il reste à calculer la fonction de covariance :
n
⟨ek , 1[0,s] ⟩ ⟨ek , 1[0,t] ⟩
X
E(Bsn Btn ) =
k=0
On se met dans un espace probabilisé complet (Ω, F , P), c’est-à-dire que F contient tous
les ensembles P-négligeables.
Soit B = (Bt , t ≥ 0) un mouvement brownien. Les applications t 7→ Bt (ω) pour ω ∈ Ω,
sont appelées les trajectoires de B. Pour l’instant, on ne peut rien affirmer au sujet de
ces trajectoires : il n’est même pas évident (ni vrai en général) que ces applications soient
mesurables. Le but de ce paragraphe est de montrer que, quitte à “modifier un peu" B, on
peut faire en sorte que les trajectoires soient continues.
∀ t ∈ T, P[Xt = X
et ] = 1.
P[ ∀ t ∈ T, Xt = X
et ] = 1.
où
d(X(i−1)/2n , Xi/2n )
Kα (ω) := sup maxn
n≥1 1≤i≤2 2−nα
qui est finie d’après (∗). Donc pour ω ∈ A,
∞
X 2Kα (ω)2−qα 21+α Kα (ω)
d(Xs , Xt ) ≤ 2Kα (ω) 2−(q+i)α = −α
≤ −α
(t − s)α ,
i=0
1 − 2 1 − 2
car 2−(q+1) < t−s. Ceci nous dit que p.s. la fonction t 7→ Xt (ω) est höldérienne sur D et donc
uniformément continue sur D. Puisque (E, d) est complet, cette fonction a p.s. un unique
prolongement continu à I = [0, 1], et ce prolongement est lui aussi höldérien d’exposant α.
Plus précisément, soit pour tout t ∈ [0, 1]
X
et (ω) := lim Xs (ω)
s→t, s∈D
Si on fait tendre s ∈ D vers t ∈ [0, 1], ce qui est possible par la densité de D dans [0, 1], l’on
obtient par convergence dominée
h i
E et , Xt )p ∧ 1 = 0.
d(X
1.4. PROCESSUS CANONIQUE ET MESURE DE WIENER 9
Donc p.s. X
e t = Xt . □
On voit donc que si B est un mouvement brownien, on peut toujours le remplacer par
un processus B ′ tel que ∀ t ≥ 0, P(Bt′ = Bt ) = 1 et tel que B ′ soit à trajectoires continues
(voire à trajectoires localement höldériennes d’exposant 12 − ε). Dans la suite, on fera ce
remplacement systématiquement : cela revient à dire que dans la définition du mouvement
brownien, on impose aussi la condition que le processus soit à trajectoires continues.
Il est naturel de se demander si les trajectoires d’un mouvement brownien peuvent être
localement höldériennes d’exposant 21 . La réponse à cette question est non, comme on le
verra dans l’Exemple 2.2.7. On verra dans le Corollaire 2.5.2 dans le prochain chapitre une
autre propriété de (manque de) régularité pour les trajectoires du mouvement brownien.
On considère C(R+ , R) l’espace des fonctions réelles continues sur R+ , muni de la topo-
logie de convergence uniforme sur les intervalles fermés bornés :
∞
′
X 1 δn (w, w′ )
d(w, w ) = ,
n=1
2n 1 + δn (w, w′ )
où δn (w, w′ ) := supt∈[0,n] |w(t) − w′ (t)|.
Soit (Xt , t ≥ 0) le processus des coordonnées :
Le lemme suivant identifie la tribu σ(Xt , t ≥ 0) engendrée par ces coordonnées (c’est-à-dire
la plus petite tribu rendant mesurables toutes les applications Xt ) avec la tribu borélienne
C (R+ , R).
Preuve. Pour tout t ≥ 0, Xt est continue, donc mesurable par rapport à C (R+ , R). Par
conséquent, σ(Xt , t ≥ 0) ⊂ C (R+ , R).
Inversement, pour tout w0 ∈ C(R+ , R), la fonction w 7→ δn (w, w0 ) = supt∈[0,n]∩Q |w(t) −
w0 (t)| est σ(Xt , t ≥ 0)-mesurable, ainsi que d(w, w0 ). Soit maintenant F un ensemble fermé
quelconque de C(R+ , R), et soit (wn ) une suite dense de F (car on est dans un espace
séparable), et on a alors
qui est un élément de σ(Xt , t ≥ 0). Par conséquent, C (R+ , R) ⊂ σ(Xt , t ≥ 0). □
Soit Z = (Zt )t≥0 un processus continu défini sur (Ω, F , P). On considère l’application φ
suivante :
Ω −→ C(R+ , R)
ω 7−→ φ(ω) = (t 7→ Zt (ω)).
Théorème 1.4.2. Il existe une unique probabilité (mesure de Wiener) sur C(R+ , R) sous
laquelle le processus des coordonnées (Xt , t ≥ 0) est un mouvement brownien.
1.4. PROCESSUS CANONIQUE ET MESURE DE WIENER 11
Proposition 2.1.1. Si B est un mouvement brownien, alors les processus suivants sont
aussi des mouvements browniens.
(i) Bet = −Bt . (symétrie)
(ii) Bt = tB1/t , B0 = 0.
e (inversion du temps)
1
(iii) a > 0 fixé, B
et = √ Bat .
a
(scaling)
et = BT − BT −t , t ∈ [0, T ].
(iv) T > 0 fixé, B (retournement du temps)
Preuve. Triviale. Il suffit de vérifier à chaque fois que B est un processus gaussien centré de
covariance s∧t. Seule la partie (ii) a besoin d’un traitement spécifique puisque les trajectoires
ne sont pas nécessairement continues au point 0. Cela ne nous pose pas vraiment de problème,
car dans ce cas B est, d’après le critère de Kolmogorov, indistinguable d’un mouvement
brownien. □
Exemple 2.1.3. Par continuité, limt→0+ Bt = 0, p.s. Par inversion du temps, on obtient
que
Bt
lim = 0, p.s.
t→∞ t
□
Théorème 2.2.3 (loi 0–1 de Blumenthal). La tribu F0+ est triviale, au sens où ∀ A ∈
F0+ , P(A) = 0 ou 1.
Preuve. Par le Théorème 2.2.2, F0+ est indépendante de la tribu σ(Bt , t ≥ 0). Soit A ∈ F0+ .
Comme F0+ est contenue dans σ(Bt , t ≥ 0), on en déduit que A est indépendant de lui-
même. □
donc {τ = 0} ∈ ∩n F1/n = F0+ . Pour tout t > 0, P(τ ≤ t) ≥ P(Bt > 0) = 1/2. Donc
P(τ = 0) = limt→0+ P(τ ≤ t) ≥ 1/2. Par la loi 0–1 de Blumenthal, P(τ = 0) = 1. □
Exemple 2.2.5. Grâce à l’exemple précédent, nous obtenons plusieurs résultats intéres-
sants :
(1) Comme −B est un mouvement brownien, on voit que p.s. inf{t ≥ 0 : Bt < 0} =
0. Donc le mouvement brownien visite R+ et R− dans chaque voisinage de 0. Par
conséquent, il existe une suite (tn = tn (ω))n≥0 strictement décroissante vers 0 telle
que Btn (ω) = 0, ∀ n. En particulier, p.s. inf{t > 0 : Bt = 0} = 0.
(2) Par inversion du temps, on voit aussi que p.s. {t > 0 : Bt = 0} est non bornée.
(3) D’autre part, on a vu que P(sup0≤s≤t Bs > 0) = 1, ∀ t > 0. Soit x > 0. On a
x
P sup Bs > x = P sup Bs > √ .
0≤s≤t 0≤s≤1 t
En faisant t → +∞, le terme à droite tend vers 1. Donc P(sups≥0 Bs > x) = 1,
∀ x > 0. Autrement dit, sups≥0 Bs = +∞, p.s. Par symétrie, inf s≥0 Bs = −∞, p.s.
(En particulier, cela confirme que {t > 0 : Bt = 0} est p.s. non bornée.) Donc, si
τa := inf{t > 0 : Bt = a}, a ∈ R (convention : inf ∅ := ∞), alors P(τa < ∞, ∀ a ∈
R) = 1.
Exemple 2.2.6. Soit (tn )n≥1 une suite de nombres strictement décroissante vers 0. Alors
p.s. Btn > 0 pour une infinité de n, et Btn < 0 pour une infinité de n.
En effet, soit An := {Btn > 0}. Alors P(lim sup An ) = limN →∞ P(∪∞
n=N An ), qui est
≥ lim supN →∞ P(AN ) = 21 . Or pour tous n ≥ m on a An ∈ Ftm et donc lim sup An =
∩n ∪k≥n Ak = ∩n≥m ∪k≥n Ak ∈ Ftm . Il s’en suit que lim sup An ∈ F0+ , d’où P(lim sup An ) = 1.
□
16 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV
Exemple 2.2.7. On a
Bt Bt
lim sup √ = +∞, lim inf √ = −∞, p.s.
t→∞ t t→∞ t
√
En effet, fixons K > 0, et soit An := { n B1/n > K}. Comme P(lim sup An ) ≥
lim supN →∞ P(AN ) = P(B1 > K) > 0, on a, par la loi 0–1, P(lim sup An ) = 1, et a for-
Bt
tiori, lim supt→0 √
t
= +∞, p.s. (Donc p.s. les trajectoires de B ne sont pas höldériennes
1
d’exposant 2
.) On obtient le résultat voulu à l’aide de l’inversion du temps et par symétrie.
□
On peut énoncer la propriété de Markov du mouvement brownien sous une forme plus
faible mais qui aura une extension à une classe plus large de processus. On rappelle les
notations introduites dans la section 1.4 ; Xt : C(R+ , R) → R, Xt (w) := wt est le processus
canonique, C (R+ , R) est la tribu borélienne de C(R+ , R) et Wx est la loi de (x + Bt )t≥0 .
Nous posons aussi FtX := σ(Xu , u ≤ t). Alors
Preuve. Sous Wx , (Xt − x)t≥0 est un mouvement brownien ; donc par le Théorème 2.2.1
(Xt+s − x − (Xs − x))t≥0 = (Xt+s − Xs )t≥0 est un MB indépendant de σ(Xu − x, u ≤ s) =
σ(Xu , u ≤ s) = FsX . Donc pour tout A ∈ FsX
Wx [1A F (Xt+s , t ≥ 0)] = Wx [1A F (Xs + Xt+s − Xs , t ≥ 0)]
h i h i
Wx 1A Wx F (Xs + Xt+s − Xs , t ≥ 0) | FsX = Wx 1A WXs [F ] .
2
2. Générateur infinitésimal : Si f ∈ CK (fonction de classe C 2 à support compact),
Pt f (x)−f (x)
alors limt↓0 t
= 21 f ′′ (x).
3. Lien avec l’équation de la chaleur : Si f ∈ Cb (R), soit u(t, x) := Pt f (x). On a
u(0, x) = f (x) et
∂u 1 ∂ 2u
= , t > 0.
∂t 2 ∂x2
Preuve. Soit FtX , comme avant, la tribu engendrée par le processus canonique (Xs , 0 ≤
s ≤ t). Par la propriété de Markov, pour tout s > 0 et toute fonction borélienne positive
f : R → R+ ,
Wx [ f (Xt+s ) | FsX ] = Pt f (Xs ) = Wx [ f (Xt+s ) | Xs ].
On obtient que Pt (Ps f ) = Pt+s f , car
Soit t > 0. On a Z
1 2
(Pt f )(x) = √ f (x + t1/2 z)e−z /2 dz.
2π R
Par convergence dominée (car f est continue et bornée), on a Pt f ∈ C0 .
Montrons maintenant que limt↓0 Pt f = f uniformément sur R. On écrit
Z
1 2
(Pt f )(x) − f (x) = √ e−z /2 [f (x + t1/2 z) − f (x)] dz.
2π R
Le théorème de convergence dominée permet de voir tout de suite que Pt f → f simplement.
2
Soit ε > 0. Comme f est bornée, il existe M > 0 tel que |z|>M e−z /2 ∥f ∥∞ dz < ε. Pour
R
|z| ≤ M , comme f est uniformément continue sur R, il existe δ > 0 tel que pour t ≤ δ, on a
sup|z|≤M |f (x+t1/2 z)−f (x)| ≤ ε, ∀x ∈ R. Par conséquent, pour tout t ≤ δ, |Pt f (x)−f (x)| ≤
√2ε + ε ≤ 2ε, ∀x ∈ R.
2π
On écrit
∞
(Pt f )(x) − f (x) f (x + t1/2 z) + f (x − t1/2 z) − 2f (x) −z2 /2
Z
1
=√ e dz.
t 2π 0 2t
f (x+t1/2 z)+f (x−t1/2 z)−2f (x)
On fait t → 0. Comme f ∈ C 2 , on a 2t
→ z 2 f ′′ (x), et il existe une
1/2 1/2 z)−2f (x)
constante K < ∞ telle que pour tout t ≤ 1, f (x+t z)+f (x−t 2t
≤ Kz 2 (on utilise, en
2 −z 2 /2
plus, l’hypothèse que f soit à support compact). Puisque z e est intégrable, il résulte du
(Pt f )(x)−f (x) ∞ 2
→ 2√12π 0 z 2 f ′′ (x) e−z /2 dz = 12 f ′′ (x).
R
théorème de convergence dominée que t
Fixons t > 0 et x ∈ R. On a
1
Z
1 (r − x)2
u(t, x) = f (r) exp − dr.
(2π)1/2 R t1/2 2t
18 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV
Comme f est bornée, on peut utiliser le théorème de convergence dominée pour prendre la
dérivée (partielle par rapport à r) sous le signe intégrale :
(r − x)2 (r − x)2
Z
∂u(t, x) 1 1
= f (r) − 3/2 + exp − dr.
∂t (2π)1/2 R 2t 2t5/2 2t
De même, toujours grâce à la bornitude de f et au théorème de convergence dominée, on
peut prendre la deuxième dérivée (partielle par rapport à x) sous le signe intégrale :
∂ 2 u(t, x) 1 1 (r − x)2 (r − x)2
Z
1
= f (r) − + exp − dr.
∂x2 (2π)1/2 R t1/2 t t2 2t
∂u(t, x) 1 ∂ 2 u(t, x)
On constate alors que ∂t
= 2 ∂x2
. □
Définition 2.4.1. Une application τ : Ω → R+ ∪ {∞} est un temps d’arrêt si pour tout
t ≥ 0, {τ ≤ t} ∈ Ft .
Exemple 2.4.2. Le temps constant τ ≡ t est un temps d’arrêt. Un autre exemple est
τ = τa , où τa := inf{t > 0 : Bt = a} (avec la convention habituelle inf ∅ := +∞). En effet,
pour a ≥ 0, {τa ≤ t} = {sup0≤s≤t Bs ≥ a} ∈ Ft . En revanche, τ = sup{s ≤ 1 : Bs = 0} n’est
pas un temps d’arrêt (cela découlera par l’absurde de la propriété de Markov forte ci-dessous
et de l’Exemple 2.2.5-(1)). □
Définition 2.4.3. Soit τ un temps d’arrêt. La tribu des événements antérieurs à τ est
Fτ = {A ∈ F∞ : ∀ t ≥ 0, A ∩ {τ ≤ t} ∈ Ft } .
Exemple 2.4.4. Les variables τ et Bτ 1{τ <∞} sont Fτ -mesurables. Pour τ , il suffit de
remarquer que {τ ≤ u} ∩ {τ ≤ t} = {τ ≤ u ∧ t} ∈ Ft pour tous u, t ≥ 0. Pour Bτ 1{τ <∞} ,
on voit que
∞ ∞
Bτ 1{τ <∞} = lim 1{i/2n <τ ≤(i+1)/2n } Bi/2n = lim 1{i/2n <τ } − 1{(i+1)/2n <τ } Bi/2n
X X
n→+∞ n→+∞
i=0 i=0
et que 1{s<τ } Bu est Fτ -mesurables si u ≤ s, puisque
{1{s<τ } Bu ≤ a} ∩ {τ ≤ t} = {Bu ≤ a, s < τ ≤ t} ∪ {0 ≤ a, τ ≤ s ∧ t} ∈ Ft .
2.4. PROPRIÉTÉ DE MARKOV FORTE 19
Par la continuité des trajectoires, le terme gauche de cette égalité converge p.s. quand m → ∞
vers 1{τ <+∞} F (B
et1 , · · · , B
etn ), et par convergence dominée
h i
E 1A∩{τ <∞} F (B et1 , · · · , B
etn )
∞
E 1A∩{(k−1)/2m <τ ≤k/2m } F (B(k/2m )+t1 − Bk/2m , · · · , B(k/2m )+tn − Bk/2m ) .
X
= lim
m→∞
k=0
Pour chaque k, A ∩ {(k − 1)/2m < τ ≤ k/2m } ∈ Fk/2m . Par la propriété de Markov simple
au temps k/2m
E 1A∩{(k−1)/2m <τ ≤k/2m } F (B(k/2m )+t1 − Bk/2m , · · · , B(k/2m )+tn − Bk/2m ) =
et donc
h i ∞
E 1A∩{τ <∞} F (B E 1A∩{(k−1)/2m <τ ≤k/2m } E [F (Bt1 , · · · , Btn )]
X
et1 , · · · , B
etn ) = lim
m→∞
k=0
= P(A ∩ {τ < ∞}) E [F (Bt1 , · · · , Btn )] ,
d’où (2.3). □
Exemple 2.4.6. Soit τa := inf{t > 0 : Bt = a}. Par la propriété de Markov forte, le
processus (τa , a ≥ 0) est à accroissements indépendants et stationnaires, et à trajectoires
20 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV
croissantes. En plus, pour tout c > 0, les processus (c−2 τca , a ≥ 0) et (τa , a ≥ 0) ont la même
loi car
(c−2 τca )a≥0 = (inf{c−2 t > 0 : Bt = ca})a≥0 = (inf{t > 0 : c−1 Bct = a})a≥0
(d)
= (inf{t > 0 : Bt = a})a≥0 = (τa )a≥0 .
On dit que (τa , a ≥ 0) est un subordinateur stable d’indice (1/2). □
Remarque 2.4.8. L’identité en loi entre St et |Bt | n’est vraie que pour t > 0 fixé. Les
processus (St , t ≥ 0) et (|Bt |, t ≥ 0) ont des comportements tout à fait différents (par
exemple, le premier est monotone, ce qui n’est pas le cas pour le second). Un résultat de P.
Lévy dit néanmoins que (St − Bt , t ≥ 0) et (|Bt |, t ≥ 0) ont la même loi. □
Nous obtenons
P (St ≥ a, Bt ≤ b) = P τa ≤ t, −B
et−τa ≤ b − a
= P (τa ≤ t, Bt ≥ 2a − b) ,
Exemple 2.4.10. On s’intéresse à la loi de τa . D’après le Théorème 2.4.7, pour tout t > 0,
√
2
a
P(τa ≤ t) = P(St ≥ a) = P(|Bt | ≥ a) = P( t |B1 | ≥ a) = P ≤t .
B12
Donc τa a même loi que a2 /B12 , ∀a ∈ R. D’où, pour a ̸= 0,
2
|a| a
fτa (t) = √ exp − 1{t>0} .
2πt3 2t
En particulier, E(τa ) = ∞ si a ̸= 0. On rappelle que, par les exemples 2.2.4 et 2.2.5-(3),
P(τ0 = 0) = 1 et P(τa < +∞) = 1. □
Proposition 2.5.1 (Lévy). Fixons t > 0. Soit ∆n := {0 = tn0 < tn1 < · · · < tnpn = t} une
suite de subdivisions de [0, t] de pas tendant vers 0, c’est-à-dire supi (tni − tni−1 ) → 0, n → ∞.
Alors
pn
X
lim (Btni − Btni−1 )2 = t, dans L2 (P).
n→∞
i=1
Si en plus les subdivisions sont emboîtées, c’est-à-dire ∆1 ⊂ ∆2 ⊂ · · · , alors la convergence
a lieu également au sens presque sûr.
1. La preuve de la convergence p.s. dans le cas général est plus technique ; on peut consulter par exemple
la Proposition 2.12 du Chapitre II du livre de Revuz et Yor 1999.
22 2. MOUVEMENT BROWNIEN ET PROPRIÉTÉ DE MARKOV
Corollaire 2.5.2. Le mouvement brownien a p.s. variation infinie sur tout intervalle
[a, b], 0 ≤ a < b, i.e.
( p )
X
|B|([a, b]) := sup |B(ti ) − B(ti−1 )| = +∞,
i=1
où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp de [a, b].
tni n
pour tous les b ∈ Q, où = i/2 , i ≥ 0. Soit ω ∈ O et a < b, a, b ∈ Q. Nous avons que
X
(Btni (ω) − Btni−1 (ω))2 ≤ |B· (ω)|([a, b]) · sup |Bs (ω) − Br (ω)|.
a≤tn s,r∈[a,b],|s−r|≤2−n
i ≤b
Puisque r 7→ Br (ω) est uniformément continue sur [a, b], si la variation totale |B· (ω)|([a, b])
sur [a, b] est finie, alors la limite du terme de droite quand n → +∞ doit être nulle, alors
que nous savons que le terme de gauche tend vers b − a > 0. Si a < b sont génériques, il suffit
de considérer a < a′ < b′ < b avec a′ , b′ ∈ Q. □
Remarque 2.5.3. Dans la Proposition 2.5.1, si l’on enlève la condition que les subdivi-
sions soient emboîtées, la convergence p.s. ne peut avoir lieu en général. Pour des discussions
détaillées sur ce sujet, voir p. 48 du livre de D. Freedman intitulé “Brownian Motion and
Diffusion" (Holden-Day, 1971). □
Proposition 2.6.1. Soit Z := {t ≥ 0 : Bt = 0}. Montrer que p.s. Z est fermé, non
borné, sans points isolés.
2.7. MOUVEMENT BROWNIEN MULTI-DIMENSIONNEL 23
Preuve. Par la continuité de t 7→ Bt nous obtenons que Z est un ensemble fermé. Dans
l’exemple 2.2.5 nous avons montré que Z est p.s. non-borné. Il s’agit donc de vérifier que
Z n’admet p.s. pas de point isolé.
Pour tout t ≥ 0, soit τt := inf{s ≥ t : Bs = 0} qui est un temps d’arrêt. Il est clair que
τt < ∞, p.s., Bτt = 0. La propriété de Markov forte nous dit que τt n’est pas un zéro isolé
de Z . Donc, p.s., pour tout r ∈ Q+ , τr n’est pas un zéro isolé.
Soit t ∈ Z \{τr , r ∈ Q+ }. Il suffit de montrer que t n’est pas un zéro isolé. Soit une suite
de rationnels (rn ) ↑↑ t. Il est clair que rn ≤ τrn < t. Par le théorème des gendarmes, τrn → t,
et donc t n’est pas un zéro isolé. □
Il est connu en analyse (voir, p.72 du livre de Hewitt, E. et Stromberg, K. : Real and
Abstract Analysis. Springer, New York, 1969) qu’un ensemble fermé sans points isolés est
infini non-dénombrable. Donc Z est p.s. infini non-dénombrable.
On présente les rudiments de la théorie des processus, au moins la partie qui nous sera
utile par la suite. On commence par introduire les notions de filtration, tribu, temps d’arrêt
et processus, pour étudier ensuite les martingales à temps continu.
Soit (Ω, F , P) un espace de probabilité. Une filtration (Ft )t≥0 sur cet espace est une
famille croissante de sous-tribus de F . On dit que (Ω, F , (Ft ), P) est un espace de probabilité
filtré.
et donc {σ ≤ t} ∈ Ft+ ;
(2) si {σ ≤ t} ∈ Ft+ pour tout t ≥ 0, alors
[
{σ < t} = {σ ≤ t − 1/n} ∈ Ft .
n
alors on sait par les exemples 2.2.4-2.2.5 et la propriété de Markov forte que p.s. τa = σa .
D’un autre côté, σa n’est pas un (Ft )-temps d’arrêt. On voit que pour tout n ∈ N
{σa < t} = {St > a} ∈ Ft
et donc σa est un (Ft+ )-temps d’arrêt. Voir les exemples 3.2.3 et 3.2.4 ci-dessous. □
Cet exemple montre que la propriété d’être un temps d’arrêt par rapport à la filtration
canonique n’est pas stable si on change la variable sur un ensemble de probabilité nulle. Ce
phénomène semble peu naturel et motive les définitions suivantes.
Définition 3.1.3. On dit que la filtration (Ft , t ≥ 0) est continue à droite si Ft+ =
Ft , ∀ t ≥ 0. Si (Ft ) est une filtration et F0 (donc toute Ft ) contient tous les ensembles
P-négligeables, alors on dit que la filtration est complète.
Définition 3.1.4. On dit que la filtration (Ft ) satisfait les conditions habituelles si
elle est à la fois continue à droite et complète.
Étant donnée une filtration (Ft ) quelconque, on peut construire une filtration qui satisfait
les conditions habituelles, simplement en ajoutant à chaque tribu Ft+ la classe des ensembles
P-négligeables de F . C’est l’augmentation habituelle de la filtration (Ft ). On suppose
dorénavant que nos filtration satisfont les conditions habituelles sans le répéter chaque fois.
Cette propriété est plus forte que de dire que ∀ t ≥ 0, Xt est F -mesurable. En revanche,
si les trajectoires sont assez régulières (par exemple, continues à droite ou à gauche), alors
les deux propriétés sont équivalentes ; il suffit en effet d’approcher X par des processus “en
escalier" qui sont quant à eux mesurables.
Définition 3.1.6. Un processus (Xt )t≥0 est dit adapté (par rapport à la filtration (Ft ))
si ∀ t ≥ 0, Xt est Ft -mesurable.
3.2. TEMPS D’ARRÊT 27
Définition 3.1.7. Un processus (Xt )t≥0 est dit progressif ou progressivement mesurable
(par rapport à la filtration (Ft )) si ∀ t ≥ 0,
(s, ω) 7−→ Xs (ω)
est mesurable sur [0, t] × Ω muni de la tribu B([0, t]) ⊗ Ft .
Il est clair que tout processus progressif est adapté et mesurable (car, pour tout A ∈ E
où l’on suppose que (Xt ) est à valeurs dans (E, E ), {(s, ω) ∈ R+ × Ω : Xs (ω) ∈ A} =
S∞
n=1 {(s, ω) ∈ [0, n] × Ω : Xs (ω) ∈ A} ∈ B(R+ ) ⊗ F ). Le résultat suivant nous fournit une
inversion partielle.
Proposition 3.1.8. Tout processus adapté et continu à droite (ou continu à gauche) à
valeurs dans un espace métrique est progressif.
Preuve. Soit (Xt ) adapté et continu à droite. Soit t > 0. Pour tout n ≥ 1, on définit
Xs(n) := Xt∧ (⌊ns/t⌋+1)t , s ∈ [0, t].
n
(n)
Alors Xs (ω) → Xs (ω) par la continuité à droite. D’autre part, pour tout A ∈ E (on suppose
que (Xt ) est à valeurs dans l’espace (E, E , d))
(s, ω) : s ∈ [0, t], Xs(n) (ω) ∈ A
n h
[ (k − 1)t kt h
= , × {Xkt/n ∈ A} ∪ ({t} × {Xt ∈ A})
k=1
n n
∈ B([0, t]) ⊗ Ft ,
donc (s, ω) 7→ Xs (ω) sur [0, t] × Ω est mesurable par rapport à la tribu B([0, t]) ⊗ Ft .
La preuve est similaire si (Xt ) est adapté et continu à gauche ; il suffit alors de prendre
(n)
Xs := X⌊ns/t⌋ nt . □
Une partie A ∈ B(R+ ) ⊗ F est dite progressive si le processus Xt (ω) := 1A (t, ω) est
progressif. L’ensemble des parties progressives forme une tribu sur R+ × Ω, que l’on appelle
la tribu progressive. On peut facilement vérifier par définition qu’un processus (Xt )t≥0 est
progressif si et seulement si l’application (t, ω) 7→ Xt (ω) est mesurable sur R+ × Ω muni de
la tribu progressive.
Fτ := {A ∈ F∞ : ∀ t ≥ 0, A ∩ {τ ≤ t} ∈ Ft } ,
Fτ + := {A ∈ F∞ : ∀ t ≥ 0, A ∩ {τ < t} ∈ Ft } .
On se donne quelques propriétés simples de ces tribus. Leur preuve est tout à fait élémentaire.
• Fτ ⊂ Fτ + ;
• si (Ft ) est une filtration continue à droite, alors Fτ + = Fτ ;
• une application τ est un (Ft+ )-temps d’arrêt si et seulement si ∀ t, {τ < t} ∈ Ft , ou
encore si et seulement si ∀ t, τ ∧ t est Ft -mesurable ;
• si τ ≡ t, alors Fτ = Ft et Fτ + = Ft+ ;
• τ est Fτ -mesurable ;
• pour tout A ∈ F∞ , τ A := τ 1A + (+∞)1Ac est un temps d’arrêt si et seulement si
A ∈ Fτ .
• Si σ ≤ τ sont deux temps d’arrêt, alors Fσ ⊂ Fτ .
Preuve. Il est clair que (τn ) décroît vers τ . Il suffit de montrer que chaque τn est un temps
d’arrêt. Or, τn est Fτ -mesurable, et comme τn ≥ τ , on a {τn ≤ t} = {τn ≤ t}∩{τ ≤ t} ∈ Ft ,
car {τn ≤ t} ∈ Fτ . □
Théorème 3.2.2. Si (Xt )t≥0 est un processus progressif à valeurs dans Rd , et si τ est un
temps d’arrêt, alors Xτ 1{τ <∞} est Fτ -mesurable.
Preuve. Soit Y := Xτ 1{τ <∞} . Pour que Y soit Fτ -mesurable, il suffit que Y 1{τ ≤t} soit
Ft -mesurable pour tout t ≥ 0. Or Y 1{τ ≤t} = Xτ ∧t 1{τ ≤t} . On remarque que Xτ ∧t est la
composition des deux applications :
et
([0, t] × Ω, B([0, t]) ⊗ Ft ) −→ (Rd , B(Rd ))
(s, ω) 7−→ Xs (ω)
qui sont toutes les deux mesurables (la deuxième par la définition d’un processus progressif).
Donc Xτ ∧t , ainsi que Xτ ∧t 1{τ ≤t} , sont Ft -mesurables. □
Exemple 3.2.3. Si (Xt )t≥0 est un processus adapté continu à valeurs dans un espace
métrique (E, d), alors pour tout ouvert G ⊂ E,
τG := inf{t ≥ 0 : Xt ∈ G}
S
est un (Ft+ )-temps d’arrêt. En effet, {τG < t} = s∈[0,t[ ∩Q {Xs ∈ G}. □
Exemple 3.2.4. Si (Xt )t≥0 est adapté et continu à valeurs dans un espace métrique
(E, d), alors pour tout fermé F ⊂ E,
τF := inf{t ≥ 0 : Xt ∈ F }
est un temps d’arrêt. En effet, {τF ≤ t} = {inf s∈[0,t]∩Q d(Xs , F ) = 0}. □
Soit (Mn )n≥0 un processus réel adapté défini sur l’espace filtré (Ω, F , (Ft ), P) tel que
E(|Mn |) < +∞ pour tout n ≥ 0. On dit que (Mn )n≥0 est
(i) une sous-martingale si E(Mm | Fn ) ≥ Mn p.s. pour tout m ≥ n ≥ 0
(ii) une sur-martingale si E(Mm | Fn ) ≤ Mn p.s. pour tout m ≥ n ≥ 0
(iii) une martingale si E(Mm | Fn ) = Mn p.s. pour tout m ≥ n ≥ 0.
Si (Mn )n≥0 est une sous-martingale et il existe M∞ ∈ L1 tel que p.s. Mn ≤ E(M∞ | Fn ) alors
on dit que (Mn )n≥0 est fermée par M∞ en tant que sous-martingale. Si Mn = E(M∞ | Fn )
pour tout n alors (Mn )n≥0 est fermée par M∞ en tant que martingale.
Soit (Xα , α ∈ A) une famile de variables aléatoires réelles, indexée par un ensemble non
vide A quelconque. Alors (Xα , α ∈ A) est dite uniformément intégrable si
lim sup E(|Xα | 1(|Xα |>K) ) = 0.
K→+∞ α∈A
Soit (Mt )t≥0 un processus aléatoire réel défini sur l’espace filtré (Ω, F , (Ft ), P).
Définition 3.4.1. On dit que (Mt )t≥0 est une martingale (resp. surmartingale ; sous-
martingale) si
(i) (Mt )t≥0 est adapté ;
(ii) ∀ t ≥ 0, E(|Mt |) < ∞ ;
(iii) ∀ s < t, E(Mt | Fs ) = Ms , p.s. (resp. ≤ Ms ; ≥ Ms ).
Exemple 3.4.3. L’exemple précédent s’étend à tous les processus à accroissements indé-
pendants (PAI), i.e. un processus (Xt , t ≥ 0) tel que pour 0 ≤ t1 < t2 < · · · < tn , Xtn −Xtn−1 ,
Xtn−1 − Xtn−2 , · · · , Xt1 sont indépendantes. Le mouvement brownien est un PAI. Un autre
exemple PAI est le processus de Poisson Nt := ∞ n=1 1{τn ≤t} , où τn := W1 + · · · Wn , et (Wi )
P
e 2 − E(X
(ii) Si, pour tout t, Xt est de carré-intégrable, alors Yt := X e 2 ) est une martingale.
t t
En effet, si s < t,
h i
E [ Yt | Fs ] = E (Xt − Xs + Xs ) | Fs − E[X
e e e 2 et2 ]
h i h i
es )2 | Fs + X
et − X
= E (X e 2 + 2Xes E X et − Xes | Fs − E[X
e 2]
s t
h i h i
= E (X es )2 + X
et − X e 2 + 2X es E X et − X es − E[X e 2]
s t
e 2 ] − E[X
= E[X e 2] + X
e 2 − E[X
e 2]
t s s t
= Ys .
Théorème 3.4.4 (inégalité de Doob). Soit (Ms )s≥0 une martingale continue à droite,
telle que Mt ∈ Lp (P), alors
1 1
où p
+ q
= 1.
Preuve. Soit D ⊂ R+ dénombrable et dense. Par l’inégalité de Doob pour les martingales à
temps discret et convergence monotone,
Comme la continuité à droite des trajectoires de (Ms )s≥0 nous dit que sups∈[0,t]∩D |Ms | =
sups∈[0,t] |Ms | p.s., on obtient l’inégalité cherchée. La deuxième inégalité suit en prenant la
32 3. MARTINGALES À TEMPS CONTINU
Proposition 3.4.5. Soit (Mt )t≥0 une martingale continue à droite, et soit τ un temps
d’arrêt. Alors (Mτ ∧t )t≥0 est une (Ft )-martingale (et a fortiori, une (Fτ ∧t )-martingale).
Une martingale (Mt , t ≥ 0) est dite fermée s’il existe M∞ ∈ L1 telle que Mt = E(M∞ | Ft )
p.s. pour tout t ≥ 0. Quitte à remplacer M∞ par E(M∞ | F∞ ), on peut supposer que M∞ soit
F∞ -mesurable. En particulier on a que Mσ = Mσ 1{σ<∞} + M∞ 1{σ=∞} est F∞ -mesurable.
Théorème 3.4.6 (Théorème d’arrêt). Soit (Mt )t≥0 une martingale continue à droite et
fermée. Soient σ ≤ τ deux temps d’arrêt. Alors p.s.
E(Mτ | Fσ ) = Mσ . (3.5)
Preuve. Montrons que Mτ est intégrable. Soient τn := 2−n ⌈2n τ ⌉ et σn := 2−n ⌈2n σ⌉ comme
dans la Proposition 3.2.1 deux suites de temps d’arrêt. Il est clair que, pour tout n, le
processus (Mi/2n+1 , i ≥ 0) est une martingale à temps discret, fermée par M∞ . Le théorème
d’arrêt (pour les martingales à temps discret) permet alors de dire que p.s. E(M∞ | Fτn ) =
Mτn , donc (Mτn )n forme une famille uniformément intégrable. Or par la continuité à droite
des trajectoires, Mτn converge p.s. vers Mτ quand n → +∞ ; donc Mτn converge vers Mτ
dans L1 et Mτ est intégrable.
Soit (σn )n la suite de temps d’arrêt associée à σ. De même, Mσn → Mσ p.s. et dans
L1 . Puisque σn ≤ τn , le théorème d’arrêt (version à temps discret) nous dit que Mσn =
E[ Mτn | Fσn ], et donc pour tout A ∈ Fσ ⊂ Fσn , E[ Mσn 1A ] = E[ Mτn 1A ]. En faisant
tendre n → ∞ et en constatant la convergence dans L1 , on obtient : E[ Mσ 1A ] = E[ Mτ 1A ].
Puisque A ∈ Fσ est quelconque, on a p.s. E[ Mσ | Fσ ] = E[ Mτ | Fσ ]. Or, (Mt )t≥0 est
3.5. MOUVEMENT BROWNIEN EN TANT QUE MARTINGALE 33
Remarque 3.4.7. Si σ et τ sont bornés par une constante finie K, alors le théorème
d’arrêt est valable pour toute martingale continue à droite (Mt )t≥0 : il suffit de remplacer
(Mt )t≥0 par (Mt∧K )t≥0 pour obtenir une martingale fermée.
Remarque 3.4.8. Une conséquence importante du théorème d’arrêt est que, sous les
mêmes hypothèses,
E(Mτ ) = E(Mσ ).
Définition 3.5.1. Soit (Ω, F , (Ft ), P) un espace filtré. On dit que (Bt )t≥0 un (Ft )-
mouvement brownien si
(i) (Bt )t≥0 est (Ft )-adapté ;
(ii) pour tout s > 0, (Bt+s − Bs )t≥0 est un mouvement brownien indépendant de Fs .
Par exemple, un mouvement brownien standard est un mouvement brownien par rapport
à sa filtration canonique.
Durant toute la section, on suppose que (Bt )t≥0 est un (Ft )-mouvement brownien. On
se donne quelques exemples d’applications des théorèmes d’arrêt.
Exemple 3.5.2. Soit τ1 := inf{t > 0 : Bt = 1}. Par l’exemple 2.2.5-(3) ce temps d’arrêt
est p.s. fini mais par l’exemple 2.4.10 E(τ1 ) = +∞. Puisque p.s. Bτ1 = 1,
1 = E[Bτ1 | F0 ] ̸= B0 = 0.
Dans ce cas (Bt )t≥0 n’est pas une martingale fermée et τ1 n’est pas borné ; le théorème d’arrêt
ne s’applique donc pas. □
Exemple 3.5.3 (identités de Wald). Soit τ un temps d’arrêt tel que E(τ ) < ∞. Alors
Bτ ∈ L2 , E(Bτ ) = 0 et E(Bτ2 ) = E(τ ).
Observons d’abord que (Bt )t≥0 n’est pas une martingale fermée et τ n’est pas supposé être
borné ; le théorème d’arrêt ne s’applique donc pas directement. Par la Proposition 3.4.5, Bt∧τ
2 2 2
et Bt∧τ − t ∧ τ sont des martingales et E(Bt∧τ ) = E(t ∧ τ ) ≤ E(τ ), et donc supt E(Bt∧τ )≤
E(τ ) < ∞. Par conséquent, Bt∧τ est une martingale continue uniformément intégrable,
fermée par Bτ (en particulier, Bτ est intégrable). Par le théorème d’arrêt, E(Bτ ) = E(B0∧τ ) =
0.
34 3. MARTINGALES À TEMPS CONTINU
Exemple 3.5.5. Soit ((Xt , Yt ))t≥0 est un mouvement brownien à valeurs dans R2 issu
de (X0 , Y0 ) = (0, 1) (c’est-à-dire que (Xt ) et (Yt ) sont deux mouvements browniens linéaires
indépendants). Soit τ := inf{t ≥ 0 : Yt = 0}. Quelle est la loi de Xτ ?
2
D’après l’exemple précédent, pour tout θ ∈ R, E[e−θ τ /2 ] = e−|θ| . Comme τ est indépen-
dante de σ(Xt )t≥0 , on a pour tout θ ∈ R,
h √ i h 2
i
E eiθXτ = E eiθ τ X1 = E e−θ τ /2 = e−|θ| .
Semimartingales continues
De même que les mesures sont les objets mathématiques pour lesquels on peut construire
des intégrales déterministes, les semimartingales sont des processus aléatoires pour lesquels
on peut construire un calcul intégral puissant qui étend le calcul intégral déterministe. Nous
travaillerons toujours avec des semimartingales continues, mais il est possible, au prix de
difficultés techniques supplémentaires, de faire de même avec des processus admettant des
sauts.
Une semimartingale se décompose en somme d’une martingale locale et d’un processus à
variation finie. Nous allons étudier séparément les deux notions.
Exemple 4.1.4. Un exemple très instructif est la fonction escalier du diable, construite
par récurrence de la façon suivante. On prend f0 : [0, 1] → [0, 1], f0 (x) = x, x ∈ [0, 1]. La
fonction f1 : [0, 1] → [0, 1] est la fonction continue affine par morceaux qui vaut 0 en 0, 1 en
1, et 1/2 sur [1/3, 2/3].
On passe de même de fn à fn+1 en remplaçant fn , sur chaque intervalle [u, v] = 3in , i+1
3n
où elle n’est pas constante, par la fonction continue affine par morceaux qui vaut fn (u)+f
2
n (v)
Nous passons maintenant aux fonctions (déterministes) à variation finie. Soit T > 0 fixé.
On rappelle qu’une mesure signée sur un espace mesurable (E, E ) est toute différence de
deux mesures finies positives.
Définition 4.1.5. Une fonction a : [0, T ] → R continue à droite avec a(0) = 0 est dite à
variation finie s’il existe une mesure signée, notée da, sur [0, T ] telle que a(t) = da([0, t])
pour tout t ∈ [0, T ].
4.1. PROCESSUS À VARIATION FINIE 37
Remarque 4.1.6. Une fonction a : [0, T ] → R continue à droite avec a(0) = 0 est donc
à variation finie ssi a = F1 − F2 où Fi : [0, T ] → R est croissante continue à droite : il suffit
d’écrire da = µ1 − µ2 avec µi mesure finie positive, et Fi (t) := µi ([0, t]), t ∈ [0, T ], i = 1, 2.
Lemme 4.1.7. Si a est une fonction à variation finie alors il existe un seul couple
(da+ , da− ) de mesures finies sur [0, T ] étrangères et telles que da = da+ − da− .
dµi = hi dν, i = 1, 2.
Si on pose h := h1 − h2 alors
da = h dν = h+ dν − h− dν =: da+ − da−
et les deux mesures da+ et da− sont portées par les ensembles boréliens disjoints D+ := {t ∈
[0, T ] : h(t) > 0} et D− := {t ∈ [0, T ] : h(t) < 0} respectivement.
L’unicité de cette décomposition découle du fait que
da(C) = da+ (C) − da− (C) ≤ da+ (C) ≤ da+ (A), da+ (A) = da(A ∩ D+ ).
On note
|da| := da+ + da− ,
mesure finie appelée variation totale de da. On a |da|(E) ≤ |da(E)| pour tout A ∈
B([0, T ]), mais l’égalité est fausse en général. La densité de Radon-Nikodym de da par
rapport à |da| est donnée par
da = 1D+ − 1D− |da|.
(4.6)
38 4. SEMIMARTINGALES CONTINUES
Proposition 4.1.8. Une fonction a continue est à variation bornée sur [0, T ] si et seule-
ment si elle s’écrit comme différence de deux fonctions continues croissantes.
Preuve. Le seul point à prouver est que si a continue est la différence de deux fonctions
croissantes, alors a est la différence de deux fonctions croissantes continues. Puisque la mesure
da n’a pas d’atomes par la continuité de a, l’on obtient que da+ et da− doivent avoir les
mêmes atomes qui appartiennent donc à l’intersection des deux supports. Puisque les deux
mesures sont étrangères, elles n’ont donc pas d’atomes et leurs fonctions de répartition sont
continues. □
Exemple 4.1.9. Si µ est une mesure finie sur [0, T ] et f : [0, T ] 7→ R est une fonctionne
R
borélienne telle que [0,T ] |f | dµ < +∞, alors la fonction
Z t
at := f dµ, t ∈ [0, T ],
0
est à variation finie et
da = f dµ, da+ = f + dµ, da− = f − dµ, |da| = |f | dµ,
où f + := max{f, 0} et f − := max{−f, 0}. □
On peut maintenant définir l’intégrale par rapport à une fonction à variation finie : si
a : [0, T ] → R est à variation finie, et si f : [0, T ] → R est une fonction mesurable telle que
R
[0,T ]
|f | |da| < ∞, alors les intégrales suivantes sont bien définies :
Z T Z T Z T
f da = f (s) da+ (s) − f (s) da− (s),
0 0 0
Z T Z T Z T
f |da| = f (s) da+ (s) + f (s) da− (s).
0 0 0
On a l’inégalité triangulaire
Z T Z T
f da ≤ |f | |da| .
0 0
où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp = t de [0, t].
Preuve. La minoration est triviale, car |a(ti ) − a(ti−1 )| ≤ |da| ( ]ti−1 , ti ]). Pour la majoration,
on utilise un argument de martingale. On suppose pour simplifier l’écriture que t = 1. On
|da|
munit Ω := [0, 1] de la tribu borélienne F := B([0, 1]) et de la probabilité P := |da|([0,1])
. Si
l’on pose en rappelant (4.6)
da
Y (s) := (s) = 1D+ (s) − 1D− (s), s ∈ [0, 1],
|da|
alors Y est une variable aléatoire P-intégrable.
Pour chaque n, soit Bn la tribu engendrée par les intervalles Ii = Ii (n) := ] i−1
2n
, i
2n
],
1 ≤ i ≤ 2n . On considère la martingale Mn := E(Y | Bn ). D’après le Théorème de Lévy
rappelé dans la section 3.3, Mn → E(Y | B∞ ), p.s. et dans L1 , où B∞ := n Bn est la tribu
W
E(|Mn |) → E(|Y |) = 1, n → ∞,
(cette dernière identité étant claire car |Y | = 1, P-p.s.). Or, Mn étant Bn -mesurable est
i=1 ci 1Ii . Comme
P2n
constant sur chaque ] i−1
2n , 2
i
n ] ; soit Mn =
da(Ii ) ci |da|(Ii )
E[Y 1Ii ] = , E[Mn 1Ii ] = ci P(Ii ) = ,
|da|([0, 1]) |da|([0, 1])
da(Ii )
on obtient ci = |da|(Ii )
, et donc
2n
1 X i i−1
E(|Mn |) = a( n ) − a( n ) .
|da|([0, 1]) i=1 2 2
Ceci permet de conclure la preuve. □
Corollaire 4.1.11. Une fonction a : [0, T ] → R continue à droite avec a(0) = 0 est à
variation bornée si et seulement si
( p )
X
sup |a(ti ) − a(ti−1 )| < +∞, (4.7)
i=1
où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp = T de [0, T ].
Preuve. Si a est à variation bornée, alors (4.7) suit de la Proposition 4.1.10. Inversement, si
l’on suppose (4.7), alors la fonction
( p )
X
St := sup |a(ti ) − a(ti−1 )| , t ∈ [0, T ]
i=1
40 4. SEMIMARTINGALES CONTINUES
où le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp = t de [0, t], est
bien définie et croissante. En plus, la fonction S − a est aussi croissante et par la Proposition
4.1.8 nous obtenons que a est à variation bornée. □
Lemme 4.1.12. Si f : [0, T ] → R est une fonction continue et si 0 = tn0 < tn1 < · · · <
tnpn = T est une suite de subdivisions de [0, T ] dont le pas tend vers 0, alors
Z T pn
X
f (s) da(s) = lim f (tni−1 )(a(tni ) − a(tni−1 )).
0 n→∞
i=1
Preuve. Soit fn la fonction définie par fn (s) := f (tni−1 ) si s ∈ ]tni−1 , tni ] (et fn (0) := 0). On a
pn Z T
X
n n n
f (ti−1 )(a(ti ) − a(ti−1 )) = fn (s)µ(ds),
i=1 0
On se place dans un espace de probabilité filtré (Ω, F , (Ft ), P) qui vérifie les conditions
habituelles. Si τ est un temps d’arrêt, et si X := (Xt , t ≥ 0) est un processus continu, on
note X τ le processus arrêté (Xtτ = Xt∧τ )t≥0 .
Définition 4.2.1. Un processus continu adapté M := (Mt )t≥0 est appelé une martin-
gale locale (continue) s’il existe une suite croissante (τn , n ≥ 1) de temps d’arrêt telle que
τn ↑ ∞ p.s. et que pour tout n, M τn − M0 soit une martingale uniformément intégrable.
On dit que la suite de temps d’arrêt (τn ) réduit M .
Remarque 4.2.2. Si M est une martingale locale, la variable aléatoire Mt n’est pas
nécessairement intégrable. En particulier, on n’a aucune information a priori sur M0 , à part
qu’il s’agit d’une variable aléatoire F0 -mesurable. □
Exercice 4.2.3.
(1) Une martingale continue est une martingale locale (la suite τn := n réduisant M ).
(2) Dans la définition d’une martingale locale, on peut remplacer “martingale uniformé-
ment intégrable" par “martingale" (il suffit de remplacer τn par τn ∧ n).
(3) Si M est une martingale locale, alors pour tout temps d’arrêt τ , M τ est une martingale
locale (rappeler la Proposition 3.4.5).
(4) Si (τn ) réduit M et si (σn ) est une suite croissante de temps d’arrêt telle que σn ↑ ∞,
alors la suite (σn ∧ τn ) réduit M .
42 4. SEMIMARTINGALES CONTINUES
(5) L’espace des martingales locales est un espace vectoriel (utiliser la propriété précé-
dente).
On se gardera d’appliquer sans précaution aux martingales locales les résultats que l’on
a démontrés pour les martingales. Il est important de savoir si une martingale locale est
une vraie martingale. Nous allons prouver quelques premiers résultats dans ce sens. Nous
rappellons d’abord le
Lemme 4.2.4 (Fatou version conditionnelle). Si (Xn )n est une suite de v.a. non-négatives
et G ⊆ F est une tribu, alors p.s.
h i
E lim inf Xn G ≤ lim inf E [Xn | G ] .
n n
Preuve. Soit Yn := inf k≥n Xk . Alors Yn est une suite croissante et lim inf n Xn = supn Yn .
Donc p.s. pour tout k ≥ n
E [Yn | G ] ≤ E [Xk | G ]
et donc
E [Yn | G ] ≤ inf E [Xk | G ] .
k≥n
Il est facile de montrer la propriété de convergence monotone de l’espérance monotone : ici,
p.s. E [ limn Yn | G ] = limn E [Yn | G ]. Nous obtenons
h i
E lim inf Xn G ≤ lim inf E [ Xn | G ]
n n
p.s., et la preuve est terminée. □
Théorème 4.2.7. Soit M une martingale locale continue. Si M est à variation finie,
alors P(Mt = M0 , ∀ t ≥ 0) = 1.
Comme τn ≤ inf{t : |Mt | ≥ n}, la Proposition 4.2.5, partie (2), nous dit que N = M τn est une
(vraie) martingale bornée, issue de N0 = 0, p.s. Soit t > 0, et soit 0 = t0 < t1 < · · · < tp = t
une subdivision de [0, t]. On a
p h i Xp
X
E(Nt2 ) = E Nt2i − Nt2i−1 = E (Nti − Nti−1 )2
i=1 i=1
p
" #
X
≤ E sup |Nti − Nti−1 | |Nti − Nti−1 | .
1≤i≤p
i=1
Pp
Comme i=1 |Nti − Nti−1 | ≤ n par la Proposition 4.1.10, on obtient
2
E(Nt ) ≤ n E sup |Nti − Nti−1 | .
1≤i≤p
Prenons maintenant une suite de subdivisions 0 = tk0 < tk1 < · · · < tkpk = t de [0, t]
dont le pas tend vers 0 quand k → ∞. Puisque N est continue et bornée, le théorème de
convergence dominée nous confirme que E(Nt2 ) = 0, soit par la continuité des trajectoires
P(Mt∧τn = 0, ∀ t ≥ 0) = 1. Il suffit alors de faire n tendre vers +∞. □
44 4. SEMIMARTINGALES CONTINUES
On se place toujours dans un espace filtré (Ω, F , (Ft ), P) vérifiant les conditions habi-
tuelles. Le théorème suivant joue un rôle très important dans la suite du cours.
Théorème 4.3.1. Soit M une martingale locale continue. Il existe un processus croissant,
noté ⟨M ⟩ := (⟨M ⟩t )t≥0 , unique à indistinguabilité près, tel que Mt2 −⟨M ⟩t soit une martingale
locale et ⟨M ⟩0 = 0.
De plus, pour tout t > 0, si 0 = tn0 < tn1 < · · · < tnpn = t est une suite de subdivisions
emboîtées de [0, t] de pas tendant vers 0, alors
pn
X
lim (Mtni − Mtni−1 )2 = ⟨M ⟩t , en probabilité.
n→∞
i=1
Remarque 4.3.2.
(i) Le processus ⟨M ⟩ est appelé la variation quadratique de M .
(ii) Quand M = B est un mouvement brownien, on sait que ⟨B⟩t = t. C’est une consé-
quence du Théorème de Lévy (Proposition 2.5.1), ou du fait que Bt2 − t est une martingale.
(iii) On ne va pas prouver ce théorème en détail. Néanmoins plus tard on donnera une
preuve pour une classe moins générale de martingale, qui couvre la totalité des exemples que
nous verrons dans ce cours, voir la Remarque 5.2.3 ci-dessous.
Preuve. L’unicité découle du Théorème 4.2.7. En effet, si A et A e sont deux processus crois-
sants satisfaisant les conditions du théorème, alors le processus A− A et )−(M 2 −At )
e = (M 2 − A
t t
est une martingale locale continue issue de 0 et à variation finie.
Pour une démonstration détaillée de l’existence, voir par exemple le livre de Le Gall (Thm
4.2, page 64). On mentionne la version pour les martingales à temps discret, dont l’énoncé
est alors très concret et simple. Soit (Xn , n ≥ 0) une martingale telle que E(Xn2 ) < ∞, ∀ n.
Soit n
X
E (Xi − Xi−1 )2 | Fi−1 .
An :=
i=1
Alors Xn2 − An est une martingale. □
Proposition 4.3.3. Soit M une martingale locale, et soit τ un temps d’arrêt. Alors
⟨M τ ⟩ = ⟨M ⟩τ .
2
Preuve. Puisque Mt∧τ − ⟨M ⟩t∧τ est une martingale locale, on a ⟨M ⟩t∧τ = ⟨M τ ⟩t . □
Définition 4.3.4. Une martingale continue M est de carré intégrable (ou dans L2 ) si
E(Mt2 ) < ∞ pour tout t.
4.3. VARIATION QUADRATIQUE D’UNE MARTINGALE LOCALE 45
Théorème 4.3.5. Soit M une martingale locale telle que p.s. M0 = 0. Alors E[⟨M ⟩t ] < ∞
pour tout t ≥ 0 si et seulement si M est une martingale de carré intégrable. Dans ce cas,
(Mt2 − ⟨M ⟩t , t ≥ 0) est une martingale.
Preuve. Partie “si". Supposons que M soit une martingale de carré intégrable. Quitte à
remplacer M par M T pour T ≥ 0 fixé, on peut supposer que M soit bornée dans L2 .
Pour tout n, soit τn := inf{t ≥ 0 : ⟨M ⟩t ≥ n}. Alors τn est un temps d’arrêt, tel que
2
⟨M ⟩t∧τn ≤ n. La martingale locale Mt∧τ n
− ⟨M ⟩t∧τn étant dominée par la variable aléatoire
2
n + supt≥0 Mt qui est intégrable, elle est une vraie martingale uniformément intégrable
(Proposition 4.2.5) et nulle au temps 0, ce qui implique E[⟨M ⟩τn ] = E[Mτ2n ]. Par le Théorème
d’arrêt Mτn = E[M∞ | Fτn ] p.s. et donc ∥Mτn ∥L2 ≤ ∥M∞ ∥L2 pour tout n. Par conséquent, à
l’aide de la convergence monotone l’on obtient
E[⟨M ⟩∞ ] = lim E[⟨M ⟩τn ] = lim E[Mτ2n ] ≤ E[M∞
2
] < +∞.
n→∞ n→∞
Partie “seulement si". Supposons que E(⟨M ⟩t ) < ∞ pour tout t. Soit τn := inf{t ≥ 0 :
2
|Mt |+⟨M ⟩t ≥ n}. Alors Mt∧τ n
−⟨M ⟩t∧τn est une martingale locale bornée donc une martingale
2
(Proposition 4.2.5), et E(Mt∧τn ) = E(⟨M ⟩t∧τn ) ≤ E(⟨M ⟩t ). D’autre part, (Mt∧τn , t ≥ 0)
2
étant une (vraie) martingale bornée, on a, d’après l’inégalité de Doob, E(sups∈[0,t] Ms∧τ n
)≤
2
4 sups∈[0,t] E(Ms∧τ n
) ≤ 4E(⟨M ⟩t ). Par le lemme de Fatou,
" #
E sup Ms2 ≤ 4E(⟨M ⟩t ) < ∞. (4.9)
s∈[0,t]
Donc si E(⟨M ⟩t ) < ∞ pour tout t ≥ 0, alors, par la Proposition 4.2.5, M est une martingale
de carré intégrable.
Montrons maintenant que (Ms2 − ⟨M ⟩s , s ∈ [0, t]) est une martingale sous la condition
que E[⟨M ⟩t ] < ∞ : en effet, la martingale locale (Ms2 − ⟨M ⟩s , s ∈ [0, t]) est dominée par la
variable aléatoire intégrable sups∈[0,t] Ms2 + ⟨M ⟩t , et elle est donc une vraie martingale par la
Proposition 4.2.5. □
Corollaire 4.3.6. Soit M une martingale dans L2 telle que p.s. M0 = 0. Alors
E(Mt2 ) = E(⟨M ⟩t ), ∀ t ≥ 0. (4.10)
En plus ⟨M ⟩t = 0 p.s. pour tout t ≥ 0 si et seulement si (Mt )t≥0 est indistinguable de 0.
Preuve. La preuve de (4.10) suit du fait que M 2 − ⟨M ⟩ est une martingale et que p.s.
⟨M ⟩0 = 0. Supposons que ⟨M ⟩t = 0 p.s. pour tout t ≥ 0. D’après les Théorèmes 4.3.1 et
4.3.5, M 2 est une martingale. Donc E(Mt2 ) = E(M02 ) = 0 et M est indistinguable de 0 par
la continuité des trajectoires. □
46 4. SEMIMARTINGALES CONTINUES
Preuve. Les parties (1) et (3) découlent de leur analogue dans le Théorème 4.3.1 par pola-
risation. Les parties (2) et (4) sont des conséquences de (3) (car arrêter M ou N ou ⟨M, N ⟩
revient à sommer sur les ti tels que ti ≤ τ ). □
Soit s = t0 < t1 < · · · < tp = t une subdivision de [s, t]. Alors d’après (4.13),
p p q q
X X
|⟨M, N ⟩ttii−1 | ≤ ⟨M ⟩ti−1 ⟨N ⟩ttii−1 .
ti
i=1 i=1
On montre que cette inégalité peut être généralisée de la façon suivante : pour toute
partie borélienne A ⊂ R+ ,
Z sZ sZ
|d⟨M, N ⟩u | ≤ d⟨M ⟩u d⟨N ⟩u . (4.15)
A A A
R R R
En effet, soit µ(A) := A
|d⟨M, N ⟩u |, et soit ν(A) := µ(A) + A
d⟨M ⟩u + A
d⟨N ⟩u . Il est
clair que µ, d⟨M ⟩ et d⟨N ⟩ sont des mesures positives absolument continues par rapport à
ν, et on note f := dµ/ dν, g := d⟨M ⟩/ dν et h := d⟨N ⟩/ dν. Pour tout λ ∈ R, considérons
Il est clair que a(0) = 0 et que a : R+ → R+ est continue et croissante (la monotonie étant
une conséquence de (4.14)). Donc da est une mesure positive sur R+ , et on a da/ dν =
λ2 g + 2λf + h ≥ 0, ν-p.p. Ceci étant simultanément vrai pour tout λ ∈ Q, on déduit que
f 2 ≤ gh, ν-p.p. Par l’inégalité de Cauchy–Schwarz,
Z ∞ Z ∞ p
µ(A) = 1A f dν ≤ 1A gh dν
0 0
sZ sZ
∞ ∞
≤ 1A g dν 1A h dν
0 0
sZ sZ
= d⟨M ⟩u d⟨N ⟩u .
A A
D’où (4.15).
48 4. SEMIMARTINGALES CONTINUES
ce qui donne l’inégalité voulue pour les fonctions étagées. Il reste à écrire une fonction
mesurable positive comme limite croissante de fonctions étagées positives. □
Xt = X0 + Mt + Vt ,
où M est une martingale locale continue et V est un processus à variation finie, avec M0 =
V0 = 0.
⟨X, X⟩
e t := ⟨M, M
f⟩t .
En particulier, ⟨X⟩t = ⟨M ⟩t .
Proposition 4.4.4. Soit 0 = tn0 < tn1 < · · · < tnpn = t une suite de subdivisions emboîtées
de [0, t] de pas tendant vers 0 quand n → +∞. Alors
pn
X
lim (Xtni − Xtni−1 )(X
etn − X
i
etn ) = ⟨X, X⟩
i−1
e t, en probabilité.
n→∞
i=1
4.4. SEMIMARTINGALES CONTINUES 49
Preuve. Par polarisation, i.e. par la Définition 4.3.7, il suffit de traiter le cas où X = X.
e
Alors
pn pn pn
X X X
(Xtni − Xtni−1 )2 = (Mtni − Mtni−1 ) + 2
(Vtni − Vtni−1 )2
i=1 i=1 i=1
pn
X
+2 (Mtni − Mtni−1 )(Vtni − Vtni−1 )
i=1
=: I1 (n) + I2 (n) + I3 (n),
avec des notations évidentes. Le Théorème 4.3.1 nous dit que I1 (n) → ⟨M ⟩t = ⟨X⟩t en
probabilité. D’autre part, par la Proposition 4.1.10,
pn
X
I2 (n) ≤ max |Vtni − Vtni−1 | |Vtni − Vtni−1 |
1≤i≤pn
i=1
Z t
≤ max |Vtni − Vtni−1 | |dVs |,
1≤i≤pn 0
qui converge p.s. vers 0 par la continuité de s 7→ Vs . De même,
Z t
|I3 (n)| ≤ max |Mtni − Mtni−1 | |dVs | → 0, p.s.
1≤i≤pn 0
Par conséquent, I1 (n) + I2 (n) + I3 (n) → ⟨X⟩t en probabilité. □
Chapitre 5
Intégrale stochastique
Nous nous approchons dans ce chapitre de l’objet principal du cours : l’intégrale stochas-
tique par rapport à une semimartingale continue. La construction de l’intégrale stochastique
se fait en deux étapes : nous commençons par construire l’intégrale stochastique par rapport
à une martingale continue et dans L2 ; ensuite nous définissons l’intégrale stochastique par
rapport à une martingale locale continue.
Durant tout le chapitre, on se place dans un espace de probabilité filtré (Ω, F , (Ft ), P)
qui vérifie les conditions habituelles, et on construit l’intégrale stochastique par rapport à
une martingale continue et dans L2 sur [0, T ].
Définition 5.1.1. On note MT2 l’espace des martingales (Mt , t ∈ [0, T ]) continues, dans
L2 et telles que M0 = 0. On définit le produit scalaire sur MT2
Proposition 5.1.2. L’espace MT2 muni du produit scalaire (M, N )MT2 est un espace de
Hilbert.
Preuve. Il faut montrer que MT2 est complet pour la norme ∥M ∥MT2 . Soit (M n )n une suite
de Cauchy pour cette norme. Comme ∥N ∥MT2 = ∥NT ∥L2 pour tout N ∈ MT2 , MTn converge
dans L2 vers une v.a. X ∈ L2 (F∞ ). Il faut maintenant montrer qu’il existe une (unique
à indistinguabilité près) martingale continue M = (Mt , t ∈ [0, T ]) dans MT2 telle que p.s.
MT = X.
Tout d’abord nous allons prouver qu’il existe un processus continu (Mt , t ∈ [0, T ]) tel que
" #
lim E sup (Mtn − Mt )2 = 0. (5.16)
n→+∞ t∈[0,T ]
51
52 5. INTÉGRALE STOCHASTIQUE
qui tend vers 0 si m, n ≥ N et N → +∞. Il suffirait de remarquer que l’espace L2 (Ω; C([0, T ]))
est complet par rapport à la norme ∥f ∥ := ∥ sup |f | ∥L2 (P) . Nous donnons maintenant une
preuve plus directe.
n
Il existe une suite déterministe (nk ) telle que nk+1 > nk et E[supt∈[0,T ] (Mt k+1 − Mtnk )2 ] <
n
2−k pour tout k. Si on pose Ak := {supt∈[0,T ] |Mt k+1 − Mtnk |2 > k −4 } alors par l’inégalité de
Markov P(Ak ) ≤ k 2 2−k et donc par Fubini P(L) = 1 où L := lim inf Ack . Or pour tout ω ∈ L,
il existe k(ω) tel que si j ≥ k(ω) alors
n n 1
sup |Mt j+1 (ω) − Mt j (ω)| ≤ 2
t∈[0,T ] j
et si on définit pour tout ω ∈ L
∞
n n
X
Mt (ω) := Mtn1 (ω) + (Mt j+1 (ω) − Mt j (ω)), t ∈ [0, T ],
j=1
alors
∞
X
nj
sup |M (ω) − M (ω)| ≤ sup |M nk+1 (ω) − M nk (ω)| → 0
[0,T ] k=j [0,T ]
si j → +∞. Par conséquent, p.s. M nk → M uniformément sur [0, T ], et donc M est p.s.
continu sur [0, T ]. De plus par construction
" # ∞
" # ∞
X X
E sup |M − M | ≤ nj
E sup |M nk+1 nk
−M | ≤ 2−k → 0
[0,T ] k=j [0,T ] k=j
quand j → +∞.
Maintenant que (5.16) est prouvé, nous allons montrer que M appartient à MT2 . Puisque
MTn converge vers X dans L2 (Ω), nous avons par la continuité de l’espérance conditionnelle
dans L2 (Ω) que pour tout t ∈ [0, T ]
Puisque p.s. M nk → M uniformément sur [0, T ], cela implique que Mt = E(X | Ft ) p.s. pour
tout t ∈ [0, T ] et donc M est une martingale continue dans L2 . □
Remarque 5.1.4. Comme n’importe quel espace L2 , l’espace L2T (M ) est un espace de
RT
Hilbert avec le produit scalaire (H, K)L2T (M ) := E( 0 Hs Ks d⟨M ⟩s ). □
Remarque 5.1.5. Dans le cas du mouvement brownien B, puisque p.s. ⟨B⟩t = t, ces
formules sont particulièrement simples : L2T (B) := L2 ([0, T ] × Ω, P, ds ⊗ dP),
Z T Z T
(H, K)L2T (B) := E(Hs Ks ) ds, ∥H∥L2T (B) := E(Hs2 ) ds. □
0 0
Définition 5.1.6. On dit que H : [0, +∞[×Ω 7→ R est élémentaire s’il s’écrit sous la
forme
p
H (i) (ω) 1]ti , ti+1 ] (s),
X
Hs := s ≥ 0,
i=0
où p ≥ 0 est un entier, 0 ≤ t0 ≤ t1 ≤ · · · ≤ tp+1 sont des réels, et H (i) est une variable
aléatoire réelle bornée et Fti -mesurable (pour 0 ≤ i ≤ p). Notons E l’espace vectoriel formé
des processus élémentaires.
Preuve. Il est clair que H · M est une martingale continue et dans L2 , nulle en 0. Autrement
dit, H · M ∈ MT2 . De plus, l’application H 7→ H · M est de toute évidence linéaire. Montrons
maintenant ∥H · M ∥MT2 = ∥H∥L2T (M ) , ∀H ∈ E .
Soit H := pi=0 H (i) (ω) 1]ti , ti+1 ] ∈ E . Alors (H · M )t = pi=0 Lt , où, pour 0 ≤ i ≤ p,
P P (i)
(i)
Lt := H (i) (Mti+1 ∧t − Mti ∧t ).
(i) 2
Il est facile de voir que ((Lt )2 − H (i) (⟨M ⟩ti+1 ∧t − ⟨M ⟩ti ∧t ))t≥0 est une martingale ; en
2
particulier, p.s. ⟨L(i) ⟩t = H (i) (⟨M ⟩ti+1 ∧t − ⟨M ⟩ti ∧t ). Or les martingales (L(i) )i=0,...,p sont
orthogonales, et donc
p Z t
X
(i) 2
⟨H · M ⟩t = [H ] (⟨M ⟩ti+1 ∧t − ⟨M ⟩ti ∧t ) = Hs2 d⟨M ⟩s .
i=0 0
RT
Par conséquent, ∥H · M ∥2M 2 = E[ 0 Hs2 d⟨M ⟩s ] = ∥H∥2L2 (M ) . □
T T
Par le Théorème 5.1.8, pour toute M ∈ MT2 et H ∈ L2T (M ) nous avons pour tout
t ∈ [0, T ]
"Z 2 #
Z t t Z t
E Hs dMs = 0, E Hs dMs =E Hs2 d⟨M ⟩s . (5.18)
0 0 0
Attention : ces deux identités ne seront plus vraies en général pour les extensions de l’in-
tégrale stochastique qui seront définies dans la section suivante.
5.2. VARIATION QUADRATIQUE D’UNE INTÉGRALE STOCHASTIQUE 55
Définition 5.1.10. Nous notons par M 2 l’espace des martingales continues (Mt , t ≥ 0)
qui appartiennent à MT2 pour tout T ≥ 0. Pour M ∈ M 2 nous notons par L2 (M ) l’ensemble
des processus progréssifs (Ht , t ≥ 0) qui appartiennent à L2T (M ) pour tout T ≥ 0.
Grâce aux Définitions 5.1.9 et 5.1.10, nous avons une construction de la martingale H · M
pour toute M ∈ M 2 et tout H ∈ L2 (M ). Nous étudions maintenant la variation quadratique
⟨H · M ⟩ de H · M .
Preuve. Commençons par prouver l’unicité. Soient L et L e deux éléments de M 2 tels que
⟨L, N ⟩ = ⟨L,e N ⟩, pour tout N ∈ M 2 . En particulier, ⟨L − L⟩ e = 0. Comme L0 − L e0 = 0, il
résulte du Corollaire 4.3.6 que L = L. e
Montrons d’abord (5.19) lorsque H ∈ E . Soit H := pi=0 H (i) (ω) 1]ti , ti+1 ] ∈ E . Avec les
P
(4.12),
Z T
E (Hsn − Hs ) d⟨M, N ⟩s ≤ ∥H n − H∥L2T (M ) ∥N ∥MT2 ,
0
Rt Rt
i.e. 0
Hsn d⟨M, N ⟩s converge dans L1 vers 0
Hs d⟨M, N ⟩s .
Soit N ∈ MT2 . Pour tout n le processus X n := (H n · M )N − H n · ⟨M, N ⟩ est une
martingale et par les convergences que l’on vient de prouver on obtient que Xtn → Xt :=
[(H · M )N − H · ⟨M, N ⟩]t pour tout t ∈ [0, T ] dans L1 ; par conséquent le processus continu
(Xt , t ∈ [0, T ]) est une martingale et cela signifie que ⟨H · M, N ⟩ = H · ⟨M, N ⟩. □
Rt
Corollaire 5.2.2. Soit M ∈ M 2 et H ∈ L2 (M ). Alors ⟨H · M ⟩t = 0
Hs2 d⟨M ⟩s , t ≥ 0.
⟨H · M ⟩ = ⟨H · M, H · M ⟩ = H · ⟨M, H · M ⟩ = H 2 · ⟨M, M ⟩ = H 2 · ⟨M ⟩.
Remarque 5.2.3. Nous rappelons que dans la preuve du Théorème 4.3.1 nous n’avons
pas prouvé l’existence de la variation quadratique d’une martingale générale dans L2 conti-
nue, mais seulement (dans l’Exemple 3.4.2 et dans la Proposition 2.5.1) dans le cas d’un
mouvement brownien. Par le Corollaire 5.2.2, si (Bt )t≥0 est un (Ft )-mouvement brownien,
R· Rt
H ∈ L2 (B) et M := H · B = 0 Hs dBs alors (Mt2 − 0 Hs2 ds)t≥0 est une martingale. En
Rt
particulier, p.s. ⟨H · B⟩t = 0 Hs2 ds et pour tout t ≥ 0
"Z 2 # Z t
t
E Hs2 ds.
E Hs dBs = (5.20)
0 0
H · M τ = (H 1[0,τ ] ) · M = (H · M )τ .
Preuve. Il est clair que 1[0,τ ] ∈ L2 (M ). Pour tout N ∈ M 2 , puisque t 7→ ⟨M, N ⟩t est à
variation finie,
Z τ∧ ·
⟨M, N ⟩ = τ
d⟨M, N ⟩ = 1[0,τ ] · ⟨M, N ⟩.
0
H · M τ = H · (1[0,τ ] · M ) = (H 1[0,τ ] ) · M.
Remarque 5.2.6.
(i) De manière informelle, l’égalité dans la proposition 5.2.4 s’écrit
Z t Z t
Hs (Ks dMs ) = (Hs Ks ) dMs .
0 0
En particulier,
DZ · E Z t
Hs dMs = Hs2 d⟨M ⟩s .
0 t 0
58 5. INTÉGRALE STOCHASTIQUE
Nous considérons dans cette section le cas particulier où M = B est un mouvement brow-
nien. Nous voulons compléter la preuve du Théorème 4.3.1 pour une classe de martingales
obtenues comme intégrale stochastique par rapport à B.
qui tend vers 0 par convergence dominée puisque F ∈ C([0, T ]; L2 (P)). Or, en posant
ai = ti − ti−1 , Yi := (Bti − Bti−1 )2 − ai , Hi := Fti−1 , 1 ≤ i ≤ p,
nous avons
!2
p p
X X X
E (Hi Yi )2 + 2
Gσ = E Hi Yi = E [Hi Hj Yi Yj ] .
i=1 i=1 i<j
En utilisant l’indépendance des accroissements de B, on voit que la dernière somme est nulle
car pour i < j
E [Hi Hj Yi Yj ] = E [Hi Hj Yi ] E [Yj ] = 0.
5.3. LES INTÉGRALES STOCHASTIQUES PAR RAPPORT À UN MOUVEMENT BROWNIEN 59
qui tend vers 0 quand |σ| → 0, d’où la convergence dans L2 (P) souhaitée. □
p p
(Z 2 )
X 2 X ti 2
ασ := Ht2i−1 Bti − Bti−1 , βσ := Hs dBs − Ht2i−1 Bti − Bti−1 .
i=1 i=1 ti−1
p
( "Z 2
# "Z 2
#) 21
X ti ti
≤ E (Hs − Hti−1 ) dBs E (Hs + Hti−1 ) dBs
i=1 ti−1 ti−1
p Z
X ti Z ti 21
E (Hs − Hti−1 )2 ds E (Hs + Hti−1 )2 ds
= .
i=1 ti−1 ti−1
Par les hypothèses sur H, on voit que E[Hs2 ] ≤ M < +∞ pour tout s ∈ [0, T ] et, pour
tout ε > 0, si |σ| est suffisamment petit alors E (Hs − Hti−1 )2 ≤ ε. Nous obtenons que
√
E[|βσ |] ≤ 2 M ε et la convergence souhaitée est prouvée. □
60 5. INTÉGRALE STOCHASTIQUE
Définition 5.4.1. Soit M une martingale locale nulle en 0. On note L2loc (M ) l’espace
des processus progressifs H tels que pour tout t ≥ 0,
Z t
Hs2 d⟨M ⟩s < ∞, p.s.
0
⟨H · M, N ⟩ = H · ⟨M, N ⟩.
Remarque 5.4.3. Soit M une martingale locale issue de 0, et soit H ∈ L2loc (M ). Soit τ
Rτ
un temps d’arrêt (en particulier, si τ = t ∈ [0, ∞]). Si E[⟨H · M ⟩τ ] = E[ 0 Hs2 d⟨M ⟩s ] < ∞,
alors par le Théorème 4.3.5 (H · M )τ ∈ M 2 et de plus (H · M )τ est fermée par (H · M )τ ∈ L2 ,
et on a
"Z 2 #
Z τ τ Z τ
E Hs dMs = 0, E Hs dMs =E Hs2 d⟨M ⟩s .
0 0 0
Par contre, en général ces formules sont fausses, d’autant que l’on ne sait même pas si (H ·M )t
est intégrable pour t ≥ 0. □
Remarquons que tout processus continu adapté est localement borné. De plus, si H est
localement borné, alors pour tout process V à variation finie,
Z t
p.s. ∀t ≥ 0 : |Hs | |dVs | < ∞.
0
De même, si H est localement borné, alors H ∈ L2loc (M ) pour toute martingale locale M .
H · X := H · M + H · V,
62 5. INTÉGRALE STOCHASTIQUE
et l’on note Z t
Hs dXs := (H · X)t .
0
Exercice 5.4.6.
(1) L’application (H, X) 7→ H · X est bilinéaire.
(2) Si H et K sont localement bornés, alors H · (K · X) = (HK) · X.
(3) Si τ est un temps d’arrêt, alors (H · X)τ = (H 1[0,τ ] ) · X = H · X τ .
(4) Si X est une martingale locale (resp. un processus à variation finie), alors il en va de
même pour H · X.
Pp−1
(5) Si H est un processus progressif de forme Hs (ω) = i=0 H i (ω) 1 ]ti ,ti+1 ] (s), où, pour
chaque i, H i est Fti -mesurable, alors
p−1
X
(H · X)t = H i (Xti+1 ∧t − Xti ∧t ).
i=0
Ces propriétés découlent facilement des résultats obtenus quand X est une martingale
locale, resp. un processus à variation finie. Il est à noter que dans la propriété (5) on ne
suppose pas que la variable H i soit bornée.
P [ |(K n · M )t − (H · M )t | > ε ]
≤ P |(K n · M )t∧τm0 − (H · M )t∧τm0 | > ε + P(τm0 < t)
≤ 2ε.
En particulier,
Z t
Xt2 = X02 +2 Xs dXs + ⟨X⟩t .
0
Preuve. Fixons t > 0. Soit 0 = tn0 < tn1 < · · · < tpnn = t une suite de subdivisions emboîtées
de [0, t] dont le pas tend vers 0. Par la proposition précédente, quand n → ∞, on a, en
64 5. INTÉGRALE STOCHASTIQUE
probabilité,
pn −1 Z t
X
Xtni (Ytni+1 − Ytni ) → Xs dYs ,
i=0 0
pn −1 Z t
X
Ytni (Xtni+1 − Xtni ) → Ys dXs ,
i=0 0
Remarque 5.4.10.
(i) La formule d’intégration par parties nous dit que si X et Y sont des semimartingales
continues, alors XY l’est également. On verra dans le chapitre suivant que l’on peut étendre
ce résultat à beaucoup d’autres fonctions de (X, Y ).
(ii) Lorsque X = M est une martingale locale (continue), on sait que M 2 − ⟨M ⟩ est une
martingale locale. La formule d’intégration par parties nous dit que cette martingale locale
est Z t
M02 +2 Ms dMs . ⊓
⊔
0
Chapitre 6
La formule d’Itô est sans doute l’outil le plus puissant de la théorie du calcul stochastique.
On démontre d’abord cette formule, et présente ensuite plusieurs applications profondes, no-
tamment en ce qui concerne : (a) semimartingales exponentielles ; (b) caractérisation de
Lévy du mouvement brownien ; (c) Théorème de Dubins–Schwarz pour les martingales lo-
cales continues ; (d) inégalités de Burkholder–Davis–Gundy ; (e) représentation des martin-
gales d’un mouvement brownien ; et enfin (f) Théorème de Girsanov pour le changement de
probabilité.
Durant tout le chapitre, on se place dans un espace de probabilité filtré (Ω, F , (Ft ), P) qui
vérifie les conditions habituelles. La formule d’Itô nous dit qu’une fonction de classe C 2 de d
semimartingales continues est encore une semimartingale continue, et exprime explicitement
la décomposition de cette semimartingale.
où Xt := (Xt1 , · · · , Xtd ), ∀ t ≥ 0.
Preuve. (i) Fixons t > 0. Soit 0 = tn0 < tn1 < · · · < tnpn = t une suite de subdivisions emboîtées
P n −1
de [0, t] dont le pas tend vers 0. On a F (Xt ) = F (X0 ) + pi=0 [F (Xtni+1 ) − F (Xtni )]. D’après
65
66 6. FORMULE D’ITÔ ET APPLICATIONS
la formule de Taylor,
1
F (Xtni+1 ) − F (Xtni ) = F ′ (Xtni ) (Xtni+1 − Xtni ) + fn,i (ω) (Xtni+1 − Xtni )2 ,
2
où fn,i est tel que
inf F ′′ (x) ≤ fn,i ≤ sup F ′′ (x),
x∈In,i x∈In,i
et In,i := [Xtni , Xtni+1 ] ou [Xtni+1 , Xtni ] selon que Xtni est inférieur ou supérieur à Xtni+1 . (Il est
à noter que fn,i est bien mesurable.)
La proposition 5.4.7 nous dit que
pn −1 Z t
X
′
lim F (Xtni ) (Xtni+1 − Xtni ) = F ′ (Xs ) dXs , probabilité.
n→∞ 0
i=0
pn −1
X
≤ Zm,n (Xtni+1 − Xtni )2 , (6.22)
i=0
où
Zm,n := sup sup |fn,i − fm,j |.
0≤j≤pm −1 i: tm n m
j <ti ≤tj+1
(quand n → ∞) d’après la Proposition 4.4.4. Soit ε > 0. Il existe donc N1 < ∞ tel que
n > m ≥ N1 ⇒
pn −1
" #
X
P Zm,n (Xtni+1 − Xtni )2 ≥ ε ≤ ε. (6.23)
i=0
6.1. FORMULE D’ITÔ 67
Il est clair que p.s., pour tout s ∈ ]0, t], hm (s) → F ′′ (Xs ) (m → ∞). Or, presque sûrement,
F ′′ est bornée sur [inf s∈[0,t] Xs , sups∈[0,t] Xs ], et par convergence dominée, lorsque m → ∞,
Rt Rt
0 m
h (s) d⟨X⟩s → 0 F ′′ (Xs ) d⟨X⟩s p.s. (et a fortiori, en probabilité). Par conséquent, il
existe N2 < ∞ tel que m ≥ N2 ⇒
Z t Z t
′′
P hm (s) d⟨X⟩s − F (Xs ) d⟨X⟩s ≥ ε ≤ ε. (6.24)
0 0
où Ii,n := [Xt1ni , Xt1ni+1 ]×· · ·×[Xtdni , Xtdni+1 ] (bien sûr, il faut remplacer [Xtkni , Xtkni+1 ] par [Xtkni+1 , Xtkni ]
si Xtkni > Xtkni+1 ).
68 6. FORMULE D’ITÔ ET APPLICATIONS
De nouveau, la proposition 5.4.7 nous donne le résultat cherché pour les termes faisant
intervenir les dérivées premières. De plus, avec le même argument que dans la preuve de
(6.21), on a, pour chaque couple (k, ℓ) avec 1 ≤ k, ℓ ≤ d,
Z t
k,ℓ k k ℓ ℓ ∂ 2F
fn,i (Xtni+1 − Xtni )(Xtni+1 − Xtni ) → k ∂xℓ
(Xs ) d⟨X k , X ℓ ⟩s , en probabilité,
0 ∂x
ce qui complète la preuve du théorème. □
(ii) Il est clair que dans la preuve du théorème précédent, on n’a pas besoin que F soit
C 2 sur tout Rd . En effet, la formule d’Itô reste valable si (Xt ) prend p.s. ses valeurs
dans un domaine ouvert convexe D ⊂ Rd et si F : D → R est de classe C 2 .
(iii) On écrira de temps en temps la formule d’Itô sous sa forme différentielle
1 ′′
dF (Xt ) = F ′ (Xt ) dXt + F (Xt ) d⟨X⟩t . ⊓
⊔
2
Exemple 6.1.3. Rappelons qu’un (Ft )-mouvement brownien Bt = (Bt1 , · · · , Btd ) (à va-
leurs dans Rd ) issu de 0 est un processus adapté tel que tout s > 0, t 7→ Bt+s − Bs soit
un mouvement brownien (à valeurs dans Rd ) indépendant de Fs . Plus généralement, un
processus B à valeurs dans Rd est dit un (Ft )-mouvement brownien, si B0 est F0 -mesurable
et si Bt − B0 est un (Ft )-mouvement brownien issu de 0, indépendant de F0 .
Lorsque d = 1, la formule d’Itô nous dit que
Z t
1 t ′′
Z
′
F (Bt ) = F (B0 ) + F (Bs ) dBs + F (Bs ) ds.
0 2 0
En prenant Bt1 = t et Bt2 = Bt , on a aussi pour toute fonction F : R2 → R de classe C 2 ,
Z t Z t
1 ∂ 2F
∂F ∂F
F (t, Bt ) = F (0, B0 ) + (s, Bs ) dBs + + (s, Bs ) ds.
0 ∂x 0 ∂t 2 ∂x2
∂F 2
En particulier, si ∂t
+ 12 ∂∂xF2 = 0, alors F (t, Bt ) est une martingale locale. Ceci est le cas par
exemple pour F1 (t, x) := x, F2 (t, x) := x2 − t ou F3 (t, x) := x3 − 3tx. Plus généralement, si
2 2
d
Hn (x) := (−1)n ex /2 dx (e−x /2 ) et Hn (x, t) := tn/2 Hn ( t1/2
x
) (polynômes d’Hermite “modifiés").
i j
Pour d quelconque, comme ⟨B , B ⟩ = 0 (i ̸= j ; rappelons que deux martingales locales
indépendantes sont nécessairement orthogonales), la formule d’Itô confirme que pour toute
6.2. SEMIMARTINGALES EXPONENTIELLES 69
fonction F : Rd → R de classe C 2 ,
d Z t Z t
X ∂F 1
F (Bt ) = F (B0 ) + i
(Bs ) dBsi + ∆F (Bs ) ds.
i=1 0 ∂x 2 0
Notre première application de la formule d’Itô est l’étude des semimartingales exponen-
tielles.
Théorème 6.2.1. Soit X une semimartingale continue. Il existe une unique semimar-
tingale Z telle que
Z t
X0
Zt = e + Zs dXs . (6.26)
0
Cette unique solution est Z = E (X), où
1
E (X)t := exp Xt − ⟨X⟩t . (6.27)
2
Preuve. Soit E (X) le processus défini dans (6.26). Par la formule d’Itô,
1 1
dE (X)t = E (X)t dXt − E (X)t d⟨X⟩t + E (X)t d⟨X⟩t = E (X)t dXt .
2 2
Comme E (X)0 = e , on voit que E (X) est une solution de (6.26).
X0
Pour montrer l’unicité, on pose Yt := exp(−Xt + 12 ⟨X⟩t ). Par la formule d’Itô, Y est une
semimartingale telle que
1 1
dYt = −Yt dXt + Yt d⟨X⟩t + Yt d⟨X⟩t = −Yt dXt + Yt d⟨X⟩t .
2 2
D’autre part, soit Z une semimartingale vérifiant (6.26), alors par la formule d’intégration
par parties (qui est en fait un cas spécial de la formule d’Itô),
Remarque 6.2.2. Comme dans la formule d’Itô, on écrit souvent l’équation (6.26) sous
sa forme différentielle (avec la condition initiale Z0 = eX0 )
dZt = Zt dXt . ⊓
⊔
70 6. FORMULE D’ITÔ ET APPLICATIONS
Remarque 6.2.3. La preuve du Théorème 6.2.1 a été écrite sous forme différentielle. On
remarque que ce qui justifie les passages du genre dYt = −Yt dXt + Yt d⟨X⟩t ⇒ Zt dYt =
−Zt Yt dXt + Zt Yt d⟨X⟩t est l’associativité de l’intégrale stochastique et de l’intégrale de
Stieltjes. □
Le Théorème 6.2.1 a pour corollaire le résultat suivant. On dit qu’un processus à valeurs
dans C est une martingale locale (continue) si sa partie réelle et sa partie imaginaire sont
des martingales locales.
Soit A ∈ Fs . Alors
∥ξ∥2
E 1A e i(ξ·(Mt −Ms ))
= P(A) exp − (t − s) .
2
En prenant A = Ω, on voit que Mt − Ms est un vecteur gaussien centré de covariance
(t − s)Id. De plus, fixons A ∈ Fs tel que P(A) > 0, et notons PA (·) := P( · |A) la probabilité
conditionnelle sachant A. Soit EA l’espérance associée à PA . On voit que
∥ξ∥2
i(ξ·(Mt −Ms ))
EA e = exp − (t − s) ,
2
ce qui signifie que la loi conditionnelle de Mt − Ms sachant A est aussi celle du vecteur
gaussien centré de covariance (t − s)Id. Cela suffit pour prouver que (Mt+s − Ms )t≥0 est un
MB indépendant de Fs et donc que (Mt )t≥0 est un (Ft )-MB selon la définition 3.5.1. □
Exemple 6.3.2. Soit (X, Y ) un mouvement brownien à valeurs dans R2 , issu de (0, 0),
et soit θ ∈ R. On pose
Le Théorème de Dubins–Schwarz nous dit que toute martingale locale continue peut
s’écrire comme un mouvement brownien “changé de temps". On prouve seulement un cas
spécial.
72 6. FORMULE D’ITÔ ET APPLICATIONS
Théorème 6.4.1 (Dubins–Schwarz). Soit M une martingale locale continue telle que
M0 = 0 et ⟨M ⟩∞ = ∞ p.s. Il existe alors un mouvement brownien B tel que
Mt = B⟨M ⟩t .
Lemme 6.4.2. Soit M une martingale locale telle que M0 = 0. Alors p.s. t 7→ Mt et
t 7→ ⟨M ⟩t ont les mêmes intervalles de constance.
Preuve. Soient
τr := inf {t ≥ 0 : ⟨M ⟩t > r} .
L’hypothèse que ⟨M ⟩∞ = ∞ p.s. assure que p.s., τr < ∞ pour tout r. De plus, on voit
facilement que la fonction r 7→ τr est croissante et càdlàg, avec
Br := Mτr , r ≥ 0.
Le processus B ainsi défini est adapté par rapport à la filtration Gr := Fτr (rappelons que
HT 1{T <∞} est FT -mesurable si H est progressif et T est un temps d’arrêt, voir le Théorème
3.2.2). On remarque aussi que la nouvelle filtration (Gr ) satisfait les conditions habituelles,
car si (τn ) est une suite de temps d’arrêt qui décroît vers τ , alors Fτ + = n Fτn + (voir
T
On montre maintenant que B est un processus continu. Il est clair qu’il est càdlàg, car
M est continue et r 7→ τr est càdlàg. Si l’on note Br− := lims↑↑r Bs , alors Br− = Mτr− . Donc
dire que Br ̸= Br− équivaut à dire que τr− < τr et Mτr− ̸= Mτr . Or, si τr− < τr , comme
⟨M ⟩τr− = r = ⟨M ⟩τr , le Lemme 6.4.2 nous confirme que Mτr− = Mτr . Par conséquent, les
trajectoires de B sont p.s. continues.
On vérifie ensuite que Bt et Bt2 − t sont des martingales par rapport à la filtration
(Gr ). Soient t > s. Prenons n tel que n ≥ t > s. Comme ⟨M τn ⟩∞ = ⟨M ⟩τn = n, par le
Théorème 4.3.5 M τn et (M τn )2 − ⟨M τn ⟩ sont des (vraies) martingales continues. Or M τn est
uniformément intégrable puisque bornée dans L2 ; de plus nous avons comme dans (4.9)
" #
E sup (Msτn )2 ≤ 4n, (Muτn )2 − ⟨M τn ⟩u ≤ sup (Msτn )2 + n, u ∈ [0, t],
s∈[0,t] s∈[0,t]
et
En particulier, B est une (Gr )-martingale continue telle que ⟨B⟩t = t. D’après le Théorème
6.3.1 de Lévy, B est un (Gr )-mouvement brownien.
Par définition de B, on a p.s. pour tout t, B⟨M ⟩t = Mτ⟨M ⟩t . Comme ⟨M ⟩ est constant sur
l’intervalle [t, τ⟨M ⟩t ] (et vaut ⟨M ⟩t sur cet intervalle), le Lemme 6.4.2 dit que Mt = Mτ⟨M ⟩t ,
et donc B⟨M ⟩t = Mt . □
Remarque 6.4.3. Dans le Théorème 6.4.1, le mouvement brownien B n’est pas adapté
par rapport à la filtration (Ft ), mais par rapport à la filtration “changée de temps" (Fτt ).□
Mti = B⟨M
i
i⟩ .
t
74 6. FORMULE D’ITÔ ET APPLICATIONS
Mt = B⟨M ⟩t .
Remarque 6.4.6. Dans le Théorème de Knight, on sait a priori par Dubins–Schwarz que
i
pour chaque i, il existe un mouvement brownien unidimensionnel B i tel que Mti = B⟨M i⟩ .
t
Donc M est une martingale dans L2 continue. De même, N en est une, car
Remarquons que d⟨M ⟩t = e2Xt cos2 (Yt ) dt + e2Xt sin2 (Yt ) dt = e2Xt dt = d⟨N ⟩t . D’où
Z t
⟨M ⟩t = ⟨N ⟩t = e2Xs ds.
0
6.4. THÉORÈME DE DUBINS–SCHWARZ 75
et donc ⟨M, N ⟩ = 0, le Théorème 6.4.4 nous dit qu’il existe un mouvement brownien B à
valeurs dans R2 , tel que (remarquons que M0 = 1 et N0 = 0)
(Mt − 1, Nt ) = B⟨M ⟩t ,
ou alors (Mt , Nt ) = B⟨M ⟩t + (1, 0). Comme le module euclidien ∥(Mt , Nt )∥ = eXt ne
s’annule jamais, on conclut que p.s. B⟨M ⟩t ne visite jamais le point (−1, 0). Vu que t 7→ ⟨M ⟩t
est continue, et ⟨M ⟩∞ = ∞, on a démontré que p.s. le mouvement brownien B ne visite
jamais le point (−1, 0).
Par rotation et scaling, pour tout a ∈ R2 \{0} fixé, avec probabilité 1, B ne visite jamais
le point a. Pour le cas a = 0, on a, par la propriété de Markov,
En conclusion, pour tout a ∈ R2 , P(∃ t > 0, Bt = a) = 0. On dit que les points sont
polaires pour le mouvement brownien planaire B.
A fortiori, si B est un mouvement brownien à valeurs dans Rd (d ≥ 2), alors pour tout
a ∈ Rd , P(∃ t > 0, Bt = a) = 0.
On aurait pu simplifer la preuve de cet exemple en adoptant l’écriture complexe M +iN =
Z
e , avec Z = X + iY , voir l’exemple 6.4.10 ci-dessous. □
Comme X est p.s. à valeurs dans R∗+ , on peut appliquer la formule d’Itô à la fonction
F : R∗+ → R définie par F (x) := x−1/2 :
1 t 1 3 t 1
Z Z
1 1
√ =√ − dXs + d⟨X⟩s
Xt X0 2 0 Xs3/2 8 0 Xs5/2
3 t 1 3 t 1
Z Z
= martingale locale − ds + ds
2 0 Xs3/2 2 0 Xs3/2
= martingale locale.
1 1
Autrement dit, ∥B∥
est une martingale locale, positive, issue de ∥a∥
. Par la Proposition 4.2.5
1
toute martingale locale non-négative telle que M0 ∈ L est une surmartingale. Puisque toute
surmartingale positive continue admet une limite finie p.s. (voir Le Gall, Théorème 3.5 page
47), ∥B1t ∥ → ξ quand t → +∞, qui d’après Fatou donne E(ξ) ≤ lim inf t→∞ E( ∥B1t ∥ ).
Or, si N := (N 1 , N 2 , N 3 ) désigne la loi gaussienne standard à valeurs dans R3 , alors
E( ∥B1t ∥ ) = E( ∥a+√1 t N ∥ ). Par rotation, on peut supposer que a = (∥a∥, 0, 0), alors
!
1 1 1
E √ ≤√ E p → 0, t → ∞.
∥a + t N ∥ t (N 2 )2 + (N 3 )2
(En général, E( ∥N1∥q ) < ∞ ⇔ q < d.) Donc ξ = 0 p.s., c’est-à-dire ∥Bt ∥ → ∞ p.s.
1
On remarquera que ∥B∥
est une martingale locale uniformément intégrable 1, qui n’est
pas une martingale. □
Le terme à variation finie s’annule dans le points y tels que F ′ (y)+ d2 yF ′′ (y) = 0 ; remarquons
que cette équation est satisfaite par F (y) := log(y) (d = 2) et par F (y) := y 1−(d/2) .
Soient 0 < r < ∥x∥ < R. Pour a = r ou R, on pose
On étudie d’abord la dimension d = 2. Soit F : R∗+ → R, F (y) = log y pour tout y >
0. Alors t 7→ F (∥Bt∧Tr ∧TR ∥) = log ∥Bt∧Tr ∧TR ∥ est une martingale locale continue bornée.
Par le théorème d’arrêt, E [ log ∥BTr ∧TR ∥ ] = log ∥x∥. (Remarquons que TR < ∞ p.s., car
lim supt→∞ ∥Bt ∥ ≥ lim supt→∞ |Bt1 | = ∞ p.s.) Donc
et par conséquent
log R − log ∥x∥ log ∥x∥ − log r
P[Tr < TR ] = , P[TR < Tr ] = .
log R − log r log R − log r
En faisant R → ∞, et comme TR → ∞, on obtient P[Tr < ∞] = 1 pour tout r > 0. Donc
pour tout a ∈ R2 et tout voisinage Va , le mouvement brownien plan visite p.s. Va infiniment
souvent.
Si d ≥ 3, soit F : R∗+ → R, F (y) = y 2−d pour tout y ≥ 0. Alors F (∥Bt∧Tr ∧TR ∥) =
∥Bt∧Tr ∧TR ∥2−d est une martingale continue bornée. Par le théorème d’arrêt
Donc
∥x∥2−d − R2−d r2−d − ∥x∥2−d
P[Tr < TR ] = , P[TR < Tr ] = .
r2−d − R2−d r2−d − R2−d
En particulier, en faisant R → ∞, on obtient
d−2
r
P[Tr < ∞] = ,
∥x∥
ce qui est en accordance avec la transience de B. □
∂g ∂g
et de même dg(Zt ) = ∂x
(Zt ) dXt + ∂y (Zt ) dYt . (On écrit formellement dh(Zt ) = h′ (Zt ) dZt .)
Donc h(Zt ) est une martingale continue. De plus,
∂f 2 ∂g 2
d⟨f (Z)⟩t = d⟨g(Z)⟩t = ( ) + ( ) (Zt ) dt = |h′ (Zt )|2 dt,
∂x ∂x
∂f ∂g ∂f ∂g
d⟨f (Z), g(Z)⟩t = + (Zt ) dt = 0.
∂x ∂x ∂y ∂y
Par le Théorème 6.4.4 il existe un mouvement brownien planaire B = (B 1 , B 2 ) tel que
h(Z) = B⟨f (Z)⟩ . Cette propriété s’appelle invariance conforme du brownien complexe.
Preuve. Soit A ∈ Ft . On a
Dt = E(D∞ | Ft ).
Lemme 6.5.2. Soit D la martingale du Lemme précédent ; nous supposons que D est p.s.
continue.
(i) Si T est un temps d’arrêt, alors
dQ
DT = | .
dP FT
(ii) Si en plus Q est équivalente à P sur F∞ , alors p.s. pour tout t ≥ 0, Dt > 0.
qui vaut E[1A DT ] par le théorème d’arrêt. Puisque DT est FT -mesurable, on obtient :
dQ
DT = | .
dP FT
(ii) Considérons le temps d’arrêt S := inf{t ≥ 0 : Dt = 0}. Par continuité à droite,
DS = 0 p.s. sur {S < ∞}. Soit A := {S < ∞} ∈ FS . Alors Q(A) = E[1A DS ] = 0, et donc
P(A) = 0. □
80 6. FORMULE D’ITÔ ET APPLICATIONS
Lemme 6.5.3. Soit D une martingale locale continue, strictement positive. Il existe alors
une unique martingale locale continue L, telle que
1
Dt = exp Lt − ⟨L⟩t = E (L)t .
2
De plus, L est donnée par la formule
Z t
dDs
Lt = log D0 + .
0 Ds
Preuve. (Unicité) Soit L e une martingale locale continue telle que E (L)e = E (L). Alors
L−L e = ⟨L⟩−⟨L⟩
e
. Il découle que L − L e est une martingale locale continue issue de 0 (car
2
L0 = L
e0 = log D0 ), qui est à variation finie. Par le Théorème 4.2.7, L = L.
e
R t −1
(Existence) Soit Lt := log D0 + 0 Ds dDs , qui est une martingale locale continue.
Comme D est à valeurs dans R∗+ , on peut appliquer la formule d’Itô à F (Dt ), où F : R∗+ → R
est définie par F (x) = log x. Il en découle que
Z t
dDs 1 t d⟨D⟩s
Z
1
log Dt = log D0 + − 2
= Lt − ⟨L⟩t .
0 Ds 2 0 Ds 2
Autrement dit, D = E (L). □
car d⟨M, L⟩s = Ds−1 d⟨M, D⟩s par le Lemme 6.5.3. Donc (M
ft Dt ) est une P-martingale locale.
Par (6.28), (M
ft ) est une Q-martingale locale. □
Remarque 6.5.5. (i) Un résultat établi p.s. ou en probabilité sous P reste vraie sous Q.
f sous Q est égale à ⟨M ⟩. Dans la remarque (iii)
Par exemple, la variation quadratique de M
suivante, on montre que les intégrales stochastiques sont aussi les mêmes sous P et sous Q.
(ii) Le Théorème de Girsanov nous confirme qu’une P-semimartingale reste une Q-semi-
martingale (et réciproquement, car Q et P sont supposées équivalentes), et on a la décom-
position canonique : si X = X0 + M + V est une P-semimartingale, alors X = X0 + M f + Ve ,
avec Ve := V + ⟨M, L⟩, est la décomposition canonique de X en tant que Q-semimartingale.
Réciproquement, la décomposition canonique d’une Q-semimartingale en tant que P-
semimartingale est aussi explicite. En effet, comme L est une P-martingale locale, le Théo-
rème de Girsanov dit que L e := L − ⟨L⟩ est une Q-martingale locale, telle que ⟨L⟩
e = ⟨L⟩.
Donc on peut considérer la Q-martingale locale exponentielle E (−L)
e t = exp(−Let − 1 ⟨L⟩
2
e t) =
exp(−Lt + 1 ⟨L⟩t ) = 1 . Par conséquent, P = E (−L)
2 E (L)t
e ∞ • Q sur F∞ . En particulier, en
appliquant le Théorème de Girsanov (en échangeant les rôles de P et Q), si N e est une Q-
martingale locale continue, alors N := Ne − ⟨N e , −L⟩
e est une P-martingale locale. Comme
⟨N
e , −L⟩
e = −⟨N e , L⟩, on a N := Ne + ⟨N
e , L⟩.
En conclusion, M est une P-martingale locale si et seulement si M − ⟨M, L⟩ est une
Q-martingale locale.
(iii) Montrons maintenant que les intégrales stochastiques sont les mêmes sous P et sous
Q. Soit H un processus (progressif) localement borné, et soit M une P-martingale locale issue
de 0. On écrit (H · M )P et (H · M )Q pour les intégrales sous P et sous Q, respectivement. Soit
f := M −⟨M, L⟩, qui est une Q-martingale locale. On écrit (H ·M )Q = (H · M
M f)Q +H ·⟨M, L⟩,
82 6. FORMULE D’ITÔ ET APPLICATIONS
et (H · M
f)Q est une Q-martingale locale. D’après (ii), (H · M f)Q + ⟨(H · M f)Q , L⟩ est une
P-martingale locale. Par définition, (H · M
f)Q est une Q-martingale locale telle que pour toute
semimartingale N , ⟨(H · M
f)Q , N ⟩ = H · ⟨M
f, N ⟩ = H · ⟨M, N ⟩. Donc ⟨(H · M f)Q , L⟩ =
H · ⟨M, L⟩, ce qui implique que (H · M )Q est une P-martingale locale. On a vu que pour
toute P-martingale locale N , ⟨(H · M )Q , N ⟩ = H · ⟨M, N ⟩. D’où : (H · M )Q = (H · M )P .
(iv) On utilise très souvent la version de Girsanov “à horizon fini", c’est-à-dire sur l’inter-
valle de temps [0, t] fixé. En effet, la filtration sera (Fs , s ∈ [0, t]) au lieu de (Fs , s ∈ R+ ),
qui vérifie les conditions habituelles (attention, l’hypothèse de complétion signifie que chaque
tribu Fs contient les P-négligeables de Ft ). Si Q est une probabilité équivalente à P sur Ft ,
dQ
on définit la martingale (Ds , s ∈ [0, t]) (donc Dt := dP
jouera le rôle de D∞ ), et si D a
une modification continue, alors on peut définir la martingale locale (Ls , s ∈ [0, t]) telle que
Ds = exp(Ls − 12 ⟨L⟩s ), s ∈ [0, t]. L’analogue du théorème reste alors vraie.
(v) Si M = B est un (Ft , P)-mouvement brownien, alors B e := B −⟨B, L⟩ est une (Ft , Q)-
martingale locale continue, telle que ⟨B⟩
e t = ⟨B⟩t = t. Le Théorème 6.3.1 de Lévy nous dit
alors que B
e est un (Ft , Q)-mouvement brownien.
(vi) En pratique, on se sert du Théorème de Girsanov pour éliminer le drift qui nous
ennuie. Voir les Exemples 6.5.13 et 6.5.15. □
Si l’on regarde la preuve du Théorème de Girsanov de plus près, on se rend compte que
la condition Q ∼ P sert seulement à assurer à ce que D soit à valeurs dans R∗+ . Donc on
peut énoncer la version suivante du Théorème de Girsanov sans que la probabilité Q soit
nécessairement équivalente à P sur F∞ (c’est le cas sur chacune des tribus Ft , en revanche).
Remarque 6.5.7. On insiste sur le fait que dans le Théorème 6.5.6, Q est absolument
continue par rapport à P sur F∞ , et est équivalente à P sur toute Ft , t ≥ 0.
Remarque 6.5.8. Dans la plupart des applications du Théorème 6.5.6, on part d’une
martingale locale continue L issue de 0, alors la probabilité Q := E (L)∞ • P est bien définie
si E (L) est une (vraie) martingale uniformément intégrable. Or, E (L) étant une martingale
locale continue à valeurs dans R∗+ et issue de 1, elle est une surmartingale par la Proposition
6.5. THÉORÈME DE GIRSANOV 83
4.2.5. Par le Théorème 3.5 à page 47 du livre de Le Gall, toute surmartingale positive et
continue à droite admet p.s. une limite (finie). Notons E (L)∞ := limt→∞ E (L)t . Par le lemme
de Fatou, E[E (L)∞ ] ≤ 1. Supposons que l’on a
alors d’après le Lemme 6.5.10 suivant, E (L) est une (vraie) martingale continue uniformé-
ment intégrable. On sera alors parfaitement dans le cadre du Théorème 6.5.6.
La condition (6.29) a donc une importance capitale. Le théorème suivant donne deux
conditions suffisantes pour assurer (6.29). □
Théorème 6.5.9. Soit L une martingale locale continue, issue de 0. Considérons les
propriétés suivantes :
1
(i) E[e 2 ⟨L⟩∞ ] < ∞ ;
1
(ii) L est une martingale uniformément intégrable, et E[e 2 L∞ ] < ∞ ;
(iii) E[E (L)∞ ] = 1 (donc E (L) est une martingale uniformément intégrable).
Alors (i) ⇒ (ii) ⇒ (iii).
Remarque 6.5.14. Il est possible d’obtenir (6.30) sous une autre écriture. En effet, soit
γ2
Q = e−γX1 − 2 • W sur F1 , alors Xt + γt est un Q-mouvement brownien, et
!
2
γX1 + γ2
W sup (Xt + γt) < x = EQ 1{supt∈[0,1] (Xt +γt)<x} e
t∈[0,1]
2
γB1 − γ2
= E 1{supt∈[0,1] Bt <x} e .
γ2
Comme (eγXs − 2 s , s ≥ 0) est une (vraie) W-martingale, le théorème d’arrêt (pour les temps
d’arrêt bornés) nous dit alors que
2
γXτa ∧t − γ2 (τa ∧t)
Q[τa ≤ t] = W 1{τa ≤t} e
2
γa− γ2 τa
= W 1{τa ≤t} e
Z t
γ2
= eγa− 2 s W[τa ∈ ds]. (6.31)
0
a2
Or, on a vu dans l’Exemple 2.4.10 que sous W, τa a la même loi que X12
, et que la densité
|a| 2
vaut fτa (s) = √
2πs3
exp(− a2s ) 1{s>0} . Donc
t
γ 2 s a2
|a|
Z
Q[τa ≤ t] = √ exp γa − − ds.
0 2πs3 2 2s
On écrit maintenant tout pour le mouvement brownien avec drift Xt + γt : la variable
(γ)
aléatoire τa := inf{t ≥ 0 : Xt + γt = a} a pour densité
(a − γt)2
(γ)
|a|
P τa ∈ dt = √ exp − 1{t>0} dt. (6.32)
2πt3 2t
En faisant t → ∞ dans (6.31), on obtient
2
(γ) γa− γ2 τa
= eγa−|γa| ,
P τa < ∞ = W e
(ii) ⇒ (iii) [ Théorème de Kazamaki, modifié ] On suppose maintenant que L est une
1
martingale uniformément intégrable telle que E[e 2 L∞ ] < ∞. Dans ce cas, pour tout temps
d’arrêt T , LT = E[L∞ | FT ], et par l’inégalité de Jensen (version conditionnelle),
e 2 LT = e 2 E[L∞ | FT ] ≤ E[ e 2 L∞ | FT ].
1 1 1
1
Donc la famille de variables {e 2 LT , T temps d’arrêt} est uniformément intégrable.
a
Soit maintenant a ∈ ]0, 1[ , et soit Zt := e 1+a Lt . Alors
a2 2 L − a2 ⟨L⟩ 2 2
E (aL)t = eaLt − 2 ⟨L⟩t = ea t 2 t
ea(1−a)Lt = [E (L)t ]a [Zt ]1−a .
Soit T un temps d’arrêt, et soit A ∈ F∞ . Par l’inégalité de Hölder, ceci implique que
2 2
E [1A E (aL)T ] ≤ {E [E (L)T ]}a {E [1A ZT ]}1−a .
2 (1+a)/(2a)
L’inégalité de Jensen nous donne {E [1A ZT ]}1−a ≤ {E[1A ZT ]}2a(1−a) (car 1+a
2a
> 1),
1
L 2a(1−a)
et cette dernière vaut {E[1A e 2 T ]} . On arrive donc à
2
n h 1
io2a(1−a)
E [1A E (aL)T ] ≤ {E [E (L)T ]}a E 1A e 2 LT . (6.33)
Puisque E (L)T est une surmartingale positive, E (L)T = limt→∞ E (L)t∧T existe, et par
1
le lemme de Fatou, E[E (L)T ] ≤ 1. Par conséquent, E[1A E (aL)T ] ≤ {E[1A e 2 LT ]}2a(1−a) .
1
Comme {e 2 LT , T temps d’arrêt} est uniformément intégrable, c’est également le cas pour
{E (aL)T , T temps d’arrêt} (rappel : (Bi , i ∈ I) est uniformément intégrable si et seulement
si supi∈I E[ |Bi | ] < ∞ et ∀ ε > 0, ∃ δ > 0, P(A) ≤ δ ⇒ supi∈I E[ |Bi | 1A ] ≤ ε).
Rappelons 2 que si M est une martingale locale continue, alors M est une martingale
uniformément intégrable si et seulement si (MT 1{T <∞} , T temps d’arrêt) est uniformément
intégrable. En particulier, E (aL) est une (vraie) martingale uniformément intégrable. En
particulier, E[E (aL)∞ ] = 1. Par (6.33) (avec T = ∞ et A = Ω), 1 = E[E (aL)∞ ] ≤
2 1 1
{E[E (L)∞ ]}a {E[e 2 L∞ ]}2a(1−a) . Par hypothèse, E[e 2 L∞ ] est finie. En faisant a → 1, on obtient
alors E[E (L)∞ ] ≥ 1. Donc nécessairement E[E (L)∞ ] = 1 (lemme de Fatou). □
Les inégalités suivantes relient une martingale locale avec sa variation quadratique. Pour
toute martingale continue M , on note Mt∗ := sups∈[0,t] |Ms |.
Lemme 6.6.1. Soit p ≥ 2 et (Mt )t≥0 une martingale locale telle que M0 = 0. Alors
∗ 2p
E [(⟨M ⟩∞ )p ] ≤ pp E (M∞ ) .
2. Voir TD n.4.
88 6. FORMULE D’ITÔ ET APPLICATIONS
E[1(A∞ >λ) (A∞ − λ)] = E[1(A∞ >λ) (A∞ − Aτ )] = E[A∞ − Aτ ] ≤ E[1(A∞ >λ) Z].
p−1
Puisque E[Ap∞ ] < +∞, nous obtenons l’inégalité souhaitée en divisant par (E[Ap∞ ]) p . □
Lemme 6.6.2. Pour p ≥ 2 il existe une constante Cp > 0 telle que pour toute M martin-
gale locale issue de 0
∗ p
) ] ≤ Cp E ⟨M ⟩p/2
E [(M∞ ∞ .
Preuve. Par localisation on peut supposer que M est bornée. Si p ≥ 2 alors la fonction
x 7→ |x|p est de classe C 2 et par la formule d’Itô
Z t
1 t
Z
p p−1
|Mt | = p|Ms | sgn(Ms ) dMs + p(p − 1)|Ms |p−2 d⟨M ⟩s .
0 2 0
En prenant l’espérance
Z t
pp(p − 1) p−2
E [|Mt | ] = E |Ms | d⟨M ⟩s
2 0
p(p − 1) ∗ p−2
≤ E (Mt ) ⟨M ⟩t
2
p(p − 1) ∗ p (p−2)/p
h
p/2
i2/p
≤ E [(Mt ) ] E ⟨M ⟩t ,
2
6.6. INÉGALITÉS DE BURKHOLDER-DAVIS-GUNDY 89
Preuve. La première inégalité a été prouvée dans le lemme 6.6.1 pour p ≥ 4, la deuxième
dans le lemme précédent pour p ≥ 2. Pour le cas général, on peut consulter l’ouvrage de
Revuz-Yor (chapitre 5). □
Si τ est un temps d’arrêt, en remplaçant M par la martingale locale arrêtée M τ , nous
obtenons
cp E ⟨M ⟩p/2 ≤ E [(Mτ∗ )p ] ≤ Cp E ⟨M ⟩p/2
τ τ .
Chapitre 7
Les équations différentielles stochastiques (EDS) peuvent être vues comme des équations
différentielles, ou comme des équations intégrales dans lesquelles interviennent des intégrales
stochastiques par rapport à un mouvement brownien. Elles ont été d’abord étudiées par
Itô, dans le but de construire les diffusions (c’est-à-dire, processus continus et fortement
markoviens dont les générateurs sont des opérateurs différentiels du second ordre). C’est
d’ailleurs dans ce but qu’il a introduit le calcul stochastique.
Un point de vue plus moderne consiste à voir les EDS comme des équations différen-
tielles ordinaires, perturbées par un bruit aléatoire. Typiquement, on considère une équation
différentielle de la forme y ′ (t) = b(t, y(t)), que l’on écrit sous forme différentielle dyt =
b(t, yt ) dt. On la perturbe en ajoutant un bruit de la forme σB, où B est un mouvement
brownien, et σ > 0 est une constante (qui représente l’intensité du bruit). On obtient l’EDS
dyt = b(t, yt ) dt + σ dBt , c’est-à-dire sous forme intégrale
Z t
yt = y0 + b(s, ys ) ds + σBt .
0
91
92 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
X0 = x
Lorsque de plus X0 = x ∈ Rd , on dira que (Ω, F , (Ft ), P, B, X) est une solution de Ex (σ, b).
Définition 7.1.2. (i) On dit qu’il y a existence faible pour E(σ, b), si pour tout x ∈ Rd ,
il existe une solution de Ex (σ, b).
(ii) On dit qu’il y a unicité faible pour E(σ, b) si pour tout x ∈ Rd , toutes les solutions
de Ex (σ, b) ont la même loi.
L’unicité faible est aussi appelée unicité en loi car elle concerne la loi de X.
Nous définissons
Z tXd
Bui
βt := dBui
0 i=1 ∥Bu ∥
et nous voyons facilement que β est une martingale dans L2 continue avec ⟨β⟩t = t, i.e. β
est un mouvement brownien réel. Puisque
Xd Z t Z t
i i
Bu dBu = ∥Bu ∥ dβu
i=1 0 0
Soit τ (t) := inf{s : ⟨M ⟩s > t}. Donc ⟨M ⟩τ (t) = τ⟨M ⟩t = t. D’après le théorème de
Dubins–Schwarz, Bt := Mτ (t) est un (Fτ (t) )-mouvement brownien.
Admettons pour l’instant la formule de changement de variables
Z τ (t) Z t
Hs dMs = Hτ (s) dMτ (s) , (7.34)
0 0
pour tout H processus (progressif) localement borné. (En général, ce genre de changement
de temps reste valable si M reste constante sur ]τs− , τs [ .) On pose
Z τ (t) Z τ (t) Z t
Xt := βτ (t) = x + dβs = x + σ(βs ) dMs = x + σ(Xs ) dBs .
0 0 0
= ⟨⟨H
] ·M − Hτ (·) · M
f⟩⟩t
= ⟨⟨H
] ·M ⟩⟩t + ⟨⟨Hτ (·) · M
f⟩⟩t − 2⟨⟨H
] ·M , Hτ (·) · M
f⟩⟩t
croissantes telles que A(0) = α(0) = 0. Alors pour toute fonction f : R+ → R+ mesurable,
Z t Z α(t)
f (α(s)) dA(α(s)) = f (u) dA(u). (7.35)
0 0
Il suffit de remarquer que la mesure dA est la mesure image de dA(α(s)) par l’application
α : [0, t] → [0, α(t)]. (Rappel : si ν est la mesure image de µ par l’application φ : E → F ,
R R
alors E f (φ) dµ = F f dν.) Or, ceci est tout à fait évident. En effet, soit ν la mesure image
de µ := dA(α(s)) par l’application α, alors par définition, pour tout [a, b] ⊂ [0, α(t)],
Définition 7.1.7. (i) On dit que l’EDS E(σ, b) a la propriété d’unicité trajectorielle
e associées au même espace (Ω, F , (Ft ), P) et au
si, pour tout x ∈ Rd , deux solutions X et X
même mouvement brownien B telles que X0 = X e0 p.s., sont indistinguables.
(ii) Fixons un espace filtré (Ω, F , (Ft ), P) (satisfaisant les conditions habituelles) et un
(Ft )-mouvement brownien B.
On dit que qu’un solution (Ω, F , (Ft ), P, B, X) de Ex (σ, b) est forte si X est adapté à
la filtration canonique de B.
On a vu l’existence et unicité faible pour cette EDS dans l’Exemple 7.1.3. Il n’y a en revanche
pas d’unicité trajectorielle de cette EDS. En effet, si X est une solution de l’EDS avec
X0 = 0, alors −X est aussi une solution : remarquons que X est un mouvement brownien
et la martingale 0 1{Xs =0} dBs = 0 car sa variation quadratique 0 1{Xs =0} ds est p.s. nulle.
Rt Rt
Cette EDS n’a pas de solution forte. Si X est une solution issue d’une valeur détermi-
niste, on peut montrer que la filtration canonique de X coïncide avec celle de |B|, qui est
strictement plus petite que celle de B. □
Le théorème suivant, que l’on admettra sans preuve, relie les différentes notions d’exis-
tence et d’unicité.
On établit dans cette section l’existence forte et l’unicité trajectorielle pour une famille
importante de coefficients. Durant toute la section, on a l’hypothèse suivante sur les coeffi-
cients.
Théorème 7.2.2. Sous l’Hypothèse 7.2.1, il y a unicité faible et unicité trajectorielle pour
E(σ, b). De plus, pour tout espace filtré (Ω, F , (Ft ), P) et tout (Ft )-mouvement brownien B,
il existe pour chaque x ∈ Rd une (unique) solution forte de Ex (σ, b).
Ce type de condition, qui sert à éviter l’explosion de la solution, intervient déjà dans les
équations différentielles ordinaires. □
Lemme 7.2.4.
(1) Pour tout X ∈ Es,T , Γη (X) ∈ Es,T .
(2) Pour η i ∈ Rd , X i ∈ Es,T , i = 1, 2, et Y i := Γηi (X i ), en définissant Ut := |Yt1 − Yt2 |,
Vt := |Xt1 − Xt2 |, si K > 0 alors
∥U ∥K ≤ ∥η 1 − η 2 ∥L2 + L C(K) ∥V ∥K , lim C(K) = 0. (7.36)
K→+∞
Preuve. Remarquons d’abord que par l’Hypothèse 7.2.1 il existe C > 0 tel que
|b(·, x)| + |σ(·, x)| ≤ C(1 + |x|), x ∈ Rd .
Alors si Y := Γη (X) et X ∈ Es,T :
Z t Z t
|Yt | ≤ |η| + C (1 + |Xu |) du + σ(u, Xu ) dBu .
s s
2
Par l’inégalité de Doob pour les martingales dans L
" #
Z r 2 Z t
2
E sup σ(u, Xu ) dBu ≤ 4E σ (u, Xu ) du
r∈[s,t] s s
Z t Z t
2 2 2
≤ 8C E (1 + |Xu | ) du = 8C (1 + ∥Xu ∥2L2 ) du.
s s
Donc si C0 := 4C
Z t Z t 21
∥Yt∗ ∥L2 ≤ ∥η∥L2 + C (1 + ∥Xu ∥L2 ) du + C0 (1 + ∥Xu ∥2L2 ) du
s s
et nous obtenons que Γη : Es,T 7→ Es,T .
Nous prouvons maintenant le deuxième résultat. Nous avons
Z t Z t
1 2
σ(u, Xu1 ) − σ(u, Xu2 ) dBu .
Ut ≤ |η − η | + L Vu du +
s s
98 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
Donc
"Z
t Z t 21 #
e−Kt ∥Ut∗ ∥L2 ≤ ∥η 1 − η 2 ∥L2 + Le−Kt ∥Vu ∥L2 du + 2 ∥Vu ∥2L2 du
s s
"Z
t Z t 21 #
≤ ∥η 1 − η 2 ∥L2 + Le−Kt ∥V ∥K eKu du + 2 e2Ku du
s s
12 !
1 2
≤ ∥η 1 − η 2 ∥L2 + L + ∥V ∥K .
K K
1 2
12
Donc C(K) := K
+ K
→ 0 quand K → +∞. □
Preuve. Par le lemme 7.2.4, nous savons que Γη : Es,T 7→ Es,T et que si K est suffisamment
grand (ici η 1 = η 2 )
Donc si K est suffisamment grand, Γη est une contraction dans Es,T muni de la norme ∥ · ∥K .
En particulier, il existe un seul point fixe X de Γη et de plus ∥Z n −X∥K → 0 quand n → +∞,
où
Zt0 := η, t ∈ [s, T ], Z n+1 := Γη (Z n ).
Par récurrence nous voyons que Ztn est σ(Br − Bs , r ∈ [s, t])-mesurable pour tout n et donc
B l’est aussi par passage à la limite en n. □
Preuve du Théorème 7.2.2. L’existence d’une solution forte est donnée par la Proposition
7.2.5. Nous prouvons l’unicité trajectorielle.
7.2. COEFFICIENTS LIPSCHITZIENS 99
Soient X et X
e deux solutions (sur le même espace, avec le même mouvement brownien),
telles que X0 = X
e0 . Fixons M > 0. Posons
n o
τ := inf t ≥ 0 : |Xt | + |X
et | ≥ M .
Pour tout t ≥ 0,
Z t∧τ Z t∧τ
Xt∧τ = X0 + σ(u, Xu ) dBs + b(u, Xu ) du,
0 0
e à la place de X. En définissant Ut := |Xt − X
et on a une équation similaire pour X et |
Z t∧τ Z t∧τ
Ut∧τ ≤ L Uu du + σ(u, Xu ) − σ(u, X
eu ) dBu .
0 0
Théorème 7.2.2 donne unicité trajectorielle pour Ex (σ, b), alors X et X̃ sont indistinguables
et ont donc la même loi. Nous avons ainsi prouvé que toute solution faible de Ex (σ, b) a la
même loi. □
Un processus (Xt )t≥0 à valeurs dans un espace mesurable (E, E ) est markovien si, pour
faire une prédiction sur son futur, on a exactement les mêmes informations si on connait toute
la trajectoire passée ou seulement l’état présent. Dans cette section nous allons formaliser
cette idée.
Définition 7.3.1. Une famille (ps,t (x, ·))0≤s≤t,x∈E de mesures de probabilités sur (E, E )
est dite un noyau de transition si
(1) pour tout A ∈ E l’application (s, t, x) 7→ ps,t (x, A) est mesurable
(2) pour tout A ∈ E et 0 ≤ s ≤ r ≤ t nous avons la relation de Chapman-Kolmogorov
Z
ps,t (x, A) = pr,t (y, A) ps,r (x, dy), ∀ x ∈ E,
E
et ps,s (x, ·) = δx .
Si pour tout t, s ≥ 0 nous avons ps,s+t = p0,t =: pt alors le noyau est dit homogène. Dans ce
cas la relation de Chapman-Kolmogorov devient
Z Z
ps+t (x, A) = pt (y, A) ps (x, dy) = ps (y, A) pt (x, dy), ∀ x ∈ E, t, s ≥ 0.
E E
Définition 7.3.2. Soit (ps,t (x, ·))0≤s≤t,x∈E un noyau de transition sur (E, E ). Un pro-
cessus adapté sur un espace filtré (Ω, F , (Ft ), P) à valeurs dan E est dit markovien avec
noyau de transition (ps,t (x, ·)) si pour toute f : E 7→ R+ mesurable
E(f (Xt ) | Fs ) = Ps,t f (Xs ) p.s.
R
où Ps,t f (x) := f (y) ps,t (x, dy). Si le noyau est homogène, le processus est dit homogène
R
aussi et l’on note Pt f (x) := f (y) pt (x, dy).
Théorème 7.3.3. Soit (pt (x, ·)) un noyau de transition homogène sur Rd et ν une me-
sure de probabilité sur Rd . Alors il existe au plus une mesure de probabilité Pν sur l’espace
102 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
pour tout choix de 0 = t0 < t1 < · · · < tn et Ai ∈ B(Rd ). Si ν = δx avec x ∈ Rd alors nous
notons Px := Pν . Le processus canonique est markovien sur (C(R+ , Rd ), F X , (FtX ), Pν ).
Preuve. Soit P := 0=t0 ≤t1 <···<tn ,n∈N σ(Xti , i = 0, . . . , n). Alors P ⊂ F X est un π-système
S
(i.e. stable par intersection finie) ; en plus, Pν est uniquement déterminée sur P par (7.38).
Par le lemme de la classe monotone nous obtenons l’unicité de Pν . □
Définition 7.3.4. Soit (pt (x, ·)) un noyau de transition homogène sur Rd . Si (Px )x∈Rd
est une famille de mesures de probabilités sur (C(R+ , Rd ), F X ) satisfaisant
Px (Xti ∈ Ai , i = 1, . . . , n) =
Z Z Z
(7.39)
= pt1 (x, dx1 ) pt2 −t1 (x1 , dx2 ) · · · ptn −tn−1 (xn−1 , dxn )
A1 A2 An
pour tout choix de 0 ≤ t1 < · · · < tn et Ai ∈ B(Rd ), alors (Px )x∈Rd est dite une famille
markovienne associée au noyau p.
Si (Px )x∈Rd est une famille markovienne, pour toute mesure de probabilité ν sur Rd on
définit la mesure de probabilité sur l’espace canonique
Z
Pν := ν(dx) Px .
Rd
Exemple 7.3.5. Si Wx est la loi de (x + Bt )t≥0 , où B est un MB, alors par la Proposition
2.3.1 (Wx )x∈R forme une famille markovienne avec noyau de transition homogène pt (x, ·) =
N (x, t), car si 0 < t1 < · · · < tn et Ai ∈ B(R) :
Wx (Xt1 ∈ A1 , · · · , Xtn ∈ An )
n
!
1 X (xk − xk−1 )2
Z
1
= p exp − dx1 · · · dxn ,
A1 ×···×An (2π)
n/2 t1 (t2 − t1 ) · · · (tn − tn−1 ) 2 k=1 tk − tk−1
avec x0 := x.
7.4. PROPRIÉTÉ DE MARKOV ET DIFFUSIONS 103
Exemple 7.3.7. Soit λ > 0 fixé et pt (x, ·) = N (e−λt x, (1−e−2λt )/(2λ)). On peut montrer
que (pt (x, ·))t≥0,x∈R est un noyau de transition homogène sur R (exercice !).
Par le Théorème 7.2.2, sous l’Hypothèse 7.2.1 l’équation E(σ, b) satisfait l’unicité faible,
l’unicité trajectorielle et l’existence de solutions fortes.
Etant donnés un espace filtré (Ω, F , (Ft ), P) et un (Ft )-mouvement brownien B, nous
avons vu dans la Proposition 7.2.5 comment construire une solution de E(σ, b) adapté à la
104 7. ÉQUATIONS DIFFÉRENTIELLES STOCHASTIQUES
Proposition 7.4.1. (ps,t (x, ·))x∈Rd ,0≤s≤t est un noyau de transition (voir la définition
7.3.1 ci-dessus).
Par le résultat d’unicité de la Proposition 7.2.5, nous obtenons que pour tous 0 ≤ s ≤ r ≤ t
p.s.
X(r, t, X(s, r, x)) = X(s, t, x). (7.40)
De plus, X(s, r, x) est Fr -mesurable alors que X(r, t, ·) est σ(Bu − Br , u ≥ r)-mesurable et
donc indépendant de Fr . Nous obtenons pour toute f : Rd → R mesurable et non-négative
Ps,t f (x) :=E [f (X(s, t, x))] = E [f (X(r, t, X(s, r, x)))] = E [E [f (X(r, t, X(s, r, x))) | Fr ]]
=E [Pr,t f (X(s, r, x))] = Ps,r Pr,t f (x).
Ceci conclut la preuve. □
7.4.2. Le cas homogène. Dans cette section, on suppose l’Hypothèse 7.2.1 et la pro-
priété suivante
σ(t, x) = σ(x), b(t, x) = b(x), (7.41)
c’est-à-dire que les coefficients ne dépendent pas du temps. Nous nous intéressons donc à
l’EDS Z t Z t
X(t, x) = x + b(X(u, x)) du + σ(X(u, x)) dBu , t≥0 (7.42)
0 0
qui satisfait unicité trajectorielle, unicité faible et existence de solutions fortes par le Théo-
rème 7.2.2. En particulier la loi Px de (X(t, x), t ≥ 0) est uniquement déterminée par (x, σ, b)
pour tout x ∈ Rd .
Remarquons que nous sommes en train de travailler avec deux (ou plusieurs) espaces de
probabilités. D’un côté nous avons un espace filtré (Ω, F , (Ft ), P) sur lequel est défini un
(Ft )-mouvement brownien B ; par la Proposition 7.2.5 nous construisons par une itération de
Picard une solution de (7.42) définie sur (Ω, F , (Ft ), P). De l’autre côté nous avons l’espace
canonique (C(R+ , Rd ), F X , (FtX )) sur lequel nous considérons les lois Px , pour x ∈ Rd .
On veut profiter de l’existence de ces deux points de vue, par exemple dans la preuve du
caractère markovien de (X(t, x), t ≥ 0, x ∈ Rd ).
Preuve. Comme nous l’avons montré dans la preuve de la proposition 7.2.5, en définissant
les processus
Z t Z t
Zt0 := x, t ≥ 0, Ztn+1 := x + b(Zun ) du + σ(Zun ) dBu , t≥0
0 0
nous avons que ∥Z n −X(·, x)∥K → 0 quand n → +∞. Par récurrence Z n est une fonctionnelle
mesurable de (x, B) pour tout n et la limite X(·, x) l’est aussi. □
Théorème 7.4.3. (Px , x ∈ Rd ) forme une famille markovienne avec noyau de transition
pt (x, dy) := P(X(t, x) ∈ dy) (voir la définition 7.3.4).
(s)
où Bt := Bt+s − Bs est un mouvement brownien independant de Fs et X(s, x) est Fs -
mesurable. Par la proposition 7.4.2, nous avons X(· + s, x) = Λ(X(s, x), B (s) ) et donc la loi
conditionnelle de X(· + s, x) sachant Fs est égale à PX(s,x) . □
Théorème 7.4.4 (Propriété de Markov forte). Sous l’Hypothèse 7.2.1 et (7.41), la famille
(Px , x ∈ Rd ) est fortement markovienne, i.e. si τ est un (FtX )-temps d’arrêt fini Px -p.s., et
si F : C(R+ , Rd ) → R+ est mesurable, alors
Ex F ◦ θτ | FτX = EXτ [ F ] ,
Px − p.s.
Par définition,
Z t+ρ Z t+ρ
X(t + ρ, x) − X(ρ, x) = σ(X(s, x)) dBs + b(X(s, x)) ds.
ρ ρ
Remarquons que X(ρ + ·, x) est continu et adapté à la filtration (Gt+ρ )t≥0 , donc progressif
(ρ)
par rapport à (Gt+ρ )t≥0 . Soit Bt := Bt+ρ −Bρ , t ≥ 0, qui est un (Gt+ρ )-mouvement brownien
indépendant de Gρ . Nous obtenons
Z t Z t
(ρ)
X(t + ρ, x) = X(ρ, x) + σ(X(u + ρ, x)) dBs + b(X(u + ρ, x)) ds.
0 0
Par la proposition 7.4.2, nous avons X(·+ρ, x) = Λ(X(ρ, x), B (ρ) ) et donc la loi conditionnelle
de X(· + ρ, x) sachant Gρ est égale à PX(ρ,x) . □
Dans cette section on suppose que σ et b sont des fonctions boréliennes et localement
bornées satisfaisant (7.41).
Il est important de pouvoir attacher des martingales continues aux processus que nous
avons construits. On note Cck (Rd ) l’espace des fonctions sur Rd de classe C k à support
compact.
7.5. LE PROBLÈME DE MARTINGALE 107
Théorème 7.5.1. Supposons que (7.41) soit satisfaite. Soit f ∈ Cc2 (Rd ). Soit
d d d
1 XX ∂ 2f X ∂f
L f (x) := (σσ ∗ )ij (x) (x) + bi (x) (x), (7.43)
2 i=1 j=1 ∂xi ∂xj i=1
∂x i
Z tX d
∂f
= Mt + (Xs )bi (Xs ) ds
0 i=1 ∂xi
Z d d m
1 t X X ∂ 2f X
+ (Xs ) σik (Xs )σjk (Xs ) ds
2 0 i=1 j=1 ∂xi ∂xj k=1
Z t
= Mt + L f (Xs ) ds
0
Remarque 7.5.2. Sous l’Hypothèse 7.2.1 et (7.41), X est un processus de Markov fort
Rt
continu tel que pour toute f ∈ Cc2 (Rd ), f (Xt ) − f (X0 ) − 0 L f (Xs ) ds soit une martingale,
où L est l’opérateur différentiel du second ordre défini dans (7.43). On dira que X est une
diffusion (homogène) de covariance σσ ∗ et de drift b. Les EDS apportent une construction
explicite de diffusions.
Le processus X permet de donner une approche ou une interprétation probabiliste de
nombreux résultats analytiques concernant l’opérateur L . Ces liens entre probabilités et
analyse ont été une motivation importante pour l’étude des équations différentielles stochas-
tiques. □
Définition 7.5.3 (Problème de martingale). Une probabilité Px sur C(R+ , Rd ) est une
solution du problème de martingale (a, b), issu de x ∈ Rd , si
(i) Px (X0 = x) = 1 ;
(ii) pour toute f ∈ Cc2 (Rd ),
Z t
Mtf := f (Xt ) − f (X0 ) − L f (Xs ) ds
0
Preuve. D’après le Théorème 3.2, si X est une solution de Ex (σ, b), alors la loi de X dans
C(R+ , Rd ) est une solution pour le problème de martingale (σσ ∗ , b) issu de x (notons que
Rt
si f (Xt ) − f (X0 ) − 0 L f (Xs ) ds est une (Ft )-martingale, alors elle est aussi une (FtX )-
martingale). La réciproque est admise, et est une conséquence du Theorem V.20.1 de Rogers
et Williams (1987) qui dit que si Px est une solution pour le problème de martingale (σσ ∗ , b)
issu de x, alors on peut construire dans un certain espace filtré une solution X pour l’EDS
Ex (σ, b) telle que X a pour loi Px . □
Dans l’ouvrage de Stroock-Varadhan on trouve une analyse très profonde des problèmes
de martingale pour les diffusions dans Rd .
Nous supposons dans cette section que σ et b sont continus et indépendants du temps.
Soit L l’opérateur différentiel défini par (7.43). On note Cbk (Rd ) l’espace des fonctions sur Rd
de classe C k continues et bornées avec leurs dérivées jusqu’à l’ordre k. Nous nous intéressons
7.6. LIENS AVEC DES EDP LINÉAIRES 109
u(·, x) ∈ C 1 (]0, +∞[), u(t, ·) ∈ Cb2 (Rd ), ∀ (t, x) ∈ ]0, +∞[×Rd . (7.45)
Théorème 7.6.1. Soit x ∈ Rd . Si u satisfait (7.44)-(7.45) et (Xt )t≥0 est une solution de
Ex (σ, b), alors
u(t, x) = Ex [f (Xt )], t ≥ 0. (7.46)
Remarque 7.6.2. Le théorème 7.6.1 dit que l’existence de Ex (σ, b) pour tout x implique
l’unicité de l’EDP (7.44) dans une classe de fonctions régulières. Une autre conséquence
intéressante de la représentation probabiliste (7.46) est le principe du maximum
∥u∥∞ ≤ ∥f ∥∞ ,
Théorème 7.6.3. Soit θ ∈ ]0, 1[. Si f , b et σ sont bornés et Hölder d’exposant θ, alors
il existe une et une seule fonction u satisfaisant (7.44)-(7.45).
où f ∈ Cb (Rd ).
Théorème 7.6.5. Soit x ∈ Rd . Si u satisfait (7.47)-(7.45) et (Xt )t≥0 est une solution de
Ex (σ, b), alors
Z t
u(t, x) = E f (Xt ) exp − V (Xs ) ds , t ≥ 0. (7.48)
0
Rs
Preuve. Le résultat suit en appliquant la formule d’Itô au processus (e− 0 V (Xu ) du
u(t −
s, Xs ))s∈[0,t] :
Rs
− 0s V (Xu ) du
R ∂u
d e − 0 V (Xu ) du
u(t − s, Xs ) = e − + L u − V u (t − s, Xs ) ds + dMs
∂t
où M est une martingale. Donc
Rt Rt
u(t, x) = e− 0 V (Xu ) du
u(0, Xt ) + Mt = e− 0 V (Xu ) du
f (Xt ) + Mt ,
Cette formule a été inspirée par la mécanique quantique, où V joue le rôle d’un potentiel.
λu − L u = f (7.49)
où f ∈ Cb (Rd ) et λ > 0.
Théorème 7.6.6. Soit x ∈ Rd . Si u satisfait (7.49), u ∈ Cb2 (Rd ) et (Xt )t≥0 est une
solution de Ex (σ, b), alors
Z ∞
u(x) = e−λt E [f (Xt )] dt. (7.50)
0
7.6. LIENS AVEC DES EDP LINÉAIRES 111
Preuve. Le résultat suit en appliquant la formule d’Itô au processus (e−λs u(Xs ))s∈[0,t] :
u(·, x) ∈ C 1 (]0, +∞[), u(t, ·) ∈ Cb2 (O), ∀ (t, x) ∈ ]0, +∞[×O. (7.52)
Théorème 7.6.7. Soit x ∈ O. Si u satisfait (7.51)-(7.52) et (Xt )t≥0 est une solution de
Ex (σ, b), alors pour tout t ≥ 0
Preuve. Le résultat suit en appliquant la formule d’Itô au processus (u(t−s∧τ, Xs∧τ ))s∈[0,t] :
∂u
du(t − s ∧ τ, Xs∧τ ) = − + L u (t − s ∧ τ, Xs∧τ ) ds + dMsτ
∂t
où M est une martingale bornée. Donc
Donc, par le théorème d’arrêt, en prénant l’espérance nous avons le résultat souhaité. □
On peut remarquer que cette solution est égale à celle d’une équation de Feynman-Kac avec
x∈O
0
V (x) =
+∞ x ∈ /O
car dans ce cas exp(− 0 V (Xu ) du) = 1(t<τ ) . On dit que le processus X est tué au bord de
Rt
O.
Théorème 7.6.9. Soit x ∈ O. Si u satisfait (7.54) et (Xt )t≥0 est une solution de Ex (σ, b)
/ O}, P(τ < +∞) = 1, alors
et, en définissant τ := inf{u > 0 : Xu ∈
Z τ
u(x) = E [g(Xτ )] + E f (Xs ) ds . (7.55)
0
Preuve. Le résultat suit en appliquant la formule d’Itô au processus (u(Xs∧τ ))s∈[0,t] :
du(Xs∧τ ) = 1(s<τ ) (−λu + L u) (Xs∧τ ) ds + dMsτ
où M est une martingale bornée. Donc
Z t∧τ
u(x) = u(Xt∧τ ) + f (Xs ) ds − Mtτ .
0
Par le théorème d’arrêt, en prénant l’espérance nous avons
Z t∧τ
u(x) = E [u(Xt∧τ )] + E f (Xs ) ds
0
et en faisant tendre t → +∞
Z τ
u(x) = E [g(Xτ )] + E f (Xs ) ds .
0
□
Chapitre 8
Références bibliographiques
113