Calculsto M2
Calculsto M2
Calculsto M2
M2 Mathématiques
Jean-Christophe Breton
Université de Rennes 1
Octobre–Décembre 2020
2 Théorème de Girsanov 27
2.1 Logarithme stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2 Théorème de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Mise en œuvre de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Girsanov dans le cadre brownien . . . . . . . . . . . . . . . . . . . . . . . . 35
5 Diffusions 85
5.1 Générateur d’une diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Semi-groupe d’une diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . 88
i
ii Table des matières
Ces notes de cours ont pour but d’introduire au calcul stochastique et à ses outils fon-
damentaux. Elles sont principalement destinées aux étudiants du Master 2 Mathématiques
et applications de l’Université de Rennes 1. Ces notes ont plusieurs sources d’inspiration,
dont principalement [LG1] mais aussi les notes de cours [Gué], [EGK], [Mal]. Par ailleurs,
des références standards conseillées sur le sujet sont les livres [KS], [RY] (en anglais) et
[Gal], [CM] (en français).
Le contenu de ces notes est le suivant :
Les propriétés de l’intégrale stochastique, en particulier la formule d’Itô et le théorème
de Girsanov, sont des outils qui fondent le calcul stochastique ; ils sont présentés dans
les Chapitres 1 et 2. Dans le Chapitre 3, on présente la notion d’équation différentielle
stochastique (EDS) à laquelle on donne un sens grâce à l’intégration stochastique. Le
calcul stochastique et la formule d’Itô en particulier permettent de créer des liens féconds
entre processus stochastiques et équations différentielles partielles (EDP). Ils sont illustrés
dans le Chapitre 4 par les liens entre mouvement brownien et équation de la chaleur. On
s’intéresse ensuite aux processus de diffusion, qui sont des solutions d’EDS particulières,
on les introduit dans le Chapitre 5. Le Chapitre 6 présente la notion de problème de
martingales qui permet de donner des solutions faibles d’EDS.
Les prérequis de ce cours sont les martingales en temps continu, le mouvement brownien
et l’intégration stochastique (niveau M2) pour lesquelles on pourra consulter [JCB-proc].
iii
iv ©JCB – M2 Math. – Université de Rennes 1
Chapitre 1
Dans ce chapitre, on prouve la formule d’Itô, véritable clef de voûte du calcul stochas-
tique. Celle-ci montre que lorsqu’on applique une application C 2 à une semimartingale, on
conserve une semimartingale ; elle en donne en plus la décomposition (martingale locale +
processus à variation finie). La formule d’Itô est prouvée en Section 1.1. Des conséquences
importantes en sont présentées dans les sections suivantes : théorème de Lévy (caractérisa-
tion du mouvement brownien par son crochet, Section 1.2 ), théorème de Dubins-Schwarz
(Section 1.3), inégalités de Burkholder-Davis-Gundy (BDG, Section 1.4), théorème de re-
présentation des martingales (Section 1.5), formule de Tanaka (Section 1.6).
La même formule reste vraie pour un processus X à variation finie en faisant un calcul
trajectoriel (pour chaque ω fixé, la trajectoire t 7→ Xt (ω) est à variation finie et le cas
précédent s’applique) : pour F une fonction de classe C 1 , on a alors
Z t
F (Xt ) = F (X0 ) + F 0 (Xs ) dXs .
0
1
2 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1
La formule d’Itô généralise cette propriété pour des semimartingales lorsque F est C 2 ; la
formule fait alors apparaı̂tre un terme supplémentaire dû au fait que ces processus ne sont
pas à variation finie, cf. (1.1) ci-dessous.
Démonstration : On traite d’abord le cas (1.1) c’est à dire p = 1. Considérons une suite
{0 = tn0 < · · · < tnpn = t}n≥1 de subdivisions emboı̂tées de [0, t] de pas tendant vers 0. Alors
en télescopant la somme, on a
pn −1
X
F (Xt ) = F (X0 ) + F (Xtni+1 ) − F (Xtni ) .
i=0
La formule de Taylor (Lagrange) à l’ordre 2 sur l’intervalle (non ordonné) (Xtni , Xtni+1 )
donne pour chaque ω ∈ Ω :
fn,i (ω)
F (Xtni+1 ) − F (Xtni ) = F 0 (Xtni )(Xtni+1 − Xtni ) + (Xtni+1 − Xtni )2
2
où " #
inf F 00 Xtni + θ(Xtni+1 − Xtni ) , sup F 00 Xtni + θ(Xtni+1 − Xtni ) .
fn,i ∈
θ∈[0,1] θ∈[0,1]
car alors, par unicité presque sûre de la limite en probabilité, on aura pour tout t ≥ 0 :
Z t
1 t 00
Z
0
F (Xt ) = F (X0 ) + F (Xs ) dXs + F (Xs ) dhX, Xis ps.
0 2 0
Les deux termes de l’égalité ci-dessus étant continus en t, les deux processus seront en fait
indistinguables, ce qui donnera (1.1).
Il reste donc à établir (1.3) ; pour cela, on note pour n < m :
pm −1
X
Tm = fm,j (ω)(Xtm
j+1
− Xtm
j
)2
j=0
pn −1
X X
Tn,m = fn,i (ω) (Xtm
j+1
− Xtm
j
)2 .
i=0 {j:tn m n
i ≤tj <ti+1 }
Ppm −1 Ppn −1 P
Comme = {j:tn m n (subdivisions emboı̂tées), on a
j=0 i=0 i ≤tj <ti+1 }
pn −1
X X
Tm = fm,j (ω)(Xtm
j+1
− Xtm
j
)2
i=0 {j:tn m n
i ≤tj <ti+1 }
et on peut écrire
|Tm − Tn,m |
pn −1 pn −1
X X
2
X X
2
= fm,j (ω)(Xtmj+1
− X tm) −
j
f n,i (ω)(X tm
j+1
− X tm)
j
i=0 {i:tni ≤tm n
j <ti+1 }
i=0 {j:tn m n
i ≤tj <ti+1 }
n −1
pX X
2
= fm,j (ω) − fn,i (ω) (Xtm j+1
− X tm)
j
i=0 {j:tni ≤tm n
j <ti+1 }
pn −1 pm −1
X X
2
X
≤ Zn,m (Xtm
j+1
− X tm)
j
= Z n,m (Xtm j+1
− Xtm j
)2
i=0 {j:tni ≤tm n
j <ti+1 }
j=0
avec !
Zn,m = sup sup |fm,j − fn,i | .
0≤i≤pn −1 {j:tn m n
i ≤tj <ti+1 }
ps
La continuité de F 00 assure que Zn,m −→ 0 quand n, m → +∞. D’après l’interprétation
Ppm −1 2 P
« variation quadratique » du crochet (Proposition ??), on a j=0 (Xtj+1 − Xtj ) −→
m m
hX, Xit . Et donc pour ε > 0 donné, il existe n1 ≥ 1 tel que pour tout m > n ≥ n1 ,
pm −1
!
X
)2 ≥ ε/3 ≤ ε/3.
P |Tm − Tn,m | ≥ ε/3 ≤ P Zn,m (Xtm
j+1
− Xtm
j
(1.4)
j=0
4 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1
P m −1
(Comme Zn,m −→ 0 et pj=0
P P
(Xtm
j+1
− Xtm
j
)2 −→ hX, Xit , le lemme de Slutsky assure
P m −1
Zn,m pj=0
P
(Xtm j+1
− Xtmj
)2 −→ 0.) Ensuite, comme les (tm
j )j:tn m n
i ≤tj <ti+1
forment une subdi-
n n
vision de [ti , ti+1 ], la Proposition ?? montre aussi qu’en probabilité :
pn −1
X X
P- lim Tn,m = P- lim fn,i (Xtm
j+1
− Xtm
j
)2
m→+∞ m→+∞
i=0 {j:tn m n
i ≤tj <tn+1 }
pn −1
X
= fn,i hX, Xitni+1 − hX, Xitni
i=0
Z t
= hn (s) dhX, Xis ,
0
Ppn −1
où hn = i=0 fn,i 1[tni ,tni+1 [ . Ainsi il existe n2 ≥ 1 tel que pour m ≥ n2 et tout n ≥ 0
Z t
P Tn,m −
hn (s) dhX, Xis ≥ ε/3 ≤ ε/3.
(1.5)
0
Puis comme F est C , on a limn→+∞ hn (s) = F 00 (Xs ) ps. De plus, on a pour tout s ∈
2
[tni , tni+1 [
hn (s) − F 00 (Xs ) = fn,i − lim fm,j(m) = lim fn,i − fm,j(m) ≤ lim Zn,m ,
m→+∞ m→+∞ m→+∞
et donc
sup |hn (s) − F 00 (Xs )| −→ 0,
P
n → +∞.
s∈[0,t]
Comme
(p −1 Z t )
Xm
fm,j (Xtm − Xtm )2 − F 00 (Xs ) dhX, Xis ≥ ε
j+1 j
j=0 0
⊂ {|Tm − Tn,m | ≥ ε/3}
Z t
∪ Tn,m −
hn (s) dhX, Xis ≥ ε/3
0
Z t Z t
00
∪ hn (s) dhX, Xis − F (Xs ) dhX, Xis ≥ ε/3
0 0
ce qui prouve (1.3) puisque ε > 0 est arbitraire. Finalement, la formule d’Itô (1.1) est
prouvée pour p = 1.
Dans le cas où p est quelconque, la formule de Taylor (toujours à l’ordre 2) donne
(1) (p) (1) (p)
F (Xtni+1 , . . . , Xtni+1 ) − F (Xti , . . . , Xtni )
i
p p k,l
X ∂F (1) (p) (k) (k)
X fn,i (k) (k) (l) (l)
= (Xtni , . . . , Xtni )(Xtni+1 − Xtni ) + (Xtni+1 − Xtni )(Xtni+1 − Xtni )
k=1
∂xk k,l=1
2
avec
" #
k,l ∂ 2F (1) (1) (1) ∂ 2
F (1) (1) (1)
fn,i ∈ inf (Xtni + θ(Xtni+1 − Xtni ), . . . ), sup (Xtni + θ(Xti − Xtni ), . . . ) .
θ∈[0,1] ∂xk ∂xl θ∈[0,1] ∂x k ∂x l i+1
Le 6) dans la Proposition ?? donne à nouveau la limite cherchée pour les termes faisant
intervenir les dérivées premières :
pi −1 p Z t
X ∂F (1) (p) (k) (k) P
X ∂F
(Xtni , . . . , Xtni )(Xtni+1 − Xtni ) −→ (Xs(1) , . . . , Xs(p) ) dXs(k) .
i=1
∂xk k=1 0
∂xk
Un cas particulier important de la formule d’Itô est la formule d’intégration par parties.
Le terme hX, Y i est nul si X ou Y est à variation finie. Il est présent quand on considère
de (vraies) semimartingales et ce terme supplémentaire témoigne de la différence entre le
calcul stochastique et le calcul différentiel déterministe.
Démonstration : Appliquer la formule d’Itô à F (x, y) = xy qui est bien de classe C 2 en
x, y et noter que
∂ 2F ∂ 2F ∂ 2F
(x, y) = 1, (x, y) = (x, y) = 0.
∂x∂y ∂x2 ∂y 2
6 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1
En particulier, si Y = X on obtient
Z t
Xt2 = X02 +2 Xs dXs + hX, Xit .
0
Remarque 1.3 — Lorsque X = M est une martingale locale, on sait que M 2 − hM, M i
est une martingale locale (définition du crochet du Théorème ??). La formule pré-
cédente montre que cette martingale locale est en fait
Z t
2
M0 + 2 Ms dMs ,
0
F (t, Xt ) = F (0, X0 )
Z t Z t
1 t ∂ 2F
Z
∂F ∂F
+ (s, Xs )dXs + (s, Xs )ds + (s, Xs ) dhX, Xis . (1.8)
0 ∂x 0 ∂t 2 0 ∂x2
| {z } | {z }
martingale locale variation finie
(1) (2)
En prenant Xt = t et Xt = Bt , (1.8) devient : pour toute fonction F de classe C 2 sur
R+ × R, on a :
t Z t
1 ∂ 2F
Z
∂F ∂F
F (t, Bt ) = F (0, B0 ) + (s, Bs ) dBs + + (s, Bs ) ds.
0 ∂x 0 ∂t 2 ∂x2
1.1. Formule d’Itô 7
(1) (p)
Si Bt = (Bt , . . . , Bt ) est un (Ft )-mouvement brownien en dimension d alors les B (i) sont
des mouvements browniens indépendants. On a vu au chapitre précédent que dans ce cas
hB (i) , B (j) i = 0 lorsque i 6= j et dhB (i) , B (i) is = ds. La formule d’Itô montre alors que,
pour toute fonction F de classe C 2 sur Rp ,
p Z t
1 p (1) (p)
X ∂F (1)
F (Bt , . . . , Bt ) = F (B0 , . . . , B0 ) + (Bs , . . . , Bs(p) )dBs(i)
i=1 0 ∂x i
Z t
1
+ ∆F (Bs(1) , . . . , Bs(p) )ds (1.9)
2 0
2 (1) (p)
où ∆F = di=1 ∂∂xF2 est le laplacien de F . On a aussi une formule analogue pour F (t, Bt , . . . , Bt ).
P
i
(1) (p)
En particulier si F est harmonique (ie. ∆F = 0) alors F (Bt , . . . , Bt ) est une martingale
locale.
Exponentielles stochastiques
On définit maintenant l’exponentielle stochastique E(M ) d’une martingale locale M
quelconque. La formule d’Itô justifie qu’il s’agit d’une martingale locale et explique la
terminologie, cf. la Remarque 1.5 ci-dessous. Pour commencer, on dit qu’un processus à
valeurs dans C est une martingale locale si ses parties réelle et imaginaire en sont.
Démonstration : Si F (x, r) est une fonction de classe C 2 sur R×R+ , la formule d’Itô assure
Z t
∂F
F Mt , hM, M it = F (M0 , 0) + Ms , hM, M is dMs
0 ∂x
Z t
1 ∂ 2F
∂F
+ + M s , hM, M is dhM, M is .
0 ∂r 2 ∂x2
Le processus F Mt , hM, M it est une martingale locale dès que sa partie à variation finie
s’annule, ie. lorsque F vérifie la condition :
∂F 1 ∂ 2F
+ = 0.
∂r 2 ∂x2
La preuve s’achève en observant que cette condition est satisfaite par la fonction F (x, r) =
2
exp λx − λ2 r (plus précisément par les parties réelle et imaginaire de cette fonction).
8 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1
∂F
Remarque 1.5 Avec F (x, r) = exp x − r/2 (prendre λ = 1 précédemment), ∂x
(x, r) =
F (x, r), si bien que l’identité
Z t
∂F
F Mt , hM, M it = F (M0 , 0) + Ms , hM, M is dMs
0 ∂x
s’écrit Z t
E(M )t = E(M )0 + E(M )s dMs (1.10)
0
ou en écriture symbolique d’EDS (cf. Chapitre 3) : dE(M ) = E(M )dM , ce qui généralise
l’équation dy = y dx de solution y(x) = ex avec la condition y(0) = 1 ou l’équation
dyt = yt dgt de solution yt = exp(gt ) si g est à variation finie nulle en 0 et avec la condition
initiale y0 = 1. Cette propriété justifie l’appelation exponentielle stochastique de M pour
E(M ).
Rt
Proposition 1.6R· 1. Soit f ∈ L2loc (B) avec 0 f (s)2 ds ≤ C ps pour une constante C finie
alors E( 0 fs dBs ) estRune vraie martingale de carré intégrable. En particulier pour
·
tout t ≥ 0, on a E[E( 0 fs dBs )t ] = 1.
2. Si f ∈ L2loc (B) est à valeurs complexes, on a
" Z #
Z t
· 2 Z ·
2
|f (s)| ds ≤ C =⇒ E E fs dBs < +∞ et E E fs dBs = 1.
0 0 0
R·
Démonstration : 1) Notons Zt = E( 0 f (s)dBs )t . On commence par supposer que |f (s)| ≤ k
pour tout s ∈ [0, t]. Pour l’exponentielle stochastique, la formule d’Itô s’écrit
Z t
Zt = 1 + Zs f (s) dBs .
0
Apriori comme E[Zs2 ] n’est pas finie, on considère les temps d’arrêt Tn = inf t ≥ 0 : Zt ≥
n , n ≥ 1, qui réduisent la martingale locale Z. En faisant comme précédemment, on peut
remplacer (1.11) par
2 2
Z u
2
2
E Zu 1{u≤Tn } ≤ E Zu∧Tn ≤ 2 1 + k E Zs 1s≤Tn ds . (1.12)
0
On peut alors appliquer le résultat classique suivant à E Zu2 1{u≤Tn } :
Lemme 1.7 (Grönwall) Soit g une fonction positive localement intégrable définie sur R+
telle que pour a, b ≥ 0
Z t
g(t) ≤ a + b g(s) ds. (1.13)
0
Le lemme de Grönwall (Lemme 1.7) assure alors E[Zs2 1{s≤Tn } ] ≤ 2 exp(2k 2 s) et par conver-
gence monotone on obtient E[Zs2 ] ≤ 2 exp(2k 2 s) lorsque n → +∞. On a donc Zs de carré
intégrable et borné dans L2 pour s ∈ [0, t]. Cela garantit f Z ∈ L2[0,t] (B) et E[Zt ] = 1. De
plus, comme f est bornée et Z borné dans L2 , on a
hZ t i
Zs2 fs2 ds < +∞,
E hZ, Zit = E
0
Dans le cas général, onRpose fn = (f ∧Rn) ∨ (−n) et on applique le cas précédent à fn . Par
t t
convergence monotone 0 fn (u)2 du % 0 f (u)2 du, n → +∞, et par isométrie et convergence
Rt L2 R t
dominée 0 fn (u)dBu −→ 0 f (u)dBu car
"Z 2 #
t Z t
Z t
E fn (u) dBu − f (u) dBu =E (fn (u) − f (u))2 du .
0 0 0
On a donc
Z t Z t Z t Z t
1 2 P 1
fn (s) dBs − fn (s) ds −→ f (s) dBs − f (s)2 ds
0 2 0 0 2 0
Par (1.14), on a donc (Zn (t))n≥1 uniformément intégrable. D’après le Théorème de Vi-
P L1
tali, la convergence Zn (t) −→ Z(t) se renforce en Zn (t) −→ Z(t) et on a en parti-
culier limn→+∞ E[Zn (t)] = E[Z(t)], ce qui assure E[Z(t)] = 1. Pour s ≤ t, on a aussi
L1
E[Zn (t)|Fs ] −→ E[Z(t)|Fs ]. En passant à la limite dans E[Zn (t)|Fs ] = Zn (s), il vient donc
E[Z(t)|Fs ] = Z(s) pour s ≤ t, ie. Z est une martingale.
Il reste à voir que cette martingale est L2 . Pour cela, on observe qu’on a mieux que l’uni-
forme intégrabilité dans L1 avec une meilleure propriété que (1.14), en effet :
Z t
3 t
Z
3 2
E[Zn (t) ] = E exp 3 fn (s) dBs − fn (s) ds
0 2 0
Z t
18 − 15 t
Z
2
= E exp 3 fn (s) dBs − fn (s) ds
0 2 0
Z t Z t 1/2
2
≤ E exp 6 fn (s) dBs − 18 fn (s) ds
0 0
1.2. Théorème de Lévy 11
Z t 1/2
2
×E exp 15 fn (s) ds
0
h Z · i
≤ E E 6fn (s) dBs t exp(15C/2) = exp(15C/2),
0
ce qui justifie que (Zn (t))n≥1 est uniformément intégrable dans L2 . On en déduit alors que
L2
Zn (t) −→ Z(t) et donc Z(t) ∈ L2 .
2) Pour le cas complexe, on écrit f = Re(f ) + iIm(f ) et on se ramène assez facilement au
cas réel.
En particulier, pour A ∈ Fs , on a :
h i
E 1A exp iu · (Xt − Xs )
h i
= E E 1A exp (iu · (Xt − Xs )) Fs
1 2 1 2
= E 1A exp −iu · Xs − kuk t E exp iu · Xt + kuk t Fs
2 2
1 2 1 2
= E 1A exp −iu · Xs − kuk t exp iu · Xs + kuk s
2 2
1
= P(A) exp − kuk2 (t − s) . (1.15)
2
soit
E 1A f (Xt − Xs ) = P(A)E f (Xt − Xs ) .
Comme c’est vrai pour tout A ∈ Fs , on a Xt − Xs ⊥ ⊥ Fs (argument de classes monotones).
(i) (i)
Finalement, pour tout 0 = t0 < t1 < · · · < tp , le vecteur Xtj − Xtj−1 1≤i≤d est un vecteur
1≤j≤p
gaussien (car obtenu en regroupant p vecteurs gaussiens indépendants). Par transformation
linéaire, (Xti )1≤i≤p est encore un vecteur gaussien pour tout (ti )1≤i≤p et donc X est un pro-
(i) (i)
cessus gaussien. Comme le vecteur Xtj − Xtj−1 1≤i≤d a ses composantes indépendantes,
1≤j≤p
le processus X est finalement gaussien, à accroissements indépendants et stationnaires et
(par hypothèse) à trajectoires continues, achevant de prouver que X (1) , . . . , X (d) sont d
mouvements browniens indépendants.
1.3 Dubins-Schwarz
Le résultat suivant montre que pour les martingales locales continues, le crochet est
une horloge interne qui permet de retrouver le processus quand on évalue un mouvement
brownien avec cette horloge. C’est une preuve supplémentaire du rôle central du mouvement
brownien dans la classe des martingales locales continues.
1.3. Dubins-Schwarz 13
ps ∀t ≥ 0, Mt = βhM,M it .
L’hypothèse sur hM, M i assure que τr < +∞ ps. De plus, la fonction r 7→ τr est
— croissante car si r ≤ s alors
où l’avant dernière égalité vient du Lemme 1.12 et du fait que pour t ∈ [τr− , τr ], on a
hM, M it = r. Par ailleurs, par composition de telles fonctions, les trajectoires de β sont
clairement continues à droite ; on conclut que le processus β est à trajectoires continues.
Nous montrons ensuite que βs et βs2 − s sont des martingales relativement à la filtration
(Gs )s≥0 . Pour tout n ≥ 1, les martingales locales arrêtées M τn et (M τn )2 − hM, M iτn
sont des vraies martingales uniformément intégrables (d’après le Théorème ?? puisque
hM τn , M τn i∞ = hM, M iτn = n). Le théorème d’arrêt s’applique pour ces martingales uni-
formément intégrables et donne alors pour r ≤ s ≤ n :
et
= (Mττrn )2 − hM τn , M τn iτr
= βr2 − r.
On a donc hβ, βis = s. Le Théorème 1.8 (Théorème de Lévy avec d = 1) assure alors que
β est un (Gr )r≥0 -mouvement brownien. Finalement, par définition de β, on a ps pour tout
t ≥ 0,
βhM,M it = MτhM,M it .
On a
τhM,M it = inf s ≥ 0 : hM, M is > hM, M it ≥ t,
si l’inégalité est stricte alors hM, M i est constante sur [t, τhM,M it ], et d’après le Lemme 1.12
M aussi, ce qui assure MτhM,M it = Mt et conclut que ps pour tout t ≥ 0 on a Mt = βhM,M it .
Par continuité des trajectoires, les deux processus sont indistinguables.
où Mt∗ = max0≤s≤t |Ms | sont de même ordre de grandeur sur [0, +∞[ pour tout m > 0.
1.4. Inégalités de Burkholder-Davis-Gundy 15
Remarque 1.16 En localisant correctement, on montre que (1.17) et (1.19) restent valables
pour M
martingale
locale continue. Pour que (1.18) reste valable, il faut supposer en plus
m
que E hM, M iT < +∞.
où δ > 0 et ε > 0 sont des constantes qui seront choisies plus tard et la deuxième expression
vient de la formule d’Itô. En appliquant la formule d’Itô pour f (x) = xm , on a pour t ≥ 0 :
Z t Z t
m m m−1
Yt = δ + m(1 + ε) Ys dhM, M is + 2m(m − 1) Ysm−2 Ms2 dhM, M is
0 0
Z t
+2m Ysm−1 Ms dMs .
0
Ci dessous, on passe à la limite dans les espérances avec le théorème de convergence dominée
en utilisant que M et son crochet hM, M i sont bornés.
Cas 1 : borne sup (1.17) pour 0 < m ≤ 1. Comme le dernier terme à droite de (1.20) est
négatif pour m ≤ 1, en faisant δ → 0, on a
Z T
2 m 2 m−1
E (εhM, M iT + MT ) ≤ m(1 + ε)E (εhM, M is + Ms ) dhM, M is
0
Z T
m−1 m−1
≤ m(1 + ε)ε E hM, M is dhM, M is
0
= (1 + ε)εm−1 E hM, M im
T (1.21)
et (1.21) donne
εm E hM, M im 2m
≤ (1 + ε)(ε/2)m−1 E hM, M im
T + E |MT | T . (1.23)
On déduit alors
Cas 2 : borne inf (1.18) pour m > 1. Dans ce cas, le dernier terme à droite de (1.20) est
positif, x 7→ xm−1 est croissante et x 7→ xm est convexe. Les inégalités dans (1.21), (1.23),
(1.24) se renversent pour mener à
1
Cas 3 : borne inf (1.18) pour 2
< m ≤ 1. En faisant ε = 0 et δ → 0 dans (1.20), on a
Z T
2m
1 2(m−1)
E |MT | = 2m m − E |Ms | dhM, M is . (1.25)
2 0
Cas 4 : borne sup (1.17) pour m > 1. Dans ce cas, l’inégalité (1.26) s’inverse et on a
−1
(1 + ε)21−m
2m m
E hM, M im
E |MT | ≤ε −1 T
2m − 1
où ε doit vérifier ε > (2m − 1)2m−1 − 1.
Les cas 1–4 établissent (1.17) et (1.18). Pour prouver (1.19), on applique l’inégalité maxi-
male de Doob à la (Ft )-martingale (MT ∧t )t≥0 . On a alors pour m > 1/2 :
En plus des inégalités de martingales de la Prop. 1.15, la preuve des inégalités BDG du
Th. 1.13 utilise également l’inégalité de Lenglart :
Proposition 1.17 (Inégalité de Lenglart) Soit (Xt )t≥0 un processus à trajectoires continues
et positives partant de 0 et (At )t≥0 un processus continu croissant tels que
Remarque 1.18 1. Noter que la condition (1.27) est remplie si X = M 2 où M est
une martingale continue bornée dans L2 car par définition du crochet de M , on
a Xt − At = Mt2 − hM, M it martingale locale et c’est une vraie martingale car
M ∈ L2 . Le théorème (avec T borné et 0 ≤ T ) donne en prenant l’espérance
2 d’arrêt
2
E MT − AT = E M0 − A0 , ie. E[XT ] = E[AT ].
2. La condition (1.27) est encore remplie si M est une martingale locale réduite par Tn :
on peut supposer que M Tn est une martingale L2 pour laquelle d’après 1) (1.27) est
vraie, ie.
E[XT ∧Tn ] = E[AT ∧Tn ] ≤ E[AT ].
Mais comme Tn % +∞ et T est borné, par le lemme de Fatou, il vient :
E[XT ] = E lim inf XT ∧Tn ≤ lim inf E[XT ∧Tn ] ≤ lim inf E[AT ∧Tn ] ≤ E[AT ].
n→+∞ n→+∞ n→+∞
(th. de Fubini)
p p p−1
+ E ApT
≤ E[AT ] + E AT × AT
1−p
2−p p
≤ E AT .
1−p
Corollaire 1.19 Soit (M (n) )n≥1 une suite de martingales locales et T un temps d’arrêt tels
P (n) P
que hM (n) , M (n) iT −→ 0. Alors sups≤T |Ms | −→ 0 quand n → +∞.
Le deuxième terme tend vers 0 directement par l’hypothèse. Comme hM (n) , M (n) iT ∧ δ ≤ δ
est borné et uniformément intégrable,
le premier terme
tend aussi vers 0 par le théorème
(n) 2
de Vitali. Finalement, limn→+∞ P sups≤T |Ms | > ε = 0, ce qui assure en probabilité :
sup |Ms(n) | −→ 0,
P
n → +∞.
s≤T
Avec les inégalités de martingales (Prop. 1.15) et l’inégalité de Lenglart (Prop. 1.17), tout
est en place pour prouver les inégalités BDG (Th. 1.13) :
Démonstration des inégalités BDG (Théorème 1.13). D’après les inégalités de martingales
précédentes (Proposition 1.15) et la Remarque 1.16 qui les suit, (1.16) est valable pour
20 Chapitre 1. ©JCB – M2 Math. – Université de Rennes 1
Par conséquent, pour toute martingale M continue et bornée dans L2 (respectivement pour
toute martingale locale M continue), il existe un (unique) processus h ∈ L2 (B) (resp.
h ∈ L2loc (B)) et une constante C réelle tels que
Z t
Mt = C + h(s, ω) dBs .
0
Lemme 1.21 Sous les hypothèses du théorème précédent, l’espace vectoriel engendré par
les variables aléatoires n
X
exp i λj (Btj − Btj−1 )
j=1
On a donc, d’abord par approximation, pour tout ouvert borné U de Rn puis, par un
argument de classe monotone, pour tout borélien U de Rn :
E Z 1U (Bt1 , Bt2 − Bt1 , . . . , Btn − Btn−1 ) = 0.
puisque
Z +∞ Z +∞
Z = E[Z] + h(s, ω) dBs = E[Z] + h(s, ω) dBs .
e
0 0
R +∞
par l’isométrie d’Itô et parce que 0 h(s, ω) dBs est centrée. Il en découle facilement que
si (Zn )n≥0 est une suite dans H qui converge dans L2 (Ω, F∞ ) vers Z, on a
Z +∞ 2
2 2
E[(Zn − Zm ) ] = E[Zn − Zm ] + E hn (s, ω) − hm (s, ω) ds ,
0
et les processus hn associés à Zn forment une suite de Cauchy dans L2 (B) donc convergent
vers h ∈ L2 (B). D’aprèsR la propriété d’isométrie de l’intégrale stochastique (Théorème ??),
+∞
on a alors Z = E[Z] + 0 h(s, ω) dBs et donc H est un espace fermé.
1.5. Représentation des martingales browniennes 23
Ensuite, on montre que H contient les variables Paléatoires du Lemme 1.21 : pour 0 = t0 <
n
t1 < · · · < tn et λ1 , . . . , λn ∈ R, notons f (s) = j=1 λj 1]tj−1 ,tj ] (s) et E f la martingale expo-
R·
nentielle E i 0 f (s) dBs (cf. Proposition 1.4). La formule d’Itô (1.10) pour l’exponentielle
stochastique montre que
n n Z +∞
X 1X 2
f
exp i λj (Btj − Btj−1 ) + λj (tj − tj−1 ) = E∞ = 1 + i Esf f (s) dBs
j=1
2 j=1 0
soit
Xn
exp i λj (Btj − Btj−1 )
j=1
n Z +∞ n
1X 2
1X
= exp − λj (tj − tj−1 ) + i exp − λ2j (tj − tj−1 ) Esf f (s) dBs .
2 j=1 0 2 j=1
On a donc
( n
! )
X
exp i λj (Btj − Btj−1 ) : λj ∈ R, 0 = t0 < t1 · · · < tn , n ∈ N ⊂H
j=1
Par unicité dans la deuxième partie, si m < n, on a hn (s, ω) = hm (s, ω), ds-pp sur [0, Tm ]
ps. Il est alors facile de construire h ∈ L2loc (B) tel que, pour tout m, h(s, ω) = hm (s, ω)
ds-pp sur [0, T
Rm ] ps. La formule annoncée découle ensuite de la construction de l’intégrale
t
stochastique 0 h(s, ω) dBs et l’unicité de h s’obtient aussi facilement par un argument de
localisation.
Remarque 1.22 Sous les hypothèses du Théorème 1.20, notons N la classe des P-néglige-
ables de σ(Bt : t ≥ 0) et pour tout t ≥ 0, Gt = σ(Bs : 0 ≤ s ≤ t) ∨ N . A priori, on a
Ft = Gt+ . En fait, le Théorème 1.20 entraı̂ne que Gt = Gt+ = Ft (le cas t = 0 est la loi de
Blumenthal !). En effet, si Z est une variable aléatoire Ft -mesurable bornée, on a
Z t Z t−ε
2
Z= h(s, ω) dBs = (L )- lim h(s, ω) dBs
0 ε↓0 0
et quitte à prendre une sous-suite, on voit que Z est limite ps de variables (Gt )t -mesurables
(car si ε > 0 : Ft−ε ⊂ Gt ).
où sgn(x) = −1, 1 selon que x ≤ 0, x > 0. De plus, la mesure (de Stieltjes) dLat associée à
Lat est portée par {t ∈ R : Xt = a}.
uniformément sur les compacts. Par conséquent, An converge vers un processus Aϕ croissant
car limite de processus croissants. En passant à la limite dans (1.32), il vient
Z t
1
ϕ(Xt ) = ϕ(X0 ) + ϕ0− (Xs )dXs + Aϕt (1.33)
0 2
puis le processus Aϕ peut être choisi continu (par indistinguabilité car il s’exprime comme
différence de processus continus).
On applique (1.33) à ϕ(x) = (x − a)+ fonction convexe de dérivée à gauche ϕ0− = 1]a,+∞[ :
il existe un processus croissant A+ tel que
Z t
+ + 1
(Xt − a) = (X0 − a) + 1{Xs >a} dXs + A+ . (1.34)
0 2 t
De la même façon avec ϕ(x) = (x − a)− fonction convexe de dérivée à gauche ϕ0− =
−1]−∞,a] : il existe un processus croissant A− tel que
Z t
− − 1
(Xt − a) = (X0 − a) − 1{Xs ≤a} dXs + A− . (1.35)
0 2 t
Par différence de (1.34) et (1.35), comme x = x+ − x− , on a
Z t
1 −
X t = X0 + dXs + (A+
t − At ). (1.36)
0 2
Exemple 1.24 Pour le mouvement brownien B, la formule de Tanaka (Th. 1.23) s’écrit :
Z t
|Bt | = sgn(Bs )dBs + LB
t
0
= βt + LB
t , (1.37)
où LB = (LB t )t≥0 est le temps Rlocal du mouvement brownien en 0. Par le théorème de
t
Lévy (Th. 1.8), on observe βt = 0 sgn(Bs )dBs , t ≥ 0, est un (autre) mouvement brownien.
L’identité (1.37) ci-dessus correspond aussi la décomposition de Doob-Meyer de la semi-
martingale (|Bt |)t≥0 .
où ϕ00 (da) est la mesure associée à ϕ00 à comprendre dans le sens des distributions. On a
alors la formule d’Itô-Tanaka pour ϕ convexe :
Z t Z +∞
0
ϕ(Xt ) = ϕ(X0 ) + ϕ− (Xs )dXs + Lat ϕ00 (da). (1.38)
0 −∞
La formule (1.38)
Pp se généralise immédiatement à une combinaison linéaire de fonctions
00
convexes ϕ = i=1 αi ϕi . Dans ce cas, ϕ devient une mesure signée.
Chapitre 2
Théorème de Girsanov
27
28 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1
Démonstration : 1) Pour A ∈ Ft ⊂ F∞ , on a
Q(A) = EQ [1A ] = EP [1A D∞ ] = EP 1A EP [D∞ |Ft ] .
Comme EP [D∞ |Ft ] est Ft -mesurable, par unicité de la dérivée de Radon-Nikodym, il vient
Dt = EP [D∞ |Ft ] ps, ce qui assure que D est une (Ft )-martingale (filtration complète) ; de
plus, elle est uniformément intégrable car fermée.
2) D’après le Théorème ?? (régularisation trajectorielle des martingales), D admet une
version càdlàg. On peut donc considérer que D est càdlàg, ce qui permet d’appliquer le
théorème d’arrêt (D est uniformément intégrable) : si T est un temps d’arrêt et A ∈ FT ,
on a :
Q(A) = EQ [1A ] = EP [1A D∞ ] = EP [1A DT ].
Comme DT est FT -mesurable, par unicité de la dérivée de Radon-Nikodym, on a DT =
dQ
dP |FT
.
3) Posons S = inf t ≥ 0 : Dt = 0 ; il s’agit d’un temps d’arrêt. Sur {S < +∞}, on peut
considérer sn & S avec Dsn = 0, la continuité à droite de D assure alors DS = 0. Avec
A = {S < +∞} ∈ FS , on a d’après le 2) : Q(A) = EP [1A DS ] = 0 et donc par hypothèse
on a aussi P(A) = 0. Ainsi, S = +∞ P (ou Q)-presque sûrement, c’est à dire Dt > 0 pour
tout t ≥ 0.
2.1. Logarithme stochastique 29
Démonstration : Unicité. Si Dt = exp Lt − 12 hL, Lit = exp L0t − 12 hL0 , L0 it pour tout
t ≥ 0 alors Lt − L0t = 12 hL, Lit − 21 hL0 , L0 it pour tout t ≥ 0 ce qui exige L = L0 par le
Théorème ?? (une martingale locale à variation bornée et issue de 0 est nulle !).
Existence. Prenons L donné par (2.3) et remarquons que
Z t
dhD, Dis
hL, Lit = .
0 Ds2
par propriété de P-martingale pour (XD)T . On a aussi A ∩ {T > s} ∈ FT car pour tout
u ≥ 0,
si s ≤ u A ∩ {T > s} ∩ {T ≤ u} ∈ Fs ∩ Fu ⊂ Fu ,
si s > u A ∩ {T > s} ∩ {T ≤ u} = ∅ ∈ Fu .
puisque d’après la Proposition 2.2 on a dhM, Lis = Ds−1 dhM, Dis . Comme M et D sont des
P-martingales, les intégrales stochastiques contre D et M en sont aussi aussi et l’égalité
(2.6) montre alors que M fD est une P-martingale locale. La conclusion vient de la Propo-
sition 2.3.
Démonstration : Directe.
En particulier, ce corollaire montre que la classe des (Ft , P) semimartingales continues est
contenue dans celle des (Ft , Q) semimartingales continues. Mais en fait, on a mieux :
Corollaire 2.6 Sous les hypothèses du Théorème 2.4 (Girsanov), les classes des (Ft , P)
semimartingales continues et des (Ft , Q) semimartingales continues coı̈ncident.
Démonstration : Il suffit de montrer que sous les hypothèses du Théorème 2.4 (Girsanov),
−1
les rôles de P et Q sont symétriques. Notons que dQ dP
dP |Ft
= 1/ dQ |Ft
= D t . On applique
f = M − hM, Li
On peut alors justifier (2.5) puisqu’avec les notations précédentes avec M
e = −L + hL, Li, on a
et L
GQP (M ) = M − hM, Li
32 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1
GPQ (M ) = M − hM, Li
e
= M − M, (−L + hL, Li)
= M + hM, Li
et donc
Démonstration : En effet dans les deux cas, hX, Y i est donné par l’approximation de la
Proposition ?? qui ne change pas si on change P en Q. Ou encore, le changement de pro-
babilité n’affecte que la partie à variation finie d’une semimartingale donc pas son crochet.
Corollaire 2.8 Pour T > 0 une date déterministe fixée, on se donne une filtration (Ft )t∈[0,T ]
et on suppose qu’elle vérifie les conditions habituelles (chaque Ft contient les P-négligeables
de FT ). Si Q ∼ P, on définit comme précédemment la martingale (Dt )t∈[0,T ] et, si D a une
version continue, on définit la martingale (Lt )t∈[0,T ] . Alors, l’analogue du Théorème 2.4
(Girsanov) reste vrai pour [0, T ].
puisque
E[E(L)∞ ] = E lim E(L)t = E lim inf E(L)t ≤ lim inf E[E(L)t ] ≤ 1 (2.8)
t→+∞ t→+∞ t→+∞
E[E(L)∞ ] = 1, (2.9)
on a bien mieux : dans ce cas, Q = E(L)∞ ·P est une probabilité équivalente à P avec
processus dérivée de Radon-Nikodym D = E(L) et donc de logarithme stochastique
L. Cela assure qu’on est donc bien dans le cadre du théorème de Girsanov (Th. 2.4).
En pratique, si M est une P-martingale locale, si on change sa partie à variation finie en
retranchant hM, Li, on a toujours une martingale locale en changeant P en Q, probabilité
équivalente de densité donnée par l’exponentielle stochastique E(L). Il faut cependant que
la condition (2.9) soit satisfaite. Il est donc important de pouvoir donner des conditions
qui assurent (2.9). C’est l’objet du résultat suivant :
Théorème 2.9 (Conditions de Novikov) Soit L une martingale locale continue telle que
L0 = 0. Considérons les conditions suivantes :
h
(1) E exp 21 hL, Li∞ ] < +∞ ;
(2) L est une martingale uniformément intégrable et E exp( 12 L∞ ) < +∞ ;
Démonstration : (1) ⇒ (2) Comme d’après (1) E[hL, Li∞ ] < +∞, L est une vraie martin-
gale bornée dans L2 (cf. Th. ??). Elle est donc uniformément intégrable. Puis, par définition
de E(L)∞ :
1/2
1 1/2 1
exp L∞ = E(L)∞ exp hL, Li∞ .
2 2
Par l’inégalité de Cauchy-Schwarz, comme l’inégalité (2.7) est toujours vraie, on a
1/2 1/2
1 1/2 1 1
E exp L∞ ≤ E [E(L)∞ ] E exp hL, Li∞ ≤ E exp hL, Li∞ < +∞.
2 2 2
(2) ⇒ (3) Puisque L est une martingale uniformément intégrable, elle est fermée et on a
Lt = E[L∞ |Ft ]. Par l’inégalité de Jensen avec exp, on a alors
1 1 1
exp Lt = exp E[L∞ |Ft ] ≤ E exp L∞ |Ft ,
2 2 2
34 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1
ce qui assure, par (2), que exp( 12 Lt ) ∈ L1 . Par convexité de exp, exp( 12 Lt ) est une sous-
martingale qui, par l’inégalité précédente, est fermée par exp( 12 L∞ ) (en tant que sous-
martingale). En appliquant le théorème d’arrêt (Th. ??) pour les (sur)sous-martingales
fermées,pour tout temps d’arrêt T , on a exp( 21 LT ) ≤ E[exp( 12 L∞ )|FT ]. Cela assure que la
famille exp( 12 LT ) : T temps d’arrêt est uniformément intégrable.
(a) aLt
Puis pour 0 < a < 1, on pose Zt = exp 1+a . Un calcul direct donne
2 (a) 2
E(aL)t = (E(L)t )a (Zt )1−a .
Si Γ ∈ F∞ et T est un temps d’arrêt, l’inégalité de Hölder avec les indices conjugués
p = 1/a2 et q = 1/(1 − a2 ) donne
a2 1 i2a(1−a)
(a) 1−a2 (a) 1−a2
h
E 1Γ E(aL)T ≤ E E(L)T E 1Γ Zt ≤ E 1Γ Zt ≤ E 1Γ exp LT
2
(2.10)
où, pour la deuxième inégalité, on a utilisé que E(L) est une surmartingale positive, ie.
E [E(L)T ] ≤ E [E(L)0 ] = 1
puis pour la troisième on a utilisé l’inégalité de Jensen avec ϕ(x) = x(1+a)/(2a) (convexe
pour 0 < a < 1), ie.
h i(1+a)/(2a) h i h i 1
(a) (a) (a)
E 1Γ Zt = ϕ E 1Γ Z t ≤ E ϕ(1Γ Zt ) = E 1Γ exp LT .
2
Comme la famille exp( 21 LT) : T temps d’arrêt est uniformément
intégrable, l’inégalité
(2.10) montre que la famille E(aL)T : T temps d’arrêt l’est aussi. D’après la Proposition
??, cela entraı̂ne alors que E(aL) est une vraie martingale uniformément intégrable. Il suit
alors
2a(1−a)
a2 (a) 1−a2 a2 1
1 = E [E(aL)0 ] = E [E(aL)∞ ] ≤ E [E(L)∞ ] E Z∞ ≤ E [E(L)∞ ] E exp L∞
2
avec, à nouveau pour la dernière égalité, l’inégalité de Jensen avec ϕ(x) = x(1+a)/(2a) . En
faisant a → 1, la dernière borne implique E [E(L)∞ ] ≥ 1 et donc avec (2.7) toujours valable
on a obtenu E [E(L)∞ ] = 1.
(3) ⇒ (4) On montre d’abord que E(L) est une vraie martingale sous (2.9) : en effet sous
(2.9), il y a égalité dans les inégalités (2.8), soit nécessairement E[E(L)t ] = E[E(L)s ] pour
tout s ≤ t, ce qui combiné avec E[E(L)t |Fs ] ≤ E(L)s exige E[E(L)t |Fs ] = E(L)s , c’est à
dire E(L) est une vraie martingale.
ps
Puis comme E(L)t −→ E(L)∞ avec E |E(L)t | = E |E(L)∞ | = 1 alors le lemme de Scheffé
(Lemme 2.10 ci-dessous) garantit que E(L)t → E(L)∞ dans L1 .
D’après la Proposition ?? sur la convergence des martingales, c’est équivalent à avoir E(L)
uniformément intégrable (ou martingale fermée).
2.4. Girsanov dans le cadre brownien 35
ps
Lemme
2.10 (Scheffé) Soit X n −→ X. Alors E |X n | → E |X| si et seulement si E |Xn −
1
X| → 0, ie. Xn → X dans L .
Démonstration : Par le Théorème 2.4 (Girsanov), B e = B − hB, Li est une (Ft , Q)-
martingale locale continue de variation quadratique hB, e t = hB, Bit = t, t ≥ 0. Le
e Bi
Théorème de Lévy (Th. 1.8) assure alors que B
e est un (Ft , Q)-mouvement brownien.
Rt
Dans le corollaire suivant, on prend Lt = 0 f (s)dBs ; il s’agit du Théorème de Girsanov
original (1960). On rappelle que, pour le mouvement brownien B,
Z t
L2loc (B) = H : Ω → R : progressif avec pour tout t ≥ 0 E 2
Hs (·) ds < +∞
0
et ici on considère
Z T
L2[0,T ] (B) = H : Ω → R : progressif avec E 2
Hs (·) ds < +∞ .
0
Corollaire 2.12 (Girsanov brownien 2) Soit B un R t (Ft , P)-mouvement brownien et, pour T
2
déterministe fixé, f ∈ L[0,T ] (B) telle que Lt = 0 f (s)dBs satisfait (2.9) (en satisfaisant
une des conditions de Novikov du Th. 2.9). Soit Q de densité (par rapport à P)
Z T Z T
1 2
DT = exp f (s)dBs − f (s) ds .
0 2 0
On spécialise encore davantage le théorème de Girsanov (Th. 2.4) dans le cadre brownien
en prenant maintenant des intégrales stochastiques avec des intégrants f déterministes. On
obtient la formule de Cameron-Martin (1944) :
est une densité de probabilité qui définit une probabilité Q (par dQ = DT dP).
(2) Le processus
Z t∧T
BtQ = Bt − f (s)ds, t ≥ 0,
0
Démonstration : Il suffit de
R t prouver le point 1). Le point 2) estRalors donné par le Corol-
t
laire 2.12. On prend Lt = 0 f (s)dBs dans (2.2). On a hL, Lit = 0 f (s)2 ds et comme f est
déterministe, la condition E[exphL, LiT ] < +∞ est garantie. Le Théorème 2.9 assure alors
la condition de Novikov (2.9) et donc (Dt )t∈[0,T ] est bien une densité de probabilité et Q
une probabilité.
Rt
Dans le cadre gaussien pour Lt = 0 f (s) dBs avec f ∈ L2[0,T ] (B), on donne une condition
plus explicite qui garantit (2.9) mais pour un horizon T fini :
Proposition 2.14 Soit T une date déterministe fixée et f ∈ L2[0,T ] (B). On suppose qu’il
existe a > 0 et C ∈]0, +∞[ tels que pour tout t ∈ [0, T ] on ait
alors E[E(L)T ] = 1, ie. la condition (2.9) garantissant le théorème de Girsanov (Th. 2.4)
sur [0, T ] est satisfaite.
2.4. Girsanov dans le cadre brownien 37
Démonstration : On localise afin deR pouvoir appliquer la Proposition 1.6 qui garantit que
RT 2 ·
si 0 f (s) ds est bornée alors E E( 0 f (s)dBs )T = 1. Pour cela, on pose τn = inf t ≥ 0 :
Rt
0
f (s)2 ds ≥ n . La suite fn = f 1[0,τn ] est telle que quand n → +∞
RT
fn (u)2 du ≤ n,
0
(2.12)
RT R T
0
fn (u)2 du % 0 f (u)2 du, (2.13)
RT L 2 R T
0
fn (u)dBu −→ 0 f (u)dBu (isométrie d’Itô). (2.14)
R· R·
On note Vn = E 0 fn (s)dBs et V = E 0 f (s)dBs . Avec ces notations, il s’agit de
montrer que E[V (T )] = 1. Fixons r, s tels que 0 ≤ r ≤ s ≤ T avec |s − r| ≤ a/6 et écrivons
2 Z s Z s
Vn (s) 2
= exp 2 fn (u)dBu − fn (u) du
Vn (r) r r
Z s Z s Z s
2 2
= exp 2 fn (u)dBu − 4 fn (u) du exp 3 fn (u) du .
r r r
Vn (s) Vn (s)
Comme les moments d’ordre 2 de Vn (r)
sont bornés, on en déduit que Vn (r)
est uniformément
P
intégrable. De plus, avec (2.13) et (2.14), on montre que Vn (t) −→ V (t) (cf. preuve de la
38 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1
Vn (s) P V (s)
Proposition 1.6). On a donc aussi Vn (r)
−→ V (r)
et avec le théorème de Vitali :
Vn (s) V (s)
lim = dans L1 .
n→+∞ Vn (r) V (r)
où la limite
R · 1 vientde ce que pour fn , on a (2.12), assurant par la Proposition 1.6 que
Vn = E 0 fn (s)dBs est une vraie martingale :
Vn (s) E[Vn (s)|Fr ] Vn (r)
E F r = = = 1.
Vn (r) Vn (r) Vn (r)
k
Pour conclure, il décompose [0, T ] en une subdivision tk = m T , 0 ≤ k ≤ m, avec m
assez grand pour que le pas vérifie T /m ≤ a/6. On écrit alors V (T ) = V (tm−1 ) ×
V (tm )/V (tm−1 ) avec V (tm−1 ) variable aléatoire Ftm−1 -mesurable et E V (tm )/V (tm−1 )|Ftm−1 =
1 par ce qui précède. Finalement, par récurrence :
E[V (T )] = E[V (tm )] = E V (tm−1 ) × V (tm )/V (tm−1 )
= E V (tm−1 )E[V (tm )/V (tm−1 )|Ftm−1 ]
= E[V (tm−1 )] = 1,
Exemple 2.15 (Étude du sup d’un mouvement brownien avec dérive) Pour étudier la loi
du sup de B et = Bt + bt sur [0, T ], il suffit de connaı̂tre la loi du couple (BT , sup0≤t≤T Bt ).
En effet, d’après la formule de Cameron-Martin, on a
1 2
P sup (Bt + bt) ≥ x = EP exp bBT − b T 1{sup0≤t≤T Bt ≥x} .
0≤t≤T 2
Plutôt que de considérer les deux fonctions aléatoires B et m + B dont la loi est mesurée
par la même probabilité P, il est équivalent de considérer qu’il ne peut observer qu’une
fonction X, qui modélise son observation, mais sous deux probabilités différentes selon que
le signal est présent ou pas. Ainsi ω est observée avec la probabilité P(dω) ou Q(dω) selon
le cas.
On suppose que
— le bruit est modélisé par un mouvement
Rt brownien B ;
— le signal est de la forme m(t) = 0 f (s)ds où f Rest déterministe mesurable.
·
On interprète alors m comme le crochet m(t) = hB, 0 f (s)dBs it . Sous la probabilité Q
donnée par dQ = DT dP avec
Z T
1 T
Z
2
DT = exp f (s)dBs − f (s) ds
0 2 0
B est un processus (mouvement brownien) décentré par m (ie. B = B Q + m), tandis que
sous P, B est un mouvement brownien standard donc centré.
La vraisemblance associée à l’observation de la trajectoire ω est donnée par DT (ω) qui vaut
1 s’il n’y a pas de signal et qui peut être très grand s’il y en a un. On en déduit une règle
de décision : si on observe ω, on décide que le signal est présent lorsque
Z T
1 T
Z
1 1
U := f (s)dBs > VarP (U ) = f (s)2 ds = σ 2 .
0 2 2 0 2
Cette règle n’est pas infaillible : Sous P, U ∼ N (0, σ 2 ) ∼ σN0 (où N0 ∼ N (0, 1)) et si le
signal m est réellement absent, la probabilité de prendre une mauvaise décision est
1 1
p = P U > σ 2 = P N0 > σ .
2 2
Tandis que si le signal est vraiment présent, Q est la probabilité qui gouverne le phénomène ;
sous Q
Z T Z T Z T
Q
U= f (s)dBs = f (s)dBs + f (s)dm(s)
0 0 0
Z T Z T
= Q
f (s)dBs + f (s)2 ds
0 0
2 2
∼ N (σ , σ ).
La probabilité d’erreur est alors
1 1
q = Q U < VarP (U ) = P σN0 + σ 2 ≤ σ 2
2 2
1 2 1 2
= P σN0 ≤ − σ = P σN0 ≥ σ = p
2 2
(selon les cas, c’est P ou Q qui gouverne les lois). D’après la table de la loi N (0, 1), on a
p, q ≤ 5% si σ ≥ 4.
40 Chapitre 2. ©JCB – M2 Math. – Université de Rennes 1
Chapitre 3
où l’inconnue est une fonction x(t) qui doit vérifier une équation impliquant sa dérivée ẋ
et elle même. Les cas les plus simples sont les équations différentielles d’ordre 1 comme en
(3.1) (seule la dérivée 1ère est impliquée) avec a(t, x) = a + bx indépendant de t et affine
par rapport à x. Symboliquement, l’équation (3.1) se réécrit
Cette équation modélise typiquement un système physique (x(t))t≥0 qui évolue avec le
temps de façon que x s’accroı̂t, à la date t, selon le taux a(t, x(t)). Par exemple, avec
a(t, x) = a(t)x, l’équation dx(t) = a(t)x(t) dt modélise le cours d’un actif financier x(t)
41
42 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1
soumis au taux d’intérêt variable a(t) ou d’une population avec un taux de natalité a(t).
Il est bien connu que la solution est
Z t
x(t) = x0 exp a(s) ds .
0
Les EDS sont des généralisations des équations (3.2) où la dynamique déterministe d’évo-
lution a est perturbée par un terme aléatoire (stochastique). On parle alors d’équation
différentielle stochastique. En général la perturbation aléatoire est considérée comme un
bruit. Par un argument du type TCL, il est légitime de considérer que ce bruit est un pro-
cessus gaussien et en général il est modélisé par un mouvement brownien B et une intensité
de bruit σ(t, x) :
dXt = a(t, Xt ) dt + σ(t, Xt ) dBt (3.3)
où σ est une fonction du temps t et de l’inconnue Xt au temps t mais pourrait juste
dépendre du temps (σt ) ou de la valeur Xt en t (σ(Xt )) ou encore être constante σ.
Définitions
En fait, l’écriture (3.3) est symbolique car dBt n’a pas de sens, le mouvement brownien
n’étant pas dérivable ! Il faudrait écrire (3.3) sous la forme
Z t Z t
Xt = X0 + a(s, Xs ) ds + σ(s, Xs ) dBs (3.4)
0 0
Rt
qui, elle, a un sens si l’intégrale stochastique 0 σ(s, Xs ) dBs en a un, cf. Chapitre ??. On
généralise encore dans la définition suivante la notion d’EDS dans un cadre vectoriel.
Définition 3.1 (EDS) On appelle équation différentielle stochastique (EDS) une équation
en le processus X (à valeurs dans Rd ) de la forme
La solution d’une EDS est une fonction aléatoire. Il s’agit donc d’un processus qu’on note
X = (Xt )t≥0 . Plus précisément, on a :
Définition 3.2 (Solution d’une EDS) On appelle solution de l’EDS E(a, σ) la donnée de
— un espace de probabilité filtré Ω, F, (Ft )t≥0 , P satisfaisant les conditions habi-
tuelles ;
— un (Ft )-mouvement brownien B = B (1) , . . . , B (m) dans Rm défini sur cet espace
de probabilité ;
— un processus (Ft )-adapté continu X = X (1) , . . . , X (d) à valeurs dans Rd tel que
(3.4) soit vérifiée, c’est à dire, coordonnée par coordonnée, pour tout 1 ≤ i ≤ d :
(3.5).
Lorsque de plus X0 = x ∈ Rd , on dira que le processus X est solution de Ex (a, σ).
En pratique (dans les cas simples), pour trouver la solution d’une EDS, on intuite la forme
de la solution et on vérifie que l’EDS de départ est bien satisfaite en appliquant la formule
d’Itô, cf. Section 3.2. On propose des résultats généraux d’existence et d’unicité des EDS,
du type théorème de Cauchy-Lipschitz dans la Section 3.3.
Pour le voir, on suppose X positivement bornée sur [0, T ] (minorée par 1/n et majorée
par n) ; sinon, on introduit le temps d’arrêt Tn = inf(t : Xt ≤ 1/n ou Xt > n) et on
arrête les processus à ces dates. On applique la formule d’Itô à Xt∧Tn et à la fonction ln
(qui est C 2 sur [1/n, n]). De l’équation (3.8), on déduit dhX, Xit = Xt2 σt2 dt. Le processus
Yt = ln Xt∧Tn vérifie alors
1 1 dhX, Xit σt2 1 2
dYt = dXt − = at dt + σt dBt − dt = at − σt dt + σt dBt ,
Xt 2 Xt2 2 2
ce qui prouve l’expression (3.9).
Black et Scholes. C’est le cas particulier où a(t, x) = ax et σ(t, x) = σx, ie.
dXt = aXt dt + σXt dBt . (3.10)
Cette EDS modélise l’évolution d’un cours X soumis à un taux d’intérêt déterministe a
et à une perturbation stochastique σXt dBt . Dans un contexte financier, le coefficient de
diffusion σ est appelé volatilité. Noter que la partie déterministe de l’accroissement de Xt
(aXt ) et sa partie aléatoire (σXt ) sont toutes les deux proportionnelles à la valeur courante
Xt en t (ce qui est typique des modèles de croissance).
La solution de (3.10) est un cas particulier de (3.9) :
σ2
Xt = X0 exp at − t + σBt .
2
On retrouve le mouvement brownien géométrique .
3.2. Exemples d’EDS 45
Elle a une solution construite à partir de la solution Z de l’EDS linéaire associée dZt =
Zt (at dt + σt dBt ) de condition initiale Z0 = 1, ie.
Z t Z t Z t
1
Zt = exp as ds + σs dBs − σs2 ds .
0 0 2 0
ct = ct − σt δt .
avec e
En effet, avec la formule d’Itô, on vérifie que (3.12) satisfait effectivement l’équation (3.11) :
D Z · E
Zt Zt−1 (e Zs−1 (e
dXt = ct dt + δt dBt ) + Xt (at dt + σt dBt ) + d Zt , cs ds + δs dBs ) .
0 t
D R E
·
On a donc d Z, 0 Zs−1 (e
cs ds + δs dBs ) = δt σt et on obtient :
t
dXt = e
ct dt + δt dBt + Xt (at dt + σt dBt ) + σt δt dt
= Xt (at dt + σt dBt ) + ct dt + δt dBt ,
Définition 3.3 (Existence, unicité des EDS) Pour l’équation E(a, σ), on dit qu’il y a
— existence faible
si pour tout x ∈ R d , il existe une solution de Ex (a, σ) c’est à dire
un triplet X, B, (Ω, F, (Ft )t≥0 , P) où B est un (Ft )-mouvement brownien et pour
lequel X est solution satisfaisant (3.4) (c’est à dire (3.5)) ;
— existence et unicité faibles si de plus toutes les solutions de Ex (a, σ) ont même loi ;
— unicité trajectorielle si, l’espace de probabilité filtré Ω, F, (Ft )t≥0 , P et le mouve-
ment brownien B étant fixés, deux solutions X et X 0 de E(a, σ) telles que X0 = X00
ps sont indistinguables.
— existence forte si une solution X de Ex (a, σ) est adaptée par rapport à la filtration
canonique de B ; X est alors appelée solution forte.
— unicité forte pour E(a, σ) si pour tout mouvement brownien B, deux solutions fortes
associées à B sont indistinguables.
Remarque 3.4 Il peut y avoir existence et unicité faibles sans qu’il y ait unicité trajecto-
rielle. C’est le cas par exemple de :
Comme B
e en (3.14) est une martingale locale à trajectoires continues et que
Z t Z t
2
hB, Bit =
e e sgn(βs ) dhβ, βis = ds = t,
0 0
Mais β n’est pas solution forte de (3.13) : si elle l’était, β serait F B -adapté, ce qui im-
pliquerait F β ⊂ F B . Mais comme on montre que F B ⊂ F |β| , il devrait y avoir l’égalité
F β = F |β| , ce qui n’est pas possible puisque β n’est pas de signe constant.
Pour justifier F B ⊂ F |β| , on utilise la formule de Tanaka pour le mouvement brownien β
(cf. Exemple 1.24) et pour a = 0 :
Z t
|βt | = |y| + sgn(βs )dβs + Lβt = |y| + Bt + Lβt
0
Rt
d’où Bt = |βt | − Lβt − |y|. Mais comme 0 |βs |dLβs = 0, la mesure dLβt est concentrée sur
|β|
{t ≥ 0 : |βt | = 0} ; le processus Lβt est donc F |β| -adapté. Il suit que Bt est Ft -mesurable
et donc F B ⊂ F |β| .
À nouveau, par le théorème de Lévy (Théorème 1.8), on prouve l’unicité faible : toute
solution X de (3.13) est une martingale locale à trajectoires continues et vérifie
Z t Z t
2
hX, Xit = sgn(Xs ) dhB, Bis = ds = t
0 0
Rt
et donc 0 1{βs =0} dBs = 0 ps. Aussi, β n’est pas solution forte de l’EDS : en fait, on montre
que la filtration de B coı̈ncide avec la filtration canonique de |β|, qui est strictement plus
petite que celle de β.
La preuve sera donnée au Chapitre 6 avec la notion de problème de martingale, cf. Théo-
rème 6.17.
Dans toute la suite, on suppose remplies les conditions suivantes :
48 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1
et pour tout T ≥ 0 Z T
|a(t, 0)| + |σ(t, 0)|2 dt < +∞
0
|a(t, x)| ≤ |a(t, 0)| + K|x| et |σ(t, x)| ≤ |σ(t, 0)| + K|x| (3.15)
ce qui assure
Z T Z T
2
|σ(t, x)| dt ≤ 2 |σ(t, 0)|2 dt + 2K 2 T x2 ,
0 0
Z T Z T
|a(t, x)|dt ≤ |a(t, 0)|2 dt + KT |x|.
0 0
due à la convexité de x 7→ x2 , on a
h Z t 2 i h Z t 2 i
2 2
E[Xt ] ≤ 3 E[X0 ] + E σ(s, Xs ) dBs +E a(s, Xs ) ds
0 0
hZ t i h Z t 2 i
≤ 3 E[X02 ] + E σ(s, Xs )2 ds + E |a(s, Xs )| ds
0 0
(isométrie d’Itô)
h Z t i h Z t 2 i
2 2 2 2
≤ 3 E[X0 ] + E 2(σ(s, 0) + K Xs ) ds + E |a(s, 0)| + K|Xs | ds
0 0
(conditions lipschitziennes)
3.3. Existence et unicité 49
h Z t i h Z t 2
Z t i
2 2 2 2 2
≤ 3 E[X0 ] + E 2(σ(s, 0) + K Xs ) ds + E 2 |a(s, 0)|ds + 2K t |Xs |2 ds
0 0 0
(inégalité de Cauchy-Schwarz)
Z T Z t Z T 2 Z t
2 2 2 2 2 2
≤ 3 E[X0 ] + 2σ(s, 0) ds + 2K E[Xs ]ds + 2 |(s, 0)|ds + 2K T E[Xs ]ds
0 0 0 0
(Fubini et t ∈ [0, T ])
Z t
≤ C +D E[Xs2 ]ds
0
avec
Z T Z T
C = 3E[X02 ] +6 2
σ(s, 0) ds + 6 |a(s, 0)|ds
0 0
D = 6K 2 (1 + T ).
Le lemme de Grönwall qui suit assure alors que E[Xt2 ] ≤ CeBT pour tout t ∈ [0, T ] et
établit la Proposition 3.6.
Lemme 3.7 (Grönwall) Soit T > 0 et g une fonction positive mesurable bornée sur [0, T ].
On suppose qu’il existe des constantes a ≥ 0, b ≥ 0 telles que pour tout t ∈ [0, T ], on a
Z t
g(t) ≤ a + b g(s)ds. (3.16)
0
Si g est majorée par A, le dernier terme se majore par A(bt)n+1 /(n + 1)! et il tend vers 0
quand n → +∞, ce qui prouve le lemme car le développement à droite tend vers a exp(bt).
Noter que grâce à la Proposition 3.6, on a τ → +∞ lorsque M → +∞. D’après E(a, σ),
on a pour tout t ≥ 0 :
Z t∧τ Z t∧τ
Xt∧τ = X0 + σ(s, Xs ) dBs + a(s, Xs ) ds
0 0
Z t∧τ Z t∧τ
0 0 0
Xt∧τ = X0 + σ(s, Xs ) dBs + a(s, Xs0 ) ds.
0 0
(convexité)
Z t∧τ Z t∧τ
0 2
2
a(s, Xs0 )
≤ 2 E σ(s, Xs ) − σ(s, Xs ) ds + T E a(s, Xs ) − ds
0 0
(isométrie d’Itô et inégalité de Cauchy-Schwarz)
Z t∧τ
2 0 2
≤ 2K (1 + T )E Xs − Xs ds
0
(hypothèse lipschitziennes)
Z t
2
0
2
= 2K (1 + T ) E Xs∧τ − Xs∧τ ds
0
3.3. Existence et unicité 51
(Fubini).
0
2
Si on pose h(t) = E Xt∧τ − Xt∧τ et C = 2K 2 (1 + T ), alors on a établi que h vérifie
pour t ∈ [0, T ] l’inéquation : Z t
h(t) ≤ C h(s) ds.
0
Les intégrales stochastiques ci-dessus sont bien définies puisque par récurrence, on constate
(n)
que, pour chaque n, Xt est continu et adapté donc localement borné si bien que le
(n)
processus σ(t, Xt ) l’est aussi (hypothèses lipschitziennes) et l’intégrale correspondante
est bien définie.
On fixe maintenant T > 0 et on raisonne sur [0, T ]. On prouve par récurrence qu’il existe
Cn tel que, pour tout t ∈ [0, T ],
(n)
E (Xt )2 ≤ Cn . (3.18)
En effet, (3.18) est immédiate si n = 0 avec C0 = x. Puis, on suppose que (3.18) est vraie
au rang n − 1. Avec (3.15), on déduit
(convexité)
Z t Z t 2
2 (n−1) 2 (n−1)
≤ 3 |x| + E σ(s, Xs ) ds + E |a(s, Xs )| ds
0 0
(isométrie d’Itô)
Z t Z t 2
2 (n−1) 2 (n−1)
≤ 3 |x| + E (C + K|Xs |) ds + E D + K|Xs | ds
0 0
(hypothèses lipschitziennes)
Z t Z t
2 2 2 (n−1) 2 2 2 (n−1) 2
≤ 3 |x| + E (2C + 2K |Xs | ) ds + E 2 DT ) + 2K t |Xs | ds
0 0
2
(convexité de x et inégalité de Cauchy-Schwarz)
Z t
2 2 2 2 2
E |Xs(n−1) |2 ds
≤ 3 |x| + 2(C T + D T ) + 2K (1 + T )
0
(Fubini et t ∈ [0, T ])
≤ 3 |x|2 + 2(C 2 T + D2 T 2 ) + 2K 2 (1 + T )T 2Cn−1 ) =: Cn
Z t 2 Z t 2
(n+1) (n) 2
σ(s, Xs(n) ) σ(s, Xs(n−1) ) a(s, Xs(n) ) − a(s, Xs(n−1) ) ds .
Xt − Xt ≤ − dBs +
0 0
En utilisant les inégalités de Doob (Prop. ??) et de Cauchy-Schwarz ainsi que les hypothèses
lipschitziennes, on déduit
(n+1) (n) 2
E sup |Xs − Xs |
0≤s≤t
" 2 #
2
Z s Z s
(n) (n−1)
(n) (n−1)
≤ 2E sup σ(u, Xu ) − σ(u, Xu ) dBu + sup a(u, Xu ) − a(u, Xu ) du
0≤s≤t 0 0≤s≤t 0
(convexité)
"Z 2 # "Z 2 #!
t t
σ(u, Xu(n) ) − σ(u, Xu(n−1) ) dBu a(u, Xu(n) ) − a(u, Xu(n−1) ) du
≤ 2 4E +E
0 0
(inégalité de Doob)
Z t Z t
(n−1) 2
(n)
2
a(u, Xu(n) ) a(u, Xu(n−1) )
≤ 2 4E σ(u, Xu ) − σ(u, Xu ) du + T E − du
0 0
(isométrie d’Itô, inégalité de Cauchy-Schwarz)
Z t
(n−1) 2
2
(n)
≤ 2(4 + T )K E Xu − X u du (3.19)
0
(hypothèses lipschitziennes)
Z t
(n) (n−1)
2
≤ CT E sup Xr − Xr du (3.20)
0 0≤r≤u
On déduit alors de l’isométrie L2 , des hypothèses lipschitziennes que, avec des limites dans
L2 , on a :
Z t Z t
2 "Z 2 #
t
σ(s, Xs(n) ) dBs − σ(s, Xs(n) ) − σ(s, Xs ) dBs
σ(s, Xs ) dBs
= E
0 0 2 0
Z t
(n)
2
= E σ(s, Xs ) − σ(s, Xs ) ds
0
Z t
(n) 2
≤ E K|Xs − Xs | ds
0
(n) 2
≤ KT E sup |Xs − Xs | → 0, n → +∞,
0≤s≤T
et de même :
Z t Z t
2 Z t
2
a(s, Xs(n) ) ds − a(s, Xs ) ds
= E
(n)
a(s, Xs ) − a(s, Xs ) ds
0 0 2 0
Z t 2
(n)
≤ E K|Xs − Xs | ds
0
Z t
2 (n) 2
≤ K TE |Xs − Xs | ds
0
2 2 (n) 2
≤ K T E sup |Xs − Xs | → 0, n → +∞.
0≤s≤T
On a donc
Z t Z t
2
L - lim σ(s, Xs(n) ) dBs = σ(s, Xs ) dBs ,
n→+∞ 0 0
3.4. Utilisation de Girsanov pour les EDS 55
Z t Z t
2
L - lim a(s, Xs(n) ) ds = a(s, Xs ) ds.
n→+∞ 0 0
Finalement, en passant à la limite dans le schéma de Picard (3.17), on obtient que X est
solution forte de Ex (a, σ) sur [0, T ] :
Z t Z t
Xt = x + σ(s, Xs ) dBs + a(s, Xs ) ds.
0 0
Z T
a(t, Xt(i) )
2 dt < +∞ = 1.
(i)
P
0
Remarque 3.11 — La condition sur a est trop faible pour que le Théorème 3.8 s’ap-
plique mais le théorème de Girsanov (Th. 2.4) permet de montrer l’existence faible
d’une solution.
— On peut affaiblir l’hypothèse a bornée en a à croissance sous-linéaire :
et = Bt − hB, Lit
B
Z t
= Bt − a(s, Bs )ds
0
(i)
Par hypothèse sur a, on a τk → +∞, P(i) -ps. En posant
(i) (i)
!
Z t∧τk Z t∧τk
(k,i) 1
Zt = exp a(s, Xs(i) ) dBs(i) − ka(s, Xs(i) )k2 ds ,
0 2 0
on a
(i) (i) (i)
DZ ·∧τk Z ·∧τk E Z t∧τk
a(s, Xs(i) ) dBs(i) , a(s, Xs(i) ) dBs(i) = a(s, Xs(i) )2 ds ≤ k
0 0 t 0
3.4. Utilisation de Girsanov pour les EDS 57
(i)
par choix de l’arrêt τk . On a donc
(i) (i)
" !#
Z ·∧τk Z ·∧τk
1D E
E exp a(s, Xs(i) ) dBs(i) , a(s, Xs(i) ) dBs(i) ≤ exp(k/2) < +∞
2 0 0 t
et comme précédemment, le critère de Novikov assure que Z (k,i) est une martingale.
(k,i)
On définit alors des probabilités par dQ(k,i) = ZT dP(i) et le théorème de Girsanov
(Th. 2.4) assure que sous Q(k,i)
(i)
Z t∧τk
(i) (i) (i)
X (i) = X0 + a(s, Xs(i) )ds + B (i) , 0 ≤ t ≤ T,
t∧τk t∧τk
0
(i)
est un mouvement brownien standard de loi initiale µ, arrêté à τk . De plus, on montre que
(i) (i) (i) (k,i) (i)
τk , (Bt : t ≤ τk ) et ZT s’expriment en termes de X (i) indépendamment de i = 1, 2.
t∧τk
Pour 0 = t0 < t1 < · · · < tn = T et A ∈ B R2(n+1) , on a
(i)
où la deuxième égalité vient de l’observation précédente et du fait que sous Q(k,i) , X (i),τk est
(i)
un mouvement brownien (arrêté, de loi initiale µ). L’hypothèse sur a implique limk→+∞ P(i) τk =
T = 1, i = 1, 2. On peut donc passer à la limite k → +∞ pour conclure pour tout n ≥ 1,
2(n+1)
0 = t0 < t1 < · · · < tn = T et A ∈ B R
Le résultat suivant (admis) est une généralisation de la Proposition 3.10 pour une EDS
avec un coefficient de diffusion plus général :
58 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1
Remarque 3.14 L’assertion (3) montre en particulier qu’il y a unicité faible pour l’EDS
E(a, σ) : les solutions de Ex (a, σ) sont toutes de la forme Fx (B) et ont donc la même loi,
image de la mesure de Wiener W par Fx .
D’après la Remarque 1.22, la filtration (Gt )t≥0 est continue à droite, comme en plus elle
est complète, elle satisfait les conditions habituelles. Pour chaque x ∈ R, on note X x
la solution de l’EDS Ex (a, σ) associée à l’espace canonique C(R+ , R), G∞ , (Gt )t≥0 , W et
au mouvement brownien (canonique) Bt (w) = w(t). D’après le Théorème 3.8, sous les
hypothèses lipschitziennes cette solution existe et est unique à indistinguabilité près.
Soit x, y ∈ R et Tn le temps d’arrêt défini par
où la constante Cp00 < +∞ dépend de p et de la constante K intervenant dans les hypothèses
lipschitziennes sur σ et a mais pas de n, x, y ou T .
y
x p
Puisque par définition de Tn , la fonction t 7→ E sups≤t |Xs∧T n
− X s∧T n
| est bornée, le
lemme de Grönwall (Lemme 1.7) s’applique avec a = Cp00 |x − y|p et b = Cp00 T p et entraı̂ne
que pour tout t ∈ [0, T ], on a
y
E sup |Xs∧Tn − Xs∧Tn | ≤ Cp00 |x − y|p exp Cp00 T p t .
x p
(3.23)
s≤t
Comme
x y
sup |Xs∧Tn
− Xs∧Tn
|p = sup |Xsx − Xsy |p (3.24)
s≤t s≤t∧Tn
et Tn % +∞ (la Proposition 3.6 s’applique avec les hypothèses lipschitziennes), (3.24) est
croissant en n ≥ 1. Par convergence monotone, il vient alors de (3.23)
E sup |Xs − Xs | ≤ Cp00 |x − y|p exp Cp00 T p t .
x y p
s≤t
On considère sur C(R+ , R) la topologie de la convergence uniforme sur les compacts. Elle
est définie par une distance du type
+∞
X
0 0
d(w, w ) = αk sup |w(s) − w (s)| ∧ 1
s≤k
k=1
P
pour tout choix de la suite de réels positifs αk > 0 tels que la série k≥1 αk soit convergente.
Ici, on fait le choix des coefficients αk tels que
+∞
X
αk exp Cp00 k p+1 < +∞.
(3.25)
k=1
+∞
X
αk E sup |Xsx − Xsy |p ep |x − y|p .
≤C (3.26)
s≤k
k=1
3.5. Flot sur l’espace de Wiener 61
+∞
!p−1 +∞
X X
x y p ep |x − y|p .
= αk αk E sup |Xs − Xs | ≤ C
s≤k
k=1 k=1
(avec la borne (3.26))
e x (w).
F (t, x, w) = Fx (w)t = X t
On observe que le processus Fx (B) est continu et adapté d’après (1) puisque Fx (B)t coı̈ncide
ps avec une fonction mesurable de [B]t = {Br : 0 ≤ r ≤ t} en effet pour une fonction fx
mesurable sur C(R+ , R), par le théorème de transfert
P Fx (B)t = fx ([B]t ) = W Fx (w)t = fx ([w]t ) = 1.
Il s’agit de récupérer la même identité (3.27) pour Fx (B). Pour cela, on passe par des
approximations de Riemann des intégrales dans (3.27).
De façon standard, l’intégrale de Stieltjes s’approxime par des sommes de Riemann : on a
W-ps
Z t pn −1
X (n) (n) (n)
a(s, Fx (w)s ) ds = lim a ti , Fx (w)t(n) ti+1 − ti
0 n→+∞ i
i=0
(n) (n) (n)
où 0 = t0 ≤ t1 ≤ · · · ≤ tpn = t est une subdivision de [0, t] de pas qui tend vers 0.
De la même façon, d’après 6)Rdans la Proposition ??, on a une approximation de Riemann
t
pour l’intégrale stochastique 0 σ(s, Fx (w)s ) dw(s) mais dans le sens de la convergence en
probabilité W :
Z t pn −1
X (n) (n) (n)
σ(s, Fx (w)s ) dw(s) = W- lim σ ti , Fx (w)t(n) w ti+1 − w ti .
0 n→+∞ i
i=0
En prenant une sous-suite (nk )k≥1 correctement choisie, on a une convergence W-presque
sûre :
Z t pnk −1
X (n ) (nk ) (nk )
σ(s, Fx (w)s ) dw(s) = lim σ ti k , Fx (w)t(nk ) w ti+1 − w ti .
0 k→+∞ i
i=0
Comme en plus W-ps Fx (w)t = fx ([w]t ) pour une fonction fx mesurable sur C(R+ , Rm ),
on a finalement
nk −1
pX
(nk ) (nk ) (nk )
fx ([w]t ) = x + lim σ ti , Fx (w)t(nk ) w ti+1 − w ti
k→+∞ i
i=0
pnk −1
X (n ) (n ) (n )
+ a ti k , Fx (w)t(nk ) ti+1k − ti k .
i
i=0
Maintenant qu’on s’est ramené à une convergence W-presque sûre, on peut, comme précé-
demment, remplacer w par B (puisque sa loi sous P est W) :
pX nk −1
(n ) (n ) (n )
1 = W fx ([w]t ) = x + lim σ ti k , fx ([w]t(nk ) ) w ti+1k − w ti k
k→+∞ i
i=0
pnk −1
X (n ) (n ) (n )
+ a ti k , fx ([w]t(nk ) ) ti+1k − ti k
i
i=0
pX nk −1
(n ) (n ) (n )
= P fx ([B]t ) = x + lim
σ ti k , fx ([B]t(nk ) ) B ti+1k − B ti k
k→+∞ i
i=0
3.5. Flot sur l’espace de Wiener 63
pnk −1
X (nk ) (nk ) (nk )
+ a ti , fx ([B]t(nk ) ) ti+1 − ti .
i
i=0
On obtient donc que Fx (B) est la solution recherchée de l’EDS Ex (a, σ).
Pour finir, on établit la deuxième partie de (3). On fixe à nouveau l’espace de probabilité
filtré Ω, F, (Ft )t≥0 , P et le (Ft )-mouvement brownien B. Soit Z une variable aléatoire
F0 -mesurable. En remplaçant formellement, dans l’EDS vérifiée par Fx (B), x par Z, on
obtient que FZ (B) est solution de E(a, σ) avec valeur initiale Z. On justifie maintenant ce
remplacement formel.
D’abord comme (x, ω) 7→ Fx (B)t est continue par rapport à x et Ft -mesurable par rapport
à ω, on a facilement que cette application est mesurable pour la tribu B(R) ⊗ Ft . Comme
Z est F0 -mesurable, il s’en déduit par composition que FZ (B)t est Ft -mesurable et le
processus FZ (B) est donc continu et adapté.
On a vu précédemment que
nk −1
pX
(n ) (n ) (n )
Fx (B)t = x + P- lim σ ti k , Fx (B)t(nk ) B ti+1k − B ti k
k→+∞ i
i=0
pnk −1
X (nk ) (nk ) (nk )
+ a ti , Fx (B)t(nk ) ti+1 − ti .
i
i=0
ce qui établit que FZ (B) est solution de E(a, σ) avec valeur initiale Z.
64 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1
Propriété de flot
On suppose toujours valides les hypothèses lipschitziennes.
On considère maintenant le cas général de l’EDS E(a, σ) qui part de x à la date r, ie. avec
Xr = x et on note la solution Xtr,x pour t ≥ r. D’après le Théorème 3.13, on peut écrire
Xtr,x = F r, x, t, [B· − Br ]t
où (B· − Br )s+r = Bs+r − Br est la valeur en s du mouvement brownien translaté en temps
de r (c’est bien un mouvement brownien d’après la propriété de Markov faible).
Théorème 3.15 (Propriété de flot) Sous les hypothèses lipschitziennes, la solution de l’EDS
E(a, σ) avec Xr = x vérifie la propriété de flot : pour t0 ≥ 0,
F r, x, t0 + t, [B· − Br ]t0 +t = F t0 , Xtr,x
0
, t0 + t, [B· − Bt0 ] t0 +t
t0 ,X r,x
ie. Xtr,x
0 +t
= Xt0 +t t0 . (3.28)
Cette propriété s’étend pour des temps aléatoires : soit T un temps d’arrêt borné
F r, x, T + t, [B· − Br ]T +t = F T, XTr,x , T + t, [B· − BT ]T +t
T,X r,x
ie. XTr,x+t = XT +tT . (3.29)
Démonstration : La propriété de flot (3.28) vient de l’unicité forte de la solution de l’EDS
E(a, σ) sous les hypothèses lipschitziennes. En effet, le processus
t 7→ F t0 , Xtr,x
0
, t0 + t, [B· − Bt ]
0 0t +t
Pour chaque x ∈ Rd , on note Px la loi sur C(R+ , Rd ) des solutions de Ex (a, σ) (unicité
faible). D’après le Théorème 3.13, on a Px = WFx−1 . L’assertion (2) dans le Théorème 3.13
montre que x 7→ Px est continue pour la topologie de la convergence étroite : soit xn → x,
pour f ∈ Cb C(R+ , Rd )
Z Z Z Z
Exn [f ] = f dPxn = f (Fxn (w)) dW(w) −→ f (Fx (w)) dW(w) = f dPx = Ex [f ]
(3.30)
où on utilise Fxn (w) → Fx (w), n
→ +∞ dû au 2) du Théorème 3.13 et la convergence domi-
d
née puisque f ∈ Cb C(R+ , R ) . Par un argument de classe monotone, on peut généraliser
cette propriété ci-dessus :
Ω = C(R+ , Rd ), F = B C(R+ , Rd ) .
On considère
A = {Φ bornée : x 7→ Ex [Φ] est mesurable}.
Comme A est clairement un espace vectoriel contenant les fonctions constantes, comme
Φ ∈ A est bornée (par définition) et comme lorsque Φn ∈ A ↑ Φ bornée alors (par conver-
gence monotone) Ex [Φ] = limn→+∞ Ex [Φn ] est mesurable en tant que limite de fonctions
66 Chapitre 3. ©JCB – M2 Math. – Université de Rennes 1
mesurables, alors A est espace vectoriel monotone. Puis M = Cb C(R+ , Rd ) est une classe
multiplicative puisque le produit de deux fonctions continues bornées le reste.
Comme par le Théorème 3.13, on a vu en (3.30) que M ⊂ A, et comme σ(M) = F, le
théorème de classes monotones version fonctionnelle (Théorème 3.18) assure alors que
L∞ B C(R+ , Rd ) ⊂ A,
Théorème 3.19 (Markov fort pour EDS homogène) Soit X une solution de E(a, σ) sur
un espace de probabilité filtré Ω, F, (Ft )t≥0 , P . Soit aussi T un temps d’arrêt fini ps.
Alors pour Φ : C(R+ , Rd ) → R+ borélienne, on a
E Φ(XT +t : t ≥ 0)|FT = EXT [Φ]
(comme il s’agit d’une intégrale de Riemann définie ω par ω, on peut faire le changement
de variable sans problème ω par ω, la valeur T = T (ω) étant alors figée).
On fait aussi un changement de variable dans l’intégrale stochastique à l’aide du lemme
suivant :
Lemme 3.21 Si h est un processus continu adapté, on a
Z T +t Z t
h(s, ω) dBs = h(T + u, ω) dBu(T ) .
T 0
De plus, on remarque que X 0 est adapté par rapport à la filtration (Ft0 )t≥0 , que B (T ) est
un (Ft0 )-mouvement brownien et que XT est mesurable par rapport à F00 = FT . D’après
(3) dans le Théorème 3.13, on doit avoir ps X 0 = FXT B (T ) . Le résultat du théorème suit
alors facilement : comme XT est FT -mesurable et B (T ) est indépendant de FT , on a
E Φ(Xt0 : t ≥ 0)|FT = E Φ FXT (B (T ) ) |FT
Z
= Φ(FXT (w)) W(dw) = EXT Φ(Xt : t ≥ 0) ,
C(R+ ,R)
car
[a, b]∩]c, d] =]a ∨ c, (b ∧ d) ∨ (a ∨ c)] (3.34)
(à noter qu’on prend comme borne supérieure (b ∧ d) ∨ (a ∨ c) pour avoir un intervalle vide
lorsque [a, b]∩]c, d] = ∅). On a donc
Z T +t
h(s, ω) dBs = ϕ(ω) B((r0 ∧ (T + t)) ∨ (r ∨ T )) − B(r ∨ T ) .
T
B((r0 ∧ T + t) ∨ (r ∨ T )) − B(r ∨ T )
= B((r0 ∧ (T + t)) ∨ (r ∨ T )) − BT − B(r ∨ T ) − BT
et
Z T +t
h(s, ω) dBs = ϕ(ω)B (T ) ((r0 − T ) ∧ t ∨ ((r − T ) ∨ 0)) − B (T ) ((r − T ) ∨ 0)
T
Z (r0 −T )∧t∨((r−T )∨0) Z (r0 −T )∧t∨((r−T )∨0)
(T )
= ϕ(ω) dBu = ϕ(ω) dBu(T )
(r−T )∨0 (r−T )∨0
Z
= ϕ(ω)1[0,t]∩]r−T,r0 −T ] (u) dBu(T ) ,
= h(T + u, ω) dBu(T ) .
0
Chapitre 4
Des liens importants existent entre probabilités et équations aux dérivées partielles
(EDP) via les processus stochastiques. Ceux-ci sont souvent reliés à des opérateurs diffé-
rentiels linéaires, ce qui permet d’exprimer les solutions de certaines EDP en termes de
processus stochastiques. L’opérateur le plus simple est celui de Laplace ∆ et il est direc-
tement relié au mouvement brownien. On étudie dans ce chapitre les connexions entre
mouvement brownien et équations liées au laplacien : équation de Laplace, problème de
Dirichlet, équation de la chaleur, formule de Feynman-Kac.
Notations. Pour f : R+ × Rd → R suffisamment régulière, on note
∂f
∂t f (t, x) = (t, x),
∂t
∂f
∂xi f (t, x) = (t, x1 , . . . , xd ),
∂xi
∂ 2f
∂x2i ,xj f (t, x) = (t, x1 , . . . , xd ),
∂xi ∂xj
∇f (t, x) = ∂x1 f (t, x), . . . , ∂xd f (t, x) (le gradient de f )
d
X
∆f (t, x) = ∂x2i ,xi f (t, x) (le laplacien de f ).
i=1
On a facilement ∇ · ∇ = ∆. Si nécessaire, on précise la variable de dérivation en notant
∇x ou ∆x .
69
70 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1
où
d
X
∇Φ(Bs ) · dBs = ∂xi Φ(Bs )dBs(i) .
i=1
Ainsi, si ∆Φ = 0, alors Φ(B) est une martingale locale.
Définition 4.1 (Fonction harmonique) Soit D ⊂ Rd un domaine (ouvert, connexe). Une
fonction u : D → R est dite harmonique si u est de classe C 2 sur D et satisfait l’équation
de Laplace ∆u = 0 dans D.
Exemple 4.2 En dimension 2 : ln(x21 + x22 ) et ex1 sin x2 sont harmoniques sur R2 .
En effet, on a
2x1
∂x1 ln(x21 + x22 ) = 2
,
x1 + x2
2 4x2 2x2 − 2x21
∂x21 ,x1 ln(x21 + x22 ) = 2 − 2 1 2 = 22
,
x1 + x2 (x1 + x2 ) (x1 + x22 )2
et on a donc
∆ ln(x21 + x22 ) = ∂x21 ,x1 ln(x21 + x22 ) + ∂x22 ,x2 ln(x21 + x22 )
La propriété suivante joue un rôle essentiel pour relier les solutions d’EDP à des espérances
de processus arrêtés en des temps de sortie de domaine. Dans la suite, pour G ouvert, on
note pour B mouvement brownien :
τG = inf(t ≥ 0 : Bt ∈6 G) le temps d’entrée dans Gc ,
σG = inf(t > 0 : Bt 6∈ G) le temps de sortie de G.
On note que le temps de sortie de G est plus grand que le temps d’entrée dans Gc : σG ≥ τG .
Par exemple si G est ouvert et B part de ∂G, on a τG = 0 mais σG > 0 si B commence
par entrer dans G.
Proposition 4.3 Soit G un ouvert borné avec G ⊂ D et B un mouvement brownien issu
de a ∈ G. Si u : D → R est harmonique alors
Mt = u(Bt∧τG ) − u(a), t ≥ 0,
est une martingale centrée.
Démonstration : La fonction u n’est définie que sur D. Pour appliquer la formule d’Itô,
on commence par la prolonger sur Rd en Φ ∈ C 2 (Rd ) (qui coı̈ncide avec u sur G, mais pas
nécessairement sur D). Par exemple, on peut obtenir un tel prolongement par convolution
avec :
(1G2δ ∗ ρ) × u dans D
Φ=
0 dans Dc
où G2δ est le (2δ)-voisinage de G avec 4δ = dist(G, Dc ) > 0 et où ρ est une fonction
d’intégrale 1, C ∞ et à support dans B(0, δ). La formule d’Itô (4.1) s’écrit
Z t∧τG
1 t∧τG
Z
Φ(Bt∧τG ) = Φ(a) + ∇Φ(Bs ) · dBs + ∆Φ(Bs )ds
0 2 0
Z t∧τG
u(Bt∧τG ) = u(a) + ∇Φ(Bs ) · dBs
0
Définition 4.4 (Formule de la moyenne) Une fonction réelle u est dite satisfaire la for-
mule de la moyenne sur D si pour toute boule ouverte B(a, r) telle que B(a, r) ⊂ D,
on a Z
u(a) = u(x) λa,r (dx) (4.2)
∂B(a,r)
Cette propriété signifie que la valeur de u en tout point a s’obtient comme moyenne de u
sur n’importe quelle sphère centrée en a, d’adhérence dans D.
Notons que le volume de la boule B(a, r) est
2rd π d/2
Vol B(a, r) = := Vr ,
dΓ( d2 )
et son aire de surface est
2rd−1 π d/2 d
Sr = ∂r Vol B(a, r) = d
= Vr .
Γ( 2 ) r
Ainsi, on déduit l’expression suivante pour les intégrales sur les boules :
Z Z r Z
f (x) dx = Sρ f (x) λa,ρ (dx)dρ. (4.3)
B(a,r) 0 ∂B(a,ρ)
Comme G est borné, τG < +∞ ps, et en faisant t → +∞, on déduit par convergence
dominée (puisque u est bornée sur B(a, r)) :
On observe que le mouvement brownien standard issu de a est isotrope : aucune direction
n’est privilégiée par le processus, ie. la loi de B est invariante par les rotations de centre
a. En effet si Ra est une rotation centée en a alors Ra (B) ∼ B. Par conséquent, la loi du
point de sortie Bτ∂B(a,r) de B de la boule B(a, r) est invariante aussi par les rotations de
centre a : Ra (Bτ∂B(a,r) ) ∼ Bτ∂B(a,r) . Comme la probabilité uniforme λa,r est la seule loi sur
la sphère ∂B(a, r) invariante par rotation (de centre a), il s’agit nécessairement de la loi
de BτG : Pa (Bτ∂B(a,r) ∈ ·) = λa,r . On réécrit alors (4.4) comme suit
Z
u(a) = Ea [u(BτG )] = u(x) λa,r (dx). (4.5)
∂B(a,r)
Il est clair que uε est C ∞ sur le domaine D où elle est définie. De plus pour tout a ∈ D,
il existe ε > 0 tel que B(a, ε) ⊂ D, on déduit alors, à l’aide du théorème de Fubini, de la
formule de la moyenne et de la normalisation (4.6) :
Z
uε (a) = u(a + x)gε (x) dx
B(0,ε)
Z ε Z
1
= cε Sρ u(a + x) exp λ0,ρ (dx)dρ
0 ∂Bρ ρ 2 − ε2
Z ε Z
1
= cε Sρ u(x) λa,ρ (dx) exp dρ
0 ∂B(a,ρ) ρ2 − ε2
Z ε
1
= cε Sρ u(a) exp dρ
0 ρ 2 − ε2
= u(a)
où ε > 0 est assez petit pour que B(a, ε) ⊂ D où u est C ∞ . Comme par (im)parité, on a
Z Z
yi λ0,ε (dy) = 0, yi yj λ0,ε (dy) = 0, i 6= j,
∂B(0,ε) ∂B(0,ε)
en intégrant la formule de Taylor (4.7) sur ∂B(0, ε), et en utilisant la formule de la moyenne,
on obtient
Z d Z
1X 2
u(a) = u(a + y) λ0,ε (dy) = u(a) + ∂ u(a) yi2 λ0,ε (dy) + o(ε2 ).
∂B(0,ε) 2 i=1 xi ,xi ∂B(0,ε)
74 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1
Mais comme
Z d Z
1X
yi2 λ0,ε (dy) = y 2 λ0,ε (dy)
∂B(0,ε) d i=1 ∂B(0,ε) i
ε2
Z
1
= kyk2 λ0,ε (dy) = ,
d ∂B(0,ε) d
on a
ε2
∆u(a) + o(ε2 ) = 0.
2
D’où il vient ∆u(a) = 0 pour a ∈ D en faisant ε → 0.
Proposition 4.6 (Principe du maximum) Soit u une fonction harmonique sur D. Alors
(1) Si u atteint son maximum en un point intérieur à D et si l’ouvert D est connexe alors
u est constante sur D.
(2) Sur tout compact F ⊂ D, u atteint son maximum sur le bord ∂F de F .
Il s’agit d’un problème bien connu qu’on peut résoudre explicitement de façon analytique en
utilisant la transformation de Fourier sur des domaines pertinents. L’approche probabiliste
4.2. Problème de Dirichlet 75
permet d’avoir accès rapidement à une expression de la solution pour des domaines D
de géométrie (relativement) arbitraire. De plus, elle ouvre la porte à des techniques de
simulations de ces solutions d’EDP (méthode de Monte-Carlo). Cependant pour simplifier,
nous supposons que D est borné.
(1) Si Ex [|f (BτD )|] < +∞, ∀x ∈ D, alors u donnée par (4.9) vérifie (4.8).
(2) Si f est bornée et
Pa (τD < +∞) = 1, ∀a ∈ D,
alors toute solution bornée du problème de Dirichlet (D, f ) s’écrit (4.9).
Si D est borné alors la condition dans 1) au dessus est satisfaite car BτD reste dans D et
f est finie sur un domaine borné.
D’après le Théorème 4.7, pour résoudre le problème de Dirichlet (4.8), il reste seulement à
voir la continuité sur ∂D de u donnée par (4.9), c’est à dire
ε
Par hypothèse, on a τD−ε < +∞ Px -ps (D− ⊂ D) : on se ramène facilement au cas où D est
un rectangle et on utilise les temps de sortie des marginales de B qui sont des mouvements
browniens unidimensionnels dont les temps de sorties d’intervalles sont bien connus. On
utilise le théorème de convergence dominée (u bornée sur D puisque D est borné) pour
faire successivement t → +∞ et ε → 0 par continuité de B et de u : d’abord comme
τD−ε < +∞ ps
u(x) = lim Ex u(Bt∧τDε ) = Ex u(BτDε ) .
t→+∞ − −
ε
S
Puis comme D = ε>0 D− , on a τD−ε % τD lorsque ε → 0 donc à nouveau par convergence
dominée :
u(x) = lim Ex u(BτDε ) = Ex [u(BτD )] = Ex [f (BτD )]
ε→0 −
76 Chapitre 4. ©JCB – M2 Math. – Université de Rennes 1
où la dernière égalité vient de la condition au bord du problème de Dirichlet (4.8) avec
BτD ∈ ∂D. Finalement, si x ∈ ∂D alors τD = 0 et on a u(x) = f (x). Si elle existe, la
solution de (4.8) est donc unique et nécessairement donnée par (4.9).
1) On considère maintenant u donnée par (4.9). Comme pour 2), il est immédiat que
u(x) = f (x) si x ∈ ∂D. Pour montrer que u est harmonique dans D, on montre que u
vérifie la formule de la moyenne, ce qui est équivalent par la Proposition 4.5.
Soit B(a, r) ⊂ D. Quand B part de a ∈ B(a, r) ⊂ D, comme τB(a,r) ≤ τD , on a FτB(a,r) ⊂
FτD et par conditionnement on a
u(a) = Ea [f (BτD )] = Ea Ea [f (BτD )|FτB(a,r) ] .
Mais
= u(BτB(a,r) )
(τB(a,r) )
car par la propriété de Markov forte, Bt := Bt+τB(a,r) − BτB(a,r) , t ≥ 0, est un mouve-
(τ )
ment brownien issu de 0, indépendant de FτB(a,r) et donc sachant FτB(a,r) , Bt+τB(a,r)
B(a,r)
+BτB(a,r)
0
est un mouvement brownien partant de BτB(a,r) ∈ ∂B(a, r) pour lequel τD := τD − τB(a,r)
reste le temps de sortie de D (il s’agit de τD , reinitialisé à la date τB(a,r) ).
Finalement avec (4.5) qui utilise la loi de la sortie brownienne BτB(a,r) de la sphère, on a
Z
u(a) = Ea [u(BτB(a,r) )] = u(y) λa,r (dy)
∂B(a,r)
ce qui établit la formule de la moyenne donc l’harmonicité par la Proposition 4.5, c’est à
dire l’équation de Laplace sur D.
Régularité du bord
Pour avoir une solution au problème de Dirichlet (4.8) à partir de (4.9), il reste à voir
la continuité (4.10) sur ∂D. Pour cela, on utilise la notion de régularité du bord telle que
décrite dans [KS, p. 245].
Comme le domaine D est régulier (bord lisse, de classe C 1 ), le Théorème 4.12 assure que
la solution du problème de Dirichlet (D, f ) est donnée par (4.9), soit
u(x) = Ex 1{kBτD k=r}
= Px B sort de D par le cercle intérieur , x ∈ D. (4.12)
ln R − ln kxk
x ∈ D 7→ ,
ln R − ln r
est harmonique et comme cette fonction satisfait les conditions aux bords, elle vérifie le
problème de Dirichlet (4.8). Par unicité, elle coı̈ncide avec u en (4.12), ce qui établit en
dimension d = 2 :
ln R − ln kxk
Px B sort de D par le cercle intérieur = , x ∈ D. (4.13)
ln R − ln r
Lorsque d ≥ 3, on sait par l’Exemple 4.2 que
kxk−d+2 − R−d+2
x ∈ D 7→
r−d+2 − R−d+2
est harmonique et comme cette fonction satisfait les conditions aux bords, elle vérifie l’EDP
de Dirichlet (4.8). Par unicité, elle coı̈ncide avec u en (4.12), ce qui établit en dimension
d≥3:
kxk−d+2 − R−d+2
Px B sort de D par le cercle intérieur = −d+2 , x ∈ D. (4.14)
r − R−d+2
ln R − ln kxk
lim = 1,
R→+∞ ln R − ln r
kxk−d+2 − R−d+2
lim = (r/kxk)d−2 .
R→+∞ r −d+2 − R−d+2
où on note
1 kxk2
gt (x) = √ d exp − densité de N (0, t).
2πt 2t
Ainsi, p(t; x, ·) est la densité de N (x, t). On voit sans difficulté que p = p(t; x, y) vérifie
d ky − xk2
p−1 ∂t p = − + (4.16)
2t 2t2
et que
1 (yi − xi )2
p−1 ∂x2i ,xi p =− +
t t2
pour 1 ≤ i ≤ d, soit en sommant
d d
−1
X X 1 (yi − xi )2
p ∆x p = p−1 ∂x2i ,xi p = − +
i=1 i=1
t t2
d ky − xk2
= − + . (4.17)
t t2
En comparant (4.16) et (4.17), on montre que la fonction p est solution de l’équation
progressive (dite forward) (ie. en la variable y de la position future)
1
∂t p = ∆y p, lim p dy = δx (4.18)
2 t&0
où δx est la mesure de Dirac en 0 et aussi par symétrie solution de l’équation rétrograde
(dite backward) (ie. en la variable x de la position passée)
1
∂t p = ∆x p, lim p dx = δy . (4.19)
2 t&0
Ces relations justifient que p est la solution fondamentale de l’équation de la chaleur. (De
ce fait, on appelle p le noyau de la chaleur.)
2
|f (x)|e−c|x| dx < +∞
R
Proposition 4.13 On suppose que la condition initiale f vérifie Rd
pour une constante c > 0. Alors la fonction
u(t, x) = Ex [f (Bt )]
Z s Z s
= d u(t − s, Bs ) exp − k(Br )dr + u(t − s, Bs )d exp − k(Br )dr + 0.
0 0
On a donc
Z s
d u(t − s, Bs ) exp − k(Br )dr
0
h 1 i
= − k(Bs )u(t − s, Bs )ds − ∂t u(t − s, Bs )ds + ∇u(t − s, Bs )dBs + ∆u(t − s, Bs )ds
2
Z s
× exp − k(Br )dr
0
Z s
= ∇u(t − s, Bs ) dBs exp − k(Br )dr
0
On passe à l’espérance sous Px , en notant que l’intégrale stochastique est une martingale
L2 d’après les hypothèses de croissance sous-exponentielle de u et de la bornitude pour k ;
elle est donc d’espérance nulle. On obtient alors
Z t
Ex exp − k(Br )dr f (Bt ) − u(t, B0 ) = 0
0
Soit u une solution de l’EDP continue sur R+ × D, de classe C 1,2 bornée et à dérivées
bornées. On peut vérifier qu’alors
Z t
u(t, x) = Ex f (Bt )1{t<τD } exp − k(Bs )ds
0
où τD est le temps de sortie de D. Pour cela, comme précédemment, on applique la formule
d’Itô à la fonction Z s
s 7→ u(t − s, Bs∧τD ) exp − k(Br∧τD )dr .
0
Diffusions
Dans ce chapitre, on introduit en Section 5.1 les solutions d’EDS appelées diffusions.
On introduit les principaux outils pour les étudier, générateur, semi-groupe, en Section 5.2.
En Section 5.3, on relie l’étude des diffusions à des EDP via le générateur de la diffusion.
Dans ce chapitre, le mouvement brownien est un exemple fil rouge et simple de diffusion, et
on généralise aux diffusions les résultats vus pour le mouvement brownien au Chapitre 4.
En général, les diffusions qu’on considèrera seront des solutions d’EDS homogènes. Étant
donné un mouvement brownien standard B en dimension m et a : Rd → Rd et σ : Rd → Rm
des fonctions lipschitziennes. On considère l’EDS homogène
D’après le Théorème 3.8, il y a existence et unicité forte pour toute condition initiale
X0 = x. Il y aussi unicité faible par le Théorème 3.13 et d’après le Théorème 3.19, cette
solution vérifie la propriété de Markov. Les solutions d’EDS homogène du type (E0 (a, σ))
sont donc des diffusions comme en Déf. 5.1.
Exemple 5.2 (Diffusion) Les exemples suivants sont des cas particulier d’EDS homogène
(E0 (a, σ)) avec des coefficients lipschitziens. Il s’agit donc de diffusion :
— Le mouvement brownien est solution de (E0 (a, σ)) avec a = 0, σ = Id.
— Le mouvement brownien géométrique est solution de dXt = Xt dBt donc de type
(E0 (a, σ)) en dimension 1 avec a = 0 et σ(x) = x.
— Dans le modèle de Black et Scholes, l’EDS considérée est dXt = rXt dt + Xt dBt ,
donc du type (E0 (a, σ)) avec a(x) = rx et σ(x) = x.
85
86 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1
d
X d X
X d 2 d X
X d
∗ 2 ∗
kσ ∇x k = (σ ∇x )2k = σi,k ∂xi = σi,k ∂xi σj,k ∂xj
k=1 k=1 i=1 k=1 i,j=1
d
X d
X d
X
= σi,k σj,k ∂xi ∂xj = (σσ ∗ )i,j ∂x2i ,xj .
i,j=1 k=1 i,j=1
Étant donnée l’EDS E0 (a, σ), on peut lui associer le générateur L donné par (5.1). Réci-
proquement si on dispose d’un opérateur L de la forme
d d d
X 1 XX
Lf (x) = ai (x)∂xi f (x) + ci,j (x)∂x2i ,xj f (x)
i=1
2 i=1 j=1
avec c = (ci,j (x))1≤i,j≤d une matrice symétrique, on commence par trouver une matrice
(racine carrée) σ ∈ Md,m (R) telle que c = σσ ∗ et L prend alors la forme (5.1). On peut alors
considérer l’EDS associée E0 (a, σ) et il existera une diffusion associée à L si on peut prouver
l’existence de solution faible pour E0 (a, σ), satisfaisant la propriété de Markov. Pour cela,
5.1. Générateur d’une diffusion 87
on peut utiliser les résultats généraux du Chapitre 3 sous les hypothèses lipschitziennes pour
a et σ (Théorème 3.8, Théorème 3.19). Plus généralement pour la recherche de solution
faible, on dispose aussi de la formule d’Itô, du théorème de Girsanov (Proposition 3.10) ou
de la formulation de problème de martingale (cf. Chapitre 6).
Une fois une solution faible obtenue pour E0 (a, σ), cette solution admet nécessairement L
pour générateur par la Définition 5.3.
En général, la donnée du générateur X en (5.1) est donc équivalente à l’EDS E0 (a, σ).
Il est important de pouvoir associer aux processus de diffusion des martingales (locales)
continues. C’est l’objet du théorème suivant à l’aide du générateur L de X.
Théorème 5.5 Soit X une solution forte de E0 (a, σ) de générateur L et f dans le domaine
de l’opérateur L. Alors Z t
f (Xt ) − Lf (Xs ) ds, t ≥ 0, (5.2)
0
est une martingale locale.
Démonstration : On commence par noter que comme dhB (k) , B (l) it = δk,l dt, on a :
m
X
(i) (j)
dhX , X it = σi,k (Xt )σj,l (Xt )dhB (k) , B (l) it
k,l=1
Xm
= σi,k (Xt )σj,k (Xt ) dt
k=1
= (σσ ∗ )i,j (Xt ) dt.
Finalement,
Z t d X
X m Z t
f (Xt ) − Lf (Xs )ds = f (X0 ) + σi,k (Xs )∂xi f (Xs ) dBs(k) (5.3)
0 i=1 k=1 0
88 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1
est bien une martingale locale car en arrêtant l’intégrale au temps d’arrêt
Z t
2
Sn = inf t ≥ 0 : kXt k ≥ n, ∃(i, j), σi,j (Xs ) ds ≥ n ,
0
qui tend vers +∞ par hypothèse sur σ, on a bien une vraie martingale.
Si f est assez régulière, (5.2) est même une vraie martingale et en prenant l’espérance avec
X0 = x, on obtient : Z t
E[f (Xt )] = f (x) + E[Lf (Xs )]ds. (5.4)
0
Exemple 5.7 (Mouvement brownien) Dans le cas du mouvement brownien B, on voit dans
le Chapitre 4 que le noyau est le semi-groupe de la chaleur :
Z
Pt f (x) = Ex [f (Bt )] = E0 [f (x + Bt )] = f (y)p(t, x, y) dy.
Théorème 5.8 (Propriété de semi-groupe) Le noyau de transition (Pt )t≥0 en (5.5) vérifie
la propriété de semi-groupe :
Pt+s = Pt ◦ Ps . (5.6)
On a alors
Pt+s f (x) = Ex f (Xt+s ) = Ex Ex [f (Xt+s )|Fs ]
5.2. Semi-groupe d’une diffusion 89
= Ex EXs [f (Xt )] = Ex Pt f (Xs )
= Ps Pt f )(x) = (Ps ◦ Pt )f (x).
Théorème 5.9 (Dérivation et générateur) Le semi-groupe (Pt )t≥0 est dérivable par rapport
à t et sa dérivée est le générateur de la diffusion, ie. pour f de classe C 2 assez régulière :
∂t Pt
∂ t Pt = Pt L ⇐⇒ =L ⇐⇒ Pt = exp(tL)
Pt
puisque P0 = Id. Réciproquement étant donné un générateur L, on lui associe un semi-
groupe Pt = exp(tL), t ≥ 0, par le théorème de Hille-Yosida.
Démonstration : On suppose que la fonction f est régulière de façon que la martingale locale
du Théorème 5.5 soit une vraie martingale. Elle est d’espérance nulle et donc l’espérance
dans la formule d’Itô (5.3) donne pour h ≥ 0
h Z t+h i
Ex f (Xt+h ) − Lf (Xs ) ds = f (x)
0
h Z t i
Ex f (Xt ) − Lf (Xs ) ds = f (x)
0
et donc
h Z t+h i
Ex [f (Xt+h )] = Ex f (Xt )] = Ex Lf (Xs ) ds .
t
Comme Lf (Xs ) est continue et bornée lorsque f est assez régulière, d’après le théorème
de convergence dominée, la fonction de t 7→ Pt f (x) = Ex [f (Xt ] est dérivable à droite et de
dérivée
Pt+h f (x) − Pt f (x) Ex [f (Xt+h )] − Ex [f (Xt ]
∂t Pt f (x) = lim = lim
h&0 h h&0 h
90 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1
Z t+h
1
= lim E Lf (Xs ) ds = Ex [Lf (Xt )] = Pt (Lf )(x)
h&0 h t
ce qui donne la première partie de (5.7). La dérivabilité précédente a été montrée à droite
seulement. Pour conclure complètment sur la dérivabilité, on observe que Pt [Lf ](x) =
Ex [Lf (Xt )] est une fonction continue de t par convergence dominée (et régularité de f ).
Ainsi la fonction Z t
t 7→ Ps (Lf )(x) ds
0
est dérivable de dérivée Pt (Lf )(x). Comme la différence de deux fonctions qui ont la même
dérivée à droite est nécessairement constante, il existe c ∈ R tel que
Z t
Pt f (x) = Ps (Lf )(x) + c.
0
Pour la deuxième partie de (5.7), on utilise la propriété de semi-groupe (5.6) pour avoir
Lorsque le semi-groupe (Pt )t≥0 admet une densité pt (x, y), c’est à dire
Z
Pt f (x) = pt (x, y)f (y) dy,
En effet, l’équation de convolution est l’analogue sur les densités de la propriété de semi-
groupe (5.6) :
Z
Pt+s f (x) = Ex [f (Xt+s ] = f (z)pt+s (x, z) dz (5.9)
5.2. Semi-groupe d’une diffusion 91
Z
(Pt ◦ Ps )f (x) = (Ps f )(y)pt (x, y) dy
Z Z
= f (z)ps (y, z) dz pt (x, y) dy
Z Z
= f (z) pt (x, y)ps (y, z)dy dz. (5.10)
La comparaison de (5.9) et de (5.10) pour toute fonction f assure (5.8). La densité pt (x, y)
est la loi de Xt lorsque la diffusion part de x, aussi on appelle x la variable du passé e y
celle du futur. Les équations en x sont dites rétrogrades et celle en y sont dite progressives.
Dans le cas du mouvement
√ brownien, le noyau de la chaleur admet une densité pt (x, y) =
2
exp(−(y − x) /(2t))/ 2πt et vérifie les équations progressive (4.18) et rétrograde (4.19)
vues au Chapitre 4. On généralise ci-dessous ces équations pour les semi-groupes avec
densité de diffusions générales.
Théorème 5.11 (Équation de Kolmogorov) On suppose que le semi-groupe (Pt )t≥0 admet
une densité pt (x, y). Alors :
(1) Cette densité vérifie l’équation de Kolmogorov progressive en (t, y) (dans le sens des
distributions) :
∂t pt (x, y) = L∗y pt (x, y)
(5.11)
limt→r pt (x, y)dy = δx
où L∗ est l’opérateur adjoint de L défini par
d d
X 1X 2
L∗y f (y) =− ∂yi [ai (y)f (y)] + ∂ [(σ(y)σ(y)∗ )i,j f (y)].
i=1
2 i,j=1 yi ,yj
Démonstration : (1) Pour toute fonction f régulière à support compact, par définition de
Pt et par convergence dominée, on a :
Z Z
∂t Pt f (x) = ∂t Ex [f (Xt )] = ∂t f (y)pt (x, y)dy = f (y)∂t pt (x, y) dy. (5.13)
Rd Rd
∂t Pt f (x) = Pt Lf (x)
Z
= pt (x, y)Lf (y) dy
Rd
92 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1
Z d d
!
X 1X
= pt (x, y) ai (y)∂yi f (y) + (σ(y)σ(y)∗ )i,j ∂y2i ,yj f (y) dy
Rd
i=1
2 i,j=1
Z d d
!
X 1X 2
= − ∂yi [ai (y)pt (x, y)] + ∂yi ,yj [(σ(y)σ(y)∗ )i,j pt (x, y)] f (y) dy
Rd i=1
2 i,j=1
(5.14)
Z
= L∗y pt (x, y)f (y) dy (5.15)
Rd
avec quelques intégrations par parties pour obtenir (5.14), il n’y a pas de termes de bord
car f est supposée à support compact. L’équation progressive (5.11) s’obtient alors en
comparant (5.13) et (5.15).
(2) Puis pour toute fonction f régulière à support compact, d’après (5.7), on a
Z Z
∂t Pt f (x) = L(Pt f )(x) = L f (y)pt (·, y) dy (x) = f (y)Lx [pt (x, y)] dy.
il vient l’équation rétrograde (5.12) (avec des dérivées dans le sens des distributions).
Théorème 5.12 (Formule de Dynkin) Soit (Xt )t≥0 une diffusion homogène de générateur
d
X d
X
L= ai (x)∂xi + (σσ ∗ )i,j (x)∂x2i ,xj , x ∈ Rd ,
i=1 i,j=1
puis τ un temps d’arrêt intégrable (Ex [τ ] < +∞) et f ∈ Cc2 (Rd , R). Alors
Z τ
Ex f (Xτ ) = f (x) + Ex Lf (Xs ) ds . (5.16)
0
Il suffit donc de montrer que l’espérance de l’intégrale stochastique est nulle. Mais pour
toute fonction h bornée par M , et N ∈ N, on a
Z τ ∧N Z N
Ex h(Xs ) dBs = Ex 1{s<τ } h(Xs ) dBs = 0
0 0
car 1{s<τ } , h(Xs ) sont Fs -mesurables, h est bornée et on a une vraie martingale avec
Rt
0
1 {s<τ } h(X s ) dBs 0≤t≤N
, nulle en 0 donc centrée. Puis
"Z
τ Z τ ∧N 2 # Z τ
2
Ex h(Xs ) dBs − h(Xs ) dBs = Ex h(Xs ) ds
0 0 τ ∧N
≤ M 2 Ex [τ − τ ∧ N ]
qui tend vers 0 quand n → +∞ par convergence dominée, en vertu de l’hypothèse Ex [τ ] <
+∞. On a donc
Z τ ∧N Z τ
0 = lim Ex h(Xs ) dBs = Ex h(Xs ) dBs , (5.18)
N →+∞ 0 0
ce qui conclut la preuve en reportant cette conclusion dans (5.17) pour h = σf 0 (bornée
car σ et f 0 sont continues sur le support compact de f ).
On suppose que le problème (5.19) admet une unique solution, ce sera le cas par exemple
lorsque le domaine D et les fonctions θ, ψ sont assez réguliers. On suppose également que
le temps de sortie τ est intégrable et on montre alors que la solution u de (5.19) s’écrit
nécessairement Z τ
u(x) = Ex ψ(Xτ ) − θ(Xs ) ds . (5.20)
0
Z τ ∧N
u e(Xτ ∧N ) − Ex
e = Ex u Lu(Xs ) ds . (5.21)
0
où la limite s’obtient par convergence monotone. Puis comme u e est supposée bornée, par
convergence dominée lorsque N → +∞ :
Ex u e(Xτ ∧N ) → Ex ue(Xτ ) = Ex ψ(Xτ ) = 0
Ainsi la résolution de (5.19) donne des informations sur le temps de sortie τ et le lieu de
sortie Xτ de la diffusion X de D.
dXt = Xt dBt
u00 −2r
= ⇒ ln(u0 ) = c − 2r ln x ⇒ u0 = cx−2r ⇒ u = c1 x1−2r + c2 .
u0 x
Avec les conditions au bord, on obtient
x1−2r − a1−2r
u(x) = .
b1−2r − a1−2r
En notant toujours τ = τa ∧ τb avec τa et τb les temps d’atteinte de 0 < a < b et en
appliquant la formule de Dynkin (5.20) avec θ = 0 et ψ(a) = 0, ψ(b) = 1, on a aussi
u(x) = Ex 1{Xτ =b} = Px (τb < τa ).
Pour r < 1/2, on a lima→0 a1−2r = 0 et τa % τ0 = +∞ (puisque Xt > 0 pour tout t ≥ 0).
Par convergence monotone, on a alors :
x1−2r − a1−2r
Px (τb < +∞) = lim Px (τb < τa ) = lim = 1, 0 < x < b.
a→0 a→0 b1−2r − a1−2r
Dans ce cas, la probabilité que X n’atteigne jamais b partant de x ∈]0, b[ est nulle.
Noter que si r = 1/2, on peut encore résoudre
1 1
Lu = xu0 + x2 u00 = 0,
2 2
soit
u00 1 c1
Lu = 0 ⇒ 0
= − ⇒ ln |u0 | = c1 − ln x ⇒ u0 = ⇒ u = c1 ln x + c2
u x x
ln x−ln a
et obtenir avec les conditions au bord considérées u(x) = ln b−ln a
, ce qui donne
ln x − ln a
Px (τb < τa ) = ,
ln b − ln a
et en passant à la limite a → 0 obtenir Px (τb < +∞) = 1.
Quand r ≥ 1/2, on précise le temps d’atteinte d’un niveau τb en calculant son espérance.
Pour cela, on considère maintenant le problème (5.19) avec θ = −1 et ψ = 0, c’est à dire
C(x) 2 c1
u0 = v = 2r
=− + 2r
x (2r − 1)x x
5.3. Diffusion et EDP 97
et
2
u=− ln x + c1 x1−2r + c2 . (5.23)
2r − 1
Avec les conditions au bord u(a) = u(b) = 0, on trouve les constantes c1 , c2 :
2 ln b − ln a
c1 = 1−2r
2r − 1 b − a1−2r
2 (ln a)b1−2r − (ln b)a1−2r
c2 = .
2r − 1 b1−2r − a1−2r
c1 = ln a + ln b, c2 = −(ln a)(ln b)
soit
2
u = (ln a + ln b) ln x − ln x − (ln a)(ln b). (5.25)
Par unicité de la solution (5.25) doit coı̈ncider avec la solution E[τ ] = E τa ∧ τb obtenue
par la formule de Dynkin (5.20). Quand a → 0, on a τa % τ0 = +∞ et E τa∧ τb → E[τb ]
par convergence monotone. Puis quand a → 0, (5.25) donne u ≈ (ln a) ln xb → +∞ pour
x < b. On en déduit que pour r = 1/2, on a Ex [τb ] = +∞ pour tout niveau b > 0.
98 Chapitre 5. ©JCB – M2 Math. – Université de Rennes 1
Formule de Feynman-Kac
Parfois, il n’est pas utile de connaı̂tre explicitement tout le semi-groupe de transition
(Pt )t≥0 mais, en utilisant des EDP rétrogrades, seulement certaines intégrales.
Théorème 5.16 (Feynman-Kac) Soit g une fonction continue. S’il existe une solution ré-
gulière u(t, x) à l’EDP rétrograde
∂t u(t, x) + Lu(t, x) = 0,
(5.26)
u(T, x) = g(x),
alors elle doit s’écrire u(t, x) = E[g(XT )|Xt = x].
L’intérêt d’une telle formule est de pouvoir donner une solution d’EDP sous forme d’es-
pérance. On peut alors simuler la solution de l’EDP à l’aide de méthodes de Monte-Carlo
pour approximer les espérances.
Démonstration : Comme pour (5.3), on applique la formule d’Itô à u(s, Xs ) entre les dates
t et T et on utilise que u vérifie l’EDP (5.26) :
Z T Z t
u(T, XT ) = u(t, Xt ) + ∂s u(s, Xs ) ds + Lu(s, Xs ) ds
t 0
d X
X m Z T
+ σi,k (s, Xs )∂xi u(s, Xs ) dBs(k) (5.27)
i=1 k=1 t
d X
X m Z T
= u(t, Xt ) + σi,k (s, Xs )∂xi u(s, Xs ) dBs(k) .
i=1 k=1 t
RT (j)
Avec assez de régularité, les intégrales t σi,j (s, Xs )∂xi u(s, Xs ) dBs sont de vraies mar-
tingales. En prenant l’espérance conditionnelle, on a
E[u(T, XT )|Xt = x] = E[u(t, Xt )|Xt = x]
Xd X m hZ T i
+ σi,k (s, Xs )∂xi u(s, Xs ) dBs(k) Xt = x
E
i=1 k=1 t
= E[u(t, x)|Xt = x]
Xd X m h Z T −t i
+ Ex σi,k (s, Xs )∂xi u(s, Xs ) dBs(k) (5.28)
i=1 k=1 0
= u(t, x)
en utilisant la propriété de Markov pour (5.28) puis la propriété de martingale pour annu-
ler l’espérance correspondante. Comme u(T, XT ) = g(XT ) par la condition finale de l’EDP
(5.26), on a bien la conclusion cherchée.
Corollaire 5.17 Soit g une fonction continue. S’il existe une solution régulière v(t, x) à
l’EDP rétrograde
∂t v(t, x) + Lv(t, x) − k(t, x)v(t, x) = 0,
(5.29)
v(T, x) = g(x),
alors elle s’écrit
Z T
v(t, x) = E exp − k(s, Xs ) ds g(XT )|Xt = x .
t
= 0
et il vient
Chapitre 6
Problèmes de martingale
Dans ce chapitre, on résout des EDS (solutions faibles) en montrant que certains pro-
cessus sont des martingales. Ce type d’approche a été introduit par Stroock et Varadhan
(1969) et on commence par l’illustrer par un exemple très simple.
Exemple 6.1 Étant donné un mouvement brownien B, on considère l’EDS
dXt = dBt , X0 = 0.
La seule solution est évidemment X = B, la solution faible est donc la mesure de Wiener
W sur
(Ω0 , F 0 ) = C(R+ , R), B(C(R+ , R))
muni de la filtration (Ft0 )t≥0 engendrée par le processus canonique Xt0 (ω 0 ) = ω 0 (t).
Avec le théorème de Lévy (Théorème 1.8), on observe que la mesure de Wiener W est
la seule probabilité sur (Ω0 , F 0 , (Ft0 )t≥0 ) sous laquelle Xt0 et Xt02 − t sont des martingales
locales.
Dans le cas particulier de cet Exemple 6.1, la résolution faible (existence et unicité faibles)
de l’EDS a consisté à identifier une probabilité (la mesure de Wiener W) sous laquelle
certains processus sont des martingales (locales). Cette approche, appelée problème de
martingale, est développée dans ce chapitre. Après une introduction en Section 6.1, on
relie EDS et problème de martingale en Section 6.2. En Section 6.3, on généralise les
résultats aux équations différentielles fonctionnelles stochastiques. Dans les Sections 6.4 et
6.5, on donne des résultats d’existence et d’unicité pour les EDS obtenus par problèmes de
martingale.
101
102 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
tel que B est un (Ft )-mouvement brownien et X est un processus (Ft )-adapté, à trajectoires
continues vérifiant presque sûrement :
Z t
2
|ai (s, Xs )| + σi,j (s, Xs ) ds < +∞, 1 ≤ i ≤ d, 1 ≤ j ≤ m, t ≥ 0, (6.1)
0
Z t Z t
Xt = X 0 + a(s, Xs ) ds + σ(s, Xs ) dBs , t ≥ 0. (6.2)
0 0
La fonction c est borélienne et sous (loc) elle est aussi localement bornée.
On associe à l’EDS E(a, σ) le générateur (5.1), ie.
d d
X 1X
Lf (t, x) = ai (t, x)∂xi f (x) + ci,j (t, x)∂x2i ,xj f (x), f ∈ C 2 (Rd ).
i=1
2 i,j=1
Une première observation reliant l’EDS E(a, σ) à des martingales est donnée dans la pro-
position suivante :
6.1. Introduction et notations 103
Proposition 6.2 Soit X, B, (Ω, F, (Ft )t≥0 , P) une solution faible de l’EDS E(a, σ). Pour
toute fonction f (t, x) ∈ C 1,2 (R+ × Rd ),
Z t
Mtf
= f (t, Xt ) − f (0, X0 ) − ∂t f + Lf (s, Xs ) ds (6.4)
0
Puis si f ∈ Cc1,2 (R+ × Rd ) et les coefficients σi,j sont bornés sur le support de f alors
M f ∈ L2 (B).
Rt
Comme presque sûrement pour chaque (i, j), on a 0
σi,j (s, Xs )2 ds < +∞, on a
h i h i
i,j Sn i,j Sn i,j i,j
E h(Mt ) , (Mt ) it = E hMt , Mt it∧Sn
h Z t∧Sn i
= E σi,j (s, Xs )2 ∂xi f (s, Xs )2 ds ≤ K 2 n,
0
R t pour s ≤2 t ∧ Sn on a kXs k ≤ n domaine sur lequel ∂xi,ji f (s, x) est bornée par K, et
car
σ (s, Xs ) ds < n pour t ≤ Sn . Comme Sn % +∞, M est une martingale locale à
0 i,j
trajectoires continues et donc aussi les processus
d X
X m
(Mtf )Sn = Mt∧S
f
n
= i,j
Mt∧S n
i=1 j=1
104 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
d X
X m Z t
∗
= σi,j (s, Xs )σj,k (s, Xs )∂xi f (s, Xs )∂xk g(s, Xs ) ds
i,k=1 j=1 0
d Z
X t
= (σσ ∗ )i,j (s, Xs )∂xi f (s, Xs )∂xk g(s, Xs ) ds.
i,k=1 0
De plus, si f est à support compact sur lequel chaque σi,j est borné alors l’intégrande dans
M i,j est borné et M f ∈ L2 (B) car dans ce cas E[hM f , M f it ] < +∞ pour chaque t ≥ 0.
On munit cet espace canonique de la filtration (Ft0 )t≥0 engendrée par le processus canonique
donné par Xt0 (ω 0 ) = ω 0 (t).
est une martingale continue pour toute f ∈ Cc2 (R+ , Rd ). Lorsqu’on cherche P0 sous la-
0
quelle M f est une martingale locale continue pour toute f ∈ C 2 (R+ , Rd )), on parle de
problème de martingale locale. Une probabilité P0 qui convient est dite solution du problème
de martingale (locale).
Remarque 6.4 Si P0 est solution d’un problème de martingale alors P0 est solution du
problème de martingale locale correspondant.
En effet, pour f ∈ C 2 (R d
) (sans support compact), pour chaque k ≥ 1, on pose Sk =
inf t ≥ 0 : kw(t)k ≥ k pour w ∈ C0 (R+ , Rd ) et on considère gk ∈ Cc2 (Rd ) qui coı̈ncide
0
avec f sur {x ∈ Rd : kxk ≤ k}. Par hypothèse, M gk est une martingale sous P0 , et
0 0
Mtgk = Mt f pour t ≤ Sn . Cela assure que (M f )Sn est une martingale locale (à trajectoires
0
continues) et donc M f est une martingale locale (à trajectoires continues).
Proposition 6.5 Si le triplet X, B, (Ω, F, (Ft )t≥0 , P) est solution faible de l’EDS E(a,
σ)
0 0 d d
satisfaisant (loc) alors la probabilité PX sur (Ω , F ) = C(R+ , R ), B(C(R+ , R )) est
solution du problème de martingale (6.8).
Démonstration : On suppose que (Ω, F, (Ft )t≥0 , P) est un espace de probabilité sur lequel B
est (Ft )-mouvement brownien et X processus (Ft )-adapté à trajectoires continues presque
sûrement, de loi P0 , vérifiant (6.1)–(6.2) sur Ω.
D’après la Proposition 6.2 pour f, g ∈ Cc2 (Rd ), M f et M g sont des martingales, de crochet
donné par
X d Z t
f g
hM , M it = ci,j (s, Xs )∂xi f (s, Xs )∂xj g(s, Xs ) ds.
i,j=1 0
0
Il s’agit de transférer cette observation aux martingales M f analogues de M f sur l’espace
Ω0 = C(
rit+ , Dd ). On effectue le transfert par le processus solution X : Ω → C(R+ , Rd ) = Ω0 .
Plus précisément en notant N = {ω ∈ Ω : la fonction t 7→ Xt (ω) n’est pas continue}, on
considère Φ : Ω → Ω0 donnée par
Xt (ω) si ω 6∈ N
Φ(ω)(t) =
0 si ω ∈ N
106 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
alors P0 = P ◦ X −1 = P ◦ Φ−1 . Noter que comme la filtration est complète et X est (Ft )-
adapté et à trajectoires continues (à gauche) alors X est un processus prévisible. Il s’ensuit
que Φ respecte les filtrations : pour A0 ∈ Ft0 , Φ−1 (A0 ) ∈ Ft .
D’après (loc) et comme f ∈ Cc2 (Rd ), le processus M f est borné sur chaque intervalle de
temps, c’est donc une (vraie) martingale.
0
D’après les définitions de Φ, des processus M f , et M f , hors du négligeable N , on a
0f
Mf = M ◦ Φ. (6.9)
0f
Comme P(N ) = 0, l’égalité (6.9) reste vraie P-ps et M est une martingale en utilisant le
lemme qui suit.
Lemme 6.6 Soit (Ω, F, (Ft )t≥0 , P) et (Ω0 , F 0 , (Ft0 )t≥0 ) et Φ : Ω → Ω0 qui respecte les filtra-
tions. On pose P0 = P ◦ Φ−1 . Alors si M est une martingale continue sur (Ω, F, (Ft )t≥0 , P),
le processus continu M 0 sur Ω0 associé à M par M = M 0 ◦ Φ en dehors de N (bien défini
P0 -ps) est une martingale sur (Ω0 , F 0 , (Ft0 )t≥0 , P0 ).
Démonstration :[Lemme 6.6] En effet, si s < t et A0 ∈ Fs0 , on a A = Φ−1 (A0 ) ∈ Fs (car Φ
respecte les filtrations) et par transfert de Ω sur Ω0 à l’aide de l’application mesurable Φ :
Comme
est aussi une martingale alors Lemme 6.6 assure aussi que
d Z t
0f 0g
X
hM , M it = ci,j (s, ws )∂xi f (s, ws )∂xj g(s, ws ) ds.
i,j=1 0
Le résultat principal qui suit établit la réciproque de la Proposition 6.5. Pour cette réci-
proque, il suffit de considérer les fonctions fi (x) = xi et fi,j (x) = xi xj . On utilise alors
les notations suivantes pour les analogues de M fi , M fi,j sur Ω0 comme en (6.6), (6.7) pour
i, j = 1, . . . , d
Z t
0 (i) 0f 0 (i) (i)
Mt := Mt = Xt − x0 −
i
ai (s, Xs0 ) ds,
0
6.2. EDS et problème de martingale 107
Z t
0 (i,j) 0f 0 (i) 0 (j) (i) (j)
ai (s, Xs )Xs(j) + aj (s, Xs )Xs(i) + ci,j (s, Xs ) ds
Mt := M i,j
= Xt Xt − x 0 x0 −
0
ce sont des processus à trajectoires continues et (Ft0 )-adaptés sur Ω0 . De plus, on note
Z t Z t
0 (i) 0 (i,j)
0
At = ai (s, Xs ) ds, Ct = ci,j (s, Xs0 ) ds. (6.10)
0 0
Théorème 6.7 (Problème de martingale) On suppose l’hypothèse (loc) satisfaite pour l’EDS
E(a, σ). Une probabilité P0 sur (Ω0 , F 0 ) est mesure-solution si et seulement si les processus
0 0 0 (i)
M (i) et M (i,j) sont des martingales locales sous P0 avec M0 = 0 P0 -ps pour tout 1 ≤ i ≤ d
(soit P0 (X00 = x) = 1).
0
sur (Ω0 , F 0 ) et une solution faible X, B,
Remarque 6.8 Une probabilité P mesure-solution
(Ω, F, (Ft )t≥0 , P) sont reliées par P0 = PX .
Des résultats précédents, on déduit : la Proposition 6.5 et du Théorème 6.7, on déduit
immédiatement :
Théorème 6.9 (EDS et problème de martingale) Pour une EDS E(a, σ) satisfaisant la
condition (loc), les assertions suivantes sont équivalentes :
(A) Il existe une solution faible de l’EDS E(a, σ).
(B) Il existe une solution au problème de martingale locale (6.8).
(C) Il existe une solution au problème de martingale (6.8).
Démonstration : L’implication (A) ⇒ (C) est due à la Proposition 6.5, (C) ⇒ (B) vient
de la Remarque 6.4. Enfin, on a (B) ⇒ (A) par le Théorème 6.7.
Démonstration :[Théorème 6.7] Le sens direct est donné par la Proposition 6.5. Pour la
réciproque, étant donné une mesure-solution P0 , il s’agit de trouver un espace Ω sur lequel
X 0 (de loi P0 ) est encore défini et est solution de E(a, σ), ie. vérifie (6.1)–(6.2). Pour cela, on
0
procède par étapes avec du travail préliminaire : étape 1 : on commence remplacer M (i,j)
0 (i,j)
par une autre martingale locale N ; étape 2 : extension de l’espace de probabilité ;
étape 3 : algèbre linéaire ; étape 4 : preuve de la condition suffisante.
0 (i,j)
Étape 1 (équivalence de martingales locales). Plutôt que de considérer M , on préfère
0
considérer N (i,j) donné pour i, j = 1, . . . , d par
0 (i,j) 0 (i) 0 (j) 0 (i,j)
Nt = Mt Mt − Ct . (6.11)
0 (i) 0 (j)
Noter que dans ce sens de la preuve, on sait que M , M sont des martingales locales,
mais on ne connaı̂t pas leur crochet comme dans la Proposition 6.2 ; on ne peut donc pas
0
affirmer que N (i,j) est aussi une martingale locale. Cependant, du point de vue du problème
0 0
de martingale, il est équivalent de considérer M (i,j) ou N (i,j) :
108 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
0 0 0 (i,j)
Lemme 6.10 Lorsque M (i) , M (j) sont des martingales locales, le processus N est une
0
martingale locale si et seulement si M (i,j) en est une. Dans ce cas, on a :
0 (i) 0 (j) 0 (i,j)
hM ,M it = Ct . (6.12)
0 (i,j)
Démonstration :[Lemme 6.10] D’abord, Nt s’écrit
0 (i,j) 0 (i,j) 0 (i) 0 (j) 0 (j) 0 (i) 0 (i,j)
Nt = Mt − X0 Mt − X0 Mt + Kt (6.13)
0 0
Comme les M (i) , M (j) en (6.6) sont des martingales locales par hypothèse, il suit que
0 0
N (i,j) est une martingale locale si et seulement si M (i,j) en est une.
0 (i,j)
Lorsque N est une martingale locale, par sa définition (6.11), il vient de suite (6.12).
Avec un abus de notation, on étend toutes les fonctions sur Ω0 ou Ω00 de manière usuelle à
Ω en gardant le même symbole, par exemple
est une martingale (car martingale arrêtée) et donc U 0 U 00 est une martingale locale car
Tn0 ∧ Tn00 → +∞ (Tn0 → +∞, Tn00 → +∞). Par conséquent, hU 0 , U 00 it = 0.
0 0
En appliquant ce qui précède à U 0 = M (i) , N (i,j) et à U 00 = B 00 , il s’ensuit sur cet espace
0
produit (Ω, F, (Ft )t≥0 , P) donné en (6.16) que B 00 est un mouvement brownien et les M (i)
0 (i,j) 0 (i) 00 (j)
et N sont des martingales locales avec hM , B i = 0 d’après (6.17).
110 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
Étape 3 (algèbre linéaire). On utilise maintenant des résultats élémentaires d’algèbre li-
néaire : on rappelle que si c = σσ ∗ est de rang ζ (≤ d, m) alors σ est aussi de rang ζ. La
dégénérescence de σσ ∗ est la difficulté qui oblige à construire un mouvement brownien sur
une extension Ω de l’espace Ω0 .
Soit c0 = σ ∗ σ une matrice de taille m × m symétrique positive (de rang ζ). Elle s’écrit
c0 = ΠΛΠ∗ où Π est orthogonale de taille m × m et Λ est diagonale avec Λi,i > 0 si i ≤ ζ
et Λi,i = 0 si i > ζ. Soit alors Λ0 la matrice diagonale avec
On a ΛΛ0 = Λ0 Λ = Im,ζ en notant Im,ζ la matrice diagonale de taille m × m ayant 1 pour les
ζ premiers éléments diagonaux et 0 pour les suivants. Soit enfin σ 0 = Λ0 Π∗ σ ∗ une matrice
de taille m × d. On a alors
0
σ 0 cσ ∗ = (Λ0 Π∗ σ ∗ )(σσ ∗ )(σΠΛ0 ) = (Λ0 Π∗ )(ΠΛΠ∗ )(ΠΛΠ∗ )(ΠΛ0 ) = Λ0 ΛΛΛ0 = Im,ζ . (6.18)
Étape 4 (suffisance). On montre maintenant que la condition du Théorème 6.7 est suffi-
sante. Il s’agit de constuire un triplet solution X, B, (Ω, F, (Ft )t≥0 , P) tel que P0 est la
loi PX de X.
Comme la fonction matricielle σ est borélienne sur R+ × Rd , il en est de même pour son
rang ζ. On peut aussi vérifier qu’on peut choisir pour les matrices Π et Λ des fonctions
boréliennes. De même, les fonctions Λ0 et σ 0 sont boréliennes.
0
On introduit la fonction borélienne α = supi≤m,j≤d |σi,j |. La fonction σ 0 /α étant bornée
(avec la convention 0/0 = 0), on peut définir pour tout i = 1, . . . , m les intégrales
d Z t 0
(i)
X σi,j 0
Ut = (s, Xs0 )dMs(j) . (6.20)
j=1 0 α
0 0 0 (i,j)
Comme par hypothèse du sens indirect M (i) , M (j) , M sont des martingales, le Lemme 6.10
0 0 0 (i,j)
(étape 1) assure que (6.12) : hM (i) , M (j) it = Ct .
On a alors
t d 0 0
σi,k σj,l
Z
0 (k) 0 (l)
X
(i) (j) 0
hU , U it = 2
(s, Xs )dhM , M is
0 k,l=1
α
6.2. EDS et problème de martingale 111
t d 0 0
σi,k σj,l ck,l
Z X
= 2
(s, Xs0 ) ds
0 k,l=1
α
t 0
(σ 0 cσ ∗ )i,j
Z
= 2
(s, Xs0 ) ds
0 α
Z t
1
= δi,j 1 0
0 2 {ζ(s,Xs )≥i}
ds
0 α(s, Xs )
0
en utilisant σ 0 cσ ∗ = Im,ζ obtenue en (6.18) à l’étape 3. Cela assure que les intégrales
stochastiques Z t
(i)
Vt = α(s, Xs0 )dUs(i) (6.21)
0
sont bien définies avec en plus
Z t
(i) (j)
hV ,V it = δi,j 1{ζ(s,Xs0 )≥i} ds. (6.22)
0
On rappelle que B 00 est un mouvement brownien sur Ω et qu’il est indépendant de l’espace
facteur Ω0 . Pour i ≤ m, on définit les P-martingales locales continues suivantes
Z t m Z t
00 (i)
(i) (i) (i)
X
Zt = Vt + 1{ζ(s,Xs0 )<i} dBs et Bt = Πi,k (s, Xs0 )dZs(k) . (6.24)
0 k=1 0
Noter que, par indépendance sur les espaces facteurs Ω0 et Ω00 comme en (6.17), on a
0 00 00
hM (i) , B (k) i = 0 et donc par (6.20), il vient hU (i) , B (k) i = 0 puis par (6.21) aussi
00 00 00
hV (i) , B (k) i = 0. Avec (6.22) et hB (i) , B (j) it = δi,j t (mouvements browniens indépen-
dants), on obtient
Z t
(i) (j) (i) (j)
hZ , Z it = hV , V it + δi,j 1{ζ(s,Xs0 )<i} ds
0
112 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
Z t Z t
= δi,j 1{ζ(s,Xs0 )≥i} ds + δi,j 1{ζ(s,Xs0 )<i} ds = δi,j t,
0 0
et donc
m Z
X t
(i) (j)
hB , B it = (Πi,k Πj,l )(s, Xs0 )dhZ (k) , Z (l) is
k,l=1 0
Xm Z t
= (Πi,k Πj,k )(s, Xs0 ) ds
k=1 0
Z t
= (ΠΠ∗ )i,j (s, Xs0 ) ds = δi,j t
0
Ce sont des martingales locales continues nulles en 0 et il s’agit de voir qu’elles sont indis-
0 0
tinguables de 0 pour établir que X 0 = (X (1) , . . . , X (d) ) est solution de E(a, σ) comme en
(i)
(6.2). Comme Y0 = 0, on le montre en établissant ci-dessous que le crochet hY (i) , Y (i) it
est identiquement nul.
On a
m Z t
0 (i) 0 (i)
X
hY (i)
,Y (i)
it = hM ,M it + σi,k (s, Xs0 )σi,l (s, Xs0 )dhB (k) , B (l) is
k,l=1 0
m Z t
0 (i)
X
−2 σi,k (s, Xs0 )dhM , B (k) is . (6.25)
k=1 0
m Z
X t m
Z tX Z t
= 2
σi,k (s, Xs0 ) ds = 2
σi,k (s, Xs0 ) ds = ci,i (s, Xs0 ) ds. (6.27)
k=1 0 0 k=1 0
0 (i) 00 (k)
Puis pour le troisième terme de (6.25) : d’abord, comme hM ,B i ≡ 0, on a par
(i)
définition de B 00 puis de Zk en (6.24) :
m Z t
0 (i) 0
X
(j)
hM , B it = Πj,k (s, Xs0 )dhM (i) , Z (k) is
k=1 0
m Z t
0 (i) 0 (i) 00 (k)
X
= Πj,k (s, Xs0 ) dhM ,V (k)
is + 1{ζ(s,Xs0 )<k} dhM ,B is
k=1 0
m Z t
0 (i)
X
= Πj,k (s, Xs0 )dhM , V (k) is
k=1 0
m Z t
0
X
= (Πj,k (cσ ∗ )i,k )(s, Xs0 ) ds (d’après (6.23))
k=1 0
Z t
0
= (cσ ∗ Π∗ )i,j (s, Xs0 ) ds. (6.28)
0
(i)
Comme en plus Y0 = 0 P-ps, on en déduit que Y (i) est P-indistinguable de 0. Cela signifie
que X 0 considéré comme processus sur l’extension (Ω, F, (Ft )t≥0 , P) est solution de l’EDS
E(a, σ) relativement au mouvement brownien B construit en (6.24).
Comme par construction P0 est la loi de X 0 , cela signifie aussi que P0 est mesure-solution
de l’EDS E(a, σ) et on a le résultat cherché, achevant de prouver le Théorème 6.7.
114 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
Ci-dessous, on justifie que sous de bonnes conditions, on peut construire la solution faible
directement sur l’espace canonique Ω0 = C(R+ , Rd ) sans étendre l’espace Ω0 en Ω = Ω0 ×Ω00 ,
comme dans la preuve du Théorème 6.7.
d d
X 1X
L0 f (t, w) = ai (t, w)∂xi f (w(t)) + ci,j (t, w)∂x2i ,xj f (w(t)), t ∈ R+ , w ∈ C(R+ , Rd ).
i=1
2 i,j=1
6.3. Équation différentielle fonctionnelle stochastique 115
Le triplet X, B, (Ω, F, (Ft )t≥0 , P) est solution faible de EDfS si, en plus des conditions
habituelles de mesurabilité, on a, à la place de (6.1)–(6.2) : ps
Z t
2
|ai (s, X)| + σi,j (s, X) ds < +∞, 1 ≤ i ≤ d, 1 ≤ j ≤ m, t ≥ 0, (6.30)
0
Z t Z t
Xt = X 0 + a(s, X) ds + σ(s, X) dBs , 0 ≤ t < +∞. (6.31)
0 0
Théorème 6.12 Les conditions (A) et (B) sont équivalentes et impliquées par (C). De plus,
(A) implique (C) si l’une des deux conditions supplémentaires suivantes est satisfaite :
(A1) Les fonctions σi,j sont de la forme σi,j (t, w) = σ
ei,j (t, w(t)) avec les fonctions σ
ei,j (t, y)
localement bornées.
(A2) Pour tout T ≥ 0, il existe KT < +∞ tel que kσ(t, w)k ≤ KT pour tout t ∈ [0, T ] et
w ∈ C(R+ , Rd ).
Sous l’hypothèse (A1), la partie diffusion de l’EDfS devient celle d’une EDS classique et
elle est traitée comme dans la Proposition 6.2 à l’aide de la formule d’Itô.
Sous l’hypothèse (A2), on peut encore raisonner comme dans la preuve de la Proposition 6.2
et on récupère de vraies martingales sur tout [0, T ] sdont sur tout R+ grâce à la borne sur
la norme de σ.
Démonstration : On note C(m, d) pour une constante qui ne dépend que de m et d (et qui
peut varier de ligne en ligne). Par convexité de x ∈ R+ 7→ x2m , on a
Z t
2m
Z t
2m !
kXt k2m ≤ C(m, d) kX0 k2m +
a(u, X)du
+
σ(u, X) dBu
.
0 0
Par le lemme de Grönwall (Lemme 3.7), il vient alors pour une constante C :
Comme Sk % +∞, la borne (6.33) vient finalement par convergence monotone quand
k → +∞ :
2m 2m
≤ C 1 + E[kX0 k2m ] eCt , 0 ≤ t ≤ T.
E max kXs k = lim E max kXs k
0≤s≤t k→+∞ 0≤s≤t∧Sk
On procède alors comme précédemment pour (6.35) avec la croissance sous-linéaire (6.32)
et le lemme de Grönwall pour avoir
Z t
E kXt − Xs k2m ≤ C(t − s)m−1 2m
1 + E max kXθ k du
s 0≤θ≤u
Z t
m−1
1 + C(1 + E[kX0 k2m ])eCu du
≤ C(t − s)
s
≤ C(1 + Ce ) 1 + E[kX0 k2m ] (t − s)m ,
CT
Pour passer à la limite (en loi), on montre que la suite P (n) des processus X (n) est tendue.
En effet, pour 0 < T < +∞, le Lemme 6.13 appliqué à X (n) solution de l’EDfS (6.37) avec
des coefficients a(n) et σ (n) uniformément bornés assure
(n)
sup E kXt − Xs(n) k2m ≤ C 1 + E[kξk2m ] (t − s)m , 0 ≤ s < t ≤ T.
(6.38)
n≥1
6.4. Existence de solution faible d’EDS 119
pour une constante C = C(m, T, d, kak, kσk). Comme m > 1, la borne (6.38) assure
le critère de tension de Kolmogorov
pour obtenir que la suite (P (n) )n≥1 est tendue sur
C(R+ , Rd ), B(C(R+ , Rd )) . Le théorème de Prohorov assure alors la relativement compa-
cité de la suite (P (n) )n≥1 : il existe une sous-suite (P (nk ) )k≥1 qui converge en loi. Quitte
(n)
à reindexer la suite, on peut supposer que (P )n≥1 converge en loi vers une mesure de
∗ d d
probabilité P sur C(R+ , R ), B(C(R+ , R )) .
On montre alors que P ∗ est mesure-solution de l’EDS E(a, σ). Pour cela, par le Théo-
rème 6.12 il suffit de montrer que P ∗ solutionne un problème de martingale, c’est à dire :
pour tout 0 ≤ s < t < +∞ et f ∈ Cc2 (Rd ),
P ∗ w ∈ C(R+ , Rd ) : w(0) ∈ A = µ(A), A ∈ B(Rd )
(6.39)
h i
t
E ∗ f (w(t)) − f (w(s)) − s Lf (u, w(u))du|Fs0 = 0 P ∗ -ps.
R
(6.40)
est une (Ft0 )-martingale où on a noté pour le générateur associé à X (n) :
d d d r
(n)
X (n) 1 X X X (n) (n)
L f (t, w) = ai (t, w)∂xi f (w(t)) + σi,j (t, w)σk,j (t, w)∂x2i ,xk f (w(t)).
i=1
2 i=1 k=1 j=1
Pour obtenir (6.40), on passe à la limite n → +∞ dans (6.41) en utilisant le lemme suivant :
Lemme 6.15 Soit (Pn )n≥1 une suite de mesures de probabilité sur un espace topologique
(E, B(E)) qui converge en loi vers une probabilité P . On suppose que (fn )n≥1 est une suite
uniformément bornée de fonctions continues fn : E → R qui converge uniforménent sur
tout compact de E vers f . Alors
Z Z
lim fn dPn = f dP.
n→+∞ E E
120 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
Pour 0 ≤ s < t < +∞ fixés, on utilise le lemme précédent avec la convergence P (n) =⇒ P ∗
et les fonctions Z t
Fn (w) = f (w(t)) − f (w(s)) − L(n) (u, f )(w)du (6.42)
s
et Z t
F (w) = f (w(t)) − f (w(s)) − L(u, f )(w)du. (6.43)
s
On commence par remarquer que Fn , F , et même g fonction Fs0 -mesurable, sont définies
sur la restriction C([0, t], Rd ) de C(R+ , Rd ) et
Z Z
(n)
Fn g dP = Fn g dP (n)
C(R+ ,Rd ) C([0,t],Rd )
(n)
où pour simplifier on note encore P (n) pour la restriction P|C([0,t],Rd ) . De même, on a
F g dP ∗ = C([0,t],Rd ) F g dP ∗ . On applique alors le Lemme 6.15 avec E = C([0, t], Rd ),
R R
C(R+ ,Rd )
P (n) =⇒ P ∗ , fn = Fn g et f = F g.
Comme g : C([0, t], Rd ) → R est une fonction bornée, il s’agit de voir que Fn en (6.42)
converge uniformément sur les compacts de C([0, t], Rd ) vers F en (6.43).
6.5. Unicité faible avec problème de martingale 121
Étant donné K ⊂ C([0, t], Rd ) un tel compact, le théorème d’Arzéla-Ascoli assure que
M := sup kw(u)k < +∞, lim sup max |w(u) − w(v)| = 0.
w∈K,0≤u≤t n→+∞ w∈K |u−v|≤2−n
0≤u,v≤t
La convergence uniforme sur K de Fn en (6.42) vers F en (6.43) suit. Par ailleurs, les
fonctions Fn sont uniformément bornées grâce aux hypothèses sur les fonctions a et σ.
Finalement, le Lemme 6.15 s’applique et donne
Z Z
(n)
E [Fn g] = (n)
Fn g dP −→ F g dP ∗ = E ∗ [F g].
C([0,t],Rd ) C([0,t],Rd )
Comme précédemment, toute fonction sur Ω0 ou Ω00 se prolonge avec la même notation
sur Ω. Soit P une probabilité sur (Ω, F) dont la seconde marginale est égale à P00 , ie.
P(Ω0 × A00 ) = P00 (A00 ) ; il existe alors une désintégration de P selon P00 par
où Q est une probabilité de transition de (Ω00 , F 00 ) dans (Ω0 , F 0 ) qui est unique aux P00 -
négligeables près.
Dans le lemme suivant, on suppose donnée une solution X de l’EDS (6.45) sur un espace
(Ω, F, (Ft )t≥0 , P) relativement à un mouvement brownien B. On note P la loi du couple
(X, B), c’est à dire l’image de P sur (Ω, F) par l’application ψ : ω → Ω définie par
ψ(ω)(t) = (Xt (ω), Bt (ω)) lorsque les trajectoires t 7→ Xt (ω) et t 7→ Bt (ω) sont continues
et par ψ(ω)(t) = (0, 0) (par exemple) sinon sur l’ensemble P-négligeable N où ce n’est pas
vrai. Comme B est un mouvement brownien, la seconde marginale de P est P00 .
0 0 (i,j)
Lemme 6.18 Sous les hypothèses précédentes, les processus M (i) et N en (6.11) et
Z t
0 (i,j) 0 (i) 0 (j)
U = Mt Bt − σi,j (s, Xs0 ) ds (6.48)
0
0 0
Démonstration : L’assertion concernant les processus M (i) et N (i,j) se montre exactement
0
comme dans les Lemme 6.6 et Lemme 6.10. La démonstration pour U (i,j) est analogue
lorsqu’on remarque que les
Z t
(i) (j)
U (i,j)
= Mt Bt − σi,j (s, Xs0 ) ds
0
0 (i,j)
sont des P-martingales locales avec U (i,j) = U ◦ Φ comme dans le Lemme 6.6.
Pour la seconde assertion, comme la filtration (Ft00 )t≥0 est continue à gauche, par un argu-
ment de classe monotone, il suffit de la voir pour A = A0 × A00 , avec A0 ∈ Ft0 et A00 ∈ Ft00 .
Dans ce cas, on a Q1A (w00 ) = 1A00 (w00 )Q(w00 , A0 ) donc en fait il suffit de montrer que Q(·, A0 )
est Ft00 -mesurable si A0 ∈ Ft0 . Cela revient à montrer que
Les lois P01 = P1 ◦ X1−1 et P02 = P2 ◦ X2−1 sont mesures-solution. Pour chaque i = 1, 2, P0i
est associée comme ci-dessus à une probabilité Pi sur l’extension (Ω, F, (F t )t≥0 ) en (6.46),
avec Pi de seconde marginale P00 , et se désintègre selon (6.47) avec une probabilité Qi . On
considère alors l’espace produit
\
Ω = Ω0 × Ω0 × Ω00 , F = F 0 ⊗ F 0 ⊗ F 00 , Ft = Fs0 ⊗ Fs0 ⊗ Fs00 ,
(6.52)
s>t
muni de la probabilité
P(dw10 , dw20 , dw00 ) = Q1 (w00 , dw10 )Q2 (w00 , dw20 )P00 (dw00 ). (6.53)
124 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
Enfin, une fonction sur Ω00 admet une extension sur Ω notée de la même, façon, tandis
qu’une fonction U sur Ω admet deux extensions différentes notées
U (1)(w10 , w20 , w00 ) = U (w10 , w00 ), U (2)(w10 , w20 , w00 ) = U (w20 , w00 ).
Lemme 6.19 Si M est une martingale locale continue sur Ω, F, (F t )t≥0 , Pi , son extension
M (i) est une martingale sur (Ω, F, (Ft )t≥0 , P).
Démonstration : On montre le résultat pour i = 1. Quitte à localiser, on peut considérer
que la martingale locale M est bornée et est donc une vraie martingale. Il s’agit alors de
montrer que si s ≤ t alors pour tout A ∈ Fs , on a
E M (1)t 1A = E M (1)s 1A . (6.54)
où la dernière égalité vient de ce que Q2 (·, A2 ) est Fs00 -mesurable, par le Lemme 6.18 puisque
A002 ∈ Fs00 . Le même calcul en partant de E[M (1)s 1A ] aboutit au même résultat, prouvant
(6.54).
À l’aide des Lemme 6.18 et Lemme 6.19, on donne maintenant la preuve du Théorème 6.17.
Démonstration :[Théorème 6.17] Comme juste précédemment, on suppose que P01 et P02
sont deux mesures-solutions, et on reprend les notations de ci-dessus. Par applications des
0 0 0
Lemme 6.18 et Lemme 6.19, on voit que les processus M (i) (k), N (i,j) (k), U (i,j) (k) sont
des martingales locales continues et nulles en 0 sur (Ω, F, (Ft )t≥0 , P) en (6.52)–(6.53) pour
k = 1, 2. En particulier, on a
Z t
0 (i) 0 (j)
hM (k), M (k)it = ci,j (s, X 0 (k)s ) ds
0
et Z t
0 (i) 00 (j)
hM (k), B (k)it = σi,j (s, X 0 (k)s ) ds.
0
00
Par suite, B est un (Ft )-mouvement brownien pour P, et si on pose
Z t m Z t
00
(i)
X
0
(i) (i)
Y (k)t = X (k)t − x0 − ai (s, X (k)s ) ds − σi,j (s, X 0 (k)s )dBs (j)
0 j=1 0
6.5. Unicité faible avec problème de martingale 125
m Z t
0 (i) 00
X
= M (k)t − σi,j (s, X 0 (k)s )dBs (j) ,
j=1 0
= 0,
par définition de ci,j en(6.3). Il s’ensuit que Y (i) (k) = 0 et donc X 0 (k) est solution de l’EDS
(6.45) sur l’espace (Ω, F, (Ft )t≥0 , P) relativement au mouvement brownien B 00 .
On applique alors l’hypothèse d’unicité trajectorielle : les deux processus X 0 (1) et X 0 (2)
sont P-indistinguables. En d’autres termes, P(w10 6= w20 ) = 0. Par suite, étant donné la
définition de P en (6.53), pour P00 -presque chaque w00 en dehors d’un négligeable N , on a
Z Z
0 0
0 = P(w1 6= w2 ) = Q2 (w , dw2 )Q1 (w , dw1 )1{w10 6=w20 } = Q2 (w00 , dw20 )Q1 (w00 , {w20 }c ).
00 0 00 0
On a donc Q1 (w00 , {w20 }c ) = 0 pour Q2 (w00 , ·)-presque tout w20 . Comme Q1 est une proba-
bilité, pour w00 6∈ N , il s’agit d’une masse de Dirac,
pour une certaine application f : Ω00 → Ω0 . Il en est de même de Q2 : pour une certaine
application g : Ω00 → Ω0 :
Q2 (w00 , ·) = δg(w00 ) (dw20 ).
Les deux applications f et g sont P0 -ps égales puisque par (6.53), on a
Z
1 = P(w1 = w2 ) = 1{w10 =w20 } Q1 (w00 , dw10 )Q2 (w00 , dw20 )P00 (dw00 )
0 0
Z
= 1{w10 =w20 } δf (w00 ) (w10 )δg(w00 ) (w20 )P00 (dw00 ) = P00 (f (w00 ) = g(w00 )).
Par suite, Q1 (w00 , ·) = Q2 (w00 , ·) si w00 6∈ N et donc P01 = P02 par leur définition en (6.47),
prouvant l’unicité faible cherchée.
126 Chapitre 6. ©JCB – M2 Math. – Université de Rennes 1
De plus, de (6.55), on a X 0 = f (B 00 ) P1 -ps et il est clair que w00 7→ f (w00 )t est Ft00 -mesurable :
par suite, sous P01 , le processus solution X 0 est en fait adapté à la filtration engendrée par
B 00 .
Si maintenant, on considère une solution X relative à un mouvement brownien B sur un
espace de probabilité quelconque, la loi du couple (X, B) est P1 comme en (6.47) et comme
X 0 = f (B 00 ) P1 -ps, il en découle que X = f (B) ps sur l’espace sur lequel ces processus sont
définis. Ainsi, X est adapté à (FtB )t≥0 , c’est à dire la solution est forte.
Bibliographie
[App] David Applebaum. Lévy Processes and Stochastic Calculus. Cambridge series in
advanced mathematics, vol. 93, 2004.
[BC] Bernard Bercu, Djalil Chafaı̈. Modélisation stochastique et simulation. Dunod, 2007.
[JCB-mesure] Jean-Christophe Breton. Intégrale de Lebesgue. Notes de cours, L3 Mathé-
matiques, Université de Rennes 1, 2016.
[JCB-proba] Jean-Christophe Breton. Fondement des Probabilités. Notes de cours, L3 Ma-
thématiques, Université de Rennes 1, 2014.
M1 Mathématiques, Université de Rennes 1, 2019.
[JCB-proc] Jean-Christophe Breton. Processus stochastiques. Notes de cours, M2 Mathé-
matiques, Université de Rennes 1, 2019.
[Bil2] Patrick Billingsley. Convergence of Probability measures. 2nd Edition, Wiley series
in probabilities and mathematical statistics, 1999.
[Chung] Kai Lai Chung. A course in probability theory. 3rd Edition, Academic Press, 2001.
[CM] Francis Comets, Thierry Meyre. Calcul stochastique et modèles de diffusions. Dunod,
2006.
[CT] Rama Cont, Peter Tankov. Financial modelling with Jump Processes. Chapman &
Hall, 2003.
[Dav] Youri Davydov. Cours de DEA ”Processus stochastiques”. Université Lille 1, 1999–
2000.
[DM] Claude Dellacherie, Pierre-André Meyer. Probabilités et potentiels. Hermann, 1975.
[EGK] Nicole El Karoui, Emmanuel Gobet, Etienne Pardoux. Introduction au calcul sto-
chastique. École Polytechnique, 2001.
[Fel] William Feller. An introduction to probability theory and its applications. Vol. 1. 3rd
Edition, Wiley series in probabilities and mathematical statistics, 1968.
[Gal] Léonard Gallardo. Mouvement brownien et calcul d’Itô. Coll. Méthodes mathéma-
tiques. Ed. Hermann. 2008.
[Gué] Hélène Guérin. Processus à temps continu. Notes de cours, M2 Mathématiques, Uni-
versité de Rennes 1, 2009.
[Kal] Olav Kallenberg. Foundations of modern probability. 2nd Edition, Springer Series in
Statistics. Probability and its Applications, 2002.
127
128 Bibliographie
[KS] Ioannis Karatzas, Steven E. Shreve. Brownian motion and stochastic calculus. Sprin-
ger, 1987.
[Kin] John Kingman. Poisson processes. Oxford University Press, 1993.
[LG0] Jean-François Le Gall. Introduction au mouvement brownien. Gazette des Mathé-
maticiens, vol. 40, 1989.
[LG1] Jean-François Le Gall. Mouvement brownien, martingales et calcul stochastique.
Spinger, Coll. Mathématiques et applications, vol. 71, 2013. Voir les notes de cours
M2 Mathématiques de l’Université Paris sud-Orsay.
[Lif] Michel Lifshits. Gaussian random functions, Kluwer, 1995.
[Mal] Florent Malrieu. Processus de Markov et inégalités fonctionnelles. Notes de cours de
Master 2, 2005–2006.
[Pro] Philipp Protter. Stochastic integration and differential equations. Springer, 1995.
[RY] Daniel Revuz, Marc Yor. Continuous martingales and Brownian motion. Springer,
1991.
[Tud] Ciprian Tudor. Cours de calcul stochastique. Notes de cours M2 Mathématiques,
Université Lille 1, 2011.