Gustavo Portillo Ramirez

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 147

BENEMÉRITA UNIVERSIDAD

AUTÓNOMA DE PUEBLA

FACULTAD DE CIENCIAS FÍSICO MATEMÁTICAS

RELACIÓN DE CAOS HOMOGÉNEO CON


INTEGRALES MÚLTIPLES WIENER-ITÔ

TESIS

QUE PARA OBTENER EL TÍTULO DE


LICENCIADO EN MATEMÁTICAS APLICADAS

PRESENTA
GUSTAVO PORTILLO RAMÍREZ

DIRECTOR DE TESIS
DR. HUGO ADÁN CRUZ SUÁREZ
PUEBLA, PUEBLA MAYO 2018
Dedicado a
mi familia

I
II
Agradecimientos

A mis padres, Teresa y Jacinto por su esfuerzo para darme mis estudios
y por el apoyo incondicional y confianza brindada a lo largo toda mi vida. A
mis hermanas, Amada, Bertha y Reyna por darme ánimos, compañı́a, con-
fianza y motivación. A mis sobrinas Jeansli y Mariana que las he visto crecer
a nuestro lado y que llenan de alegrı́a el hogar. A mis hermanos Edmundo,
Francisco, Gilberto y Josué por apoyarme durante todos estos años. Gracias
a toda mi familia por su cariño y amor.

A mis compañeros y amigos de la facultad, América, Edgar, Juan, Julio y


Roque con quienes he compartido los mejores momentos de la universidad. A
Sinai por apoyarme, motivarme y simplemente por estar en mi vida. Gracias
por ser mi equilibrio amor.

A mi asesor de tesis, Dr. Hugo Adán Cruz Suárez, a quien admiro y


respeto, por su labor en la facultad. Gracias por su apoyo y asesorı́a en el
desarrollo de este trabajo y por los conocimientos compartidos en sus cursos.

A mis sinodales: Dra. Hortensia Josefina Reyes Cervantes, Dr. Vı́ctor


Hugo Vázquez Guevara y Dr. Francisco Solano Tajonar Sanabria por tomarse
el tiempo para revisar este trabajo, por sus sugerencias y observaciones.

III
AGRADECIMIENTOS

IV
Introducción

Los modelos matemáticos ideados para predecir la evolución de algún


fenómeno no consideran la aleatoriedad a lo que están expuestos, lo que im-
plica un cierto error respecto a los resultados obtenidos y a lo que realmente
sucede. Por ejemplo, en los sistemas de ecuaciones diferenciales se conside-
ran coeficientes con valores reales, se buscan los puntos estacionarios y se
analiza la estabilidad de estos lo que nos conduce a dar las correspondientes
conclusiones. Sin embargo, no se está considerando la posibilidad de que en
algún momento los parámetros sean afectados por factores que modifiquen
la evolución del sistema. Por ejemplo, para el modelo logı́stico, la tasa de
crecimiento puede ser afectada por varios factores externos lo que tiene como
resultado una variante en el crecimiento de la población. Tomando tales co-
eficientes como variables aleatorias, obtenemos un sistema dinámico aleatorio
donde la solución a este es un proceso estocástico X(t, ξ). La técnica que se
sigue en esta tesis para dar solución a dicha ecuación consiste en la aplica-
ción del caos homogéneo, esto se hará de manera constructiva por lo que es
necesario iniciar con el estudio de las integrales de Itô, seguir con la fórmula
de Itô para finalmente revisar las llamadas integrales múltiples Wiener-Itô.
Además, se presenta la relación que se tiene entre las integrales múltiples
Wiener-Itô y el caos homogéneo. Este último concepto fue introducido por
primera vez por Wiener (1938). Partiendo de las investigaciones de Wiener
sobre funcionales no lineales del movimiento browniano, Cameron y Martin
(1947) construyeron una base ortonormal de funcionales no lineales en térmi-
nos de funcionales Fourier-Hermite. Posteriormente, Itô (1951) refinó el caos
homogéneo de Wiener en lo que se conoce como integral múltiple Wiener-Itô.
Para la construcción del caos homogéneo está dedicada una sección en la que
se propone una base para cada caos homogéneo de orden n (n ∈ N ∪ {0}),
basándose en polinomios ortogonales, en este caso usaremos los polinomios
de Hermite. La base obtenida para cada caos homogéneo y las propiedades

V
INTRODUCCIÓN

que se desarrollan en el capı́tulo 3 nos permiten escribir el espacio L2B (Ω)


como suma directa de los espacios Kn , es decir,

M
L2B (Ω) = Kn .
n=0

Finalmente, se proporcionan ejemplos numéricos a partir de modelos ma-


temáticos deterministas conocidos, a los cuales se les induce una perturba-
ción aleatoria en los coeficientes. Para tal propósito se considera el modelo
logı́stico y un tipo especial de ecuación Riccati. Usando el hecho de que el
espacio L2B (Ω) se escribe como la suma directa de los subespacios Kn , cada
proceso estocástico en X(t, ξ) ∈ L2B (Ω) tiene una representación única dada
por
X∞
X(t, ξ) = xi (t)Ψi (ξ).
i=0

Dado que los elementos Ψi de la expansión en serie anterior son conocidos,


resta encontrar los valores xi (t) que hacen posible tal representación. Para
realizar esto último, haremos uso de una aproximación truncada para X(t, ξ)
y encontraremos xi (t) por el llamado método de proyección espectral no
intrusivo.

VI
INTRODUCCIÓN

El siguiente diagrama relaciona las secciones más importantes de este tra-


bajo.

VII
INTRODUCCIÓN

VIII
Índice general

Agradecimientos III

Introducción V

1. La integral estocástica 1
1.1. Construcción del proceso de Wiener . . . . . . . . . . . . . . . 1
1.2. La integral estocástica . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Propiedades de la integral estocástica . . . . . . . . . . . . . . 16
1.4. Integrales estocásticas generales . . . . . . . . . . . . . . . . . 23
1.5. Propiedades de la integral estocástica generalizada . . . . . . . 32

2. Fórmula de Itô y algunas aplicaciones 39


2.1. Fórmula de Itô . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2. Fórmula de Itô multidimensional . . . . . . . . . . . . . . . . 42
2.3. Cálculo de integrales estocásticas . . . . . . . . . . . . . . . . 44
2.4. Integral de Stratonovich . . . . . . . . . . . . . . . . . . . . . 45
2.5. Teorema de caracterización de Lévy . . . . . . . . . . . . . . . 50
2.6. Movimiento browniano multidimensional . . . . . . . . . . . . 56
2.7. Procesos exponenciales . . . . . . . . . . . . . . . . . . . . . . 61
2.8. Transformación de medidas de probabilidad . . . . . . . . . . 63
2.9. Teorema de Girsanov . . . . . . . . . . . . . . . . . . . . . . . 65

3. Integrales múltiples Wiener-Itô 69


3.1. Integrales dobles Wiener-Itô . . . . . . . . . . . . . . . . . . . 72
3.2. Polinomios de Hermite . . . . . . . . . . . . . . . . . . . . . . 78
3.3. Caos homogéneo . . . . . . . . . . . . . . . . . . . . . . . . . 83
3.4. Base ortonormal para caos homogéneo . . . . . . . . . . . . . 88
3.5. Integrales múltiples Wiener-Itô . . . . . . . . . . . . . . . . . 93

IX
ÍNDICE GENERAL

3.6. Teorema de Wiener-Itô . . . . . . . . . . . . . . . . . . . . . . 101


3.7. Representación de martingalas brownianas . . . . . . . . . . . 106

4. Aplicaciones 109
4.1. Expansión de caos homogéneo truncado . . . . . . . . . . . . . 109
4.2. Sistemas dinámicos aleatorios . . . . . . . . . . . . . . . . . . 112
4.2.1. Modelo logı́stico . . . . . . . . . . . . . . . . . . . . . . 113
4.2.2. Ecuación diferencial de Riccati . . . . . . . . . . . . . 119

A. Apéndice 127
A.1. Esperanza condicional y propiedades . . . . . . . . . . . . . . 127
A.2. Otros resultados . . . . . . . . . . . . . . . . . . . . . . . . . . 128
A.3. Cuadratura Gauss-Hermite . . . . . . . . . . . . . . . . . . . . 131

Bibliografı́a 132

X
Capı́tulo 1

La integral estocástica

Este capı́tulo tiene como objetivo definir la integral estocástica para pro-
cesos estocásticos {Xt ; 0 ≤ t ≤ T } respecto al movimiento browniano
{B(t); 0 ≤ t ≤ T }. Para construir esta integral requerimos del movimien-
to browniano, el cual se presenta como el lı́mite de una caminata aleatoria.
Para la construcción de la integral, se tomará el lı́mite de una sucesión de
procesos escalonados que convergen a Xt en L2 (Ω), donde L2 (Ω) denota el
espacio de Hilbert de variables aleatorias cuadrado integrables con valores
reales en Ω con producto interior hX, Y i = E [XY ]. En secciones posteriores,
se tomará la integral estocástica como un proceso estocástico, lo que nos per-
mitirá presentar algunas de sus propiedades, como son: propiedad martingala
y propiedad de continuidad.

1.1. Construcción del proceso de Wiener


Se desarrollará la construcción del proceso de Wiener por medio de una
aproximación de procesos estocásticos discretos, más precisamente, utilizare-
mos el proceso lı́mite de una caminata aleatoria.
Considere la caminata aleatoria simétrica que inicia en 0 y que avanza una
unidad a la derecha con una probabilidad p = 21 o a la izquierda con una
probabilidad 1 − p = 21 , es decir, tenemos

p = 12 ;

1,
∀n ∈ N : Xn =
−1, 1 − p = 12 ,

1
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

n
P
con X0 = 0. Entonces Mn = Xi nos da la posición en el n-ésimo movi-
i=0
miento, claramente M0 = X0 = 0.
Consideremos el siguiente proceso estocástico en tiempo continuo:
[nt]
1 X
∀n ∈ N, t ≥ 0 : Mn (t) = √ Xi . (1.1)
n i=1

Se desea obtener la distribución lı́mite de Mn (t), para ello se utilizará su


función generadora de momentos, la cual se obtiene de la siguiente manera:
φn (u) = E [exp (uMn (t))]
  
[nt]
1 X
= E exp u √ Xi 
n i=1
  
[nt]
X Xi
= E exp  u √ 
i=1
n
[nt] h Xi i (1.2)
Y u√
= E e n
i=1
[nt]  
Y 1 1 − √un
√u
= e + e n

i=1
2 2
 [nt]
1 √un 1 − √un
= e + e .
2 2
Aplicando logaritmo natural, se tiene que
√u − √un
!
e n +e
log(φn (u)) = [nt] log .
2

Sea x = √1 , entonces
n

eux + e−ux
 
t
log(φn (u)) = 2 log .
x 2
De manera que,
eux + e−ux
 
t
lı́m log (φn (u)) = lı́m+ 2 log .
n→∞ x→0 x 2

2
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Aplicando la regla de L’ Hôpital:

eux + e−ux eux − e−ux


 
t
lı́m+ 2 log = lı́m+ tu .
x→0 x 2 x→0 2x(eux − e−ux )

Nuevamente, por la regla de L’ Hôpital:

eux − e−ux tu2 eux + e−ux


lı́m+ tu = lı́m
x→0 2x(eux − e−ux ) 2 x→0+ 2
2
tu
= .
2

Por lo tanto,
tu2
lı́m log (φn (u)) = .
n→∞ 2
En consecuencia,
tu2
lı́m φn (u) = e 2 . (1.3)
n→∞

El lado derecho de (1.3) coincide con la función generadora de momentos pa-


ra una variable aleatoria normal con media 0 y varianza t. En consecuencia
Mn (t) converge en distribución a B(t) ∼ N (0, t).

El proceso lı́mite B(t) cumple con las siguientes propiedades:

1. B(0) = lı́m Mn (0) = 0.


n→∞

[nt
Pi ]
2. Sean n ∈ N, 0 = t0 ≤ t1 ≤ t2 ≤ · · · ≤ tn y Mn (ti ) = √1 Xi , para
n
i=1
i = 1, 2, · · · , n.
Veamos que Mn (t1 ), Mn (t2 ) − Mn (t1 ), · · · , Mn (tn ) − Mn (tn−1 ) son inde-
pendientes. Observemos que

[nti ]
1 X
Mn (ti ) − Mn (ti−1 ) = √ X j = si ,
n
j=[nti−1 ]+1

3
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

para todo i = 1, · · · , n. Para l, m ∈ {1, · · · , n} tal que l > m se cumple;


 
P Mn (tl ) − Mn (tl−1 ) = sl Mn (tm ) − Mn (tm−1 ) = sm
P [Mn (tl ) − Mn (tl−1 ) = sl , Mn (tm ) − Mn (tm−1 ) = sm ]
=
P [Mn (tm ) − Mn (tm−1 ) = sm ]
" #
[nt
Pl ] [nt
Pm ]
P Xj = sl , Xj = sm
j=[ntl−1 ]+1 j=[ntm−1 ]+1
= " #
[nt
Pm ]
P Xj = sm
j=[ntm−1 ]+1
 
[ntl ]
X
= P Xj = sl 
j=[ntl−1 ]+1

= P [Mn (tl ) − Mn (tl−1 ) = sl ] .


En consecuencia para l, m ∈ {1, · · · , n} tal que l > m, se cumple:
 
P Mn (tl ) − Mn (tl−1 ) = sl Mn (tm ) − Mn (tm−1 ) = sm
= P [Mn (tl ) − Mn (tl−1 ) = sl ] .
Es decir, los incrementos de Mn (·) son independientes.
Finalmente, aplicando el lı́mite cuando n → ∞ en la relación anterior,
se obtiene:
 
P B(tl ) − B(tl−1 ) = sl B(tm ) − B(tm−1 ) = sm
= P [B(tl ) − B(tl−1 ) = sl ] ,
para l, m ∈ {1, · · · , n} tal que l > m y por lo tanto, los incrementos de
B(t) son independientes.
3. Sean n ∈ N y 0 = t0 ≤ t1 ≤ t2 ≤ · · · ≤ tn . Elı́janse l, m ∈ {1, · · · , n},
entonces
[n(tm +tl )] [ntl ]
X X
Mn (tm + tl ) − Mn (tl ) = Xj − Xj
j=1 j=1
[ntm ]
X
= Xj
j=1

= Mn (tm ).

4
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Ası́, tenemos que Mn (tm + tl ) − Mn (tl ) = Mn (tm ), por tal razón se


dice que Mn (·) tiene incrementos estacionarios. Entonces aplicando el
lı́mite cuando n → ∞ se consigue: B(tm + tl ) − B(tl ) = B(tm ) para
l, m ∈ {1, · · · , n} y en este caso se dice que B(·) tiene incrementos
estacionarios.

4. El proceso lı́mite tiene la propiedad de tener trayectorias continuas casi


seguramente. Dicha propiedad se garantiza por el Teorema de continui-
dad de Kolmogorov (Ver Apéndice, Teorema A.2.1). Es suficiente ver
que se verifica:
h i
2
E Mn (t) − Mn (s) = t − s , para 0 ≤ s, t ≤ 1. (1.4)

Cuando n → ∞ en (1.4), se consigue


h i
2
E B(t) − B(s) = t − s , para 0 ≤ s, t ≤ 1. (1.5)

Entonces, por el Teorema de continuidad de Kolmogorov, el proceso


B(·) tiene trayectorias continuas.

A un proceso estocástico que cumple con las propiedades (1)-(4), se le


llama proceso de Wiener. Más precisamente tenemos la siguiente definición.

Definición 1.1.1. Un proceso estocástico B(t, ω) es llamado un proceso de


Wiener o movimiento browniano si verifica las siguientes propiedades:

1. P [{ω : B(0, ω) = 0}] = 1.

2. Para cualesquiera 0 ≤ s < t, B(t) − B(s) ∼ N (0, t − s).

3. B(t) tiene incrementos independientes y estacionarios, es decir, para


cualesquiera 0 ≤ t1 < t2 < · · · < tn , las variables aleatorias B(t1 ), B(t2 )−
B(t1 ), · · · , B(tn )−B(tn−1 ) son independientes y para cualesquiera i, j ∈
{1, · · · , n}, B(ti + tj ) − B(tj ) ∼ B(ti ).

4. Las trayectorias de B(t, ω) son funciones continuas casi seguramente,


es decir, P [{ω : B(·, ω) es continua}] = 1.

5
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

1.2. La integral estocástica


Para la construcción de la integral estocástica y en el desarrollo posterior
del este trabajo, requerimos de términos básicos como filtración, procesos
adaptados a la filtración, etc. Los cuales son encontrados en [8], [14] y [20].
Sea (Ω, F, {Ft }, P) un espacio de probabilidad filtrado, donde:
1. Ω es un conjunto no vacı́o denominado espacio muestral.

2. F una sigma-álgebra.

3. {Ft } la filtración generada por el movimiento browniano:

Ft = σ{B(u) : a ≤ u ≤ t}.

4. P una medida de probabilidad.


En lo que sigue L2ad ([a, b] × Ω) denota el espacio de procesos estocásticos
f = {f (t, ·); a ≤ t ≤ b} que satisfacen las siguientes condiciones:
1. f (t, ω) es adaptado a la filtración {Ft }.
Rb h
2
i
2. E f (t) dt < ∞.
a

El objetivo es definir la integral estocástica para cualquier proceso estocástico


f (t, ω) ∈ L2ad ([a, b] × Ω). Para lograrlo, serán considerados dos casos previos;
cuando f (t, ω) es un proceso estocástico escalonado y cuando f (t, ω) es aco-
tado.

Supongamos que f (t, ω) es un proceso estocástico escalonado en L2ad ([a, b]×


Ω). Entonces f (t, ω) está dado por
n
X
f (t, ω) = ξi−1 (ω)1[ti−1 ,ti ) (t), (1.6)
i=1

 2 a = t0 ≤ t1 ≤ t2 ≤ · · · ≤ tn = b, además ξi−1 es Fti−1 -medible y


donde
E ξi−1 < ∞. En consecuencia, se define
n
X
I(f ) := ξi−1 (B(ti ) − B(ti−1 )) , (1.7)
i=1

6
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

en donde B(t) es el proceso de Wiener.


Observe que si f, g ∈ L2ad ([a, b] × Ω) son procesos estocásticos escalonados,
existen ∆f y ∆g particiones tales que f y g se escriben como en la ecuación
(1.6). Tome ∆n un refinamiento entre la partición ∆f y ∆g y a, b ∈ R,
entonces:
n
X 
I(af + bg) = aξfi−1 + bξgi−1 (B(ti ) − B(ti−1 ))
i=1
n
X
= aξfi−1 (B(ti ) − B(ti−1 )) + bξgi−1 (B(ti ) − B(ti−1 ))
i=1
Xn n
X
=a ξfi−1 (B(ti ) − B(ti−1 )) + b ξgi−1 (B(ti ) − B(ti−1 ))
i=1 i=1
= aI(f ) + bI(g).

Ası́, I(·) cumple la propiedad de linealidad. Además, se tiene el siguiente


lema.
Lema 1.2.1. Sea I(f ) como en la ecuación (1.7), entonces E [I(f )] = 0 y

h i Zb h i
2 2
E I(f ) = E f (t) dt.
a

Demostración. Sea i ∈ {1, · · · , n}, entonces

E [ξi−1 (B(ti ) − B(ti−1 ))] = E{E [ξi−1 (B(ti ) − B(ti−1 ))] Fti−1 }
= E{ξi−1 E [B(ti ) − B(ti−1 )] Fti−1 }
= E{ξi−1 E [B(ti ) − B(ti−1 )]}
= 0.
De manera que
" n
#
X
E [I(f )] = E ξi−1 (B(ti ) − B(ti−1 ))
i=1
n
X
= E [ξi−1 (B(ti ) − B(ti−1 ))]
i=1
= 0.

7
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Por otra parte, observemos que


" n #
h i
2 2
X
E I(f ) = E ξi−1 (B(ti ) − B(ti−1 ))
i=1
" n X
n
#
X
=E ξi−1 ξj−1 (B(ti ) − B(ti−1 )) (B(tj ) − B(tj−1 ))
i=1 j=1
n X
X n
= E [ξi−1 ξj−1 (B(ti ) − B(ti−1 )) (B(tj ) − B(tj−1 ))] .
i=1 j=1
(1.8)

Ahora, sean i, j ∈ {1, · · · , n}. Para el caso en que i 6= j, supongamos sin


pérdida de generalidad que i < j, entonces

E [ξi−1 ξj−1 (B(ti ) − B(ti−1 )) (B(tj ) − B(tj−1 ))]


 
= E E [ξi−1 ξj−1 (B(ti ) − B(ti−1 )) (B(tj ) − B(tj−1 ))] Ftj−1
  (1.9)
= E ξi−1 ξj−1 (B(ti ) − B(ti−1 )) E [(B(tj ) − B(tj−1 ))] Ftj−1
= 0.

En el caso en que i = j, se tiene

(B(ti ) − B(ti−1 ))2


 2 
E ξi−1
(B(ti ) − B(ti−1 ))2 Fti−1
  2  
= E E ξi−1
(B(ti ) − B(ti−1 ))2
  2 
= E E ξi−1 (1.10)
 2 
= E ξi−1 (ti − ti−1 )
 2 
= (ti − ti−1 )E ξi−1 .

Entonces de las ecuaciones (1.8), (1.9) y (1.10) obtenemos que


h i n
2
X  2 
E I(f ) = E ξi−1 (ti − ti−1 )
i=1
Zb (1.11)
h i
2
= E f (t) dt.
a

8
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

A continuación, se probará un lema que nos servirá para aproximar los


procesos estocásticos en L2ad ([a, b] × Ω).

Lema 1.2.2. Sea f ∈ L2ad ([a, b]×Ω), entonces existe una sucesión {fn (t)}n∈N
de procesos estocásticos escalonados en L2ad ([a, b] × Ω) tal que

Zb h i
2
lı́m E f (t) − fn (t) dt = 0.
n→∞
a

Demostración. Sea f ∈ L2ad ([a, b] × Ω). Se utilizarán dos casos previos, para
pasar al caso general f ∈ L2ad ([a, b] × Ω). El primero cuando E [f (t)f (s)] es
una función continua de (t, s) ∈ [a, b] × [a, b] y el segundo cuando f es un
proceso estocástico acotado.

Caso 1.- E [f (t)f (s)] es una función continua de (t, s).


Suponga que E [f (t)f (s)] es una función continua de (t, s) ∈ [a, b]×[a, b]. Para
cada partición ∆n = {t0 , t1 , · · · , tn } de [a, b], defina el proceso estocástico
fn (t, ω) por
fn (t, ω) = f (ti−1 , ω), (1.12)
para ti−1 < t ≤ ti y ω ∈ Ω. Entonces {fn (t, ω)}n∈N es una sucesión de
procesos estocásticos escalonados.
Por la continuidad de E [f (t)f (s)] sobre [a, b] × [a, b] se tiene
h i
2
lı́m E f (s) − f (t) = 0. (1.13)
s→t

De las ecuaciones (1.12) y (1.13) tenemos que


h i
2
lı́m E f (t) − fn (t) = 0. (1.14)
n→∞

 
2 2 2
Utilizando la desigualdad u + v ≤2 u + v , obtenemos:
h i  h i h i
2 2 2
E f (t) − fn (t) ≤ 2 E f (t) + E fn (t)
h i
2
≤ 4 sup E f (s) ,
a≤s≤b

9
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

para todo t ∈ [a, b]. Finalmente, aplicando el Teorema de convergencia do-


minada (Ver Apéndice, Teorema A.2.5), se concluye que

Zb h i
2
lı́m E f (t) − fn (t) dt = 0.
n→∞
a

Caso 2.- f (t, ω) es un procesos estocástico acotado.


Suponga ahora que f es un proceso estocástico acotado, es decir, existe M >
0 tal que ∀t ∈ [a, b] : ∀ω ∈ Ω : |f (t, ω)| ≤ M . Definimos el proceso estocástico
gn para cada t ∈ [a, b] y ω ∈ Ω por:
 n(t−a)
τ
e−τ f (t − nτ , ω)dτ, a + ≤ t ≤ b;
 R
gn (t, ω) = n (1.15)
 0
0, en otro caso.

Observe que gn es adaptada a Ft pues ası́ lo es f . Veamos que gn cumple con


lo siguiente:
Zb h i
2
E gn (t) dt < ∞.
a

En efecto,
n(t−a)
 
Zb Zb Z
h
2
i τ 2
E gn (t) dt = E e−τ f (t − , ω)dτ  dt
n
a a 0
 n(t−a) n(t−a)

ZbZ Z
τ
≤ E e−2τ dτ f 2 (t − , ω)dτ  dt (1.16)
n
a 0 0
 n(t−a) n(t−a)

Zb Z Z
≤ E e−2τ dτ M 2 dτ  dt < ∞.
a 0 0

Por lo tanto, gn (t) ∈ L2ad ([a, b] × Ω). Ahora, se harán efectivas las siguientes
proposiciones.
Proposición 1.2.3. Para cada n ∈ N se cumple que E [gn (t)gn (s)] es una
función continua de (t, s).

10
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

τ
Demostración. Sea n ∈ N, y tómese u = t − n
entonces τ = n(t − a), con
esto gn se reescribe como

Za
gn (t, ω) = e−n(t−u) f (u, ω)(−n)du
t
(1.17)
Zt
= ne−n(t−u) f (u, ω)du.
a

Además,
Zs
lı́m gn (t, ω) = ne−n(s−u) f (u, ω)du = gn (s, ω).
t→s
a

En consecuencia, h i
2
lı́m E gn (t) − gn (s) = 0.
t→s

Por otra parte, observemos que


h i
2
0 = lı́m E gn (t) − gn (s)
t→s
= lı́m E gn (t)2 − 2gn (t)gn (s) + gn (s)2
 
t→s
= lı́m E gn (t)2 − 2E [gn (t)gn (s)] + E gn (s)2
   
t→s
= lı́m E gn (t)2 − 2 lı́m E [gn (t)gn (s)] + E gn (s)2 .
   
t→s t→s

Entonces para cada n ∈ N,

lı́m E [gn (t)gn (s)] = E gn (s)2 .


 
(1.18)
t→s

Rb h
2
i
Proposición 1.2.4. Se verifica que E f (t) − gn (t) → 0 cuando n →
a
∞.
Demostración. Defina la función S : F −→ [0, ∞) dada por
Z
S(A) = e−τ dP, A ∈ F, τ ∈ [0, ∞).
A

11
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Entonces S define una medida de probabilidad. Denotemos por ES a la espe-


ranza respecto a S. Además, nótese que

n(t−a)
Z ∞ Z
τ
f (t) − gn (t) = f (t) e−τ dτ − e−τ f (t − )dτ
0 n
0
Z ∞ Z∞
τ
= f (t) e−τ dτ − e−τ f (t − )dτ
0 n (1.19)
0
Z∞
−τ
τ 
= e f (t) − f (t − ) dτ
n
0
h τ i
= ES f (t) − f (t − ) .
n

Entonces de la ecuación (1.19), la isometrı́a entre L2 (Ω) y L2ad ([a, b] × Ω) y


la desigualdad de Cauchy-Schwarz, se obtiene que

Z∞ 2
2 τ
f (t, ω) − gn (t, ω) = e−τ (f (t, ω) − f (t − , ω))dτ
n
0
h τ i 2
= ES f (t, ω) − f (t − , ω)
n
 2  (1.20)
τ
≤ ES f (t, ω) − f (t − , ω)
n
Z∞
τ 2
≤ e−τ f (t, ω) − f (t − , ω) dτ.
n
0

Luego de (1.20), se consigue

12
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

∞ 
Zb Z Zb
h
2
i h τ 2
i
E f (t) − gn (t) dt ≤  e−τ E f (t, ω) − f (t − , ω) dτ  dt
n
a a 0
Z∞
 b 
Z h
τ 2
i
= e−τ  E f (t, ω) − f (t − , ω) dt dτ
n
0 a
Z∞
 b 
Z
τ 2
= e−τ E  f (t, ω) − f (t − , ω) dt dτ.
n
0 a
(1.21)
Además, como f es acotada se obtiene que
Zb
τ 2
lı́m f (t, ω) − f (t − , ω) dt = 0, P-c.s. (1.22)
n→∞ n
a

Finalmente, de la ecuación (1.21) y (1.22) se tiene:


Zb h i
2
E f (t) − gn (t) dt = 0.
a

Por Proposición 1.2.3, es posible aplicar a gn el Caso 1 para cada n ∈ N.


Entonces para cada n ∈ N existe fn ∈ L2ad ([a, b] × Ω), proceso estocástico
escalonado tal que
Zb h
2
i 1
E gn (t) − fn (t) dt ≤ . (1.23)
n
a
Finalmente, por la desigualdad triangular y la ecuación (1.23) tenemos que
Zb h i Zb h i Zb h i
2 2 2
E f (t) − fn (t) dt ≤ E f (t) − gn (t) dt + E gn (t) − fn (t) dt
a a a
Zb h
2
i 1
≤ E f (t) − gn (t) dt + .
n
a
(1.24)

13
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Por la Proposición 1.2.4, cuando n → ∞, el último término de la desigualdad


(1.24) converge a 0.
Por lo tanto, existe una sucesión {fn }n∈N de procesos estocásticos escalonados
tal que
Zb h i
2
lı́m E f (t) − fn (t) dt = 0.
n→∞
a

A continuación, abordaremos el caso general. Para cada n ∈ N, defina



 f (t, ω), si |f (t, ω)| ≤ n;
gn (t, ω) = (1.25)
0, otro caso.

Por el Teorema de convergencia dominada

Zb h i
2
E f (t) − gn (t) dt → 0, cuando n → ∞. (1.26)
a

Por el caso en que f es un procesos estocástico acotado, para cada n ≥ 1, existe


un proceso estocástico fn tal que

Zb h
2
i 1
lı́m E gn (t) − fn (t) dt ≤ . (1.27)
n→∞ n
a

Observe que

Zb h i
2
lı́m E f (t) − fn (t) dt
n→∞
a
(1.28)
Zb h i Zb h i
2 2
≤ lı́m E f (t) − gn (t) dt + lı́m E gn (t) − fn (t) dt.
n→∞ n→∞
a a

Luego, de (1.26) y (1.27), el lado derecho de la desigualdad (1.28) converge a 0.


Por lo tanto,
Zb h i
2
lı́m E f (t) − fn (t) dt = 0.
n→∞
a

14
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Para f ∈ L2ad ([a, b] × Ω) definiremos la integral estocástica

Zb
f (t)dB(t).
a

Sea f ∈ L2ad ([a, b]×Ω), por el Lema 1.2.2, existe {fn (t, ω)}n∈N una sucesión
de procesos estocásticos escalonados tal que

Zb h i
2
E f (t) − fn (t) dt → 0, cuando n → ∞. (1.29)
a

Para cada n ∈ N defina I(fn ) como en (1.7). Entonces por el Lema 1.2.1 se
tiene que
h i Zb h i
2 2
E I(fn ) − I(fm ) = E fn − fm dt. (1.30)
a

Cuando n, m → ∞, el lado derecho de (1.30) converge a cero.


Por lo tanto, la sucesión {I(fn )}n∈N , es una sucesión de Cauchy en L2 (Ω).
Dado que L2 (Ω) es completo, se define

I(f ) := lı́m I(fn ). (1.31)


n→∞

Definición 1.2.5. Sea f ∈ L2ad ([a, b] × Ω). El lı́mite I(f ) que aparece en
la ecuación (1.31), es llamada la integral de Itô de f y es denotado por
Rb
f (t)dB(t).
a

Veamos que I(·) es un mapeo lineal. Sean f, g ∈ L2ad ([a, b] × Ω) y a, b ∈ R.


Entonces

I(af + bg) = lı́m (aI(fn ) + bI(gn ))


n→∞
= a lı́m I(fn ) + b lı́m I(gn ) (1.32)
n→∞ n→∞
= aI(f ) + bI(g).

15
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Teorema 1.2.6. Sea f ∈ L2ad ([a, b] × Ω). Entonces la integral de Itô I(f ) =
Rb
f (t)dB(t) es una variable aleatoria con E [I(f )] = 0 y varianza
a

h i Zb h i
2 2
E I(f ) = E f (t) dt.
a

La demostración es una consecuencia de la definición de I(f ) en (1.31).

Corolario 1.2.7. Para cualesquiera f, g ∈ L2ad ([a, b] × Ω) la siguiente igual-


dad es válida:
 b 
Z Zb Zb
E  f (t)dB(t) g(t)dB(t) = E [f (t)g(t)] dt. (1.33)
a a a

1.3. Propiedades de la integral estocástica


En esta sección resaltaremos dos propiedades importantes de la integral
estocástica vista como proceso estocástico; la propiedad de martingala y la
propiedad de continuidad.

Teorema 1.3.1. Suponga que f ∈ L2ad ([a, b] × Ω). Entonces el proceso es-
tocástico,
Zt
Xt = f (s)dB(s), a ≤ t ≤ b,
a

es una martingala con respecto a la filtración {Ft : a ≤ t ≤ b}.

Demostración. Sea f ∈ L2ad ([a, b] × Ω). Veamos que se cumplen las tres pro-
piedades de martingala para Xt .

1. Claramente Xt es Ft -medible.

16
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

2.
 t 
Z
E [Xt ] = E  f (s)dB(s)
0a 
Z (1.34)
≤ E  f (s)dB(s)
0
= 0 < ∞.
Por lo tanto, E [Xt ] < ∞.
 
3. Finalmente, veamos que E Xt Fs = Xs , P-c.s., para cualesquiera s, t ∈
[a, b] tal que s < t. Es posible escribir
Zt
Xt = f (u)dB(u)
a
Zs Zt
= f (u)dB(u) + f (u)dB(u)
a s
Zt
= Xs + f (u)dB(u).
s

De manera que es suficiente ver que


 t 
Z
E  f (u)dB(u) Fs  = 0, P-c.s.
s

Supongamos que f es un proceso estocástico escalonado, entonces f


está dado por
n
X
f (t, ω) = ξi−1 (ω)1(ti−1 ,ti ] (u),
i=1
donde s = t0 < t1 < t2 < · · · < tn = t y ξi−1 es Fti−1 -medible y
pertenece a L2 (Ω). Entonces
Z t n
X
f (u)dB(u) = ξi−1 (B(ti ) − B(ti1 )) . (1.35)
s i=1

17
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Para cualquier i ∈ {1, · · · , n}, se cumple


     
E ξi−1 (B(ti ) − B(ti1 )) Fs = E E ξi−1 (B(ti ) − B(ti1 )) Fti−1 Fs
   
= E ξi−1 E B(ti ) − B(ti1 ) Fti−1 Fs
 
= E ξi−1 E [B(ti ) − B(ti1 )] Fs
= 0.
(1.36)

Aplicando esperanza a la igualdad (1.35) y utilizando lo obtenido en


(1.36) se consigue
 t 
Z
E  f (u)dB(u) Fs  = 0, P-c.s.
s

 
Por lo tanto, E Xt Fs = Xs , P-c.s., cuando f es un proceso estocástico
escalonado.
Para el caso general, elija una sucesión {fn }n∈N de procesos estocásticos
escalonados en L2ad ([a, b] × Ω) tal que

Zb h i
2
lı́m E f (u) − fn (u) du = 0. (1.37)
n→∞
a

Para cada n ∈ N, defina el proceso estocástico:

Zt
(n)
Xt = fn (u)dB(u).
a

Anteriormente, se verificó que la propiedad martingala es válida para


(n)
procesos estocásticos escalonados, por lo que Xt es una martingala,
para cada n ∈ N. Para s < t, es posible escribir

(n) (n)
Xt − Xs = (Xt − Xt ) + (Xt − Xs(n) ) + (Xs(n) − Xs ). (1.38)

18
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

La igualdad (1.38), implica


 
E Xt − X s F s
h i h i
(n) (n)
= E Xt − Xt Fs + E Xt − Xs(n) Fs + E Xs(n) − Xs Fs
 
h i h i
(n) (n)
= E Xt − Xt Fs + E Xt Fs − Xs(n) + E Xs(n) − Xs Fs
 
h i
(n)
= E Xt − Xt Fs + Xs(n) − Xs(n) + E Xs(n) − Xs Fs
 
h i
(n)
= E Xt − Xt Fs + E Xs(n) − Xs Fs .
 

(1.39)
Considere la primera expresión de la última igualdad en (1.39), aplican-
do la desigualdad de Jensen, propiedades de la esperanza condicional
y la isometrı́a de Itô se obtiene
h h i i h h ii
(n) 2 (n) 2
E E Xt − Xt F s ≤ E E Xt − Xt Fs
h i
(n) 2
= E Xt − Xt
Zt h i
2
= E f (u) − fn (u) du (1.40)
a
Zb h i
2
≤ E f (u) − fn (u) du.
a

Cuando n → ∞, por (1.37), el último término de (1.40) converge a 0.


De ahı́ que,
h i
(n)
E Xt − Xt Fs → 0, cuando n → ∞. (1.41)
De manera análoga se muestra que
E Xs − Xs(n) Fs → 0, cuando n → ∞.
 
(1.42)

Finalmente, de la igualdad (1.39) conjuntamente con las relaciones


(1.41) y (1.42) concluimos que
 
E Xt − Xs Fs = 0, P-c.s.
En consecuencia,  
E Xt Fs = Xs , P-c.s.

19
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Por lo tanto, Xt es una martingala.


Teorema 1.3.2. Sea f ∈ L2ad ([a, b] × Ω). Entonces el proceso estocástico
Zt
Xt = f (s)dB(s), a ≤ t ≤ b,
a

es continuo, es decir, todas las trayectorias de Xt son funciones continuas


sobre el intervalo [a, b], P-c.s.
Demostración. Sea f ∈ L2ad ([a, b] × Ω) y ω ∈ Ω. Se procederá por casos, el
primero cuando f es un proceso estocástico escalonado y el segundo el caso
general.
Caso 1.- Supongamos que f es un proceso estocástico escalonado, es decir,
de la forma: n
X
f (t, ω) = ξi−1 (ω)1(ti−1 ,ti ] (t),
i=1
donde ξi−1 es Fti−1 -medible.
Para cada ω ∈ Ω fijo, la trayectoria de Xt está dada por:
n−1
X
Xt (ω) = ξi−1 (ω)(B(ti , ω) − B(ti−1 , ω)) + ξn−1 (ω)(B(t, ω) − B(tn−1 , ω)),
i=1
para tn−1 ≤ t ≤ tn .

Recordemos que las trayectorias del movimiento browniano B(·, ω) son


continuas P-c.s., por lo que las trayectorias de X(·) (ω) son funciones conti-
nuas sobre [a, b], P-c.s.

Caso 2.- El caso general: sea {fn }n∈N una sucesión de procesos estocásti-
cos en L2ad ([a, b] × Ω) tal que
Zb h i
2
lı́m E f (s) − fn (s) ds = 0. (1.43)
n→∞
a

Dada la convergencia en (1.43), es posible elegir una subsucesión, si es


necesario, tal que
Zb h
2
i 1
lı́m E f (s) − fn (s) ds ≤ , ∀n ≥ 1. (1.44)
n→∞ n6
a

20
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Para cada n ∈ N defina el proceso estocástico


Zt
(n)
Xt := fn (s)dB(s), a ≤ t ≤ b.
a

(n)
Por el Caso 1, Xt tiene trayectorias continuas, P-c.s.
(n) (n)
Observe que Xt y Xt son martingalas y por tanto, Xt − Xt es martin-
gala. Entonces por la desigualdad de Doob (Ver Apéndice, Teorema A.1.2),
se tiene que
 
(n) 1 h
(n)
i
P sup Xt − Xt ≥ ≤ nE Xb − Xb . (1.45)
a≤t≤b n
En consecuencia de la desigualdad de Schwarz, la isometrı́a de Itô y de de-
sigualdad (1.44), se obtiene lo siguiente
h i  h i 12
(n) (n) 2
E Xb − Xb ≤ E X b − Xb
 b  21
Z h i
2 (1.46)
=  E f (s) − fn (s) ds
a
1
≤ 3.
n
De las ecuaciones (1.45) y (1.46), para cada n ≥ 1 se consigue
 
(n) 1 1
P sup Xt − Xt ≥ ≤ 2. (1.47)
a≤t≤b n n

1
P
Como n2
< ∞, por el Lema de Borel-Cantelli (Ver Apéndice, Teorema
n=1
A.2.2), tenemos que
" ∞ [

#
\ (k) 1
P sup Xt − Xt ≥ = 0. (1.48)
n=1 k=n a≤t≤b
k

Tomando el evento complemento se tiene que


"∞ ∞ #
[ \ (k) 1
P sup Xt − Xt ≥ = 1. (1.49)
n=1 k=n a≤t≤b
k

21
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Por lo tanto, existe un evento Ω0 ⊆ Ω tal que P [Ω0 ] = 1 y para cada ω ∈ Ω0 ,


existe un entero positivo Nω tal que
(n) 1
sup Xt (ω) − Xt (ω) ≤ , ∀n ≥ Nω .
a≤t≤b n
(n)
Entonces para cada ω ∈ Ω0 , la sucesión de funciones {X(·) }, n ∈ N, converge
uniformemente a X(·) (ω) sobre [a, b]. Pero para cada n, el proceso estocástico
(n)
Xt es continuo y ası́, existe un evento Ωn con P [Ωn ] = 1 y para cualquier
(n)
ω ∈ Ωn la función X(·) (ω) es continua.
∞ h i
Finalmente, sea Ωb := T Ωn . Entonces P Ω b = 1 y para cada ω ∈ Ω, b la
n=0
sucesión
(n)
X(·) , n = 1, 2, · · · ,
es una sucesión de funciones continuas que convergen uniformemente a X(·) (ω)
sobre [a, b].
Se sigue que X(·) (ω) es una función continua para cada ω ∈ Ω. b En con-
secuencia las trayectorias del proceso estocástico Xt son funciones continuas
sobre [a, b]. Por lo tanto, Xt es un proceso estocástico continuo, P − c.s.
Teorema 1.3.3. Supongamos que f ∈ L2ad ([a, b] × Ω) y que E [f (t)f (s)] es
una función continua de t y s. Entonces
Zb ∞
X
f (t)dB(t) = lı́m f (ti−1 )(B(ti ) − B(ti−1 )), en L2 (Ω),
k∆n k→∞
a i=1

donde ∆n = {a = t0 < t1 < · · · < tn = b}.


Demostración. Sea f ∈ L2ad ([a, b] × Ω) y supongamos que E [f (t)f (s)] es una
función continua de t y s.
Sea fn el proceso definido por

fn (t, ω) := f (ti−1 , ω), ti−1 < t ≤ ti ,

para cada ∆n = {t0 , t1 , · · · , tn }. Por el Lema 1.2.2 se tiene


Zb h i
2
lı́m E f (t) − fn (t) dt = 0. (1.50)
n→∞
a

22
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Además, se sabe que


Zb
f (t)dB(t) = lı́m I(fn ), en L2 (Ω), (1.51)
n→∞
a

donde
n
X
I(fn ) = fn (ti−1 )(B(ti−1 ) − B(ti ))
i=1
n (1.52)
X
= f (ti−1 )(B(ti−1 ) − B(ti )).
i=1

Por lo tanto,
Zb ∞
X
f (t)dB(t) = lı́m f (ti−1 )(B(ti ) − B(ti−1 )), en L2 (Ω).
k∆n k→∞
a i=1

1.4. Integrales estocásticas generales


Rb
En esta sección definiremos la integral estocástica f (t)dB(t) para pro-
a
cesos estocásticos f (t, ·) que satisfacen las siguientes condiciones:
1. f (t, ω) es adaptado a la filtración {Ft }.
Rb 2
2. f (t) dt < ∞, casi seguramente.
a

Observación 1.4.1. La condición dos nos dice que las trayectorias son fun-
ciones en el espacio de Hilbert L2 [a, b].
Se usará Lad (Ω, L2 [a, b]) para denotar el espacio de procesos estocásticos
f = {f (t, ·); a ≤ t ≤ b} que satisfagan las condiciones 1 y 2.
Recordemos que si f (t, ω) ∈ L2ad ([a, b] × Ω), entonces f (t, ω) es un proceso
Rb h 2
i
estocástico {Ft }- adaptado tal que E f (t) dt < ∞.
a

23
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

b
Rb h
 i
R 2 2
Por el Teorema de Fubini, E f (t) dt = E f (t) dt < ∞.
a a
Rb 2
Entonces f (t) dt < ∞, P-c.s.
a
Por lo tanto, L2ad ([a, b] × Ω) ⊂ Lad (Ω, L2 [a, b]).

A continuación, se probará un lema de aproximación para la extensión de


Rb
la integral estocástica f (t)dB(t), para una clase más amplia de integrandos
a
en Lad (Ω, L2 [a, b]).
Lema 1.4.2. Sea f ∈ Lad (Ω, L2 [a, b]). Entonces existe una sucesión {fn }n∈N
en L2ad ([a, b] × Ω) tal que
Zb
2
lı́m fn (t) − f (t) dt = 0,
n→∞
a

P-c.s. y por lo tanto, en probabilidad.


Demostración. Sean f ∈ Lad (Ω, L2 [a, b]), ω ∈ Ω y t ∈ [a, b]. Para cada n ∈ N,
defı́nase 
Rt 2
 f (t, ω), si f (s, ω) ds ≤ n;


fn (t, ω) := a (1.53)


0, en otro caso.

Claramente fn es adaptado a {Ft }. Observemos que


Zb τZ
n (ω)
2 2
fn (t, ω) dt = f (t, ω) dt, P-c.s.,
a a

en donde  t 
 Z 
2
τn (ω) = sup t; f (s, ω) ds ≤ n .
 
a
Por lo tanto, se obtiene que
Zb
2
fn (t) dt ≤ n, P-c.s. (1.54)
a

24
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

De (1.54) se consigue
Zb h i
2
E fn (t) dt ≤ n.
a

Rb 2
Ası́, fn ∈ L2ad ([a, b] × Ω). Elija n ∈ N tal que n ≥ f (t, ω) dt, por (1.53),
a

fn (t, ω) = f (t, ω), ∀t ∈ [a, b].

Lo que claramente implica

Zb
2
lı́m fn (t, ω) − f (t, ω) dt = 0. (1.55)
n→∞
a

Rb 2
Como f (t, ω) dt < ∞, ∀ω ∈ Ω, P-c.s., entonces la convergencia casi
a
seguramente es válida en (1.55).

Lema 1.4.3. Sea f (t, ω) un proceso estocástico escalonado en L2ad ([a, b]×Ω).
Entonces la desigualdad
 
 b 
Zb Z
C 2
P f (t)dB(t) >  ≤ + P  f (t) dt > C  ,

a a

es válida para cualesquiera  > 0 y C > 0.

Demostración. Sean f (t, ω) un proceso estocástico escalonado en L2ad ([a, b] ×


Ω), C > 0 y  > 0.

Defina el proceso estocástico fC (t, ω) por



Rt 2
 f (t, ω), si f (s, ω) ds ≤ C;


fC (t, ω) := a (1.56)


0, en otro caso.

25
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

De la definición de fC (t, ω) ocurre lo siguiente


 b 
 Z 
f (t)dB(t) > 
 
a
 b   b  (1.57)
 Z  Z Zb 
⊂ fC (t)dB(t) >  ∪ f (t)dB(t) 6= fC (t)dB(t) .
   
a a a

Dado que f es un proceso estocástico escalonado ocurre que


 b   b 
Z Zb  Z 
2
f (t)dB(t) 6= fC (t)dB(t) ⊂ f (t, ω) dt > C . (1.58)
   
a a a

De (1.57) y (1.58), se consigue que


 b   b   b 
 Z   Z  Z 
2
f (t)dB(t) >  ⊂ fC (t)dB(t) >  ∪ f (t, ω) dt > C .
     
a a a
(1.59)
Entonces
 b 
 Z 
P f (t)dB(t) >  
 
a
 b   b  (1.60)
 Z  Z 
2
≤ P fC (t)dB(t) >   + P  f (t, ω) dt > C  .
   
a a

De la definición de fC se tiene que

Zb
fC (t) dt ≤ C, P-c.s.
a

b 
R
Luego, E |fC (t)|dt ≤ C. Entonces, por la desigualdad de Chebyshev apli-
a

26
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

cada al primer término del lado derecho de la desigualdad (1.60), se consigue


 b 
 Z 
P f (t)dB(t) >  
 
a
 b   b 
Z 2 Z
1  2

≤ 2E fC (t)dB(t)  + P  f (t, ω) dt > C 
  
a a
 b  (1.61)
Zb h Z
1 2
i 
2

= 2 E fC (t) dtP  f (t, ω) dt > C 
  
a a
 b 
Z
C 
2

≤ 2 +P  f (t, ω) dt > C  .
  
a

Para definir las integrales estocásticas con integrando f en Lad (Ω, L2 [a, b]),
se utilizará el siguiente lema.

Lema 1.4.4. Sea f ∈ Lad (Ω, L2 [a, b]). Entonces existe una sucesión {fn }n∈N
de procesos escalonados en L2ad ([a, b] × Ω) tal que

Zb
2
lı́m fn (t) − f (t) dt = 0, en probabilidad.
n→∞
a

Demostración. Sea f ∈ Lad (Ω, L2 [a, b]), por Lema 1.4.2, existe una sucesión
{gn }n∈N en L2ad ([a, b] × Ω) tal que

Zb
2
lı́m gn (t) − f (t) dt = 0, en probabilidad. (1.62)
n→∞
a

Para cada gn (t), por Lema 1.2.2, existe un proceso estocástico escalonado en
L2ad ([a, b] × Ω) tal que
 b 
Z
2 1
E  fn (t) − gn (t) dt < . (1.63)
n
a

27
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Sea  > 0, veamos que se cumple


 b 
Z 
2
fn (t) − f (t) dt > 
 
a
 b   b  (1.64)
Z  Z 
2 2
⊂ fn (t) − gn (t) dt > ∪ gn (t) − f (t) dt > ,
 4  4
a a

Rb 2 Rb 2
para ello, suponga que fˆn (t) − ĝn (t) dt ≤ 4 , ĝn (t) − f (t) dt ≤ 
4
y
a a
observe que
2 2
fˆn (t) − fn (t) = fˆn (t) − ĝn (t) + ĝn (t) − f (t)
 
2 2
≤ 2 fˆn (t) − ĝn (t) + ĝn (t) − f (t) .

Entonces
Zb 
ˆ 2 
fn (t) − f (t) dt ≤ 2 +
2 2
a
= .
Por lo tanto, (1.64) es válido. En consecuencia se tiene que
 b 
Z 
2
P fn (t) − f (t) dt >  
 
a
 b   b 
Z   Z  
2 2
≤ P fn (t) − gn (t) dt >  + P gn (t) − f (t) dt > .
 4  4
a a
(1.65)
Aplicando la desigualdad de Chebyshev al primer término de la derecha de
(1.65) y por (1.63) se obtiene
 b   b 
Z  4  Z
 
2 2
P  fn (t) − f (t) dt >   ≤ +P  gn (t) − f (t) dt > .
  n  4
a a
(1.66)

28
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Cuando n → ∞, el lado derecho de (1.66) converge a 0 por (1.62). Por lo


tanto,  b 
Z 
2
lı́m P  fn (t) − f (t) dt >   = 0.
n→∞  
a

Ahora estamos en condiciones para definir la integral estocástica


Zb
f (t)dB(t),
a

para f ∈ Lad (Ω × L2 [a, b]).


Sea f ∈ Lad (Ω×L2 [a, b]), por el Lema 1.4.4, existe una sucesión {fn (t)}n∈N
de procesos estocásticos escalonados en L2ad ([a, b] × Ω) tal que
Zb
2
lı́m fn (t) − f (t) dt = 0, en probabilidad.
n→∞
a

Para cada n ∈ N, definimos la integral estocástica como


Zb
I(fn ) = fn (t)dB(t),
a

de la misma forma que en la Sección 1.2.


3
Aplicando el Lema 1.4.3 a f = fn − fm , con  > 0 y C = , se consigue
2
 b 
 
Z 3
 2 
P I(fn ) − I(fm ) >  ≤ + P  fn (t) − fm (t) dt >  . (1.67)
2 2
a

Por otro lado, veamos que


 b 
Z 3
2 
fn (t) − fm (t) dt >
 2
a
 b   b  (1.68)
Z 3 Z 3
2  
2 
⊂ fn (t) − f (t) dt > ∪ f (t) − fm (t) dt > ,
 8  8
a a

29
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Rb 2 3 Rb 2 3
para ello, suponga que fˆn (t) − f (t) dt ≤ , f (t) − fˆn (t) dt ≤ .
a 8 a 8
Observe que
2 2
fˆn (t) − fˆm (t) = fˆn (t) − f (t) + f (t) − fˆm (t)
 
2 2
≤ 2 fˆn (t) − f (t) + f (t) − fˆm (t) ,

Entonces
Zb
3 3
 
2
fˆn (t) − fˆm (t) dt ≤ 2 +
8 8
a
3
= .
2
Por lo tanto, (1.68) es válido. En consecuencia se tiene que
 b 
Z 3
2  
P fn (t) − fm (t) dt >
 2
a
 b   b 
Z 3 Z 3
2   
2  
≤ P fn (t) − f (t) dt > + P f (t) − fm (t) dt > .
 8   8
a a
(1.69)
Cuando n, m → ∞ el lado derecho de (1.69) converge a cero, entonces
 b 
Z 3
2  
lı́m P  fn (t) − fm (t) dt > = 0.
n,m→∞  2
a


De manera que para , existe N > 1 tal que ∀n, m ≥ N se cumple
2
 b 
Z 3
2   
P fn (t) − fm (t) dt > < . (1.70)
 2 2
a

Finalmente, de (1.67) y (1.70) se consigue


 
P I(fn ) − I(fm ) >  < , ∀n, m ≥ N. (1.71)

30
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Con lo anterior se ha probado que la sucesión de variables aleatorias {I(fn )}n∈N


converge en probabilidad. Por el hecho de que el espacio Lad (Ω, L2 [a, b]) es
completo es posible definir
Zb
f (t)dB(t) = lı́m I(fn ), en probabilidad. (1.72)
n→∞
a

Observemos que el lı́mite en (1.72) es independiente de la selección de la


sucesión {fn }n∈N .
Teorema 1.4.5. Supongamos que f es un proceso estocástico continuo {Ft }-
adaptado. Entonces f ∈ Lad (Ω, L2 [a, b]) y
Zb n
X
f (t)dB(t) = lı́m f (ti−1 )(B(ti ) − B(ti−1 )), en probabilidad,
k∆n k→0
a i=1

donde ∆n = {t0 , t1 , · · · , tn } es una partición finita del intervalo [a, b].


Demostración. Sea f un proceso estocástico continuo {Ft }-adaptado y ∆n
una partición finita de [a, b].
Suponga que γ ∈ Lad (Ω, L2 [a, b]), es un proceso estocástico escalonado, es
decir,
n
X
γ(t, ω) = ξi−1 (ω)1[ti−1 ,ti ) (t),
i=1

donde ξi−1 es Fti−1 -medible, entonces se verifica que

Zb n
X
γ(t)dB(t) = ξi−1 (B(ti ) − B(ti−1 )). (1.73)
a i=1

Considere n
X
fn (t) := f (ti−1 )1[ti−1 ,ti ) (t).
i=1

Como f es continua, se cumple que


Zb
2
fn (t) − f (t) dt → 0, cuando n → ∞, P-c.s.
a

31
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Por lo tanto, en probabilidad. Procediendo como anteriormente de las expre-


siones (1.67), (1.70) y (1.72) obtenemos que

Zb Zb
f (t)dB(t) = lı́m fn (t)dB(t), en probabilidad. (1.74)
k∆n k→0
a a

Tómese γ = fn en (1.73), de lo que se consigue

Zb n
X
fn (t)dB(t) = f (ti−1 )(B(ti ) − B(ti−1 )).
a i=1

Entonces
Zb n
X
lı́m fn (t)dB(t) = lı́m f (ti−1 )(B(ti ) − B(ti−1 )). (1.75)
k∆n k→0 k∆n k→0
a i=1

De (1.74) y (1.75) se sigue

Zb n
X
f (t)dB(t) = lı́m f (ti−1 )(B(ti ) − B(ti−1 )).
k∆n k→0
a i=1

1.5. Propiedades de la integral estocástica ge-


neralizada
Para nuestro propósito de estudiar las propiedades de la integral estocásti-
ca generalizada, requerimos de la siguiente definición.
Definición 1.5.1. Un proceso estocástico Xt {Ft }-adaptado, es llamado una
martingala local respecto a {Ft ; a ≤ t ≤ b} si existe una sucesión de tiempos
de paro {τn }n∈N , tales que
1. {τn }n∈N es monótona creciente a b, P-c.s.

2. Para cada n ∈ N, Xt∧τn es una martingala con respecto a {Ft }.

32
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Teorema 1.5.2. Sea f ∈ Lad (Ω, L2 [a, b]). Entonces el proceso estocástico

Zt
Xt = f (s)dB(s), a ≤ t ≤ b,
a

es una martingala local con respecto a la filtración {Ft : a ≤ t ≤ b}.

Demostración. Sea f ∈ Lad (Ω, L2 [a, b]).


Para a ≤ t ≤ b, reescribimos a Xt como sigue

Zt
Xt = f (s)dB(s)
a
(1.76)
Zb
= 1[a,t] (s)f (s)dB(s),
a

donde 1[a,t] (s)f (s) ∈ Lad (Ω, L2 [a, b]) para cualquier t ∈ [a, b].
Para cada n, definimos el proceso estocástico

Rt 2
f (t, ω), si f (s, ω) ds ≤ n;



fn (t, ω) := a (1.77)


0, en otro caso.

Sea τn definido para cada n ∈ N por


  t   t 
R 2 R 2



 ı́nf t : f (s, ω) ds ≥ n , si t : f (s, ω) ds ≥ n 6= ∅;
 a a
τn (ω) :=  t 

2
 R
 0, si t : f (s, ω) ds ≥ n = ∅.


a

Veamos que τn es un tiempo de paro, para esto observemos que


 
 Zr 
2
[
{ω : τn (ω) < t} = ω: f (s, ω) ds ≥ n ∈ Ft ,
 
a<r<t, r∈Q a

33
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

para t ∈ [a, b]. Además, si t = a, se tiene que {ω : τn (ω) < t} = ∅ ∈ Fa .


Por lo tanto, τn es un tiempo de paro.
Regresando a (1.76), reemplazamos t por t ∧ τn y obtenemos el proceso es-
tocástico
t∧τ
Z n Zb
Xt∧τn = f (s)dB(s) = 1[a,t∧τn ] (s)f (s)dB(s), a ≤ t ≤ b.
a a

Supongamos que t ≤ τn (ω), entonces

1[a,t∧τn (ω)] (s)f (s, ω) = 1[a,t] (s)f (s, ω)


(1.78)
= 1[a,t] (s)fn (s, ω).

Por otra parte, si t > τn (ω), entonces

1[a,t∧τn (ω)] (s)f (s, ω) = 1[a,τn (ω)] (s)f (s, ω)


= 1[a,τn (ω)] (s)fn (s, ω) (1.79)
= 1[a,t] (s)fn (s, ω).

De este modo por (1.78) y (1.79), se concluye que

1[a,t∧τn (ω)] (s)f (s, ω) = 1[a,t] (s)fn (s, ω), P-c.s.

En consecuencia,
t∧τ
Z n Zt
Xt∧τn = f (s)dB(s) = fn (s)dB(s), a ≤ t ≤ b.
a a

De la demostración del Lema 1.4.2 se obtiene (1.54), esto es

Zb
2
fn (t) dt ≤ n, P-c.s.
a

Rb h
2
i
Entonces E fn (t) dt ≤ n, P-c.s.
a
Por lo tanto, fn ∈ L2ad ([a, b] × Ω). Ahora, por la propiedad martingala para
procesos estocásticos en L2ad ([a, b] × Ω), vista en Teorema 1.3.1, concluimos

34
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

que Xt∧τn es una martingala para cada n ∈ N.


Además, es claro que la sucesión {τn }n∈N es monótona creciente y τn → b,
casi seguramente, cuando n → ∞.
Por lo tanto, Xt es una martingala local con respecto a la filtración {Ft : a ≤
t ≤ b}.

Para demostrar la propiedad de continuidad, utilizaremos el siguiente le-


ma.

Lema 1.5.3. Suponga que f, g ∈ L2ad ([a, b] × Ω). Sea A el evento

A = {ω : f (t, ω) = g(t, ω), ∀t ∈ [a, b]}.

Rb Rb
Entonces f (t)dB(t) = g(t)dB(t), P-c.s. sobre A.
a a

Demostración. Sin pérdida de generalidad, supongamos que g(t, ω) = 0 para


todo t en [a, b] y ω en Ω. Defina

 ı́nf {t : f (t, ω) 6= 0} , si {t : f (t, ω) 6= 0} =
6 ∅;
τ (ω) := (1.80)
0, si {t : f (t, ω) 6= 0} = ∅.

Se cumple que τ es un tiempo de paro.


Consideremos la variable aleatoria
Zτ Zb
Y (τ ) = f (s)dB(s) = 1[a,τ ] (s)f (s)dB(s),
a a

donde 1[a,τ ] (s)f (s) ∈ L2ad ([a, b] × Ω).


Además, para cada ω ∈ Ω se cumple que
2 2
1[a,τ (ω)] (s) f (s, ω) = 1{τ (ω)} (s) f (τ (ω), ω) .

Por lo tanto,
Zb
2
1[a,τ ] (t) f (t) dt = 0, P-c.s.
a

35
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

Por la isometrı́a de Itô se consigue


h i Zb
2 2
E Y (τ ) = 1[a,τ ] (t) f (t) dt = 0.
a

En consecuencia Y (τ ) = 0, P-c.s. Ası́, para ω ∈ A se tiene que τ (ω) = b,


luego
Zb
Y (τ (ω)) = f (s)dB(s).
a
Se concluye que
Zb
f (s)dB(s) = 0, P-c.s. sobre A.
a

Teorema 1.5.4. Sea f ∈ Lad (Ω, L2 [a, b]). Entonces el proceso estocástico
Zt
Xt = f (s)dB(s), a ≤ t ≤ b,
a

tiene realizaciones continuas.


Demostración. Para cada n ∈ N, sea fn el proceso estocástico definido por

Rt 2
f (t, ω), si f (s, ω) ds ≤ n;



fn (t, ω) := a (1.81)


0, en otro caso.

Sea
Zt
(n)
Xt := fn (s)dB(s), a ≤ t ≤ b.
a

Por la propiedad de continuidad para procesos estocásticos en L2ad ([a, b] × Ω)


(n)
del Teorema 1.3.2, Xt es un proceso estocástico continuo.
Sea
Zb
2
An := {ω; f (t, ω) dt ≤ n}.
a

36
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA


S
Observemos que la sucesión {An }n∈N es creciente. Sea A = An , entonces
n=1
Rb 2
P [A] = 1, pues f (t) dt < ∞, P-c.s.
a
Además, si ω ∈ An entonces

fn (t, ω) = fm (t, ω), ∀m ≥ n y ∀t ∈ [a, b].

Aplicando el Lema 1.5.3, para todo ω ∈ An , se tiene P-c.s. que


(m) (n)
Xt = Xt , ∀m ≥ n y ∀t ∈ [a, b]. (1.82)

S
Como A = An , la igualdad (1.82) implica que ∀ω ∈ A P-c.s. el siguiente
n=1
lı́mite existe para todo t en [a, b]
(m)
lı́m Xt .
m→∞

Luego, definimos el proceso estocástico Yt (ω) por



(m)
 lı́m Xt (ω), si ω ∈ A;
 m→∞
Yt (ω) := (1.83)

0, ω 6∈ A.

Entonces Yt (ω) es un proceso estocástico continuo.


Por otra parte, de la definición de integral estocástica, se tiene que
(m)
Xt = lı́m Xt , en probabilidad.
m→∞

Por lo tanto, para cada t ∈ [a, b] se cumple que Xt = Yt , P-c.s.


De manera que Yt es una realización continua de Xt .

37
CAPÍTULO 1. LA INTEGRAL ESTOCÁSTICA

38
Capı́tulo 2

Fórmula de Itô y algunas


aplicaciones

Sea B(t) el movimiento browniano y f : R → R una función de clase


C 2 . Considérese la variable aleatoria compuesta f (B(t)). Sabemos que las
trayectorias de B(t) son no diferenciables, por lo que la igualdad

d
f (B(t)) = f 0 (B(t))B 0 (t),
dt

carece de sentido. Sin embargo, existe una fórmula para la función composi-
ción f (B(t)), que hace el papel de la regla de la cadena en su forma integral
en el cálculo de estocástico. Dicha fórmula es conocida como la fórmula de
Itô, en el presente capı́tulo presentamos tres de sus versiones. También se
presentan algunas aplicaciones que nos permiten observar la importancia de
este resultado.

2.1. Fórmula de Itô


En el Capı́tulo 1 se han definido y estudiado las integrales estocásticas, sin
embargo no contamos con un método o herramienta que nos ayude a calcular
estas integrales. Para tal propósito se proporciona la llamada fórmula de Itô.
La fórmula de Itô en su forma más simple está garantizada por el siguiente
teorema.

39
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Teorema 2.1.1. Sea f una función de clase C 2 y B(t) un movimiento Brow-


niano. Entonces
Z t
1 t 00
Z
0
f (B(t)) − f (B(a)) = f (B(s))dB(s) + f (B(s))ds,
a 2 a

donde la primera integral es una integral de Itô y la segunda integral es una


integral de Riemann para cada trayectoria de B(s).

La demostración del Teorema 2.1.1 se puede revisar en [10] y [27].

El siguiente teorema presenta la fórmula de Itô ligeramente generalizada.

Teorema 2.1.2. Sea f (t, x) una función continua con derivadas parciales
∂f ∂f ∂ 2 f
continuas , y . Entonces
∂t ∂x ∂x2
Z t
∂f
f (t, B(t)) = f (a, B(a)) + (s, B(s))dB(s)
a ∂x
Z t (2.1)
1 ∂ 2f

∂f
+ (s, B(s)) + (s, B(s)) ds.
a ∂t 2 ∂x2

La demostración del Teorema 2.1.2 se encuentra en [10].

Definiremos los procesos de Itô, lo cual nos permitirá abordar el teorema


que nos da la fórmula de Itô en su forma general.

Sea {Ft : a ≤ t ≤ b} la filtración natural. En lo que sigue usaremos


Lad (Ω, L1 [a, b]) para denotar el espacio de todos los procesos estocásticos
Rb
{Ft }-adaptados f (t) tales que f (t) dt < ∞, P-c.s.
a

Definición 2.1.3. Un proceso de Itô es un proceso estocástico de la forma


Z t Z t
Xt = Xa + f (s)dB(s) + g(s)ds, a ≤ t ≤ b,
a a

donde Xa ∈ Fa , f ∈ Lad (Ω, L2 [a, b]) y g ∈ Lad (Ω, L1 [a, b]).

40
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Teorema 2.1.4. Sea Xt un proceso de Itô dado por


Z t Z t
X t = Xa + f (s)dB(s) + g(s)ds, a ≤ t ≤ b.
a a

Suponga que θ(t, x) es una función continua con derivadas parciales continuas
∂θ ∂θ ∂ 2 θ
, y . Entonces θ (t, Xt ) es también un proceso de Itô y
∂t ∂x ∂x2
Z t
∂θ
θ (t, Xt ) =θ (a, Xa ) + (s, Xs ) f (s)dB(s)
a ∂x
Z t
1 ∂ 2θ

∂θ ∂θ 2
+ (s, Xs ) + (s, Xs ) g(s) + (s, Xs ) f (s) ds.
a ∂t ∂x 2 ∂x2
La demostración del Teorema 2.1.4 se puede revisar en [3].

En secciones posteriores será de ayuda el siguiente ejemplo.


Ejemplo 2.1.5. Sea f ∈ L(Ω, L2 [0, 1]). Considere la función θ(x) = ex y el
proceso de Itô dado por
Z t
1 t
Z
Xt = f (s)dB(s) − f (s)2 ds, 0 ≤ t ≤ 1.
0 2 0

1
Observemos que dXt = f (t)dB(t) − f (t)2 dt. Además, por la expansión de
2
Taylor y teniendo en cuenta que dB(t)dB(t) = dt, dB(t)dt = 0 y dtdt = 0
se consigue que
1
dθ(Xt ) = eXt dXt + eXt (dXt )2
 2 
Xt 1 1
=e f (t)dB(t) − f (t) dt + eXt f (t)2
2
2 2
Xt
= f (t)e dB(t).
Por lo tanto,
Rt Rt
Z t Rs Rs
f (t)dB(t)− 12 f (t)2 dt f (u)dB(u)− 21 f (u)2 du
e 0 0 =1+ f (s)e 0 0 dB(s).
0
Rt 1 t
R 2
Por el Teorema 1.5.2, e 0 f (t)dB(t)−
Rt
2 0
f (t) dt
R es una martingala local. Cuando
1 t
2 f (t)dB(t)− f (t)2 dt
f (t) ∈ L [0, 1], se tiene que e 0 2 0 es una martingala por el
Teorema 1.3.1.

41
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

2.2. Fórmula de Itô multidimensional


Sean B1 (t), · · · , Bm (t), m movimientos brownianos independientes. Con-
(1) (2) (n)
sidere Xt , Xt , · · · , Xt , n procesos de Itô dados por
m Z t
X Z t
(i) (1)
X t = Xa + fij (s)dBj (s) + gi (s)ds, 1 ≤ i ≤ n, (2.2)
j=1 a a

donde fij ∈ Lad (Ω, L2 [a, b]) y gi ∈ Lad (Ω, L1 [a, b]) para todo i ∈ {1, 2, · · · , n}
y j ∈ {1, 2, · · · , m}.
Considere las matrices
   (1) 
B1 (t) Xt
 B2 (t)   X (2) 
 t 
B(t) =   , Xt =  .  ,
 
..
 .   .. 
Bm (t) (n)
Xt
   
f11 (t) f12 (t) · · · f1m (t) g1 (t)
 f21 (t) f22 (t) · · · f2m (t)   g2 (t) 
f (t) =  .. , g(t) =  ..  .
   
.. .. .. 
 . . . .   . 
fn1 (t) fn2 (t) · · · fnm (t) gn (t)
Entonces la igualdad (2.2) se reescribe como
Z t Z t
Xt = Xa + f (s)dB(s) + g(s)ds, a ≤ t ≤ b.
a a

Es posible extender la fórmula de Itô del Teorema 2.1.4 al caso multidi-


mensional. Suponga que θ(t, x1 , · · · , xn ) una función continua sobre [a, b] ×
∂θ ∂θ ∂ 2θ
Rn que tiene derivadas parciales continuas , y para i, j ∈
∂t ∂xi ∂xi ∂xj 
(1) (n)
{1, 2, · · · , n}. Entonces la diferencial estocástica de θ t, Xt , · · · , Xt está
dado por
  ∂θ  
(1) (n) (1) (n)
dθ t, Xt , · · · , Xt = t, Xt , · · · , Xt dt
∂t
n
X ∂θ  (1) (n)

(i)
+ t, Xt , · · · , Xt dXt
∂xi (2.3)
i=1
n
1 X ∂2θ  (1) (n)

(i) (j)
+ t, Xt , · · · , Xt dXt dXt .
2 ∂xi ∂xj
i,j=1

42
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

(i) (j)
En donde el producto dXt dXt se calcula mediante la Tabla 2.1, conocida como
tabla de McKean.

× dBj (t) dt
dBi (t) δij 0
dt 0 0

Tabla 2.1: Tabla de McKean.

(i) (j)
El producto dXt dXt = 0 para i 6= j es la expresión simbólica del siguiente
hecho.

Sean B1 (t) y B2 (t) dos movimientos brownianos independientes y sea ∆n =


{t0 , t1 , · · · , tn−1 , tn } una partición de [a, b]. Entonces
n
X
(B1 (ti ) − B1 (ti−1 )) (B2 (ti ) − B2 (ti−1 )) → 0, en L2 (Ω), cuando k∆n k → 0.
i=1
(2.4)
Para verificar este hecho, reescribimos (2.4) como
n
X
Φn = Xi ,
i=1
donde Xi = (B1 (ti ) − B1 (ti−1 )) (B2 (ti ) − B2 (ti−1 )). Entonces
n
X
Φ2n = Xi Xj .
i,j=1

Para i 6= j y por la independencia de Bk (ti ) − Bk (ti−1 ) y Bk (tj ) − Bk (tj−1 ), para


k ∈ {1, 2}
E [Xi Xj ]
= E [Xi ] E [Xj ] (2.5)
= 0.
Para i = j
h i
E Xi2 = E ((B1 (ti ) − B1 (ti−1 ))(B2 (ti ) − B2 (ti−1 )))2
 

= E (B1 (ti ) − B1 (ti−1 ))2 (B2 (ti ) − B2 (ti−1 ))2


 
(2.6)
= E (B1 (ti ) − B1 (ti−1 ))2 E (B2 (ti ) − B2 (ti−1 ))2
   

= (ti − ti−1 )2 .

43
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

De (2.5) y (2.6) se obtiene que


n
X
Φ2n (ti − ti−1 )2
 
E =
i−1
n
X (2.7)
≤ k∆n k (ti − ti−1 )
i−1
= k∆n k(b − a).

Cuando k∆n k → 0, la última igualdad de (2.7) converge a 0. Por lo tanto, (2.4) es


válido.

Ejemplo 2.2.1. Considere la función θ : R2 → R definida por θ(x, y) = xy. Las


derivadas parciales de θ están dadas por

∂θ ∂θ ∂2θ ∂2θ ∂2θ ∂2θ


= y, = x, = =1y = = 0.
∂x ∂y ∂x∂y ∂y∂x ∂x2 ∂y 2

Aplicando (2.3) a la función θ(x, y), para dos procesos de Itô Xt y Yt conseguimos

1 1
d (Xt Yt ) = Yt dXt + Xt dYt + dXt dYt + dYt dXt
2 2
= Yt dXt + Xt dYt + dXt dYt .

Por lo tanto,
Z t Z t Z t
Xt Yt = Xa Ya + Ys dXs + Xs dYs + dXs dYs . (2.8)
a a a

La igualdad (2.8) es llamada la fórmula de Itô producto.


Si Xt y Yt están dados por dXt = f (t)dB(t) + ξ(t)dt y dYt = g(t)dB(t) + η(t)dt,
entonces la fórmula de producto está dada por
Z t Z t
Xt Yt = Xa Ya + (f (s)Ys + g(s)Xs ) dB(s) + (ξ(t)Ys + η(s)Xs + f (s)g(s)) ds.
a a

2.3. Cálculo de integrales estocásticas


Rb
La fórmula de Itô es usada para calcular integrales estocásticas g(t)dB(t),
a
cuando g(t) = f (B(t)), para f una función que tiene derivadas continuas. La
fórmula de Itô la podemos escribir como en el siguiente teorema.

44
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Teorema 2.3.1. Suponga que F (t, x) es una antiderivada en x de una función


∂F ∂f
continua f (t, x). Además suponga que y son continuas. Entonces
∂t ∂t
Z b b Z b 
∂F 1 ∂f
f (t, B(t))dB(t) = F (t, B(t)) − (t, B(t)) + (t, B(t)) dt. (2.9)
a a a ∂t 2 ∂x

Observemos que cuando el integrando f no depende de t, la igualdad (2.9) se


escribe como
Z b b
1 b 0
Z
f (B(t))dB(t) = F (B(t)) − f (B(t))dt.
a a 2 a

2.4. Integral de Stratonovich


Definición 2.4.1. Sean Xt y Yt procesos de Itô. La integral de Stratonovich de
Xt con respecto a Yt está definida por
Z b Z b Z b
1
Xt ◦ Yt = Xt dYt + (dXt ) (dYt ) , (2.10)
a a 2 a

o equivalentemente en su forma diferencial estocástica

1
Xt ◦ Yt = Xt dYt + (dXt ) (dYt ) . (2.11)
2
El siguiente teorema garantiza que bajo la operación de tomar la integral de
Stratonovich de dos procesos de Itô, la colección de procesos de Itô es cerrada.

Teorema 2.4.2. Si Xt y Yt son procesos de Itô, entonces el proceso estocástico


Z t
Lt := Xs ◦ dYs , a ≤ t ≤ b,
a

es un proceso de Itô.

Demostración. Sean Xt , Yt procesos de Itô, entonces


Z t Z t
Xt = Xa + f (s)dB(s) + ξ(s)ds, a ≤ t ≤ b;
a a
Z t Z t
Yt = Xa + g(s)dB(s) + η(s)ds, a ≤ t ≤ b;
a a

45
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

donde Xa , Ya ∈ Fa , f, g ∈ Lad (Ω, L2 [a, b]) y ξ, η ∈ Lad (Ω, L1 [a, b]). Observe que

(dXt ) (dYt ) = (f (t)dB(t) + ξ(t)dt) (g(t)dB(t) + η(t)dt)


= f (t)g(t) (dB(t))2 + (ξ(t)g(t) + η(t)f (t)) dB(t) + ξ(t)η(t) (dt)2
= f (t)g(t)dt.
(2.12)

De (2.10), usando (2.12) tenemos que


Z b Z b Z b
1
Xt ◦ dYt = Xt dYt + (dXt ) (dYt )
a a 2 a
b
1 b
Z Z
= Xt (g(t)dB(t) + η(t)dt) + f (t)g(t)dt (2.13)
a 2 a
Z b Z b 
1
= Xt g(t)dbB(t) + Xt η(t) + f (t)g(t) dt.
a a 2

Por el Teorema 1.5.4, Xt es un proceso estocástico continuo, de manera que sus


trayectorias son continuas, P-c.s. Por lo tanto,
Z b Z b Z b
2 2 2 2
|Xt g(t)| dt ≤ sup {|Xs | }|g(t)| dt = sup {|Xs | } |g(t)|2 dt < ∞, P-c.s.
a a a≤s≤b a≤s≤b a

De lo anterior es claro que Xg ∈ Lad (Ω, L2 [a, b]).


Además,
Z b Z b Z b
2
|Xt η(t)| dt ≤ sup {|Xs |}|η(t)|dt = sup {|Xs |} |η(t)|dt < ∞, P-c.s.
a a a≤s≤b a≤s≤b a

En consecuencia, Xη ∈ Lad (Ω, L1 [a, b]).


Finalmente, f (t)g(t) es adaptado y por la desigualdad de Schwarz

Z b Z b  12 Z b  12
2 2
|f (t)g(t)|dt ≤ |f (t)| dt |g(t)| dt < ∞, P-c.s.
a a a

Lo cual implica que f g ∈ Lad (Ω, L1 [a, b]).


De la igualdad (2.13), tomando b = t concluimos que Lt es un proceso de Itô.

Considere una función F (t, x) : R2 −→ R, por (2.11) y la fórmula de Itô del

46
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Teorema 2.1.2 se consigue que


 
∂F ∂F 1 ∂F
(t, B(t)) ◦ dB(t) = (t, B(t)) dB(t) + d (t, B(t)) (dB(t))
∂x ∂x 2 ∂x
1 ∂2F ∂2F ∂3F
 
∂F
= dB(t) + dt + dB(t) + dt dB(t)
∂x 2 ∂x∂t ∂x2 ∂x3
∂F 1 ∂2F
= (t, B(t)) dB(t) + (t, B(t)) dt.
∂x 2 ∂x2
(2.14)
Por otro lado, por la fórmula de Itô dada en el Teorema 2.1.2, tenemos que
∂F ∂F 1 ∂2F
dF (t, B(t)) = (t, B(t))dt + (t, B(t))dB(t) + (t, B(t))dt. (2.15)
∂t ∂x 2 ∂x2
De (2.14) y (2.15), obtenemos la siguiente igualdad
∂F ∂F
(t, B(t)) ◦ dB(t) = dF (t, B(t)) − (t, B(t)) dt. (2.16)
∂x ∂t
La igualdad (2.16) se considera en su forma integral en el siguiente teorema.
Teorema 2.4.3. Sea f (t, x) una función continua y suponga que F (t, x) es una
∂F ∂f ∂f
antiderivada en x de f . Además suponga que , y son continuas. Enton-
∂t ∂t ∂x
ces,
Z b Z b
b ∂F
f (t, B(t)) ◦ dB(t) = F (t, B(t)) a − (t, B(t))dt.
a a ∂t
Del Teorema 2.4.3, tenemos las siguientes observaciones.
Observación 2.4.4. 1. Un caso particular del Teorema 2.4.3 es cuando la fun-
ción f no depende t, de lo que se obtiene
Z b
b
f (t, B(t)) ◦ dB(t) = F (t, B(t)) a .
a
De esta manera la integral de Stratonovich se comporta como la integral del
cálculo ordinario.
2. Si en la igualdad (2.10) conocemos el valor de la integral de Itô, entonces
podemos evaluar la correspondiente integral de Stratonovich.
3. Es posible usar el Teorema 2.4.3 para evaluar la integral de Stratonovich y
usando la expresión (2.14) con F 0 (x) = f (x) es posible obtener el valor de
la correspondiente integral de Itô, es decir,
Z b Z b
1 b 0
Z
f (B(t)) dB(t) = f (B(t)) ◦ dB(t) − f (B(t)) dt. (2.17)
a a 2 a

47
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Recordemos que en la definición de integral estocástica los puntos de evaluación


para el integrando son los puntos izquierdos de los intervalos generados sobre la
partición dada, veremos que en la integral de Stratonovich se toman los puntos
medios de cada subintervalo. Hasta ahora se ha definido la integral de Stratonovich
en términos de la integral de Itô en la colección de procesos de Itô. Sin embargo,
podemos definir esta integral directamente como una suma de Riemann, lo cual se
muestra en el siguiente teorema.

Teorema 2.4.5. Sea f (t, x) una función continua con derivadas parciales conti-
∂f ∂f ∂2f
nuas , y . Entonces
∂t ∂x ∂x2
Z b n  
∗ 1
X
f (t, B(t)) ◦ dB(t) = lı́m f ti , (B(ti−1 ) + B(ti )) (B(ti ) − B(ti−1 ))
a k∆n k→0 2
i=1
n   
X
∗ ti−1 + ti
= lı́m f ti , B (B(ti ) − B(ti−1 )) ,
k∆n k→0 2
i=1
(2.18)

en probabilidad, donde ti−1 ≤ t∗i ≤ ti , ∆n = {t0 , t1 , · · · , tn } es una partición finita


del intervalo [a, b].

Demostración. Los argumentos para la demostración rigorosa son los mismos que
en la Sección 2.1. Por simplicidad, suponga que la función f no depende de t.

Para el primer lı́mite en (2.18), observe que para cada i = 1, 2, · · · , n, se consigue


que
   
B(ti−1 ) + B(ti )
f − f (B(ti−1 )) (B(ti ) − B(ti−1 ))
2
1
≈ f 0 (B(ti−1 )) (B(ti ) − B(ti−1 ))2
2
1
≈ f 0 (B(ti−1 )) (ti − ti−1 ) .
2
De manera que
n    
X B(ti−1 ) + B(ti )
f − f (B(ti−1 )) (B(ti ) − B(ti−1 ))
2
i=1
n
X 1
≈ f 0 (B(ti−1 )) (ti − ti−1 ) .
2
i=1

48
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Entonces
n  
X B(ti−1 ) + B(ti )
f (B(ti ) − B(ti−1 ))
2
i=1
n n (2.19)
X X 1 0
≈ f (B(ti−1 )) (B(ti ) − B(ti−1 )) + f (B(ti−1 )) (ti − ti−1 ) .
2
i=1 i=1

Tomando el lı́mite en probabilidad, cuando k∆n k → 0, el lado derecho de (2.19)


converge a
Z b
1 b 0
Z
f (B(t))dB(t) + f (B(t))dt. (2.20)
a 2 a
Por la relación (2.17), (2.20) es igual a la integral de Stratonovich.

Para el segundo lı́mite, para cada i = 1, 2, · · · , n se tiene que


    
ti−1 + ti
f B − f (B(ti−1 )) (B(ti ) − B(ti−1 ))
2
   
0 ti−1 + ti
≈f (B(ti−1 )) B − B (ti−1 ) (B(ti ) − B(ti−1 ))
2
   2
0 ti−1 + ti
=f (B(ti−1 )) B − B (ti−1 )
2
     
0 ti−1 + ti ti−1 + ti
+f (B(ti−1 )) B − B (ti−1 ) B(ti ) − B
2 2
1 0
≈ f (B(ti−1 )) (ti − ti−1 ).
2
Entonces
n     
X ti−1 + ti
f B − f (B(ti−1 )) (B(ti ) − B(ti−1 ))
2
i=1
X1
≈ f 0 (B(ti−1 ))(ti − ti−1 ).
2
De manera que
n    n
X ti−1 + ti X
f B (B(ti ) − B(ti−1 )) − f (B(ti−1 ))(B(ti ) − B(ti−1 ))
2
i=1 i=1
X1
0
≈ f (B(ti−1 ))(ti − ti−1 ).
2

49
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Luego
n   
X ti−1 + ti
f B (B(ti ) − B(ti−1 ))
2
i=1
n (2.21)
X X1
0
≈ f (B(ti−1 ))(B(ti ) − B(ti−1 )) + f (B(ti−1 ))(ti − ti−1 ).
2
i=1

Tomando el lı́mite en probabilidad cuando k∆n k → 0, el lado derecho de (2.21)


converge a
Z b
1 b 0
Z
f (B(t))dB(t) + f (B(t))dt. (2.22)
a 2 a
Por la relación (2.17), (2.22) es igual a la integral de Stratonovich. Por lo tanto,
se cumple la convergencia en (2.18).

2.5. Teorema de caracterización de Lévy


En la definición de movimiento browniano, la medida de probabilidad P juega
un rol crucial. Para enfatizar este hecho, si es necesario, diremos que B(t) es un
movimiento browniano con respecto a P. Iniciaremos esta sección con el siguiente
ejemplo.
Sea B(t) un movimiento browniano, para 0 ≤ t ≤ 1, con respecto a P. Con-
sidérese la función
S : F −→ [0, ∞),
1
definida para cada A ∈ F como S (A) := eB(1)− 2 dP.
R
A
Denotemos la esperanza respecto de P por EP . Entonces tenemos que
h i Z Z
B(1)− 12 B(1)− 12 − 12 1 1
EP e = e dP = e eB(1) dP = e− 2 e 2 = 1.
Ω Ω

Lo cual implica que


S(Ω) = 1.
Entonces S es una medida de probabilidad.
Mostraremos que el proceso estocástico {Mt := B(t) − t; 0 ≤ t ≤ 1} es un
movimiento browniano respecto a S.
Es fácil ver que S(A) = 0 si y sólo si P(A) = 0 con lo cual diremos que S y P son
equivalentes. De esto, se sigue que S [{ω : M0 (ω) = 0}] = P [{ω : B(0, ω) = 0}] = 1
y S [{ω : Mt (ω) es continuo en t }] = P [{ω : B(t, ω) es continuo en t }] = 1. De

50
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

manera que las condiciones (1) y (4) de la Definición 1.1.1 se satisfacen para Mt
con respecto a la medida de probabilidad S.
Denotemos por ES a la esperanza con respecto a S. Sean 0 ≤ s ≤ 1 y λ ∈ R
entonces
h i h i
ES eiλ(Mt −Ms ) = ES eiλ(B(t)−t−(B(s)−s))
h i
= ES e−iλ(t−s) eiλ(B(t)−B(s)) (2.23)
h i
= e−iλ(t−s) ES eiλ(B(t)−B(s)) .
De la definición de S se obtiene que
h i h 1
i
ES eiλ(B(t)−B(s)) = EP eiλ(B(t)−B(s)) eB(1)− 2
h h 1
ii
= EP EP eiλ(B(t)−B(s)) eB(1)− 2 Ft (2.24)
h h 1
ii
= EP eiλ(B(t)−B(s)) EP eB(1)− 2 Ft .
Para calcular la esperanza en la última igualdad de (2.24), requerimos del siguiente
resultado.
1 2
Sea M (t) = ecB(t)− 2 c t , entonces el proceso estocástico M (t) es una martingala
para cualquier constante c > 0.
1 2
En efecto, sea f (t, x) = ecx− 2 c t
para c ∈ R fijo, calculando las derivadas
parciales se tiene que
∂f 1 ∂f ∂2f
= − c2 f (t, x), = cf (t, x) y = c2 f (t, x).
∂t 2 ∂x ∂x2
Por la fórmula de Itô dada en (2.1), se obtiene que
Z t
cB(t)− 21 c2 t 1 2
e =1+c ecB(s)− 2 c s dB(s).
0
Sea u < t, entonces
   Z t 
cB(t)− 21 c2 t cB(s)− 12 c2 s
EP e Fu = 1 + EP c e dB(s) Fu
0
Z u Z t 
cB(s)− 12 c2 s cB(s)− 21 c2 s
= 1 + cEP e dB(s) + e dB(s) Fu
0 u
Z u Z t 
cB(s)− 12 c2 s cB(s)− 21 c2 s
=1+c e dB(s) + cEP e dB(s) Fu
Z0 u u
1 2
=1+c ecB(s)− 2 c s dB(s)
0
1 2
= ecB(u)− 2 c u .

51
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

1 2
Por lo tanto, M (t) = ecB(t)− 2 c t es una martingala para cualquier c ∈ R.
De manera que
 
B(1)− 12 1
EP e Ft = eB(t)− 2 t . (2.25)

Sustituyendo en (2.24) la esperanza dada por (2.25) se tiene que

h i 1
h i
ES eiλ(B(t)−B(s)) = e− 2 EP e(iλ+1)(B(t)−B(s)) eB(s) . (2.26)

Usando el hecho
h i 1 2
EP ec(B(t)−B(s)) = e 2 c (t−s) ,

para s ≤ t y dado que e(iλ+1)(B(t)−B(s)) y eB(s) son independientes, de (2.26)


obtenemos que

h i 1
h i h i
ES eiλ(B(t)−B(s)) =e− 2 t EP e(iλ+1)(B(t)−B(s)) EP eB(s)
1 1 2 (t−s) 1
=e− 2 t e 2 (iλ+1) e2s
1 2 +iλ)(t−s)
=e− 2 (λ .

De (2.23) y (2.26) se consigue

h i 1 2
ES eiλ(Mt −Ms ) = e− 2 λ (t−s) .

Por lo tanto, Mt − Ms tiene distribución normal con media 0 y varianza t − s con


respecto a S. De manera que se verifica que los incrementos tienen distribución
normal con media 0 y varianza t − s.

Sean 0 ≤ t1 < t2 ≤ 1. Entonces para cualesquiera λ1 , λ2 ∈ R, se cumple que

h i h i
ES eiλ1 Mt1 +iλ2 (Mt2 −Mt1 ) = ES eiλ1 (B(t1 )−t1 )+iλ2 ((B(t2 )−t2 )−(B(t1 )−t1 )
h i
= e−iλ1 t1 −iλ2 (t2 −t1 ) ES eiλ1 B(t1 )+iλ2 (B(t2 )−B(t1 )) .
(2.27)

52
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Usando los argumentos para obtener (2.24), (2.25) y (2.26) se verifica lo siguiente
h i   
iλ1 B(t1 )+iλ2 (B(t2 )−B(t1 )) iλ1 B(t1 )+iλ2 (B(t2 )−B(t1 )) B(1)− 21
ES e =EP e EP e Ft2
h 1
i
=EP eiλ1 B(t1 )+iλ2 (B(t2 )−B(t1 )) eB(t2 )− 2 t2
h 1
i
=EP eiλ1 B(t1 )+iλ2 (B(t2 )−B(t1 )) eB(t2 )−B(t1 )+B(t1 )− 2 t2
1
h i
=e− 2 t2 EP e(iλ2 +1)(B(t2 )−B(t1 )) e(iλ1 +1)B(t1 )
1
h i h i
=e− 2 t2 EP e(iλ2 +1)(B(t2 )−B(t1 )) EP e(iλ1 +1)B(t1 )
1 1 2 (t −t ) 1 2t
=e− 2 t2 e 2 (iλ2 +1) 2 1
e 2 (iλ+1) 1

1 2 1 2
=e− 2 λ1 t1 − 2 λ2 (t2 −t1 )+iλ1 t1 +iλ2 (t2 −t1 ) .
(2.28)

En general, podemos repetir los argumentos anteriores inductivamente para mos-


trar que para cualesquiera 0 ≤ t1 < t2 < · · · < tn ≤ 1, se cumple que
h i 1 2 1 2 1 2
ES eiλ1 Mt1 +iλ2 (Mt2 −Mt1 )+···+iλn (Mtn −Mtn−1 ) = e− 2 λ1 t1 − 2 λ2 (t2 −t1 )−···− 2 λn (tn −tn−1 ) ,

para todo λ1 , λ2 , · · · , λn que pertenecen a R.


Lo cual implica que Mt1 , Mt2 − Mt1 , · · · , Mtn − Mtn−1 son independientes y con
distribución normal bajo S.
Lo anterior completa la prueba de que {Mt = B(t) − t : 0 ≤ t ≤ 1} es un movi-
miento browniano con respecto a la medida de probabilidad S.

Observe que el proceso estocástico {Mt = B(t) − t : 0 ≤ t ≤ 1} no es


un movimiento browniano con respecto a la medida de probabilidad P, ya que
EP [Mt ] = EP [B(t) − t] = −t 6= 0.

Teorema 2.5.1. Teorema de caracterización de Lévy.


Un proceso estocástico {Mt } es un movimiento browniano si y sólo si existe una
medida de probabilidad S y una filtración Ft bajo S tal que S [{M0 = 0}] = 1 y el
compensador de Mt es < M >t = t (Ver Apéndice, Teorema A.2.3), S-c.s. para
cada t.

Demostración. El espacio de probabilidad en cuestión es (Ω, F, P) con la filtración


{Ft }. Por hipótesis {Mt } satisface las condiciones (1) y (4) de la Definición 1.1.1,
resta ver que se verifican las condiciones (2) y (3).

53
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Aplicando la fórmula de Itô para martingalas (Ver Apéndice, Teorema A.2.4) a


1 2
{Mt } con la función F (t, x) = eiλx+ 2 λ t se consigue que

1 1
dF (t, Mt ) = λ2 F (t, Mt )dt + iλF (t, Mt )dMt − λ2 F (t, Mt )d < M >t .
2 2
Por hipótesis d < M >t = dt, de manera que

dF (t, Mt ) = iλF (t, Mt )dMt ,

o bien en forma integral

1
Z t 1
2 2
eiλMt + 2 λ t = 1 + iλ eiλMs + 2 λ s dMs .
0

1 2
Por el Teorema 1.5.2, el proceso estocástico eiλMt + 2 λ t es una martingala con
respecto a S y {Ft }, entonces para cualquier 0 ≤ s ≤ t,
 
1 t 1 2
ES eiλMt + 2 λ Fs = eiλMs + 2 λ s , S-c.s. (2.29)

Además, observemos que


 
iλMs + 12 λ2 s iλMt + 12 λ2 t
e =ES e Fs
 
1 2 1 2 1 2
= ES eiλMt −iλMs +iλMs + 2 λ − 2 λ s+ 2 λ s Fs
 
iλ(Mt −Ms ) iλMs + 21 λ2 s 12 λ2 (t−s)
= ES e e e Fs
 
iλMs + 21 λ2 s 12 λ2 (t−s) iλ(Mt −Ms )
=e e ES e Fs .

Entonces  
1 2 (t−s)
iλ(Mt −Ms )
EP e Fs = e− 2 λ , ∀λ ∈ R. (2.30)

Luego, aplicando esperanza en ambos lados de (2.30) se tiene que


h i 1 2
EP eiλ(Mt −Ms ) = e− 2 λ (t−s) , ∀λ ∈ R. (2.31)

Esto muestra que bajo S, Mt −Ms tiene distribución normal con media 0 y varianza
t − s.

54
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Finalmente, supongamos que 0 ≤ t1 ≤ t2 , para cualesquiera λ1 , λ2 que pertenecen


a R, se tiene que
h i   
iλ1 Mt1 +iλ2 (Mt2 −Mt1 ) iλ1 Mt1 +iλ2 (Mt2 −Mt1 )
ES e =ES ES e Ft1
  
i(λ1 −λ2 )Mt1 iλ2 Mt2
=ES ES e e Ft1 (2.32)
  
i(λ1 −λ2 )Mt1 iλ2 Mt2
=ES e ES e Ft1 .

Por (2.30) se tiene que


 
1 2 1 2
ES eiλ2 Mt2 Ft1 =eiλ2 Mt1 + 2 λ2 t1 e− 2 λ2 t2
(2.33)
iλ2 Mt1 − 12 λ2 (t2 −t1 )
=e .
De (2.32) por (2.33) se obtiene que
h i h 1 2
i
ES eiλ1 Mt1 +iλ2 (Mt2 −Mt−1 ) = ES ei(λ1 −λ2 )Mt1 eiλ2 Mt1 − 2 λ2 (t2 −t1 )
h 1 2
i
= ES eiλ1 Mt1 e− 2 λ2 (t2 −t1 )
1 2
h i
= e− 2 λ2 (t2 −t1 ) ES eiλ1 Mt1 .
1 2
De (2.31), ES eiλ1 Mt1 = e− 2 λ1 t1 . Por lo tanto, para todo λ1 , λ2 que pertenecen a
 

R se verifica que
h i 1 2 1 2
ES eiλ1 Mt1 +iλ2 (Mt2 −Mt1 ) = e− 2 λ2 (t2 −t1 )− 2 λ1 t1 .

En general, podemos aplicar los mismos argumentos inductivamente para mostrar


que para cualesquiera 0 ≤ t1 < t2 < · · · < tn ≤ 1, se cumple que 5
h i 1 2 1 2 1 2
ES eiλ1 Mt1 +iλ2 (Mt2 −Mt1 )+···+iλn (Mtn −Mtn−1 ) = e− 2 λ1 t1 − 2 λ2 (t2 −t1 )−···− 2 λn (tn −tn−1 ) ,

para cualesquiera λ1 , · · · , λn que pertenecen a R.


De lo cual se sigue que las variables aleatorias Mt1 , Mt2 − Mt1 , · · · , Mtn − Mtn−1
son independientes y se distribuyen normalmente. En particular {Mt } satisface la
condición (3) de la Definición 1.1.1 con respecto a S. Por lo tanto, {Mt } es un
movimiento browniano respecto a S.

Suponga que {Mt } es un movimiento browniano respecto a P. Bajo P existe


la filtración {Ft }, tal que {Mt } es continuo bajo esta filtración. Por definición se
cumple que P [{M0 = 0}] = 1 y < M >t = t, P-c.s.

55
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

2.6. Movimiento browniano multidimensional


Un proceso estocástico {B(t) = (B1 (t), B2 (t), · · · , Bn (t))} es un movimiento
browniano sobre Rn , donde B1 (·), B2 (·), · · · , Bn (·) son n movimientos brownianos
independientes sobre R. Este movimiento browniano inicia en x ∈ Rn .
Suponga que f : Rn −→ R es una función de clase C 2 . Entonces por la fórmula de
Itô se tiene que
n n
X ∂f 1 X ∂2f
df (B(t)) = (B(t))dBi (t) + (B(t))dBi (t)dBj (t)
∂xi 2 ∂xi ∂xj
i=1 i,j=1
n n
X ∂f 1 X ∂2f
= (B(t))dBi (t) + (B(t))dt.
∂xi
i=1
2 ∂x2i i=1

Por lo tanto,
n Z t Z t
X ∂f 1
f (B(t)) = f (x) + (B(s))dBi (s) + 4f (B(s))ds, (2.34)
0 ∂xi 2 0
i=1

Pn ∂2f
donde 4f := i=1 , denominado en la literatura como el Laplaciano de f .
∂x2i
En esta sección necesitaremos el siguiente hecho acerca de la transitoriedad de
un movimiento browniano B(·) sobre Rn . Sea n ≥ 2, entonces

P {B(t) = 0 para algún t > 0 B(0) = x ] = 0,

para todo x ∈ Rn .

Teorema 2.6.1. Sea {B(t); 0 ≤ t ≤ T } un movimiento browniano sobre R3 que


1
inicia en el punto a 6= 0. Entonces el proceso estocástico para t ≥ 0, es
kB(t)k
una martingala local.

1 1
Demostración. Sea f : R3 −→ R definida por f (x) = = (x21 + x22 + x23 )− 2 para
kxk
cada x = (x1 , x2 , x3 ) ∈ R3 \{0}. Entonces la función f (x) es una función de clase
C 2 sobre el dominio R3 \{0}. Además, sus derivadas parciales están dadas por

∂f xi ∂ 2 f 1 x2i
=− , = − + 3 , i = 1, 2, 3.
∂xi kxk3 ∂x2i kxk3 kxk5

56
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Por lo tanto,
3 
x2i kxk2

X 1 1
4f (x) = − + 3 = −3 + 3 = 0.
kxk3 kxk5 kxk3 kxk5
i=1

De la ecuación (2.34) se consigue que


3 Z t
1 1 X Bi (s)
= − dBi (s).
kB(t)k kak 0 kB(s)k3
i=1

Bi (s)
Por el hecho anterior, el integrando es una función continua de s, P-c.s.
kB(s)k3
Bi (s)
Entonces el integrando ∈ Lad (Ω, L2 [0, t]) para i = 1, 2, 3 y cualquier t > 0.
kB(s)k3
1
Por Teorema 1.5.2, el proceso estocástico es una martingala local.
kB(t)k
Considere n ≥ 2 y sea B(t) un movimiento browniano sobre Rn que inicia en el
1 1
punto a 6= 0. La función f (x) = = (x21 + x22 + · · · + x2n )− 2 es una función de
kxk
clase C 2 sobre el dominio Rn \{0}, que tiene derivadas parciales

∂f xi ∂ 2 f 1 x2i
= , = − , i = 1, 2, · · · , n.
∂xi kxk ∂x2i kxk kxk3

Entonces
n 
x2i kxk2

X 1 n 1
4f (x) = − 3
= − = (n − 1) .
kxk kxk kxk kxk kxk
i=1

Aplicando (2.34) a la función f (x) conseguimos


n Z t t
n−1
Z
X Bi (s) 1
kB(t)k = kak + dBi (s) + ds. (2.35)
0 kB(s)k 2 0 kB(s)k
i=1

En la igualdad (2.35) podemos tomar el lı́mite cuando a → 0, para el término de


la suma se puede tomar el lı́mite ya que cada integrando está acotado por 1. Para
el último término de (2.35) la justificación se presenta a continuación en el caso
cuando B(t) inicia en 0.
  Z  n
1 1 1 1
− 2t (x21 +x22 +···+x2n )
E = p √ e dx.
kB(t)k R n 2 2 2
x1 + x2 + · · · + xn 2πt

57
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Usando coordenadas polares, x = ru con r ≥ 0 y |u| = 1, la medida de Lebesgue


dx = rn−1 drdσ, donde σ es la medida de superficie sobre la esfera unitaria S n−1 =
{u ∈ Rn : kuk = 1}. Por lo tanto, conseguimos que
  Z Z ∞  n
1 1 1 r2
E = √ e− 2t rn−1 drdσ
kB(t)k S n−1 0 r 2πt
 n Z ∞ (2.36)
n−1 1 2
n−2 − r2t
= σ(S ) √ r e dr.
2πt 0

Haciendo cambio de variables r = 2ty, la integral en (2.36) se reescribe como
Z ∞ Z ∞ p 
2
n−2 − r2t
n−2 t
r e dr = 2ty e−y √ dy
0 0 2ty
1 ∞ p n−3 −y
Z
= 2ty e 2tdy
2 0
1 √ n−1 ∞ √ n−3 −y
Z
= 2t ( y) e dy
2 0
√ n−1 (2.37)
1 √ n−1 ∞ y
Z
−y
= 2t e dy
2 0 y
1 √ n−1 ∞ n−1 −1 −y
Z
= 2t y 2 e dy
2 0
1 √ n−1
 
n−1
= 2t Γ ,
2 2
donde Γ es la función gamma definida por
Z ∞
Γ(α) = xα−1 e−x dx, α > 0. (2.38)
0

Por otro lado, la medida de superficie total σ S n−1 se sabe que es




1
2π 2
σ S n−1 =  n  .

(2.39)
Γ
2
De (2.36) utilizando (2.37) y (2.39) obtenemos que
n
1 √ n−1
   
1 2π 2 1 n−1
E = √ n 2t Γ
kB(t)k Γ( n2 ) 2πt 2 2
 
n−1 (2.40)
Γ
1 2
=√ n ,
2t Γ
2

58
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

m
donde Γ para un entero positivo m tiene valor
2
 m 

 2 − 1 !, si m es par;
m 
Γ =
2
 m − 1 m − 2 · · · 3 1 √π, si m es impar.

   
2 2 22
 
1
De la igualdad (2.40) es clara la dependencia de E sobre t en el término
kB(t)k
1
√ , para cualquier dimensión n ≥ 2.
2t
Rt 1 √ t √
Observe que √ = 2s 0 = 2t < ∞ para cualquier t ∈ R+ . De modo que
0 2sds 
Rt

1
(2.40) implica que E ds < ∞. Esto muestra que la última integral de
0 kB(s)k
(2.36) se define casi con seguridad para un movimiento browniano B(t) que inicia
en 0. Por lo tanto, tomamos a = 0 en (2.36) para conseguir
n Z t t
n−1
Z
X Bi (s) 1
kB(t)k = dBi (s) + ds, (2.41)
0 kB(s)k 2 0 kB(s)k
i=1

donde B(t) es un movimiento browniano que inicia en 0, sobre Rn , n ≥ 2.

En el siguiente lema mostraremos que el término de la suma en (2.41) es en


efecto un movimiento browniano.

Lema 2.6.2. Sea B(t) = (B1 (t), B2 (t), · · · , Bn (t)) un movimiento browniano que
inicia en 0 en Rn , n ≥ 2. Entonces el proceso estocástico
n Z t
X Bi (s)
W (t) := dBi (s), (2.42)
0 kB(s)k
i=1

es un movimiento browniano.

Demostración. Se utilizará el Teorema 2.5.1 (Teorema de caracterización de Lévy)


para demostrar que W (t) es un movimiento browniano.
Tómese S la misma medida de probabilidad P, con respecto a la cual Bi (t) son mo-
vimientos brownianos para i ∈ {1, 2, · · · , n} y sea {Ft } la filtración Ft = σ{Bi (s) :
s ≤ t, 1 ≤ i ≤ n}.
Nótese que cada integrando de (2.42) tiene valor absoluto menor o igual a 1, P-c.s.
Entonces por Teorema 1.3.1 y Teorema 1.3.2, el proceso estocástico W (t) es una

59
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

martingala continua con respecto a {Ft }.


Es claro que P [{W (0) = 0}] = 1. Además, el compensador de W 2 (t) está dado por
n Z t t n Z t
Bi (s)2
Z
X 1 X
2
< W >t = ds = Bi (s) ds = 1ds = t.
0 kB(s)k2 0 kB(s)k2 0
i=1 i=1

Entonces por Teorema 2.5.1, W (t) es un movimiento browniano.

Escribiendo (2.41) en términos del movimiento browniano dado en (2.42) se


consigue que
n−1 t
Z
1
kB(t)k = W (t) + ds.
2 0 kB(s)k

Definición 2.6.3. Sea B(t) = (B1 (t), B2 (t), · · · , Bn (t)) un movimiento browniano
en Rn , n ≥ 2, que inicia en 0. El proceso estocástico
p
Ln−1 (t) = kB(t)k = B1 (t)2 + B2 (t)2 + · · · + Bn (t)2 ,

es llamado un proceso de Bessel con ı́ndice n − 1.

Teorema 2.6.4. El proceso de Bessel Ln−1 (t) con ı́ndice n − 1 es una solución de
la ecuación integral estocástica

n−1 t 1
Z
X(t) = W (t) + ds,
2 0 X(s)

n Rt B (s)
P i
donde W (t) está dado por W (t) = dBi (s).
i=1 0 kB(s)k

Teorema 2.6.5. Para cada t > 0, la función de densidad de Ln−1 está dada por
2 2

 xn−1 e− x2t , si x ≥ 0;
n
(2t) 2 Γ n2

 
f (x) =


0, si x < 0,

donde Γ es la función gamma definida en (2.38).

Demostración. Para cada t > 0 y u ≥ 0 se tiene

P [{Ln−1 (t) ≤ u}] = P {B1 (t)2 + B2 (t)2 + · · · + Bn (t)2 ≤ u2 }


 
n
(x21 +x22 +···+x2n )
Z 
1
= √ e− 2t du.
x21 +x22 +···+x2n ≤u2 2πt

60
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Usando coordenadas polares como en la derivación de (2.37), se obtiene


n Z u 
1 r2
n−1
rn−1 e− 2t dr

P [{Ln−1 (t) ≤ u}] = σ S √
2πt 0
n  n Z u
2π 2 1 r2
= n
 √ rn−1 e− 2t dr
Γ 2πt 0
Z u2
2 2
n−1 − r2t
= n
n
 r e dr.
0 (2t) 2 Γ 2

2 r2
Por lo tanto, fLn−1 (t) (u) = n
n
 un−1 e− 2t .
(2t) Γ 2
2

2.7. Procesos exponenciales


Sea h una función determinista en L2 [0, T ]. Entonces para cualquier t ∈ [0, T ],
Rt
la integral de Wiener h(s)dB(s) tiene una distribución normal con media 0 y
0
Rt
varianza σ 2 = h2 (s)ds. Por lo tanto,
0

σ2
h Rt i 1 t
R 2
E e 0 h(s)dB(s) = e 2 = e 2 0 h(s) dB(s) . (2.43)

Rt
h(s)dB(s)
La renormalización multiplicativa de e0 es definida por

1
Rt
2
h(s)dB(s) Rt Rt
1
e 0 2
h(s)dB(s)− 12 h(s)2 ds
Yt := 
Rt
 =e 0 0 .
h(s)dB(s)
E e0 

Por el Ejemplo 2.1.5, Yt tiene la representación

Rs 1 Rs
Z t h(u)dB(u)− h(u)2 dB(s)
Yt = 1 + h(s)e0 20 . (2.44)
0

Observe que el integrando de la integral de Itô en (2.44) pertenece a L2ad ([0, T ]×Ω),
entonces por Teorema 1.3.1, el proceso {Yt ; 0 ≤ t ≤ T }, es una martingala.

61
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Definición 2.7.1. El proceso exponencial dado por h ∈ Lad (Ω, L2 [0, T ]) se define
como el proceso estocástico
Z t
1 t
Z 
2
εh (t) = exp h(s)dB(s) − h(s) ds , 0 ≤ t ≤ T.
0 2 0

Aplicando la fórmula de Itô, vemos que dεh (t) = h(t)εh (t)dB(t). Por lo tanto,
Z t
εh (t) = 1 + h(s)εh (s)dB(s), 0 ≤ t ≤ T,
0

lo cual muestra que εh (t) es una martingala local por el Teorema 1.5.2.

Teorema 2.7.2. Sea h ∈ Lad Ω, L2 [0, T ] tal que satisface la siguiente condición


E [εh (t)] = 1, ∀t ∈ [0, T ]. (2.45)

Entonces, el proceso exponencial εh (t), 0 ≤ t ≤ T , dado por h es una martingala.

Demostración. Si h es una función determinista en L2 [0, T ], entonces por (2.43)


 t
Zt
 
Z
1
E [εh (t)] = E exp  h(s)dB(s) − h(s)2 ds
2
0 0
Zt
    t 
Z
1
= exp − h(s)2 ds E exp  h(s)dB(s)
2
0 0
Zt
   t 
Z
1 1
= exp − h(s)2 ds exp  h(s)2 ds
2 2
0 0
= 1.

En este caso, hemos demostrado que εh (t) es una martingala.


Por suposición, dS = εh (T )dP define una medida de probabilidad. Sea St la res-
tricción de S a Ft . La condición (2.45) implica que

dSt = εh (t)dP.

Sea s ≤ t, para cualquier A ∈ Fs tenemos que


Z Z Z
 
EP εh (t) Ft dP = εh (t)dP = dSt = S(A). (2.46)
A A A

62
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

Por otra parte, tenemos que


Z Z
εh (s)dP = dS(A). (2.47)
A A

De (2.46) y (2.47) se consigue que


Z Z
 
EP εh (s) Fs dP = εh (s)dP.
A A
 
De manera que EP εh (s) Fs = εh (s). Por lo tanto, εh (t), 0 ≤ t ≤ T , es una
martingala.

2.8. Transformación de medidas de probabi-


lidad
Sea B(t)
h un movimiento i browniano y considere el problema de calcular la es-
3 B(1)− 21
peranza E B(t) e para 0 < t ≤ 1. Tenemos dos métodos para resolver este
problema. Para el primer método es necesario expresar la variable aleatoria como
un producto de dos variables aleatorias independientes
h 1
i 1
h  i
E B(t)3 eB(1)− 2 = e− 2 E B(t)3 eB(t) eB(1)−B(t)
1
h i h i
= e− 2 E B(t)3 eB(t) E eB(1)−B(t) ,

Finalmente, calcular las esperanzas por separado.


Para el segundo método se usa la medida de probabilidad S donde
Z
1
S (A) = eB(1)− 2 dP, A ∈ F.
A

Observemos que se verifica la siguiente igualdad


h i Z Z
3 B(1)− 12 3 B(1)− 12
B(t)3 dS = ES B(t)3 .
 
EP B(t) e = B(t) e dP =
Ω Ω

En la Sección 2.7, se ha probado que Mt = B(t) − t, 0 ≤ t ≤ 1, es un movimiento


browniano con respecto a la medida de probabilidad S. Por lo tanto,
h 1
i
EP B(t)3 eB(1)− 2 = ES B(t)3
 
h i
= ES (Mt − t)3
= ES Mt3 + 3tMt + 3t3 Mt + t3
 

= 3t2 + t3 .

63
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

De lo cual es posible ver que al tomar un cambio en la medida de probabilidad, el


cálculo de la esperanza se facilita.
Teorema 2.8.1. Sea {B(t); 0 ≤ t ≤ 1}, un movimiento browniano con respecto
1
a la medida de probabilidad P. Sea S la medida de probabilidad
 dS = eB(1)− 2 dP.
Entonces para cualquier función f tal que EP f (B(t)) < ∞, tenemos que
Z Z
f (B(t) − t)dS = f (B(t))dP, (2.48)
Ω Ω

equivalentemente, ES [f (B(t) − t)] = ES [f (B(t))] .


1
Demostración. El proceso estocástico {eB(t)− 2 t ; 0 ≤ t ≤ 1} es una martingala.
Supongamos que α(t) es una función determinista. Entonces
Z h i
1 1
f (B(t) − α(t)) eB(1)− 2 dP = E f (B(t) − α(t)) eB(1)− 2

h h 1
ii
= E E f (B(t) − α(t)) eB(1)− 2 Ft
h h 1
ii
= E f (B(t) − α(t)) E eB(1)− 2 Ft (2.49)
h 1
i
= E f (B(t) − α(t)) eB(t)− 2 t
Z
1
= f (B(t) − α(t)) eB(t)− 2 t dP.

Tomando el cambio de variable y = x − α(t), es posible evaluar la última integral


como sigue
Z Z ∞
1 1 1 − x2
f (B(t) − α(t)) eB(t)− 2 t dP = f (x − α(t)) ex− 2 t √ e 2t dx
Ω −∞ 2πt
Z ∞
1 1 − 1 (y+α(t))2
= f (y) ey+α(t)− 2 t √ e 2t dx
−∞ 2πt
Z ∞
1 2 1 − 1 y2
= f (y) ey+α(t)− 2 t(2yα(t)+α(t) ) √ e 2t dx
−∞ 2πt
Z ∞
1 1 2 1 − 1 y2
= f (y) e t (t−α(t))y− 2t (t−α(t) ) √ e 2t dx
−∞ 2πt
Z
1 1 2
= f (B(t)) e t (t−α(t))B(t)− 2t (t−α(t) ) dP.

(2.50)
De (2.49) y (2.50)
Z Z
2
B(1)− 12 1 1
f (B(t) − α(t)) e dP = f (B(t)) e t (t−α(t))B(t)− 2t (t−α(t)) dP. (2.51)
Ω Ω

64
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

En particular, tomando α(t) = t en (2.51) obtenemos que


Z Z
f (B(t) − t) dS = f (B(t))dP.
Ω Ω

La fórmula en (2.48) involucra el cambio de media de probabilidad de P a S.


Considerando la función f (x) = eiλx con λ ∈ R, conseguimos que
Z Z
1 2
iλ(B(t)−t)
e dS = eiλB(t) dP = e− 2 λ t , ∀λ ∈ R.
Ω Ω

esto implica que B(t) − t tiene distribución normal con media 0 y varianza t con
respecto a la medida de probabilidad S.

2.9. Teorema de Girsanov


En secciones previas se ha visto que {B(t) − t; 0 ≤ t ≤ 1}, es un movimiento
1
browniano con respecto a la medida de probabilidad dada por dS = eB(1)− 2 dP.
Rt
En la presente sección mostraremos que si {ϕ(t) = h(s)ds; 0 ≤ t ≤ T }, con
0
h ∈ Lad (Ω, L2 [0, T ]) satisface (2.45), entonces W (t) = B(t)−ϕ(t) es un movimiento
browniano con respecto a la medida de probabilidad dS = εh (T )dP.

Lema 2.9.1. Sea θ ∈ L1 (P) no negativa tal que dµ = θdP define una medida de
probabilidad. Entonces, para cualquier σ-álgebra G ⊂ F y X ∈ L1 (µ) se verifica
que
 
  EP Xθ G
Eµ X G =   , µ-c.s.
EP θ G
R R
Demostración. Nótese que EP [|Xθ|] = |X|θdP = |X|dµ < ∞, de manera que
Ω Ω
la esperanza condicional EP [Xθ|G] está definida.
Para cada G ∈ G, de la definición de µ se tiene que
Z Z Z Z
EP [Xθ|G] dP = XθdP = Xdµ = Eµ [X|G] dµ. (2.52)
G G G G

Además, escribimos dµ = θdP y por la condición (2) de la Definición A.1.1 y la

65
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

propiedad (4) de la esperanza condicional del Apéndice A, se obtiene que


Z Z
Eµ [X|G] dµ = Eµ [X|G] θdP
G ZG
= EP [Eµ [X|G] θ|G] dP (2.53)
ZG

= Eµ [X|G] EP [θ|G] dP.


G

Luego, (2.52) y (2.53) implican que


Z Z
EP [Xθ|G] dP = Eµ [X|G] EP [θ|G] dP.
G G
 
  EP Xθ G
De manera que Eµ X G =   .
EP θ G
Suponga que h(t) es un proceso estocástico en Lad (Ω, L2 [0, T ]) que satisface la
condición (2.45), entonces el proceso exponencial εh (t) es una P-martingala. Sea S
la medida de probabilidad en (Ω, F) dada por dS = εh (T )dP, es decir,
Z
S(A) = εh (T )dP, A ∈ F.
A

Lema 2.9.2. Sea h ∈ Lad (Ω, L2 [0, T ])


que verifica la condición (2.45). Entonces
un proceso estocástico {X(t); 0 ≤ t ≤ T }, {Ft }-adaptado, es una S-martingala si
y sólo si X(t)εh (t) es una P-martingala.
Demostración. La restricción de S a Ft es la medida de probabilidad εh (t)dP. Esto
implica que X(t)εh (T ) es P-integrable si y sólo si X(t)εh (t) es P-integrable. Dado
que dS = εh (T )dP, X(t) es S-integrable si y sólo si X(t)εh (t) es P-integrable. Esto
proporciona la integrabilidad de lo que sigue, por tomar esperanza condicional.
Suponga que X(t)εh (t) es una P-martingala y sea s ≤ t, aplicando el Lema 2.9.1,
con µ = S y θ = εh (T ) se obtiene que
EP [X(t)εh (T )|Fs ]
ES [X(t)|Fs ] = . (2.54)
ES [εh (T )|Fs ]
Por el Teorema 2.7.2, εh (t) es una P-martingala, ası́ que EP [εh (T )|Fs ] = εh (s).
Por otro lado, usando las propiedades de esperanza condicional se verifica que
 
EP [X(t)εh (T )|Fs ] = EP EP [X(t)εh (T )|Ft ] Fs
 
= EP X(t)EP [εh (T )|Ft ] Fs
  (2.55)
= EP X(t)εh (t) Fs
= X(s)εh (s), P-c.s.

66
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

De (2.54) y (2.55) se concluye que


  X(s)εh (s)
ES X(t) Fs = = X(s).
εh (s)

Por lo tanto, X(t) es una S-martingala.


Suponga ahora que X(t) es una S-martingala y sea s ≤ t. Entonces, de (2.55) se
consigue que  
EP [X(t)εh (T )|Fs ] = EP X(t)εh (t) Fs . (2.56)
Además, por el Lema 2.9.1 se tiene que
     
EP X(t)εh (T ) Fs = ES X(t) Fs EP εh (t) Fs = X(s)εh (s). (2.57)

De (2.56) y (2.57),  
EP X(t)εh (t) Fs = X(s)εh (s).
Por lo tanto, X(t)εh (t) es una P-martingala.

Para un proceso estocástico h(t) en el espacio Lad (Ω, L2 [0, t]), considérese la
siguiente traslación de un movimiento browniano
Z t
W (t) = B(t) − h(s)ds, 0 ≤ t ≤ T.
0

Teorema 2.9.3. Teorema de Girsanov.


Sea h ∈ Lad (Ω, L2 ([0, T ]) y suponga que EP [εh (t)] = 1, ∀t ∈ [0, T ]. Entonces el
proceso estocástico
Z t
W (t) = B(t) − h(s)ds, 0 ≤ t ≤ T,
0

es un movimiento browniano con respecto a la medida de probabilidad dS = εh (T )dP.

Demostración. Note que las medidas de probabilidad P y S son equivalentes, en-


tonces S [{W (0) = 0}] = 1 y W (t) es un proceso estocástico continuo. Aplicando
la fórmula de Itô a εh (t) se obtiene que

dεh (t) = h(t)εh (t)dB(t).

Luego, aplicando la fórmula de Itô del producto (2.8), se consigue que

d{W (t)εh (t)} = {dW (t)}εh (t) + W (t){dεh (t)} + {dW (t)}{dh (t)}
= {dB(t) − h(t)dt}εh (t) + W (t)h(t)εh (t)dB(t) + h(t)εh (t)dt
= {1 + h(t)W (t)}εh (t)dB(t),

67
CAPÍTULO 2. FÓRMULA DE ITÔ Y ALGUNAS APLICACIONES

equivalentemente
Z t
W (t)εh (t) = {1 + h(s)W (s)}εh (s)dB(s). (2.58)
0

Por el Teorema 1.5.2, el proceso estocástico W (t)εh (t), 0 ≤ t ≤ T , es una martin-


gala local. Además, W (t)εh (t) es una P-martingala.
Por el Lema 2.9.2, W (t) es una S-martingala. En la derivación de (2.58), reempla-
zando W (t) por W (t)2 − t se consigue que
Z t
W (t)2 − t εh (t) = 2W (t) + W (t)2 − t εh (s)dB(s).
 
0

Por lo tanto, W (t)2 − t εh (t) es una P-martingala por la misma razón que el pro-


ceso estocástico W (t)εh (t) lo es. Por el Lema 2.9.2, W (t)2 − t es una S-martingala.
Más aún, la descomposición de Doob-Meyer de W (t)2 está dada por

W (t)2 = W (t)2 − t + t.


Lo cual implica que < W >t = t, para cada t, S-c.s. Por el Teorema 2.5.1, W (t) es
un movimiento browniano con respecto a S.

Corolario 2.9.4. Sea f cualquier función medible tal que EP [|f (B(t))|] < ∞.
Supongamos que se verifican las condiciones del Teorema 2.9.3 (Teorema de Gir-
sanov), entonces
Z  Z t  Z
f B(t) − h(s)ds dS = f (B(t))dP.
Ω 0 Ω

68
Capı́tulo 3

Integrales múltiples Wiener-Itô

Recordemos que dado B(t) un movimiento browniano, la integral de Wie-


Rb
ner I(f ) = f (t)dB(t) está definida para funciones deterministas f ∈ L2 [a, b].
a
Además, la variable aleatoria I(f ) tiene distribución normal con media 0 y varian-
Rb
za f (t)2 dt. En el cálculo ordinario, después de estudiar la integral unidimensional
a
se estudian integrales dobles, lo que nos induce a buscar una forma de dar sentido
a la integral doble
Z bZ b
f (t, s)dB(t)dB(s), (3.1)
a a

para una función determinista f (t, s) ∈ L2 ([a, b]×[a, b]). Para conseguir lo anterior
se consideran las ideas propuestas por Wiener e Itô.
Propuesta de Wiener
El proceso para definir la integral (3.1) consta de dos pasos, primero definir la
integral para funciones escalonadas, después definir la integral para funciones en
L2 ([a, b] × [a, b]) por aproximación de funciones escalonadas.
Suponga que f es una función escalonada dada por
n X
X m
f= aij 1[ti−1 ,ti )×[sj−1 ,sj ) ,
i=1 j=1

donde {a = t0 , t1 , · · · , tn−1 , tn = b} y {a = s0 , s1 , · · · , sm−1 , sm = b} son particio-


nes de [a, b]. Entonces la integral doble de Wiener de f se define por
Z bZ b X
(W ) f (t, s)dB(t)dB(s) := aij (B(ti ) − B(ti−1 )) (B(sj ) − B(sj−1 )) .
a a i,j

69
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Considere f = 1[0,1]×[0,1] , de modo que


Z bZ b Z 1Z 1
(W ) f (t, s)dB(t)dB(s) = (W ) 1dB(t)dB(s) = B(1)2 . (3.2)
a a 0 0

La integral doble de Wiener tiene la propiedad de separación, es decir,


Z bZ b Z b Z b
(W ) f (t)g(s)dB(t)dB(s) = (W ) f (t)dB(t) g(s)dB(s),
a a a a

donde las integrales de la derecha de la igualdad son integrales de Wiener. En


general, la esperanza de una integral doble Wieneres distinta de cero, por ejemplo
en (3.2), tomando esperanza observamos que E B(1)2 = 1. De modo que la


construcción de la integral doble en la idea de Wiener presenta el inconveniente de


que podrı́a ser no ortogonal a las funciones constantes.
Propuesta de Itô
Al igual que en la propuesta de Wiener, se consideran dos pasos para definir una
integral doble Wiener-Itô, el primer paso es definir la integral para funciones esca-
lonadas off-diagonal y el segundo paso es aproximar una función en L2 ([a, b]×[a, b])
por funciones escalonadas off-diagonal y tomar el lı́mite de la correspondiente in-
tegral.

Para motivar la noción de una función escalonada off-diagonal, considere la


R1 R1
situación de definir la integral doble 1dB(t)dB(s). Sea ∆n = {t0 , t1 , · · · , tn }
0 0
una partición del intervalo [0, 1]. Tome la partición del cuadrado unitario [0, 1)2 ,
dada por
n
[
[0, 1) = [ti−1 , ti ) × [tj−1 , tj ). (3.3)
i,j=1

Entonces, se consigue la siguiente suma de Riemann para el integrando f = 1

n
" n
#2
X X
(B(ti ) − B(ti−1 )) (B(tj ) − B(tj−1 )) = (B(ti ) − B(ti−1 )) = B(1)2 ,
i,j=1 i=1

que coincide con el valor de la integral doble de Wiener (3.2).


La idea clave de Itô es remover los cuadrados diagonales de [0, 1) × [0, 1) en (3.3),
n
[ n
[
[0, 1) × [0, 1) \ [ti−1 , ti ) × [ti−1 , ti ) = [ti−1 , ti ) × [tj−1 , tj ). (3.4)
i=1 i6=j

70
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Luego, utilizando los cuadrados restantes, obtenidos en (3.4) para formar la suma
de incrementos del movimiento browniano,
X
Sn = (B(ti ) − B(ti−1 )) (B(tj ) − B(tj−1 )) . (3.5)
i6=j

Además,
n
X n
X
Sn = (B(ti ) − B(ti−1 )) (B(tj ) − B(tj−1 )) − (B(ti ) − B(ti−1 ))2
i,j=1 i=1
n
(3.6)
X 2
2
= B(1) − (B(ti ) − B(ti−1 )) .
i=1

Recordemos que el lı́mite cuando k∆n k → 0 de la última suma en (3.6) es la


variación cuadrática de B(t) en el intervalo [0, 1] y es igual a 1. Por lo tanto,

lı́m Sn = B(1)2 − 1, en L2 (Ω).


k∆n k→0

El lı́mite anterior se define como la integral doble Wiener-Itô de f = 1,


Z 1Z 1
1dB(t)dB(s) = B(1)2 − 1, (3.7)
0 0

que es distinto del valor de (3.2).


Por otra parte, escribiendo la doble integral como una integral iterada se consigue
Z 1Z 1 Z 1 Z 1  Z 1
1dB(t)dB(s) = 1dB(s) dB(t) = B(1)dB(t). (3.8)
0 0 0 0 0

Sin embargo, la última integral de (3.8) no está definida como una integral de Itô,
ya que B(1) no es adaptada con respecto a la filtración {Ft }.
Otra manera de escribir la integral doble es expresarla como integrales iteradas
Z 1Z 1 ZZ
1dB(t)dB(s) = 2 1dB(t)dB(s)
0 0
0≤s≤t≤1
Z 1 Z t 
=2 1dB(s) dB(t) (3.9)
0 0
Z 1
=2 B(t)dB(t)
0
= B(1)2 − 1,

71
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

la cual es la integral doble en (3.7).


Para saber cómo definir la integral doble Wiener-Itô, nos enfocaremos en la suma
(3.5). Esta es la integral doble de la siguiente función escalonada off-diagonal
X
fn = 1[ti−1 ,ti )×[tj−1 ,tj ) .
i6=j

Observe que cuando k∆n k → 0,


Z 1Z 1 n
2
X
1 − fn (t, s) dtds = (ti − ti−1 )2 ≤ k∆n k(1 − 0) → 0.
0 0 i=1

Por lo tanto, la función f = 1 es aproximada por la sucesión {fn }n∈N de funcio-


nes escalonadas off-diagonal que son compatibles con cuadrados fuera de la lı́nea
diagonal.
En la siguiente sección se presentará la construcción de la integral doble de mane-
ra formal, que está basada en las ideas de Wiener e Itô. En secciones posteriores,
generalizaremos a integrales múltiples con ayuda de los Polinomios de Hermite y
del caos homogéneo.

3.1. Integrales dobles Wiener-Itô


El objetivo de la presente sección es definir la integral doble Wiener-Itô
Z bZ b
f (t, s)dB(t)dB(s), para f ∈ L2 ([a, b] × [a, b]).
a a

Sea D := {(t, s) ∈ [a, b] × [a, b]; t = s} que denota la diagonal del cuadrado [a, b] ×
[a, b]. Por un rectángulo en esta sección, nos referimos a un subconjunto de [a, b] ×
[a, b] de la forma [t1 , t2 ) × [s1 , s2 ).

Definición 3.1.1. Una función escalonada off-diagonal sobre el cuadrado [a, b] ×


[a, b] se define como una función de la forma
X
f= aij 1[ti−1 ,ti )×[tj−1 ,tj ) , (3.10)
i6=j

donde a = t0 < t1 < t2 < · · · < tn = b

Note que una función escalonada off-diagonal desaparece en la diagonal D. Por


lo tanto, la función f = 1 en [a, b]×[a, b] no es una función escalonada off-diagonal.
Si A = [t1 , t2 ) × [s1 , s2 ) es un rectángulo disjunto de la diagonal D, entonces 1A

72
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

puede ser escrita en forma de la ecuación (3.10), tomando el conjunto {t1 , t2 , s1 , s2 }


como los puntos de una partición de [a, b]. De manera que 1A es una función esca-
lonada off-diagonal.
Más generalmente, suponga que A1 , A2 , · · · , An son rectángulos disjuntos de la dia-
n
P
gonal D, entonces la función f = ai 1Ai es una función escalonada off-diagonal
i=1
para cualesquiera a1 , a2 , · · · , an ∈ R. Este hecho implica que si f y g son funciones
escalonadas off-diagonal, entonces af + bg es una función escalonada off-diagonal
para cualesquiera a, b ∈ R. Por lo tanto, el conjunto de funciones escalonadas off-
diagonal es un espacio vectorial.
Para una función escalonada off-diagonal f dada por (3.10), se define la integral
doble Wiener-Itô, que denotamos por I2 (·), como sigue
X
I2 (f ) := aij (B(ti ) − B(ti−1 )) . (3.11)
i6=j

Note que la representación de una función escalonada off- diagonal f en (3.10) no


es única, pero es fácil ver que I2 (f ) está definida de manera única.
Además, para cualesquiera f y g funciones escalonadas off- diagonal y a, b ∈ R,

I2 (af + bg) = aI2 (f ) + bI2 (f ),

es decir, I2 es lineal.

Definición 3.1.2. Sea f : Rn −→ R una función, la simetrización de f , denotada


por fˆ, se define como
1 X
fˆ(t1 , t2 , ..., tn ) = f (tσ(1) , tσ(2) , · · · , tσ(n) ),
n! σ

donde la suma es sobre todas las permutaciones σ del conjunto {1, 2, · · · , n}.

En particular, la simetrización fˆ(t, s) de una función f (t, s) está definida por

1
fˆ(t, s) = (f (t, s) + f (s, t)) .
2

Observación 3.1.3. 1. fˆ es una función simétrica, además si f es una fun-


ción simétrica entonces fˆ = f .

2. En general, kfˆk ≤ kf k, la desigualdad estricta puede ocurrir, por ejemplo


considérese la función f (t, s) = t en [0, 1] × [0, 1], la simetrización de f es

73
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

1 R1 R1 7
fˆ(t, s) = (t + s) y kfˆk2 = fˆ(t, s)2 dtds = .
2 0 0 24
1 R1 1
Por otra parte, kf k2 = f (t, s)2 dtds = , entonces ocurre que kfˆk < kf k.
R
0 0 3
3. La operación de simetrización es lineal, esto es,
\
(af + bg) = afˆ + bĝ,

para cualesquiera a, b ∈ R.

4. Si f es una función escalonada off-diagonal, entonces fˆ es una función es-


calonada off-diagonal.

Lema 3.1.4. Sea f una función escalonada off-diagonal. Entonces I2 (f ) = I2 (fˆ).

Demostración. Se sabe que I2 y la operación de simetrización son lineales, de


modo que es suficiente probar el lema para el caso en que f = 1[t1 ,t2 )×[s1 ,s2 ) con
[t1 , t2 ) ∩ [s1 , s2 ) = ∅. La simetrización de f está dada por
1
fˆ =

1[t1 ,t2 )×[s1 ,s2 ) + 1[s1 ,s2 )×[t1 ,t2 ) .
2
Por la definición de I2 en (3.11) se tiene que

I2 (f ) = (B(t2 ) − B(t1 )) (B(s2 ) − B(s1 )) ;


1
I2 (fˆ) = [(B(t2 ) − B(t1 )) (B(s2 ) − B(s1 )) + (B(s2 ) − B(s1 )) (B(t2 ) − B(t1 ))]
2
= (B(t2 ) − B(t1 )) (B(s2 ) − B(s1 )) .

Por lo tanto, I2 (f ) = I2 (fˆ).

Lema 3.1.5. Sea f una función escalonada off-diagonal, entonces E [I2 (f )] = 0 y


Z bZ b
2
fˆ(t, s)2 dtds.
 
E I2 (f ) = 2 (3.12)
a a

Demostración. Sea f una función escalonada off-diagonal, entonces I2 (f ) está dada


por (3.11). Observe que los intervalos [ti−1 , ti ) y [tj−1 , tj ) son disjuntos cuando
i 6= j, de modo que tomando la esperanza en (3.11) se concluye que E [I2 (f )] = 0.
Para probar (3.12), supongamos que f es simétrica, para este caso, aij = aji para
todo i 6= j. Escribimos ξi = B(ti ) − B(ti−1 ), entonces
X X
I2 (f ) = aij ξi ξj = 2 aij ξi ξj .
i6=j i<j

74
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Por lo tanto, tenemos


XX
E I2 (f )2 = 4
 
aij apq E [ξi ξj ξp ξq ] . (3.13)
i<j p<q

Sea i < j fijo, observando la posición de los intervalos podemos ver fácilmente
que si p 6= i entonces E [ξi ξj ξp ξq ] = 0 para todo q > p y si p 6= j, entonces
E [ξi ξj ξp ξq ] = 0 para todo p < q.
Por lo tanto, para i < j fijo, la suma sobre p < q en (3.13) se reduce únicamente
a un término dado por p = i y q = j, de manera que
X
E I2 (f )2 = 4 a2ij E ξi2 ξj2
   

i<j
X
=4 aij (ti − ti−1 )(tj − tj−1 )
i<j
X
=2 a2ij (ti − ti−1 )(tj − tj−1 )
i6=j
Z bZ b
=2 f (t, s)2 dtds.
a a

Finalmente, para cualquier función escalonada off-diagonal f , por el Lema 3.1.4 se


tiene que I2 (f ) = I2 (fˆ). Por lo tanto,
h i Z bZ b
2 ˆ 2
f (t, s)2 dtds.
 
E I2 (f ) = E I2 (f ) = 2
a a

Veamos la aproximación por funciones escalonadas off-diagonal dada por el


siguiente lema.

Lema 3.1.6. Sea f una función en L2 ([a, b] × [a, b]). Entonces existe una sucesión
{fn }n∈N de funciones escalonadas off-diagonal tal que
Z bZ b
2
lı́m f (t, s) − fn (t, s) dtds = 0. (3.14)
n→∞ a a

Demostración. Por el Lema 3.1.5, E I2 (f )2 = 2kfˆk2 para cualquier función es-


 

calonada off-diagonalf y como kfˆk ≤ kf k se verifica que E I2 (f )2 ≤ 2kf k2 . La


 

desigualdad anterior muestra que podemos extender el mapeo I2 a L2 ([a, b] × [a, b])
siempre que cada función en L2 ([a, b] × [a, b]) pueda ser aproximada por una suce-
sión de funciones escalonadas off-diagonal.

75
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Suponga que f es una función en L2 ([a, b]×[a, b]), denotemos por Dδ al conjunto
de puntos en [a, b] × [a, b] que tienen distancia menor que δ de la diagonal D.
Dado ε > 0, elegimos δ > 0 suficientemente pequeño tal que
ZZ
ε
f (t, s)2 dtds < . (3.15)
Dδ 2

Sea Dδ{ = ([a, b] × [a, b]) \ Dδ y considérese la restricción de f a Dδ{ . Entonces,


n
ai 1Ai con rectángulos Ai ⊂ Dδ{ para todo
P
existe una función φ de la forma φ =
i=1
1 ≤ i ≤ n tal que ZZ
2 ε
f (t, s) − φ(t, s) dtds < . (3.16)
Dδ{ 2
Observemos que la función φ solo está definida en DδC y desaparece en D, de
manera que considerando (3.15) y (3.16) se obtiene que
Z bZ b
2
f (t, s) − φ(t, s) < ε.
a a

Por lo tanto, φ es una función escalonada off-diagonal.


Para extender el mapeo I2 al espacio L2 ([a, b] × [a, b]), sea f ∈ L2 ([a, b] × [a, b]),
por el Lema 3.1.6 existe una sucesión {fn }n∈N de funciones escalonadas off-diagonal
que convergen a f en este espacio. Entonces de la linealidad de I2 y por el Lema
3.1.5, se tiene que
h i h i
E (I2 (fn ) − I2 (fm ))2 = E (I2 (fn − fm ))2 = 2kfˆn −fˆm k2 ≤ 2kfn −fm k2 . (3.17)

La última desigualdad de (3.17), converge a 0 cuando n, m → ∞. Por lo tanto, la


sucesión {I2 (fn )}n∈N es de Cauchy en L2 (Ω).
Entonces, defina
I2 (f ) := lı́m I2 (fn ), en L2 (Ω). (3.18)
n→∞
Es fácil ver que I2 (f ) está bien definida, es decir, que no depende de la selección
de la sucesión {fn }n∈N .
Definición 3.1.7. Sea f ∈ L2 ([a, b] × [a, b]). El lı́mite I2 (f ) en (3.18) es llamada
la integral Rdoble Wiener-Itô de f .
bRb
Usaremos a a f (t, s)dB(t)dB(s) para denotar la integral doble Wiener-Itô I2 (f )
de f .
Los Lemas 3.1.4 y 3.1.5 pueden ser extendidos para funciones en L2 ([a, b]×[a, b]),
de manera que, usando la aproximación en el Lema 3.1.6 y la Definición 3.1.7 se
establece la extensión en el siguiente teorema.

76
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Teorema 3.1.8. Sea f (t, s) ∈ L2 ([a, b] × [a, b]). Entonces


1. I2 (f ) = I2 (fˆ), donde fˆ es la simetrización de f .
2. E [I2 (f )] = 0.
3. E I2 (f )2 = 2kfˆk2 , donde k · k es la norma sobre L2 ([a, b] × [a, b]).
 

Existe una relación importante entre las integrales dobles Wiener-Itô y las in-
tegrales Iteradas Itô, que está dada por el siguiente teorema.
Teorema 3.1.9. Sea f (t, s) ∈ L2 ([a, b] × [a, b]). Entonces
Z bZ b Z b Z t 
f (t, s)dB(t)dB(s) = 2 fˆ(t, s)dB(s) dB(t), (3.19)
a a a a

donde fˆ es la simetrización de f .
Antes de abordar la demostración, observemos que la integral interior Xt =
Rt   Rt
fˆ(t, s)dB(s) es una integral de Wiener con E Xt2 = fˆ(t, s)2 ds, de manera que
a a
Z b Z b Z t 
1 1
E Xt2 dt = fˆ(t, s)2 ds dt = kfˆk2 ≤ kf k2 < ∞,
 
a a a 2 2
lo cual muestra que el proceso estocástico Xt pertenece a Lad ([a, b]×Ω) y la integral
Rb
a Xt dB(t) es una integral de Itô.

Demostración. Considérese el caso en que f = 1[t1 ,t2 )×[s1 ,s2 ) con [t1 , t2 ) ∩ [s1 , s2 ) =
∅. La simetrización de f está dada por
1
fˆ =

1[t1 ,t2 )×[s1 ,s2 ) + 1[s1 ,s2 )×[t1 ,t2 ) .
2
Sin pérdida de generalidad suponga que s1 < s2 < t1 < t2 (para el otro caso
t1 < t1 < s1 < s2 , solo intercambiamos [s1 , s2 ) con [t1 , t2 ), por definición de I2 (f )
Z bZ b
f (t, s)dB(t)dB(s) = (B(t2 ) − B(t1 )) (B(s2 ) − B(s1 )) . (3.20)
a a

Por otro lado, se consigue


Z b Z t  Z t2 Z s2 
1
fˆ(t, s)dB(s) dB(t) = 1dB(s) dB(t)
a a 2 t1 s1
1 t2
Z
= (B(s2 ) − B(s1 )) dB(t) (3.21)
2 t1
1
= (B(s2 ) − B(s1 )) (B(t2 ) − B(t1 )) .
2

77
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

De manera que de (3.20) y (3.21) se obtiene (3.18).


Luego por la linealidad de I2 y de la operación de simetrización, (3.18) se cumple
para cualquier función escalonada off-diagonal. Finalmente, el teorema se sigue del
Lema 3.1.6.

La generalización de la integral doble Wiener-Itô se realizará más adelante,


después de estudiar el caos homogéneo.

3.2. Polinomios de Hermite


Sea ν la medida Guaussiana con media 0 y varianza ρ, esto es,

1 − 1 x2
dν(x) = √ e 2ρ dx.
2πρ

Considere la sucesión 1, x, x2 , · · · , xn , · · · de monomios en el espacio de Hilbert


real L2 (Ω). Aplicando el proceso de ortogonalización de Gram-Schmidt a esta
sucesión, en orden de incremento de potencias, se obtienen los polinomios ortogo-
nales P0 (x), P1 (x), · · · , Pn (x), · · · en el espacio de Hilbert L2 (Ω), donde P0 (x) = 1
y Pn (x) es un polinomio de grado n, n ≥ 1, con coeficiente principal 1.

Para la función θ(t, x) = etx , la esperanza de θ(t, ·) con respecto a la medida ν


está dada por Z ∞
1 − 1 x2 1 2
Eν [θ(t, x)] = etx √ e 2ρ dx = e 2 ρt . (3.22)
−∞ 2πρ
La renormalización multiplicativa ψ(t, x) de θ(t, x) está definida por

θ(t, x) 1 2
ψ(t, x) = = etx− 2 ρt .
Eν [θ(t, x)]

Es posible expandir la función ψ(t, x) como una serie de potencias en t. Note que
los coeficientes de tn en la expansión en serie depende de n, x y ρ, denotemos por
Hn (x; ρ)
a tales coeficientes. Entonces, tenemos la identidad
n!

1 2
X Hn (x; ρ)
etx− 2 ρt = tn . (3.23)
n!
n=0

P∞ zn
Por otro lado, usando la serie de potencias ez = n=0 es posible encontrar los
n!

78
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

coeficientes de tn , de manera que escribimos


1 2 1 2
etx− 2 ρt = etx e− 2 ρt
x2 (−ρ)m 2m
  
−ρ 2
= 1 + xt + · · · + tn + o(h) 1 + t + ··· + t + o(h) .
n! 2 m!2m
(3.24)

Realizando el producto de la última igualdad en (3.24), se obtiene que el coeficiente


de tn está dado por

xn xn−2 (−ρ) xn−2k (−ρ)k


+ + ··· + + π(n, x), (3.25)
n! (n − 2)! 2 (n − 2k)! k!2k
donde  n−1
x (−ρ) 2
 n−1 , n es impar;


1
 
 (n + 1) ! n−1
π(n, x) = 2 2 !2 2 (3.26)
n
 (−ρ) 2
 n n , n es par.


2 !2
2

Observe que si es n es impar π(n, x) está en términos de x, mientras que si n es


par π(n, x) es constante en x.
Hn (x; ρ)
Por (3.23) el coeficiente de tn está dado por . Por lo tanto,
n!
 n
xn−2 (−ρ) xn−2k (−ρ)k

x
Hn (x; ρ) = n! + + ··· + + π(n, x)
n! (n − 2)! 2 (n − 2k)! k!2k
n! n!
= xn + (−ρ)xn−2 + · · · + (−ρ)k xn−2k + π(n, x).
(n − 2)!2 (n − 2k)!k!2k
(3.27)

Además,  
n! n
= (2k − 1)!!, (3.28)
(n − 2k)!k!2k 2k
donde (2k−1)!! = (2k−1)(2k−3) · · · 3·1 y por convención (−1)!! = 1. La expresión
en (3.28) representa el número de maneras de escoger k pares de un conjunto de
n distintos objetos.
Ahora, usando (3.28) es posible expresar Hn (x; ρ) como sigue
n
[2]  
X n
Hn (x; ρ) = (2k − 1)!!(−ρ)k xn−2k . (3.29)
2k
k=0

Note que Hn (x; ρ) es un polinomio en x de grado n con coeficiente principal 1.

79
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Definición 3.2.1. El polinomio Hn (x; ρ) en (3.29) es llamado el polinomio de


Hermite de grado n con parámetro ρ.

Teorema 3.2.2. Sea Hn (x; ρ) el polinomio de Hermite de grado n. Entonces


x2 2
− x2ρ
Hn (x; ρ) = (−ρ)n e 2ρ Dx(n) e ,

donde Dx es el operador diferenciación en la variable x.

Demostración. Sea Hn (x; ρ) el polinomio de Hermite de grado n, observe que el


exponente del lado izquierdo de (3.23), se puede escribir como

x 2 x2
 
1 2 1
tx − ρt = − ρ t − + .
2 2 ρ 2ρ

De (3.23) se obtiene
 2 ∞
x2 − 12 ρ t− x
X Hn (x; ρ)
e 2ρ e ρ
= tn . (3.30)
n!
n=0

Diferenciando n veces ambos lados de (3.30) en la variable t y haciendo t = 0, se


consigue   2 
x2 (n) − 1 t− x
Hn (x; ρ) = e 2ρ Dt e 2 ρ
. (3.31)
t=0
 2  2
(n) − 12 ρ t− x n (n) − 12 ρ t− x
Note que Dt e ρ
= (−ρ) Dx e ρ
. Por lo tanto, de (3.31)
  2 
x2 1 x
n (n) − 2 ρ t− ρ
Hn (x; ρ) = e 2ρ (−ρ) Dx e
t=0
x2 2
−x
= (−ρ)n e 2ρ Dx(n) e 2ρ .

Observación 3.2.3. Si se verifica que los polinomios Hn (x; ρ), n = 0, 1, · · · son


ortogonales, entonces podemos concluir que Hn (x; ρ) = Pn (x).

Teorema 3.2.4. Sea ν la medida Gaussiana con media 0 y varianza ρ. Enton-


ces los polinomios de Hermite Hn (x; ρ), para n ≥ 0, son ortogonales en L2 (Ω).
Además, se tiene que
Z ∞
Hn (x; ρ)2 dν(x) = n!ρn , n ≥ 0. (3.32)
−∞

80
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

1 2 P∞ Hn (x; ρ) n 1 2
Demostración. Sean s, t ∈ R, por (3.23) etx− 2 ρt = n=0 t y esx− 2 ρs =
n!
P∞ Hm (x; ρ) m
m=0 s . Entonces
m!

1 2 +s2 )
X tn sm
e(t+s)x− 2 ρ(t = Hn (x; ρ)Hm (x; ρ). (3.33)
m!n!
m,n=0

Por (3.22)
Z ∞ Z ∞
(t+s)x− 12 ρ(t2 +s2 ) − 12 ρ(t2 +s2 )
e dν(x) = e e(t+s)x dν(x)
−∞ −∞
− 12 ρ(t2 +s2 ) 1
ρ(t+s)2
=e e 2

ρts
=e .
Integrando en ambos lado de (3.33) se obtiene

sm tn ∞
X Z
ρts
e = Hm (x; ρ)Hn (x; ρ)dν(x). (3.34)
m!n! −∞
m,n=0

Como el lado izquierdo de (3.34) es una función del producto de st, el coeficiente
de sm tn del lado derecho de (3.34) debe ser cero para cualesquiera m, n distintos,
esto es, Z ∞
Hm (x; ρ)Hn (x; ρ) = 0, ∀m 6= n. (3.35)
−∞

Por lo tanto, los polinomios Hermite son ortogonales en L2 (Ω).


Además, de (3.34) se deduce que

(st)n ∞
X Z
ρst
e = Hn (x; ρ)2 dν(x).
(n!)2 −∞
n=0

Expresando a eρst en su expansión en serie de potencias tenemos que


∞ ∞
ρn (st)n ∞
X X Z
(st)n = Hn (x; ρ)2 dν(x).
n! (n!)2 −∞
n=0 n=0

Entonces
∞ ∞ ∞
ρn (st)n
X X Z
n
(st) − Hn (x; ρ)2 dν(x) = 0.
n! (n!)2 −∞
n=0 n=0
Luego
∞ 
(st)2 1 ∞
X  Z 
n 2
ρ − Hn (x; ρ) dν(x) = 0,
n! n! −∞
n=0

81
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

De manera que Z ∞
n1
ρ − Hn (x; ρ)2 dν(x) = 0, ∀n ≥ 0.
n! −∞

Por lo tanto, Z ∞
Hn (x; ρ)2 dν(x) = ρn n!, ∀n ≥ 0.
−∞

 
Hn (x; ρ)
Por el Teorema 3.2.4, la colección √ n ; n = 0, 1, 2, · · · es un sistema
n!ρ
ortonormal. Además, es posible mostrar que su complemento ortogonal es {0},
de modo que esta colección forma una base ortonormal para L2 (Ω). Entonces
obtenemos el siguiente teorema.

Teorema 3.2.5. Sea ν la medida Gaussiana con media 0 y varianza ρ. Entonces


cualquier función f en L2 (Ω) tiene una única expansión en serie

X Hn (x; ρ)
f (x) = an √ n , (3.36)
n=0
n!ρ

1 R∞
donde los coeficientes an están dados por an = √ n −∞ f (x)Hn (x; ρ)dν(x), n ≥
n!ρ
0. Además, kf k2 = ∞ 2.
P
a
n=0 n

A continuación, se enlistan algunas identidades de los polinomios Hermite.


1 2
∞ tn
1. Función generadora: etx− 2 ρt =
P
Hn (x; ρ).
n=0 n!

[n
2
]
n
xn (2k − 1)!!ρk Hn−2k (x; ρ).
P 
2. Monomios: = 2k
k=0

3. Fórmula de recursión: Hn+1 (x; ρ) = xHn (x; ρ) − ρnHn−1 (x; ρ).

4. Derivada: Dx Hn (x; ρ) = nHn−1 (x; ρ).


 
(2)
5. Eigenfunciones: −ρDx + xDx Hn (x; ρ) = nHn (x; ρ).

n∧m
n m
ρk Hn+m−2k (x; ρ).
P  
6. Producto: Hn (x; ρ)Hm (x; ρ) = k! k k
k=0

∂ 1 ∂2
7. Derivadas parciales: Hn (x; ρ) = − Hn (x; ρ).
∂ρ 2 ∂x2

82
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

3.3. Caos homogéneo


Sea ν la medida Gaussiana sobre R con media 0 y varianza ρ. Por el Teorema
3.2.5, cada función en el espacio de Hilbert L2 (Ω) tiene una única expansión en
serie por los polinomios Hermite Hn (x; ρ), n ≥ 0. Sea C el espacio de Banach de
funciones continuas f con valores reales sobre [0, 1], tales que f (0) = 0 y sea µ̂
la medida de Wiener sobre C. El espacio de Wiener (C, µ̂) es infinito-dimensional,
análogo al espacio unidimensional (R, ν). Entonces, surge la pregunta ¿Cuál es la
ecuación análoga a (3.36) para el espacio de Hilbert L2 (µ̂) de funciones cuadrado
integrables sobre el espacio de Wiener (C, µ̂)?.

Por el Teorema A.2.7 (Ver Apéndice), el proceso estocástico {B(t, ω) = ω(t); 0 ≤


t ≤ 1, ω ∈ C}, es un movimiento browniano. Para evitar que se restrinja al intervalo
[0, 1], será considerada una situación un poco más general que la pregunta anterior.

Sea (Ω, F, P) un espacio de probabilidad fijo y sea B(t) un movimiento brow-


niano con respecto a P. Fijando un intervalo [a, b] y recordando que para una
Rb
función f ∈ L2 [a, b], la integral de Wiener f (t)dB(t) es medible con respecto a la
a
σ-álgebra F B = σ{B(t); a ≤ t ≤ b} que es más pequeña que F. En general, ocurre
que F B 6= F. Una función F B -medible en Ω, puede ser referida como una función
browniana. Denotemos por L2B (Ω) al espacio de Hilbert de funciones P-cuadrado
integrables sobre Ω que son medibles con respecto a F B . Note que L2B (Ω) es un
subespacio de L2 (Ω). Ahora, la pregunta es ¿Cuál es la ecuación análoga a (3.36)
para el espacio L2B (Ω) de funciones cuadrado integrables sobre el espacio de pro-
babilidad (Ω, F, P)?.
Note que cuando Ω = C y P = µ̂, se tiene F = F B = B(C), donde B(C) es la
σ-álgebra de Borel de C, por lo tanto, la pregunta anterior se reduce a la pregunta
inicial.
Probaremos un lema que será utilizado más adelante.
Lema 3.3.1. Sea (Ω, G, P) un espacio de probabilidad y sea
 {Gn } una filtración tal
Gn } = G. Suponga que X ∈ L1 (Ω), entonces E X Gn converge a X en
S
que σ{
n∈N
L1 (Ω), cuando n → ∞.
S
Demostración. Sea ε > 0, dado que σ{ Gn } = G, entonces existen ai ∈ R, Ai ∈
n∈N
S k
P
Gn con Sε = ai 1Ai , tal que
n∈N i=1

ε
kX − Sε k1 < , (3.37)
2

83
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

donde k · k1 es la norma en L1 (Ω).


Observe que
       
kX − E X Gn k1 = kX + (−Sε + Sε ) + −E Sε Gn + E Sε Gn − E X Gn k1
   
= k (X − Sε ) + Sε + −E Sε Gn + E Sε − X Gn k1
   
≤ kX − Sε k1 + kSε + −E Sε Gn k1 + kE Sε − X Gn k1 .
(3.38)
   
Además, por la desigualdad de Jensen E Sε − X Gn ≤ E |Sε − X| Gn . To-
mando esperanza en la desigualdad anterior, se consigue
ε
kE [Sε |Gn ] k ≤ E [|Sε − X|] = kSε − Xk1 < . (3.39)
2
S
Si Ai ∈ Gn , con i = 1, · · · , k, existe N ∈ N tal que Ai ∈ GN para todo
n∈N
i = 1, · · · , k, de modo que

E [Sε |Gn ] = Sε , ∀n ≥ N. (3.40)

Utilizando (3.37), (3.39) y (3.40) en (3.38), se concluye que

kX − E [X|Gn ] k1 ≤ ε, ∀n ≥ N.

Por lo tanto, Xn converge a X en L1 (Ω), cuando n → ∞.

Regresando al movimiento browniano B(t) en el espacio de probabilidad (Ω, F B , P),


Rb
sea I(f ) = f (t)dB(t) la integral de Wiener de f ∈ L2 [a, b]. Un producto
a

I(f1 )I(f2 ) · · · I(fk ),

con f1 , f2 , · · · , fk ∈ L2 [a, b] es llamado caos polinómico de orden k.

Sea J0 = R y n ∈ N, defina Jn como la L2B (Ω)-cerradura del espacio lineal


generado por funciones constantes y polinomios de caos de grado menor o igual a
n. Entonces
J0 ⊂ J1 ⊂ · · · ⊂ Jn ⊂ · · · ⊂ L2B (Ω).
S∞
Teorema 3.3.2. La unión n=0 Jn es denso en L2B (Ω).

Demostración. Sea {en }n∈N una base ortonormal para L2 [a, b] y sea Gn la σ-álgebra
generada por I(e1 ), I(e2 ), · · · , I(en ). Entonces {Gn } es una filtración y tenemos que

84
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ


Gn } = F B . Sea φ ∈ L2B (Ω) ortogonal a
S S
σ{ Jn . Entonces para cualquier n
n∈N n=0
fijo h i
E φI(e1 )k1 I(e2 )k2 · · · I(en )kn = 0, ∀k1 , k2 , · · · kn ≥ 0.

Como I(e1 )k1 I(e2 )k2 · · · I(en )kn es Gn - medible, se tiene la siguiente igualdad
h i h i
E φI(e1 )k1 I(e2 )k2 · · · I(en )kn = E I(e1 )k1 I(e2 )k2 · · · I(en )kn E [φ|Gn ] .

Por lo que E I(e1 )k1 I(e2 )k2 · · · I(en )kn E [φ|Gn ] = 0.


 

Note que las variables aleatorias I(e1 ), I(e2 ), · · · , · · · , I(en ) son independientes con
la misma distribución normal estándar. Además,

E [φ|Gn ] = θn (I(e1 , e2 , · · · , en )) , (3.41)

para alguna función medible θn sobre Rn .


Entonces para todo k1 , k2 , · · · , kn ≥ 0,
Z
xk11 xk22 · · · xknn θn (x1 , x2 , · · · , xn )dµ(x) = 0,
Rn

donde µ es la medida Gaussiana estándar sobre Rn .


Por (3.30), la igualdad anterior implica que para cualesquiera enteros k1 , k2 , · · · , kn ≥
0, Z
Hk1 (x1 ; 1)Hk2 (x2 ; 1) · · · Hkn (xn ; 1)dµ(x) = 0.
Rn

Por el Teorema 3.2.5, {Hk1 (x1 ; 1), Hk2 (x2 ; 1), · · · , Hkn (xn ; 1); k1 , k2 , · · · , kn ≥ 0}
es una base ortogonal para L2 (R2 , µ), entonces θn = 0, µ-c.s. Entonces de (3.41)
se tiene que
E [φ|Gn ] = 0, µ-c.s. para cualquier n ≥ 1.
Por otro lado, por el Lema 3.3.1, E [φ|Gn ] converge a φ en L2B (Ω) cuando n → ∞.

Jn es denso en L2B (Ω).
S
Por lo tanto, φ = 0 P-c.s. lo cual prueba que
n=0

Sea K0 = R, para cada n ≥ 1, definimos Kn como el complemento ortogonal


de Jn−1 en Jn , es decir,
Jn = Jn−1 ⊕ Kn .
Entonces tenemos la siguiente sucesión de subespacios ortogonales del espacio de
Hilbert L2B (Ω)
K0 , K1 , K2 , · · · , Kn , · · · .

85
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Definición 3.3.3. Para cada n ∈ N, el elemento del espacio de Hilbert Kn es


llamado caos homogéneo de orden n.

Los espacios Kn , n ≥ 1 son infinito-dimensionales. El caos homogéneo de grado


1, es decir K1 , son las variables aleatorias Gaussianas.
El siguiente teorema se sigue del Teorema 3.3.2 y la construcción de caos ho-
mogéneo.

Teorema 3.3.4. El espacio L2B (Ω) es la suma directa ortogonal de los espacios
Kn de caos homogéneo de orden n ≥ 0, es decir,

M
L2B (Ω) = Ki .
i=0

Cada función φ ∈ L2B (Ω) tiene una única expansión de caos homogéneo


X
φ= φn . (3.42)
n=0

P∞
Además, kφk2 = 2
n=0 kφn k , donde k · k es la norma en L2B (Ω).

Rb
Ejemplo 3.3.5. Sea f ∈ L2 [a, b] y I(f ) = f (t)dB(t). Observe que
a

I(f )2 = kf k2 + I(f )2 − kf k2 .


Un cálculo directo muestra que I(f )2 − kf k2 es ortogonal a K0 y K1 , de modo que


I(f )2 − kf k2 pertenece a K2 . Por otra parte, considere la integral doble Wiener-Itô
Rb Rb
f (t)f (s)dB(t)dB(s). Por el Teorema 3.1.9
a a

Z bZ b Z b Z t  Z b
f (t)f (s)dB(t)dB(s) = 2 f (t) f (s)dB(s) dB(t) = 2 f (t)Xt dB(t),
a a a a a

Rt
donde Xt = f (s)dB(s).
a
Luego dXt = f (t)dB(t), usando la fórmula producto de Itô (2.8) se consigue

d(Xt2 ) = 2Xt dYt + (dXt )2 = 2f (t)Xt dB(t) + f (t)2 dt,

86
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

lo cual nos da la integral estocástica


Z b Z b
2 2
2 f (t)Xt dB(t) = Xb − Xa − f (t)2 dt
a a
b 2 Z b
(3.43)
Z
= f (s)dB(s) − f (t)2 dt
a a
2 2
= I(f ) − kf k .
De (3.42) y (3.43) se obtiene que
Z bZ b
f (t)f (s)dB(t)dB(s) = I(f )2 − kf k2 . (3.44)
a a

Esta igualdad muestra que el caos homogéneo I(f )2 − kf k2 es una integral doble
Wiener-Itô.
Teorema 3.3.6. Sea Pn la proyección ortogonal de L2B (Ω) sobre Kn . Si f1 , · · · , fk
son funciones ortogonales distintas de cero en L2 [a, b] y n1 , n2 , · · · , nk son enteros
no negativos, entonces

Pn (I(f1 )n1 · · · I(fk )nk ) = Hn1 I(f1 ); kf1 k2 · · · Hnk I(fk ); kfk k2 ,
 
(3.45)
k
P
donde n = ni . En particular, se tiene
i=1

Pn (I(f )n ) = Hn I(f ); kf k2 ,

(3.46)

para cualquier f 6= 0 en L2 [a, b].


Demostración. Únicamente se probará la ecuación (3.46).
De la identidad (2) de los polinomios de Hermite se consigue
n
[2]  
n
X n
I(f ) = (2k − 1)!!(kf k2 )k Hn−2k (I(f ); kf k2 ). (3.47)
2k
k=0

Todos los términos, excepto el primero del lado derecho de (3.47) son ortogonales
a Kn , ya que tienen grado menor o igual que n. De manera que es suficiente probar

Hn I(f ), kf k2 ⊥ Jn−1 ,


o equivalentemente, para cualesquiera g1 , · · · , gm ∈ L2 [a, b] distintos de cero y


0 ≤ m ≤ n − 1,
m
" #
Y
E Hn I(f ); kf k2

I(gi )I(g1 ) = 0. (3.48)
i=1

87
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Es posible asumir que g1 , · · · , gm son ortogonales. Además, cada gi para i =


1, 2, · · · , m se puede escribir como gi = ci f + hi , ci ∈ R y hi ⊥ f .
Para demostrar (3.48), es suficiente ver que para cualesquiera h1 , · · · , hm funciones
distintas de cero y ortogonales a f con p + q1 + · · · + qm ≤ n − 1,

E Hn I(f ); kf k2 I(f )p I(h1 )q1 · · · I(hm )qm = 0.


  

Finalmente, usando (3.47), se observa que es suficiente probar que, para cuales-
quiera 0 ≤ r + r1 + · · · + rm ≤ n − 1, se cumple que
m
" #
Y
E Hn I(f ); kf k2 Hr I(f ); kf k2 Hri I(hi ); khi k2 = 0.
  

i=1

Dado que las variables aleatorias I(f ), I(h1 ), · · · , I(hm ) son independientes, es
suficiente verificar que para cualesquiera r ≤ n − 1,

E Hn I(f ); kf k2 Hr I(f ); kf k2 = 0.
  

Lo cual se sigue del Teorema 3.2.5.

Ejemplo 3.3.7. Sea f ∈ L2 [a, b] una función distinta de cero. Tomando x = I(f )
y ρ = kf k2 en (3.23) se tiene que
∞ n
1 2 t2
X t
etI(f )− 2 kf k Hn I(f ); kf k2 .

= (3.49)
n!
n=0

Por el Teorema 3.3.6, Hn I(f ); kf k2 ∈ Kn para cada n ≥ 0, de manera que




(3.49) da la expansión de caos homogéneo en la ecuación (3.42) para la función


1 2
φ = etI(f )− 2 kf k .

3.4. Base ortonormal para caos homogéneo


Por el Teorema 3.3.4, 2
2
L∞ LB (Ω) es la suma directa ortogonal de caos homogéneos,
es decir, LB (Ω) = i=0 Ki . ¿Cuál es la análoga suma directa ortogonal para la
medida Gaussiana estándar sobre R?. Observe que por (3.36), el correspondiente
espacio para cada Kn es el espacio unidimensional generado por polinomios de
Hermite Hn (x, 1). Lo cual nos da una pista para encontrar una base ortonormal
para L2B (Ω) que puede ser usado para expansión en series de funciones en L2B (Ω).
Entonces, hemos respondido a la segunda pregunta del inicio de la sección ante-
rior. Sin embargo, en el caso de L2B (Ω) cada espacio Kn , n ∈ N, es un espacio de
Hilbert infinito-dimensional.

88
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Sea f ∈ L2 [a, b], denotemos por f a la integral de Wiener, es decir, f = I(f ) =


Rb
f (t)dB(t). Para esta sección, fijemos {ek }k∈N una base ortonormal para L2 [a, b].
a

Para una sucesión {nk }k∈N de enteros no negativos con suma finita, defina
Y 1 1 1
Hn1 ,n2 ,··· = √ Hnk (ek ; 1) = √ Hn1 (e1 ; 1) √ Hn2 (e2 ; 1) · · · . (3.50)
k∈N
nk ! n1 ! n2 !

Observe que H0 (x; 1) = 1 y solo existe un número finito de nk ’s, de manera que
el producto en (3.50) es un producto de factores finitos.


P
Ejemplo 3.4.1. Suponga que ni = 1, tal ecuación tiene infinitas soluciones
i=1
dadas por 1, 0, 0, · · · ; 0, 1, 0, · · · ; 0, 0, 1, · · · ; · · · . Por lo tanto, conseguimos las co-
rrespondientes funciones en , n = 1, 2, 3, · · · , los cuales están en el espacio K1 de
caos homogéneo de orden 1.

P
Ejemplo 3.4.2. Considere ni = 2, las soluciones de la ecuación anterior están
i=1
dadas para nk = 2, para algún k ∈ N y cero para los restantes ı́ndices o ni = nj = 1
para dos ı́ndices distintos i, j ∈ N y cero para los ı́ndices restantes. Entonces
conseguimos las funciones

1
√ I(ek )2 − 1 , k ∈ N ; I(ei )I(ej ), i 6= j, i, j ∈ N.

2

Los cuales pertenecen al espacio K2 de caos homogéneo de orden 2.



P
Lema 3.4.3. La colección de funciones {Hn1 ,n2 ,··· ; ni = n} es un subconjunto
i=1
de Kn , para cada n ∈ N. Además, el espacio lineal generado por esta colección de
funciones es denso en Kn .

Demostración. La primera afirmación, se sigue de Teorema 3.3.2. Para la segunda,


argumentos similares a los utilizados en la demostración de Teorema 3.3.2 muestran
que
E [φHn1 ,n2 ,··· ] = 0, ∀n1 , n2 , · · · ≥ 0, implica que φ = 0. (3.51)

Supongamos que φ ∈ Kn es ortonormal a Hn1 ,n1 ,··· para todo n1 , n2 , · · · tales que

P
ni = n. Entonces Pn φ = φ y E [φHn1 ,n2 ,··· ] = 0 para todos los nk ’s, donde Pn es
i=1

89
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

la proyección ortogonal de L2B (Ω) sobre Kn . Además, para cualesquiera n1 , n2 , · · ·


se observa que


P
 Hn1 ,n2 ,··· , si ni = n;


i=1
Pn = (3.52)


0, otro caso.

Entonces, para cualesquiera n1 , n2 , · · · ≥ 0

E [φHn1 ,n2 .··· ] = hφ, Hn1 ,n2 ,··· i


= hPn φ, Hn1 ,n2 ,··· i
= hφ, Pn Hn1 ,n2 ,··· i
= E [φ (Pn Hn1 ,n2 ,··· )]
= 0,

donde h·, ·i es el producto interior en el espacio de Hilbert L2B (Ω). Por la impli-
cación (3.51), concluimos que φ = 0. Por lo tanto, el espacio lineal generado por

P
{Hn1 ,n2 ,··· ; ni = n} es denso en Kn .
i=1

Teorema 3.4.4. La colección de funciones



X
{Hn1 ,n2 ,··· ; ni = n}, (3.53)
i=1

es una base ortonormal para el espacio Kn de caos homogéneo de orden n, ∀n ∈ N.

Demostración. Por el Lema 3.4.3, solo se necesita probar que la colección (3.53)
es un sistema ortonormal.
Para cada k, usamos (3.32) para demostrar que
Z
kHnk (ek ; 1) k2 = Hnk (ek ; 1)2 dν
ZΩ∞
1 x2
= Hnk (ek ; 1)2 √ e− 2 dx.
−∞ 2π
= n!.

Note que las variables aleatorias e1 , e2 , · · · , son independientes, de modo que de


(3.50) se tiene que kHn1 ,n2 ,··· k2 = 1, entonces todas las funciones en (3.53) tienen
norma 1.
Veamos que las funciones en (3.53) son ortogonales, para ello, sea {nk }k∈N y

90
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

{jk }k∈N dos sucesiones distintas de enteros no negativos, sin importar si sus ele-
mentos tienen la misma suma. Entonces existe algún k0 ∈ N tal que nk0 6= jk0 . Por
simplicidad, sea
1 1
φk = √ Hnk (ek ; 1) , θk = √ Hjk (ek ; 1) .
nk ! jk !
De la independencias de e1 , e2 , · · · y (3.35) se verifica que
   
Y Y
E [Hn1 ,n2 ,··· Hj1 ,j2 ,··· ] = E φk0 θk0 φk θk  = E [φk0 θk0 ] E  φk θk  = 0.
k6=K0 k6=K0

Por lo tanto, Hn1 ,n2 ,··· y Hj1 ,j2 ,··· son ortogonales.

Ejemplo 3.4.5. Suponga que f ∈ L2 [a, b] tiene expansión f =
P
an en , donde
n=1
an = hf, en i. Entonces la expansión de I(f ) ∈ K1 en L2B (Ω) está dada por

X
I(f ) = an I(en ).
n=1

La expansión anterior, es un caso especial del Teorema 3.4.4 cuando n = 1, pero


también se sigue del hecho de que el mapeo I : L2 [a, b] → L2B (Ω) es una isometrı́a.

an en ∈ L2 [a, b] como en el Ejemplo 3.4.5. La base
P
Ejemplo 3.4.6. Sea f =
n=1
ortonormal en el Teorema 3.4.4 para el caso n = 2 está dado por
1
ξk = (ek − 1) , k ∈ N ; ηij = ei ej , i 6= j, i, j ∈ N.
2
Por Teorema 3.3.6, P2 (I(f )2 ) = I(f )2 − kf k2 pertenece al espacio K2 . Nótese que

P2 (I(f )2 ), ξk = I(f )2 , P2 ξk = I(f )2 , ξk .

De manera que para cada k ≥ 1,


 

X 1
P2 (I(f )2 ), ξk = E I(f )2 ξk = E 
 
ai aj ei ej (ek − 1) .
2
i,j=1

Observe que la esperanza es cero, excepto posiblemente cuando i = j = k. Ası́,


1  √
P2 (I(f )2 ), ξk = √ a2k E e2k e2k − 1 = 2a2k .

2

91
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Similarmente, es posible verificar que para cualesquiera i 6= j, i, j ∈ N

P2 (I(f )2 ), ηij = 2ai aj .

Por lo tanto, la expansión de P2 (I(f )2 ) está dada por



2
X √ 1  X
P2 (I(f ) ) = 2a2k √ I(ek )2 − 1 + 2ai aj I(ei )I(ej ).
k=1
2 i<j

Posteriormente se da un ejemplo concreto de la expansión de funciones f y


P2 (I(f )2 ) en los espacios L2 [a, b] y K2 , respectivamente.
Una base ortonormal para L2 [0, 1] está dada por

 
1
en (t) = 2 sin (n − )πt , n = 1, 2, 3, · · · .
2
Considere f (t) = t, usando integración por partes se consigue
Z 1 √ −2

  
1 1
an = t 2 sin (n − )πt dt = (−1)2 2 (n − )π .
0 2 2
De esta manera, f (t) tiene expansión
∞ −2
√ √
  
X
n 1 1
f (t) = (−1) 2 (n − )πt 2 sin (n − )πt .
2 2
n=1

Además, la expansión de la proyección está dada por



X 1 −4 X 1 −2 1 −2
P2 (I(f )2 ) = 2 (−1)i+j (i− )π

(k − )π ek −1 +4 (j − )π ei ej .
2 2 2
k=1 i<j

Finalmente, por el Teorema 3.4.4 podemos responder a la pregunta planteada en


el inicio de la Sección 3.3 con el siguiente teorema.

P
Teorema 3.4.7. La colección de funciones {Hn1 ,n2 ,··· ; ni = n, n = 0, 1, 2, · · · }
i=1
es una base ortonormal para el espacio de Hilbert L2B (Ω). Cada φ ∈ L2B (Ω) tiene
una única expansión en serie dada por

X X
φ= an1 ,n2 ,··· Hn1 ,n2 ,··· ,
P∞
n=0 i=1 ni =n
R
donde an1 ,n2 ,··· = Eν [φHn1 ,n2 ,··· ] = φHn1 ,n2 ,··· dν.

92
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

3.5. Integrales múltiples Wiener-Itô


Recordando que B(t) es un movimiento browniano fijo y L2B (Ω) es el espacio
de Hilbert de variables aleatorias cuadrado integrables en el espacio de probabi-
lidad (Ω, F B , P). Por el Teorema 3.3.4, el espacio L2B (Ω) es la suma directa de
espacios ortogonales Kn , n ∈ N. En el Ejemplo 3.3.5 se muestra que I(f )2 − kf k2
para f ∈ L2 [a, b], es la integral doble Wiener-Itô. Es razonable esperar que exista
una correspondencia uno a uno entre el caos homogéneo de orden 2 y la integral
doble Wiener-Itô, lo que nos induce a preguntar: ¿Todos los caos homogéneos de
orden n ≥ 2 están dados por algún tipo de integral?. En la siguiente sección se
demostrará que existe una correspondencia uno a uno entre el caos homogéneo y
las integrales múltiples Wiener-Itô.

Como primer objetivo en esta sección, deseamos definir la integral múltiple


Wiener-Itô. Denotemos por [a, b]n , al n-producto cartesiano [a, b]×[a, b]×· · ·×[a, b].
Sea f ∈ L2 ([a, b]n ), deseamos definir
Z
f (t1 , t2 , · · · , tn )dB(t1 )dB(t2 ) · · · dB(tn ).
[a,b]n

Sea D = {(t1 , t2 , · · · , tn ) ∈ [a, b]n ; ∃i 6= j tal que ti = tj } el conjunto diagonal de


(1) (2) (1) (2) (1) (2)
[a, b]n . Un subconjunto de [a, b]n de la forma [t1 , t1 ) × [t2 , t2 ) × · · · × [tn , tn )
es llamado rectángulo.
Primero se abordará el caso para funciones escalonadas off-diagonal.
Una función escalonada en [a, b]n es una función de la forma
X
f= ai1 ,i2 ,··· ,in 1[τi1 −1 ,τi1 )×[τi2 −1 ,τi2 )×···×[τin −1 ,τin ) ,
1≤i1 ,i2 ,··· ,in ≤k

donde a = τ0 < τ1 < τ2 < · · · < τk = b. Una función escalonada off-diagonal es


una función escalonada con coeficientes que satisfacen la condición

ai1 ,i2 ,··· ,in = 0, si ip = iq para algún p 6= q. (3.54)

La condición en (3.54) significa que la función f desaparece sobre el conjunto D.


La colección de funciones escalonadas off-diagonal es un espacio vectorial.

Para una función escalonada off-diagonal, la integral múltiple Wiener-Itô, de-


notada por In (f ) se define como
X
In (f ) = ai1 ,i2 ,··· ,in ξi1 ξi2 · · · ξin , (3.55)
1≤i1 ,i2 ,··· ,in ≤k

93
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

donde ξip = B(τip ) − B(τip −1 ), 1 ≤ p ≤ n.


In (f ) está bien definida, es decir, no depende de la representación de f . Además,
In (f ) es lineal sobre el espacio vectorial de funciones escalonadas off-diagonal.
Recordando la Definición 3.1.2 y dado que la medida de Lebesgue es simétrica se
tiene que
Z Z
2 2
f (tσ(1) , · · · , tσ(n) ) dt1 · · · dtn = f (t1 , · · · , tn ) dt1 · · · dtn ,
[a,b]n [a,b]n

para cualquier permutación σ. Por la desigualdad del triángulo


1 X 1
kfˆk ≤ kf k = n!kf k = kf k.
n! σ n!

Entonces kfˆk ≤ kf k.
Lema 3.5.1. Si f es una función escalonada off-diagonal, entonces In (f ) = In (fˆ).
Demostración. Como In y el operador simetrización son operadores lineales, es
suficiente demostrar el lema para el caso
f = 1[t(1) ,t(2) )×[t(1) ,t(2) )×···×[t(1) ,t(2) ) ,
1 1 2 2 n n

(1) (2)
donde los intervalos [ti , ti ), i ∈ {1, 2, · · · , n} son disjuntos. Entonces
n  
(2) (1)
Y
In (f ) = B(ti ) − B(ti ) . (3.56)
i=1

Por otro lado, la simetrización fˆ de f está dada por


1 X
fˆ = 1 (1) (2) (1) (2) .
n! σ [tσ(1) ,tσ(1) )×···×[tσ(n) ,tσ(n) )

De manera que
n
1 XY (2) (1)

In (fˆ) = B(tσ(i) ) − B(tσ(i) ) .
n! σ
i=1
n   Q n  
Q (2) (1) (2) (1)
Observe que B(tσ(i) ) − B(tσ(i) ) = B(ti ) − B(ti ) para cualquier per-
i=1 i=1
mutación σ.
Además, se tienen n! permutaciones para el conjunto {1, 2, · · · , n}, entonces
n n 
ˆ 1 XY (2) (1)
 Y
(2) (1)

In (f ) = B(tσ(i) ) − B(tσ(i) ) = B(ti ) − B(ti ) . (3.57)
n! σ
i=1 i=1

En consecuencia, de (3.56) y (3.57) concluimos que In (f ) = In (fˆ).

94
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Lema 3.5.2. Sea f una función escalonada off-diagonal, entonces E [In (f )] = 0 y


Z
2
2
fˆ(t1 , t2 , · · · , tn ) dt1 dt2 · · · dtn .
 
E In (f ) = n! (3.58)
[a,b]n

Demostración. Sea f una función escalonada off-diagonal, entonces In (f ) está da-


da por (3.55). Dado que la función f satisface la condición (3.54), los coeficientes
ai1 ,i2 ,··· ,in deben ser cero cuando los intervalos [τi1 −1 , τi1 ), [τi2 −1 , τi2 ), · · · , [τin −1 , τin )
no son disjuntos. Cuando los intervalos son disjuntos, el correspondiente producto
ξi1 ξi2 · · · ξin tiene esperanza cero. Por lo tanto, E [In (f )] .
Por Lema 3.5.1, In (f ) = In (fˆ), de modo que es posible asumir que f es simetriza-
ble. En este caso
aiσ(1) ,iσ(2) ,··· ,iσ(n) = ai1 ,i2 ,··· ,in ,
para cualquier permutación σ. Entonces In (f ) en (3.55) puede se escrita como
X
In (f ) = n! ai1 ,i2 ,··· ,in ξi1 ξi2 · · · ξin .
1≤i1 <i2 <···<in ≤k

Por lo que
X X
E In (f )2 = (n!)2
 
ai1 ,i2 ,··· ,in aj1 ,··· ,jn E [ξi1 · · · ξin ξj1 · · · ξjn ] .
i1 <···<in j1 <···<jn

Observe que para un conjunto fijo de ı́ndices i1 < i2 , · · · < in , se tiene que
 n 
Q


 τip − τip −1 , si j1 = i1 , · · · , jn = in ;
p=1
E [ξi1 · · · ξin ξj1 · · · ξjn ] =


0, otro caso.

En consecuencia
X n
Y
E In (f )2 = (n!)2 a2i1 ,i2 ,··· ,in
  
τip − τip −1
i1 <···<in p=1
X n
Y
a2i1 ,i2 ,··· ,in

= n! τip − τip −1
i1 ,··· ,in p=1
Z
= n! f (t1 , t2 , · · · , tn )2 dt1 dt2 · · · dtn .
[a,b]n

95
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

A continuación, aproximaremos cualquier función en L2 [a, b] por funciones es-


calonadas off-diagonal para definir la integral múltiple
S Wiener-Itô.
El conjunto D se puede reescribir como D̂ = i6=j [{ti = tj } ∩ D], lo que signi-
fica que D̂ = D es una unión finita de intersecciones de hiperplanos (n − 1)-
dimensionales con D. Por lo tanto, la medida de Lebesgue es cero para D.
Usando el hecho anterior y adoptando argumentos similares a los realizados
en la derivación de (3.14) y complementando con (3.15) y (3.16) se obtiene la
demostración del siguiente lema.

Lema 3.5.3. Sea f ∈ L2 ([a, b]n ), entonces existe una sucesión {fk }k∈N de funcio-
nes escalonadas off-diagonal tal que
Z
2
lı́m f (t1 , t2 , · · · , tn ) − fk (t1 , t2 , · · · , tn ) dt1 dt2 · · · dtn = 0. (3.59)
k→∞ [a,b]n

Ahora, suponga que f ∈ L2 ([a, b]n ). Seleccione una sucesión {fk }k∈N de funcio-
nes escalonadas off-diagonal que convergen a f en L2 ([a, b]n ), cuya existencia está
garantizada por el Lema 3.5.3. Entonces por la linealidad de In y del Lema 3.5.2
se sigue que
h i
E (In (fk ) − In (fl ))2 = n!kfˆk − fˆl k2 ≤ n!kfk − fl k2 . (3.60)

Cuando k, l → ∞, el lado derecho de (3.60) converge a cero. Por lo tanto, la


sucesión {In (fk )}k∈N es de Cauchy en L2 (Ω). Sea

In (f ) := lı́m In (fk ), en L2 (Ω), (3.61)


k→∞

el cual está bien definido, es decir, no depende de la selección de la sucesión


{fk }k∈N .

Definición 3.5.4. Sea f ∈ L2 [a, b]n , el lı́mite In (f ) en (3.61) es llamado la integral


múltiple Wiener-Itô de f , denotada por
Z
f (t1 , t2 , · · · , tn )dB(t1 )dB(t2 ) · · · dB(tn ).
[a,b]n

Los Lemas 3.5.1 y 3.5.2 pueden ser extendidos a funciones en L2 ([a, b]n ) usando
el Lema 3.5.3 y la definición de la integral múltiple Wiener-Itô. Se establece este
hecho en el siguiente teorema.

Teorema 3.5.5. Sean f ∈ L2 ([a, b]n ), n ≥ 1, se verifican

1. In (f ) = In (fˆ), donde fˆ es la simetrización de f.

96
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

2. E [In (f )] = 0.
3. E In (f )2 = n!kfˆk2 , donde k · k es la norma en L2 (Ω).
 

El siguiente teorema nos proporciona una expresión para escribir una integral
múltiple Wiener-Itô como una integral iterada, lo cual facilita su cálculo.
Teorema 3.5.6. Sea f ∈ L2 ([a, b]n ), n ≥ 2. Entonces
Z
f (t1 , t2 , · · · , tn )dB(t1 )dB(t2 ) · · · dB(tn )
[a,b]n
Z b Z tn−2 Z tn−1 
= n! ··· ˆ
f (t1 , t2 , · · · , tn )dB(tn ) dB(tn−1 ) · · · dB(t1 ),
a a a

donde fˆ es la simetrización de f .
Demostración. Es suficiente demostrar el teorema para el caso en que f es la
función caracterı́stica de un rectángulo que es disjunto del conjunto D. Por el
Lema 3.5.1, asumimos que f es de la forma
f = 1[t(1) ,t(2) )×[t(1) ,t(2) )×···×[t(1) ,t(2) ) ,
1 1 2 2 n n

(1) (2) (1) (2) (1) (2) (1) (2)


donde tn < tn ≤ tn−1 < tn−1 ≤ · · · ≤ t2 < t2 ≤ t1 < t1 . Entonces la
integral múltiple Wiener-Itô de f está dada por
Z n  
(1)
Y
f (t1 , t2 , · · · , tn )dB(t1 )dB(t2 ) · · · dB(tn ) = B(ti (2)) − B(ti ) . (3.62)
[a,b]n i=1

1
Por otra parte, note que fˆ = f sobre la región tn < tn−1 < · · · < t1 , de modo
n!
que
Z tn −1
1  
fˆ(t1 , t2 , · · · , tn )dB(tn ) = 1[t(1) ,t(2) )×[t(1) ,t(2) )×···×[t(1) ,t(2) ) B(t(2)
n ) − B(t(1)
n ) ,
a n! 1 1 2 2 n−1 n−1

el cual es Ft(1) -medible y puede ser considerado como un proceso estocástico


n−1
(1) (2)
constante para la integración sobre el intervalo [tn−1 , tn−1 ] con respecto a dB(tn−1 ).
Repitiendo los argumentos anteriores se obtiene que
Z b Z tn−2 Z tn−1 
··· ˆ
f (t1 , t2 , · · · , tn )dB(tn ) dB(tn−1 ) · · · dB(t1 )
a a a
n (3.63)
1 Y (2) (1)

= B(ti ) − B(ti ) .
n!
i=1

De (3.62) y (3.63) se obtiene la conclusión del teorema.

97
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Definición 3.5.7. Sean g1 , g2 , · · · , gn ∈ L2 [a, b]. El producto tensor g1 ⊗ · · · ⊗ gn


está definido como la función

g1 ⊗ · · · ⊗ gn (t1 , t2 , · · · , tn ) = g1 (t1 ) · · · gn (tn ).

El producto tensor f1⊗n1 ⊗ · · · ⊗ fk⊗nk significa que fj se repite nj veces, 1 ≤ j ≤ k.

Teorema 3.5.8. Sean f1 , f2 , · · · , fk funciones ortogonales distintas de cero en


L2 [a, b] y sean n1 , · · · , nk enteros positivos. Entonces
k
In (f1⊗n1 fk⊗nk )
Y
Hn I(fj ); kfj k2 ,

⊗ ··· ⊗ = (3.64)
j=1

k
ni = n. En particular, para cualquier f ∈ L2 [a, b] distinta de cero,
P
donde
i=1

In (f ⊗n ) = Hn I(f ); kf k2 .

(3.65)

Demostración. Primero se demostrará (3.65). El caso n = 1 se sigue de manera


inmediata. Cuando n = 2, se ha verificado por (3.44). En general para n ∈ N , se
usará inducción matemática. Suponga que (3.65) es válida para n. Por el Teorema
3.5.5 se tiene que
Z Z b
f (t1 ) · · · f (tn+1 )dB(t1 ) · · · dB(tn+1 ) = (n + 1)! f (t1 )Xt1 dB(t1 ),
[a,b]n+1 a

donde Z t Z tn 
Xt = ··· f (t2 ) · · · f (tn+1 )dB(tn+1 ) · · · dB(t2 ).
a a
Por el Teorema 3.5.5 y la inducción sobre n se llega a
Z
1
Xt = f (t2 ) · · · f (tn+1 )dB(t2 ) · · · dB(tn+1 )
n! [a,b]n
Z t Z t 
1 2
= Hn f (s)dB(s); f (s) ds .
n! a a

Por lo tanto, se tiene la igualdad


Z
f (t1 ) · · · f (tn+1 )dB(t1 ) · · · dB(tn+1 )
[a,b]n+1
Z b Z t Z t  (3.66)
2
= (n + 1) f (t1 )Hn f (s)dB(s); f (s) ds dB(t1 ).
a a a

98
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Aplicando la fórmula de Itô dada en el Teorema 2.1.2 a Hn+1 (x; ρ) se consigue


Z t Z t 
2
dHn+1 f (s)dB(s); f (s) ds
a a
(3.67)
1 ∂2
     
∂ 2 ∂
= Hn+1 f (t)dB(t) + f (t) dt + Hn+1 f (t)2 dt.
∂x 2 ∂x2 ∂ρ

Recordando las identidades:


Hn+1 (x; ρ) = (n + 1)Hn (x : ρ),
∂x
(3.68)
∂ 1 ∂2
Hn+1 (x; ρ) = − Hn+1 (x : ρ).
∂ρ 2 ∂x2

De (3.67) y (3.68) se obtiene que


Z t  Z t
2
dHn+1 f (s)dB(s); f (s) ds
a a
Z t Z t  (3.69)
2
= (n + 1)f (t)Hn f (s)dB(s); f (s) ds dB(t),
a a

Integrando sobre [a, b] en (3.69), se consigue la igualdad


Z t Z t 
2
Hn+1 f (s)dB(s); f (s) ds
a a
Z b Z t Z t  (3.70)
2
= (n + 1) f (t)Hn f (s)dB(s); f (s) ds dB(t).
a a a

Por (3.66) y (3.70) se ha demostrado que (3.65) es válida para n + 1. Por lo tanto,
(3.65) es válida para cada n ∈ N ∪ {0}.

Para demostrar (3.64), sea f = I(f ), para cualesquiera r1 , r2 , · · · , rk ∈ R, por


(3.49) se consigue

k k k
" #
X 1X 2 Y 1 2 2
exp ri f i − ri kfi k2 = eri f i − 2 ri kfi k
2
i=1 i=1 i=1
k X∞
(3.71)
Y rini
Hni f i ; kfi k2 .

=
ni !
i=1 ni =0

99
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

k
P
Además, por (3.49) tomando t = 1 y f = ri f i ,
i=1
" k k
# k
X 1X 2 Y 1 2 2
exp ri f i − 2
ri kfi k = eri f i − 2 ri kfi k
2
i=1 i=1 i=1
(3.72)
∞ k k
!
X 1 X 1X 2
= Hm ri f i ; ri kfi k2 .
m! 2
m=0 i=1 i=1

Aplicando la ecuación (3.65) a Hm en la última igualdad del lado derecho de (3.72)


se obtiene

" k k
# Z m X
" k #
X 1X 2 2
X 1 Y
exp ri f i − ri kfi k = ri fi (tj ) dB(t1 ) · · · dB(tm ).
2 m! [a,b]m
i=1 i=1 m=0 j=1 i=1
(3.73)
Finalmente, comparando los coeficientes de r1n1 , r2n2 · · · , rknk en las partes derechas
de (3.71) y (3.73), se sigue (3.64).

Para finalizar esta sección se demostrará un teorema sobre la ortogonalidad de


In (f ) e Im (g) en el espacio de Hilbert L2B (Ω) cuando n 6= m.

Teorema 3.5.9. Sean f ∈ L2 ([a, b]n ) y g ∈ L2 ([a, b]m ) con n 6= m. Entonces


E [In (f )Im (g)] = 0.

Demostración. Es suficiente demostrar el teorema para f y g de la siguiente forma

f = 1[t(1) ,t(2) )×[t(1) ,t(2) )×···×[t(1) ,t(2) ) , g = 1[s(1) ,s(2) )×[s(1) ,s(2) )×···×[s(1) ,s(2) ) ,
1 1 2 2 n n 1 1 2 2 m m

donde los intervalos satisfacen la condición


(1) (2) (1) (2) (1) (2)
t(1) (2)
n < tn ≤ tn−1 < tn−1 ≤ · · · ≤ t2 < t2 ≤ t1 < t1 ,

(1) (2) (1) (2) (1) (2)


s(1) (2)
m < sm ≤ sm−1 < sm−1 ≤ · · · ≤ s2 < s2 ≤ s1 < s1 .

Entonces In (f )Im (g) está dada por


" n 
# m 
 Y  
(2) (1) (2) (1)
Y
In (f )Im (g) = B(ti ) − B(ti )  B(sj ) − B(sj )  . (3.74)
i=1 j=1

(k) (l)
Ordenando los puntos ti , tj , i = 1, · · · , n, j = 1, · · · , m y k, l ∈ {1, 2}, formamos
un conjunto de puntos creciente τ1 < τ2 < · · · < τr con r ≤ n + m. Entonces
cada factor del primer producto en (3.74) se puede escribir como una suma de

100
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

incrementos de B(t) en los τ −intervalos. Por lo tanto, al multiplicar los n factores,


cada término en el primer producto del lado derecho de (3.74) debe ser de la forma
(B(τi1 ) − B(τi1 −1 )) · · · (B(τin ) − B(τin −1 )) , (3.75)
donde τi1 < · · · < τin . Similarmente, cada término en el segundo producto del lado
derecho de (3.74) debe ser de la forma
(B(τj1 ) − B(τj1 −1 )) · · · (B(τjm ) − B(τjm −1 )) , (3.76)
donde τj1 < · · · < τjm . Es fácil ver que el producto de ecuaciones (3.75) y (3.76)
tienen esperanza cero, ya que n 6= m. Entonces por (3.73), E [In (f )Im (g)] = 0.

3.6. Teorema de Wiener-Itô


Sea L2sim ([a, b]n ) el espacio real de Hilbert de funciones simetrizables cuadrado
integrables sobre [a, b]n . Recuerde los siguientes hechos:
1. Por el Teorema 3.3.4, se tiene
Luna descomposición de L2B (Ω) como una suma
2 ∞
directa ortogonal LB (Ω) = i=0 Ki .

P
2. La colección {Hn1 ,n2 ,··· ; ni = n} es una base ortonormal para Kn , por el
i=1
Teorema 3.4.4.
3. Por el Teorema 3.5.5, E In (f )2 = n!kf k2 para cualquier f ∈ L2sim ([a, b]n ).
 
1
Por lo tanto, el mapeo √ In : L2sim ([a, b]n ) → L2B (Ω) es una isometrı́a.
n!
4. Las integrales múltiples Wiener-Itô están relacionadas con polinomios de
Hermite de integrales Wiener, por el Teorema 3.5.8.
De los hechos (2) y (4) el caos homogéneo debe estar relacionado a las integrales
múltiples Wiener-Itô. En efecto, el caos homogéneo de orden n son exactamente
las integrales múltiples Wiener-Itô de orden n.
Teorema 3.6.1. Sea n ≥ 1, si f ∈ L2 ([a, b]n ), entonces In (f ) ∈ Kn . Inversa-
mente, si φ ∈ Kn , entonces existe una única función f ∈ L2sim ([a, b]n ) tal que
φ = In (f ).
Demostración. Sean f1⊗n1 ⊗f
ˆ 2⊗n2 ⊗ ˆ k⊗nk la simetrización de la función f1⊗n1 ⊗
ˆ · · · ⊗f
⊗n2 ⊗nk ∞
f2 ⊗ · · · ⊗ fk y {ek }k=1 una base ortonormal para L2 [a, b].
Sabemos que la colección de funciones
√ ∞
n! ⊗n1 ˆ ⊗n2 ˆ
X
{√ e ⊗e2 ⊗ · · · ; ni = n},
n1 !n2 ! · · · 1 i=1

101
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

forma una base ortonormal para L2sim ([a, b]).


Supongamos que f ∈ L2 ([a, b]n ) es una función simetrizable, ya que In (f ) = In (fˆ)
por el Teorema 3.5.5. Entonces f puede ser escrito como

n!
e⊗n 1 ˆ ⊗n2 ˆ
X
f= an1 ,n2 ,··· √ 1 ⊗e1 ⊗ · · · ,
P∞ n1 !n2 ! · · ·
i=1 ni =n

donde los coeficientes satisfacen la condición


X
kf k2 = a2n1 ,n2 ,··· < ∞.
P∞
i=1 ni =n

Usando (3.50) y (3.64) se consigue



X n! Y
In (f ) = an1 ,n2 ,··· √ Hn (ej ; 1)
P∞ n1 !n2 ! · · · j∈N j
i=1 ni =n
√ X
= n! an1 ,n2 ,··· Hn1 ,n2 ,··· .
P∞
i=1 ni =n

Por Teorema 3.4.4, se tiene que


X
kI( f )k2 = n! a2n1 ,n2 ,··· = n!kf k2 < ∞.
P∞
i=1 ni =n

De manera que In (f ) ∈ Kn .

Inversamente, suponga que φ ∈ Kn . Por el Teorema 3.4.4, φ puede ser expresado


como X
φ= bn1 ,n2 ,··· Hn1 ,n2 ,··· .
P∞
i=1 ni =n

Defina f en [a, b]n por


1
e⊗n1 ⊗e
ˆ ⊗n
X
2 ˆ
f= bn1 ,n2 ,··· √ ⊗··· .
P∞ n1 !n2 ! · · · 1 2
i=1 ni =n

Entonces, por argumentos anteriores, se tiene que


1 X 1
kf k2 = bn1 ,n2 ,··· = kφk2 < ∞.
n! P∞ n!
i=1 ni =n

Esto muestra que f ∈ L2sim ([a, b]). Además, de forma análoga se demuestra que
In (f ) = φ.

102
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Para demostrar la unicidad, suponga que existe g ∈ L2sim ([a, b]n ) tal que In (g) = φ,
entonces
1 1
kf − gk = √ kIn (f − g)k = √ kIn (f ) − In (g)k = 0,
n! n!
lo cual implica que f = g.

{In (f ); f ∈ L2sim ([a, b]n )}.


Observación 3.6.2. Del Teorema 3.6.1 se sigue que Kn = √
Además, por el Teorema 3.5.5 se tiene que kIn (f )k = n!kf k para toda f ∈
L2sim ([a, b]n ).

El siguiente teorema se sigue del Teorema 3.3.4 y del Teorema 3.6.1.

Teorema 3.6.3. Teorema de Wiener-Itô.


El espacio L2B (Ω) puede ser descompuesto en suma directa ortogonal

M
L2B (Ω) = Ki ,
i=0

donde Ki consiste de integrales múltiples Wiener-Itô de orden i. Cada función


φ ∈ L2B (Ω) puede ser representado únicamente por

X
φ= In (fn ), fn ∈ L2sim ([a, b]n ), (3.77)
n=0

además, se tiene la siguiente identidad



X
2
kφk = n!kfn k2 .
n=0

Dada una función φ ∈ L2B (Ω), ¿Cómo podemos obtener las funciones fn , n ∈
N ∪ {0}, en (3.77)?. Se dará respuesta a la pregunta anterior usando el concepto
de derivada de la teorı́a de ruido blanco.

Definición 3.6.4. Sea φ = In (f ), f ∈ L2sim ([a, b]). La derivada variacional de φ


está definida por

φ = nIn−1 (fn (t, ·)) , (3.78)
∂t
donde el lado derecho de (3.78) es 0 cuando n = 0. En particular, se verifica que

I(f ) = f (t).
∂t

103
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Teorema 3.6.5. Suponga φ ∈ L2B (Ω) y que todas las derivadas variacionales
existen y tienen esperanza dada por

∂n
 
1
fn (t1 , t2 , · · · , tn ) = E φ .
n! ∂t1 ∂t2 · · · ∂tn

Entonces, la expansión Wiener-Itô de φ está dada por



X
φ= In (fn ).
n=0

Demostración. Supongamos que φ ∈ L2B (Ω) está representado por (3.77). Apli-

cando el operador n veces, se consigue
∂t

∂n X
φ = n!fn (t1 , t2 , · · · , tn ) + [(n + i)!Ii (fn+i (t1 , t2 , · · · , tn , ·))] .
∂t1 ∂t2 · · · ∂tn
i=1
(3.79)
Como E [In (f )] = 0 para todo n ≥ 1, tomando esperanza en ambos lados de (3.79)
se consigue

∂n
 
E φ =n!E [fn (t1 , t2 , · · · , tn )]
∂t1 ∂t2 · · · ∂tn
X ∞ (3.80)
+ (n + i)!E [Ii (fn+i (t1 , t2 , · · · , tn , ·))] .
i=1

De lo que se obtiene

∂n
 
E φ = n!E [fn (t1 , t2 , · · · , tn )] .
∂t1 ∂t2 · · · ∂tn

Por lo tanto,
∂n
 
1
fn (t1 , t2 , · · · , tn ) = E φ .
n! ∂t1 ∂t2 · · · ∂tn

2
Sea φ = e−B(1) , note que φ ∈ L2B (Ω). En base en el Teorema 3.6.5 encontrare-
mos los tres primeros términos distintos de cero en la expansión Wiener-Itô de φ.
Se verifica que Z ∞
h
−B(1)2
i 1 2 x2 1
E e =√ e−x e− 2 dx = √ .
2π −∞ 3

104
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

"  2 #
R1
Reescribiendo φ como φ = exp − dB(s) y usando (3.78) se obtiene que
0

Z 1
∂ 2
φ = φ{−2 1dB(s)1} = −2B(1)e−B(1) .
∂t1 0

De modo que
 

f1 (t1 ) = E φ = 0, ∀ 0 ≤ t1 ≤ 1.
∂t1

Derivando una vez más, se consigue

∂2 2
φ = −2 1 − 2B(1)2 e−B(1) ,

∂t1 ∂t2

tomando esperanza se llega a

∂2
 
2
f2 (t1 , t2 ) = E φ =− √ .
∂t1 ∂t2 3 3

Las siguientes dos derivadas variacionales de φ están dadas por

∂3 2
φ = 4 3B(1) − 2B(1)3 e−B(1) ,

∂t1 ∂t2 ∂t3

∂4 2
φ = 4 3 − 12B(1)2 + 4B(1)4 e−B(1) .

∂t1 ∂t2 ∂t3 ∂t4
Aplicando esperanza en las expresiones anteriores, se obtiene que

∂3
 
f (t1 , t2 , t3 ) = E φ = 0,
∂t1 ∂t2 ∂t3

∂4
 
4
f (t1 , t2 , t3 , t4 ) = E φ = √ .
∂t1 ∂t2 ∂t3 ∂t4 3 3
Finalmente, se escriben los primeros tres términos distintos de cero en la expansión
Wiener-Itô
2 1 2 4
e−B(1) = √ − √ I2 (1) + √ I4 (1) + · · · .
3 3 3 3 3

105
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

3.7. Representación de martingalas brownia-


nas
Sea f (t) un proceso estocástico en L2ad ([a, b] × Ω), entonces por el Teorema
Rt
1.3.1 y el Teorema 1.3.2, el proceso estocástico {Xt = f (s)dB(s); a ≤ t ≤ b},
a
es una martingala continua con respecto a la filtración {FtB }. Además, por el
  Rt 
Teorema 1.2.6 se tiene que E Xt2 = E f (s)2 dt < ∞ para todo t ∈ [a, b]. En

a
esta sección, mostraremos que cada {FtB }-martingala cuadrado integrable tiene la
propiedad anterior, tal hecho es una simple aplicación del Teorema 3.6.3.
Teorema 3.7.1. Sea X ∈ L2B (Ω) tal que E [X] = 0. Entonces existe un proceso
estocástico θ ∈ L2ad ([a, b] × Ω) tal que
Z b
X= θ(t)dB(t).
a
Demostración. Sea n ≥ 1 y considere una integral múltiple Wiener-Itô.
Z
X= f (t1 , t2 , · · · , tn )dB(t1 )dB(t2 ) · · · dB(tn ),
[a,b]n

donde f ∈ L2sim ([a, b]n ). Por el Teorema 3.5.6, X se reescribe como


Z b Z t1 Z tn−1 
X = n! ··· f (t1 , t2 , · · · , tn )dB(tn ) · · · dB(t2 )dB(t1 ).
a a a

Defina el proceso estocástico θ(t) por


Z t Z tn−1 
θ(t) = n! ··· f (t1 , t2 , · · · , tn )dB(tn ) · · · dB(t2 ), a ≤ t ≤ b.
a a
Entonces, escribimos X como la integral estocástica
Z b
X= θ(t)dB(t). (3.81)
a
Observe que el proceso estocástico θ(t) es adaptado con respecto a la filtración
{FtB }. Usando nuevamente el Teorema 3.5.6 para reescribir θ(t) como una integral
múltiple Wiener-Itô, como sigue
Z t Z tn−1 
θ(t) = n(n − 1)! ··· f (t1 , t2 , · · · , tn )dB(tn ) · · · dB(t2 )
a a
Z n−1 (3.82)
=n f (t1 , t2 , · · · , tn )dB(t2 ) · · · dB(tn ).
[a,t]

106
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Aplicando el Teorema 3.5.5 encontramos que


Z
2 2
f (t, t2 , · · · , tn )2 dt2 · · · dtn
 
E θ(t) = n (n − 1)!
[a,b]n−1
Z
≤ n · n! f (t, t2 , · · · , tn )2 dt2 · · · dtn .
[a,b]n−1

Lo cual implica que


Z b Z
2
f (t, t2 , · · · , tn )2 dt2 · · · dtn = nE X 2 < ∞.
   
E θ(t) dt ≤ n · n!
a [a,b]n

Entonces θ ∈ L2ad ([a, b]×Ω) y la integral estocástica en (3.81) es una integral de Itô.


Para finalizar la prueba, suponga que X tiene derivada variacional , entonces
∂t
se demostrará que  

θ(t) = E X FtB .
∂t

In (fn ) con fn ∈ L2sim ([a, b]n ).
P
Por el Teorema 3.6.3, X tiene la expansión X =
n=0
Además, E [X] = 0 y f0 = E [X] de modo que

X ∞
X
X= In (fn ), kXk2 = n!kfn k2 . (3.83)
n=1 n=1

Para cada n ∈ N, defina el proceso estocástico


Z t Z tn−1 
θn (t) = n! ··· fn (t1 , t2 , · · · , tn )dB(tn ) · · · dB(t2 ).
0 a

Entonces, por (3.81) conseguimos la igualdad


X∞ Z b
X= θn (t)dB(t). (3.84)
n=1 a

Por (3.82) podemos escribir θn (t) como una integral múltiple Wiener-Itô
Z
θn (t) = n fn (t, t2 , · · · , tn )dB(t2 ) · · · dB(tn ).
[a,t]n−1

Por lo tanto, del Teorema 3.5.9 los θn ’s son ortogonales. Defina


n
X
Sn (t) = θk (t), a ≤ t ≤ b.
k=1

107
CAPÍTULO 3. INTEGRALES MÚLTIPLES WIENER-ITÔ

Rb Rb 
Note que In (fn ) = a θn (t)dB(t), de modo que E In (fn )2 = a E θn (t)2 dt.
  

Entonces para cualquier n > m,


Z b h i n Z b n
2
X X
2
E Ik (fk )2 . (3.85)
   
E Sn (t) − Sm (t) dt = E θk (t) dt =
a k=m+1 a k=m+1

Observe que la última igualdad de (3.85) converge a cero cuando n, m → ∞. Esto


muestra que lı́m Sn existe y es igual a θ en el espacio L2ad ([a, b] × Ω). Entonces
n→∞
por (3.84) se tiene que
Xn Z b Z b Z b
X = lı́m θk (t)dB(t) = lı́m Sn (t)dB(t) = θ(t)dB(t).
n→∞ a n→∞ a a
k=1

Lo cual completa la prueba del teorema.


Definición
h 3.7.2.
i Un proceso estocástico X̂t es llamado una versión de Xt si
P {X̂t = Xt } = 1, para cada t ∈ [a, b].

Teorema 3.7.3. Teorema de representación martingala.


Sea {Mt ; a ≤ t ≤ b}, una martingala cuadrado integrable con respecto a {FtB ; a ≤
t ≤ b} y Ma = 0. Entonces Mt tiene una versión continua M̂t dada por
Z t
M̂t = θ(s)dB(s), a ≤ t ≤ b,
a

donde θ ∈ L2ad ([a, b] × Ω).


Demostración. Por suposición, Mb ∈ L2B (Ω) y E [Mb ] = E [Ma ] = 0, por lo que
es posible aplicar el Teorema 3.7.1 a la variable aleatoria Mb para conseguir un
proceso estocástico θ(t) en L2ad ([a, b] × Ω) tal que
Z b
Mb = θ(s)dB(S).
a

Defina un proceso estocástico M̂t por


Z t
M̂t = θ(s)dB(s), a ≤ t ≤ b.
a

Por los Teoremas 1.3.1 y 1.3.2, M̂t es una martingala continua con respecto a la
filtración {FtB }. Además, para cada t ∈ [a, b],
h i
Mt = E Mb FtB = E M̂b FtB = M̂t , P − c.s.
 

Por lo tanto, M̂t es una versión de Mt .

108
Capı́tulo 4

Aplicaciones

En el presente capı́tulo se consideran modelos deterministas de ecuaciones di-


ferenciales en los que se tomarán los parámetros como variables aleatorias, convir-
tiendo la solución en un proceso estocástico X(t, ξ(ω)). Además, utilizaremos la
expansión del caos polinomial truncada para describir la solución X(t, ξ(ω)) gráfi-
camente. Para realizar esto último, haremos uso del llamado método de proyección
espectral no intrusivo. Los llamados métodos no intrusivos se basan en un conjun-
to de resoluciones de modelos deterministas, que corresponden a algunos valores
especı́ficos o realizaciones de ξ, con la finalidad de construir aproximación para
X(t, ξ(ω)). Los métodos intrusivos por su parte requieren de un reformulación del
sistema original en un sistema de ecuaciones diferenciales que es mucho más largo
y complejo que el original. Como los métodos no intrusivos no requieren de una
reformulación del problema original son muy atractivos para la propagación de la
incertidumbre paramétrica en modelos complejos. Sin embargo, en los métodos no
intrusivos el número de resoluciones del modelo aumenta exponencialmente con el
número de variables aleatorias independientes en la parametrización. Este incon-
veniente hace que los métodos no intrusivos sean computacionalmente costosos si
el modelo determinista subyacente es costoso de resolver.

4.1. Expansión de caos homogéneo truncado


Por el Teorema 3.4.7, cada φ ∈ L2B (Ω) tiene una única expansión en serie dada
por

X X
φ= an1 ,n2 ,··· Hn1 ,n2 ,··· ,
P∞
n=0 i=1 ni =n

109
CAPÍTULO 4. APLICACIONES

R
donde an1 ,n2 ,··· = Eν [φHn1 ,n2 ,··· ] = φHn1 ,n2 ,··· dν.

Para cada p ∈ N ∪ {0}, sea
p
X X
φp = an1 ,n2 ,··· Hn1 ,n2 ,··· . (4.1)
P∞
n=0 i=1 ni =n

Observe que
lı́m φp = φ.
p→∞

En la práctica p no va a infinito, por lo que trabajaremos con la expansión truncada


de caos dada en (4.1). Llamaremos a φp una expansión de orden p. El número de
términos en la expansión truncada (4.1) está dada por
p
X m
X
card{(z1 , z2 , · · · , zm ) ∈ Zm
≥0 ; zj = i}.
i=0 j=1

El siguiente lema nos da el número de elementos en la expresión anterior.

Lema 4.1.1. Sea p un entero positivo, entonces


p m
X X (m + p)!
card{(z1 , z2 , · · · , zm ) ∈ Zm
≥0 ; zj = i} = .
m!p!
i=0 j=1

La demostración del Lema 4.1.1 se encuentra en [1].


En el desarrollo posterior con ayuda del Lema 4.1.1, resulta conveniente reescribir
(4.1) como
P
X
φp = ak Ψk (ξ), (4.2)
k=0

siendo ξ = (ξ1 , ξ2 , · · · , ξm ), donde ξi son variables aleatorias normales indepen-


dientes idénticamente distribuidas, para i = 1, 2, · · · , m. Además, existe un corres-
pondencia uno a uno entre los coeficientes ak y an1 ,n2 ,··· y P satisface

(m + p)!
P = − 1.
m!p!

Es posible hacer el cambio de Hn1 ,n2 ,··· por Ψ(ξ) ya que Hn1 ,n2 ,··· es un producto
de factores finitos, es decir,
1 1 1
Hn1 ,n2 ,··· = √ Hn1 (e1 ; 1) √ Hn2 (e2 ; 1) · · · √ Hnm (em ; 1),
n1 n2 nm

110
CAPÍTULO 4. APLICACIONES

1
para nk ∈ N con k = 1, 2, · · · , m, basta identificar a ψnk (ξk ) = √ Hnk (ek ; 1)
nk
y recordar que ek es la integral de Itô para ek un elemento básico de L2 [a, b] de
modo que ek sigue una distribución normal con media cero y varianza 1 de lo que
se obtiene
m
Y
Ψk (ξ) = ψnk (ξk ).
k=1

Por ejemplo, para una expansión de primer grado, los primeros polinomios de
Hermite están dados por

Ψ0 (ξ) = ψ0 (ξ) = 1,
Ψ1 (ξ) = ψ1 (ξ) = ξ,
Ψ2 (ξ) = ψ2 (ξ) = ξ 2 − 1,
Ψ3 (ξ) = ψ3 (ξ) = ξ 3 − 3ξ,
Ψ4 (ξ) = ψ4 (ξ) = ξ 4 − 6ξ 2 + 3,
Ψ5 (ξ) = ψ5 (ξ) = ξ 5 − 10ξ 3 + 15ξ.

Si se requiere una expansión de segundo grado, los primeros polinomios de Hermite


en dos dimensiones están dados por

Ψ0 (ξ) = ψ0 (ξ1 )ψ0 (ξ2 ) = 1,


Ψ1 (ξ) = ψ1 (ξ1 )ψ0 (ξ2 ) = ξ1 ,
Ψ2 (ξ) = ψ0 (ξ1 )ψ1 (ξ2 ) = ξ2 ,
Ψ3 (ξ) = ψ2 (ξ1 )ψ0 (ξ2 ) = ξ12 − 1,
Ψ4 (ξ) = ψ1 (ξ1 )ψ1 (ξ2 ) = ξ1 ξ2 ,
Ψ5 (ξ) = ψ2 (ξ1 )ψ0 (ξ2 ) = ξ22 − 1.

Más aún, como Ψ0 ≡ 1 es posible escribir la expansión (4.2) como

P
X
φp = a0 + ak Ψk (ξ).
k=1

Note que la solución de un sistema dinámico con m parámetros aleatorios es el


proceso estocástico X(t, ξ(ω)) el cual aproximaremos con su expansión truncada
de caos
P
X
X(t, ξ) ≈ a0 (t) + ak (t)Ψk (ξ).
k=1

111
CAPÍTULO 4. APLICACIONES

P
 
P
Se verifica que E [X(t, ξ)] ≈ E a0 (t) + ak (t)Ψk (ξ) = a0 (t) y
k=1
"
P
#2  " P
#2
X X
Var [X(t, ξ)] ≈ E  a0 (t) + ak (t)Ψk (ξ)  − E a0 (t) + ak (t)Ψk (ξ)
k=1 k=1
P
X
= a20 (t) + a2k (t)E Ψ2k (ξ) − a20 (t)
 

k=1
P
X
a2k (t)E Ψ2k (ξ) .
 
=
k=1

PP
Si tenemos las expansiones X(t, ξ) ≈ x0 (t) + k=1 xk (t)Ψk (ξ) y Y (t, ξ) ≈ y0 (t) +
PP
k=1 yk (t)Ψk (ξ), entonces

Cov(X, Y )(t) ≈ E [(X(t, ξ) − E [X(t, ξ)]) (Y (t, ξ) − E [Y (t, ξ)])]


P
X
xk (t)yk (t)E Ψ2k (ξ) .
 
=
k=1

4.2. Sistemas dinámicos aleatorios


Considere el sistema de ecuaciones diferenciales
d
(
X = F (X),
dt (4.3)
X(0) = x0 ,

donde F : Rn → Rn . La solución al sistema (4.3) es una función X : I → Rn , defi-


 T
nida sobre algún intervalo I ⊂ R de la forma X(t) = X1 (t), X2 (t), · · · , Xn (t) ,
para cada t ∈ I.
Además, asumiendo F ∈ C 1 se garantiza la existencia y unicidad de X.

Abordaremos el caso en que tenemos parámetros aleatorios para la función F ,


esto es, F = F (X, ξ) con ξ = (ξ1 , ξ2 , · · · , ξm ) donde ξi son variables aleatorias
normales independientes idénticamente distribuidas para i = 1, 2, · · · , m, m ∈ N.
Por lo tanto, reescribiendo (4.3) con parámetros aleatorios tenemos

d
( 
X(t, ξ) = F X(t, ξ), ξ ,
dt (4.4)
X(0, ξ) = x0 , P-c.s.

112
CAPÍTULO 4. APLICACIONES

De manera que la solución para (4.4) es el proceso estocástico:

X : I × (Ω, F, P) → Rn ,
 T
que tiene la forma X(t, ξ) = X1 (t, ξ), X2 (t, ξ), · · · , Xn (t, ξ) . Para encontrar
Xi (t, ξ) dado el tiempo t, consideraremos la expansión de caos homogéneo con
i = 1, 2, · · · , n dada por
P
X
Xi (t, ξ) = aik (t)Ψk (ξ).
k=0

Para ejemplificar lo anterior, en la siguiente sección, se discutirá la ecuación logı́sti-


ca con un parámetro aleatorio y un tipo de ecuación Riccati con un parámetro
aleatorio.

4.2.1. Modelo logı́stico


Tomemos en cuenta el modelo determinista
  
d X(t)
X(t) = rX(t) 1 − ,
dt K (4.5)
X(0) = x0 ,

conocido como modelo logı́stico, X(t) denota la población al tiempo t, r la tasa de


crecimiento de la población X y K la capacidad de carga del sistema. Asumimos
que la tasa de crecimiento de la población depende únicamente del tamaño de la
población. Tal suposición parece ser razonable para organismos simples como los
microorganismos pues para organismos complejos intervienen diferentes factores
que la ecuación logı́stica no toma en cuenta [5].

Dejamos entrar la aleatoriedad a través del parámetro r ya que la tasa de


crecimiento poblacional se podrı́a ver afectada por agentes externos al sistema,
por ejemplo, migraciones, invasión de bacterias o virus. Entonces, sea

r(ξ) = a + bξ,

donde ξ es una variable aleatoria que sigue una distribución normal estándar, en
este caso se toma como condición inicial determinista X(0) = x0 . Por lo tanto,
obtenemos el sistema con coeficiente aleatorio
  
d X(t, ξ)
X(t, ξ) = r(ξ)X(t, ξ) 1 − ,
dt K (4.6)
X(0, ξ) = x0 .

113
CAPÍTULO 4. APLICACIONES

Consideremos la expansión truncada de caos polinomial de X dada por


P
X
X(t, ξ) ≈ xk (t)Ψk (ξ),
k=0

donde ξ es variable aleatoria normal estándar. Notemos que en este caso Ψk = ψk


ya que solo tenemos un parámetro aleatorio, es decir, tenemos la expansión de X
en caos de una dimensión. Tomando el producto interior entre X(t, ξ) y Ψk (ξ),
ayudándose de la ortogonalidad de Ψk se tiene
* P +
X
hX(t, ξ), Ψk (ξ)i ≈ xk (t)Ψk (ξ), Ψk (ξ)
k=0
= hxk (t)Ψk (ξ), Ψk (ξ)i
= xk (t) hΨk (ξ), Ψk (ξ)i .

Entonces
hX(t, ξ), Ψk (ξ)i Eν [X(t, ξ)Ψk (ξ)]
xk (t) ≈ =  , (4.7)
Eν Ψ2k (ξ)

hΨk (ξ), Ψk (ξ)i
para cada k = 1, · · · , P .

En (4.7), el momento Eν Ψ2k (ξ) es encontrado analı́ticamente, ya que Ψk esun


 

polinomio de Hermite. Más aún, por el Teorema 3.2.4 tenemos que Eν Ψ2k (ξ) =
k!. El único inconveniente es calcular el numerador, el problema recae en que el
término X(t, ξ) es desconocido. Sin embargo, notemos que
Z
 
Eν [X(t, ξ)Ψk (ξ)] = X t, ξ(ω) Ψ ξ(ω) dP(ω)
ZΩ (4.8)
= X(t, x)Ψ(x)fξ (x)dx,
R

donde fξ (x) es la función de densidad de probabilidad de ξ. De modo que podemos


obtener Eν [X(t, ξ)Ψk (ξ)] calculando la última integral en (4.8). El valor de tal
integral será calculada numéricamente usando la cuadratura de Gauss-Hermite, de
lo que obtenemos
Z N
X
X(t, x)Ψ(x)fξ (x)dx ≈ wj X(t, xj )Ψk (xj ).
R j=1

Bajo el esquema de la cuadratura de Gauss-Hermite, xj son los nodos y wj los


pesos. (Ver Apéndice, Sección A.3).

114
CAPÍTULO 4. APLICACIONES

Para finalizar con los cálculos es necesario encontrar X(t, xj ) lo que se obtiene
resolviendo el sistema (4.6) para ξ = xj , j = 1, 2, · · · , N , es decir, resolver
 
d X
X(t, xj ) = (a1 + b1 xj )X 1 − ,
dt K

sujeto a X(0, xj ) = x0 , para j = 1, 2, · · · , N .


Por (4.7) obtenemos una aproximación de xk (t) de la siguiente forma
PN
j=1 wj X(t, xj )Ψk (xj )
xk (t) ≈ . (4.9)
k!
Por lo tanto, la aproximación de X(t, ξ) está dada por
P PN
j=1 wj X(t, xj )Ψk (xj )
X
X(t, ξ) ≈ Ψk (ξ). (4.10)
k!
k=0

Se sabe que la solución determinista para (4.5) es


x0 K
X(t) = .
x0 + (K − x0 ) ert
De modo que para j = 1, 2, · · · , N encontramos que
x0 K
X(t, xj ) = .
x0 + (K − x0 ) e(a1 +b1 xj )t
De tal modo que la aproximación para el modelo logı́stico con coeficiente aleatorio
está dado por
PN x0 K
P j=1 wj Ψk (xj )
X x0 + (K − x0 ) e(a1 +b1 xj )t
X(t, ξ) ≈ Ψk (ξ)
k!
k=0 (4.11)
 
P N
X x0 K X 1
= wj Ψ (x ) Ψk (ξ).
(a1 +b1 xj )t k j
k! x 0 + (K − x 0 ) e
k=0 j=1

La relación dada por (4.11) nos da la pauta para realizar simulaciones donde se
compara la solución del sistema determinı́stico y las realizaciones del proceso es-
tocástico aproximado. Para este propósito haremos uso del paquete R [22].
Inicialmente, requerimos de una función que obtenga los coeficientes de los poli-
nomios de Hermite de grado n para cada n ∈ N, los cuales se obtienen fácilmente
de (3.29), los argumentos que requiere esta función son el grado del polinomio y

115
CAPÍTULO 4. APLICACIONES

el parámetro ρ que para nuestro estudio toma el valor 1. Tales coeficientes son
guardados en un arreglo de n + 1 entradas. Además, es necesario implementar
otra función que a partir de los coeficientes, regrese la evaluación del polinomio de
Hermite normalizado de grado n en un punto. Los argumentos involucrados para
esta función son el grado del polinomio y el punto de evaluación.
Creamos una función con argumentos: incremento en el tiempo (∆t), longitud de
intervalo iniciando en 0 (H), capacidad del sistema (K), tasa de crecimiento po-
blacional (r), el número de elementos de la expansión truncada de orden p (P ) y
condición inicial (x0 ). Dentro de esta función abrimos un archivo que contiene los
nodos y pesos de la cuadratura de Gauss-Hermite y se guardan en una matriz A.
H
Luego se define un vector B de tamaño con entradas 0. En este vector B se
∆t
guardan los diferentes valores correspondientes al tiempo (0, ∆t, 2∆t, · · · , H), las
evaluaciones con nodos de la solución al sistema determinista y tomar realizacio-
nes de una variable aleatoria normal para obtener el valor de Ψk (ξ). Se tomarán
P iteraciones, en cada una de ellas B debe inicializarse como 0. Posteriormente,
H
inicializamos un vector C de tamaño , en 0. Al término de cada iteración, asig-
∆t
naremos C ← C + B que tendrá como resultado los valores que nos permitirán
graficar la solución al modelo aleatorio dinámico. Finalmente, para equilibrar la
solución obtenida en el vector C realizamos este proceso M veces y tomamos la
media de los valores obtenidos. Lo anterior se ha implementado para el sistema
logı́stico, lo cual se presenta a continuación.
Asuma r(ξ) =2.08+0.1ξ y considere los valores de la Tabla 4.1.

∆t 0.05
K 5.0
x0 1.0
M 10
N 10
P 15

Tabla 4.1: Valores para simulación.

Donde ∆t es el incremento a través del intervalo [0, 7], K la capacidad de


carga del sistema, x0 condición inicial, M es el número de simulaciones realizadas
para obtener la solución en promedio, N el número de nodos en la cuadratura de
Gauss-Hermite y P el número de elementos de la expansión truncada de orden p.
Utilizando el paquete R y los datos anteriores se obtiene la gráfica en Figura 4.1.

116
CAPÍTULO 4. APLICACIONES

Solución a ecuación logística con caos polinomial

5
Evolución de Población (X)

Solución determinista
Aproximación por caos
1

0 1 2 3 4 5 6 7

Tiempo (t)

Figura 4.1: Crecimiento de población M = 10.

Con los mismos datos que en la realización anterior excepto que M toma el
valor 20 se obtiene la solución mostrada en Figura 4.2.

117
CAPÍTULO 4. APLICACIONES

Solución a ecuación logística con caos polinomial

5
Evolución de Población (X)

Solución determinista
Aproximación por caos
1

0 1 2 3 4 5 6 7

Tiempo (t)

Figura 4.2: Crecimiento de población M = 20.

Observemos que por la aleatoriedad del parámetro r, se presentan diferencias en


cada realización de la solución al sistema, por ejemplo, las realizaciones en Figura
4.1 y 4.2, resultando ası́ distintos valores de los puntos de equilibrio del modelo
logı́stico y para cada uno de estos puntos una conclusión distinta.

118
CAPÍTULO 4. APLICACIONES

4.2.2. Ecuación diferencial de Riccati


Una ecuación diferencial no lineal de primer orden dada por

 dX(t)
= p(t) + q(t)X(t) + r(t)X 2 (t),
dt
 X(0) = x0 ,

es llamada ecuación Riccati. La ecuación diferencial de Riccati es de gran impor-


tancia ya que aparece en aplicaciones de Fı́sica Matemática, Teorı́a de Control
y Biologı́a Matemática (Ver [9], [23]). Además, de la ecuación Riccati se derivan
diferentes ecuaciones que tienen gran relevancia como la ecuación Bernoulli.

En particular, abordaremos el caso en que p(t) = 1, q(t) = b y r(t) = −c,


entonces obtenemos la siguiente ecuación Riccati
d
(
X(t) = 1 + bX(t) − cX 2 (t),
dt (4.12)
X(0) = x0 .

La solución al sistema determinista (4.12) está dada por


  p   p 
1 1 2
−2x0 c + b 2
X(t) = b + tanh t b + 4c − arctan √ b + 4c .
2c 2 b2 + 4c
Si se considera únicamente el parámetro b como aleatorio en (4.12) se consigue
d
(
X(t, ξ) = 1 + b(ξ)X(t, ξ) − cX 2 (t, ξ),
dt (4.13)
X(0, ξ) = x0 .

Entonces la aproximación truncada de caos homogéneo de primer orden al proceso


estocástico que es solución de (4.13) está dada por
P PN
j=1 wj X(t, xj )Ψk (xj )
X
X(t, ξ) ≈ Ψk (ξ), (4.14)
k!
k=0

donde
X(t, xj ) =
!! !
1 1 −2x0 c + b(xj )
q q
b(xj ) + tanh t b2 (xj ) + 4c − arctan p b2 (xj ) + 4c ,
2c 2 b2 (xj ) + 4c

con b(xj ) = a2 + b2 xj .

119
CAPÍTULO 4. APLICACIONES

De la misma manera que en el modelo logı́stico se ha implementado funciones


en el paquete R para obtener simulaciones para la solución del sistema dinámico.
Ayudándonos de la expresión obtenida en (4.14), asumiendo b(ξ) =17.5 +0.1ξ y
tomando en cuenta los valores de la Tabla 4.2, donde ∆t es el incremento a través
del intervalo [0, 5], x0 condición inicial, M el número de simulaciones realizadas
para obtener la solución en promedio, N el número de nodos en la cuadratura de
Gauss-Hermite y P el número de elementos de la expansión truncada de orden p.
Utilizando el paquete R y los datos anteriores se obtiene la solución en Figura 4.3.

∆t 0.05
c 1.0
x0 1.0
M 10
N 10
P 15

Tabla 4.2: Valores para simulación.

120
CAPÍTULO 4. APLICACIONES

Solución a ecuación Riccati con caos polinomial

2.4

2.2
Evolución del sistema (X)

2.0

1.8

1.6

1.4

1.2
Solución determinista
1.0 Aproximación por caos

0 1 2 3 4 5

Tiempo (t)

Figura 4.3: Solución ecuación Riccati M = 10.

Otra realización al proceso estocástico se presenta en Figura 4.4 con M = 20.

121
CAPÍTULO 4. APLICACIONES

Solución a ecuación Riccati con caos polinomial

2.4

2.2
Evolución del sistema (X)

2.0

1.8

1.6

1.4

1.2
Solución determinista
1.0 Aproximación por caos

0 1 2 3 4 5

Tiempo (t)

Figura 4.4: Solución ecuación Riccati M = 20.

Algunas soluciones de la ecuación diferencial aleatoria de Riccati presentada en


(4.13) se pueden observar en Figuras 4.3 y 4.4. Además, en Figura 4.3 se tomó la
media entre 10 simulaciones del sistema mientras que en Figura 4.4 la media se
tomó respecto a 20 simulaciones.
Con la información obtenida en cada realización del procesos estocástico que es
solución al sistema dinámico aleatorio se obtienen diferentes valores para los puntos
de equilibrio resultando ası́ en diversas conclusiones del modelo. Para equilibrar
los resultados se han promediado los valores obtenidos en diferentes simulaciones.

122
CAPÍTULO 4. APLICACIONES

Además, es posible hacer el análisis cualitativo de los modelos para obtener las
conclusiones correspondientes a cada modelo.

123
CAPÍTULO 4. APLICACIONES

124
Conclusiones y trabajo futuro

En Capı́tulo 1 se presentó la construcción de la integral estocástica ası́ como


algunas propiedades al considerar tal integral como proceso estocástico. La revi-
sión de lo anterior fue con el propósito de presentar la fórmula de Itô y resaltar
algunas aplicaciones teóricas importantes como el Teorema de caracterización de
Lévy y el Teorema de Girsanov. Posteriormente, se revisó el tema en que nos hemos
centrado: el caos homogéneo. A partir de la base ortonormal de caos homogéneo
obtenida con productos finitos de polinomios normalizados de Hermite, es posible
escribir cualquier función en LB (Ω) de manera única. Además, la relación entre
el caos homogéneo y las integrales múltiples Wiener-Itô está dada por el Teorema
Wiener-Itô.

Para la sección de aplicaciones se consideraron dos ecuaciones diferenciales de-


terministas: la ecuación logı́stica y una ecuación Riccati, las cuales surgen en mu-
chos modelos matemáticos. A cada ecuación se le modificó un parámetro que se
asumió como una función lineal de una variable normal estándar volviéndolo alea-
torio y en consecuencia, la solución de la ecuación diferencial se convierte en un
proceso estocástico. Nuestro propósito ha sido estudiar los distintos escenarios bajo
tal incertidumbre y en consecuencia obtener diversas conclusiones de cada una de
las soluciones encontradas. Se realizaron simulaciones en el paquete R, que fueron
obtenidas por medio del caos polinomial de orden 1. Para la simulación en cada
modelo, fue necesario aproximar el proceso estocástico solución por medio de una
expansión truncada de caos polinomial en la cual los coeficientes son desconoci-
dos. Para hallar tales coeficientes se aplicó el método de proyección espectral no
intrusivo. Tal método es de gran ayuda en cuanto al costo computacional.
Finalmente, se obtuvieron las gráficas entre las realizaciones del proceso estocásti-
co aproximado y la solución al sistema determinista. A pesar de tener únicamente
la expansión truncada con polinomios de Hermite normalizados de orden 1, se tie-
ne una buena aproximación a la solución del sistema determinista. Sin embargo,
el modelo aleatorio tiene la ventaja de ser más adaptado a la naturaleza aleatoria
del mundo real.

125
CAPÍTULO 4. APLICACIONES

Es importante mencionar que la simulación para ordenes más altos de caos


polinomial, presenta algunos inconvenientes. Por ejemplo, el costo computacional
crece exponencialmente y el cálculo de integrales que aparecen implı́citamente en
el método son difı́ciles de calcular. Además, en las aproximaciones truncadas de
(m + p)!
orden p se tiene problemas para calcular el valor de P = para valores
m!p!
m > 12 y p > 12. Trabajos futuros, involucran aplicar el caos homogéneo a sis-
temas dinámicos más complejos, para lograrlo será necesario mitigar los gastos
computacionales consecuencia de la expansión truncada de orden p, cuyo gasto
recae en el número de elementos básicos de los espacios Kn , ası́ como la apro-
ximación de integrales que implı́citamente aparecen en el método utilizado. Para
contrarrestar el gasto, será de utilidad aplicar métodos numéricos más eficientes
para aproximar integrales múltiples sobre Rn .

126
Apéndice A

Apéndice

A.1. Esperanza condicional y propiedades


Definición A.1.1. Sea X ∈ L1 (Ω, F). Suponga G es una σ-álgebra y G ⊂ F. La
esperanza condicional de X dado G está definida como la única variable aleatoria
Y que satisface las siguientes condiciones

1. Y es G-medible;
R R
2. XdP = Y dP para todo A ∈ G.
A A

Sea (Ω, F, P) un espacio fijo de probabilidad. Suponga que X ∈ L2 (Ω, F) y G una


σ-álgebra G ⊂ F. Entonces las siguientes aseveraciones son válidas P-c.s.
  
1. E E X G = E [X].
 
2. Si X es G-medible, entonces E X G = X.
 
3. Si X y G son independientes, entonces E X G = E [X] .
   
4. Si Y es G-medible y E [|XY |] < ∞, entonces E XY G = Y E X G .
     
5. Si H ⊂ G, entonces E X H = E E X G H .

6. Si X, Y ∈ L2 (Ω) y X ≤ Y , entonces E X G ≤ E Y G .
   

   
7. E X G ≤ E |X| G .

8. E [aX + bY |G] = aE [X|G] + bE [Y |G] , ∀a, b ∈ R y X, Y ∈ L1 (Ω).

127
APÉNDICE A. APÉNDICE

Teorema A.1.2. Desigualdad de Doob.


Sea Y (t), a ≤ t ≤ b una submartingala continua por la derecha. Entonces para
cualquier ε > 0,
"( )#
1
P sup {Y (t) ≥ ε} ≤ E [máx{Y (b), 0}] .
a≤t≤b ε

En particular, si Xt es una martingala continua, entonces para cualquier ε > 0,


"( )#
1
P sup {|Xt | ≥ ε} ≤ E [|Xb |] .
a≤t≤b ε

A.2. Otros resultados


Teorema A.2.1. Teorema de continuidad de Kolmogorov.
Sea X(t), 0 ≤ t ≤ 1, un proceso estocástico separable. Supongamos que existen
constantes α, β, K > 0 que satisfacen la desigualdad
α
≤ K 1+β , ∀ 0 ≤ t, s ≤ 1.

E X(t) − X(s)

Entonces X(t) tiene una realización continua, es decir, existe Ω0 tal que P [Ω0 ] = 1
y para cada ω ∈ Ω0 , X(t, ω) es una función continua de t.

Teorema A.2.2. Lema de Borel Cantelli.


Sea {An }n∈N una sucesión de eventos tales que ∞
P
n=1 P [An ] < ∞. Entonces

∞ [

" #
\
P Ak = 0.
n=1 k=n

Teorema A.2.3. Sea M (t), a ≤ t ≤ b, una martingala continua derecha, cuadrado


integrable con lı́mite izquierdo. Entonces existe una única descomposición

M 2 (t) = L(t) + A(t), a ≤ t ≤ b, (A.1)

donde L(t) es una martingala derecha continua con lı́mite izquierdo y A(t) es un
proceso creciente, previsible, continuo derecho tal que A(a) = 0 y E [A(t)] < ∞
para todo t ∈ [a, b].

Por conveniencia, usaremos < M >t para denotar el compensador A(t) de


M 2 (t) en (A.1).

128
APÉNDICE A. APÉNDICE

Teorema A.2.4. Sean Mt una martingala continua, cuadrado integrable y F (t, x)


∂F ∂F ∂2F
una función con derivadas parciales continuas , y . Entonces
∂t ∂x ∂x2
Z t
∂F
F (t, Mt ) =F (a, Ma ) + (s, Ms )ds
a ∂t
Z t
1 t ∂2F
Z
∂F
+ (s, Ms )dMs + (s, Ms )d < M >s .
a ∂x 2 a ∂x2

Teorema A.2.5. Teorema de convergencia dominada.


Sea {fn }n∈N una sucesión de funciones medibles sobre E. Suponga que existe una
función g que es integrable sobre E y dominante sobre {fn }n∈N , en el sentido que
kfn k ≤ g en E para todo n ∈ N. Si {fn }n∈N → f puntualmente
R casi en cualquier
parte en E, entonces f es integrable sobre E y lı́m fn = f.
n→∞
E

Espacio de Wiener
Sea C el espacio de Banach de funciones continuas ω de valores reales sobre [0, 1]
con ω(0) = 0. La norma sobre C es kωk∞ = sup |ω(t)|. Un subconjunto cilı́ndrico
t∈[0,1]
A de C es un conjunto de la forma

A = {ω ∈ C; (ω(t1 ), ω(t2 ), · · · , ω(tn )) ∈ U }, (A.2)

donde 0 < t1 < t2 < · · · < tn ≤ 1 y U ∈ B(Rn ), la sigma álgebra de Borel de Rn .


Sea R la colección de todos los subconjuntos cilı́ndricos de C. Note que R no es
un σ-álgebra.
Suponga que A ∈ R está dado por (A.2). Defı́nase µ(A) por
n
" #
(ui − ui−1 )2
Z Y 
1
µ(A) := p exp − du1 · · · dun , (A.3)
U 2π(ti − ti−1 ) 2(ti − ti−1 )
i=1

donde t0 = u0 = 0. Observe que µ(A) definido en (A.3) es independiente de las


diferentes expresiones del lado derecho de (A.2), lo cual significa que µ(A) está bien
definida. Por lo tanto, el mapeo µ es un mapeo de R a [0, 1]. Podemos verificar
fácilmente que µ : R → [0, 1] es finitamente aditivo, es decir, para cualesquiera
A1 , A2 , · · · , Am ∈ R disjuntos dos a dos, se verifica
m
[ m
X
µ( Ai ) = µ(Ai ).
i=1 i=1

129
APÉNDICE A. APÉNDICE

Teorema A.2.6. El mapeo µ sobre R es σ-aditivo, S es decir, para cualesquiera


A1 , A2 , · · · , Am ∈ R disjuntos dos a dos tales que An ∈ R, la siguiente igualdad
n∈N
es válida
∞ ∞
!
[ X
µ Ai = µ(Ai ).
i=1 i=1

Entonces µ tiene una única σ-aditiva extensión a σ (R), la sigma álgebra gene-
rada por R. La sigma álgebra σ (R) resulta ser la misma que la sigma álgebra de
Borel B(C) de C. Para verificar este hecho es necesario probar que la bola unitaria
cerrada {ω ∈ C; kωk∞ } ≤ 1 pertenece a σ (R), pero esto se sigue de la siguiente
igualdad:
∞  
\ k
{ω ∈ C; kωk∞ ≤ 1} = {ω ∈ C; ω ≤ 1, ∀k = 1, 2, · · · , n}.
n
n=1

Denotamos a µ̂ como la extensión de µ a B (C). Por lo tanto, (C, µ̂) es un espacio


de probabilidad, este es llamado espacio de Wiener. La medida µ̂ es llamada la
medida de Wiener.
Teorema A.2.7. El proceso estocástico B(t, ω) = ω(t), 0 ≤ r ≤ 1, ω ∈ C, es un
movimiento browniano.
Demostración. Sea ω ∈ C, entonces 0 = ω(0) = B(0, ω) y B(t, ω) es continua para
t ∈ [0, 1]. De manera que se satisfacen las condiciones (1) y (4) de la Definición
1.1.1.
Sean 0 < s < t ≤ 1, entonces
µ̂{B(t) − B(s) ≤ a} = µ̂{ω(t) − ω(s) ≤ a} = µ̂{ω ∈ C; (ω(s), ω(t)) ∈ U },
donde U = {(u1 , u2 ) ∈ R2 ; u2 − u1 ≤ a}.
Por definición de medida de Wiener µ̂ se tiene
1 u21 (u2 − u1 )2
Z   
1
µ̂{B(t) − B(s) ≤ a} = p exp − + du1 du2 .
U (2π)2 s(t − s) 2 s t−s
Haciendo el cambio de variables u1 = x, u2 − u1 = y se consigue:
Z a Z ∞
1 x2 y2
  
1
µ̂{B(t) − B(s) ≤ a} = p exp − + dxdy
−∞ −∞ (2i)2 s(t − s) 2 s t−s
 Z ∞
y2
  2
1 1 x
=p exp dy √ exp − dx
2π(t − s) 2(t − s) −∞ 2πs 2s
Z a
y2
 
1
= p exp dy.
−∞ 2π(t − s) 2(t − s)

130
APÉNDICE A. APÉNDICE

Entonces, B(t) − B(s) tiene distribución normal con media cero y varianza t − s,
ası́ la condición (2) de la Definición 1.1.1 se satisface.
Para verificar la condición (3), sean 0 < tq < t2 < · · · < tn . Por argumentos
similares a los anteriores, se puede mostrar que

µ̂{B(t1 ) ≤ a1 , B(t2 ) − B(t1 ) ≤ a2 , · · · , B(tn ) − B(tn−1 ) ≤ an }


= µ̂{B(t1 ) ≤ a1 , }, µ̂{B(t2 ) − B(t1 ) ≤ a2 , }, · · · , µ̂{B(tn ) − B(tn−1 ) ≤ an , }.
(A.4)

Esto implica que las variables aleatorias B(t1 ), B(t2 )−B(t1 ), · · · , B(tn )−B(tn−1 )
son independientes.

A.3. Cuadratura Gauss-Hermite


El polinomio de Hermite de grado n está dado por
n
 
n x2 d
2 2
− x2
Hn (x) = (−1) e e . (A.5)
dxn

Algunas literaturas definen los polinomios de Hermite por

2 dn  −x2 
Hn (x) = (−1)n ex e . (A.6)
dxn
La cuadratura de Gauss-Hermite tomando los polinomios de Hermite como en
(A.6), nos dice que podemos aproximar la integral
Z ∞
2
e−x f (x)dx,
−∞

por la suma
n
X
wi f (xi ).
i=1

De tal modo que


Z ∞ n
−x2
X
e f (x)dx = wi f (xi ) + Rn , (A.7)
−∞ i=1

donde Rn es el error de aproximación y está dado por



n! π (2n)
Rn = n f (ε),
2 (2n)!

131
APÉNDICE A. APÉNDICE

para algún ε finito. Además, xi son las raı́ces del polinomio Hn (x) dado en (A.6)
y wi se calcular por √
2n−1 n! π
wi = .
n2 [Hn−1 (xi )]2
Sin embargo, en la expansión de caos homogéneo se requiere calcular la integral,
respecto a la medida Gaussiana, entonces deseamos calcular
Z ∞
1 x2
√ e− 2 f (x)dx.
−∞ 2π
Para obtener los nodos y pesos hacemos el cambio de variable
Z ∞
1 2
√ g(x)e−x dx,
π −∞

donde g(x) = f ( 2x). La aproximación obtenida de (A.7) es
Z ∞ n
1 x2 1 X
√ e− 2 f (x)dx ≈ √ wi g(xi )
−∞ 2π π
i=1
n
X
= ŵi f (x̂i ),
i=1

√ wi
con x̂i = 2xi y ŵi = √ . Además, x̂i coinciden con las raı́ces de los polinomios
π
de Hermite de grado n propuestos en (A.5). Una tabla con nodos y pesos de hasta
grado 20 se pueden encontrar en [17].

132
Bibliografı́a

[1] Alen Alexanderian. Gaussian Hilbert Spaces and Homogeneous Chaos:


From theory to applications, págs. 5–10, (2010).
[2] Bert J. Debusschere, Habib N. Najm, Philippe P. Pébay, Omar M.
Knio, Roger G. Ghanem and Olivier P. Le Maı̂tre. Numerical Challen-
gues in the use of polynomial chaos representations for stochastic processes.
SIAM J. SCI. COMPUT. Vol. 26, págs. 698–719, (2004).
[3] Bernt 0ksendal. Stochastic Differential Equations An Introduction with Ap-
plications, Springer, Sixth edition, (2003).
[4] Claude Dellacherie and Paul-André Meyer. Probabilities and Poten-
tials B. Theory of Martingales, North Holland, (1982).
[5] Fred Brauer and Carlos Castillo-Chavez. Mathematical Models in
Population Biology and Epidemiology, Springer, Second edition, (2012).
[6] Halsey L. Royden and P. M. Fitzpatrick. Real Analysis, Pearson, 4th
edition, (2010).
[7] Hui-Hsiung Kuo. Introduction to Stochastic Integration, Springer, USA,
(2006).
[8] Ioannis Karatzas and Steven E. Shreve. Brownian Motion and Stochas-
tic Calculus, Springer-Verlag, Second edition, (1991).
[9] James Dickson Murray. Mathematical Biology I. An Introduction, Sprin-
ger, Third edition, (2002).
[10] John Michael Steele. Stochastic Calculus and Financial Applications,
Springer-Verlag, New York, (2001).
[11] Jorge Cayama y Gilberto González-Parra. Aplicación del caos poli-
nomial a ecuaciones diferenciales parciales aleatorias. Revista Ciencia e Inge-
nierı́a, vol. 34: págs. 101–110, (2013).

133
BIBLIOGRAFÍA

[12] Jorge Cayama y Gilberto González-Parra. Comparación de caos po-


linomial y Monte Carlo para ecuaciones diferenciales ordinarias aleatorias. Re-
vista Ciencia e Ingenierı́a, vol. 33: págs. 9–20, (2012).
[13] Juan Antonio Licea Salazar. The polynomial chaos method with appli-
cations to random differential equations. PhD thesis, The University of Texas
at Arlington, (2013).
[14] Kai Lai Chung and Ruth J. Williams. Introduction to Stochastic Inte-
gration, Birkhäuser, Second edition, (1990).
[15] Luis Rincón. Curso intermedio de probabilidad, México, (2006).
[16] Luis Rincón. Introducción a los procesos estocásticos, México, (2012).
[17] Milton Abramowitz and Irene A. Stegun. Handbook of Mathematical
Functions, Dover, New York, (1970).
[18] Morris W. Hirsch, Stephen Smale and Robert L. Devaney. Diffe-
rential equations, dynamical systems, and an introduction to chaos, Elsevier,
Third edition, (2012).
[19] Olivier Le Maı̂tre, Omar M Knio. Spectral Methods for Uncertainty
Quantification With Applications to Computational Fluid Dynamics, Springer,
(2010).
[20] Péter Medvegyev. Stochastic Integration Theory, Oxford University Press
Inc., New York, (2007).
[21] Philip E. Protter. Stochastic Integration and Differential Equations,
Springer, Second edition, (2004).
[22] R Core Team. R: A Language and Environment for Statistical Compu-
ting, R Foundation for Statistical Computing, Vienna, Austria, (2017). URL
https://www.R-project.org/.
[23] Richard Bellman. Introduction to the mathematical theory of control pro-
cesses, Academic Press, New York, (1967).
[24] Richard Durrett. Stochastic Calculus, Dover, New York, (1996).
[25] Roger G. Ghanem and Pol D. Spanos. Stochastic Finite Elements: A
Spectral Approach, Dover, New York, Second edition, (2002).
[26] Svante Janson. Gaussian Hilbert Spaces, Cambridge University Press,
(1997).

134
BIBLIOGRAFÍA

[27] Zdzislaw Brzeźniak and Tomasz Zastawniak. Basic Stochastic Proces-


ses, Springer, (1999).

135

También podría gustarte