Escolar Documentos
Profissional Documentos
Cultura Documentos
Dinâmicos Estocásticos
Publicações Matemáticas
Paulo Ruffino
UNICAMP
impa
Copyright 2010 by Paulo Ruffino
Direitos reservados, 2010 pela Associação Instituto
Nacional de Matemática Pura e Aplicada - IMPA
Estrada Dona Castorina, 110
22460-320 Rio de Janeiro, RJ
Impresso no Brasil / Printed in Brazil
Capa: Noni Geiger / Sérgio R. Vaz
Publicações Matemáticas
Introdução à Análise Funcional – César R. de Oliveira
Introdução à Topologia Diferencial – Elon Lages Lima
Criptografia, Números Primos e Algoritmos – Manoel Lemos
Introdução à Economia Dinâmica e Mercados Incompletos – Aloísio Araújo
Conjuntos de Cantor, Dinâmica e Aritmética – Carlos Gustavo Moreira
Geometria Hiperbólica – João Lucas Marques Barbosa
Introdução à Economia Matemática – Aloísio Araújo
Superfícies Mínimas – Manfredo Perdigão do Carmo
The Index Formula for Dirac Operators: an Introduction – Levi Lopes de Lima
Introduction to Symplectic and Hamiltonian Geometry – Ana Cannas da Silva
Primos de Mersenne (e outros primos muito grandes) – Carlos Gustavo T. A. Moreira e
Nicolau Saldanha
The Contact Process on Graphs – Márcia Salzano
Canonical Metrics on Compact almost Complex Manifolds – Santiago R. Simanca
Introduction to Toric Varieties – Jean-Paul Brasselet
Birational Geometry of Foliations – Marco Brunella
Introdução à Teoria das Probabilidades – Pedro J. Fernandez
Teoria dos Corpos – Otto Endler
Introdução à Dinâmica de Aplicações do Tipo Twist – Clodoaldo G. Ragazzo, Mário J.
Dias Carneiro e Salvador Addas Zanata
Elementos de Estatística Computacional usando Plataformas de Software Livre/Gratuito
– Alejandro C. Frery e Francisco Cribari-Neto
Uma Introdução a Soluções de Viscosidade para Equações de Hamilton-Jacobi – Helena
J. Nussenzveig Lopes, Milton C. Lopes Filho
Elements of Analytic Hypoellipticity – Nicholas Hanges
Métodos Clássicos em Teoria do Potencial – Augusto Ponce
Variedades Diferenciáveis – Elon Lages Lima
O Método do Referencial Móvel – Manfredo do Carmo
A Student's Guide to Symplectic Spaces, Grassmannians and Maslov Index – Paolo
Piccione e Daniel Victor Tausk
Métodos Topológicos en el Análisis no Lineal – Pablo Amster
Tópicos em Combinatória Contemporânea – Carlos Gustavo Moreira e Yoshiharu
Kohayakawa
Uma Iniciação aos Sistemas Dinâmicos Estocásticos – Paulo Ruffino
Distribuição:
IMPA - E-mail: ddic@impa.br - http://www.impa.br
ISBN: 978-85-244-0304-0
i i
Conteúdo
Apresentação 1
1 Teoria de probabilidade 3
1.1 Espaços de medida e de probabilidade . . . . . . . . . 4
1.2 Variáveis aleatórias . . . . . . . . . . . . . . . . . . . . 6
1.3 Esperança de uma variável aleatória . . . . . . . . . . 9
1.4 Os espaços Lp . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Esperança condicional . . . . . . . . . . . . . . . . . . 18
1.6 Independência . . . . . . . . . . . . . . . . . . . . . . . 24
1.7 Convergências de variáveis aleatórias . . . . . . . . . . 29
1.8 Variáveis aleatórias gaussianas . . . . . . . . . . . . . 30
2 Processos estocásticos 37
2.1 Processo canônico e continuidade . . . . . . . . . . . . 38
2.2 Filtração e tempos de parada. . . . . . . . . . . . . . . 40
2.3 Processos de Markov . . . . . . . . . . . . . . . . . . . 42
2.4 Movimento Browniano . . . . . . . . . . . . . . . . . . 49
2.5 Martingales . . . . . . . . . . . . . . . . . . . . . . . . 53
2.5.1 Propriedades básicas . . . . . . . . . . . . . . . 57
2.5.2 p-Variação de funções contı́nuas . . . . . . . . . 59
2.5.3 Martingale local . . . . . . . . . . . . . . . . . 64
3 Cálculo estocástico 66
3.1 Integral Estocástica de Itô . . . . . . . . . . . . . . . . 66
3.1.1 Aplicação a processos parados . . . . . . . . . . 67
3.1.2 Processos contı́nuous . . . . . . . . . . . . . . . 69
i i
i i
i i
2 CONTEÚDO
5 Apêndices 115
5.1 Independência e convolução de medidas . . . . . . . . 115
5.2 Critério de Kolmogorov . . . . . . . . . . . . . . . . . 116
5.3 Gaussianas . . . . . . . . . . . . . . . . . . . . . . . . 120
5.4 Mais sobre o Movimento Browniano . . . . . . . . . . 121
5.4.1 Processo de Ornstein-Uhlenbeck . . . . . . . . 122
5.4.2 Outras construções do MB . . . . . . . . . . . 123
5.5 Teorema ergódico para processos de Markov . . . . . . 125
Bibliografia 127
i i
i i
i i
Apresentação
i i
i i
i i
2 CONTEÚDO
Paulo Ruffino
Campinas, maio de 2010.
i i
i i
i i
Capı́tulo 1
Noções de teoria da
medida e probabilidade
i i
i i
i i
i i
i i
i i
1. µ (∅) = 0;
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
Ficaremos neste texto somente com essa noção de integral como sendo
a soma do produto do valor da função pelo “tamanho”do conjunto
onde a função assume esse valor. Deixamos para o leitor verificar os
detalhes dessa construção em outro texto. Essencialmente, o proce-
dimento continua por linearidade (para funções limitadas), e limites,
quando existir, para f não limitada. A classe de funções Lebesgue
integráveis inclui e é muito maior do que a classe das funções Riemann
integráveis.
Note que se f for uma função simples, sua representação como
i i
i i
i i
onde nos limites, fica entendido que é permitido termos valores in-
finitos.
i i
i i
i i
Exercı́cio 1.6. Se
Z +∞
F (t) = x2 e−tx dx,
0
i i
i i
i i
i i
i i
i i
i i
i i
i i
Essa idéia de densidade de uma medida em relação a outra é o
conteúdo do teorema de Radon-Nikodym 1.9 nas próximas seções.
Lembramos que dado um espaço vetorial real normado V , seu dual
(topológico) V ∗ é o espaço vetorial de aplicações lineares contı́nuas
em R, os elementos do dual são chamados de funcionais lineares
contı́nuous. A norma de um funcional linear contı́nuo é dada por
i i
i i
i i
1.4 Os espaços Lp
Os espaços vetoriais Lp (Ω, F, µ; R) são espaços de funções reais F-
mensuráveis (ou, como vimos, na linguagem de probabilidade, variáveis
aleatórias) onde p determina uma espécie de grau de integrabilidade
da função em relação à medida µ. Assim, definimos, para um espaço
de medida (Ω, F, µ) e 1 ≤ p < ∞,
Z
Lp (Ω; R) = f : Ω → R mensurável e |f |p dµ < ∞ .
Ω
Para p = ∞, tomamos
i i
i i
i i
1.4. OS ESPAÇOS LP 17
R 1/p
2. O operador em Lp dada por f → kf kp = Ω |f |p dµ < ∞
é uma norma (pela desigualdade de Minkowsky) . O mesmo
vale para L∞ .
i i
i i
i i
i i
i i
i i
µ1 {j}
h(j) =
µ2 {j}
Note que C é não vazio (por quê?). Considere a ordem parcial in-
duzida da reta nos elementos de C. Pelo teorema da convergência
i i
i i
i i
i i
i i
i i
i i
i i
i i
se e somente se Z
(E[X|G] − g) dP|G = 0
G
Integrando sobre os conjuntos G1 onde o integrando é positivo e sobre
G2 onde o integrando é negativo, a expressão acima vale se e somente
se (E[X|G] − g) = 0 em P|G quase todo ponto.
A probabilidade condicional vem diretamente da esperança condi-
cional colocando, para todo A ∈ F, P{A|G} = E[1A |G]. As pro-
priedades seguintes são consequências praticamente diretas da definição,
suas demonstrações são bons exercı́cios para iniciantes:
Teorema 1.11. Dadas duas variáveis aleatórias X, Y ∈ L1 (Ω):
i i
i i
i i
i i
i i
i i
1.6 Independência
Dados dois espaços de probabilidade (Ω1 , F1 , P1 ) e (Ω2 , F2 , P2 ), de-
finimos um novo espaço de probabilidade chamado de espaço produto
onde o conjunto base é Ω1 × Ω2 , a σ-álgebra produto, denotada por
F1 ⊗ F2 , é aquela gerada pela álgebra dos retângulos A × B onde
A ∈ F1 e B ∈ F2 . A probabilidade produto P1 ⊗ P2 é a extensão da
medida na álgebra dos retângulos para a σ-álgebra F1 ⊗ F2 , onde a
medida sobre os retângulos é dada pelo produto P1 ⊗ P2 (A × B) =
P1 (A) · P2 (B).
Dada uma quantidade infinita (enumerável ou não) de espaços de
probabilidade (Ωλ )λ∈Λ , com as respectivas σ-álgebras(Fλ )λ∈Λ e me-
didas de probabilidade (Pλ )λ∈Λ , podemos também definir o espaço
produto (infinito) da seguinte maneira: lembramos que um elemento
ω desse espaço produto Ω = Πλ∈Λ Ωλ é uma função ω : Λ → Πλ∈Λ Ωλ
tal que a “coordenada”λ
N está em Ωλ , i.e. ω(λ) ∈ Ωλ . Tomamos a σ-
álgebra F = λ∈Λ Fλ como aquela gerada pela álgebra das restrições
em um número finito de coordenadas, os chamados cilindros de di-
mensão finita definidos da seguinte maneira: dados uma sequência
finita de parâmetros λ1 , . . . , λn , uma sequência de subconjuntos men-
suráveis nos respectivos espaços A1 ∈ Fλ1 , . . . , An ∈ Fλn então o
subconjunto
CλA11,...λ
,...,An
n
= {ω : ω(λi ) ∈ Ai , para todo 1 ≤ i ≤ n}
i i
i i
i i
1.6. INDEPENDÊNCIA 25
i i
i i
i i
i i
i i
i i
1.6. INDEPENDÊNCIA 27
Analogamente,
i i
i i
i i
∞ \
[ ∞
lim inf An = An .
n→∞
k=1 n=k
1) Dada
P∞uma sequência de conjuntos mensuráveis (An )n≥1 , se
n=1 P(An ) < ∞ então P(lim sup An ) = 0
i i
i i
i i
Escreveremos X = P- lim Xn
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
1
φX (u) = lim exp{i < u, mn > − < Cn , u >}
n→∞ 2
1
= exp{i < u, lim mn > − < lim Cn , u >}.
n→∞ 2 n→∞
i i
i i
i i
Xd d
X
σY2 = E( λj Xj − λj mj )2
j=1 j=1
2
Xd
= E λj (Xj − mj )
j=1
d
X
= λi λj cij ,
i,j=1
isto é
1
φY (u) = exp{iu < λ, m > − u2 < Cλ, λ >} = φX (uλ)
2
portanto X é gaussiana.
Como consequência imediata deste último resultado temos que
dadas duas variáveis aleatórias gaussianas X e Y independentes, con-
siderando a matriz de covariância em R2 de (X, Y ), concluı́mos que
X + Y é gaussiana com média mX + mY e variância varX + varY .
O próximo teorema mostra que vale a recı́proca do teorema de
integração de funções independentes desde que essas funções tenham
distribuições gaussianas:
i i
i i
i i
x2 y2
Z
1
= exp − 2 exp − 2 dx dy
2πσX σY G1 ×G2 2σX 2σY
x2 y2
Z Z
1 1
= exp − 2 dx exp − 2 dy
2πσX G1 2σX 2πσY G2 2σY
= P{X ∈ G1 } P{Y ∈ G2 }
Teorema 1.19. Se Xn é uma sequência de v.a. gaussianas em Rd e
são tais que Xn converge em probabilidade para uma v.a. X, então
X também é gaussiana.
Demonstração: A métrica do ângulo no cı́rculo é menor que a
métrica euclideana em R2 . Assim, temos que para todo x, y, u ∈ Rd
Portanto, pela hipótese, temos que ei<u,Xn > também converge para
ei<u,X> em probabilidade. Como nestas v.a. as normas são limitadas
(constantes iguais a um), pelo teorema da convergência dominada
temos que ei<u,Xn > converge para ei<u,X> em L1 , isto é
i i
i i
i i
i i
i i
i i
Capı́tulo 2
Processos estocásticos
37
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
∞
\ [
= {ω : d(Xs (ω), G) < 1/n} ∈ Ft
n=1 s≤t,s∈Q
Para (ii): [
{TG < t} = {Xs ∈ G} ∈ Ft .
s≤t,s∈Q
i i
i i
i i
Pn
Naturalmente j Pi,j = 1 para todo i ∈ [1, n]. Outra observação
importante aqui é que essas probabilidades de transição não se al-
teram com o tempo, neste caso dizemos que o processo (ou cadeia)
de Markov é homogêneo no tempo .
Tecnicamente, um processo discreto (Xn )n∈N é de Markov se a
probabilidade condicional satisfizer
µn = µ0 P n .
i i
i i
i i
i i
i i
i i
i i
i i
i i
onde
R o operador Pt f : C(M ) → C(M ) é definido por (Pt f )(x) =
Pt (x, dy)f (y).
Uma medida µ é invariante se µ for invariante pela convolução
com Pt (x, ·) para todo t > 0, i.e. se
Z
µ(A) = Pt (x, A) µ(dx)
M
Da mesma maneira,
Z n
X
f (j) Pk (i, dj) = f (j)p(k)i,j
E j=1
i i
i i
i i
Exemplo 2.3 (Sequências i.i.d.).
Dada uma sequência de variáveis aleatórias i.i.d. X1 , X2 , . . ., ana-
lisar essas v.a. como um processo estocástico indexados em n Xn é
um processo de Markov onde as probabilidade de transição são inde-
pendentes do valor do processo no instante imediatamente anterior,
i.e.
P{Xn+1 ∈ A|σ(Xn )} = P{X1 ∈ A}
para todo n.
Exemplo 2.4 (Sistemas determinı́sticos são processos de Markov).
Seja f : M → M uma dinâmica determinı́stica no espaço métrico
M . Então a sequência dada pela órbita de um ponto x0 pela aplicação
f é um processo de Markov a tempo discreto, sobre o espaço de pro-
babilidade de um único ponto Ω = {ω}, que fica omitido na notação.
As probabilidades de transição são dadas por medidas δ de Dirac
P1 (x, ·) = δf (x) (·)
Se ϕt é um fluxo associado a um campo de vetores, então a
dinâmica é também um processo de Markov a tempo contı́nuo, sobre
o espaço de um espaço de probabilidade de um único ponto Ω = {ω}.
As probabilidades de transição são dadas por Pt (x, ·) = δϕt (x) (·).
O problema que focaremos agora é o inverso dos exemplos que
vimos: ao invés de ser dado um processo estocástico, nos é dada uma
famı́lia de probabilidades de transição. Precisamos garantir a exis-
tência de um processo estocástico satisfazendo essas probabilidades
de transição.
i i
i i
i i
CtA1 1,...,t
,...,An
n
= {ω ∈ M R+ : ω(t1 ) ∈ A1 , . . . , ω(tn ) ∈ An , com
0 ≤ t1 ≤ t2 ≤ . . . ≤ tn , e
A1 , . . . An ∈ B(R)}.
Z Z Z
P(CtA1 1,...,t
,...,An
n
) = ... Ptn−1 ,tn (xn−1 , An ) ·
M A1 An−1
P(CtA1 1,...,t
,...,Ai =M,...,An
) = P(CtA1,...,
,...,Ai ,...,An
).
c
i ,...,tn 1 tb ,...t
i n
i i
i i
i i
i i
i i
i i
i i
i i
i i
E[|Xt+h − Xt |α ] ≤ Kh1+β ,
i i
i i
i i
i i
i i
i i
2.5. MARTINGALES 53
2.5 Martingales
A teoria de martingales se estende enormemente, com várias inter-
secções interessantes com problemas geométricos, analı́ticos, além
dos probabilı́sticos, naturalmente. A intenção desta seção é apre-
sentar sucintamente a linguagem e as propriedades básicas úteis para
a dinâmica estocástica.
i i
i i
i i
Exemplo 2.6 (Submartingales e Supermartingales).
Dado um martingale X, pela desigualdade de Jensen (Proposição
1.12), dada qualquer função convexa g, g(X) é um submartingale.
Em particular vai nos interessar o submartingale |X|p .
i i
i i
i i
2.5. MARTINGALES 55
Fn = σ{X1 , . . . , Xn } ⊆ F.
Pn
Defina o processo Sn dado pela soma Sn = i=1 Xi . Pelo exercı́cio
1.17, a esperança condicional satisfaz
i i
i i
i i
para todo s ≤ t ∈ T .
Um processo estocástico com tempo discreto A é dito previsı́vel,
se for mensurável uma unidade de tempo antes de sua realização, isto
é An é Fn−1 -mensurável, n ≥ 1.
Teorema 2.5 (Decomposição de Doob). Dado um processo esto-
cástico discreto Xn integrável, Fn adaptado, então existe uma de-
composição X = X0 + M + A onde M é um Fn -martingale e A um
processo previzı́vel. Com M e A inicializados no zero a decomposição
é única.
Demonstração: Defina indutivamente, A0 = 0 e
Assim, M0 = 0 e
i i
i i
i i
2.5. MARTINGALES 57
E para p > 1:
p
k sup Xkp ≤ sup kXt kp .
t p−1 t
Exercı́cio 2.14. Considere o processo St = sups≤t Bs que aponta
os máximos das trajetórias do movimento browniano até o tempo
t. Mostre que a probabilidade de St crescer mais que linearmente
decresce exponencialmente com o tempo, precisamente:
a2 t
P{St ≥ at} ≤ e− 2
i i
i i
i i
f (ti ) − f (ti+1 )
Xn (t) = ,
2n
para t ∈ [ti , ti+1 ). Note que Xn é um processo estocástico Fn -
adaptado, verifique que é um Fn -martingale, além disso é limitado
pela constante de Lipschitz da função f . Segue portanto, pelo teo-
rema de convergência de martingales acima que Xn converge para
uma variável aleatória X(t) que corresponde à derivada quase sem-
pre da função inicial, já que f é absolutamente contı́nua portanto
derivável quase sempre. Em particular, se f for derivável, note que
recuperamos o teorema fundamental do cálculo:
Z x
f (x) − f (0) = X(s) ds.
0
i i
i i
i i
2.5. MARTINGALES 59
i i
i i
i i
Portanto
E Mt2 ≤ E Vt sup |Mti − Mti−1 |
i
é um martingale.
i i
i i
i i
2.5. MARTINGALES 61
σti+1 − σti p ,
X
Vt (σ) = lim
|∆|→0
i
Xt − Xt p ,
X
[X]pt := P- lim
i+1 i
|∆n |→0
i
i i
i i
i i
que
R t converge para zero já que o segundo somatório converge para
0
s ds quando n → ∞.
Dizemos que um processo estocástico real A é crescente se para
P-quase todo ω ∈ Ω tivermos que as trajetórias At (ω) são funções
crescentes em t ≥ 0. Uma generalização interessante da decomposição
de Doob, Teorema 2.5, no caso contı́nuo é a seguinte decomposição:
Teorema 2.11 (Decomposição de Doob-Meyer). Dado um submartin-
gale contı́nuo X, então existe uma decomposição X = M + A, onde
M é um martingale e A é um processo crescente de variação finita.
Um dos exemplos mais importantes que ilustram a decomposição
de Doob é a seguinte caracterização da variaçao quadrática de um
martingale:
Teorema 2.12. Seja M um Ft -martingale contı́nuo e limitado. Então
M tem variação quadrática, além disso [M ]t é o único processo adap-
tado crescente, com [M ]0 ≡ 0, P-q.s. tal que M 2 − [M ] é um mar-
tingale.
i i
i i
i i
2.5. MARTINGALES 63
Xk
= E (Mti+1 − Mti )2 + (Mt − Mtk )2 + (Mtj+1 − Ms )2 |Fs
i=j
i i
i i
i i
i i
i i
i i
2.5. MARTINGALES 65
i i
i i
i i
Capı́tulo 3
Cálculo estocástico
66
i i
i i
i i
Rn
Denotaremos o martingale Yn := 0 H dX ou ainda, abreviando,
por Y = H ·X. O processo H é chamado o integrando e X é chamado
o integrador. O que a Proposição 3.1 garante é que se o integrador
for um martingale, então o processo dado pela integral também o é.
Observe também pela demonstração que se X for um submartingale
(ou supermartingale) e o processo H for nao-negativo então Y = H ·X
também será submartingale (ou supermartingale), e vice-versa se H
for não-positivo.
i i
i i
i i
i i
i i
i i
i i
i i
i i
neste intervalo por ε([0, t]). Sendo mais preciso: para cada processo
Hs ∈ ε([0, t]), existe uma partição {0 = t0 < t1 < . . . < tn = t} tal
que
H = H0 1[0,t1 ) + H1 1[t1 ,t2 ) + . . . + Hn−1 1[tn−1 ,tn )
onde cada Hj , j = 0, 1, · · · , n − 1, são variáveis aleatórias limitadas
Ftj -mensuráveis.
Considerando a filtração natural do movimento browniano Ft , a
integral estocástica de Itô de um processo elementar H em relação a
um movimento browniano Wt é dado por
Z t Xn
Hs dWs = Ht(i−1) (Wti − Wt(i−1) ).
0 i=1
i i
i i
i i
Demonstração: De fato
n
!2
X
2
E|Yt | = E Hti−1 (Wti − Wt(i−1) ).
i=1
n
X
= E Ht(i−1) (Wti − Wt(i−1) )Ht(j−1) (Wtj − Wt(j−1) )
i,j=1
X n h i
= E Ht2(i−1) (Wti − Wt(i−1) )2
i=1
n
X
+2 E Ht(i−1) Ht(j−1) (Wti − Wt(i−1) )(Wtj − Wt(j−1) ) .
1=i<j
= E E Ht(i−1) Ht(j−1) (Wti − Wt(i−1) )(Wtj − Wt(j−1) ) | Fi
= E Ht(i−1) Ht(j−1) (Wti − Wt(i−1) ) E (Wtj − Wt(j−1) ) | Fi ,
porque Ht(i−1) Ht(j−1) (Wti − Wt(i−1) ) são Fti -mensuráveis. Como j >
i, segue que a esperança condicional da última linha é zero, portanto
a esperança é zero, o que anula todos os termos do segundo somatório.
i i
i i
i i
i i
i i
i i
4. (Variação quadrática)
Z t Z t Z t
Gs dWs , Hs dWs = Gs Hs ds.
0 0 0
i i
i i
i i
* n n
+
X X
= Gt(i−1) (Wti − Wt(i−1) ), Ht(i−1) (Wti − Wt(i−1) )
i=1 i=1
n
X
= Gt(i−1) Ht(i−1) (ti − t(i−1) )
i=1
Z t
= Gs Hs ds.
0
A teoria de integração feita nesta seção, considerando o movi-
mento browniano como o integrador padrão, se estende facilmente
para a integração em relação a qualquer semimartingale. No caso
geral, naturalmente, as fórmulas de variação quadráticas são difer-
entes destas. O item (4) por exemplo, considerando integradores
dados por semimartingales Mt1 e Mt2 , a fórmula se generaliza para
Z t Z t Z t
Gs dMs1 , Hs dMs2 = Gs Hs d < M 1 , M 2 >s
0 0 0
i i
i i
i i
i i
i i
i i
Antes da demonstração, vejamos ainda algumas aplicações fáceis
mas ilustrativas:
Exemplo 3.3 (Potências do movimento browniano).
Tomando n = 1 no teorema acima, considere f (x) = x2 . Pela
fórmula de Itô temos que
Z t Z t
2
Bt = 2 Bs dBs + 1 ds,
0 0
i i
i i
i i
α2
εα (M )t = exp{αMt − [M ]t } (3.7)
2
que é a solução da EDE:
Demonstração: (Da fórmula de Itô). Considere uma partição ∆ =
{0 = t0 < t1 , . . . < tn = t} do intervalo [0, t]. Pela fórmula de Taylor
para funções de várias variáveis com resto de Lagrange, temos que
para cada ω ∈ Ω,
d
X ∂f
f (Xtk+1 ) = f (Xtk ) + (Xtk )(Xtik+1 − Xtik )
i−1
∂xi
d
1 X ∂2f
+ (ξk )(Xtik+1 − Xtik )(Xtjk+1 − Xtjk )
2 i,j=1 ∂xi ∂xj
i i
i i
i i
em particular
Z t
Xt2 = X02 + 2 Xs dXs + [X, Y ]t .
0
Demonstração: Exercı́cio.
Observação 3.5.
1. Na demonstração da fórmula de Itô, usamos funções de classe
C 2 justamente porque martingales contı́nuos tem trajetórias de
p-variação caracterı́stica com p = 2. Note que um cálculo en-
volvendo trajetórias contı́nuas de p-variação caracterı́stica com
p > 2 exigirá mais das derivadas da f . Esse é o caso da teo-
ria chamada de “rough path”de T. Lyons. Ver por exemplo T.
Lyons [41] ou [42].
i i
i i
i i
é um martingale complexo.
Demonstração: Assuma (i), isto é que X = (B 1 , . . . , B n ) é um
MB em Rn . Temos que para todo t, Xt é uma gaussiana em Rn ,
portanto os B j ’s são independentes, portanto são martingales e por-
tanto martingales locais. Porém, pelo Teorema 2.13, sabemos que
B i B j − [B i , B j ] é martingale local. Mas
i i
i i
i i
d Z
X t
= fk2 d[X k ]s
k 0
d Z t
X
= fk2 ds.
k 0
1
εif 2
t = exp{i < ξ, Xt − Xs > + ||ξ|| (t − s)}
2
.
i i
i i
i i
E1A εif if
t = E1A εs
i i
i i
i i
Isso implica que [f (Bt )]T não é um martingale visto que a última
integração se faz com um integrando estritamente positivo, o que é
uma contradição. Segue que ∆f é identicamente nulo.
Esse tipo de caracterização via imagem de movimento browniano
se estende para aplicações harmônicas entre variedades riemannianas,
ver por exemplo Catuogno e Ruffino [7].
i i
i i
i i
i i
i i
i i
Z t Z t
(SU )t = x0 + f0 (s, Us ) ds + f1 (s, Us ) dWs .
0 0
Φt (U, V ) = E sup |Us − Vs |2 ,
s≤t
Z
s Z s
Φt (SU, SV ) = E sup
f0 (s, Us ) ds + f1 (s, Us ) dWs
s≤t 0 0
Z s Z s 2 #
− f0 (s, Vs ) ds − f1 (s, Vs ) dWs
0 0
" 2
Z s
≤ 2E sup f0 (s, Us ) − f0 (s, Vs ) ds
s≤t 0
Z s 2 #
+ sup f1 (s, Us ) − f1 (s, Vs ) dWs
s≤t 0
Z t 2
Φt (SU, SV ) ≤ 8E f1 (s, Us ) − f1 (s, Vs ) dWs
0
Z t Z t
2
+E 1 ds |f0 (s, Us ) − f0 (s, Vs )| ds
0 0
i i
i i
i i
E sup |Us − Vs |2 = 0,
s≤t
i i
i i
i i
i i
i i
i i
i i
i i
i i
Dizemos que uma solução da EDE (3.8) é forte quando ela puder
ser construı́da a partir dos movimentos brownianos estipulados nesta
mesma equação. A demonstração de existência e unicidade de soluções
de EDE que fizemos acima é para soluções fortes. Em contraste, uma
solução é dita fraca se ela for escrita em relação a outro movimento
browniano que não os integradores originais. Um exemplo simples
para ilustrarmos é o seguinte. Considere a EDE:
i i
i i
i i
dxt = dW
ft , (3.11)
1
dR = dt + dB̃t ,
2R
i i
i i
i i
i i
i i
i i
i i
i i
i i
Exercı́cio 3.9. Use o Lema 3.16 para mostrar que os processos W̃t e
B̃t das fórmulas (3.11) e (3.12) são de fato movimentos brownianos.
i i
i i
i i
3.5.2 Aplicações
Nos próximos exemplos exploraremos a fórmula de Dynkin. Os dois
primeiros exemplos fornecem informações sobre a dinâmica do MB
(ver Oksendal [47]). No terceiro exemplo resolveremos o problema
clássico de Dirichlet de função harmônica com condição de fronteira.
Exemplo 3.7 (tempo de saı́da de conjunto limitado).
Suponha que temos um MB Xt inicializado em a ∈ Rn , cujo ger-
ador infinitesimal sabemos que é 12 ∆. Dado uma esfera de raio R,
maior que |a|, considere o tempo de parada τ dado pelo tempo de
saı́da de Xt da bola B0 (R). Em princı́pio não sabemos nem se esse
tempo de parada é finito, já que muitas trajetórias ficam eternamente
dentro desta bola. Assim, para garantir que nas fórmulas estaremos
usando um tempo de parada limitado, considere a sequência de tem-
pos de parada τk = τ ∧ k.
Considere a função diferenciável f (x) = |x|2 , cujo laplaciano é
constante ∆f = 2n, em todo ponto. Assim, aplicando a fórmula de
Dynkin temos:
Z τk
Ef (Xτk ) = |a|2 + E n ds (3.13)
0
= |a|2 + nEτk .
i i
i i
i i
i i
i i
i i
log(|b|/R)
pk = 1 −
k log 2
i i
i i
i i
i i
i i
i i
i i
i i
i i
Rt
De fato, a tı́tulo de exemplo, considere a integral 0 Bs dBs e
uma partição ∆ = {0 = t0 < t1 < . . . < tn = t}. Calculando
as esperanças das somas de Riemann, com os integrandos avaliados
como na integral de Itô temos:
n−1
X n−1
X
E Bti (Bti+1 − Bti ) = E Bti (Bti+1 − Bti ) = 0
i=0 i=0
i i
i i
i i
n−1
X 1
(ft + ftk )(Xtk+1 − Xtk ) =
i=0
2 k+1
n−1 n−1
X 1X
ftk (Xtk+1 − Xtk ) + (ftk+1 − ftk )(Xtk+1 − Xtk ).
i=0
2 i=0
i i
i i
i i
onde
m n
1 XX i ∂Yj
X̃(t, xt ) = X(t, x) + Yj (t, x)
2 j=1 i=1 ∂xi
m
1X
= X(t, x) + d(Yj )(t,x) (Yj ),
2 j=1
i i
i i
i i
d Z t
X ∂F
F (Xt ) = F (X0 ) + (Xs ) ◦ dXsi
i=1 0 ∂xi
Rt
O somatório do lado direito também será escrito como 0
< ∇F, dXs >,
onde ∇F é o gradiente da F .
d Z t d Z t
X ∂F X ∂F
(Xs ) ◦ dXsi = (Xs ) dXsi
i=1 0 ∂xi i=1 0 ∂xi
d
1 X ∂F i
+ (Xs ), dXs .
2 i ∂xi
i i
i i
i i
d Z
1 X t ∂3F
+ (Xs ) d[Xk , X j ]s .
2 0 ∂xj ∂xk ∂xi
j,k=1
∂F
Portanto, a componente martingale local de ∂x i
(Xt ) está contido no
processo
d Z t
X ∂2F
(Xs ) dXsj .
j=1 0
∂xj ∂xi
i i
i i
i i
i i
i i
i i
Capı́tulo 4
Sistemas dinâmicos
estocásticos
m
X
dxt = X(xt ) dt + Yj (xt ) ◦ dBtj , (4.1)
j=1
104
i i
i i
i i
i i
i i
i i
(4.1), é uma equação onde temos funções no tempo que podem con-
trolar o impacto dos campos vetoriais nas trajetórias:
m
X
ẋt = X(xut ) + v j (t) Yj (xut ). (4.2)
j=1
i i
i i
i i
i i
i i
i i
1
lim log |dφt (ω, x)(v0 )| = λk .
t→∞ t
i i
i i
i i
i i
i i
i i
i i
i i
i i
P-q.s..
A demonstração deste teorema é uma aplicação direta do teo-
rema ergódico de Birkhoff 5.7. Ver Ruffino [56]. Neste mesmo ar-
tigo mostramos que no caso estocástico também podemos recons-
truir o número de rotação de um sistema contı́nuo se fizermos uma
amostragem em um sistema estocástico linear com frequência grande
o suficiente:
Considere a seguinte EDE linear em R2 :
m
X
dxt = Axt dt + B i xt ◦ dWti , (4.3)
i=1
i i
i i
i i
i i
i i
i i
i i
i i
i i
Geometria estocástica
As equações de Itô ou Stratonovich em variedades diferenciáveis vem
ganhando bastante interesse, não só por generalizar propriedades
conhecidas, mas principalmente porque apontam para propriedades
geométricas e topológicas intrı́nsecas. O movimento browniano em
uma variedade riemanniana carrega informações sobre a geometria
desta, a tı́tulo de exemplo, ver [7]. Em particular, um grande im-
pulso foi dado quando Itô fez o levantamento horizontal no fibrado
das bases de um processo na variedade. A partir do transporte par-
alelo estocástico, integração de 1-formas, teoria de Hodge-de Rham,
análise estocástica no espaço de laços e vários outros tópicos foram
ganhando interesse. Em particular, recentemente, difusões em fol-
heações, ver S. Ledesma [35] e referências dali.
i i
i i
i i
Capı́tulo 5
Apêndices
115
i i
i i
i i
i i
i i
i i
Seja
Tome ω ∈ lim inf Acm , então existe m0 (ω) ∈ N tal que para todo
m ≥ m0 (ω),
|Xt (ω) − Xs (ω)| ≤ 2−γm ,
para todo t, s ∈ ∆m consecutivos.
Mostraremos agora que Xt |∆ é contı́nuo com esta restrição de
domı́nio, para todo ω fixado em lim inf Acm .
De fato, para esse ω fixado, considere t ∈ ∆. Dado um ε > 0
tome
2−γm
m = min m : γ < ε, t ∈ ∆m .
2 −1
i i
i i
i i
2) Considere o caso t ∈
/ ∆. Queremos provar que existe um subcon-
junto que pode depender de t, Ωt ⊂ Ω, de probabilidade um tal que
se ω ∈ Ωt então X̃t (ω) = Xt (ω). Considere então a sequência de
subconjuntos mensuráveis:
1
Ωn,t = {ω : |X̃t (ω) − Xt (ω)| ≤ },
n
para cada n ∈ N. Seja δ a probabilidade
1
δ := P{Ωcn,t } = P{ω : |X̃t (ω) − Xt (ω)| > }
n
Vamos mostrar que δ = 0 para todo n ∈ N. Tome uma sequência
si → t, com si ∈ ∆, para todo i = 1, 2, . . .. A continuidade de X̃t e o
i i
i i
i i
isto é, α
δ 1
≥ E .|Xsi − Xt |α ,
2 n
para todo i > k, o que implica que δ = 0 pois, por hipótese
i i
i i
i i
A demonstração do teorema de Kolmogorov (também chamado
de Kolmogorov-Tchentsov) acima garante mais do que o enunciado.
Na verdade, a modificação X̃ do processo X que construı́mos é local-
mente γ-Hölder contı́nua para todo γ ∈ (0, β/α). Mais precisamente,
existe uma v.a. h(ω) positiva q.s. e uma constante δ tal que
( )
|X̃t − X̃s |
P ω: sup γ
< δ = 1.
0≤t−s≤h(ω) |t − s|
5.3 Gaussianas
Um fato interessante, que mostra como que as gaussianas tem papel
estrutural na teoria, é a possibilidade de decompormos o espaço L2 (Ω)
como polinômios dessas variáveis aleatórias. Na Observação 1.22, ve-
rificamos que como convergência em Lp (Ω) implica em convergência
em probabilidade, então o Teorema 1.19 garante que o subespaço de
gaussianas centradas H1 contido em L2 (Ω) seja fechado. Esse subes-
paço corresponde ao primeiro subespaço H1 da decomposição em caos
de Wiener, dado por polinômios de Hermite compostos com gaus-
sianas. Obtem-se assim uma decomposição de L2 em somas diretas
ortogonais:
M∞
L2 (Ω) = Hi
i=0
onde Hi , i = 0, 1, . . . são subespaços de funções obtidas do i-ésimo
polinômio de Hermite hi de v.a. gaussianas. Os polinômios de Her-
mite são definidos por:
2 dn −x2 /2
hn (x) = (−1)n ex /2
e .
dxn
Os primeiros polinômios desta série são h0 (x) = 1, h1 (x) = x, h2 (x) =
x2 − 1, h3 (x) = x3 − 3x, etc. Esses polinômios são ortogonais quando
2
na reta tomamos a medida gaussiana e−x /2 . Para ver mais sobre
caos de Wiener recomendamos, por exemplo Nualart [46].
i i
i i
i i
onde Z k
1 2
Φ(k) = √ e−x /2 dx.
−∞ 2π
Exercı́cio 5.2. Aplique o teorema do limite central para verificar
que as distribuições de Poisson indexadas por λ se aproximam da
normal N (λ, λ) quanto maior for λ. (Sugestão: some v.a. de Poisson
independentes com λ = 1, use que essas somas são v.a. de Poisson
com média e variância dadas pela soma desses parâmetros, Exercı́cio
5.1, e o teorema mencionado).
i i
i i
i i
dxt = dBt
xo = x (0)
d2 xt dBt
= −βv + σ
dt2 dt
O resultado principal dessa abordagem é que, com as trajetórias
xt deriváveis (!) podemos ajustar os parâmetros β e σ para obter
uma aproximação, em termos de distribuição de dimensão finita, do
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
1 t
Z Z
lim f (Xs ) ds = f (x) dµ(x) P × µ–q.s..
t→∞ t 0 M
i i
i i
i i
Bibliografia
127
i i
i i
i i
128 BIBLIOGRAFIA
i i
i i
i i
BIBLIOGRAFIA 129
i i
i i
i i
130 BIBLIOGRAFIA
[41] T. Lyons and Qian, Z. – System control and rough paths. Ox-
ford Mathematical Monographs. Oxford University Press, Ox-
ford, 2002.
i i
i i
i i
BIBLIOGRAFIA 131
[49] M. A. Pinsky - Can you feel the shape of a manifold with Brow-
nian motion? Topics in Contemporary Probability and Its Ap-
plications, 1995
i i
i i
i i
132 BIBLIOGRAFIA
i i
i i
i i
Índice
σ-álgebra, 4 em lei, 30
completamento de, 7 em probabilidade, 29
discreta, 7 fraca de medidas, 30
dos borelianos, 4 q.s., 29
gerada, 4 Convergência uniforme em proba-
produto, 24 bilidade nos compactos
trivial, 7 (ucp), 105
Álgebra, 4 Conversão Itô-Stratonovich, 99
Convolução de medidas, 46, 115
Aproximação poligonal do MB, 105 Covariância, 14
133
i i
i i
i i
134 ÍNDICE
i i
i i
i i
ÍNDICE 135
i i
i i
i i
136 ÍNDICE
Valor esperado, 10
Variável aleatória, 6
p-momento, 14
gaussianas, 30
de Poisson, 116
i i
i i