Você está na página 1de 155

Dinamica Estocastica

e
Irreversibilidade
Dinamica Estocastica e
Irreversibilidade
Tania Tome e
Mario Jose de Oliveira
A
Maria Roza
Wilson Tome
Natalina Bacchi de Oliveira
Jo ao Batista de Oliveira
e
Pedro Tome de Oliveira
Sum

ario
1. Variaveis Aleat orias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1 Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Variavel Aleat oria Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3 Variavel Aleat oria Contnua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Medias e Momentos de uma Distribui cao. . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Fun cao Caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Fun cao Geratriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.7 Mudan ca de Variavel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.8 Distribui cao Conjunta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2. Seq uencia de Variaveis Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.1 Soma de Variaveis Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Lei dos Grandes N umeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3 Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4 Passeio Aleat orio Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5 Passeio Aleat orio Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3. Equa cao de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.1 Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
10

Dinamica Estocastica e Irreversibilidade
3.2 Distribui cao de Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3 Conjunto de Equa coes de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4 Evolu cao Temporal dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 Simula cao do Movimento Aleat orio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.6 Equa cao de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4. Equa cao de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1 Equa cao em uma Variavel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2 Solu cao Estacionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.3 Operador de Evolu cao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4 Equa cao Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.5 Operador Hermitiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.6 Equa cao em V arias Variaveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.7 Metodo Estocastico de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5. Cadeias de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1 Processos Estocasticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Matriz Estocastica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3 Teorema de Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.4 Metodo Algebrico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.5 Reversibilidade Microsc opica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.6 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.7 Modelo de Ehrenfest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.8 Passeio Aleat orio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.9 Recorrencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.10 Passeio Aleat orio Multidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6. Equa cao Mestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.1 Introdu cao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2 Matriz de Evolu cao W . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.3 Comportamento para Tempos Longos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.4 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.5 Metodo Algebrico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.6 Reversibilidade Microsc opica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.7 Passeio Aleat orio Generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.8 Rea coes Qumicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.9 Metodo da Fun cao Geratriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.10 Expans ao em Serie Temporal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.11 Expans ao Perturbativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

11 Sumario
7. Metodo de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.1 Introdu cao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.2 Algoritmo de Metropolis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.3 Oscilador Harmonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
7.4 Modelo de Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.5 Sistema Cl assico de Moleculas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.6 Fun cao de Correla cao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8. Transi coes de Fase e Criticalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.1 Introdu cao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.2 Quebra Espont anea de Simetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.3 Modelo Cinetico de Bragg-Williams. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.4 Teoria Cinetica de Landau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.5 Teoria de Ornstein-Zernike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.6 Expoentes Crticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
1
Vari

aveis Aleat

orias
1.1 PROBABILIDADE
Um objeto pesado abandonado a alguns metros do solo, a partir do repouso,
atingira o chao num ponto situado verticalmente abaixo do ponto onde foi solto.
Repetindo esse ensaio, nao importa quantas vezes, constataremos que o objeto
cair a sempre no mesmo ponto. Por outro lado, se considerarmos um objeto
leve como uma pequena folha de papel no lugar do objeto pesado, e repetindo
in umeras vezes o mesmo ensaio, veremos que a folha atingira o solo em pontos
distintos, apesar de ser solta do mesmo ponto, e mesmo na ausencia completa
de ventos. A forma planar da folha associada ao seu pequeno peso aumentam
consideravelmente o atrito com o ar, tornando o movimento da folha irregular.
O primeiro ensaio, com o objeto pesado, e um fenomeno previsvel, enquanto
que o segundo, com a folha de papel, e um fenomeno aleat orio.
A princpio poderamos pensar que um fenomeno aleat orio, como a queda
de folhas de papel descrita acima, nao possui uma regularidade e portanto nao
seria passvel de um estudo sistematico. Entretanto, apos uma reexao mais
detalhada, vericamos que e possvel, de fato, observar uma regularidade em
fenomenos aleat orios. Examinando a queda de uma folha repetidas vezes ou,
equivalentemente, observando a queda seq uencial de in umeras folhas identicas,
14

Dinamica Estocastica e Irreversibilidade
podemos perceber que o monte de folhas cadas no chao adquire uma certa
forma. Considerando uma outra seq uencia de folhas que caem, cons- tataremos
que a forma do novo monte sera identica `a anterior, desde que o n umero de
folhas seja sucientemente grande. Qualquer seq uencia de folhas que caem ao
chao, a partir de um mesmo ponto, dar a origem a montes de folhas com a mesma
forma.

E essa a regularidade que se pode observar nesse fenomeno aleat orio.
A teoria das probabilidades e seus desdobramentos, a teoria dos processos
estocasticos e a din amica estocastica, constituem a linguagem apropriada para
a descri cao dos fenomenos aleat orios. Elas est ao apoiadas em dois conceitos
fundamentais: o conceito de probabilidade e o conceito de variavel aleat oria
que sera discutido a partir da proxima se cao. A deni cao de probabilidade se
faz construindo o conjunto de todos os possveis resultados de uma determinada
experiencia, agrupando-os em subconjuntos mutuamente excludentes. Se a cada
um desses subconjuntos for atribudo um n umero real nao negativo tal que a
soma deles seja igual a unidade, ent ao estaremos diante de uma distribui cao de
probabilidades denida sobre o conjunto dos possveis resultados. Ressaltamos
que essa deni cao e muito geral e portanto insuciente para a determina cao da
probabilidade associada a casos especcos. A determina cao da distribui cao de
probabilidades que se deve atribuir aos resultados de uma experiencia especca
constitui um problema fundamental que deve ser resolvido pela constru cao de
uma teoria ou de um modelo que descreva a experiencia.
O conceito de probabilidade, assim como o de qualquer outra grandeza fsica,
possui dois aspectos: um relativo `a sua deni cao e o outro `a sua interpreta c ao.
Para a maioria das grandezas fsicas, os dois aspectos est ao diretamente re-
lacionados. Entretanto, isso nao acontece com a no cao de probabilidade. A
interpreta cao de probabilidade nao segue diretamente de sua deni cao. Inter-
pretamos a probabilidade de um certo resultado como a freq uencia de ocorrencia
desse resultado (interpreta cao freq uencial). Retomando o exemplo das folhas
que caem ao chao, suponha que tenhamos tra cado no solo um quadriculado
e determinado o n umero de folhas cadas em cada quadrado utilizando uma
seq uencia grande de folhas. A probabilidade de que uma folha de papel caia
dentro de um determinado quadrado e interpretada como sendo igual `a raz ao
entre o n umero de folhas cadas nesse quadrado e o n umero total de folhas
cadas.

15 Variaveis Aleatorias
1.2 VARI

AVEL ALEAT

ORIA DISCRETA
Considere uma variavel numerica que assume os valores inteiros e suponha que
a cada valor de esteja associado um n umero real p

, nao negativo,
p

0, (1.1)
tal que

= 1. (1.2)
Caso isso aconte ca, sera uma variavel aleat oria discreta e p

sera a distribui cao


de probabilidade da variavel aleat oria .
Exemplo 1. Distribui cao binomial:
p

= (
N

)a

b
N
, (1.3)
onde a e um par ametro tal que 0 < a < 1, b = 1 a e
(
N

) =
N!
!(n )!
. (1.4)
A variavel aleat oria toma os valores 0, 1, 2, ..., N 1, N. Note que
N

=0
p

= (a +b)
N
= 1. (1.5)
Exemplo 2. Distribui cao de Poisson:
p

= e

!
, (1.6)
onde e um par ametro tal que > 0. A variavel aleat oria toma os valores
0, 1, 2, 3, .... Note que

=0
p

= e

=0

!
= 1. (1.7)
1.3 VARI

AVEL ALEAT

ORIA CONT

INUA
Uma variavel aleat oria contnua x pode assumir qualquer valor sobre a reta
real. Nesse caso associamos uma probabilidade a cada intervalo da reta. A
probabilidade de que variavel aleat oria x esteja no intervalo [a, b] e
_
b
a
(x)dx, (1.8)
16

Dinamica Estocastica e Irreversibilidade
onde (x) e a densidade de probabilidade, que deve ter as propriedades
(x) 0 (1.9)
e _

(x)dx = 1. (1.10)
A distribui cao acumulada de probabilidades F(x) e denida por
F(x) =
_
x

(y)dy (1.11)
e e uma fun cao monotonica crescente.
Exemplo 3. Distribui cao gaussiana:
(x) =
1

2
2
exp(
x
2
2
2
). (1.12)
Exemplo 4. Distribui cao de Laplace:
(x) =
1
2
exp(
[x[

). (1.13)
Recorrendo ao uso da fun cao delta de Dirac, uma distribui cao discreta de
probabilidades p

pode ser descrita pela seguinte densidade de probabilidade:


(x) =

(x ). (1.14)
Com esse recurso, a nota cao empregada para variaveis aleat orias contnuas pode
ser usada tambem para variaveis discretas, quando for conveniente.
1.4 M

EDIAS E MOMENTOS DE UMA DISTRIBUIC



AO
Considere uma fun cao f(x) e seja (x) a densidade de probabilidades associada
a x. A media f(x)) e denida por
f(x)) =
_
f(x)(x)dx. (1.15)
Os momentos
n
s ao denidos por

n
= x
n
) =
_
x
n
(x)dx. (1.16)

17 Variaveis Aleatorias
O primeiro momento
1
e simplesmente a media de x. A dispersao ou variancia

2
e denida por

2
= (x x))
2
) (1.17)
e e sempre nao negativa.

E facil ver que

2
= x
2
) x)
2
=
2

2
1
, (1.18)
bastando para isso usar a seguinte propriedade da media
af(x) +bg(x)) = af(x)) +bg(x)), (1.19)
onde a e b s ao constantes.
Exemplo 5. Momentos da distribui cao gaussiana. Considere a seguinte iden-
tidade:
_

exp(
x
2
2
)dx =

2
1/2
, (1.20)
v alida para > 0. Se derivarmos com rela cao a ambos os membros dessa
expressao m vezes, obtemos:
_

x
2m
exp(
x
2
2
)dx = 1 3 5 ... (2m1)

2
1/2

2m
. (1.21)
Dividindo ambos os membros por

2
1/2
e fazendo as substitui coes
1
=
2
e 2m = n, obtemos:

n
=
1

2
2
_

x
n
exp(
x
2
2
2
)dx = 1 3 5 ... (n 1)
n
, (1.22)
v alida para n par. Em particular

2
=
2
,
4
= 3
4
,
6
= 15
6
. (1.23)
Os momentos mpares da distribui cao gaussiana s ao nulos.
1.5 FUNC

AO CARACTER

ISTICA
A fun cao caracterstica g(k) de uma variavel aleat oria x e denida como a
transformada de Fourier da densidade de probabilidade associada a x, isto e,
g(k) =
_
(x)e
ikx
dx = e
ikx
). (1.24)
18

Dinamica Estocastica e Irreversibilidade
Ela possui as seguintes propriedades:
g(0) = 1 (1.25)
e
[g(k)[ 1. (1.26)
Exemplo 6. A Fun cao caracterstica da distribui cao gaussiana e tambem
uma fun cao gaussiana e e dada por
g(k) = exp(

2
k
2
2
). (1.27)
A fun cao caracterstica e util na obten cao dos momentos
n
, pois o desen-
volvimento de g(k) em serie de Taylor, quando existe, nos da
g(k) = 1 +

n=1
(ik)
n
n!

n
. (1.28)
Essa expressao se obtem diretamente de (1.24) atraves do desenvolvimento de
e
ikx
em potencias de x. A fun cao caracterstica sempre existe. Entretanto,
nem sempre e possvel desenvolve-la em serie de Taylor, o que signica que a
distribui cao de probabilidade nao possui momentos.
Exemplo 7. A distribui cao de probabilidades de Lorentz
(x) =
a
(a
2
+x
2
)
, (1.29)
onde a > 0, possui como fun cao caracterstica a seguinte fun cao:
g(k) = exp(a[k[). (1.30)
Esta claro que g(k) nao e diferenciavel em k = 0 e, portanto, nao possui desen-
volvimento em serie de Taylor.
A fun cao caracterstica tambem serve para gerar os cumulantes
n
que s ao
denidos atraves de
g(k) = exp

n=1
(ik)
n
n!

n
. (1.31)

19 Variaveis Aleatorias
Tomando o logaritmo do lado direito de (1.28), desenvolvendo-a em serie de
Taylor e comparando com o lado direito de (1.31), obtemos as seguintes rela coes
entre os cumulantes e os momentos:

1
=
1
, (1.32)

2
=
2

2
1
, (1.33)

3
=
3
3
2

1
+ 2
3
1
, (1.34)

4
=
4
4
3

1
3
2
2
+ 12
2

2
1
6
4
1
(1.35)
etc. Comparando (1.27) e (1.31), vemos que todos os cumulantes da distribui cao
gaussiana, a partir do terceiro, s ao nulos.
Considere o caso de uma variavel aleat oria discreta que toma os valores x

.
Ent ao
(x) =

(x x

) (1.36)
de onde conclumos que a fun cao caracterstica de uma variavel discreta e dada
por
g(k) =

e
ikx

. (1.37)
Exemplo 8. Uma variavel aleat oria discreta assume os valores +1 e 1 com
probabilidades iguais a 1/2. Usando a nota cao acima, temos x
0
= 1 e x
1
= 1
e p
0
= p
1
= 1/2 de modo que a fun cao caracterstica e
g(k) = cos k. (1.38)
A obten cao de (x) a partir de g(k) se faz tomando-se a antitransformada
de Fourier, isto e,
(x) =
1
2
_
g(k)e
ikx
dk. (1.39)
1.6 FUNC

AO GERATRIZ
Para distribui coes de probabilidades correspondentes a variaveis discretas que
tomam os valores 0, 1, 2, ..., muitas vezes e conveniente o uso da fun cao geratriz
G(z) denida por
G(z) =

=0
p

. (1.40)
20

Dinamica Estocastica e Irreversibilidade
A serie e convergente pelo menos para 1 z 1. Derivando sucessivamente
a fun cao geratriz, vemos que ela possui as seguintes propriedades:
G

(1) =

=1
p

= ) (1.41)
e
G

(1) =

=2
( 1)p

=
2
) ). (1.42)
Assim os momentos podem ser calculados a partir das derivadas da fun cao
geratriz calculadas em z = 1.
Exemplo 9. A fun cao geratriz para a distribui cao binomial, equa cao (1.3), e
dada por
G(z) =
N

=0
(
N

)a

b
N
z

= (az +b)
N
. (1.43)
Determinando as derivadas G

(z) e G

(z) e usando as formulas (1.41) e (1.42)


obtemos a media
) = Na, (1.44)
e a variancia

2
) )
2
= Nab, (1.45)
da distribui cao binomial.
1.7 MUDANCA DE VARI

AVEL
Considere duas variaveis aleat orias x e y tais que y = f(x). Suponha que a
densidade de probabilidade da variavel x seja
1
(x). Como obter a densidade
de probabilidade
2
(y) da variavel y? A resposta a essa pergunta e dada pela
formula:

2
(y) =
_
(y f(x))
1
(x)dx, (1.46)
cuja demontra cao sera feita a seguir.
Seja g
2
(k) a fun cao caracterstica correspondente `a variavel y. Como x e y
est ao ligados por y = f(x), ent ao podemos escrever:
g
2
(k) = exp(iky)) = expikf(x)) =
_
e
ikf(x)

1
(x)dx. (1.47)

21 Variaveis Aleatorias
Por outro lado,

2
(y) =
1
2
_
e
iky
g
2
(k)dk, (1.48)
de onde obtemos:

2
(y) =
1
2
_ _
e
ik[yf(x)]

1
(x)dkdx. (1.49)
Usando a representa cao
(x) =
1
2
_
e
ikx
dk (1.50)
para a fun cao delta de Dirac, obtemos a rela cao desejada.
Se f(x) for biunvoca ent ao a formula (1.46) nos da
_
y
2
y
1

2
(y)dy =
_
x
2
x
1

1
(x)dx, (1.51)
onde x
1
e x
2
s ao tais que y
2
= f(x
2
) e y
1
= f(x
1
). Essa expressao pode ser
escrita de forma equivalente como

2
(y)dy =
1
(x)dx. (1.52)
Exemplo 10. Seja y = x
2
e
1
(x) = 1 para 0 x 1 e zero para outros
valores de x. Ent ao

2
(y) =
_
1
0
(y x
2
)dx =
_
1
0
1
2[x[
(x

y)dx =
1
2

y
. (1.53)
Outra maneira e usar a expressao (1.52) acima para obter

2
(y) =
1
(x)
1
dy/dx
=
1
2x
=
1
2

y
. (1.54)
Em simula coes numericas de processos estocasticos, a gera cao de n umeros
aleat orios que possuem uma certa distribui cao de probabilidades constitui um
item indispensavel. O caso mais simples e mais usado e o de n umeros gera-
dos no intervalo [0, 1] com igual probabilidade. Denotando por uma variavel
aleat oria com tal propriedade, a densidade de probabilidade p() de e dada
por p() = 1. Entretanto, em algumas simula coes, deseja-se gerar n umeros
aleat orios com outra distribui cao de probabilidades, digamos com uma densi-
dade de probabilidade (x) denida no intervalo a x b. Se conseguirmos
determinar a rela cao x = f() entre x e , ent ao podemos gerar x a partir de
usando essa rela cao.
22

Dinamica Estocastica e Irreversibilidade
Vamos considerar aqui somente o caso em que (x) corresponde a uma fun cao
f() biunvoca. Nesse caso, usando a expressao (1.51), obtemos:
_

0
p(

)d

=
_
x
a
(x

)dx

. (1.55)
Tendo em vista que p() = 1, ent ao
=
_
x
a
(x

)dx

= F(x), (1.56)
onde F(x) e a distribui cao acumulada de probabilidade associada `a variavel x.
Portanto, f() e a fun cao inversa de F(x), isto e, x = f() = F
1
().
Exemplo 11. Suponha que (x) = 2x e 0 x 1. Ent ao, F(x) = x
2
e
portanto x = f() =

.
O metodo descrito acima s o e interessante quando F(x) e sua inversa podem
ser obtidos em forma fechada. Esse nao e o caso, por exemplo, da distribui cao
gaussiana. Na parte nal da proxima se cao, veremos uma alternativa para
contornar esse problema para o caso gaussiano.
1.8 DISTRIBUIC

AO CONJUNTA
Suponha que x e y sejam duas variaveis aleat orias. A probabilidade de que x
se encontre no intervalo [a, b] e y no intervalo [c, d] e
_
b
a
_
d
c
(x, y)dxdy. (1.57)
onde (x, y) e a densidade conjunta de probabilidade de x e y. Ela possui as
propriedades
(x, y) 0 (1.58)
e _ _
(x, y)dxdy = 1. (1.59)
A partir dela podemos obter as densidades marginais de probabilidade
1
(x) de
x e
2
(y) de y, dadas, respectivamente, por

1
(x) =
_
(x, y)dy (1.60)
e

2
(y) =
_
(x, y)dx. (1.61)

23 Variaveis Aleatorias
As variaveis aleat orias x e y s ao independentes entre si quando (x, y) =
1
(x)
2
(y).
Nesse caso, a media do produto de duas fun coes, X(x) e Y (y), e igual ao produto
da media, isto e,
X(x)Y (y)) = X(x))Y (y)). (1.62)
Dado (x, y), a distribui cao de probabilidades
3
(z) de uma terceira variavel
aleat oria z que depende de x e y atraves de z = f(x, y) pode ser obtida por
meio da formula

3
(z) =
_ _
(z f(x, y))(x, y)dxdy. (1.63)
Para o caso de duas variaveis aleat orias u e v que dependem de x e y atraves
da seguinte trasforma cao u = f
1
(x, y) e v = f
2
(x, y), a distribui cao conjunta de
probabilidades
3
(u, v) das variaveis aleat orias u e v e dada por

3
(u, v) =
_ _
(u f
1
(x, y))(v f
2
(x, y))(x, y)dxdy. (1.64)
Ambas as formulas (1.63) e (1.64) podem ser demonstradas utilizando um pro-
cedimento analogo ao caso de uma variavel, visto na se cao 1.7.
Se a transforma cao (x, y) (u, v) for biunvoca, a formula (1.64) implica

3
(u, v)dudv = (x, y)dxdy. (1.65)
Exemplo 12. A distribui cao de velocidades de Maxwell e dada por
(x, y, z) =
_

2
_
3/2
exp

2
(v
2
x
+v
2
y
+v
2
z
), (1.66)
onde v
x
, v
y
e v
z
s ao as componentes cartesianas da velocidade de uma molecula,
e = m/(k
B
T) onde m e a massa da molecula, k
B
e a constante de Boltzmann
e T a temperatura absoluta. Queremos determinar a distribui cao de probabili-
dades
vel
(v) correspondente ao modulo v da velocidade de uma molecula, dada
por v =
_
v
2
x
+v
2
y
+v
2
z
. Para isso, determinamos inicialmente a densidade de
probabilidades conjunta
3
(v, , ) onde e s ao os angulos esfericos. A partir
de

3
(v, , )dvdd = (v
x
, v
y
, v
z
)dv
x
dv
y
dv
z
(1.67)
e usando a rela cao dv
x
dv
y
dv
z
= v
2
sin dvdd entre coordenadas cartesianas e
esfericas, obtemos:

3
(v, , ) =
_

2
_
3/2
exp(

2
v
2
)r
2
sin . (1.68)
24

Dinamica Estocastica e Irreversibilidade
Logo

vel
(v) =
_

0
_
2
0

3
(v, , )dd = 4
_

2
_
3/2
v
2
exp(

2
v
2
). (1.69)
Um exemplo muito util do emprego de transforma cao de variaveis encontra-
se no seguinte algoritmo utilizado para gerar n umeros aleat orios que estejam dis-
tribudos de acordo com a distribui cao gaussiana a partir de n umeros aleat orios
gerados com igual probabilidade no intervalo [0, 1]. Sejam e duas variaveis
aleat orias independentes e uniformemente distribudas no intervalo [0, 1] e con-
sidere duas variaveis aleat orias r e denidas por
r =
_
2

[ ln(1 )[ e = 2, (1.70)
onde e uma constante positiva. Elas possuem as seguintes densidades de
probabilidades:

1
(r) = r exp(

2
r
2
) (1.71)
e

2
() =
1
2
, 0 2, (1.72)
respectivamente. Denimos em seguida as variaveis x e y por
x = r sin e y = r cos . (1.73)
A distribui cao conjunta de probabilidades
c
(x, y) dessas variaveis e dada por

c
(x, y)dxdy =
1
(r)
2
()drd. (1.74)
Como dxdy = rdrd, obtemos, ent ao:

c
(x, y) =

2
exp

2
(x
2
+y
2
) (1.75)
e, portanto,
c
(x, y) = (x)(y) onde
(x) =
_

2
_
1/2
exp(

2
x
2
) (1.76)
e a distribui cao gaussiana. Note que x e y s ao variaveis aleat orias independentes.
Assim, a partir de dois n umeros aleat orios e uniformemente distribudos
no intervalo [0, 1], podemos gerar, utilizando as equa coes (1.70) e (1.73), dois
n umeros aleat orios independentes x e y cada um deles distribudos de acordo
com a distribui cao gaussiana (1.76).

25 Variaveis Aleatorias
BIBLIOGRAFIA
Feller, W. 1950. An Introduction to Probability Theory and its Aplications.
Wiley, London.
Fernandez, P.J. 1973. Introdu c ao ` a Teoria das Probabilidades. Livros Tecnicos
e Cientcos, Rio de Janeiro.
Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
James, B. R. 1981. Probabilidade: um Curso em Nvel Intermedi ario. IMPA,
Rio de Janeiro.
Kac, M. 1959. Statistical Independence in Probability, Analysis and Number
Theory. The Mathematical Association of America.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
EXERC

ICIOS
1. Determine a media e a variancia da distribui cao binomial p

= (
N

)a

b
N
e da distribui cao de Poisson p

= e

/!.
2. Obtenha a distribui cao de Poisson a partir da distribui cao binomial, to-
mando o limite em que N e a 0 de tal forma que aN = ,
constante.
3. Mostre que (x x))
2
) = x
2
) x)
2
.
4. Determine todos os momentos das distribui coes de probabilidades dadas
abaixo:
a) Distribui cao quadrada:
(x) =
_
0, [x[ > a,
(2a)
1
, [x[ a.
b) Distribui cao exponencial:
(x) = exp(x), x 0.
26

Dinamica Estocastica e Irreversibilidade
c) Distribui cao de Laplace:
(x) =

2
exp([x[).
5. Obtenha as fun coes caractersticas g(k) correspondentes `as distribui coes
denidas no exerccio anterior. Desenvolva g(k) em serie de Taylor para
obter os momentos. Compare com os resultados do exerccio anterior.
6. Determine a fun cao caracterstica da distribui cao de probabilidade de Lo-
rentz
(x) =
a
(a
2
+x
2
)
.
7. Determine a fun cao caracterstica da distribui cao gaussiana abaixo
(x) =
1

2
2
exp
(x m)
2
2
2
.
Quais s ao os cumulantes dessa distribui cao?
8. Determine a distribui cao de probabilidades e os momentos corresponden-
tes `a fun cao caracterstica g(k) = p +q cos k, onde p +q = 1.
9. Determine a fun cao geratriz e a partir dela a media e a variancia das
seguintes distribui coes de probabilidades:
a) Distribui cao de Poisson p

= e

/,
b) Distribui cao geometrica p

= b

a, onde a +b = 1.
10. A densidade de probabilidade da variavel aleat oria x e dada por
1
(x) = 1
para 0 x 1 e
1
(x) = 0 para outros valores de x. Obtenha a densidade
de probabilidade
2
(y) da variavel y = f(x) para os seguintes casos: a)
f(x) = cos(2x); b) f(x) = lnx.
11. Uma partcula possui igual probabilidade de se encontrar em qualquer
ponto de uma superfcie esferica cujo centro coincide com a origem de um
sistema de coordenadas esfericas. Determine a probabilidade de encon-
trar a partcula entre as circunferencias (latitudes) descritas pelos angulos
azimutais
1
e
2
.
12. Determine um algoritmo para gerar n umeros aleat orios que estejam dis-
tribudos de acordo com a distribui cao exponencial, a partir de n umeros
aleat orios igualmente distribudos no intervalo [0, 1]. Gere os n umeros a
partir desse algoritmo, fa ca um histograma e compare-o com a expressao
analtica. Fa ca o mesmo para o caso da distribui cao de Lorentz.

27 Variaveis Aleatorias
13. Gere n umeros aleat orios que sejam distribudos de acordo com a distri-
bui cao gaussiana com largura = 1. Fa ca um histograma e compare com
a curva analtica.
2
Seq

encia de Vari

aveis Independentes
2.1 SOMA DE VARI

AVEIS INDEPENDENTES
Muitos fenomenos aleat orios s ao constitudos por um conjunto ou por uma su-
cess ao de ensaios independentes e, portanto, descritos por variaveis aleat orias
independentes. Como exemplo, citamos o passeio aleat orio, que serve como mo-
delo para diversos fenomenos aleat orios. A intervalos regulares de tempo, um
caminhante da um passo para frente ou para tras, aleatoriamente, sendo que
cada passo dado nao dependente dos passos dados anteriormente. H a dois teo-
remas fundamentais relativos ao comportamento de uma seq uencia de variaveis
independentes, v alidos quando o n umero delas e muito grande: a lei dos grandes
n umeros e o teorema central do limite.
Considere uma variavel aleat oria y que seja a soma de duas variaveis aleat orias
independentes x
1
e x
2
, cujas fun coes caractersticas s ao g
1
(k) e g
2
(k), respec-
tivamente. A fun cao caracterstica G(k) correspondente a y est a relacionada a
g
1
(k) e g
2
(k) atraves de
G(k) = g
1
(k)g
2
(k). (2.1)
Ou seja, a fun cao caracterstica de uma soma de variaveis e igual ao produto
das corres- pondentes fun coes caractersticas.
30

Dinamica Estocastica e Irreversibilidade
Para demontrar esse resultado basta usar a rela cao
(y) =
_
(y x
1
x
2
)
1
(x
1
)
2
(x
2
)dx
1
dx
2
(2.2)
obtida do captulo 1, onde
1
(x
1
), (x
2
) e (y) s ao as densidades de probabi-
lidade correspondentes a x
1
, x
2
e y, respectivamente. Multiplicando ambos os
membros por e
iky
e integrando em y, obtemos o resultado (2.1). Alternativa-
mente podemos partir da deni cao de fun cao caracterstica e escrever
G(k) =
_
e
iky
(y)dy = e
iky
) = e
ikx
1
e
ikx
2
). (2.3)
Mas como as variaveis s ao independentes, ent ao
e
ikx
1
e
ikx
2
) = e
ikx
1
)e
ikx
2
) (2.4)
de onde se obtem o resultado (2.1), pois
g
1
(k) = e
ikx
1
) =
_
e
ikx
1

1
(x
1
)dx
1
(2.5)
e
g
2
(k) = e
ikx
2
) =
_
e
ikx
2

2
(x
2
)dx
2
. (2.6)
Suponha em seguida que a variavel y seja a soma de N variaveis indepen-
dentes, isto e,
y = x
1
+x
2
+x
3
+... +x
N
=
N

j=1
x
j
. (2.7)
Ent ao o resultado acima se generaliza para
G(k) = g
1
(k)g
2
(k)g
3
(k)...g
N
(k). (2.8)
Denotando por
n
o n-esimo cumulante de y e por
(j)
n
o n-esimo cumulante
de x
j
ent ao, a partir de (2.8),

n
=
N

j=1

(j)
n
. (2.9)
Para obter esse resultado basta tomar o logaritmo de ambos os membros de
(2.8) e comparar os coecientes da n-esima potencia de k. Dois casos importantes
desse resultado geral correspondem a n = 1 (media) e n = 2 (variancia). Quando
n = 1
y) =
N

j=1
x
j
), (2.10)

31 Seq uencia de Variaveis Independentes


e quando n = 2
y
2
) y)
2
=
N

j=1
x
2
j
) x
j
)
2
. (2.11)
Esses resultados podem tambem ser obtidos de forma direta. Tomando a
media de ambos os lados de (2.7), obtem-se a rela cao (2.10) entre as media.
Elevando ambos os membros de (2.7) ao quadrado e tomando a media, obtemos
y
2
) =
N

j=1
x
2
j
) + 2

j<k
x
j
)x
k
). (2.12)
onde levamos em conta que as variaveis aleat orias s ao independentes. Tomando
o quadrado de ambos os membros de (2.10) e comparando com (2.12), obtemos
a rela cao (2.11) entre as variancias.
Se as N variaveis independentes tiverem a mesma distribui cao de probabili-
dades e, portanto, a mesma fun cao caracterstica g(k), ent ao
G(k) = [g(k)]
N
. (2.13)
e, portanto,

n
= N
(j)
n
. (2.14)
Em particular, quando n = 1,
y) = Nx
j
) (2.15)
e, quando n = 2,
y
2
) y)
2
= Nx
2
j
) x
j
)
2
. (2.16)
Ou seja a media e a variancia de y s ao iguais a N vezes a media e a variancia
de x
j
, respectivamente.
Exemplo 1. Ensaios de Bernoulli. Considere uma seq uencia de N ensaios
independentes. Em cada ensaio, podem ocorrer apenas dois eventos / e B,
mutualmente excludentes. Seja p a probabilidade de ocorrencia de /e q = 1p a
probabilidade de ocorrencia de B. Desejamos determinar a probabilidade P
N
()
de que / ocorra vezes numa seq uencia de N ensaios. Para cada ensaio dena
uma variavel aleat oria
i
(i = 1, 2, ..., N) que toma o valor 1 caso ocorra / e o
valor 0 caso ocorra B. Portanto a probabilidade de
i
= 1 ou 0 e igual a p ou q,
respectivamente. Queremos determinar a distribui cao de probabilidades P
N
()
da variavel aleat oria
=
1
+
2
+... +
N
(2.17)
32

Dinamica Estocastica e Irreversibilidade
que conta quantas vezes ocorreu o evento / numa seq uencia de N ensaios.
A fun cao caracterstica G(k) da variavel e, por deni cao, dada por
G(k) =

P
N
()e
ik
. (2.18)
Por outro lado, como as variaveis
i
s ao independentes e tem a mesma dis-
tribui cao de probabilidades, ent ao a fun cao caracterstica G(k) da variavel
aleat oria e dada por
G(k) = [g(k)]
N
, (2.19)
onde g(k) e a fun cao caracterstica de cada uma das variaveis aleat orias
j
e
dada por
g(k) = e
ik
1
) = pe
ik
+q. (2.20)
Assim
G(k) = (pe
ik
+q)
N
. (2.21)
Usando a expansao binomial, obtemos
G(k) =
N

=0
(
N

)p

e
ik
q
N
, (2.22)
que, comparada com a expressao (2.18), nos da
P
N
() = (
N

)p

q
N
, (2.23)
que e a distribui cao de probabilidades binomial.
2.2 LEI DOS GRANDES N

UMEROS
Vamos considerar aqui uma seq uencia de N variaveis aleat orias
1
,
2
, ...,
N
independentes e identicamente distribudas, isto e, que tenham a mesma distri-
bui cao de probabilidades. A lei dos grandes n umeros diz que
1
N
N

j=1

j
a quando N , (2.24)
onde a =
j
) e a media da distribui cao comum. A unica condi cao para a vali-
dade desse teorema e que a media exista. Esse teorema permite a interpreta cao
freq uencial da probabilidade de um evento. Suponha que estamos interessados
em saber a freq uencia de ocorrencia de um evento / numa seq uencia de N en-
saios. Se denotarmos por
j
a variavel que toma o valor 1 se ocorrer o evento /

33 Seq uencia de Variaveis Independentes


e o valor 0 quando nao ocorrer o evento /, ent ao = (
1
+
2
+... +
N
) sera o
n umero de vezes que o evento / aconteceu e a frequencia sera, pois, f = /N.
Por outro lado, a =
j
) = p onde p e a probabilidade de ocorrer /. Logo, a lei
dos grandes n umeros garante que f = p quando N .
O resultado (2.24) signica que, no limite N , o unico resultado possvel
para a variavel y e a, o que e equivalente a dizer que y assume o valor a com
probabilidade um ou ainda que a densidade de probabilidades associada a y e
(y) = (y a). (2.25)
Esse resultado se demonstra como segue.
Seja G
y
(k) a fun cao caracterstica correpondente `a variavel aleat oria y de-
nida por
y =
1
N
N

j=1

j
(2.26)
e g(k) a fun cao caracterstica de cada uma das variaveis
j
. Ent ao
G
y
(k) = e
iky
) =
N

j=1
e
ik
j
/N
) = [g(
k
N
)]
N
. (2.27)
Como a media existe, podemos escrever
g(k) = 1 +ika +o(k) (2.28)
onde o(x) signica que o(x)/x 0 quando x 0. Dessa forma
[g(
k
N
)]
N
= [1 +
ika
N
+o(
k
N
)]
N
e
ika
quando N (2.29)
e portanto
G
y
(k) = e
ika
. (2.30)
A distribui cao de probabilidades (y) de y e obtida pela antitransformada de
Fourier, que e a densidade dada pela expressao (2.25).
Nota. Como dissemos acima, a condi cao para a validade da lei dos grandes
n umeros e que a media exista. A existencia da media signica que nao s o a
integral
_
x(x)dx seja nita mas tambem que a integral
_
[x[(x)dx seja nita
(convergencia absoluta). Um contra-exemplo e a distribui cao de Lorentz para a
qual essa integral diverge.
34

Dinamica Estocastica e Irreversibilidade
2.3 TEOREMA CENTRAL DO LIMITE
O teorema central do limite arma que a variavel aleat oria z denida por
z =
1

Nb

j=1

j
Na (2.31)
possui a distribui cao de probabilidades gaussiana
1

2
e
z
2
/2
(2.32)
no limite N . Para que o teorema central do limite seja v alido, basta
existir a media a e a variancia b. Note que esse nao e o caso, por exemplo, da
distribui cao de Lorentz.
Seja g(k) a fun cao caracterstica de cada uma das variaveis aleat orias
j
e
considere a expansao em cumulantes. Devemos ter
g(k) = expiak
1
2
bk
2
+o(k
2
), (2.33)
pois o primeiro cumulante e a media a e o segundo e a variancia b. A fun cao
caracterstica G
z
(k) correspondente `a variavel z e dada por
G
z
(k) = e
ikz
) = expi
k

Nb
N

j=1
(
j
a)) (2.34)
ou por
G
z
(k) =
N

j=1
e
iK
j
)e
iKa
= g(K)e
iKa

N
, (2.35)
pois as variaveis s ao independentes e possuem a mesma distribui cao de probabi-
lidades, e a variavel K e denida por K = k/

Nb. Usando a expansao de g(k)


em cumulantes, expressao (2.33), obtemos ainda
G
z
(k) = exp
1
2
NbK
2
+No(K
2
). (2.36)
Agora NbK
2
= k
2
e sendo o(K
2
) = o(N
1
) ent ao No(N
1
) 0 quando
N . Portanto
G
z
(k) = e
k
2
/2
(2.37)
o que corresponde `a distribui cao gaussiana
(z) =
1

2
e
z
2
/2
. (2.38)

35 Seq uencia de Variaveis Independentes


Para N sucientemente grande, esse resultado constitui uma boa apro-
xima cao de modo que, em termos da variavel =
2
+
2
+...+
N
=

Nbz+Na,
ele se escreve
P
N
() =
1

2Nb
exp
( Na)
2
2Nb
, (2.39)
pois (z)dz = P
N
()d e d =

Nbdz.
Exemplo 2. No ensaio de Bernoulli do exemplo 1, a probabilidade de
j
tomar o valor 1 (ocorrencia do evento /) e p e de tomar o valor 0 (ocorrencia
do evento B) e q = 1 p. A fun cao caracterstica sera, pois, aquela dada por
(2.20). Podemos usar o teorema central do limite para obter a distribui cao de
probabilidades P
N
() para um n umero N grande de ensaios. Para isso, basta
conhecer a media e a variancia de
j
, dadas por a =
j
) = p e b =
2
j
)
j
)
2
=
p p
2
= pq, respectivamente. De acordo com o teorema central do limite, a
distribui cao de probabilidades da variavel , que conta quantas vezes ocorreu o
evento /, sera
P
N
() =
1

2Npq
exp
( Np)
2
2Npq
, (2.40)
que e uma gaussiana de media Np e variancia Npq, as mesmas, e claro, da
distribui cao binomial original.
Exemplo 3. Considere um cristal paramagnetico constitudo por N ons
magneticos. Na presen ca de um campo magnetico externo, a componente do
dipolo magnetico de cadaon, paralela ao campo, pode estar em dois estados: na
mesma dire cao do campo (evento /) ou na dire cao contraria ao campo (evento
B). De acordo com a mec anica estatstica, a probabilidade de ocorrer / e
p = e
H
/(e
H
+ e
H
), e a de ocorrer B e q = e
H
/(e
H
+ e
H
), onde e
proporcional ao inverso da temperatura absoluta e H e proporcional ao campo
magnetico.
Dena a magnetiza cao M como sendo o n umero de ons a favor do campo
subtrado do n umero N de ons contrarios ao campo, isto e, M = 2 N. Se
usarmos uma variavel
j
que toma os valores +1 ou 1 caso o j-esimo on esteja
a favor ou contrario ao campo, respectivamente, ent ao M =
1
+
2
+... +
N
.
Todas elas s ao independentes e possuem a mesma distribui cao de probabilidades.
A probabilidade de
j
= +1 e p e de
j
= 1 e q de modo que a media e
m
j
) = p q = tanh H (2.41)
36

Dinamica Estocastica e Irreversibilidade
e a variancia e

2
j
)
j
)
2
= 1 m
2
= 1 tanh
2
H. (2.42)
Para N muito grande, a distribui cao de probabilidades T
N
(M) da variavel
aleat oria M sera pois
T
N
(M) =
1

2N
exp
(M Nm)
2
2N
. (2.43)
Esta claro que M) = Nm e que M
2
) M)
2
= N, ou seja, nao s o a media
como a variancia de M s ao proporcionais ao n umero de ons N do cristal, isto
e, s ao grandezas extensivas.
2.4 PASSEIO ALEAT

ORIO UNIDIMENSIONAL
Considere uma partcula se movendo ao longo de uma reta, partindo da origem.
A cada intervalo de tempo , ela salta uma distancia h para a direita com pro-
babilidade p e uma distancia h para a esquerda com probabilidade q = 1 p.
Para descrever o movimento da partcula, introduzimos variaveis aleat orias in-
dependentes
1
,
2
,
3
, ... que tomam os valores +1 ou 1 conforme o salto
seja para a direita ou para a esquerda, respectivamente. A variavel
j
indica
se no j-esimo instante a partcula deve saltar para a direita ou para a esquerda
e, portanto, ela toma o valor +1 com probabilidade p e o valor 1 com pro-
babilidade q. A posi cao da partcula no instante t = n sera x = hm onde
m =
1
+
2
+... +
n
.
A media e variancia de
j
s ao dadas por
a =
j
) = p q (2.44)
e
b =
2
j
)
j
)
2
= 1 (p q)
2
= 4pq, (2.45)
respectivamente. A fun cao caracterstica g(k) da variavel
j
e
g(k) = e
ik
j
) = pe
ik
+qe
ik
. (2.46)
Para obter a probabilidade P
n
(m) de a partcula estar a m passos da origem
apos n intervalos de tempo, determinamos primeiro a correspondente fun cao
caracterstica
G
n
(k) = [g(k)]
n
= (pe
ik
+qe
ik
)
n
. (2.47)

37 Seq uencia de Variaveis Independentes


Fazendo a expansao binomial
G
n
(k) =
n

=0
(
n

)p

q
n
e
ik(2n)
(2.48)
e comparando com a deni cao de G
n
(k), dada por
G
n
(k) =
n

m=n
P
n
(m)e
ikm
, (2.49)
onde m toma os valores n, n + 2, ..., n 2, e n, vemos que
P
n
(m) =
n!
(
n+m
2
)!(
nm
2
)!
p
(n+m)/2
q
(nm)/2
. (2.50)
Para fazer a compara cao acima e conveniente, primeiro, trocar de variavel, no
somatorio, passando de para m = 2 n. A media e a variancia de m s ao
dadas por
m) = na = n(p q) (2.51)
e
m
2
) m)
2
= nb = 4npq. (2.52)
Se desejarmos obter a distribui cao de probabilidades para n 1, basta
utilizar o teorema central do limite ja que as variaveis
1
,
2
,
3
, ... s ao indepen-
dentes. A partir do resultado (2.39), obtemos:
P
n
(m) =
1

2nb
exp
(mna)
2
2nb
, (2.53)
v alido para n 1.
A densidade de probabilidade (x, t) = P
n
(m)/h da variavel x no instante t
e dada por
(x, t) =
1

2Dt
exp
(x ct)
2
2Dt
, (2.54)
onde
c =
ha

=
h(p q)

(2.55)
e
D =
h
2
b

=
h
2
4pq

. (2.56)
Obtemos ainda os resultados:
x) = ct (2.57)
e
x
2
) x)
2
= Dt, (2.58)
38

Dinamica Estocastica e Irreversibilidade
que permitem dizer que c e a velocidade media da partcula e D o coeciente
de difus ao.
Vamos considerar em seguida um passeio aleat orio unidimensional generico.
Supo- nha que a cada intervalo de tempo uma partcula se desloca de um valor
x
j
da posi cao onde se encontra. Supondo que ela parta da origem, a posi cao da
partcula no instante t = n sera x = x
1
+x
2
+... +x
n
. Seja P(x
j
) a densidade
de probabilidade de x
j
e seja g(k) a correspondente fun cao caracterstica, isto
e,
g(k) = e
ikx
j
) =
_
P(x
j
)e
ikx
j
dx
j
. (2.59)
A fun cao caracterstica G(k) correspondente `a variavel x e dada por
G(k) = [g(k)]
n
. (2.60)
Para obter a densidade de probabilidades da variavel x para n grande, uti-
lizamos a mesma tecnica utilizada para a demonstra cao do teorema central do
limite. Essa tecnica equivale a expandir a fun cao caracterstica g(k) em cumu-
lantes ate segunda ordem, isto e,
g(k) = e
iAkBk
2
/2
(2.61)
desde que a media A e a variancia B de x
j
existam. Portanto,
G(k) = e
inAknBk
2
/2
(2.62)
e lembrando que t = n e denindo c = A/ e D = B/, temos
G(k) = e
ictkDtk
2
/2
(2.63)
de modo que a densidade de probabilidade (x, t) de x sera
(x, t) =
1

2Dt
exp
(x ct)
2
2Dt
. (2.64)

E interessante notar que a densidade de probabilidade (x, t) para o pro-


blema do passeio aleat orio unidimensional satisfaz a seguinte equa cao diferen-
cial:

t
= c

x
+
D
2

x
2
. (2.65)
Essa e uma equa cao de difus ao, com arrastamento, e e um caso particular das
equa coes de Fokker-Planck que serao estudadas no captulo 4.
Os resultados (2.64) podem ser mais bem entendidos se examinarmos um
sistema composto por um conjunto de muitas partculas que executam passeios

39 Seq uencia de Variaveis Independentes


aleat orios independentes. A densidade de partculas e proporcional `a densidade
de probabilidades dada acima. Assim, se imaginamos que no instante inicial
todas elas se encontram na origem, depois de algum tempo elas estarao espa-
lhadas de acordo com a distribui cao acima. Para tempos longos, a densidade
de partculas sera uma gaussiana centrada em x = ct e com largura =

Dt.
2.5 PASSEIO ALEAT

ORIO BIDIMENSIONAL
Vamos considerar agora o caso de uma partcula se movimentando num espa co
bidimensional. O caso de tres ou mais dimensoes pode ser tratado de modo
semelhante. A cada intervalo de tempo , a partcula se desloca da posi cao
anterior para uma nova posi cao. No j-esimo intervalo de tempo denotamos o
deslocamento por r
j
= (x
j
, y
j
). Supondo que no instante inicial a partcula
esteja no origem do sistema de coordenadas, a posi cao da partcula no instante
t = n sera r = r
1
+r
2
+... +r
n
. As variaveis r
1
, r
2
, ..., r
n
s ao pois consideradas
variaveis aleat orias independentes, ou melhor, vetores aleat orios independentes,
com um determinada distribui cao de probabilidades P(r
j
) = P(x
j
, y
j
). A cor-
respondente fun cao caracterstica g(k) = g(k
1
, k
2
) sera dada por
g(k) = expik r
j
) = expi(k
1
x
j
+k
2
y
j
)) (2.66)
ou ainda por
g(k) =
_ _
e
ikr
j
P(r
j
)dx
j
dy
j
. (2.67)
Notar que x
j
e y
j
podem nao ser independentes.
A fun cao caracterstica G(k) correspondente ao vetor r = (x, y) e dada por
G(k) = e
ikr
) = e
ik(r
1
+r
2
+...+r
n
)
) = e
ikr
j
)
n
= [g(k)]
n
. (2.68)
Para obter a densidade de probabilidades do vetor aleat orio r utilizamos a
mesma tecnica usada para demontrar o teorema central do limite. Essa tecnica
equivale a usar a expansao de g(k) em cumulantes ate ordem k
2
, isto e,
g(k) = expi(a
1
k
1
+a
2
k
2
)
1
2
(b
11
k
2
1
+b
12
k
1
k
2
+b
22
k
2
2
), (2.69)
onde
a
1
= x
j
) e a
2
= y
j
) (2.70)
s ao os cumulante de primeira ordem e
b
11
= x
2
j
) x
j
)
2
, (2.71)
40

Dinamica Estocastica e Irreversibilidade
b
12
= x
j
y
j
) x
j
)y
j
) (2.72)
e
b
22
= y
2
j
) y
j
)
2
(2.73)
s ao os cumulantes de segunda ordem. Assim, para t = n grande temos
G(k) = expin(a
1
k
1
+a
2
k
2
)
n
2
(b
11
k
2
1
+ 2b
12
k
1
k
2
+b
22
k
2
2
). (2.74)
A densidade de probabilidade P
n
(r) = P
n
(x, y) do vetor aleat orio r = (x, y) e
obtida por
P
n
(r) =
1
(2)
2
_ _
e
ikr
G(k)dk
1
dk
2
(2.75)
e sera uma gaussiana bidimensional dada por
P
n
(x, y) =
1
2

n
2
D

exp
1
2nD
[b
22
(x na
1
)
2
+ 2b
12
(x na
1
)(y na
2
) +b
11
(y a
2
)
2
] (2.76)
onde D = b
11
b
22
b
2
12
.
Exemplo 4. Suponha que a cada intervalo de tempo a partcula se desloque
uma distancia h na dire cao x ou na dire cao y com igual probabilidade. Nesse
caso
P(x
j
, y
j
) =
1
4
(x
j
h)(y
j
) +
1
4
(x
j
+h)(y
j
)+
+
1
4
(x
j
)(y
j
h) +
1
4
(x
j
)(y
j
h). (2.77)
A fun cao caracterstica correspondente sera
g(k
1,
k
2
) = e
i(k
1
x
j
+k
2
y
j
)
) =
1
4
(e
ihk
1
+e
ihk
1
+e
ihk
2
+e
ihk
2
) (2.78)
ou
g(k
1,
k
2
) =
1
2
(cos hk
1
+ cos hk
2
) (2.79)
Para obter resultados v alidos para n grande, utilizamos a expansao em cumu-
lantes ate ordem k
2
, dada por
g(k
1
, k
2
) = exp
1
4
h
2
(k
2
1
+k
2
2
) (2.80)
Portanto
G(k
1
, k
2
) = exp
1
4
nh
2
(k
2
1
+k
2
2
). (2.81)

41 Seq uencia de Variaveis Independentes


de modo que, tomando a anti-transformada de Fourier,
P
n
(x, y) =
1
nh
2
exp
x
2
+y
2
nh
2
. (2.82)
Denindo o coeciente de difus ao D = h
2
/(2), ent ao a densidade de probabi-
lidade (x, y, t) de x e y no instante t e dada por
(x, y, t) =
1
2Dt
exp
x
2
+y
2
2Dt
. (2.83)

E facil ver que x


2
) = y
2
) = Dt e portanto r
2
) = x
2
+y
2
) = 2Dt.
Exemplo 5. Suponha que a cada intervalo de tempo a partcula se desloque
uma distancia xa h em qualquer dire cao. Ent ao, usando coordenadas polares,
temos:
P(r
j
)dr
j
d
j
=
1
2
(r
j
h)dr
j
d
j
. (2.84)
A fun cao caracterstica correspondente e dada por
g(k) = expi(k
1
x
j
+k
2
y
j
)) = expi(k
1
r
j
cos
j
+k
2
r
j
sin
j
)) (2.85)
ou
g(k) =
1
2
_
2
0
expih(k
1
cos
j
+k
2
sin
j
)d
j
. (2.86)
Denindo k e de modo que k
1
= k cos e k
2
= k sin sejam as componentes
cartesianas de k, ent ao
g(k) =
1
2
_
2
0
expihk cos(
j
)d
j
=
1
2
_
2
0
expihk cos
j
d
j
(2.87)
e portanto g(k) s o depende do modulo k =
_
k
2
1
+k
2
2
. A integral e a fun cao
de Bessel J
0
(hk). Entretanto, para obter o comportamento da densidade de
probabilidade para n grande, necessitamos somente dos cumulantes de primeira
e segunda ordem. Nesse caso temos a
1
= a
2
= 0,
b
11
= x
2
j
) =
_

0
_
2
0
r
2
cos
2

j
P(r
j
)dr
j
d
j
=
1
2
h
2
, (2.88)
b
12
= 0 e b
22
= b
11
. Logo
g(k) = exp
h
2
4
(k
2
1
+k
2
2
) (2.89)
de modo que novamente obtemos a mesma distribui cao de probabilidades do
exemplo anterior.
42

Dinamica Estocastica e Irreversibilidade
BIBLIOGRAFIA
Feller, W. 1950. An Introduction to Probability Theory and its Aplications.
Wiley, London.
Fernandez, P. J. 1973. Introdu c ao ` a Teoria das Probabilidades. Livros
Tecnicos e Cientcos, Rio de Janeiro.
Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
James, B. R. 1981. Probabilidade: um Curso em Nvel Intermedi ario. IMPA,
Rio de Janeiro.
Kac, M. 1959. Statistical Independence in Probability, Analysis and Number
Theory. The Mathematical Association of America.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
EXERC

ICIOS
1. Mostre que a soma de duas variaveis aleat orias gaussianas tambem e gaus-
siana. Fa ca o mesmo para o caso das distribui coes de Lorentz e de Poisson.
2. Gere uma seq uencia de n umeros aleat orios
1
,
2
,
3
, ... que tomam o valo-
res 1 ou +1 com igual probabilidade. Coloque num gr aco a freq uencia
f
n
= (
1
+
2
+ ... +
n
)/n versus o n umero n de n umeros gerados. Veri-
que que f
n
0. Repita o procedimento para o caso em que os n umeros
aleat orios sejam gerados de acordo com a distribui cao de Lorentz dada
por 1/[(1 +
2
)]. Nesse caso f
n
0 ?
3. Gere uma seq uencia de N numeros aleat orios
1
,
2
, ...,
N
que tomam o
valor 0 ou 1 e calcular z = (
1
+
2
+... +
N
Na)/

Nb, onde a = 1/2 e a


media e b = 1/2 e a variancia dos n umeros gerados. Repita o procedimento
L vezes e fa ca um histograma dos valores de z. Compare com a distribui cao
gaussiana (2)
1/2
expz
2
/2.
4. Considere uma seq uencia de N variaveis aleat orias
1
,
2
, ...,
N
inde-
pendentes e igualmente distribudas, que tomam o valor +1 ou 1 com
probabilidade iguais a 1/2, e seja x a variavel x = (
1
+
2
+... +
N
)/N.
Determine as medias x), [x[), e x
2
) para N grande.

43 Seq uencia de Variaveis Independentes


5. Use a formula de Stirling
n! = n
n
e
n

2n,
v alida para n 1, e que da uma excelente aproxima cao para n!, para
mostrar que a distribui cao de probabilidades binomial, expressao (2.23),
e dada por
P
N
() =
_
N
2(N )
_
1/2
exp ln

Np
(N ) ln
N
Nq

para N e grandes. Desenvolva a expressao entre chaves em torno de
seu maximo, = Np, para alcan car o resultado (2.39), deduzido por
intermedio do teorema central do limite.
6. Verique que a densidade de probabilidade
(x, t) =
1

2Dt
exp
(x ct)
2
2Dt

satisfaz a equa cao diferencial

t
=
1
2
D

x
2
c

x
.
7. Use a formula de Stirling para obter a densidade de probabilidades do
exerccio anterior a partir do resultado
P
n
(m) =
n!
(
n+m
2
)!(
nm
2
)!
p
(n+m)/2
q
(nm)/2
,
v alido para o passeio aleat orio. As deni coes apropriadas s ao x = hm,
t = n, D = h
2
b/, c = ha/, a = p q e b = 4pq.
8. Considere o passeio aleat orio unidimensional descrito pela seq uencia
1
,

2
,
3
, ...,
n
de variaveis aleat orias independentes que tomam os valores
+1 (passo `a direita) e 1 (passo `a esquerda). Suponha, entretanto, que
a probabilidade de
j
= +1 seja p se j for mpar e q se j for par, com
p + q = 1. Consequentemente, a probabilidade de
j
= 1 sera q se j
for mpar e p se j for par. Determine a distribui cao de probabilidades
da posi cao x = h(
1
+
2
+ ... +
n
) da partcula que executa o passeio
aleat orio.
9. Uma partcula executa um passeio aleat orio bidimensional. A cada in-
tervalo de tempo os possveis deslocamentos s ao (h, h) todos eles
com a mesma pro- babilidade. Determine a probabilidade de encontrar a
partcula na posi cao r = (hm
1
, hm
2
) depois de n intervalos de tempo.
44

Dinamica Estocastica e Irreversibilidade
10. Uma molecula de um g as desloca-se de uma distancia h entre duas co-
lis oes com igual probabilidade em qualquer dire cao. Depois de n colisoes,
determine o deslocamento quadr atico medio r
2
) da molecula a partir do
ponto inicial, onde r = r
1
+r
2
+... +r
n
, sendo r
j
= (x
j
, y
j
, z
j
) o j-esimo
deslocamento. Ache tambem a fun cao caracterstica G(k) = exp(ik r))
da variavel r = (x, y, z) e a distribui cao de probabilidade de r. Ache a
expressao dessa probabilidade para n grande.
3
Equac

ao de Langevin
3.1 MOVIMENTO BROWNIANO
Considere uma partcula de massa m imersa num lquido. Essa partcula est a
sujeita a uma for ca viscosa, que consideraremos proporcional `a sua velocidade,
e a for cas de car ater aleat orio devidas ao impacto da partcula com as moleculas
do lquido. Vamos considerar o caso simples de um movimento unidimensional
ao longo do eixo x. A equa cao de movimento sera
m
dv
dt
= v +F(t), (3.1)
onde
v =
dx
dt
(3.2)
e a velocidade e x a posi cao da partcula. A primeira parcela do lado direito
da equa cao (3.1) e a for ca viscosa, sendo uma constante, e F(t) e a for ca
aleat oria que possui as seguintes propriedades:
F(t)) = 0, (3.3)
pois, em media, a for ca devida `as moleculas e nula, e
F(t)F(t

)) = B(t t

), (3.4)
46

Dinamica Estocastica e Irreversibilidade
pois estamos considerando que os impactos sejam independentes. A equa cao
(3.1), suplementada pelas propriedades (3.3) e (3.4), e denominda equa cao de
Langevin.
Dividindo ambos os membros da equa cao (3.1) por m, a equa cao de Langevin
escreve-se na forma
dv
dt
= v +(t), (3.5)
onde = /m e (t) = F(t)/m. O rudo (t) e uma variavel estocastica, isto e,
uma variavel aleat oria dependente do tempo, que possui as propriedades:
(t)) = 0 (3.6)
e
(t)(t

)) = (t t

), (3.7)
onde = B/m
2
.
Velocidade quadr atica media
A solu cao generica da equa cao diferencial (3.5) e obtida como segue. Come camos
por escrever v(t) = u(t)e
t
, onde u(t) e uma fun cao de t a ser determinada.
Substituindo em (3.5), vemos que ela deve satisfazer a equa cao
du
dt
= e
t
(t), (3.8)
cuja solu cao e
u = u
0
+
_
t
0
e
t

(t

)dt

. (3.9)
Portanto
v = v
0
e
t
+e
t
_
t
0
e
t

(t

)dt

, (3.10)
onde v
0
e a velocidade da partcula no instante t = 0. Essa solu cao e v alida
para qualquer fun cao temporal (t). Em seguida, vamos usar as propriedades
especcas do rudo para determinar a media e a variancia da velocidade.
Usando a propriedade (3.6) temos
v) = v
0
e
t
. (3.11)
Dessa forma
v v) = e
t
_
t
0
e
t

(t

)dt

, (3.12)
de onde obtemos
(v v))
2
= e
2t
_
t
0
_
t
0
(t

)(t

)e
(t

+t

)
dt

dt

(3.13)

47 Equa cao de Langevin


e
(v v))
2
) = e
2t
_
t
0
e
2t

dt

, (3.14)
onde usamos a propriedade (3.7). Efetuando a integral, obtemos a variancia da
velocidade
v
2
) v)
2
=

2
(1 e
2t
). (3.15)
Para tempos longos, isto e, no regime estacion ario, v) = 0 e a velocidade
quadr atica media se torna
v
2
) =

2
. (3.16)
Sabemos, a partir da teoria cinetica dos gases, que
1
2
mv
2
) =
1
2
k
B
T (3.17)
onde k
B
e a constante de Boltzmann e T a temperatura absoluta. Comparando
essas duas equa coes, obtemos a rela cao entre o coecente e a temperatura:
=
2k
B
T
m
. (3.18)
Lembrando que B = m
2
e que = m, obtemos a rela cao entre B e a
temperatura:
B = 2k
B
T. (3.19)
Deslocamento quadr atico medio
Em seguida, obteremos o deslocamento quadr atico medio da partcula. Para
isso, calculamos primeiro x(t) dado por
x = x
0
+
_
t
0
v(t

)dt

, (3.20)
onde x
0
e a posi cao da partcula no instante t = 0 ou, tendo em vista a equa cao
(3.10),
x = x
0
+v
0
_
t
0
e
t

dt

+
_
t
0
e
t

_
t

0
(t

)e
t

dt

dt

. (3.21)
Efetuando a primeira integral e invertendo a ordem das integrais da ultima
parcela,
x = x
0
+v
0
1

(1 e
t
) +
_
t
0
(t

)e
t

_
t
t

e
t

dt

dt

. (3.22)
Integrando em t

, obtemos o resultado:
x = x
0
+v
0
1

(1 e
t
) +
1

_
t
0
(t

)(1 e
(t

t)
)dt

(3.23)
48

Dinamica Estocastica e Irreversibilidade
que e v alido para qualquer fun cao temporal (t). Usando a propriedade (3.6),
obtemos o deslocamento medio da partcula:
x) = x
0
+v
0
1

(1 e
t
). (3.24)
O desvio quadr atico medio calcula-se determinando primeiro, a partir de
(3.23) e de (3.24), a diferen ca
x x) =
1

_
t
0
(t

)(1 e
(t

t)
)dt

, (3.25)
de onde se obtem
(x x))
2
=
1

2
_
t
0
_
t
0
(t

)(t

)(1 e
(t

t)
)(1 e
(t

t)
)dt

dt

. (3.26)
Depois, usando a propriedade (3.7), segue-se que
(x x))
2
) =

2
_
t
0
(1 e
(t

t)
)
2
dt

, (3.27)
de onde obtemos, apos efetuar a integral,
x
2
) x)
2
=

2
t
2

(1 e
t
) +
1
2
(1 e
2t
). (3.28)
Para tempos longos o termo dominante e o primeiro de modo que nesse
regime o desvio quadr atico medio e proporcional a t, isto e,
x
2
) x)
2
= Dt, (3.29)
onde D = /
2
= B/
2
e o coeciente de difus ao. Usando a rela cao (3.18),
podemos escrever a seguinte rela cao entre o coeciente de difus ao e a tempera-
tura:
D =
2k
B
T

(3.30)
que e a rela cao de Einstein-Smoluchowski.
Embora tenhamos deduzido a rela cao (3.30) para o caso unidimensional,
ela tambem vale para o caso real de partculas imersas num lquido. Para
partculas esfericas de raio a imersas num lquido de coeciente de viscosidade
, o coeciente e dado pela lei de Stokes:
= 6a, (3.31)
de modo que
D =
k
B
T
3a
. (3.32)

49 Equa cao de Langevin


O conhecimento do coeciente de difus ao D, obtido atraves da medida do desvio
quadr atico medio x
2
) x)
2
, permite, pois, a determina cao da constante de
Boltzmann k
B
. De fato, uma tal experiencia foi realizada por Perrin examinando
o movimento browniano de partculas supensas num lquido.
Balanco energetico
O impacto aleat orio das moleculas do uido sobre a partcula transfere ener-
gia cinetica daquelas para a partcula. Essa, por sua vez, dissipa energia devida
`a for ca viscosa e ao mesmo tempo tem sua energia cinetica modicada. A taxa
com que a energia e transferida `a partcula deve ser igual `a soma da taxa com
que a energia e dissipada e a varia cao da energia cinetica da partcula. Esse ba-
lan co energetico e obtido da seguinte forma. Multiplicamos ambos os membros
da equa cao de Langevin por v e usamos a igualdade vdv/dt = (1/2)dv
2
/dt para
obter:
m
2
d
dt
v
2
= v
2
+vF (3.33)
ou
d
dt
(
m
2
v
2
) +vF
at
= vF, (3.34)
onde F
at
= v e a for ca de atrito ou viscosa.
Tomando a media,
dE
c
dt
+P
dis
= P, (3.35)
onde E
c
= mv
2
)/2 e a energia cinetica media, P
dis
= vF
at
) = v
2
) e a
taxa de dissipa cao de energia, ou potencia dissipada, e P = vF) e a taxa de
transferencia de energia para a partcula, ou potencia transferida.
Cada uma das parcelas do membro direito da equa cao (3.35) pode ser obtida
explicitamente como fun coes do tempo usando a expressao de v
2
) dada por
(3.15). Fazendo os calculos, obtemos o resultado
P =
m
2
=
B
2m
=
k
B
T
m
, (3.36)
ou seja, a potencia transferida e independente do tempo.

E importante notar que, embora P


dis
0, a varia cao de energia cinetica
dE
c
/dt pode ser positiva, nula ou negativa. Esse ultimo caso ocorre quando a
energia cinetica inicial da partcula, mv
2
0
/2, for maior do que a energia cinetica
media no estado estacion ario, k
B
T/2. No regime estacion ario, entretanto, a
varia cao de energia cinetica e nula, dE
c
/dt = 0, de modo que P
dis
= P, e
portanto toda a energia transferida `a partcula e dissipada.
50

Dinamica Estocastica e Irreversibilidade
3.2 DISTRIBUIC

AO DE PROBABILIDADES
Distribuic ao das velocidades
Vimos que a velocidade v(t) de uma partcula livre num meio viscoso e sujeita
a for cas aleat orias varia de acordo com a equa cao de Langevin (3.5) onde (t)
e uma variavel estocastica, isto e, uma variavel aleat oria dependente do tempo.
Da mesma forma, a velocidade v(t) tambem e uma variavel estocastica. A
diferen ca entre elas e que a distribui cao de probabilidades de (t) e conhecida
previamente enquanto que a de v(t) desejamos determinar.
Para achar a distribui cao de probabilidades relativa a v(t), come camos por
discretizar o tempo em intervalos iguais a , escrevendo t = n. Dessa maneira,
a equa cao (3.5) e escrita na forma aproximada
v
n+1
= av
n
+

n
, (3.37)
onde a = (1 ) e as variaveis aleat orias
j
possuem as propriedades

j
) = 0 e
j

k
) =
jk
. (3.38)
A partir de (3.37), segue-se a rela cao:
v
n
=
n1

=0
w

, (3.39)
onde w

e denido por
w

= a

n1
(3.40)
e consideramos, por simplicidade, a condi cao inicial v
0
= 0. Dessa forma v
n
e
uma soma de variaveis aleat orias independentes.
Denotando por g
n
(k) a fun cao caracterstica relativa `a variavel v
n
, temos
g
n
(k) = e
ikv
n
) =
n1

=0
e
ikw

), (3.41)
pois as variaveis w

s ao independentes. Supondo que a distribui cao de probabi-


lidades da variavel

seja uma gaussiana de media zero e variancia 1, segue-se


que a distribui cao de probabilidades da variavel w

tambem sera uma gaussiana


de media zero mas de variancia a
2
. Logo
e
ikw

) = e
a
2
k
2
/2
, (3.42)
de onde obtemos
g
n
(k) = e
b
n
k
2
/2
, (3.43)

51 Equa cao de Langevin


onde
b
n
=
n1

=0
a
2
=
1 a
2n
1 a
2
. (3.44)
Portanto, a densidade de probabilidades da variavel v
n
obtem-se calculando a
antitransformada de Fourier de (3.43), ou seja,
P
n
(v
n
) =
1

2b
n
exp
v
2
n
2b
n
. (3.45)
Tomando o limite em que 0 e n com n = t xo, a densidade de
probabilidade (v, t) da variavel v no instante t sera
(v, t) =
1
_
2b(t)
exp
v
2
2b(t)
, (3.46)
onde b(t) e o limite de b
n
, dado por
b(t) =

2
(1 e
t
) =
k
B
T
m
(1 e
t
). (3.47)
No regime estacion ario, isto e, para t , b(t) k
B
T/m, e obtemos
(v) =
_
m
2k
B
T
exp
mv
2
2k
B
T
, (3.48)
que e a distribui cao de velocidades de Maxwell, para o caso unidimensional.
Distribuic ao das posi c oes
Para obter a distribui cao de probabilidade das posi coes, vamos proceder da
mesma maneira como zemos acima. Usando a mesma discretiza cao escrevemos
x
n+1
= x
n
+v
n
(3.49)
de onde segue a rela cao
x
n
=
n1

=1
v

, (3.50)
na qual consideramos por simplicidade que x
0
= 0 e que v
0
= 0. Note que as
variaveis v

nao s ao independentes. Se, entretanto, usarmos a equa cao (3.39)


podemos escrever
x
n
=
n1

=1
u

, (3.51)
onde
u

=
1

(1 a

n1
, (3.52)
52

Dinamica Estocastica e Irreversibilidade
de modo que agora x
n
e uma soma de variaveis independentes u

.
Denotando por G
n
(k) a fun cao caracterstica relativa a variavel aleat oria x
n
,
temos
G
n
(k) = e
ikx
n
) =
n1

=1
e
iku

). (3.53)
Como a variavel

possui distribui cao gaussiana de media zero e variancia


1, ent ao a variavel u

tambem ter a a mesma distribui cao mas com variancia


(1 a

)
2
/
2
. Logo
G
n
(k) = e
d
n
k
2
/2
, (3.54)
onde
d
n
=

2
n1

=1
(1 a

)
2
=

2
n 2
1 a
n
1 a
+
1 a
2n
1 a
2
(1 a)
2
. (3.55)
No limite 0 e n com n = t xo, obtemos a densidade de
probabilidade
1
(x, t) da variavel x na forma de uma gaussiana

1
(x, t) =
1
_
2d(t)
exp
x
2
2d(t)
, (3.56)
onde d(t) e o limite de d
n
, dado por
d(t) =

2
t
2

(1 e
t
) +
1
2
(1 e
2t
), (3.57)
que por sua vez e a variancia de x(t) dada pela equa cao (3.28). No regime em
que t e muito grande d(t) Dt e assim

1
(x, t) =
1

2Dt
exp
x
2
2Dt
, (3.58)
que coincide com a expressao vista anteriormente para o caso do passeio aleat orio.
3.3 CONJUNTO DE EQUAC

OES DE LANGEVIN
Suponha que um sistema seja descrito por um conjunto de N variaveis x
1
, x
2
,
x
3
, ..., x
N
. A equa cao do movimento para esse sistema e dada pelo conjunto de
equa coes
dx
i
dt
= f
i
(x
1
, x
2
, ..., x
N
) +
i
(t) (3.59)
para i = 1, 2, ..., N, onde as variaveis estocasticas
1
(t),
2
(t), ...,
N
(t) possuem
as seguintes propriedades

i
(t)) = 0 (3.60)

53 Equa cao de Langevin


e

i
(t)
j
(t

)) =
ij
(t t

), (3.61)
onde
11
,
12
,
22
, ... s ao constantes. A equa cao de Langevin (3.59) e uma
equa cao estocastica em que o rudo e aditivo.
Exemplo 1. Considere uma partcula se movendo ao longo do eixo-x, que
realiza um movimento browniano e que esteja sujeita a uma for ca viscosa e a
uma for ca externa elastica. A equa cao de Newton para essa partcula e
m
dv
dt
= v kx +F(t), (3.62)
onde F(t) e a for ca aleat oria que possui as propriedades
F(t)) = 0 (3.63)
e
F(t)F(t

)) = B(t t

), (3.64)
A equa cao (3.62) junto com a equa cao
dx
dt
= v (3.65)
constituem as equa coes de movimento da partcula.
Dividindo ambos os membros de (3.62) por m, obtemos a equa cao
dv
dt
= v
2
x +(t), (3.66)
onde = /m e
2
= k/m. O rudo (t) possui as propriedades
(t)) = 0 (3.67)
e
(t)(t

)) = (t t

), (3.68)
onde = B/m
2
. Fazendo as identica coes
x
1
= x, f
1
(x, v) = v, (3.69)
x
2
= v, f
2
(x, v) = v
2
x (3.70)
e
11
=
12
=
21
= 0 e
22
= , vemos que as equa coes (3.66) e (3.65) se
ajustam `a forma (3.59), com N = 2.
54

Dinamica Estocastica e Irreversibilidade
As equa coes de Langevin (3.59) constituem, em geral, um conjunto acoplado
de equa coes. O caso mais simples de um conjunto acoplado ocorre quando as
fun coes f
i
s ao lineares, isto e, quando
f
i
=
N

j=1
A
ij
x
j
(3.71)
Nesse caso as equa coes de Langevin s ao dadas por
d
dt
x
i
=
N

j=1
A
ij
x
j
+
i
(3.72)
e podem ser escritas na forma matricial
d
dt
x = Ax +, (3.73)
onde x e s ao matrizes colunas com elementos x
i
e
i
, respectivamente, e A e
a matriz quadrada, N N, cujos elementos s ao A
ij
.
Para resolver a equa cao matricial (3.73) determinamos, inicialmente, a ma-
triz M que diagonaliza a matriz A (caso ela seja diagonaliz avel), isto e, deter-
minamos M tal que
MAM
1
= , (3.74)
onde e a matriz diagonal cujos elementos
i
s ao os autovalores de A. Em
seguida, construmos a matriz R(t) cujos elementos s ao
R
ij
(t) =

k
M
ik
e

k
t
(M
1
)
kj
, (3.75)
ou seja,
R = MD(t)M
1
, (3.76)
onde D(t) e a matriz diagonal cujos elementos s ao D
k
(t) = e

k
t
. Derivando
ambos os membros de (3.75) com rela cao ao tempo, obtemos
d
dt
R(t) = MD(t)M
1
. (3.77)
Mas, tendo em vista que M = AM, o lado direito dessa equa cao se torna igual
a AR(t), de modo que
d
dt
R(t) = AR(t). (3.78)
A solu cao geral da equa cao (3.73) se obtem com a ajuda de R(t). Para a
condi cao inicial x(0) = x
0
, a solu cao e dada por
x(t) = R(t)x
0
+
_
t
0
R(t t

)(t

)dt

, (3.79)

55 Equa cao de Langevin


que pode ser vericada por substitui cao direta em (3.73), usando a propriedade
(3.78) e levando em conta que R(0) = I onde I e a matriz identidade. A partir
dessa solu cao podemos obter os diversos momentos de x
i
.
3.4 EVOLUC

AO TEMPORAL DOS MOMENTOS
Nesta se cao vamos considerar o caso de uma equa cao de Langevin em uma
variavel. Ela e dada por
dx
dt
= f(x) +(t), (3.80)
onde f(x) e uma fun cao de x somente, que denominamos for ca, e (t) e a variavel
estocastica, ou rudo, cujas propriedades s ao conhecidas. Ela possui media nula
(t)) = 0 (3.81)
e, alem disso,
(t)(t

)) = (t t

), (3.82)
isto e, as variaveis (t) e (t

) s ao independentes para t ,= t

. A variavel aleat oria


que possui essas propriedades e denominada de rudo branco pois a transformada
de Fourier de (0)(t)) dada por
_
e
it
(0)(t))dt = (3.83)
e independente da frequencia .
Exemplo 2. No movimento browniano, visto na se cao 3.1, uma partcula
livre move-se num meio viscoso e est a sujeita a for cas aleat orias. Considere que
alem dessas for cas ela esteja sujeita a uma for ca externa F
e
(x). A equa cao do
movimento sera ent ao
m
d
2
x
dt
2
= F
e
(x)
dx
dt
+F(t). (3.84)
Para os casos em que a massa da partcula e desprezvel, essa equa cao resulta
em

dx
dt
= F
e
(x) +F(t). (3.85)
Dividindo ambos os membros por , essa equa cao se torna do tipo (3.80) com
f(x) = F
e
(x)/, e (t) = F(t)/ .
Resolver a equa cao de Langevin signica determinar a distribui cao de proba-
bilidade P(x, t) em cada instante t > 0, dada a distribui cao P(x, 0) no instante
56

Dinamica Estocastica e Irreversibilidade
t = 0. Se no instante inicial a partcula estiver localizada no ponto x
0
ent ao
P(x, 0) = (xx
0
). Alternativamente podemos determinar todos os momentos

(t) = x

) como fun coes do tempo, dados os momentos no instante inicial. Na


se cao 3.6 veremos como deduzir, a partir da equa cao de Langevin, uma equa cao
diferencial para P(x, t) denominada equa cao de Fokker-Planck. Determinar a
solu cao dessa equa cao signica, portanto, resolver a equa cao de Langevin. Nesta
se cao vamos deduzir equa coes temporais para os diversos momentos de x.
Come camos por discretizar o tempo em intervalos de tempo . A posi cao no
ins- tante t = n sera x
n
e a equa cao de Langevin na forma discretizada sera
x
n+1
= x
n
+f
n
+

n
, (3.86)
onde f
n
= f(x
n
) e
n
possui as propriedades

n
) = 0 e
n

n
) =
nn
. (3.87)
A equa cao de Langevin discretizada pode ser vista como uma equa cao de re-
correncia. Notar que a variavel alet oria x
n+1
e independente de
n+1
, embora
seja dependente de
n
, de
n1
, de
n2
etc.
Em seguida, vemos que
x
n+1
) = x
n
) +f
n
) (3.88)
de onde obtemos
d
dt
x) = f(x)) (3.89)
que e a equa cao para a evolu cao temporal para a media x).
Elevando ao quadrado ambos os membros de (3.86), temos:
x
2
n+1
= x
2
n
+ 2

n
x
n
+
2
n
+ 2x
n
f
n
+

n
f
n
+
2
f
2
n
, (3.90)
de onde obtemos
x
2
n+1
) = x
2
n
) + + 2x
n
f
n
) +
2
f
2
n
) (3.91)
usando a propriedade de que x
n
e
n
s ao independentes e que
n
) = 0 e
2
n
) = 1.
Logo
d
dt
x
2
) = + 2xf(x)) (3.92)
que da a evolu cao temporal do segundo momento x
2
).
Para obter a evolu cao temporal do -esimo momento de x, elevamos ambos
os membros de (3.86) `a -esima potencia
x

n+1
= x
n
+f
n
+

. (3.93)

57 Equa cao de Langevin


Desprezando termos de ordem superior a , temos:
x

n+1
= x

n
+

n
x
1
n
+x
1
n
f
n
+
1
2
( 1)
2
n
x
2
n
, (3.94)
de onde obtemos
x

n+1
) = x

n
) +x
1
n
f
n
) +
1
2
( 1)x
2
n
) (3.95)
e, portanto,
d
dt
x

) = x
1
f(x)) +
1
2
( 1)x
2
), (3.96)
que da a evolu cao temporal do momento x

).
A equa cao (3.96) e na verdade um conjunto de equa coes para os diversos
momentos da variavel aleat oria x. A equa cao para o primeiro momento pode
depender do segundo momento e portanto nao pode ser resolvida isoladamente.
Dessa forma necessitamos da equa cao para o segundo momento. Entretanto,
a equa cao para o segundo momento pode depender do terceiro momento e,
portanto, devemos utilizar a equa cao para o terceiro momento. Assim o conjunto
de equa coes (3.96) constitui um conjunto hierarquico de equa coes. Em alguns
casos pode ocorrer que a equa cao para um determinado momento s o possui
momentos de ordem inferior. Nesse caso, temos um conjunto nito de equac oes
a resolver.
Exemplo 3. Se f(x) = c, temos:
d
dt
x) = c e
d
dt
x
2
) = 2cx) + , (3.97)
cujas solu coes para a condi cao inicial x) = x
0
e x
2
) = x
2
0
em t = 0 s ao
x) = x
0
+ct e x
2
) = x
2
0
+ ( + 2cx
0
)t +c
2
t
2
. (3.98)
A partir desses dois momentos, obtemos a variancia
x
2
) x)
2
= t. (3.99)
Esse exemplo se identica com o problema do passeio aleat orio visto na se cao
2.4.
Exemplo 4. Suponha que f(x) = x. Nesse caso, as duas primeiras
equa coes nos dao
d
dt
x) = x) (3.100)
58

Dinamica Estocastica e Irreversibilidade
e
d
dt
x
2
) = 2x
2
) + . (3.101)
Vemos pois que por integra cao das equa coes acima podemos obter os dois pri-
meiros momentos. Com a condi cao inicial x) = x
0
e x
2
) = x
2
0
em t = 0
obtemos a seguinte solu cao:
x) = x
0
e
t
(3.102)
e
x
2
) =

2
+ (x
2
0


2
)e
2t
. (3.103)
Quando t , x) 0 e x
2
) /2.
Esse exemplo pode ser entendido como o problema original de Langevin
visto na se cao 3.1. Para isso, basta fazer as substitui coes: x v, /m e
(t) F(t)/m, o que acarreta B/m
2
.
3.5 SIMULAC

AO DO MOVIMENTO ALEAT

ORIO
O movimento de uma partcula que obedece `a equa cao de Langevin
dx
dt
= f(x) +(t), (3.104)
onde (t) possui as propriedades
(t)) = 0 (3.105)
e
(t)(t

)) = (t t

), (3.106)
pode ser simulado da seguinte forma. Discretizamos o tempo em intervalos de
tempo e denotamos por x
n
a posi cao da partcula no instante t = n. A
equa cao de Langevin e ent ao aproximada por
x
n+1
= x
n
+f(x
n
) +

n
. (3.107)
onde
0
,
1
,
2
, ... formam uma seq uencia de variaveis aleat orias independentes
tais que

n
) = 0 e
2
n
) = 1. (3.108)
Assim, tendo gerado uma seq uencia de n umeros aleat orios
0
,
1
,
2
, ... e sendo
dada a posi cao inicial x
0
, podemos gerar a sequencia de pontos x
1
, x
2
, x
3
, ...,
isto e, a trajet oria (discretizada) da partcula. Uma possvel distribui cao de

59 Equa cao de Langevin


probabilidades para a variavel
n
e aquela em que ela toma somente dois valores
1 e +1, ambos com probabilidade 1/2.
Suponha que desejamos saber a posi cao media da partcula como fun cao do
tempo. Devemos ent ao gerar in umeras trajet orias partindo do mesmo ponto x
0
.
Uma estimativa da media x
n
= x) no instante t = n sera dada por
x
n
=
1
L
L

j=1
x
(j)
n
, (3.109)
onde L e o n umero de trajet orias geradas e x
(j)
n
denota a posi cao da partcula
no instante t = n na j-esima trajet oria. Da mesma forma, a estimativa do
segundo momento x
2
n
= x
2
) e dada por
x
2
n
=
1
L
L

j=1
[x
(j)
n
]
2
, (3.110)
de onde obtemos a estimativa para a variancia: x
2
n
(x
n
)
2
. Outros momentos
tambem podem ser igualmente calculados.
Podemos entender a simula cao das L trajet orias como sendo as trajet orias
de L partculas (nao interagentes) que se movem ao longo da reta real x todas
elas partindo do mesmo ponto x
0
no instante t = 0. A cada intervalo de tempo
, cada uma delas se move para um novo ponto de acordo com a equa cao de
Langevin discretizada. A cada instante de tempo t podemos construir tambem
um histograma, isto e, dividimos a reta real em intervalos x e para cada
intervalo [x, x+x] determinamos o n umero N(x, t) de partculas cujas posi coes
est ao dentro desse intervalo.
3.6 EQUAC

AO DE FOKKER-PLANCK
Seja P
n
(x
n
) a distribui cao de probabilidades da variavel x
n
e g
n
(k) a corres-
pondente fun cao caracterstica dada por
g
n
(k) = e
ikx
n
) =
_
e
ikx
n
P
n
(x
n
)dx
n
. (3.111)
Ent ao
g
n+1
(k) = e
ikx
n+1
) = e
ik[x
n
+f(x
n
)+
n
]
) (3.112)
ou, tendo em vista que x
n
e
n
s ao independentes,
g
n+1
(k) = e
ik[x
n
+f(x
n
)]
)e
ik
n
). (3.113)
60

Dinamica Estocastica e Irreversibilidade
Em seguida, obtemos a expansao de g
n+1
(k), ate termos em primeira ordem em
. O primeiro termo do produto da
e
ikx
n
1 +ikf(x
n
)) = e
ikx
n
) +ikf(x
n
)e
ikx
n
) (3.114)
e o segundo
1 +ik
n
)
1
2
k
2

2
n
) = 1
1
2
k
2
, (3.115)
onde usamos as propriedades
n
) = 0 e
2
n
) = /. Logo
g
n+1
(k) = g
n
(k) +ikf(x
n
)e
ikx
n
)

2
k
2
e
ikx
n
). (3.116)
Usamos agora as seguintes propriedades:
ikf(x)e
ikx
) = f(x)
d
dx
e
ikx
) =
_
e
ikx
d
dx
[f(x)P
n
(x)]dx (3.117)
e
k
2
e
ikx
) =
d
2
dx
2
e
ikx
) =
_
e
ikx
d
2
dx
2
P
n
(x)dx (3.118)
para concluir que
P
n+1
(x) P
n
(x) =
d
dx
[f(x)P
n
(x)] +

2
d
2
dx
2
P
n
(x). (3.119)
Dividindo ambos os membros por e tomando o limite 0, obtemos

t
P(x, t) =

x
[f(x)P(x, t)] +

2

2
x
2
P(x, t), (3.120)
que e a equa cao de evolu cao temporal da distribui cao de probabilidade P(x, t).
Essa equa cao e denominada equa cao de Fokker-Planck e sera analisada em de-
talhe mais adiante no captulo 4.
BIBLIOGRAFIA
Chandrasekhar, S. 1943. Stochastic problems in physics and astronomy.
Rev. Mod. Phys., 15, 1.
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemis-
try and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. Random walk and the theory of Brownian motion. American
Mathematical Monthly , 54, 369.

61 Equa cao de Langevin


Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
Nicolis, G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Sys-
tems. John Wiley, New York.
Oliveira, M. J. de 1996. Numerical stochastic methods in statistical mecha-
nics. Int. J. Mod. Phys. B, 10, 1313.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Ap-
plications. Springer-Verlag, Berlin.
Tom e T. & Oliveira M. J. de 1997. Stochastic mechanics of nonequilibrium
systems. Braz. J. Phys., 27, 525.
Ulenbeck, G. E. & Ornstein, L. S. 1930. On the theory of the Brownian
motion. Phys. Rev., 36, 823.
EXERC

ICIOS
1. Mostre que a correla cao temporal das velocidades de uma partcula livre,
executando movimento browniano (ver se cao 3.1), e dada por
v(t
0
)v(t
0
+t)) = e
|t|/m
v
2
(t
0
)).
Determine, a partir dela, a autocorrela cao de equilbrio K(t) denida por
K(t) = lim
t
0

v(t
0
)v(t
0
+t))
e a transformada de Fourier

K() =
_
e
it
K(t)dt.
2. Determine explicitamente como fun coes do tempo a varia cao da energia
cinetica media dE
c
/dt e a potencia media dissipada P
dis
para o caso da
partcula livre que executa movimento browniano. Mostre que a soma
dE
c
/dt +P
dis
= P onde P e a potencia transferida e uma constante. Fa ca
um gr aco dessa tres grandezas versus t. Para quais valores da velocidade
inicial a energia cinetica media E
c
decresce?
3. Considere uma partcula que executa movimento browniano ao longo do
eixo-x, sujeita a uma for ca viscosa e a uma for ca elastica. De acordo com
o exemplo 1, as equa coes do movimento da partcula s ao
dv
dt
= v
2
x +(t)
62

Dinamica Estocastica e Irreversibilidade
e
dx
dt
= v,
onde o rudo (t) possui as propriedades
(t)) = 0 e (t)(t

)) = (t t

).
Use o metodo desenvolvido na se cao 3.3 para determinar x(t) e v(t) como
fun coes do tempo para a condi cao inicial x(0) = 0 e v(0) = 0. Mostre que
x(t) = a
_
t
0
(e

1
(tt

)
e

2
(tt

)
)(t

)dt

e
v(t) = a
_
t
0
(
1
e

1
(tt

2
e

2
(tt

)
)(t

)dt

,
onde
a =
1

2
sendo
1
e
2
as razes da equa cao

2
+ +
2
= 0.
Em particular mostre que
x
2
) =
a
2

2
(
e
2
1
t
1

1
+ 4
e
t
1

+
e
2
2
t
1

2
),
xv) =
a
2

2
(e

1
t
e

2
t
)
2
e
v
2
) =
a
2

2
[
1
(e
2
1
t
1) + 4
1

2
e
t
1

+
2
(e
2
2
t
1)].
4. Para o movimento browniano apresentado na se cao 3.1, determine v) e
v
2
) como fun coes do tempo, usando as equa coes de evolu cao dos mo-
mentos. Determine tambem x) a partir de dx)/dt = v). Usando a as
equa coes (3.1) e (3.2) na forma discretizada, mostre que
d
dt
xv) = xv) +v
2
)
e que
d
dt
x
2
) = 2xv)
A partir dessas equa coes, determine xv) e x
2
) como fun coes do tempo.
Supo- nha que no instante t = 0 a posi cao e a velocidade da partcula
sejam x
0
e v
0
, respectivamente.

63 Equa cao de Langevin


5. Considere o conjunto de equa coes de Langevin:
dx
1
dt
= ax
2
+
1
(t) e
dx
2
dt
= bx
1
+
2
(t),
onde
1
(t)) =
2
(t)) = 0 e
i
(t)
j
(t

)) =
ij
(t t

). Use o metodo
desenvolvido na se cao 3.4 para construir equa coes de evolu cao para x
2
1
),
x
2
2
), e x
1
x
2
). Resolva as equa coes para os casos: a) b = a, a > 0 e b)
b = a, a > 0.
6. Simule o movimento aleat orio de uma partcula que obedece a equa cao de
Langevin
dx
dt
= f(x) +(t),
onde (t)) = 0 e (t)(t

)) = (t t

), e que se encontra em x = 0 no
instante t = 0, para os casos:
a) f(x) = a para x < 0, f(x) = 0 para x = 0, e f(x) = a para x > 0,
b) f(x) = x, e
c) f(x) = bx(x
2
a
2
).
Fa ca histogramas para diversos valores de t.
7. Use a equa cao de Fokker-Planck para deduzir a equa cao de evolu cao tem-
poral dos momentos.
4
Equac

ao de Fokker-Planck
4.1 EQUAC

AO EM UMA VARI

AVEL
Vimos que a equa cao de Langevin em uma variavel
dx
dt
= f(x) +(t), (4.1)
onde o rudo (t) possui as propriedades
(t)) = 0 (4.2)
e
(t)(t

)) = (t t

), (4.3)
est a associada `a equa cao de Fokker-Planck em uma variavel, ou equa cao de
Smoluchowski,

t
P(x, t) =

x
[f(x)P(x, t)] +

2

2
x
2
P(x, t), (4.4)
que da a evolu cao temporal da probabilidade P(x, t). Resolver essa equa cao
signica, pois, resolver a equa cao de Langevin.
66

Dinamica Estocastica e Irreversibilidade
Exemplo 1. A equa cao de Langevin acima pode ser interpretada como a
equa cao de movimento de uma partcula de massa desprezvel que se move num
meio viscoso e sujeita a uma for ca externa. Realmente, a equa cao de movimento
de uma tal partcula e
m
d
2
x
dt
2
=
dx
dt
+F
e
(x) +F(t), (4.5)
onde a primeira parcela `a direita e a for ca viscosa, proporcional `a velocidade; a
segunda e a for ca externa e a terceira e a for ca aleat oria. Quando a massa for
muito pequena, ou no regime de alta viscosidade, podemos desprezar o termo `a
esquerda e escrever

dx
dt
= F
e
(x) +F(t). (4.6)
Dividindo ambos os membros dessa equa cao pelo coeciente de atrito , camos
na equa cao (4.1). Assim a grandeza f(x) da equa cao (4.1) e interpretada como a
for ca externa, dividida por , e o rudo (t) e interpretado como for ca aleat oria,
dividida por .
Dois casos particulares da equa cao (4.1) ja foram vistos anteriormente: o
caso em que f(x) = c, constante, e o caso em que f(x) = x. O primeiro caso
corresponde `a difus ao de partculas sujeitas `a uma for ca constante. O segundo
caso corresponde `a difus ao de partculas sujeitas `a uma for ca elastica.
No primeiro caso, as equa coes de Langevin e Fokker-Planck s ao
dx
dt
= c +(t) (4.7)
e
P
t
= c
P
x
+

2

2
P
x
2
, (4.8)
respectivamente. Vimos no captulo 2 que a solu cao dessa equa cao para a
condi cao inicial P(x, 0) = (x) e a gaussiana
P(x, t) =
1

2t
exp
(x ct)
2
2t
. (4.9)
Para o segundo caso, em que f(x) = x, as equa coes s ao
dx
dt
= x +(t) (4.10)
e
P
t
=
(xP)
x
+

2

2
P
x
2
. (4.11)

67 Equa cao de Fokker-Planck


Essa ultima e conhecida tambem como equa cao de Smoluchowski. A solu cao
(ver exerccio 1) para a condi cao inicial P(x, 0) = (x x
0
) e a gaussiana
P(x, t) =
1
_
2b(t)
exp
[x a(t)]
2
2b(t)
(4.12)
cuja media a(t) depende de t como
a(t) = x
0
e
t
(4.13)
e cuja variancia b(t) varia com t de acordo com
b(t) =

2
(1 e
t
). (4.14)
Diferentemente do que acontece no primeiro caso, nesse, P(x, t) atinge uma
distribui cao estacion aria quando t pois a variancia b(t) /2 nesse
limite. A distribui cao estacion aria, que denotamos por P(x), e dada por
P(x) =
_

exp
x
2

. (4.15)
4.2 SOLUC

AO ESTACION

ARIA
Em seguida, vamos ver de que maneira pode ser obtida a solu cao estacion aria
da equa cao de Fokker-Planck (4.4) no caso geral. Para isso, escrevemos essa
equa cao na forma

t
P(x, t) =

x
J(x, t), (4.16)
onde J(x, t) e dada por
J(x, t) = f(x)P(x, t)

2

x
P(x, t). (4.17)
Na forma (4.16) a equa cao de Fokker-Planck e uma equa cao de continuidade,
sendo J(x, t) a corrente de probabilidade. Estamos supondo que a variavel x
tome valores no intervalo [a, b] onde um ou ambos os limites podem ser innitos.
Se integrarmos ambos os lados da equa cao (4.16) em x, obtemos:
d
dt
_
b
a
P(x, t)dx = J(a, t) J(b, t). (4.18)
Como a densidade de probabilidade P(x, t) deve estar normalizada em qualquer
instante, isto e,
_
b
a
P(x, t)dx = 1, (4.19)
68

Dinamica Estocastica e Irreversibilidade
ent ao o lado esquerdo da equa cao (4.18) deve se anular, de onde se conclui que as
condi coes de contorno deve ser tais que J(a, t) = J(b, t). Assim, a conserva cao
da probabilidade total (4.19) nao e conseq uencia apenas da equa cao de Fokker-
Planck mas tambem das condi coes de contorno. Trataremos nesta se cao somente
do caso em que a corrente de probabilidade nos extremos x = a e x = b se anule
para qualquer instante t, isto e, J(a, t) = J(b, t) = 0. A condi cao de contorno
tal que a corrente de probabilidade se anula e denominada reetora.
No regime estacion ario, a densidade de probabilidade sera independente de t
de modo que a corrente de probabilidade tambem sera independente de t, tendo
em vista a equa cao (4.17). Como o lado esquerdo da equa cao (4.16) se anula,
ent ao a corrente de probabilidade sera tambem independente de x. Logo, ela
deve ter o mesmo valor qualquer que seja x. Mas como ela e nula nos extremos
do intervalo [a, b], ent ao ela deve ser nula em todo o intervalo. Portanto, a
distribui cao estacion aria P(x) deve satisfazer a equa cao
f(x)P(x)

2
d
dx
P(x) = 0 (4.20)
ou ainda
d
dt
ln P(x) =
2

f(x). (4.21)
Denotando por V (x) o potencial correspondente `a for ca f(x), isto e,
f(x) =
d
dx
V (x) (4.22)
ent ao
ln P(x) =
2

V (x) + const, (4.23)


de onde obtemos
P(x) = Aexp
2

V (x), (4.24)
onde A e uma constante de normaliza cao.
Exemplo 2. Se no exemplo 1 denotarmos por U(x) a energia potencial asso-
ciada a F
e
(x), vemos que U(x) = V (x). No entanto, vimos no captulo anterior
que = 2k
B
T. Dessa forma temos:
P(x) = Aexp
U(x)
k
B
T
. (4.25)
Exemplo 3. Para o caso em que F
e
(x) = kx, temos U(x) = kx
2
/2 e
portanto
P(x) = Aexp
kx
2
2k
B
T
. (4.26)

69 Equa cao de Fokker-Planck


A normaliza cao de P(x) da A =
_
k/2k
B
T.
Exemplo 4. Considere o caso de uma partcula sujeita a um campo gravita-
cional, isto e, F
e
(x) = mg. Nesse caso o intervalo de varia cao de x e x 0.
Temos V (x) = mgx e portanto
P(x) = Aexp
mgx
k
B
T
. (4.27)
A normaliza cao da A = mg/k
B
T. Note que a equa cao (4.20) est a satisfeita para
qualquer valor de x 0.
4.3 OPERADOR DE EVOLUC

AO
Vimos na se cao anterior como obter a solu cao estacion aria da equa cao de Fokker-
Planck em uma variavel. Nesta se cao mostraremos que a solu cao P(x, t) tende
para a solu cao estacion aria P(x) quando t . Alem disso, estudaremos o
comportamento de P(x, t) para tempos longos.
A equa cao de Fokker-Planck em uma variavel

t
P(x, t) =

x
[f(x)P(x, t)] +

2

2
x
2
P(x, t), (4.28)
onde f(x) e uma fun cao real, pode ser escrita na forma

t
P(x, t) = JP(x, t), (4.29)
onde J e o operador de evolu cao, que age sobre fun coes (x), denido por
J(x) =

x
[f(x)(x)] +

2

2
x
2
(x). (4.30)
A classe de fun coes sobre a qual atua o operador J e composta por fun coes
(x) tais que f(x)(x) +(/2)

(x) se anula nos dois extremos x = a e x = b.


Para essas fun coes vale a seguinte propriedade
_
b
a
J(x)dx = 0. (4.31)
Essa propriedade e de fundamental importancia, pois a partir dela conclumos
que a distribui cao de probabilidades P(x, t), que satisfaz a equa cao de Fokker-
Planck (4.29), estara normalizada em qualquer instante t > 0, uma vez que
esteja normalizada em t = 0.
70

Dinamica Estocastica e Irreversibilidade

E importante notar que a distribui cao de probabilidade estacion aria P(x)


satisfaz a equa cao
JP(x) = 0. (4.32)
A introdu cao do operador evolu cao J nos permite escrever a solu cao formal
da equa cao de Fokker-Planck:
P(x, t) = e
tW
P(x, 0) (4.33)
onde e
tW
e o operador denido por
e
tW
= 1 +tJ +
t
2
2!
J
2
+
t
3
3!
J
3
+... (4.34)
Realmente, derivando ambos os membros da equa cao (4.33) com rela cao ao
tempo e usando a deni cao (4.34) vemos que (4.29) ca satisfeita.
Suponha em seguida que J possua um espectro discreto, isto e, que
J

(x) =

(x) (4.35)
para = 0, 1, 2, ..., onde

(x) s ao as autofun coes e

s ao os autovalores de J,
e tambem que P(x, 0) admita a expansao
P(x, 0) =

=0
a

(x). (4.36)
Ent ao a equa cao (4.33) nos da
P(x, t) =

=0
a

e
t

(x). (4.37)
As autofun coes satisfazem a seguinte equa cao

_
b
a

(x)dx = 0, (4.38)
que se obtem usando a propriedade (4.31) na equa cao (4.35).

E facil ver que uma das autofun coes de J deve ser P(x), a distribui cao de
probabi- lidade estacion aria. De fato, examinando a equa cao (4.32), vemos que
P(x) e autofun cao com autovalor nulo. Vamos pois colocar
0
(x) = P(x) e

0
= 0. Dessa forma podemos escrever
P(x, t) = P(x) +

=1
a

e
t

(x). (4.39)

71 Equa cao de Fokker-Planck


onde levamos em conta que a
0
= 1, o que pode ser mostrado integrando ambos
os lados da equa cao (4.36) e usando o resultado (4.38).
Veremos mais adiante, na se cao 4.5, que os outros autovalores s ao estrita-
mente negativos de forma que todas as parcelas da somatoria se anulam quando
t . Portanto, nesse limite P(x, t) P(x).
O comportamento de P(x, t) para tempos longos sera portanto exponencial
e ca- racterizado pelo segundo autovalor dominante
1
, ou seja,
P(x, t) = P(x) +a
1

(x)e
t|
1
|
(4.40)
(desde que a
1
,= 0, senao basta considerar a proxima parcela cujo coeciente
a

seja nao nulo). A grandeza t


R
= 1/[
1
[ e pois o tempo de relaxa cao para a
solu cao estacion aria. Em algumas situa coes, como aquela do exemplo 5 abaixo,
pode acontecer que t
R
, caso em que a relaxa cao deixa de ser exponencial
e passa a ser algebrica.
A solu cao da equa cao de autovalores J(x) = (x) deve respeitar as
condi coes de contorno, isto e, f(x)(x) +(/2)

(x) = 0, nos extremos x = a


e x = b.
Exemplo 5. Considere o caso de uma partcula connada no intervalo L/2
x L/2, na ausencia de for cas externas. Nesse caso f(x) = 0 e, portanto, de-
vemos resolver a equa cao de autovalores

2
d
2
dx
2
(x) = (x) (4.41)
com as condi coes de contorno

(L/2) =

(L/2) = 0. As solu coes que obede-


cem essas condi coes s ao

(x) =
_
L
1
cos(kx) = 0, 2, 4, ...
L
1
sin(kx) = 1, 3, 5, ...

2
k
2
, (4.42)
onde k = /L e escolhemos a normaliza cao de modo que
0
(x) = P(x). A
solu cao da equa cao de Fokker-Planck para o caso de a partcula estar na origem
em t = 0, isto e, P(x, 0) = (x), sera
P(x, t) =
1
L
+
2
L

=2(par)
e
tk
2
/2
cos(kx). (4.43)
Enquanto L for nito o tempo de relaxa cao sera t
R
= 1/[
2
[ = (L/2)
2
. Esse
tempo diverge para L . Nesse caso, entretanto,
P(x, t) =
1

_

0
e
tk
2
/2
cos(kx)dk =
1

2t
e
x
2
/2t
(4.44)
72

Dinamica Estocastica e Irreversibilidade
e, portanto, o decaimento sera algebrico, P(x, t) t
1/2
.
4.4 EQUAC

AO ADJUNTA
`
A equa cao de Fokker-Planck em uma variavel,

t
P(x, t) = JP(x, t), (4.45)
associamos a equa cao adjunta

t
Q(x, t) = J

Q(x, t), (4.46)


onde J

e o operador adjunto de J, denido por


_
(J

dx =
_

(J)dx (4.47)
para quaisquer fun coes (x) e (x) que perten cam `a classe de fun coes menci-
onada logo abaixo da equa cao (4.30). A partir das deni coes de J e de J

conclumos que
J

(x) = f(x)

x
(x) +

2

2
x
2
(x). (4.48)
Portanto, J nao e auto-adjunto (hermitiano), exceto quando f(x) 0.
Denotando por

(x) as autofun coes de J

, podemos escrever
J

, (4.49)
pois o operador adjunto J

deve ter os mesmos autovalores de J. Os conjun-


tos das autofun coes desses dois operadores formam um conjunto bi-ortonormal,
possuindo as seguintes propriedades:
_

(x)

(x)dx =

(4.50)
e

(x

(x) = (x x

). (4.51)
Vimos que
0
(x) = P(x) e a autofun cao (dominante) com autovalor
0
= 0.
A essa autofun cao est a associada a autofun cao adjunta
0
1. Que
0
1
e uma autofun cao com autovalor zero pode ser vericado substituindo-a na
equa cao (4.48), o que fornece J

0
= 0.

73 Equa cao de Fokker-Planck


Existe uma rela cao simples entre as autofun coes de J e de J

, dada por

(x) = P(x)

(x). Realmente, substituindo essa expressao em J

,
usando a deni cao de J dada por (4.30) e a igualdade JP(x) = 0, obtemos:
Pf

x

+

2
P

2
x
2

+
P
x

x
=

. (4.52)
Usando a rela cao (4.20), isto e, 2fP = P/x, obtemos:
f

x

+

2

2
x
2

(4.53)
que e a equa cao de autovalores para o operador adjunto J

.
Exemplo 6. Para o caso de f(x) = x, as autofun coes est ao relacionadas
aos polin omios de Hermite H

(x), que satisfazem a rela cao


H

(x) 2xH

(x) = 2H

(x). (4.54)
Comparando com a equa cao (4.53), podemos concluir que

(x) = a

(x
_
/)
e que

= .
4.5 OPERADOR HERMITIANO
Vimos na se cao anterior que, em geral, J nao e hermitiano.

E possvel, entre-
tanto, fazer uma tranforma cao sobre J e obter um operador hermitiano, que
denotamos por / e que possui os mesmos autovalores que J.
Denimos o operador / por
/(x) = [
0
(x)]
1
J[
0
(x)(x)], (4.55)
onde
0
(x) =
_
P(x). As autofun coes de / s ao

(x) = [
0
(x)]
1

(x), pois
/

=
1
0
J

=
1
0

, (4.56)
de onde conclumos que os autovalores s ao

, os mesmos de J. Para obter


a forma explcita de /, aplicamos o operador numa fun cao qualquer (x) e
usamos a deni cao de J, isto e,
/ =
1
0
J(
0
) =
1
0


x
(f
0
) +

2

2
x
2
(
0
). (4.57)
Depois usamos a igualdade

x
ln
0
=
1
2

x
ln P(x) =
1

f(x) (4.58)
74

Dinamica Estocastica e Irreversibilidade
para obter a forma desejada:
/ =
1
2

f
x
+
1

f
2
+

2

x
2
. (4.59)
A equa cao (4.59) revela que o operador / se identica formalmente com
um operador hamiltoniano
H =
h
2
2m

2
x
2
+V
ef
(x) (4.60)
tal que a energia potencial (efetiva) seja dada por
V
ef
(x) =
1
2


x
f(x) +
1

[f(x)]
2
(4.61)
e que a constante seja proporcional ao quadrado da constante de Planck. Para
o caso em que f(x) = x temos V
ef
(x) = ( +
2
x
2
/)/2.
Exemplo 7. Para o caso f(x) = x, temos:
/ =
1
2
(
1

2
x
2
) +

2

2
x
2
. (4.62)
No entanto, sabemos da mec anica quantica que

h
2
2m

2
x
2

+
1
2
m
2
x
2

= h( +
1
2
)

(4.63)
com = 0, 1, 2, ..., onde

s ao as outofun coes do oscilador harmonico. Fazendo


as substitui coes h
2
/m = , m
2
=
2
/ e, portanto, h = , obtemos
/

=

2

2
x
2

1
2

2
x
2

+

2

. (4.64)
Logo,

= , e os autovalores s ao negativos, exceto


0
= 0.

E importante notar que a expressao (4.59) nos diz que / e de fato hermiti-
ano. Os operadores hermitianos possuem as seguintes propriedades: os autova-
lores s ao reais, as autofun coes s ao ortogonais e formam um conjunto completo.
Essa ultima propriedade justica a expansao feita em (4.36). Pode-se mostrar
ainda que o autovetor dominante (aquele que corresponde ao maior autovalor)
e estritamente positivo e nao degenerado. Portanto podemos identica-lo com
a densidade de probabilidade estacion aria P(x). Sendo nulo o autovalor cor-
respondente (e nao degenerado), ent ao todos os outros devem ser estritamente
negativos.

75 Equa cao de Fokker-Planck


Vamos demonstrar, explicitamente, que os autovalores s ao negativos ou nulo.
Para isso basta mostrar que
_

(x)/(x)dx 0 (4.65)
para qualquer fun cao (x). Iniciamos por escrever a equa cao (4.57) na forma
/ =

2
_

0
_
=

2
1

0
_

2
0
(

0
)

, (4.66)
onde usamos a equa cao (4.58) para eliminar f. Assim
_

/dx =

2
_
(

0
)
_

2
0
(

0
)

dx (4.67)
e, fazendo uma integra cao por partes, obtemos:
_

/dx =

2
_

0
)

2
0
dx 0, (4.68)
onde a parte integrada se anula tendo em vista as condicoes de contorno, isto
e, a condi cao J(a) = J(b) = 0.
4.6 EQUAC

AO EM V

ARIAS VARI

AVEIS
Nas se coes anterioriores estudamos a equa cao de Fokker-Planck para o caso de
uma variavel. Daqui em diante trataremos do caso em que temos mais de uma
variavel.
Suponha que um sistema seja descrito por um conjunto de N variaveis x
1
,
x
2
, x
3
, ..., x
N
. A equa cao do movimento para esse sistema e dada pelo conjunto
de equa coes
dx
i
dt
= f
i
(x
1
, x
2
, ..., x
N
) +
i
(t) (4.69)
para i = 1, 2, ..., N, onde as variaveis estocasticas
1
(t),
2
(t), ...,
N
(t) possuem
as seguintes propriedades:

i
(t)) = 0 (4.70)
e

i
(t)
j
(t

)) =
ij
(t t

), (4.71)
onde
11
,
12
,
22
, ... s ao constantes.
Desejamos determinar a equa cao da evolu cao temporal da distribui cao de
probabilidades P(x
1
, x
2
, ..., x
N
, t) das variaveis x
1
, x
2
, ..., x
N
. Usando procedi-
mento analogo `aquele utilizado para o caso de uma variavel, visto no captulo
76

Dinamica Estocastica e Irreversibilidade
3, podemos mostrar que essa distribui cao de probabilidades obedece a equa cao

t
P =
N

i=1

x
i
(f
i
P) +
1
2
N

i=1
N

j=1

ij

2
x
i
x
j
P, (4.72)
que denominamos equa cao de Fokker-Planck em v arias variaveis.
Exemplo 8. Considere uma partcula se movendo ao longo do eixo-x, que
realiza um movimento browniano e que esteja sujeita `a for ca viscosa e a uma
for ca externa F
e
(x). A equa cao de Newton para essa partcula e
m
dv
dt
= v +F
e
(x) +F(t), (4.73)
onde F(t) e a for ca aleat oria que possui as propriedades
F(t)) = 0 (4.74)
e
F(t)F(t

)) = B(t t

), (4.75)
onde B = 2k
B
T. A equa cao (4.73) junto com a equa cao
dx
dt
= v (4.76)
constituem as equa coes de movimento da partcula. Para que elas estejam na
forma (4.69) dividimos ambos os membros de (4.73) por m. Assim fazemos as
identica coes: x
1
= x, x
2
= v, f
1
(x, v) = v, f
2
(x, v) = [F
e
(x) v]/m,
11
=

12
= 0, e
22
= = B/m
2
. A equa cao para a distribui cao de probabilidades
P(x, v, t) de x e v e pois

t
P = v

x
P
1
m
F
e
(x)

v
P +

m

v
(vP) +

2

2
v
2
P. (4.77)
Essa ultima equa cao e denominada equa cao de Kramers.
Para caso de uma for ca externa elastica, F
e
(x) = kx, a equa cao se torna

t
P = v

x
P +
2
x

v
P +

v
(vP) +

2

2
v
2
P, (4.78)
onde
2
= k/m e = /m.
A equa cao de Fokker-Planck pode ainda ser escrita na forma de uma equa cao
de continuidade

t
P =
N

i=1

x
i
J
i
, (4.79)

77 Equa cao de Fokker-Planck


onde J
i
, a i-esima componente da corrente de probabilidade, e dada por
J
i
= f
i
P
1
2
N

j=1

ij

x
j
P. (4.80)
As solu coes da equa cao de Fokker-Planck devem ser determinadas de acordo
com as condi coes de contorno prexadas. Vamos considerar aqui condi coes
de contorno tais que, nos pontos dessa superfcie, a componente da corrente de
probabilidade normal a ela se anule. Alem disso estaremos tratando de condi coes
de contorno naturais, ou seja, tais que o contorno se situa no innito. Nesse caso
a distribui cao de probabilidade e suas derivadas devem se anular rapidamente
quando x
i
de modo que J
i
0 nesse limite.
No regime estacion ario a densidade de probabilidade e independente do
tempo e satisfaz a equa cao

i=1

x
i
(f
i
P) +
1
2
N

i=1
N

j=1

ij

2
x
i
x
j
P = 0, (4.81)
que pode ser escrita na forma
N

i=1

x
i
J
i
= 0. (4.82)
No caso de uma unica variavel, vimos que a corrente de probabilidade esta-
cionaria deve ser constante, isto e, independente da posi cao, e que essa constante
deve ser nula. Para mais de uma variavel, entretanto, isso pode nao acontecer.
O fato de a componente normal ser nula nos pontos da supercie de contorno
nao e suciente para garantir que a corrente seja nula em toda parte. De fato,
as correntes podem ser circulares e tangentes `a superfcie de contorno.
Vamos examinar, em seguida, as condi coes que f
i
e
ij
devem satisfazer para
que, no regime estacion ario, a corrente se anule em todos os pontos. Quando
a corrente e nula em todos os pontos, temos uma situa cao de equilbrio ter-
modin amico. Se, no regime estacion ario, J
i
= 0, ent ao, a equa cao (4.80) nos
da
f
i
=
1
2
N

j=1

ij

x
j
lnP. (4.83)
Por conveniencia denimos uma matriz quadradada G cujos elementos s ao

ij
e construmos a grandeza F
i
dada por
F
i
= 2
N

k=1
(G
1
)
ik
f
k
, (4.84)
78

Dinamica Estocastica e Irreversibilidade
onde denotamos por (G
1
)
ij
os elementos da matriz inversa de G. A equa cao
(4.83) implica
F
i
=

x
i
lnP. (4.85)
Portanto, dessa equa cao resulta a condi cao procurada:

x
j
F
i
=

x
i
F
j
, (4.86)
que deve ser satisfeita para quaisquer pares i, j. Os estados estacion arios de
sistemas tais que f
i
e
ij
satisfazem essa condi cao, s ao estados de equilbrio
termodin amico, ou reversveis. Sistemas que nao obedecem essa condi cao s ao
ditos irreversveis.
Se a condi cao de reversibilidade (4.86) for satisfeita, ent ao F
i
deve ser o
gradiente de um potencial (x
1
, x
2
, ..., x
N
):
F
i
=

x
i
. (4.87)
Determinando , podemos escrever
ln P = + const (4.88)
ou ainda
P = Aexp, (4.89)
onde A e uma constante que deve ser determinada pela normaliza cao de P.
Para o caso em que
ij
=
ij
, temos F
i
= 2f
i
/ e a condi cao de reversibi-
lidade se escreve

x
j
f
i
=

x
i
f
j
(4.90)
para quaisquer pares i, j. Essa condi cao nos diz que a for ca deve ser conservativa,
isto e, deve ser o gradiente de um potencial V (x
1
, x
2
, ..., x
N
):
f
i
=

x
i
V. (4.91)
Nesse caso = 2V/ e, portanto,
P = Aexp
2

V . (4.92)

79 Equa cao de Fokker-Planck


4.7 M

ETODO ESTOC

ASTICO DE LANGEVIN
Considere um sistema cujo estado microsc opico e denido pelo conjunto das va-
riaveis (x
1
, x
2
, ..., x
N
) e seja V (x
1
, x
2
, ..., x
N
) a energia associada a esse estado.
De acordo com a mec anica estatstica, a densidade de probabilidade do estado
(x
1
, x
2
, ..., x
N
) e dada por
P(x
1
, x
2
, ..., x
N
) =
1
Q
exp
1
k
B
T
V (x
1
, x
2
, ..., x
N
), (4.93)
onde Q e a constante de normaliza cao. A media de uma fun cao de estado
F(x
1
, x
2
, ..., x
N
) e dada por
F) =
_
F(x
1
, x
2
, ..., x
N
)P(x
1
, x
2
, ..., x
N
)dx
1
dx
2
...dx
N
. (4.94)
Nesta se cao apresentamos um metodo numerico de car ater estatstico para a
estimativa de medias do tipo (4.94). O metodo usa a ideia de que, para estimar
a media de uma fun cao de estado, e suciente escolher apenas alguns esta-
dos, desde que eles sejam os que mais caracterizam o sistema em considera cao.
Os estados mais caractersticos s ao aqueles que tem mais peso estatstico que
no caso presente s ao dados pela distribui cao de probabilidades (4.93). Assim,
para obter uma estimativa numerica dessa media basta gerar um seq uencia de
L estados (x
(1)
1
, x
(1)
2
, ..., x
(1)
N
), (x
(2)
1
, x
(2)
2
, ..., x
(2)
N
), ..., (x
(L)
1
, x
(L)
2
, ..., x
(L)
N
) com a
probabilidade P(x
1
, x
2
, ..., x
N
). Se isso for feito uma estimativa F de F) sera
ent ao dada por
F =
1
L
L

=1
F(x
()
1
, x
()
2
, ..., x
()
N
). (4.95)
O problema que devemos resolver em seguida e o de gerar estados (x
1
, x
2
, ..., x
N
)
com a probabilidade desejada.
Esse problema se resolve se usarmos a equa cao de Langevin (4.69), com f
i
denido por
f
i
(x
1
, x
2
, ..., x
N
) =

x
i
V (x
1
, x
2
, ..., x
N
) (4.96)
e com
i
= = 2k
B
T. Se usarmos a equa cao de Langevin para gerar numerica-
mente uma trajet oria a partir de um estado inicial dado, os estados serao gerados
de acordo com a distribui cao de probabilidades P(x
1
, x
2
, ..., x
N
, t) dependente
do tempo e que satisfaz a equa cao de Fokker-Planck

t
P(x, t) =
N

i=1

x
i
f
i
(x)P(x, t) +k
B
T
N

i=1

2
x
2
i
P(x, t). (4.97)
80

Dinamica Estocastica e Irreversibilidade
Para tempos longos os estados estarao sendo gerados de acordo com a densidade
de probabilidade dada por (4.93) pois essa distribui cao e a solu cao estacion aria
da equa cao de Fokker-Planck (4.97). Assim, se descartarmos os estados inici-
ais, os estados seguintes estarao sendo gerados de acordo com a probabilidade
desejada. Note que nesse metodo nao e necessario determinar a constante de
normaliza cao Q.
Para a efetiva utiliza cao do metodo estocastico de Langevin, devemos inici-
almente discretizar o tempo. Dessa forma escrevemos a equa cao de Langevin
na forma
x
(+1)
i
= x
()
i
+f
i
(x
()
1
, x
()
2
, ..., x
()
N
) +
_
2k
B
T
()
i
, (4.98)
onde as variaveis aleat orias
()
i
s ao independentes e possuem as propriedades

()
i
) = 0 e [
()
i
]
2
) = 1, (4.99)
isto e, tem media nula e variancia igual a um.
Partimos de um estado inicial (x
(0)
1
, x
(0)
2
, ..., x
(0)
N
) e geramos os estados se-
guintes de acordo com a equa cao (4.98). Notar que em cada passo temporal
devemos gerar N n umeros aleat orios independentes, um para cada valor de i.
Podemos, por exemplo, gerar um n umero que tome os valores 1 ou +1 com
igual probabilidade. Dessa forma as propriedades (4.99) estarao satisfeitas.
Exemplo 9. Considere uma cadeia linear de N stios onde a cada stio
est a associado uma variavel ale atoria x
i
. Suponha que a energia (potencial)
V (x
1
, x
2
, ..., x
N
) do estado (x
1
, x
2
, ..., x
N
) seja dada por
V =
N

i=1
(
a
2
x
2
i

b
4
x
4
i
) c
N

i=1
x
i
x
i+1
, (4.100)
onde a, b, e c s ao par ametros positivos, e usamos condi coes peri odicas de con-
torno, isto e, x
N+1
= x
1
. A for ca f
i
sera pois
f
i
= ax
i
bx
3
i
+c(x
i1
+x
i+1
), (4.101)
de modo que a equa cao de Langevin discretizada sera
x

i
= (1 +a)x
i
bx
3
i
+c(x
i1
+x
i+1
) +
_
2k
B
T
i
, (4.102)
onde (x
1
, x
2
, ..., x
N
) e o estado no instante t e (x

1
, x

2
, ..., x

N
) e o estado no
instante t +.

81 Equa cao de Fokker-Planck


BIBLIOGRAFIA
Chandrasekhar, S. 1943. Stochastic problems in physics and astronomy.
Rev. Mod. Phys., 15, 1.
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemis-
try and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. Random walk and the theory of Brownian motion. American
Mathematical Monthly, 54, 369.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
Nicolis G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Sys-
tems. John Wiley, New York.
Oliveira, M. J. de 1996. Numerical stochastic methods in statistical mecha-
nics. Int. J. Mod. Phys., 10, 1313.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Ap-
plications. Springer-Verlag, Berlin.
Tom e T. & Oliveira, M. J. de 1997. Stochastic mechanics of nonequili-
brium systems. Braz. J. Phys., 27, 525.
Ulenbeck G. E. & Ornstein, L. S. 1930. On the theory of the Brownian
motion. Phys. Rev. , 36, 823.
EXERC

ICIOS
1. Determine a solu cao geral da equa cao de Smoluchowski
P
t
=

x
(xP) +

2

2
P
x
2
correspondente a f(x) = x, supondo que ela seja da forma
P(x, t) =
1
_
2b(t)
exp
[x a(t)]
2
2b(t)
,
onde a(t) e b(t) s ao fun coes de t, somente. Construa equa coes diferenciais
para a(t) e para b(t) e as integre.
82

Dinamica Estocastica e Irreversibilidade
2. Determine as autofun coes e os autovalores do operador de evolu cao J
dado por
J =
d
dx
[f(x)(x)] +

2
d
2
dx
2
(x)
correspondente a uma for ca f(x) dada por
f(x) =
_

_
, x > 0,
0, x = 0,
, x < 0,
onde e uma constante positiva.
3. Mostre que a solu cao estacion aria da equa cao de Kramers (4.78) e do tipo
P = Aexpax
2
/2bv
2
/2. Determine as constantes a e b e normalize P
para achar a constante A. Note que a densidade de corrente nao se anula!
4. Mostre que a solu cao dependente do tempo da equa cao de Kramers (4.78)
e do tipo P = Aexpax
2
/2 bv
2
/2 cxv, onde a, b, c e A dependem
do tempo. Demonstre que para essa densidade de probabilidades,
x
2
) =
b
ab c
2
, y
2
) =
a
ab c
2
e xy) =
c
ab c
2
.
Para determinar a, b e c como fun coes do tempo, inverta essas equa coes
para achar a, b e c em termos de x
2
), y
2
) e xv). Em seguida use as
expressoes temporais dessas ultimas grandezas obtidas no exerccio 3 do
captulo 3.
5. Simule a trajet oria de uma partcula que obede ca a equa cao de Langevin
cuja for ca f(x) = V (x) onde
V (x) = bx
2
(x
2
a
2
),
com a > 0. Obtenha o histograma de x, que e uma estimativa numerica
da pro- babilidade estacion aria, para os seguintes valores dos par ametros:
a = 1, b = 1, = 0.01 e = 0.1, 0.2, 0.5, 1, 2, e 5. Fa ca tambem um
histograma do tempo que a partcula permanece em cada uma das regi oes
x > 0 e x < 0. Obtenha o tempo medio de permanencia em cada uma
dessas regi oes.
6. Considere uma cadeia linear de N stios. A cada stio i est a associada
uma variavel real x
i
. A energia do estado (x
1
, x
2
, ..., x
N
) e dada por
V =
N

i=1
(
a
2
x
2
i

b
4
x
4
i
) c
N

i=1
x
i
x
i+1
,

83 Equa cao de Fokker-Planck


onde a, b, e c s ao constante positivas, e consideramos condi coes de contorno
pe- riodicas, isto e, x
N+1
= x
1
. Use o metodo estocastico de Langevin para
obter um histograma da variavel m denida por m = (x
1
+x
2
+...+x
N
)/N,
isto e, a densidade de probabilidade de m. Repita a simula cao para outras
temperaturas.
5
Cadeias de Markov
5.1 PROCESSOS ESTOC

ASTICOS
Uma variavel aleat oria que depende de um par ametro t e chamada de fun cao
aleat oria ou, se t signica o tempo, de variavel estocastica. Consideraremos aqui
processos estocasticos em que o tempo possa ser discretizado e que a variavel
estocastica tambem seja discretizada. Suponha que a variavel estocastica x
t
assuma valores inteiros e t os valores 0, 1, 2, 3, ... Um processo estocastico ca
completamente denido ate o instante pela distribui cao de probabilidade con-
junta
T

(n
0
, n
1
, n
2
, ..., n

) (5.1)
de que x
t
tome o valor n
0
no instante t = 0, o valor n
1
no instante t = 1, o valor
n
2
no instante t = 2, ..., e o valor n

no instante t = .
Em seguida, considere a probabilidade condicional
T
+1
(n
+1
[n
0
, n
1
, n
2
, ..., n

) (5.2)
de que a variavel estocastica x
t
tome o valor n
+1
no instante t = + 1, dado
que ela tenha tomado o valor n
0
no instante t = 0, o valor n
1
no instante t = 1,
o valor n
2
no instante t = 2, ..., e o valor n

no instante t = . Se ela for igual `a


86

Dinamica Estocastica e Irreversibilidade
probabilidade condicional
T
+1
(n
+1
[n

) (5.3)
de que a variavel estocastica x
t
tome o valor n
+1
no instante t = + 1, dado
que ela tenha tomado o valor n

no instante t = , ent ao o processo estocastico e


um processo markoviano. Em outros termos, um processo markoviano e aquele
em que a probabilidade condicional de x
t
tomar um determinado valor num de-
terminado instante depende somente do valor que ela tenha tomado no instante
anterior.
A partir da deni cao de probabilidade condicional, podemos obter a seguinte
formula:
T

(n
0
, n
1
, n
2
, ..., n

) = T

(n

[n
1
)...T
2
(n
2
[n
1
)T
1
(n
1
[n
0
)T
0
(n
0
). (5.4)
Vemos pois que o processo markoviano ca completamente denido pelas pro-
babiliddes condicionais dadas por (5.3) e pela probabilidade inicial T
0
(n
0
).
Vamos denir agora a probabilidade P

(n

) de que a variavel x
t
tome o valor
n

no instante t = independentemente de quais valores ela tenha tomado nos


instantes anteriores. Ela e dada por
P

(n

) =

(n
0
, n
1
, n
2
, ..., n

), (5.5)
onde a soma se estende sobre n
0
, n
1
, ..., n
1
mas nao sobre n

. Se usarmos a
equa cao (5.4), obtemos a seguinte equa cao de recorrencia:
P

(n

) =

n
1
T

(n

[n
1
)P
1
(n
1
). (5.6)
Portanto, dado P
0
(n
0
), podemos obter P

(n

) em qualquer instante.
A probabilidade condicional T
+1
(n
+1
[n

) e interpretada como a probabi-


lidade de transi cao do estado n

para o estado n
+1
. Em princpio ela pode
depender do ins- tante considerado. Isto e, dados dois estados, a probabilidade
de transi cao entre eles poderia ser diferente para cada instante de tempo. En-
tretanto, consideraremos somente processos markovianos cujas probabilidades
de transi cao nao variam no tempo. Nesse caso, escrevemos, pois,
T
+1
(n
+1
[n

) = T(n
+1
, n

) (5.7)
de modo que a equa cao (5.6) se torna
P

(n

) =

n
1
T(n

, n
1
)P
1
(n
1
). (5.8)

87 Cadeias de Markov
5.2 MATRIZ ESTOC

ASTICA
Vimos que um processo estocastico markoviano ca completamente denido
pela probabilidade de transi cao e pela probabilidade inicial. Vamos escrever a
equa cao anterior na forma simplicada
P

(n) =

m
T(n, m)P
1
(m) (5.9)
e interpretar T(n, m) como elemento de uma matriz T. Ela deve possuir as
seguintes propriedades:
T(n, m) 0, (5.10)
pois T(n, m) e uma probabilidade (condicional) e

n
T(n, m) = 1, (5.11)
pois ela deve estar normalizada. Ou seja, os elementos da matriz T devem ser
nao negativos e a soma dos elementos de uma coluna qualquer deve ser igual
a unidade. Note que a somatoria e feita sobre a primeira variavel, que denota
o ndice de linha da matriz. Qualquer matriz quadrada que possua essas duas
propriedades e chamada de matriz estocastica.
Se denirmos a matriz P

como a matriz coluna cujos elementos s ao P

(n),
ent ao a equa cao (5.9) pode ser escrita na forma de um produto de matrizes, isto
e,
P

= TP
1
. (5.12)
Dessa forma, dada a matriz coluna inicial P
0
, obtemos P

atraves de
P

= T

P
0
(5.13)
e o problema de determinar P

(n) se reduz ao calculo da -esima potencia da


matriz estocastica T. Essa equa cao pode ser escrita na forma
P

(n) =

m
T

(n, m)P
0
(m), (5.14)
onde o elemento de matriz T

(n, m) e interpretado como a probabilidade de


transi cao do estado m para o estado n em passos, ou seja, e a probabilidade
de a variavel x
t
tomar o valor n num certo instante t dado que ela tenha tomado
o valor m num instante anterior t .
88

Dinamica Estocastica e Irreversibilidade
5.3 TEOREMA DE PERRON-FROBENIUS
O problema fundamental dos processos markovianos e determinar quais s ao as
propriedades da matriz estocastica T para que
lim

= P, (5.15)
onde P e a solu cao estacion aria, isto e, satisfaz a equa cao
TP = P. (5.16)
Com essa nalidade, apresentamos algumas propriedades gerais da matriz es-
tocastica e algumas deni coes.
1) A matriz estocastica possui um autovalor igual `a unidade.
2) Qualquer autovalor de T satisfaz a condi cao [[ 1, isto e, no plano
complexo, os autovalores se localizam no disco de raio igual `a unidade.
3) Ao autovalor = 1 corresponde um autovetor com componentes nao
negativas.
Notar que em geral os autovalores podem ser complexos e que ao autovalor
= 1 pode corresponder mais de um autovetor, isto e, o autovalor = 1 pode
ser degenerado.
Deni c ao. Uma matriz estocastica e irredutvel se para cada par (m, n)
existe uma potencia tal que T

(m, n) > 0. Isto signica que a probabilidade


de atingir um determinado estado a partir de um outro qualquer e nao nula. O
expoente nao precisa ser necessariamente o mesmo para todos os pares.
4) Teorema de Perron-Frobenius. O autovalor = 1 de uma matriz irre-
dutvel e nao degenerado. Alem disso o autovetor correspondente possui todas
as componentes estritamente positivas.
Esse teorema arma que a solu cao estacion aria da equa cao (5.16) e unica e
que alem disso P(n) > 0.

E importante notar que e possvel haver autovalores
tais que [[ = 1 alem do autovalor = 1. Isso pode ocorrer com as matrizes
chamadas cclicas.
Deni c ao. Uma matriz estocastica e regular se todos os elementos de alguma
potencia de T s ao estritamente positivos. Ou seja, se existe tal que T

(n, m) >
0 para quaisquer n e m. Note que todos os elementos devem ser estritamente
positivos para o mesmo . Matriz regular e equivalente a matriz irredutvel e
aperi odica.
5) Com exce cao do autovalor = 1, todos os autovalores de uma matriz
regular s ao, em modulo, estritamente menores do que a unidade, isto e, [[ < 1.

89 Cadeias de Markov
6) Quando , T

converge para uma matriz cujas colunas s ao todas


iguais a P. Da, conclui-se que P

= T

P
0
converge para P qualquer que seja
P
0
.
Para que o limite de P

exista quando , e necessario que nao haja


nenhum autovalor complexo sobre o crculo unitario, exceto = 1. Entretanto,
para que o limite seja independente da probabilidade inicial, a probabilidade
estacion aria deve ser unica, isto e, o autovalor = 1 deve ser nao degenerado.
Isso ocorre com as matrizes regulares. Entretanto, pode haver matrizes nao
regulares que satisfa cam essa propriedade. Um exemplo de uma matriz nao
regular que tem essa propriedade e aquela correspondente a um sistema com
um estado absorvente.
5.4 M

ETODO ALG

EBRICO
Dada a matriz de transi cao T e a probabilidade inicial P
0
, podemos obter P

a
partir de P

= T

P
0
. Para isso devemos determinar T

, o que faremos atraves


do metodo algebrico que consiste em determinar os autovetores e autovalores de
T, caso eles existam.
Vamos considerar o caso em que os autovalores de T sejam nao degenerados.
Como T e em geral nao simetrica, devemos considerar que os autovetores `a
direita e `a esquerda sejam em geral distintos. Sejam
k
e
k
os autovetores
`a direita e `a esquerda, respectivamente, e
k
os correspondentes autovalores,
isto e,
T
k
=
k

k
(5.17)
e

k
T =
k

k
. (5.18)
Note que
k
e uma matriz coluna enquanto que
k
e uma matriz linha. Os
autovetores formam um conjunto completo ortonormalizado de modo que

k
=
jk
(5.19)
e

k
= I, (5.20)
onde I e a matriz identidade.

E importante notar que P e um autovetor `a direita com autovalor igual `a


unidade. Escrevemos pois
1
= P. O correspondente autovetor `a esquerda
1
e
90

Dinamica Estocastica e Irreversibilidade
a matriz linha que possui todas as entradas iguais a unidade, isto e,
1
(n) = 1
para qualquer n. Realmente, a equa cao

n
T(n, m) = 1 (5.21)
escrita na forma

1
(n)T(n, m) =
1
(m) (5.22)
implica
1
T =
1
. A normaliza cao de P =
1
nos da
1

1
= 1.
Considere agora a potencia T

da matriz T que escrevemos na forma


T

= T

I = T

k
=

k
T

k
=

k
, (5.23)
onde substitumos a matriz identidade pelo lado esquerdo da equa cao (5.20) e
usamos a identidade T

k
=

k
. A partir de
T

k
(5.24)
obtemos:
P

= T

P
0
=

k
(
k
P
0
) (5.25)
ou ainda
P

= P +

k=1

k
(
k
P
0
), (5.26)
pois
1
= 1,
1
= P e
1
P
0
= 1 ja que P
0
est a normalizado. Como os autovalores
satisfazem a desigualdade [
k
[ < 1 para k ,= 1, ent ao [
k
[

0 quando
de modo que todas as parcelas da somatoria anulam. Logo P

P quando
, qualquer que seja P
0
.
Exemplo 1. Considere a matriz estocastica 2 2 dada por
T =
_
1 b q
b 1 q
_
. (5.27)
Os autovetores e autovalores s ao

1
=
_
1 1
_
,
1
=
1
q +b
_
q
b
_
,
1
= 1 (5.28)
e

2
=
1
q +b
_
b q
_
,
2
=
_
1
1
_
,
2
= 1 b q. (5.29)

91 Cadeias de Markov
Assim obtemos:
T

1
+

2
(5.30)
ou seja,
T

=
1
q +b
_
q q
b b
_
+
(1 q b)

q +b
_
b q
b q
_
. (5.31)
Para uma probabilidade inicial
P
0
=
_
p
1
p
2
_
(5.32)
obtemos:
P

= T

P
0
=
1
q +b
_
q
b
_
+
(1 q b)

q +b
_
bp
1
qp
2
bp
1
+qp
2
_
(5.33)
Se q + b ,= 0 ent ao, no limite , P

se aproxima da probabilidade esta-


cionaria
1
independentemente da condi cao inicial.
5.5 REVERSIBILIDADE MICROSC

OPICA
A probabilidade estacion aria P(n) satisfaz a equa cao
P(n) =

m
T(n, m)P(m), (5.34)
que podemos escrever na forma

m
T(n, m)P(m) T(m, n)P(n) = 0, (5.35)
pois

m
T(m, n) = 1. Se a solu cao da equa cao (5.35) e tal que cada parcela
da somatoria se anula, ent ao a solu cao estacion aria satisfaz o balanceamento
detalhado ou a condi cao de reversibilidade microsc opica. Nesse caso dizemos
que P(n) e a probabilidade de equilbrio termodin amico. Entretanto, a reversi-
bilidade microsc opica e uma propriedade da matriz estocastica e, portanto, do
processo estocastico que estamos considerando. Alguns processos estocasticos
possuem reversibilidade microsc opica, outros nao.
Suponha que o processo markoviano satisfa ca o balanceamento detalhado
T(n, m)P(m) = T(m, n)P(n) (5.36)
para qualquer par m, n de estados. O lado direito e interpretado como a proba-
bilidade de transi cao de m para n, enquanto que o lado direito e a probabilidade
92

Dinamica Estocastica e Irreversibilidade
de transi cao de n para m. Em outras palavras, ha a ocorrencia da reversibilidade
microsc opica. Em princpio, e possvel saber se ha reversibilidade microsc opica
sem determinar a probabilidade estacion aria P(n). Considere tres estados quais-
quer n, n

, e n

. Na situa cao estacion aria, a probabilidade de ocorrer a trajet oria


n n

n e dada por
T(n, n

)T(n

, n

)T(n

, n)P(n) (5.37)
enquanto que a probabilidade de ocorrer a trajet oria reversa n n

n
e dada por
T(n, n

)T(n

, n

)T(n

, n)P(n). (5.38)
Havendo reversibilidade microsc opica, essas duas expressoes devem ser iguais o
que implica
T(n, n

)T(n

, n

)T(n

, n) = T(n, n

)T(n

, n

)T(n

, n). (5.39)
Portanto, um processo com reversibilidade microsc opica deve satisfazer essa
equa cao para quaisquer triplas de estados. Express oes analogas tambem podem
ser escritas para quatro ou mais estados.
Uma propriedade importante das matrizes estocasticas que possuem reversi-
bilidade microsc opica e que seus autovalores s ao todos reais. Denimos a matriz

T por

T(m, n) =
1
(m)
T(m, n)(n), (5.40)
onde (n) =
_
P(n). Se dividirmos ambos os membros da equa cao (5.36) por
(n)(m), vemos que a matriz

T e simetrica. Sendo simetrica (hermitiana), ela
possui autovalores reais. Basta agora mostrar que

T possui os mesmos autovalo-
res de T. Realmente, seja
k
um autovetor de T e
k
o autovalor correspondente,
isto e

n
T(m, n)
k
(n) =
k

k
(m). (5.41)
Dividindo ambos os membros por (m), obtemos:

T(m, n)
1
(n)

k
(n) =
k
1
(m)

k
(m). (5.42)
Portanto,
k
(n)/(n) e autovetor de

T com o mesmo autovalor
k
de T.

93 Cadeias de Markov
5.6 ENTROPIA
Em seguida vamos mostrar, para o caso em que a probabilidade estacion aria sa-
tisfaz o balanceamento detalhado, que a fun cao temporal H

denida por
H

n
P

(n) ln
P

(n)
P(n)
(5.43)
e uma fun cao decrescente no tempo, isto e, vamos mostrar que H
+1
H

.
Seja f(x) uma fun cao convexa, isto e, que possua a propriedade
f(p
1
x
1
+p
2
x
2
) p
1
f(x
1
) +p
2
f(x
2
) (5.44)
para quaisquer valores de x
1
e x
2
, onde p
1
0, p
2
0 e p
1
+ p
2
= 1. Essa
propriedade, v alida para dois pontos, pode ser generalizada para um n umero
qualquer de pontos
f(
N

m=1
p
m
x
m
)
N

m=1
p
m
f(x
m
), (5.45)
onde
p
m
0 e
N

m=1
p
m
= 1. (5.46)
A partir da equa cao de evolu cao para P

(n) e usando a condi cao de balan-


ceamento detalhado (5.36), obtemos:
P
+1
(n)
P(n)
=

m
T(m, n)
P

(m)
P(m)
. (5.47)
Agora, usamos a equa cao (5.45) com p
m
= T(m, n) e x
m
= P

(m)/P(m) para
concluir que
f(
P
+1
(n)
P(n)
)

m
T(m, n)f(
P

(m)
P(m)
). (5.48)
Multiplicando ambos os lados por P(n) e somando em n, obtemos:

n
P(n)f(
P
+1
(n)
P(n)
)

m
P(m)f(
P

(m)
P(m)
). (5.49)
Para o caso em que f(x) = xln x, obtemos:

n
P
+1
(n) ln
P
+1
(n)
P(n)

m
P

(m) ln
P

(m)
P(m)
(5.50)
ou seja H
+1
H

. Se denirmos a entropia S

por S

= kH

+ C onde k e
C s ao constantes, vemos que S
+1
S

, ou seja, a entropia e fun cao temporal


monotonica crescente.
94

Dinamica Estocastica e Irreversibilidade
5.7 MODELO DE EHRENFEST
Considere duas urnas A e B e um certo n umero N de bolas numeradas de 1 ate
N. Inicialmente, as bolas s ao colocadas na urna A. Em seguida, uma das bolas e
sorteada e transferida para a outra urna. Esse procedimento e ent ao repetido a
cada intervalo de tempo. Desejamos determinar a probabilidade P

(n) de haver
n bolas no instante .
Suponha que num certo instante a urna A tenha n bolas. A probabilidade de
o n umero delas diminuir para n1 sera igual `a probabilidade de sortearmos umas
das bolas da urna A (que sera retirada de A e transferida para B), ou seja, n/N.
Da mesma forma, a probabilidade de o n umero de bolas da urna A aumentar
para n + 1 sera igual `a probabilidade de sortearmos uma das bolas da urna B
(que sera transferida para A), ou seja, (N n)/N. Portanto, a probabilidade de
transi cao T(m, n) de n para m sera
T(n 1, n) =
n
N
n = 1, 2, ..., N 1, N (5.51)
e
T(n + 1, n) =
N n
N
n = 0, 1, ..., N 1. (5.52)
Em outros casos, T(m, n) = 0.
Aqui, entretanto, vamos considerar o caso mais geral em que permitimos
que o n umero de bolas da urna A possa nao se alterar. Vamos supor que a
probabilidade de que o n umero nao se altere seja p. Nesse caso temos pois
T(n 1, n) = q
n
N
, n = 1, 2, ..., N 1, N, (5.53)
T(n, n) = p, n = 0, 1, 2, ..., N 1, N, (5.54)
e
T(n + 1, n) = q
N n
N
, n = 1, 2, ..., N 1, N, (5.55)
onde q = 1 p. O modelo original de Ehrenfest e recuperado quando p = 0.
Substituindo T(m, n) na equa cao de evolu cao temporal
P
+1
(m) =
N

n=0
T(m, n)P

(n) (5.56)
obtemos:
P
+1
(n) = q(1
n 1
N
)P

(n 1) +pP

(n) +q(
n + 1
N
)P

(n + 1), (5.57)
equa cao que e valida para n = 0, 1, 2, ..., N, desde que coloquemos P

(N+1) = 0
e P

(1) = 0. Essa equa cao sera resolvida para a condi cao inicial P
0
(n) =
n,N
que corresponde a ter todas as bolas na urna A.

95 Cadeias de Markov
A probabilidade estacion aria P(n) satisfaz a equa cao
P(n) = (1
n 1
N
)P(n 1) + (
n + 1
N
)P(n + 1) (5.58)
cuja solu cao e
P(n) = 2
N
_
N
n
_
. (5.59)

E facil vericar que P(n) satisfaz a condi cao de balanceamento detalhado (5.36).
Portanto o modelo de Ehrenfest possui reversibilidade microsc opica.
Antes de determinar P

(n), vamos construir a equa cao para a evolu cao tem-


poral do n umero medio de bolas na urna A dado por
X

=
N

n=0
nP

(n). (5.60)
A partir da equa cao (5.57), obtemos:
X
+1
= X

+q(1
2
N
X

), (5.61)
que deve ser resolvido com a condi cao inicial X
0
= N. A solu cao e
X

=
N
2
+
N
2
(1
2
N
q)

. (5.62)
Portanto, X

aproxima-se exponencialmente da solu cao estcionaria N/2. Escre-


vendo
X

=
N
2
+
N
2
e

, (5.63)
vemos que = ln(1 2q/N).
Da mesma maneira, podemos determinar o segundo momento denido por
Y

=
N

n=0
n
2
P

(n). (5.64)
A evolu cao temporal do segundo momento e dada por
Y
+1
= (1
4
N
q)Y

+ 2qX

+q (5.65)
que deve ser resolvida com a condi cao inicial Y
0
= N
2
. Usando a solu cao de X

,
obtemos:
Y

=
N
2
4
+
N
4
+
N
2
2
(1
2
N
q)

. (5.66)
A partir dos resultados anteriores obtemos a variancia
B

= Y

X
2

=
N
4

N
4
(1
2
N
q)

, (5.67)
96

Dinamica Estocastica e Irreversibilidade
que tambem se aproxima de seu valor estacion ario N/4 de forma exponencial,
com o mesmo expoente .
Em seguida, vamos obter a solu cao detalhada do modelo de Ehrenfest de-
nido pela matriz dada pelas equa coes (5.53), (5.54) e (5.55). Considere a
equa cao de autovetores `a direita
N

n=0
T(m, n)(n) = (m) (5.68)
ou ainda
q(1
n 1
N
)(n 1) +p(n) +q(
n + 1
N
)(n + 1) = (n), (5.69)
v alida para n = 0, 1, 2, ..., N, desde que coloquemos (1) = 0 e (N +1) = 0.
Dena em seguida a fun cao f(x) por
f(x) =
N

n=0
(n)x
n
(5.70)
que e um polin omio de grau N. Multiplicando ambos os membros da equa cao
(5.69) por x
n
e somando em n, conclumos que f(x) deve satisfazer a equa cao
q(1 x
2
)f

(x) = N( p qx)f(x) (5.71)


cuja solu cao e
f(x) = A(1 +x)
Nk
(1 x)
k
, (5.72)
onde A e uma constante e k = N( 1)/2q.
Como a fun cao f(x) deve ser um polin omio de grau N, segue-se que k tem
que ser um n umero inteiro maior ou igual a zero e menor ou igual a N. Portanto,
os autovalores s ao dados por

k
= 1
2q
N
k com k = 0, 1, 2, ..., N. (5.73)
A cada autovalor
k
corresponde um autovetor
k
cujos elementos s ao os coe-
cientes de f
k
(x), dado por
f
k
(x) =
N

n=0

k
(n)x
n
. (5.74)
Como o autovetor
0
deve ser identicado com o vetor probabilidade esta-
cionaria P, que est a normalizado, ent ao devemos ter f
0
(1) = 1 de onde obtemos
A = 2
N
. Assim
f
k
(x) = 2
N
(1 +x)
Nk
(1 x)
k
, (5.75)

97 Cadeias de Markov
que e a fun cao geratriz dos autovetores de T. Em particular f
0
(x) = 2
N
(1+x)
N
cuja expansao da a distribui cao estacion aria P(n) mostrada pela equa cao (5.59).
Usando as rela coes (5.19) e (5.20) entre os autovetores `a direita
k
e `a
esquerda
k
, podemos obter a seguinte rela cao:

k
(n) = 2
N

n
(k). (5.76)
Notar a troca entre k e n.
Vamos supor que inicialmente todas as bolas estejam na urna A. Ent ao,
P
0
(n) =
nN
, de modo que
P

(n) =
N

m=0
T

(n, m)P
0
(m) = T

(n, N) (5.77)
ou, usando o teorema espectral (5.24),
P

(n) =
N

k=0

k
(n)
k
(N). (5.78)
Se quisermos determinar x
n
), multiplicamos essa equa cao por x
n
, somamos em
n e usamos a fun cao geratriz. O resultado e
x
n
) =
N

n=0
x
n
P

(n) =
N

k=0

k
f
k
(x)
k
(N). (5.79)
Usando o resultado
k
(N) = (1)
k
(
N
k
) e a equa cao (5.75), obtemos:
x
n
) = 2
N
(1 +x)
N
+
N

k=1

k
(1)
k
(
N
k
)2
N
(1 +x)
Nk
(1 x)
k
. (5.80)
Derivando essa equa cao com rela cao a x e fazendo x = 1, obtemos
n) =
N
2
+
N
2

1
=
N
2
+
N
2
(1
2
N
q)

(5.81)
que e o resultado obtido anteriormente. Da mesma forma podemos obter outros
momentos.
Suponha que estejamos no estado estacion ario e que no instante haja m
bolas na urna A. A probabilidade de haver m1 bolas na urna A no instante
1 e o mesmo n umero de bolas no instante + 1 e dada por
P

=
T(n 1, n)T(n, n 1)P(n 1)
P(n)
=
n
2
N
2
. (5.82)
98

Dinamica Estocastica e Irreversibilidade
Da mesma forma a probabilidade de haver n 1 bolas na urna A no instante
1 e n + 1 no instante posterior + 1 e dada por
P
+
=
T(n + 1, n)T(n, n 1)P(n 1)
P(n)
=
n
N
(1
n
N
). (5.83)
A probabilidade de haver n + 1 bolas na urna A no instante 1 e n 1 no
instante + 1 e
P
+
=
T(n 1, n)T(n, n + 1)P(n + 1)
P(n)
=
n
N
(1
n
N
). (5.84)
Finalmente, a probabilidade de haver n +1 bolas na urna A no instante 1 e
o mesmo n umero de bolas no instante + 1 e dado por
P
++
=
T(n + 1, n)T(n, n + 1)P(n + 1)
P(n)
= (1
n
N
)
2
. (5.85)
Portanto, se n for proximo de N, a maior dessas quatro probabilidades sera
P

. Isso tem o seguinte signicado. Fa ca uma serie de simula coes do modelo


de Ehrenfest e coloque num gr aco o n umero de bolas na urna A em fun cao
do tempo. De todas as curvas que passam por n num determinado instante ,
as de maior freq uencia s ao aquelas que no instante anterior 1 e no instante
posterior + 1 passam por n 1, isto e, aquelas que tem a forma de um V
invertido no ponto (, n).
5.8 PASSEIO ALEAT

ORIO
Vamos retomar o problema do passeio aleat orio introduzido no captulo 2 e
reformu- l a-lo em termos de uma cadeia de Markov. A cada intervalo de tempo,
uma partcula, que se move ao longo de uma reta, salta uma distancia h para
a esquerda ou para a direita com igual probabilidade. As possveis posi coes da
partcula s ao x = nh com n = 0, 1, 2, ..., N1. Para simplicar vamos considerar
condi coes peri odicas de contorno o que signica que, quando a partcula estiver
na posi cao h(N 1), ela podera saltar para o posi cao x = 0 e vice-versa. A
probabilidade de transi cao T(m, n) de n para m sera T(n1, n) = T(n+1, n) =
1/2 e T(m, n) = 0 em outros casos.
Aqui, entretanto, vamos permitir que a partcula possa permanecer onde
estava com uma certa probabilidade p. Nesse caso ent ao, a matriz estocastica e
dada por
T(n 1, n) = T(n + 1, n) =
1
2
q (5.86)
e
T(n, n) = p, (5.87)

99 Cadeias de Markov
onde q = 1 p. Em outros casos, T(m, n) = 0.
Seja P

(n) a probabilidade de a partcula estar na posi cao x = nh no instante


. Vamos supor que no instante zero ela esteja no origem de modo que P
0
(n) =

n0
. A equa cao que da a evolu cao de P

(n) e dada por


P
+1
(n) =

m
T(n, m)P

(m). (5.88)
Para o caso que estamos considerando
P
+1
(n) =
1
2
qP

(n + 1) +pP

(n) +
1
2
qP

(n 1), (5.89)
onde n = 0, 1, 2, ..., N 1 e usamos condi coes peri odicas de modo que P

(N +
n) = P

(n).
A matriz estocastica acima e um exemplo de uma matriz de Toeplitz que s ao
matrizes cujos elementos de uma determinada diagonal s ao todos iguais. Isto e,
uma matriz de Toeplitz T possui a propriedade
T(n, m) = f(n m) (5.90)
onde f(n) e peri odica: f(n +N) = f(n). Note que f(n) possui as propriedades
f(n) 0 e

n
f(n) = 1. (5.91)
Para o caso em considera cao, f(1) = f(N 1) = q/2, f(0) = p e zero em outros
casos. A equa cao de evolu cao de P

(n) sera, pois


P
+1
(n) =

m
f(n m)P

(m). (5.92)
Denindo G

(k) como a fun cao caracterstica correspondente a P

(n), isto
e,
G

(k) =

n
e
ikn
P

(n), (5.93)
ent ao
G
+1
(k) = F(k)G

(k), (5.94)
onde F(k) e a fun cao caracterstica de f(n), ou seja
F(k) =

n
e
ikn
f(n). (5.95)
A partir da equa cao (5.94) obtemos
G

(k) = [F(k)]

G
0
(k). (5.96)
100

Dinamica Estocastica e Irreversibilidade
Para P
0
(n) =
n0
, a fun cao caracterstica correspondente e G
0
(k) = 1 de modo
que
G

(k) = [F(k)]

. (5.97)
Para o caso do passeio ale atorio considerado aqui F(k) = p + q cos k e,
portanto,
G

(k) = (p +q cos k)

. (5.98)
A partir de G

(k), obtemos P

(n).
Qualquer matriz de Toeplitz possui os seguintes autovetores:

k
(n) =
1
N
e
ikn
, k =
2
N
j, j = 0, 1, 2, ..., N 1. (5.99)
Para vericar isso, basta subtituir esses autovetores na equac ao de autovalores

n
T(n, m)
k
(m) =
k

k
(n). (5.100)
Levando em conta as propriedades de f(n), obtemos:

k
=

n
e
ikn
f(n) = F(k) (5.101)
ou, para o caso que estamos considerando,
k
= p + q cos k. Os autovetores `a
esquerda s ao dados por
k
(n) = e
ikn
. Dessa forma, temos
P

(n) = T

(n, 0) (5.102)
ou, usando o teorema espectral (5.24),
P

(n) =

k
(n)

k
(0) =
1
N

k
e
ikn
(5.103)
ou ainda
P

(n) =
1
N

k
(p +q cos k)

e
ikn
. (5.104)
5.9 RECORR

ENCIA
Seja R

(n, m) a probabilidade de a partcula estar na posi cao n, apos inter-


valos de tempo, dado que ela estava na posi cao m no instante inicial e que em
nenhum instante ela tenha estado na posi cao n. Em outras palavras, R

(n, m)
e a probabilidade de a partcula atingir a posi cao n pela primeira vez em in-
tervalos de tempo come cando pela posi cao m. De acordo com Kac, existe uma
rela cao entre a matriz estocastica T e essa probabilidade dada por
T

(n, m) =

j=1
R
j
(n, m)T
j
(n, n), (5.105)

101 Cadeias de Markov


v alida para 1, onde T
j
(n, m) = T
j
(n, m) e a probabilidadede de atingir n
em j intervalos de tempo come cando por m, sendo que T
0
(n, m) = (n, m). Essa
rela cao pode ser entendida como segue. Come cando do estado m, o estado n
pode ser atingido, em intervalos de tempo, atraves de maneiras mutuamente
excludentes. Cada maneira e rotulada pelo ndice j que indica o n umero de
passos em que n e atingido pela primeira vez. Assim, a partcula estara em n
apos passos se ela atingir n pela primeira vez em j passos e voltando a n apos
j passos.
Denimos as fun coes geratrizes
g(n, m, z) =

=1
T

(n, m)z

+(n, m) (5.106)
e
h(n, m, z) =

=1
R

(n, m)z

. (5.107)

E interessante notar que a matriz g(z) cujos elementos s ao g(n, m, z) e igual `a


inversa da matriz I zT, pois g(z) = I +zT +z
2
T
2
+.... A matriz g(z) tambem
e conhecida como fun cao de Green.
Usando a equa cao (5.105), obtemos
g(n, m, z) = (n, m) +h(n, m, z)g(n, n, z) (5.108)
ou ainda
h(n, m, z) =
g(n, m, z) (n, m)
g(n, n, z)
. (5.109)
Para m = n,
h(n, n, z) = 1
1
g(n, n, z)
. (5.110)
A probabilidade (n) de que a partcula volte `a posi cao n come cando na
mesma posi cao n, e que chamamos de probabilidade de recorrencia do estado
n, sera
(n) =

=1
R

(n, n) = h(n, n, 1) = 1
1
g(n, n, 1)
. (5.111)

E importante observar que se g(n, n, 1) diverge ent ao (n) = 1 e o estado e


recorrente, isto e, a probabilidade de a partcula voltar `a posi cao inicial e igual
a um. Caso contrario, essa probabilidade sera menor do que um. No caso em
que (n) = 1, podemos denir o tempo medio de recorrencia ) por
) =

=1
R

(n, n) = lim
z1
d
dz
h(n, n, z). (5.112)
102

Dinamica Estocastica e Irreversibilidade
Usando a rela cao
T

(n, m) =

k
(n)

k
(m) (5.113)
obtemos:
g(n, m, z) =

k
1
1 z
k

k
(n)

k
(m). (5.114)
Para saber se n e recorrente devemos olhar para
g(n, n, z) =

k
1
1 z
k

k
(n)

k
(n) (5.115)
ou ainda para
g(n, n, z) =
P(n)
1 z
+

k=0
1
1 z
k

k
(n)

k
(n), (5.116)
pois
0
= 1,
0
(n) = P(n) que e a probabilidade estacion aria, e

0
(n) = 1.
Enquanto P(n) ,= 0, o que ocorre quando o n umero de estados for nito
(lembrar do teorema de Perron-Frobenius), devemos ter g(n, n, z) quando
z 1. Da conclumos que = 1 e o estado n (ou qualquer outro) e sempre
recorrente.
Para valores de z proximos de um, g(n, n, z) e dominada pelo primeiro
termo. Assim para z 1, escrevemos g(n, n, z) = P(n)(1 z)
1
de modo
que h(n, n, z) = 1 (1 z)/P(n). Logo ) = 1/P(n). Para o problema do
passeio aleat orio P(n) = 1/N, todos os estados possuem o mesmo tempo medio
de recorrencia que e igual a N.
Em sequida vamos considerar o caso em que P(n) se anula. Consideraremos
o caso do passeio aleat orio para o qual P(n) = 1/N. Nesse caso a primeira
parcela se anula e devemos considerar todos os termos da somatoria. A partir
dos autovalores obtidos anteriormente chegamos ao resultado
g(n, m, z) =
1
N

k
e
ik(nm)
1 z
k
, (5.117)
onde k = 2j/N, j = 0, 1, 2, ..., N 1 e
k
= p +q cos k. Portanto
g(n, n, z) =
1
N

k
1
1 z
k
. (5.118)
Quando N , obtemos a integral
g(n, n, z) =
1
2

1
1 z
k
dk. (5.119)

103 Cadeias de Markov


E o problema agora e saber se a integral diverge quando z 1, isto e, saber se
a integral
g(n, n, 1) =
1
2q

1
1 cos k
dk (5.120)
diverge. Para isso, basta saber o comportamento do integrando para pequenos
valores de k. Escrevendo:
1
2

1
1 cos k
dk =

_
0
1
1 cos k
dk =

_
0
1
1 cos k
dk +

1
1 cos k
dk (5.121)
onde 1, vemos que o integrando da primeira integral pode ser aproximado
por 2/k
2
que possui como integral a fun cao 2/k que diverge em k = 0. Logo
(n) = 1 e qualquer estado e recorrente. Entretanto, o tempo medio de re-
correncia e innito.
5.10 PASSEIO ALEAT

ORIO MULTIDIMENSIONAL
Vamos considerar inicialmente o caso em que uma partcula se move num plano.
A cada intervalo de tempo, ela pode saltar uma distanica h na dire cao leste,
oeste, norte ou sul com igual probabilidade. Denotamos ent ao a posi cao da
partcula pelo vetor r = hn = h(n
1
, n
2
). As probabilidades de transi cao nao
nulas s ao dadas por
T(n, m) =
1
4
q se n
1
= m
1
1 ou n
2
= m
2
1, (5.122)
e
T(n, n) = p, (5.123)
onde estamos usando condi coes peri odicas de contorno nas duas dire coes. A
fun cao f(n) sera pois
f(n) =
1
4
q, se [n[ = 1 e f(0) = p, (5.124)
de modo que
F(k) =

n
e
ikn
f(n) = p +
1
2
q(cos k
1
+ cos k
2
), (5.125)
onde k = (k
1
, k
2
). Aqui tambem os autovalores de T s ao dados por
k
= F(k)
de modo que g(n, n, 1) para um sistema innito e dado por
g(n, n, 1) =
1
4
2
q

2
2 cos k
1
cos k
2
dk
1
dk
2
. (5.126)
104

Dinamica Estocastica e Irreversibilidade
Essa integral tambem diverge, pois, repetindo o argumento feito na se cao an-
terior, temos que considerar a integral numa vizinhan ca da origem. Nessa vizi-
nhan ca [k[ 1 e devemos analisar o comportamento da integral
_ _
1
k
2
1
+k
2
2
dk
1
dk
2
=
_
1
k
2
2kdk = 2 ln k. (5.127)
Essa integral diverge de forma logaritma quando k 0. Portanto, no plano,
qualquer estado e recorrente.
Em tres ou mais dimensoes devemos generalizar a integral (5.126) para o
caso de um espa co de d dimensoes. A integral nesse espa co sera
g(n, n, 1) =
1
q(2)
d

...

d
d cos k
1
cos k
2
... cos k
d
dk
1
dk
2
...dk
d
(5.128)
e novamente devemos observar o comportamento proximo de k
1
= k
2
= ... =
k
d
= 0. A integral numa vizinhan ca ao redor da origem e dada por
_
1
k
2
1
+k
2
2
+... +k
2
d
dk
1
dk
2
...dk
d
= c
_
1
k
2
k
d1
dk = c
1
d 2
k
d2
, (5.129)
que e nita para d 3. Logo, < 1, para d 3.
Os resultados acima permitem fazer a seguinte arma cao devida a P olya:
em uma e duas dimensoes qualquer estado e recorrente ( = 1), isto e, a
partcula voltar a ao ponto de partida com probabilidade igual a um; em tres
ou mais dimensoes, entretanto, isso nao ocorre; nesses casos, a probabilidade de
recorrencia e menor do que um ( < 1) e a partcula podera nunca mais voltar
ao ponto de partida.
Em tres dimensoes
g(n, n, 1) =
1
q(2)
3

...

3
3 cos k
1
cos k
2
cos k
3
dk
1
dk
2
dk
3
. (5.130)
Calculando numericamente a integral,
g(n, n, 1) =
1
q
1.516386... (5.131)
o que fornece = 1 0.659462...q < 1, enquanto q > 0. Para q = 1, =
0.340537....
BIBLIOGRAFIA
Chandrasekhar, S. 1943. Stochastic problems in physics and astronomy.
Rev. Mod. Phys., 15, 1.

105 Cadeias de Markov


Feller, W. 1950. An Introduction to Probability Theory and its Aplications.
Wiley, London.
Gantmacher, F. R. 1959. Applications of the Theory of Matrices. Interscience
Pub., New York.
Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. Random walk and the theory of Brownian motion. American
Mathematical Monthly, 54, 369.
Kac, M. 1959. Probability and Related Topics in Physical Sciences. Interscience
Publishers, New York.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
Kemeny, J. G. & Snell, J. L. 1960. Finite Markov Chains. Van Nostrand,
Princeton.
Montroll, E. W. & Weiss, G. H. 1965. Random walks on lattices. II. J.
Math. Phys., 6, 167.
Nicolis, G & Prigogine, I. 1979. Self-Organization in Nonequilibrium Sys-
tems. John Wiley, New York.
EXERC

ICIOS
1. Uma cadeia e constituda por uma sucess ao de atomos de tres tipos, A, B,
e C. Nessa cadeia, dois atomos do mesmo tipo nunca aparecem juntos. Um
atomo do tipo B sucede um do tipo A com probabilidade 1/3 e um atomo
do tipo A sucede um atomo do tipo B com probabilidade 1/3. Depois
de um atomo do tipo C sempre vem um atomo do tipo A. Determine
a concentra cao de cada tipo de atomo. Determine a fra cao dos possveis
pares de atomos vizinhos.
2. Uma cadeia de Markov e denida pela matriz estocastica T e pelo vetor
probabilidade inicial P
0
, dados por
T =
_
_
_
0 1/3 1
1/3 0 0
2/3 2/3 0
_
_
_ P
0
=
_
_
_
1
0
0
_
_
_
106

Dinamica Estocastica e Irreversibilidade
Use o metodo algebrico para determinar o vetor probabilidade P

em qual-
quer instante .
3. Considere uma cadeia de Markov cuja probabilidade e dada por
T

(n
0
, n
1
, n
2
, ..., n

) = T(n

[n
1
)...T(n
2
[n
1
)T(n
1
[n
0
)T
0
(n
0
),
e dena a entropia da cadeia o

ate o instante por


o

n
0

n
1

n
2
...

(n
0
, n
1
, n
2
, ..., n

) ln T

(n
0
, n
1
, n
2
, ..., n

).
Suponha que a matriz estocastica T(n, m) possua uma probabilidade es-
tacionaria unica P(n). Mostre ent ao que a grandeza S = o

/, no limite
, e dada por
S =

m
T(n, m)P(m) ln T(n, m)
inclusive para o caso de matrizes cclicas. Ache o valor de S para o caso
da cadeia denida no exerccio 1 acima. Determine a expressao de S para
o caso em T(n, m) = p(m).
6
Equac

ao Mestra
6.1 INTRODUC

AO
Considere a matriz estocastica T(n, m) de uma cadeia de Markov. Suponha que
as transi coes ocorram a cada intervalo de tempo e que a matriz estocastica
seja dada por
T(n, m) = W(n, m), n ,= m, (6.1)
e
T(n, n) = 1 (n). (6.2)
Suponha ainda que seja pequeno de modo que a probabilidade de permanencia
no mesmo estado seja muito proxima da unidade. A propriedade

m
T(m, n) = 1 (6.3)
implica
(n) =

m(=n)
W(m, n). (6.4)
Vamos examinar em seguida a evolu cao da probabilidade P

(n) de o sistema
estar no estado n no -esimo intervalo de tempo, que escrevemos na forma
P
+1
(n) =

m(=n)
T(n, m)P

(m) +T(n, n)P

(n) (6.5)
108

Dinamica Estocastica e Irreversibilidade
ou ainda, usando as equa coes (6.1) e (6.2),
P
+1
(n) =

m(=n)
W(n, m)P

(m) +P

(n) (n)P

(n). (6.6)
Denindo a probabilidade do estado n no instante t = por P(n, t) = P

(n),
ent ao
P(n, t +) P(n, t)

m(=n)
W(n, m)P(m, t) (n)P(n, t). (6.7)
No limite 0, o lado esquerdo se torna a derivada temporal de P(n, t) de
modo que
d
dt
P(n, t) =

m(=n)
W(n, m)P(m, t) (n)P(n, t). (6.8)
Usando a equa cao (6.4), podemos escrever ainda:
d
dt
P(n, t) =

m(=n)
W(n, m)P(m, t) W(m, n)P(n, t), (6.9)
que e a equac ao mestra. W(n, m) e interpretada como a probabilidade de
transi cao de m para n por unidade de tempo, ou ainda, taxa de transi c ao de m
para n.
Exemplo 1. O passeio aleat orio em tempo contnuo e denido como segue.
Um partcula se move ao longo de uma reta. A cada intervalo de tempo curto
t, ela salta uma distancia h para a esquerda ou para a direita com probabi-
lidade t/2. As possveis posi coes da partcula s ao dadas por x = nh onde
n = 0, 1, 2, ..., N 1. Por conveniencia consideramos condi coes peri odicas de
contorno. As taxas de transi cao W(n, m) s ao dadas por
W(n, n + 1) = W(n, n 1) =

2
. (6.10)
As outras taxas de transi cao s ao nulas. A equa cao mestra se torna
d
dt
P(n, t) =

2
P(n + 1, t) +

2
P(n 1, t) P(n, t). (6.11)
6.2 MATRIZ DE EVOLUC

AO W
Examinando o lado direito da equa cao mestra (6.9), observamos que a somat oria
se estende somente sobre os estados m diferentes de n. Como o elemento W(n, n)

109 Equa cao Mestra


nao participa dessa equa cao podemos deni-lo segundo nossa conveniencia. Va-
mos denir W(n, n) de tal forma que

m
W(m, n) = 0, (6.12)
isto e,
W(n, n) =

m(=n)
W(m, n) = (n). (6.13)
Tendo em vista que, agora, todos os elementos W(n, m) est ao determinados,
podemos denir a matriz quadrada W, denominada matriz de evolu cao, como
aquela cujos elementos s ao W(n, m). Ela possui as seguintes propriedades: a)
qualquer elemento fora da diagonal e maior ou igual zero,
W(n, m) 0, n ,= m, (6.14)
b) a soma dos elementos de uma coluna e nula, equa cao (6.12). Esta claro que
os elementos da diagonal devem ser negativos ou nulos. Seja uma matriz
coluna cujos elementos s ao (n). Ent ao, usando a equa cao (6.13), vemos que

m
W(n, m)(m) =

m(=n)
W(n, m)(m) W(m, n)(n). (6.15)
Logo a equa cao mestra pode ser escrita na forma
d
dt
P(n, t) =

m
W(n, m)P(m, t) (6.16)
ou ainda
d
dt
P(t) = WP(t), (6.17)
onde P(t) e a matriz coluna cujos elementos s ao P(n, t).
A solu cao formal da equa cao (6.17) com a condi cao inicial P(n, 0) e dada
por
P(t) = e
tW
P(0), (6.18)
onde P(0) e a matriz coluna cujos elementos s ao P(n, 0) e e
tW
e a matriz denida
por
e
tW
= I +tW +
t
2
2!
W
2
+
t
3
3!
W
3
+
t
4
4!
W
4
+... (6.19)
sendo I a matriz identidade.
110

Dinamica Estocastica e Irreversibilidade
Exemplo 2. Considere o caso mais simples possvel de uma sistema com dois
estados n = 1, 2 com matriz de evolu cao W dada por
W =
_
/2 /2
/2 /2
_
. (6.20)

E facil ver que


W

= ()
1
W, = 1, 2, 3, ... (6.21)
de modo que
exptW = I +

=1
t

= I +W

=1
t

()
1
= I +
1

(1 e
t
)W, (6.22)
onde I e a matriz identidade 2 2. Logo
P(t) = P(0) +
1

(1 e
t
)WP(0), (6.23)
ou, explicitamente,
P(1, t) =
1
2
(1 e
t
) +e
t
P(1, 0) (6.24)
e
P(2, t) =
1
2
(1 e
t
) +e
t
P(2, 0). (6.25)
No limite t temos P(1, t) = P(2, t) = 1/2, independente da condi cao
inicial.
6.3 COMPORTAMENTO PARA TEMPOS LONGOS
A solu cao estacion aria P
e
(n) da equa cao mestra e aquela que satisfaz a equa cao

m(=n)
W(n, m)P
e
(m) W(m, n)P
e
(n) = 0 (6.26)
ou
WP
e
= 0. (6.27)
Dadas a taxas de transi cao, desejamos determinar quais as condi coes para que
essa solu cao seja unica e para que
lim
t
P(t) = P
e
, (6.28)
isto e, que P(t) se aproxime da solu cao estacion aria para tempos longos.

111 Equa cao Mestra


Uma forma de solucionar tal problema e reduzi-lo a um problema de proces-
sos markovianos de tempo discreto. Discretizando o tempo em intervalos t,
podemos es- crever a solu cao formal (6.18) na forma
P(t) = (e
tW
)

P(0), (6.29)
onde e tal que t = t. Mas essa equa cao pode ser entendida como um
processo markoviano discreto, como visto no captulo 5, cuja matriz estocastica
e
T = e
tW
, (6.30)
que tambem pode ser escrita na forma
T = I + tW (6.31)
para t sucientemente pequeno, onde I e a matriz identidade. Portanto, se
a matriz T satiszer os requisitos do teorema de Perron-Frobenius, a solu cao
estacion aria sera unica e ela sera atingida no limite t para quaisquer
condi coes iniciais.
Usando os resultados da se cao 5.3, e tendo em vista a equa cao (6.30) ou
(6.31), podemos fazer as seguintes arma coes de car ater geral.
1) A matriz de evolu cao W possui um autovalor nulo.
2) A parte real de qualquer autovalor de W e negativo ou nulo.
3) Ao autovalor nulo corresponde um autovetor com componentes nao-negativas.
Se qualquer estado n puder ser atingido a partir de qualquer outro m, ent ao
podemos armar o seguinte:
4) O autovalor nulo e nao degenerado e o autovetor correspondente possui
todas as componentes estritamente positivas. Em outras palavras, o estado
estacion ario e unico e P
e
(n) > 0.
5) Todos os outros autovalores possuem parte real estritamente negativa.
6) Quando t a probabilidade P(n, t) converge para P
e
(n) qualquer que
seja a condi cao inicial P(n, 0).
6.4 ENTROPIA
Uma maneira alternativa de demonstrar a aproxima cao ao estado estacion ario
no limite de tempos longos e construir uma fun cao que seja monotonica no
tempo e limitada.
Dena a fun cao H(t) por
H(t) =

n
P
e
n
f(x
n
), x
n
(t) =
P
n
(t)
P
e
n
, (6.32)
112

Dinamica Estocastica e Irreversibilidade
onde f(x) e uma fun cao diferenciavel, convexa e tal que f(x) 0 o que implica
H(t) 0. Estamos usando a nota cao P
n
(t) e P
e
n
no lugar de P(n, t) e P
e
(n),
respectivamente.
Derivando a fun cao H(t), temos
dH
dt
=

n
f

(x
n
)
dP
n
dt
(6.33)
e, portanto,
dH
dt
=

n
f

(x
n
)

m(=n)
W
nm
x
m
P
e
m
W
mn
x
n
P
e
n
. (6.34)
Multiplicando ambos os membros da equa cao (6.26) por uma fun cao arbitraria
A
n
e somando em n obtemos:

n
A
n

m(=n)
W
nm
P
e
m
W
mn
P
e
n
= 0, (6.35)
que, somado `a equa cao anterior, resulta em
dH
dt
=

n,m(n=m)
(x
m
f

(x
n
) +A
n
)W
nm
P
e
m
(x
n
f

(x
n
) +A
n
)W
mn
P
e
n
(6.36)
ou
dH
dt
=

n,m(n=m)
(x
m
f

(x
n
) +A
n
) (x
m
f

(x
m
) +A
m
)W
nm
P
e
m
. (6.37)
Se escolhermos A
n
= f(x
n
) x
n
f

(x
n
) obtemos
dH
dt
=

n,m(n=m)
(x
m
x
n
)f

(x
n
) +f(x
n
) f(x
m
)W
nm
P
e
m
. (6.38)
Para uma fun cao convexa, a expressao entre chaves e sempre estritamente ne-
gativa, exceto quando x
m
= x
n
, de modo que dH/dt < 0. No entanto, como
H(t) 0, ela deve decrescer e se aproximar de seu valor mnimo, ou seja, ela
deve se anular quando t , o que ocorre se, para qualquer par n, m tal
que W
nm
,= 0, tenhamos x
n
() = x
m
(). Se a matriz de evolu cao W for tal
que qualquer estado possa ser atingido a partir de qualquer outro estado ent ao
x
n
() deve ter o mesmo valor para todos os possveis valores de n de onde
conclumos que P
n
() = P
e
n
.
A escolha f(x) = xln xx+1, resulta na fun cao H de Boltzmann dada por
H(t) =

n
P
n
(t) ln
P
n
(t)
P
e
n
, (6.39)

113 Equa cao Mestra


que est a relacionada com a entropia S(t) atraves de S = kH + C onde k e
C s ao constantes. A entropia assim denida e, portanto, uma fun cao temporal
monotonica crescente.
6.5 M

ETODO ALG

EBRICO
A solu cao da equa cao mestra pode ser obtida se determinarmos todos os au-
tovetores e autovalores da matriz de evolu cao W. Suponha que
k
e
k

sejam os autovetores `a esquerda e `a direita, respectivamente; e que


k
sejam
os autovalores correspondentes, isto e,
W
k
=
k

k
e
k
W =
k

k
. (6.40)
Por simplicidade consideramos aqui que os autovalores s ao nao degenerados. Os
autovetores formam um conjunto completo de modo que

k
=
jk
e

k
= I, (6.41)
onde I e a matriz identidade.
Notar que o vetor probabilidade estacion aria P
e
e um autovetor com autova-
lor nulo. Denotando por
0
o autovetor correspodente ao autovalor nulo
0
= 0,
vemos que eles coincidem,
0
= P
e
. Alem disso, o correspondente autovetor `a
esquerda
0
e uma matriz linha com todas as componentes iguais `a unidade.
Realmente, a equa cao (6.12) pode ser escrita como

0
(n)W(n, m) = 0 (6.42)
ou ainda
0
W = 0. A normaliza cao de P
e
nos da
0
P
e
= 1 ou seja
0

0
= 1.
Considere agora a seguinte expansao:
e
tW
= e
tW
I = e
tW

k
=

k
e
t
k

k
(6.43)
de onde obtemos:
P(t) =

k
a
k
e
t
k

k
, (6.44)
onde a
k
e um escalar dado por a
k
=
k
P(0). Como um dos autovalores e nulo,
podemos escrever ainda:
P(t) = P
e
+

k(=0)
a
k
e
t
k

k
, (6.45)
114

Dinamica Estocastica e Irreversibilidade
onde usamos o fato de que a
0
=
0
P(0) = 1, pois P(0) est a normalizado.

E
importante observar que, como todos os outros autovalores s ao estritamente
negativos, segue-se que limP(t) = P
e
quando t .
Exemplo 3. Considere a matriz de evolu cao W dada por
W =
_
b q
b q
_
(6.46)
com b 0 e q 0. Os autovetores e autovalores s ao dados por

0
=
_
1 1
_
,
0
=
1
q +b
_
q
b
_
,
0
= 0 (6.47)
e

1
=
1
q +b
_
b q
_
,
1
=
_
1
1
_
,
1
= (b +q). (6.48)
Assim, obtemos
e
tW
= e
t
0

0
+e
t
1

1
, (6.49)
ou seja,
e
tW
=
1
q +b
_
q q
b b
_
+
e
t(b+q)
q +b
_
b q
b q
_
. (6.50)
Para uma probabilidade inicial
P(0) =
_
p
1
p
2
_
(6.51)
obtemos:
P(t) = e
tW
P(0) =
1
q +b
_
q
b
_
+
e
t(b+q)
q +b
(bp
1
qp
2
)
_
1
1
_
, (6.52)
que da a probabilidade dos dois estados em cada instante.
6.6 REVERSIBILIDADE MICROSC

OPICA
Quando as taxas de transi cao W(n, m) forem tais que a probabilidade esta-
cionaria P
e
(n) satiszer a equa cao
W(n, m)P
e
(m) W(m, n)P
e
(n) = 0 (6.53)

115 Equa cao Mestra


para quaisquer pares de estados m e n, dizemos que elas obedecem o balance-
amento detalhado. Nesse caso dizemos que P
e
(n) alem de ser a probabilidade
estacion aria e tambem a probabilidade de equilbrio termodin amico. Entre-
tanto, devemos observar que a obediencia ao balanceamento detalhado e uma
propriedade t ao-somente da matriz de evolu cao W. Algumas matrizes, ou seja,
alguns processos, obedecem o balanceamento, outros nao.
A condi cao de balanceamento detalhado e equivalente `a reversiblidade mi-
crosc opica. A probabilidade da transi cao m n durante um intervalo de tempo
pequeno t, no estado estacion ario, e igual a (t)W(n, m)P
e
(m), enquanto a
probabilidade da transi cao reversa n m e igual a (t)W(m, n) P
e
(n). Se a
equa cao (6.53), for satisfeita ent ao essas duas probabilidades serao iguais para
quaisquer pares de estados m e n.
Podemos em princpio estabelecer se um determinado processo obedece a
reversibi- lidade microsc opica sem apelar para a equa cao (6.53), isto e, sem
que se saiba, a priori, a probabilidade estacion aria. Considere tres estados
quaisquer n, n

, e n

mas distintos. No estado estacion ario a probabilidade


da ocorrencia da trajet oria fechada n n

n, em tres intervalos de
tempos consecutivos t, e
tW(n, n

)tW(n

, n

)tW(n

, n)P
e
(n), (6.54)
enquanto a probabilidade de ocorrencia da trajet oria reversa no mesmo intervalo
de tempo e
tW(n, n

)tW(n

, n

)tW(n

, n)P
e
(n). (6.55)
Havendo reversibilidade, essas duas probabilidades s ao iguais, de modo que
W(n, n

)W(n

, n

)W(n

, n) = W(n, n

)W(n

, n

)W(n

, n), (6.56)
que e a condi cao procurada.
Uma propriedade importante das matrizes de evolu cao W que satisfazem o
ba- lanceamento detalhado e que seus autovalores s ao todos reais. Denindo a
matriz

W por

W(m, n) =
1
(m)
W(m, n)(n), (6.57)
onde (n) =
_
P
e
(n), dividimos ambos os membros da equa cao (6.53) por
(m)(n), concluindo que

W e simetrica. Agora, dividindo ambos os membros
da equa cao de autovalores

n
W(m, n)
k
(n) =
k

k
(m) (6.58)
116

Dinamica Estocastica e Irreversibilidade
por (m) e usando a equa cao (6.57), obtemos:

W(m, n)

k
(n)
(n)
=
k

k
(m)
(m)
, (6.59)
ou seja,

W possui os mesmos autovalores de W. Os autovetores s ao

k
com
componentes

k
(n) =
k
(n)/(n). Como

W e simetrica e real, seus autovalores


s ao reais. Logo, os autovalores de W s ao reais.
6.7 PASSEIO ALEAT

ORIO GENERALIZADO
Vamos considerar aqui um processo que pode ser entendido como um passeio
aleat orio ao longo de uma reta, mas com transi coes que dependem da posi cao
em que se encontra o passeante. As possveis posi coes ao longo da reta s ao
dadas por x = hn. A cada intervalo de tempo pequeno t, uma partcula que
esteja na posi cao x = hn salta uma distancia h para a direita com probabilidade
(t)a
n
ou para a esquerda com probabilidade (t)b
n
. As taxas de transi cao
W
nm
s ao pois dadas por
W
n+1,n
= a
n
e W
n1,n
= b
n
. (6.60)
As outras taxas de transi cao s ao nulas. A equa cao mestra torna-se ent ao
d
dt
P
n
(t) = b
n+1
P
n+1
(t) +a
n1
P
n1
(t) (a
n
+b
n
)P
n
(t). (6.61)
Quando a
n
e b
n
forem independentes de n e iguais, recuperamos o passeio
aleat orio usual do exemplo 1.
Exemplo 4. A versao em tempo contnuo do modelo das urnas de Ehrenfest
possui taxas de transi cao dadas por
W
n+1,n
= a
n
=
N n
N
, n = 0, 1, 2, ..., N 1 (6.62)
e
W
n1,n
= b
n
=
n
N
, n = 1, 2, ..., N 1, N, (6.63)
onde e uma constante positiva. A equa cao mestra escreve-se
d
dt
P
n
(t) =
n + 1
N
P
n+1
(t) +(1
n 1
N
)P
n1
(t) P
n
(t). (6.64)

117 Equa cao Mestra


A evolu cao temporal da media f(n)) de uma fun cao da variavel estocastica
n e obtida multiplicando ambos os membros de (6.61) por f(n) e somando sobre
n. Apos rearranjar os termos, obtemos:
d
dt
f(n)) = [f(n + 1) f(n)]a
n
) +[f(n 1) f(n)]b
n
). (6.65)
Como exemplo, podemos considerar os momentos de n. A evolu cao temporal
do primeiro momento e
d
dt
n) = a
n
) b
n
), (6.66)
a do segundo momento e
d
dt
n
2
) = (2n + 1)a
n
) +(2n + 1)b
n
), (6.67)
etc. Se as taxas de transi cao a
n
ou b
n
nao forem lineares em n, a equa cao para
um determinado momento dependera de momentos de ordem superior.
6.8 REAC

OES QU

IMICAS
Nesta se cao estudaremos a cinetica das rea coes qumicas sob o ponto de vista
estocastico. A principal raz ao dessa abordagem e que as rea coes qumicas s ao
de natureza estatstica. Em alguns casos, as utua coes s ao pequenas, mas em
outros, elas s ao grandes o suciente para justicar um tratamento estocastico.
Uma tratamento detalhado das rea coes qumicas e difcil, de modo que usa-
remos uma abordagem aproximada. As rea coes qumicas serao descritas por um
modelo tal que as intera coes entre componentes s o dependam do n umero delas,
nao dependendo das congura coes microsc opicas das moleculas. Dentro desse
modelo, as taxas de rea cao serao fun coes apenas dos n umeros de moleculas de
cada especie envolvida nas rea coes. Um tratamento mais geral, em que se leve
em conta a individualidade das moleculas e sua congura coes locais, sera objeto
de estudo mais adiante, no Captulo 11.
Vamos considerar inicialmente o caso mais simples da rea cao A B com
taxa de rea cao k e que corresponde, por exemplo, ao caso do decaimento radi-
ativo. Os estados possveis correspondem ao n umero n de moleculas do tipo A
onde n = 0, 1, 2, 3, .... A probabilidade de transi cao n n1 num intervalo de
tempo t pequeno e (t)kn de modo que b
n
= kn e a
n
= 0. A equa cao mestra
e pois
d
dt
P
n
(t) = k(n + 1)P
n+1
(t) knP
n
(t) (6.68)
118

Dinamica Estocastica e Irreversibilidade
de onde obtemos a evolu cao temporal para o primeiro momento, que e o n umero
medio de moleculas do tipo A:
d
dt
n) = kn) (6.69)
e para o segundo momento:
d
dt
n
2
) = 2kn
2
) +kn). (6.70)
A solu cao dessas duas equa coes s ao
n) = n
0
e
kt
(6.71)
e
n
2
) = n
0
e
kt
+ (n
2
0
n
0
)e
2kt
(6.72)
com a condi cao inicial n) = n
0
e n
2
) = n
2
0
. A variancia e dada por
n
2
) n)
2
= n
0
e
kt
(1 e
kt
). (6.73)
Em seguida, vamos considerar o caso em que a
n
ou b
n
nao s ao lineares em
n. Um exemplo e o modelo de Schlogl, descrito pelo conjunto das rea coes
A+B 2A, (6.74)
2A A+B, (6.75)
A C, (6.76)
com taxas de rea cao k
1
, k
2
, e k
3
, respectivamente. A primeira e uma rea cao
cataltica, a segunda e a sua reversa, e a terceira e uma aniquila cao espont anea.
Consideramos que as moleculas do tipo B constituem um reservat orio, o que
signica dizer que as taxas de rea cao s ao independentes do n umero delas. A
taxa de transi cao da primeira rea cao, correspondente ao processo n n + 1, e
k
1
n; a taxa de transi cao da segunda, correspondente ao processo n n 1, e
k
2
n
2
; enquanto da terceira, correspondente tambem ao processo n n 1, e
k
3
n. Dessa forma vemos que
a
n
= k
1
n e b
n
= k
2
n
2
+k
3
n. (6.77)
Portanto, a equa cao mestra escreve-se
d
dt
P
n
(t) = [k
2
(n + 1)
2
+k
3
(n + 1)]P
n+1
(t),
+k
1
(n 1)P
n1
(t) (k
1
n +k
2
n
2
+k
3
n)P
n
(t). (6.78)

119 Equa cao Mestra


A evolu cao temporal do primeiro momento e
d
dt
n) = (k
1
k
3
)n) k
2
n
2
), (6.79)
a do segundo momento e
d
dt
n
2
) = (k
1
+k
3
)n) + (2k
1
2k
3
+k
2
)n
2
) 2k
2
n
3
). (6.80)
Vemos pois que a evolu cao temporal de um determinado momento depende
de momentos de ordem superior. Uma maneira de resolver aproximadamente
essas equa coes e fazer um truncamento. O mais simples consiste em fazer a
aproxima cao n
2
) = n)
2
a qual, inserida na equa cao (6.79), nos da a equa cao
aproximada
d
dt
n) = (k
1
k
3
)n) k
2
n)
2
. (6.81)
Para k
1
,= k
3
a solu cao e
n) =
k
1
k
3
k
2
+C exp(k
1
k
3
)t
. (6.82)
onde C e uma constante que deve ser determinada pela condi cao inicial.
No limite t obtemos as solu coes estacion arias
n) = 0, k
1
< k
3
(6.83)
e
n) =
k
1
k
3
k
2
, k
1
> k
3
. (6.84)
Assim, no regime estacion ario o sistema exibe uma transi cao de fase de um
regime em que nao ha moleculas do tipo A, quando k
1
< k
3
, para um regime
em que o n umero de moleculas e nao nulo, quando k
1
> k
3
. Em ambos os casos,
n) se aproxima de ser valor estacion ario de forma exponencial, e
t/
, com um
tempo de relaxa cao dado por
= [k
1
k
3
[
1
, (6.85)
o qual diverge quando k
1
k
3
.
Quando k
1
= k
3
a equa cao de evolu cao para n) se torna
d
dt
n) = k
2
n)
2
(6.86)
cuja solu cao e
n) =
1
k
2
t +c
(6.87)
de modo que para tempos longos n) t
1
, ou seja, nesse caso, o decaimento
ao estado estacion ario deixa de ser exponencial e torna-se algebrico.
120

Dinamica Estocastica e Irreversibilidade
6.9 M

ETODO DA FUNC

AO GERATRIZ
Em alguns casos, a equa cao mestra (6.61) pode ser resolvida de forma exata
atraves do metodo da fun cao geratriz. Vamos ilustrar o metodo considerando
a rea cao qumica linear descrita pela equa cao mestra (6.68). A fun cao geratriz
f(x) e denida por
f(x, t) = x
n
) =

n=0
P
n
(t)x
n
, [x[ < 1. (6.88)
A ideia do metodo e construir uma equa cao diferencial para f(x, t) a partir da
equa cao mestra. Resolvendo essa equa cao, a expansao em serie de potencias de
x fornece a distribui cao de probabilidades P
n
(t). Alternativamente, podemos
obter os diversos momentos por meio de
n) =
_
x
f
x
_
x=1
, n
2
) =
_
x

x
x
f
x
_
x=1
, (6.89)
etc.
Derivando ambos os membros de (6.88) com rela cao ao tempo e usando
(6.68), obtemos:

t
f(x, t) = k(1 x)

x
f(x, t). (6.90)
A solu cao dessa equa cao e da forma
f(x, t) = (z), z = (1 x)e
kt
, (6.91)
onde a fun cao (z) deve ser determinada pelas condi coes iniciais. Suponha
que no instante t = 0 haja n
0
moleculas de modo que f(x, 0) = x
n
0
. Como
f(x, 0) = (1 x), ent ao (z) = (1 z)
n
0
. Logo,
f(x, t) = [1 (1 x)e
kt
]
n
0
. (6.92)
O momento de ordem pode ser obtido tomando-se a -esima derivada dessa
fun cao com rela cao a x no ponto x = 0.
Em seguida, vamos considerar o caso correspondentes `as rea coes qumicas
A B e B A. A taxa de transi cao da primeira rea cao e k
1
n, enquanto a
da segunda e simplesmente k
2
. Estamos considerando que as moleculas do tipo
B s ao em n umero abundante, de modo que elas nao entram na equa cao. Nesse
caso temos ent ao a
n
= k
2
e b
n
= k
1
n. Assim, a equa cao mestra torna-se
d
dt
P
n
(t) = k
1
(n + 1)P
n+1
(t) +k
2
P
n1
(t) (k
2
+k
1
n)P
n
(t). (6.93)

121 Equa cao Mestra


Usando o mesmo metodo da fun cao geratriz, obtemos a equa cao

t
f(x, t) = k
1
(1 x)

x
f(x, t) k
2
(1 x)f(x, t). (6.94)
A solu cao e da forma
f(x, t) = h(x)g(x, t), (6.95)
onde g(x, t) satisfaz a mesma equa cao anterior, isto e,

t
g = k
1
(1 x)
g
x
(6.96)
e h(x) e solu cao de
k
1
h
x
k
2
h = 0. (6.97)
Logo
f(x, t) = (z)e
x
, z = (1 x)e
k
1
t
, =
k
2
k
1
. (6.98)
Suponha que no instante t = 0 haja n
0
moleculas de modo que f(x, 0) = x
n
0
.
Ent ao, devemos ter
x
n
0
= (1 x)e
x
, (6.99)
de onde obtemos:
(z) = (1 z)
n
0
e
(1z)
. (6.100)
Portanto
f(x, t) = [1 (1 x)e
k
1
t
]
n
0
exp(1 x)(1 e
k
1
t
). (6.101)
Quanto t , obtemos:
f(x, ) = exp(1 x) (6.102)
e portanto
f(x, ) = e

n=1
1
n!

n
x
n
(6.103)
de onde obtemos a probabilidade estacion aria
P
n
() =
e

n!

n
. (6.104)
O primeiro momento n) e igual `a derivada de f(x, t) com rela cao a x cal-
culado no ponto x = 1, ou
n) = n
0
e
k
1
t
+(1 e
k
1
t
). (6.105)
O decaimento exponencial s o depende da constante k
1
. No limite t obte-
mos n) = = k
2
/k
1
.
122

Dinamica Estocastica e Irreversibilidade
6.10 EXPANS

AO EM S

ERIE TEMPORAL
Ate aqui estudamos alguns metodos exatos para a solu cao da equa cao mestra.
O metodo de expansao em serie temporal que apresentaremos a seguir tambem
e exato, desde que todos os termos da serie sejam calculados. Entretanto, em
muitas situa coes e impossvel, do ponto de vista pratico, calcular todos os ter-
mos. Se conseguirmos calcular um certo n umero deles, a serie truncada podera
ser extrapolada.

E exatamente dentro desse esprito que a expansao em serie
tem sua aplica cao. Essa abordagem exige que as grandezas relevantes possam
ser desenvolvidas em serie de potencia temporal.
Vimos que a solu cao formal da equa cao mestra na forma matricial
d
dt
P(t) = WP(t) (6.106)
para uma condi cao inicial P(0), e dada por
P(t) = e
tW
P(0) (6.107)
ou, de forma explicita,
P(t) = I +tW +
t
2
2!
W
2
+
t
3
3!
W
3
+...P(0). (6.108)
Para determinar a expansao temporal da media
F) =

n
F(n)P(n, t) (6.109)
de uma fun cao F(n), procedemos da seguinte forma: introduzimos inicialmente
a matriz linha , que denominamos vetor ou matriz de referencia, cujos elemen-
tos s ao todos iguais a um, (n) = 1. Ent ao, o produto matricial P(t) e dado
por
P(t) =

n
(n)P(n, t) =

n
P(n, t) = 1. (6.110)
Uma propriedade importante da matriz de referencia e
W = 0, (6.111)
que se obtem a partir da propriedade (6.12).
Em seguida denimos uma matriz quadrada F cujos elementos fora da dia-
gonal s ao nulos e cujos elementos da diagonal s ao F(n). Com essa deni cao, a
media F) pode ser calculada pela formula
F) = FP(t), (6.112)

123 Equa cao Mestra


pois
FP(t) =

n
(n)F(n)P(n, t) =

n
F(n)P(n, t). (6.113)
Usando a expansao temporal (6.108) de P(t) em (6.112), obtemos:
F) = FI +tW +
t
2
2!
W
2
+
t
3
3!
W
3
+...P(0). (6.114)
Portanto
F) = f
0
+

=1
t

, (6.115)
onde os coecientes s ao dados por
f
0
= FP(0), (6.116)
que e a media de F no instante t = 0, e
f

=
1
!
FW

P(0), 1. (6.117)
Vamos considerar agora a tranformada de Laplace de P(t) dada por

P(z) =
_

0
P(t)e
zt
dt. (6.118)
Usando a expansao temporal (6.108) e tendo em vista a identidade
1
!
_

0
t

e
zt
dt =
1
z
+1
, (6.119)
ent ao

P(z) =
1
z
I +
1
z
2
W +
1
z
3
W
2
+
1
z
4
W
3
+...P(0). (6.120)
Mas a soma entre colchetes identica-se com a inversa da matriz (zI W), que
denotamos por (zI W)
1
, isto e,
(zI W)
1
=
1
z
I +
1
z
2
W +
1
z
3
W
2
+
1
z
4
W
3
+... (6.121)
de modo que

P(z) = (zI W)
1
P(0). (6.122)
Da mesma forma, podemos obter a transformada de Laplace da media F)
dada por
_

0
F)e
zt
dt = F

P(z) = F(zI W)
1
P(0), (6.123)
que se obtem usando as equa coes (6.112) e (6.121).
124

Dinamica Estocastica e Irreversibilidade
Se quisermos obter a probabilidade estacion aria P() a partir da transfor-
mada de Laplace

P(z), utilizamos a formula
P() = lim
z0
z

P(z), (6.124)
que se obtem da seguinte maneira: partindo de
z

P(z) =
_

0
P(t)ze
zt
dt (6.125)
e, fazendo uma integral por partes,
z

P(z) = P(0) +
_

0
P

(t)e
zt
dt. (6.126)
Tomando o limite z 0, temos:
lim
z0
z

P(z) = P(0) +
_

0
P

(t)dt = P(). (6.127)


6.11 EXPANS

AO PERTURBATIVA
Suponha que desejemos calcular o vetor estacion ario P correspondente `a matriz
de evolu cao W, isto e, queremos obter a solu cao de
WP = 0. (6.128)
Para fazer uma expansao em serie, imaginamos que W possa ser escrito na forma
W = W
0
+V, (6.129)
onde W
0
e uma matriz de evolu cao nao perturbada e V a perturba cao. Preten-
demos obter as propriedades do sistema descrito pelo operador W como series
de potencia em . Supomos conhecidos os conjuntos dos autovetores `a direita

n
, `a esquerda
n
e dos autovalores
n
da matriz de evolu cao W
0
. Eles
satisfazem as equa coes
W
0

n
=
n

n
e
n
W
0
=
n

n
. (6.130)
Denotamos por
0
= 0 autovalor nulo de W
0
. O correspondente autovetor `a
direita
0
identica-se com o vetor estacion ario P
0
de W
0
, e o vetor `a esquerda

0
identica-se com o vetor de referencia , ou seja,

0
= P
0
e
0
= . (6.131)

125 Equa cao Mestra


Alem disso, temos as seguintes propriedades:

n
=
nn
e

n
= I, (6.132)
onde I e a matriz identidade. A partir desses resultados, e facil ver que W
0
possui a seguinte expansao:
W
0
=

n(=0)

n
, (6.133)
onde o termo n = 0 foi excludo pois
0
= 0. Para isso basta usar a identidade
W
0
= W
0
I e as propriedades contidas nas expressoes (6.130) e (6.132).
Em seguida, fazemos a hip otese de que P possa ser desenvolvido em serie de
potencias de , ou seja,
P = P
0
+P
1
+
2
P
2
+
3
P
3
+.... (6.134)
Substituindo em (6.128) e tendo em vista (6.129), obtemos a seguinte equa cao:
(W
0
+V )(P
0
+P
1
+
2
P
2
+
3
P
3
+...) = 0. (6.135)
Como os coecientes das diversas potencias de devem se anular, conclumos
que
W
0
P

= V P
1
, 1. (6.136)
Multiplicando ambos os membros da equa cao (6.134) por e levando em
conta que P = 1 e que P
0
=
0

0
= 1, obtemos mais uma propriedade:
P

= 0, ,= 0. (6.137)
Em seguida, vamos denir a matriz R por
R =

n(=0)

n
1

n
(6.138)
que possui a seguinte propriedade:
RW
0
= W
0
R = I
0

0
= I P
0
. (6.139)
Isto e, a matriz R e a matriz inversa de W
0
dentro do subspa co cujos vetores
s ao ortogonais ao vetor
0
. Para vericar essa propriedade, basta multiplicar
a expressao da deni cao de R pela expansao de W
0
dada por (6.133) e usar a
ortogonalidade (6.132) entre os autovetores de W
0
.
126

Dinamica Estocastica e Irreversibilidade
Multiplicando ambos os membros da equa cao (6.136) por R e usando a
propriedade (6.139), temos:
(I P
0
)P

= V RP
1
, 1. (6.140)
Mas, de (6.137), P

= 0 para 1, de modo
P

= RV P
1
, 1. (6.141)
que e a equa cao que fornece P

recursivamente. A partir dessa equa cao, obtemos:


P

= (RV )(RV )...(RV )P


0
= (RV )

P
0
, (6.142)
que da P

a partir de P
0
. Substituindo na expansao (6.134), obtemos nalmente:
P = P
0
+

=1
(RV )

P
0
. (6.143)
Tendo em vista que
(I +RV )
1
= I +

=1
(RV )

(6.144)
podemos escrever ainda
P = (I +RV )
1
P
0
. (6.145)
A media F) dada por
F) = FP (6.146)
calcula-se usando a expressao (6.143) para P, isto e,
F) = FP
0
+

=1
F(RV )

P
0
, (6.147)
ou seja,
F) = f
0
+

=1

, (6.148)
onde
f
0
= FP
0
, f

= F(RV )

P
0
. (6.149)
Assim, se conseguirmos determinar os coecientes f

, temos o desenvolvimento
da media F) em potencias de .

127 Equa cao Mestra


BIBLIOGRAFIA
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemis-
try and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
McQuarrie, D. A. 1967. Stochastic Approach to Chemical Kinetics. J.
Appl. Prob., 4, 413.
Nicolis, G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Sys-
tems. John Wiley, New York.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Ap-
plications. Springer-Verlag, Berlin.
Schl ogl, F. 1972. Chemical reaction models for non-equilibrium phase tran-
sitions. Z. Phys., 53, 147.
Tom e, T. 1996. Irreversibilidade: Modelos de Rede com Din amicas Estoc asticas.
Tese de Livre-Docencia, Instituto de Fsica, Universidade de Sao Paulo.
EXERC

ICIOS
1. Uma maneira de resolver numericamente uma equa cao de Fokker-Planck
e discretiz a-la. A discretiza cao espacial de uma equa cao de Fokker-Planck
resulta numa equa cao mestra. Demonstre essa arma cao para a equa cao
de Smoluchowski, apresentada na se cao 4.1, usando as seguintes apro-
xima coes para a primeira e segunda derivadas de uma fun cao espacial
F(x):
F(x + x) F(x)
x
e
F(x + x) 2F(x) +F(x x)
(x)
2
.
Quanto valem as taxas de transi cao, nessa aproxima cao?
2. Aplique o metodo do exerccio anterior `a equa cao de Kramers correspon-
dente a uma partcula sujeita a uma for ca elastica, apresentado no exemplo
128

Dinamica Estocastica e Irreversibilidade
8 da captulo 4. Calcule numericmente, discretizando o tempo, a distri-
bui cao das posi coes e das velocidades para diversos instantes. Calcule
tambem as distribui coes estacion arias. Considere como condi cao inicial
que a partcula esteja em repouso na origem do sistema de coordenadas.
3. Use o metodo da fun cao geratriz para determinar a solu cao da equa cao
mestra correspondente ao modelo das urnas de Ehrenfest.
4. Considere as seguintes rea coes:
A+X

2X,
B +X

C,
onde as concentra coes das especies A, B, e C s ao mantidas constantes por
meio de reservat orios. Escreva a equa cao mestra e a equa cao de evolu cao
para o valor medio n) do n umero de moleculas da especie X. Use a
aproxima cao mais simples para determinar n) como fun cao do tempo e o
valor estacion ario.
5. O mesmo exerccio anterior para o caso das rea coes
A+ 2X

3X,
B +X

C.
Mostre tambem que nesse caso o sistema exibe uma transi cao de primeira
ordem.
6. Mostre que a fun cao geratriz f(x, t) correspondente `a equa cao mestra
(6.61) obedece a equa cao diferencial

t
f(x, t) = (
1
x
1)Bf(x, t) + (x 1)/f(x, t),
onde / e B s ao dois operadores diferenciais denidos por
/x
n
= a
n
x
n
e Bx
n
= b
n
x
n
.
Escreva explicitamente esses operadores para o caso linear a
n
=
1
+
1
n
e b
n
=
2
+
2
n.
7. Considere a seguinte matriz de evolu cao W correspondente a um sistema
com dois estados 1 e 2:
W =
_
b q
b q
_
,

129 Equa cao Mestra


onde b e a taxa de transi cao 1 2 e q e a taxa de transi cao 2 1.
Determine as potencias W

e a partir dela obtenha as matrizes e


tW
e (zI
W)
1
. Determine ent ao o vetor probabilidade P(t) e sua tranformada de
Laplace

P(z), usando a condi cao inicial
P(0) =
_
p
1
p
2
_
.
Determine P() atraves de P() = lim
z0
z

P(z).
8. Considere um sistema com dois estados descrito pela matriz de evolu cao
do exerccio anterior. Escolhendo
W
0
= b
_
1 1
1 1
_
, V =
_
0 1
0 1
_
, = q b,
determine os autoestados de W
0
e a partir dele calcule R. Obtenha ent ao
a expansao do vetor probabilidade estacion aria P de W em potencias de
. Em seguida efetue a somatoria.
9. Use a propriedade RW
0
= I P
0
e a equa cao W = W
0
+ V para
mostrar que P
0
= (I +RV )P e assim demonstrar a equa cao (6.145).
7
M

etodo de Monte Carlo


7.1 INTRODUC

AO
De acordo com a mec anica estatstica, as propriedades de um sistema em equlibrio
termodin amico s ao obtidas a partir de uma distribui cao de probabilidade P(s),
conhecida a priori, e denida para os possveis estados (microscopicos) s do
sistema. Seja f(s) uma propriedade, isto e, uma fun cao de estado. A media f)
e dada por
f) =

s
f(s)P(s), (7.1)
onde
P(s) =
1
Z
expH(s) (7.2)
e Z e a fun cao de parti cao dada por
Z =

s
expH(s). (7.3)
O metodo de Monte Carlo fornece uma estimativa para qualquer media f)
e consiste no seguinte. Suponha que um certo n umero M de estados seja gerado
de acordo com a probabilidade P(s); ent ao a media aritmetica
1
M
M

i=1
f(s
i
) (7.4)
132

Dinamica Estocastica e Irreversibilidade
sera uma estimativa para f) onde s
1
, s
2
, ..., s
M
s ao os estados gerados. A
estimativa sera tanto melhor quanto maior for o valor de M. Em seguida, deve-
mos resolver o problema de gerar estados com a probabilidade desejada P(s).
A solu cao se encontra na constru cao de um processo markoviano cuja probabi-
lidade estacion aria seja P(s). Isto e, devemos construir uma matriz estocastica
T(s, s

) tal que

T(s, s

)P(s

) = P(s). (7.5)
Esse problema e o inverso do que se apresenta usualmente em processos mar-
kovianos. Em geral a matriz T e dada e desejamos determinar P. Aqui P e
dado e desejamos obter T. Em geral podemos ter mais de uma solu cao para esse
ultimo problema o que e muito conveniente do ponto de vista computacional.
A maneira utilizada para construir a matriz estocastica e fazer uso da condi cao
de balanceamento detalhado, isto e, construmos T(s, s

) tal que
T(s, s

)P(s

) = T(s

, s)P(s). (7.6)
A equa cao (7.5) ca automaticamente satisfeita desde que

T(s

, s) = 1. (7.7)
7.2 ALGORITMO DE METROPOLIS
Um dos algoritmos mais utilizados para construir a matriz estocastica e o de-
nominado algoritmo de Metropolis. Para cada estado s denimos um conjunto
V (s) de estados vizinhos a s e adotamos T(s

, s) = 0 para o caso em que s

nao
perten ca a essa vizinhan ca. Isto signica que a transi cao de s para estados fora
de sua vizinhan ca e proibida.

E importante escolher as vizinhan cas dos diversos
estados de modo que se um dado estado s

nao pertence `a vizinhan ca de um


outro estado s ent ao s nao pertence `a vizinhan ca de s

. Por simplicidade todas


as vizinhan cas s ao escolhidas com o mesmo n umero de estados que denotamos
por N.
Para um estado s

que perten ca `a vizinhan ca de s, a matriz estocastica e


denida por
T(s

, s) =
1
N
exp[H(s

) H(s)], se H(s

) > H(s), (7.8)


e
T(s

, s) =
1
N
, se H(s

) H(s), (7.9)

133 Metodo de Monte Carlo


desde que s

seja distinto de s. O elemento diagonal e dado por


T(s, s) = 1

(=s)
T(s

, s). (7.10)
Para mostrar que a condi cao de balanceamento detalhado (7.6) est a satis-
feita, considere dois estados s
1
e s
2
tais que H(s
1
) > H(s
2
). Nesse caso, de
acordo com as equa coes (7.8) e (7.9), temos:
T(s
1
, s
2
) =
1
N
exp[H(s
1
) H(s
2
)] e T(s
2
, s
1
) =
1
N
. (7.11)
Por outro lado,
P(s
1
) =
1
Z
expH(s
1
) e P(s
2
) =
1
Z
expH(s
2
). (7.12)
Substituindo esses resultados em (7.6), vemos que a condi cao de balanceamento
(7.6) est a satisfeita.

E importante notar que na constru cao de T(s

, s) nao
necessitamos de Z, mas t ao-somente da diferen ca entre H(s

) e H(s).
Se as vizinhan cas forem escolhidas de forma que qualquer estado puder ser
alcan cado a partir de qualquer outro, garantimos que a matriz estocastica sera
regular e, portanto, para sucientemente grande, o estado s

sera escolhido
com a probabilidade de equilbrio P(s

).
Computacionalmente, come camos por um estado qualquer s
0
. A partir dele,
ge- ramos uma seq uencia de estados s
1
, s
2
, s
3
... da seguinte forma. Supo-
nha que no -esimo instante o estado seja s

. No instante seguinte escolhemos


aleatoriamente um estado qualquer da vizinhan ca de s

. Suponha que o estado


escolhido seja s

. Calculamos ent ao a diferen ca H = H(s

) H(s

).
a) Se H 0, ent ao o novo estado sera de fato s

, isto e, s
+1
= s

.
b) Se H > 0, calculamos p = expH e geramos um n umero aleat orio
igualmente distribudo no intervalo [0, 1]. Se p ent ao s
+1
= s

, caso
contrario s
+1
= s

, isto e, o estado nao se altera.


Apos descartar os primeiros D estados, podemos usar os M estados seguintes
para estimar a media f) de qualquer fun cao de estado por
1
M
M

=1
f(s
+D
). (7.13)
7.3 OSCILADOR HARM

ONICO
Como exemplo de aplica cao do metodo de Monte Carlo, vamos considerar aqui
um oscilador quantico unidimensional cuja probabilidade de equilbrio e dada
134

Dinamica Estocastica e Irreversibilidade
por
P(n) =
1
Z
expE(n), E(n) = n, n = 0, 1, 2, ..., (7.14)
onde e uma constante. A vizinhan ca do estado n sera composta pelos estados
n + 1 e n 1, com exce cao do estado n = 0 que sera tratado mais adiante.
O algoritmo de Metropolis e construdo como segue. Suponha que num certo
instante o estado seja n. No instante seguinte:
a) escolhemos um dos estados n+1 ou n1 com igual probabilidade, nesse
caso, 1/2.
b) Se o estado for n + 1, ent ao H = (n + 1) n = > 0. Esse estado
sera o novo estado com probabilidade exp.
c) Se o estado for n 1, ent ao H = (n 1) n = < 0. E o novo
estado sera n 1.
Assim,
T(n + 1, n) =
1
2
q (7.15)
e
T(n 1, n) =
1
2
, (7.16)
onde q = exp. O elemento diagonal e dado por
T(n, n) = 1 T(n + 1, n) T(n 1, n) =
1
2
p, (7.17)
onde p = 1 q. Essas equa coes s ao v alidas para n = 1, 2, 3, ...
Quando n = 0, a vizinhan ca sera o estado n = 1. Para que a condi cao de
balanceamento detalhada seja satisfeita, devemos ter
T(1, 0)P(0) = T(0, 1)P(1), (7.18)
de onde obtemos
T(1, 0) =
1
2
q. (7.19)
Portanto, quando n = 0, o novo estado sera n = 1 com probabilidade q/2. O
estado sera o mesmo com probabilidade 1 q/2, isto e,
T(0, 0) = 1
1
2
q. (7.20)
As equa coes (7.15), (7.16), (7.17), (7.19) e (7.20) denem a matriz estocastica
T(m, n) que possui como probabilidade de equilbrio P(n) = expn/Z.

135 Metodo de Monte Carlo


7.4 MODELO DE ISING

E bem conhecido que certos materiais magneticos como o ferro possuem uma
magnetiza cao permanente que desaparece quando o material e aquecido a tem-
peraturas maiores do que a temperatura de Curie. Dizemos que, em tempe-
raturas baixas, o sistema est a numa fase termodin amica ordenada e, em altas
temperaturas, numa fase desordenada. A descri cao mais simples de tal fenomeno
e dada pelo modelo de Ising.
Considere um reticulado e suponha que em cada ponto do reticulado exista
um atomo magnetico. O estado de um atomo magnetico e caracterizado pela
dire cao do momento dipolo magnetico. No modelo de Ising o momento de dipolo
magnetico se encontra na dire cao do eixo z ou em dire cao contraria a z. Assim,
o momento de dipolo
i
do i-esimo atomo e dado por

i
=
i
, (7.21)
onde e uma constante e a variavel
i
toma os valores +1 caso o momento
de dipolo aponte na dire cao z e 1 em caso contrario. O estado total, ou
congura cao, do sistema ca completamente especicado pelas variaveis
1
,
2
,

3
, ... ,
N
, onde N e o n umero total de atomos magneticos. Como cada variavel
toma dois valores, o n umero total de congura coes e igual a 2
N
.
Considere agora dois atomos vizinhos i e j. Eles podem estar em quatro
estados: em dois deles os dipolos s ao paralelos entre si e nos outros dois eles s ao
antiparalelos. Para favorecer o ordenamento ferromagnetico, vamos considerar
que a situa cao de menor energia seja aquela em que os dipolos sejam paralelos.
Assim, a energia desses dois atomos e dada por J
i

j
onde J > 0 e uma
constante que representa a intera cao entre os dipolos magneticos. A energia
total E() correspondente `a congura cao = (
1
,
2
,
3
, ...,
N
) sera pois
E() = J

(ij)

j
, (7.22)
onde a soma se extende sobre os pares de atomos vizinhos. Se o sistema estiver
sujeito a um campo externo na dire cao z, ent ao a energia ter a um termo adicional
devido `a intera cao dos dipolos com o campo, isto e,
E() = J

(ij)

j
H

i
, (7.23)
onde H e uma constante proporcional ao campo.
Em equilbrio termodin anico a uma temperatura T, a probabilidade P()
136

Dinamica Estocastica e Irreversibilidade
de encontrar o sistema na congura cao e dada por
P() =
1
Z
expE(), (7.24)
onde = 1/(k
B
T), sendo k
B
a constante de Boltzmann, e Z e a fun cao de
parti cao dada por
Z =

expE(), (7.25)
onde a soma se extende sobre todas a 2
N
congura coes.
Entre as propriedades termodin amicas que desejamos calcular est ao:
a) a magnetiza cao media
/= M()), (7.26)
onde
M() =

i
, (7.27)
b) a susceptibilidade
X =
1
k
B
T
[M()]
2
) /
2
, (7.28)
c) a energia media
U = E()), (7.29)
d) a capacidade termica
C =
1
k
B
T
2
[E()]
2
) U
2
. (7.30)
Em seguida, vamos descrever o metodo de Monte Carlo, que usa o algoritmo
de Metropolis, para obter congura coes com a probabilidade dada por (7.24).
Come camos por gerar uma congura cao inicial de forma aleat oria. A partir
dela outras congura coes s ao geradas. Suponha que num certo instante a con-
gura cao seja = (
1
,
2
,
3
, ...,
N
). A proxima congura cao sera escolhida
como segue.
Um atomo e escolhido ao acaso, digamos, o i-esimo atomo. Considere ent ao
a congura cao
i
= (
1
,
2
,
3
, ... ,
i
, ...,
N
) em que o momento de dipolo
do atomo escolhido foi invertido. Calculamos em seguida a diferen ca de energia
E = E(
i
) E(), que e dada por
E = 2J
i

i+
+H, (7.31)
onde a soma se estende sobre os atomos vizinhos ao atomo i.

137 Metodo de Monte Carlo


a) Se E 0, ent ao a nova congura cao sera
i
.
b) Se E > 0, ent ao calculamos p = expE e geramos um n umero
aleat orio igualmente distribudo no intervalo [0, 1].
b1) Se p, ent ao a nova congura cao sera
i
.
b2) Se > p, a congura cao continuar a a mesma, isto e, sera .
Usando esse procedimento, iremos gerar uma seq uencia de conguracoes.
Para cada congura cao calculamos as fun coes de estado desejadas, como por
exemplo, M(), [M()]
2
, E(), e [E()]
2
. As estimativas das medias s ao obtidas
a partir das medias aritmeticas dessas grandezas, depois de descartarmos as
congura coes iniciais, como mostra a formula (7.13).
7.5 SISTEMA CL

ASSICO DE MOL

ECULAS
Uma subst ancia simples, como o oxigenio, nitrogenio ou argonio, apresenta tres
fases termodin amicas, s olido, lquido ou vapor (ou g as), de acordo com a pressao
e temperatura em que ela se encontra. Esses tres estados da materia podem ser
previstos teoricamente admitindo-se que as moleculas tenham uma intera cao
atrativa quando a distancia entre elas e grande, e repulsiva a curtas distancias.
Para o caso dos gases nobres, a energia de intera cao entre duas moleculas sepa-
radas por uma distancia r e bem representada pelo potencial de Lennard-Jones
(r) = (
a
r
)
12
(
a
r
)
6
, (7.32)
onde e a s ao dois par ametros positivos.
Podemos imaginar tambem potenciais de intera cao menos realistas como o
potencial de intera cao entre esferas rgidas de diametro a dado por
(r) =
_
, r < a,
0, a r,
(7.33)
ou ainda o potencial entre esferas rgidas atrativas dado por
(r) =
_

_
, r < a,
, a r < b,
0, b r.
(7.34)
Um sistema de esferas rgidas, entretanto, apresenta somente duas fases termo-
din amicas, uma fase s olida e uma fase uida. Ja um sistema de esferas atrativas
pode apresentar as tres fases.
138

Dinamica Estocastica e Irreversibilidade
A energia potencial total E de um conjunto de N moleculas connadas num
recipiente de volume V e dada por
E =
1
2

j(=i)
(r
ij
), (7.35)
onde r
ij
= [r
i
r
j
[ sendo r
i
a posi cao da i-esima molecula. A soma se estende
sobre todos os pares de moleculas. A altas temperaturas as propriedades ter-
modin amicas s ao obtidas a partir da mec anica estatstica classica. De acordo
com essa teoria, a densidade de probabilidade (r
1
, r
2
, r
3
, , ..., r
N
) de encontrar
a primeira molecula na posi cao r
1
, a segunda na posi cao r
2
etc., independente
de suas velocidades, e dada por
(x) =
1
Q
expE(x), (7.36)
onde Qe a integral de congura cao que torna normalizado e x denota a cole cao
de todas as posi coes das particulas, isto e, x = (r
1
, r
2
, r
3
, ..., r
N
).
A partir dessa densidade de probabilidade, pode-se obter qualquer proprie-
dade que possa ser escrita como uma media conguracional, isto e, como media
de fun coes de x. Exemplos de tais fun coes s ao a propria energia potencial E(x)
e o virial W(x) denido por
W =
1
2

j(=i)
r
ij
F(r
ij
), (7.37)
onde F(r) = d(r)/dr. Assim, podemos calcular a media da energia potencial,
dada por
U
p
= E(x)), (7.38)
a variancia da energia potencial, dada por
= [E(x)]
2
) U
2
p
(7.39)
e a media do virial, dada por
= W(x)). (7.40)
Essas grandezas est ao relacionadas com a energia interna U, a capacidade
termica a volume constante C
V
e a pressao p atraves das formulas
U =
d
2
Nk
B
T +U
p
, (7.41)
C
V
=
d
2
Nk
B
+

k
B
T
2
(7.42)

139 Metodo de Monte Carlo


e
PV = Nk
B
T +

d
, (7.43)
onde d e a dimensao do espa co onde se movem as moleculas.
Em seguida descrevemos o metodo de Monte Carlo, que usa o algoritmo
de Metropolis, para obter congura coes x = (r
1
, r
2
, r
3
, ..., r
N
) com a probabili-
dade dada por (7.36). Come camos por gerar uma congura cao inicial de forma
aleat oria. Num recipiente c ubico de volume V , escolhemos aleatoriamente N
posi coes onde serao colocadas as N moleculas. A partir dessa congura cao, ou-
tras s ao geradas sucessivamente. Suponha que num certo instante a congura cao
seja x = (r
1
, r
2
, r
3
, ..., r
N

). A proxima congura cao sera escolhida como segue.


Uma molecula e escolhida ao acaso, digamos, a i-esimo molecula. Escolhemos
tambem, de forma aleat oria, um ponto qualquer dentro de uma vizinhan ca de
r
i
. A vizinhan ca pode ser um cubo de um determinado tamanho, centrado em
r
i
. Considere a congura cao x

= (r
1
, r
2
, r
3
, ..., r

i
, ..., r
N
) em que r

i
denota o
ponto escolhido. Calculamos ent ao a diferen ca de energia E = E(x

) E(x),
que e dada por
E =

j
[([r

i
r
j
[) ([r
i
r
j
[)], (7.44)
onde a soma se estende sobre as moleculas, exceto a propria molecula i.
a) Se E 0, ent ao a nova congura cao sera x

. Em outras palavras, a
molecula escolhida e deslocada para a nova posi cao r

i
.
b) Se E > 0, ent ao calculamos p = expE e geramos um n umero
aleat orio igualmente distribudo no intervalo [0, 1].
b1) Se p, ent ao a nova congura cao sera x

, ou seja, a molecula escolhida


e colocada na nova posi cao r

i
.
b2) Se > p, a congura cao continuar a a mesma, isto e, sera x e a molecula
escolhida permanece na mesma posi cao.
Usando esse procedimento, iremos gerar uma seq uencia de conguracoes.
Para cada congura cao calculamos as fun coes de estado desejadas, como por
exemplo, E(x), [E(x)]
2
, e W(x). As estimativas das medias s ao obtidas a par-
tir das medias aritmeticas dessas grandezas, depois de descartarmos as con-
gura coes iniciais.
No caso dos potenciais de esferas duras (7.33) e (7.34), se a posi cao escolhida
para o deslocamento de uma molecula estiver dentro da esfera de uma outra
molecula, ela nao se deslocar a.
140

Dinamica Estocastica e Irreversibilidade
7.6 FUNC

AO DE CORRELAC

AO
A simula cao numerica de sistemas interagentes, como o modelo de Ising ou um
sistema classico de moleculas, permite o calculo de grandezas macrosc opicas ou
termo- din amicas, mas tambem permite o calculo de grandezas microsc opicas.
Uma delas e a fun cao de correla cao que mede a correla cao entre as partculas.
Essa grandeza e fundamental para o conhecimento do estado de agrega cao ou
do ordenamento das partculas.
Para um sistema de Ising, denimos a fun cao de correla cao G(r) por
G(r) =
1
N

r

r

+r
). (7.45)
Dada uma congura cao de spins, gerada pela simula cao, essa fun cao e obtida da
seguinte forma. Para cada par de spins separados por um vetor r, somamos +1
se os dois spins do par forem de mesmo sinal e 1 se forem de sinais contrarios.
O resultado da soma deve ser multiplicado por 2 e dividido por N. Para grandes
separa coes, a correla cao
r

r

+r
) se aproxima de
r
)
r

+r
) = (//N)
2
de
modo que G() = (//N)
2
.

E facil mostrar que a susceptibilidade por stio = X/N se relaciona com a


fun cao de correla cao G(r) por
=
1
k
B
T

r
G(r) G(). (7.46)
Para sistemas moleculares a fun cao de correla cao radial G(r) e denida por
G(r) =
1
N

j(=i)
(r
ij
r)). (7.47)
Dada uma congura cao de moleculas, ela e determinada da seguinte forma.
Fixamos um intervalo r. Para uma certa molecula i, determinamos o n umero
n
i
de outras moleculas que est ao a uma distancia entre r r/2 e r + r/2
dela. Fazemos o mesmo para todas as moleculas. A fun cao distribui cao radial
sera dada por (

i
n
i
)/(Nr). Alternativamente, podemos contar quantos
pares de moleculas possuem distancia entre as moleculas do par entre r r/2
e r + r/2. A fun cao distribui cao sera igual a esse n umero multiplicado por 2
e dividido por N.
A partir da fun cao de correla cao, pode-se obter as grandezas U
p
e dadas
por
U
p
=
N
2
_
(r)G(r)dr (7.48)

141 Metodo de Monte Carlo


e
=
N
2
_
rF(r)G(r)dr. (7.49)
BIBLIOGRAFIA
Allen, M. P. & Tildesley, D. J. 1987. Computer Simulation of Liquids.
Clarendon Press.
Binder, K. (ed.), 1986. Monte Carlo Method in Statistical Physics. 2. ed.
Springer-Verlag, Berlin.
Binder, K. & Heermann, D. H. 1992. Monte Carlo Simulation in Statistical
Physics. 2. ed. Springer-Verlag, Berlin.
Hammersley, J. M. & Handscomb, D. C. 1964. Monte Carlo Methods.
Chapman and Hall, London.
Heermann, D. W. 1990. Computer Simulation Methods in Theoretical Physics.
2. ed. Springer-Verlag, Berlin.
Metropolis, N.; Rosenbluth, A. W.; Rosenbluth, M. N.; Teller, A. H.
& Teller, E. 1953. Equation of state calculations by fast computing
machines. J. Chem. Phys., 21, 1087.
Mouritsen, O. G. 1984. Computer Studies of Phase Transitions and Critical
Phenomena. Springer-Verlag, Berlin.
Oliveira, M. J. de 1996. Numerical stochastic methods in statistical mecha-
nics. Int. J. Mod. Phys., 10, 1313.
Tom e, T. 1996. Irreversibilidade: Modelos de Rede com Din amicas Estoc asticas.
Tese de Livre-Docencia, Instituto de Fsica, Universidade de Sao Paulo.
Wood, W. W. & Jacobson, J. D. 1957. Preliminary results from a recal-
culation of the Monte Carlo equation of state of hard spheres. J. Chem.
Phys., 27, 1207.
EXERC

ICIOS
1. Simule o oscilador harmonico de acordo com as probabilidades de transi cao
apresentadas na se cao 7.3. Determine numericamente P(n) e compare com
a expressao exata.
142

Dinamica Estocastica e Irreversibilidade
2. Construa uma cadeia de Markov cuja probabilidade estacion aria P() seja
proporcional a (2 + 1) expa( + 1). A partir das probabilidades
de transi cao, fa ca a simula cao numerica para determinar numericamente
P().
3. Use o algoritmo de Metropolis para simular o modelo de Ising unidimen-
sional cuja energia e dada por
E() = J
N

=1

+1
,
com condi coes peri odicas de contorno. Determine a energia media, a ca-
pacidade termica e a susceptibilidade. Fa ca um gr aco dessas grandezas
como fun cao da temperatura e compare com as expressoes exatas. Use
como condi cao inicial uma congura cao aleat oria de spins.
4. Use o algoritmo de Metropolis para simular o modelo de Ising denido
numa rede quadrada com LL = N stios e com condi coes peri odicas de
contorno. Calcule as grandezas
m =
1
N
[M()[) e

=
1
N
[M()]
2
) [M()[)
2

e fa ca um gr aco delas como fun cao da temperatura para L = 4, 8, 16 e


32.
5. Considere um g as de N esferas rgidas de diametro a connadas num reci-
piente c ubico de volume V . Use o metodo de Monte Carlo para determinar
a fun cao de correla cao radial G(r). A partir dela, determine a pressao p
que no caso de esferas duras est a relacionada com a fun cao de correla cao
por
pV
Nk
B
T
= 1 +
a
2d
G(a),
onde d = 3. Notar que G(a) e a altura do primeiro pico da fun cao de
correla cao radial em r = a.
6. O mesmo problema anterior mas para o caso de N discos rgidos de
diametro a connados numa superfcie quadrada de area A (d = 2).
7. O mesmo problema anterior mas para um sistema unidimensional (d =
1) de N bast oes rgidos de comprimento a connados num segmento de
comprimento L.

143 Metodo de Monte Carlo


8. Simule um g as de esferas duras atrativas. Calcule a fun cao distribui cao
radial e a pressao.
9. Simule um g as de partculas interagindo com o potencial de Lennard-
Jones. Calcule a energia media e a capacidade termica.
8
Transic

oes de Fase e Criticalidade


8.1 INTRODUC

AO
A agua, quando aquecida a pressao constante, entra em ebuli cao a uma tempe-
ratura bem denida, transformando-se em vapor. Para cada valor da pressao a
que est a submetida a agua, corresponde uma temperatura de transi cao. Num di-
agrama temperatura-pressao, a transi cao lquido-vapor e representada por uma
linha que possui uma inclina cao positiva, pois a temperatura de transi cao cresce
com o aumento da pressao. Sobre a linha de transi cao o lquido e o vapor co-
existem em quaisquer propor coes. Entretanto, o lquido e o vapor apresentam
densidades bem denidas que dependem apenas da temperatura de transi cao.
`
A medida que aumentamos a temperatura ao longo da linha de coexistencia, as
diferen cas entre as densidades do lquido e do vapor se tornam cada vez menores
e acabam se anulando num ponto crtico caracterizado por uma temperatura e
uma pressao bem denidas. Nesse ponto, o lquido e o vapor tornam-se indis-
tintos e a linha de coexistecnia tem seu termino. A temperaturas mais altas,
nao ha mais distin cao entre a fase lquida e a fase gasosa.
Outros tipos de transi cao de fase ocorrem em fsica da materia condensada.
Uma subst ancia ferromagnetica, quando aquecida, perde sua imanta cao a uma
temperatura bem denida, denominada temperatura de Curie, tornando-se pa-
146

Dinamica Estocastica e Irreversibilidade
ramagnetica. Nessa fase paramagnetica a subst ancia s o adquire magnetiza cao se
aplicarmos um campo magnetico. Quando o campo e retirado, a magnetiza cao
se anula. Na fase ferromagnetica, ao contrario, uma magnetiza cao permanece
mesmo depois de se retirar o campo magnetico.
A liga metalica zinco-cobre sofre uma transi cao ordem-desordem com a va-
ria cao da temperatura. Imagine que a estrutura cristalina da liga metalica
seja composta por duas redes entrela cadas que denominaremos de subrede A e
subrede B. A temperaturas baixas, os atomos de cobre se localizam preferenci-
almente em umas das subredes, enquanto os atomos de zinco se localizam pre-
ferencialmente na outra subrede. A temperaturas altas, entretanto, um atomo
de zinco, ou de cobre, pode ser encontrado em qualquer subrede com igual pro-
babilidade. Aumentando-se a temperatura, a liga passa de uma fase ordenada
para uma fase desordenada ao se atingir a temperatura crtica. Abaixo da tem-
peratura crtica, podem ocorrer dois estados ordenados. Em um deles os atomos
de zinco se localizam com maior probabilidade na subrede A (e o cobre em B),
e no outro, em B (e o cobre em A). A simetria e maior na fase desordenada e
menor na fase ordenada de modo que, na temperatura crtica, ha uma quebra
espont anea de simetria.
Para a descri cao das transi coes de fase, e importante introduzir-se a no cao
de par ametro de ordem cuja propriedade mais importante e assumir o valor nulo
na fase desordenada ou na de maior simetria e o valor nao nulo na fase ordenada
ou na de menor simetria. No caso da transi cao lquido-vapor, podemos deni-
lo como a diferen ca entre a densidade do lquido e do vapor em coexistencia.
Em sistemas que apresentam ferromagnetismo, o par ametro de ordem e sim-
plesmente a magnetiza cao do sistema, denominada espont anea ou remanente.
Na liga metalica discutida acima, podemos deni-la como a diferen ca da densi-
dade do zinco nas duas subredes. Em todos os tres sistemas discutidos acima, o
par ametro de ordem se anula para temperaturas acima da temperatura crtica.
8.2 QUEBRA ESPONT

ANEA DE SIMETRIA

E importante entender de que maneira, do ponto de vista matematico, ocorre


uma transi cao de fase e como surge uma quebra espont anea de simetria em
um sistema descrito por um processo estocastico. Uma quebra espont anea de
simetria e a conseq uente transi cao de fase, como a de ordem-desordem descrita
na se cao anterior, ocorrem quando, ao variarmos um par ametro externo (e. g.,
a temperatura), o sistema passa de uma fase desordenada para uma fase orde-
nada, caracterizada por dois estados ordenados. O surgimento de dois estados

147 Transi coes de Fase e Criticalidade


ordenados assinala a ocorrencia da quebra espont anea de simetria e est a relaci-
onado com a existencia de mais de um estado estacion ario. Devemos examinar
ent ao quais s ao as condi coes para que um processo estocastico possa ter mais
de um estado estacion ario.
Se um processo estocastico, regido por uma equa cao mestra, encerrar um
n umero nito de estados e se qualquer estado puder ser alcan cado a partir
de qualquer outro, nao haver a quebra espont anea de simetria. Basta aplicar o
teorema de Perron-Frobenius `a matriz de evolu cao correspondente para concluir
que ha um unico estado estacion ario. Assim, enquanto o n umero de estados
for nito, ha apenas um estado estacion ario e, portanto, nao e possvel haver
transi cao de fases. Para a ocorrencia de uma transi cao de fase, ou melhor, para
haver mais de um estado estacion ario, e necessario, embora nao suciente, que
o n umero de estados seja innito.
Para ilustrar essa ideia, vamos examinar um modelo simples que descreve
qualitativamente a liga metalica mencionda na se cao anterior. Considere uma
rede cristalina composta por duas subredes A e B e suponha que a liga seja
constituda por N atomos de zinco e um n umero igual de atomos de cobre.
A intervalos regulares de tempo, um atomo de zinco e escolhido ao acaso e e
trocado com um atomo de cobre que esteja num stio de outra subrede. Se no
instante inicial todos os atomos de zinco estiverem em uma subrede, depois de
algum tempo, as duas subredes acabarao tendo o mesmo n umero de atomos de
zinco, em media, o que caracteriza o estado desordenado. Portanto, no regime
estacion ario, a liga metalica se encontrar a no estado desordenado.
O modelo assim denido e semelhante ao modelo das urnas de Ehrenfest
visto no captulo 5. Vimos l a que a probabilidade estacion aria se identica com
a distribui cao binomial. No presente caso, portanto, a probabilidade de que a
subrede A tenha n atomos de zinco e dada por
P
n
=
1
2
N
(
N
n
). (8.1)
Essa distribui cao possui um maximo quando a subrede A tiver a metade dos
atomos de zinco. Quando N for grande, a distribui cao se aproxima de uma
gaussiana. A presen ca de um unico pico na distribui cao de probabilidades indica
que o sistema apresenta uma unica fase termodin amica, nesse caso uma fase
desordenada.
Vamos agora modicar esse modelo para que a distribui cao estacion aria
possa vir a ter dois maximos no lugar de um unico. A intervalos regulares
de tempo, escolhemos um atomo de zinco ao acaso e em seguida vericamos
em que subrede ele se encontra. Se estiver na subrede que possui um n umero
148

Dinamica Estocastica e Irreversibilidade
menor de atomos de zinco, ele e trocado com um atomo de cobre que esteja
em outra subrede. Se entretanto, pertencer `a subrede com um n umero maior
de atomos de zinco, essa troca e realizada com uma probabilidade p. Se p for
pequeno, esperamos que haja um ac umulo de atomos de zinco na subrede que
inicialmente tenha mais atomos de zinco.
Seja n o n umero de atomos de zinco na subrede A. De acordo com as regras
acima, a taxa de transi cao W
n

,n
de n n

e dada por
W
n1,n
=
n
N
, n
N
2
, (8.2)
W
n1,n
=
n
N
p, n >
N
2
, (8.3)
e
W
n+1,n
=
N n
N
p, n <
N
2
, (8.4)
W
n+1,n
=
N n
N
, n
N
2
, (8.5)
onde 0 p 1. A taxa de transi cao vale zero em outros casos. Notar que
a taxa de transi cao possui a propriedade simetrica W
Nn

,Nn
= W
n

,n
, isto
e, ela e invariante pela mudan ca n

N n

e n N n

. O processo e
governado pela equa cao mestra
d
dt
P
n
= W
n,n+1
P
n+1
+W
n,n1
P
n1
W
n+1,n
P
n
W
n1,n
P
n
. (8.6)
Pode-se vericar que a probabilidade estacion aria e
P
n
=
1
Z
(
N
n
) expC[n
N
2
[, (8.7)
onde Z e uma constante de normaliza cao e a constante C est a relacionada com
p atraves de
p = e
C
. (8.8)
Notar que a distribui cao de probabilidade possui a simetria P
Nn
= P
n
, isto e,
ela e invariante pela transforma cao n N n.
Se p = 1, a distribui cao estacion aria possui um unico maximo que ocorre em
n = N/2, pois nesse caso recamos no modelo de Ehrenfest examinado acima.
Se p < 1, entretanto, a distribui cao de probabilidade estacion aria possui dois
maximos o que pode ser vericado mais facilmente se examinarmos o caso em
que N e n s ao muito grandes. Para isso e conveniente considerar a distribui cao
de probabilidades (x) da variavel x = n/N que da a concentra cao de atomos

149 Transi coes de Fase e Criticalidade


de zinco na subrede A. Usando a formula de Stirling e tendo em vista que
(x) = NP
n
, obtemos:
(x) =
1
Z

2N
x(1 x)
expNf(x), (8.9)
onde
f(x) = xln x + (1 x) ln(1 x) C[x
1
2
[. (8.10)
Essa fun cao possui mnimos em x = x
+
e x = x

onde
x
+
=
1
1 +p
, e x

=
p
1 +p
, (8.11)
o que signica que (x) possui maximos nesses mesmos pontos.
Alguns pontos devem ser destacados. Primeiro, a distancia entre os maximos,
dada por
x
+
x

=
1 p
1 +p
, (8.12)
se anula, quando p 1. Quando p = 1, vimos que a distribui cao de probabili-
dade possui um unico maximo em n = N/2 ou x = 1/2. Portanto, temos dois
regimes: um caracterizado por dois maximos, enquanto p < 1, e outro por um
unico quando p = 1. Ao redor de x = x
+
e de x = x

, a distribui cao de pro-


babilidades (x) possui a forma de uma gaussiana cuja largura e proporcional
a
_
p/N.
Segundo, no limite em que N (n umero innito de estados) e para p < 1,
a altura dos maximos cresce sem limites enquanto que o valor da distribui cao de
probabi- lidades em x = 1/2 se anula. Portanto, nesse limite a distribui cao de
probabilidades da v ariavel x e caracterizada por dois deltas de Dirac localizados
simetricamente em x = x
+
e x = x

. Isso signica que, no limite N , o


sistema exibe dois estados estacion arios. Dependendo da condi cao inicial, o
sistema pode atingir um ou outro estado.
Para entender de que maneira o sistema podera atingir um dos dois estados
estacion arios e portanto apresentar a quebra espont anea de simetria, vamos
examinar um sistema com N muito grande. Suponha que o processo estocastico
seja simulado numericamente a partir de uma condi cao inicial em que a subrede
A esteja repleta de atomos de zinco. Durante um certo intervalo de tempo, que
denotamos por , a concentra cao de atomos de zinco em A utuar a em torno
de x
+
= 1/(1 +p) com um dispersao proporcional a p/N. O intervalo de tempo
sera tanto maior quanto maior for N. Quando N , a dispersao se anula
de modo que a subrede A sempre ter a um n umero maior de atomos de zinco
150

Dinamica Estocastica e Irreversibilidade
do que a subrede B. Nesse caso e temos uma quebra espont anea de
simetria.

E importante notar ainda que a simula cao numerica de um tal modelo, ou de


outros modelos semelhantes, deve apresentar uma distribui cao de probabilidades
simetrica ja que as simula coes s ao realizadas com N nito. Entretanto, pelo
fato de o tempo de observa cao em simula coes numericas nao ser innito existe
a possibilidade de que a distribui cao de probabilidade nao seja simetrica se N
for sucientemente grande. Em outras palavras, o fato de N ser nito, embora
grande, ca compensado por um tempo nito de observa cao o que acarreta uma
distribui cao assimetrica para x.
O par ametro de ordem m desse modelo e denido como diferen ca entre as
concentra coes x
+
e x

dos dois estados ordenados, ou seja,


m =
1 p
1 +p
. (8.13)
Assim, na fase ordenada, m ,= 0, enquanto que na fase desordenada, m = 0.
8.3 MODELO CIN

ETICO DE BRAGG-WILLIAMS
No modelo introduzido na se cao anterior, a probabilidade de transferencia de
um atomo de zinco para a outra subrede nao leva em conta o n umero de atomos
de zinco presentes em cada subrede. No presente modelo, se o atomo de zinco
escolhido estiver na subrede que possui um n umero menor de atomos de zinco,
ele e transferido para a outra subrede. Se entretanto, ele estiver na subrede com
um n umero maior de atomos de zinco, ele e transferido `a outra subrede com
uma probabilidade que e tanto maior quanto menor for o n umero de atomos de
zinco na subrede em que o atomo se encontra.
De acordo com essas considera coes, as taxas de transi cao do modelo s ao
dadas por
W
n1,n
=
n
N
, n
N
2
, (8.14)
W
n1,n
=
n
N
p
n
, n >
N
2
, (8.15)
e
W
n+1,n
=
N n
N
p
Nn
, n <
N
2
, (8.16)
W
n+1,n
=
N n
N
, n
N
2
, (8.17)
onde n e o n umero de atomos de zinco na subrede A e p
n
pode ser entendido
como a probabilidade de transferencia de um atomo de zinco da subrede A para
a subrede B. A taxa de transi cao vale zero em outros casos.

151 Transi coes de Fase e Criticalidade


A dependencia de p
n
com n sera escolhida de tal forma que a probabilidade
estacion aria P
n
correspondente ao processo estocastico denido pelas taxas de
transi cao acima seja
P
n
=
1
Z
(
N
n
) exp
K
2N
(n
N
2
)
2
, (8.18)
que e a distribui cao de probabilidade correspondente ao modelo de equilbrio
denominado modelo de Bragg-Williams, onde a constante K e proporcional ao
inverso da temperatura absoluta. Podemos vericar que a escolha deve ser
p
n
= exp
K
2N
(2n N 1). (8.19)
A probabilidade estacion aria (8.18) possui dois maximos enquanto o par ametro
K for maior do que um certo valor crtico K
c
e um unico em caso contrario.
Para determinar o valor crtico K
c
, vamos examinar a distribui cao de probabili-
dades P
n
para o caso em que N e muito grande. Novamente, vamos considerar
a distribui cao de probabilidades (x) da variavel x que da a concentra cao de
atomos de zinco na subrede A. Usando a formula de Stirling, obtemos:
(x) =
1
Z

2N
x(1 x)
expNf(x), (8.20)
onde
f(x) = xln x + (1 x) ln(1 x)
K
2
(x
1
2
)
2
. (8.21)
Os maximos locais de (x) ocorrem nos mnimos locais de f(x).
Para analisar o comportamento da fun cao f(x), determinamos suas deriva-
das, dadas por
f

(x) = ln x ln(1 x) K(x


1
2
), (8.22)
e
f

(x) =
1
x
+
1
1 x
K. (8.23)
Como f

(1/2) = 0 e f

(1/2) = 4 K, ent ao a fun cao f(x) possui um mnimo


em x = 1/2 enquanto K < 4. O mnimo e absoluto, pois f

(x) > 0 para K < 4.


Quando K > 4, a fun cao f(x) passa a ter um maximo local em x = 1/2,
e desenvolve dois mnimos que se localizam de forma simetrica em rela cao a
x = 1/2. Portanto, a distribui cao de probabilidades estacion aria (x) possui
um unico maximo para K K
c
= 4 (b b
c
= e
4
) e dois maximos para
K > K
c
(b < b
c
).
Esses dois mnimos s ao solu coes de f

(x) = 0. Quando K se aproxima do


valor crtico K
c
, esses mnimos se localizam proximo de x = 1/2. Portanto, para
152

Dinamica Estocastica e Irreversibilidade
determinar os mnimos para valores de K proximos do valor crtico, fazemos uma
expansao de f

(x) em torno de x = 1/2 ate termos da ordem de (x1/2)


3
, isto
e,
f

(x) = (4 K)(x
1
2
) +
4
3
(x
1
2
)
3
. (8.24)
Os mnimo ocorrem para
x

=
1
2

_
3
4
(K 4). (8.25)
O par ametro de ordem m e denido da mesma maneira como foi feito na se cao
anterior de modo que m = x
+
x

, ou seja,
m =
_
3(K K
c
), K
c
= 4. (8.26)
Para K K
c
o par ametro de ordem se anula.
Um sistema descrito pelo modelo cinetico de Bragg-Williams apresenta, por-
tanto, uma quebra espont anea de simetria e uma transi cao de fase quando o
par ametro externo K atinge seu valor crtico K
c
. Quando K K
c
ha um unico
estado estacion ario correspondente a uma fase desordenada. Quando K > K
c
ha dois estados estacion arios correspondentes a fases ordenadas.
8.4 TEORIA CIN

ETICA DE LANDAU
Vamos estudar um sistema que sofre uma quebra espont anea de simetria e
uma conseq uente transi cao de fase associada a um par ametro de ordem m.
A transi cao e induzida por um par ametro externo p tal que, acima de um valor
crtico p
c
, o estado estacion ario e desordenado (m = 0) e que, abaixo desse
valor, o estado estacion ario e ordenado (m ,= 0).
Suponha que esse sistema seja descrito por uma distribui cao de probabilida-
des cuja evolu cao temporal seja governada por uma equa cao mestra. Suponha,
ainda, que o sistema seja denido num reticulado e que a cada ponto r es-
teja associado uma variavel estocastica
r
cuja media
r
) se identique com o
par ametro de ordem m. Podemos imaginar um cristal magnetico tal que o mo-
mento magnetico de cada stio do cristal seja proporcional `a variavel
r
. Dessa
forma o par ametro de ordem m pode ser identicado como uma grandeza pro-
porcional `a magnetiza cao do sistema magnetico. Tendo em vista que a equa cao
mestra e uma equa cao diferencial de primeira ordem no tempo, segue-se que a
evolu cao temporal de m e da foma dm/dt = f onde f e uma fun cao nao s o de
m =
r
) mas tambem de outros momentos, tais como
r
),
r

r
),
r

r

r
)
etc.

153 Transi coes de Fase e Criticalidade


Na teoria de Landau, a simetria possui um papel fundamental de modo
que ima- ginamos que o sistema seja invariante por determinadas opera coes de
simetria. Como o sistema e descrito por uma equa cao mestra, isso implica que
as taxas de transi cao devem ser invariantes pelas mesmas opera coes de simetria.
Essa invariancia nos leva a admitir que a fun cao f deve se transformar, sob uma
opera cao de simetria, da mesma maneira que m. Aqui vamos examinar apenas o
caso em que o sistema seja invariante pela ope- ra cao de inversao
r

r
, que
signica trocar o sinal de todas as variaveis estocasticas. Sob essa opera cao de
simetria, o par ametro de ordem m se modica de acordo com a transforma cao
m m. A fun cao f se modica da mesma maneira, isto e, de acordo com a
transforma cao f f.
Vamos admitir, de forma aproximada, que f seja fun cao somente de m de
modo que
d
dt
m = f(m). (8.27)
Aplicando a opera cao de inversao em ambos os lados dessa equa cao, temos
d
dt
(m) = f(m). (8.28)
Comparando as equa cao (8.27) e (8.28), vemos que
f(m) = f(m). (8.29)
Supondo, em analogia com a teoria original de Landau, que f(m) possa ser
desenvolvida em serie de potencias de m, ent ao a expansao s o deve ter potencias
impares, ou seja,
f(m) = c
1
m+c
3
m
3
+c
5
m
5
+.... (8.30)
A solu cao da equa cao (8.27) pode ser feita explicitamente para o caso em que
f(m) pode ser aproximada pelos primeiros termos da expansao. Dessa forma
consideramos a seguinte equa cao de evolu cao para o par ametro de ordem:
d
dt
m = ambm
3
, (8.31)
onde a e b s ao dois par ametros dependentes de p, sendo que b e estritamente
positivo para que m seja limitado e a podendo ser positivo, negativo ou nulo.
Multiplicando ambos os lados de (8.31) por m chegamos `a equa cao
1
2
d
dt
m
2
= am
2
bm
4
, (8.32)
que pode ser entendida como uma equa cao diferencial em m
2
. A solu cao de
(8.32), para o caso em que a ,= 0, e
m
2
=
a
ce
2at
b
, (8.33)
154

Dinamica Estocastica e Irreversibilidade
onde c e uma constante que deve ser determinada a partir da condi cao inicial.
Quando t obtemos solu coes distintas dependendo do sinal do par ametro
a. Se a > 0 ent ao m 0, que corresponde ao estado desordenado. Se a < 0
ent ao m m

onde m

=
_
[a[/b, que corresponde ao estado ordenado. De
posse desses resultados, podemos admitir que a depende de p de acordo com
a = A(p p
c
), para valores de p proximo de p
c
, onde A > 0. Dessa forma,
quando p estiver acima de seu valor crtico, o estado estacion ario sera desorde-
nado, m = 0; e abaixo desse valor, ordenado, m ,= 0. O par ametro de ordem se
comporta portanto como
m

(p
c
p)
1/2
. (8.34)
Quando p > p
c
(a > 0) vemos, a partir da solu cao (8.33), que, para tempos
longos, m decai exponencialmente ao seu valor estacion ario. Escrevendo
m = m
0
e
t/
, (8.35)
ent ao o tempo de relaxa cao = 1/a . Logo, se comporta como
(p p
c
)
1
. (8.36)
Da mesma forma quando p < p
c
(a < 0), m decai exponencialmente ao seu valor
estacion ario m

, para tempos longos.


Quando p = p
c
(a = 0) o decaimento deixa de ser exponencial e passa a ser
algebrico. A partir da equa cao
dm
dt
= bm
3
, (8.37)
v alida para a = 0, vemos que a solu cao e m = 1/

2bt +c. O comportamento


assint otico de m para tempos longos e pois algebrico e e dado por
m t
1/2
. (8.38)
O par ametro de ordem decai exponencialmente fora do ponto crtico com um
determinado tempo caracterstico, o tempo de relaxao , cujo comportamento
e dado por (8.36). Aproximando-se do ponto crtico, o tempo de relaxa cao
cresce sem limites acabando por divergir nesse ponto. Sobre o ponto crtico
o comportamento do par ametro de ordem deixa de ser exponencial e se torna
algebrico como dado pela expressao (8.38).
8.5 TEORIA DE ORNSTEIN-ZERNIKE
Vamos examinar agora a varia cao temporal da correla cao
r

r
) =
r

,r
entre
as variaveis estocasticas associadas aos stios r e r

. Estamos supondo que o sis-


tema possua invariancia translacional de modo que
r

,r
=
r

r
s o dependa da

155 Transi coes de Fase e Criticalidade


diferen ca r r

. Como a equa cao mestra e uma equa cao diferencial de primeira


ordem no tempo, podemos aqui tambem imaginar que a evolu cao temporal de

r
e da foma d
r
dt = g
r
onde g
r
e uma fun cao nao s o de
r
mas tambem de
outros momentos.
Vamos supor, de forma aproximada, que g
r
seja fun cao apenas das cor-
rela coes de pares de maneira que
d
dt

r
= g
r
(
r
). (8.39)
Expandindo g
r
ate termos lineares em
r
, temos:
d
dt

r
=

A
r,r

r
. (8.40)
Em seguida fazemos a hip otese de que g
r
s o dependa das correla coes
r
tais
que r

seja vizinho de r. Logo


d
dt

r
= A
r
+B

r+
, (8.41)
que pode ser escrito na forma
d
dt

r
= C
r
+B

(
r+

r
), (8.42)
onde a soma se estende sobre os stios vizinhos do stio r. Supondo que as
varia coes da densidade sejam pequenas, a ultima parcela do lado direito da
equa cao (8.42) pode ser aproximada pelo laplaciano da densidade de modo que

t
= C +D
2
. (8.43)
Procurando por solu coes com simetria esferica a equa cao acima se torna

t
= C +D

r
2
+
(d 1)
r

r
, (8.44)
onde d e a dimensao espacial do sistema em considera cao.
Vamos considerar daqui em diante somente o regime estacion ario para o qual
C +D

r
2
+
(d 1)
r

r
= 0, (8.45)
e procurar solu coes que decaiam com r. Para isso, e necessario que C 0. Em
uma dimensao a solu cao e
(r) = A
1
e
r/
, (8.46)
156

Dinamica Estocastica e Irreversibilidade
e para d > 1 a solu cao para grandes valores de r e dada por
(r) = A
d
e
r/
r
(d1)/2
, r , (8.47)
onde A
d
e uma constante que s o depende da dimensao e =
_
D/[C[. Vemos
pois que decai exponencialmente com a distancia com um comprimento de
correla cao que diverge quando C se anula. Portanto, C = 0 indica o ponto
crtico de modo que escrevemos C = C
0
(p
c
p), que e analogo ao que zemos na
se cao anterior. Assim o comportamento do comprimento de correla cao para p
proximo de p
c
e dado por
(p p
c
)
1/2
. (8.48)
Ou seja, o comprimento de correla cao diverge quando nos aproximamos do ponto
crtico.
No ponto crtico, p = p
c
, devemos resolver a equa cao (8.45) para o caso em
que C = 0. Nesse caso a solu cao sera
(r) =
A
d
r
d2
, d > 2. (8.49)
Para d 2, nao ha solu cao que decaia com a distancia.

E interessante observar que a transformada de Fourier de denida por


(k) =
_
(r)e
ikr
d
d
r (8.50)
e dada por
(k)
1

2
+k
2
, =
1
. (8.51)
No ponto crtico ela e dada por
(k)
1
k
2
. (8.52)
Num sistema magnetico, a susceptibilidade magnetica mede a resposta da
magnetiza cao a um campo externo. Pode se mostrar que ela e proporcional `a
variancia da magnetiza cao, ou seja, proporcional a (0). Portanto,
2
=
2
de modo que, usando a expressao (8.48), conclumos que o comportamento de
proximo do ponto crtico e dado por
(p p
c
)
1
, (8.53)
e a susceptibilidade diverge no ponto crtico.

157 Transi coes de Fase e Criticalidade


8.6 EXPOENTES CR

ITICOS
Vimos na se cao anterior que proximo do ponto crtico, o par ametro de ordem
m se comporta como
m [[

, (8.54)
onde = p p
c
e = 1/2, e que a susceptibilidade se comporta como

, (8.55)
com = 1. Os expoentes e s ao denominados expoentes crticos e po-
dem ser medidos experimentalmente. Verica-se que os valores dos expoentes
crticos e , obtidos acima a partir da teoria de Landau, nao coincidem com
os valores experimentais. Isso e explicado se entendermos a teoria de Landau
como uma descri cao aproximada dos fenomenos crticos. De fato, a principal
hip otese utilizada na dedu cao dos expoentes, a de que certas fun coes possuem
desenvolvimento em serie de potencia, e em geral incorreta.
Podemos denir ainda outros expoentes crticos. O comprimento de cor-
rela cao espacial se comporta como
[[

, (8.56)
enquanto que o tempo de relaxa cao se comporta como

z
. (8.57)
No ponto crtico, a correla cao de pares decai de acordo com
(r)
1
r
d2+
, r , (8.58)
ou
(k)
1
k
2
, k 0. (8.59)
Ainda no ponto crtico o par ametro de ordem decai de forma algebrica conforme
m t

. (8.60)
A partir dos resultados da se cao anterior, que devem ser tambem entendidos
como apro- xima coes, temos = 1/2, z = 2, = 0 e = 1/2. Todos os
expoentes crticos encontrados na se cao anterior s ao denominados expoentes
classicos.
Os expoentes crticos denidos acima nao s ao todos independentes mas est ao
relacionados entre si por diversas rela coes. Duas delas s ao
= (2 ) (8.61)
158

Dinamica Estocastica e Irreversibilidade
e
=

z
. (8.62)
Outra rela cao e
2 + = d, (8.63)
que e v alida para dimensoes d abaixo de uma dimensao crtica d
c
. Para d d
c
a rela cao se torna 2 + = d
c
e os expoentes crticos classicos passam a ser
v alidos.
BIBLIOGRAFIA
Baker, Jr., G. A. 1990. Quantitative Theory of Critical Phenomena. Acade-
mic Press, Boston.
Binney, J. J.; Dowrick, N. J.; Fisher, A. J. & Newman, M. E. J. 1992.
The Theory of Critical Phenomena. Clarendon Press, Oxford.
Konno, K. 1994. Phase Transitions of Interacting Particle Systems. World
Scientic.
Landau, L. D. & Lifshitz, E. M. 1958. Statistical Physics. Pergamon Press,
Oxford.
Liggett, T. M. 1985. Interacting Particle Systems. Springer-Verlag, New
York.
Marro, J. & Dickman, R. 1999. Nonequilibrium Phase Transitions. Cam-
bridge University Press, Cambridge.
Reichl, L. E. 1980. A Modern Course in Statistical Mechanics. University of
Texas Press, Austin.
Stanley, H. E. 1971. Introduction to Phase Transitions and Critical Pheno-
mena. Oxford University Press, New York.
Thompson, C. J. 1979. Mathematical Statistical Mechanics. Princeton Uni-
versity Press, Princeton.
Tom e, T. 1996. Irreversibilidade: Modelos de Rede com Din amicas Estoc asticas.
Tese de Livre-Docencia, Instituto de Fsica, Universidade de Sao Paulo.
Tom e, T.; Brunstein, A. & Oliveira, M. J. de 2000. Symmetry and
universality in nonequilibrium models. Physica A, 283, 107.

159 Transi coes de Fase e Criticalidade


Yeomans, J. M. 1992. Statistical Mechanics of Phase Transitions. Clarendon
Press, Oxford.
EXERC

ICIOS
1. Simule o modelo denido na se cao 8.2 para o caso de diversos valores de
p para N = 100. Fa ca histogramas da concentra cao x = n/N.
2. Simule o modelo cinetico de Bragg-Williams para o caso de diversos valores
de K para N = 100. Fa ca histogramas da magnetiza cao da concentra cao
x = n/N.
3. Considere o modelo denido pela taxa de transi cao
W
n+1,n
= (N n)
1
2
1 +S(2n N),
e
W
n1,n
= n
1
2
1 S(2n N),
onde S(x) e uma fun cao tal que S(x) = 1 para x > 0, S(x) = 1 para
x < 0, e S(x) = 0 para x = 0; e e um par ametro denido no intervalo
0 1. Simule esse modelo para diversos valores de e fazer os
respectivos histogramas da magnetiza cao. A simula cao pode ser feita da
seguinte maneira. Denimos variaveis
i
, com i = 1, 2, ..., N, que tomam
valores 1. Escolhemos aleatoriamente uma delas. A probabilidade de a
variavel trocar de sinal sera (1)/2, (1+)/2, ou 1/2, conforme 2nN,
tenha o mesmo sinal de
i
, tenha o sinal contrario de
i
, ou 2n N = 0,
respectivamante.

Você também pode gostar