Você está na página 1de 155

Dinamica Estocastica

e
Irreversibilidade

Din
amica Estoc
astica e
Irreversibilidade
T
ania Tom
ee
M
ario Jos
e de Oliveira

A
Maria Roza
Wilson Tome
Natalina Bacchi de Oliveira
Jo
ao Batista de Oliveira
e
Pedro Tome de Oliveira

rio
Suma

1. Variaveis Aleat
orias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Variavel Aleat
oria Discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3 Variavel Aleat
oria Contnua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4 Medias e Momentos de uma Distribuicao . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5 Funcao Caracterstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6 Funcao Geratriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7 Mudanca de Variavel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8 Distribuicao Conjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13
13
15
15
16
17
19
20
22

2. Seq
uencia de Variaveis Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1 Soma de Variaveis Independentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Lei dos Grandes N
umeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3 Teorema Central do Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4 Passeio Aleat
orio Unidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Passeio Aleat
orio Bidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

29
29
32
34
36
39

3. Equacao de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.1 Movimento Browniano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

10

Din
amica Estoc
astica e Irreversibilidade

3.2
3.3
3.4
3.5
3.6

Distribuicao de Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Conjunto de Equacoes de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Evolucao Temporal dos Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Simulacao do Movimento Aleat
orio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Equacao de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

50
52
55
58
59

4. Equacao de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Equacao em uma Variavel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Solucao Estacionaria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Operador de Evolucao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Equacao Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Operador Hermitiano. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6 Equacao em V
arias Variaveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7 Metodo Estocastico de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

65
65
67
69
72
73
75
79

5. Cadeias de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1 Processos Estocasticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Matriz Estocastica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5.3 Teorema de Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.4 Metodo Algebrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.5 Reversibilidade Microsc
opica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.6 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 93
5.7 Modelo de Ehrenfest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.8 Passeio Aleat
orio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
5.9 Recorrencia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
5.10 Passeio Aleat
orio Multidimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6. Equacao Mestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . 107
6.1 Introducao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.2 Matriz de Evolucao W . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.3 Comportamento para Tempos Longos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.4 Entropia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . 111
6.5 Metodo Algebrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.6 Reversibilidade Microsc
opica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
6.7 Passeio Aleat
orio Generalizado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.8 Reacoes Qumicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
6.9 Metodo da Funcao Geratriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.10 Expans
ao em Serie Temporal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
6.11 Expans
ao Perturbativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

Sum
ario

7. Metodo de Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . 131


7.1 Introducao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.2 Algoritmo de Metropolis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.3 Oscilador Harmonico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
7.4 Modelo de Ising . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.5 Sistema Cl
assico de Moleculas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.6 Funcao de Correlacao . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
8. Transicoes de Fase e Criticalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.1 Introducao. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8.2 Quebra Espont
anea de Simetria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
8.3 Modelo Cinetico de Bragg-Williams. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
8.4 Teoria Cinetica de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.5 Teoria de Ornstein-Zernike . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.6 Expoentes Crticos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

11

veis Aleato
rias
Varia

1.1

PROBABILIDADE

Um objeto pesado abandonado a alguns metros do solo, a partir do repouso,


atingira o chao num ponto situado verticalmente abaixo do ponto onde foi solto.
Repetindo esse ensaio, nao importa quantas vezes, constataremos que o objeto
cair
a sempre no mesmo ponto. Por outro lado, se considerarmos um objeto
leve como uma pequena folha de papel no lugar do objeto pesado, e repetindo
in
umeras vezes o mesmo ensaio, veremos que a folha atingira o solo em pontos
distintos, apesar de ser solta do mesmo ponto, e mesmo na ausencia completa
de ventos. A forma planar da folha associada ao seu pequeno peso aumentam
consideravelmente o atrito com o ar, tornando o movimento da folha irregular.
O primeiro ensaio, com o objeto pesado, e um fenomeno previsvel, enquanto
que o segundo, com a folha de papel, e um fenomeno aleat
orio.
A princpio poderamos pensar que um fenomeno aleat
orio, como a queda
de folhas de papel descrita acima, nao possui uma regularidade e portanto nao
seria passvel de um estudo sistematico. Entretanto, apos uma reflexao mais
detalhada, verificamos que e possvel, de fato, observar uma regularidade em
fenomenos aleat
orios. Examinando a queda de uma folha repetidas vezes ou,
equivalentemente, observando a queda seq
uencial de in
umeras folhas identicas,

14

Din
amica Estoc
astica e Irreversibilidade

podemos perceber que o monte de folhas cadas no chao adquire uma certa
forma. Considerando uma outra seq
uencia de folhas que caem, cons- tataremos
que a forma do novo monte sera identica `a anterior, desde que o n
umero de
folhas seja suficientemente grande. Qualquer seq
uencia de folhas que caem ao
chao, a partir de um mesmo ponto, dar
a origem a montes de folhas com a mesma
essa a regularidade que se pode observar nesse fenomeno aleat
forma. E
orio.

A teoria das probabilidades e seus desdobramentos, a teoria dos processos


estocasticos e a din
amica estocastica, constituem a linguagem apropriada para
a descricao dos fenomenos aleat
orios. Elas est
ao apoiadas em dois conceitos
fundamentais: o conceito de probabilidade e o conceito de variavel aleat
oria
que sera discutido a partir da proxima secao. A definicao de probabilidade se
faz construindo o conjunto de todos os possveis resultados de uma determinada
experiencia, agrupando-os em subconjuntos mutuamente excludentes. Se a cada
um desses subconjuntos for atribudo um n
umero real nao negativo tal que a
soma deles seja igual a unidade, ent
ao estaremos diante de uma distribuicao de
probabilidades definida sobre o conjunto dos possveis resultados. Ressaltamos
que essa definicao e muito geral e portanto insuficiente para a determinacao da
probabilidade associada a casos especficos. A determinacao da distribuicao de
probabilidades que se deve atribuir aos resultados de uma experiencia especfica
constitui um problema fundamental que deve ser resolvido pela construcao de
uma teoria ou de um modelo que descreva a experiencia.

O conceito de probabilidade, assim como o de qualquer outra grandeza fsica,


possui dois aspectos: um relativo `a sua definicao e o outro `a sua interpretacao.
Para a maioria das grandezas fsicas, os dois aspectos est
ao diretamente relacionados. Entretanto, isso nao acontece com a nocao de probabilidade. A
interpretacao de probabilidade nao segue diretamente de sua definicao. Interpretamos a probabilidade de um certo resultado como a freq
uencia de ocorrencia
desse resultado (interpretacao freq
uencial). Retomando o exemplo das folhas
que caem ao chao, suponha que tenhamos tracado no solo um quadriculado
e determinado o n
umero de folhas cadas em cada quadrado utilizando uma
seq
uencia grande de folhas. A probabilidade de que uma folha de papel caia
dentro de um determinado quadrado e interpretada como sendo igual `a raz
ao
entre o n
umero de folhas cadas nesse quadrado e o n
umero total de folhas
cadas.

Vari
aveis Aleat
orias

1.2

VARIAVEL
ALEATORIA
DISCRETA

Considere uma variavel numerica que assume os valores inteiros e suponha que
a cada valor de esteja associado um n
umero real p , nao negativo,
p 0,
tal que

p = 1.

(1.1)

(1.2)

Caso isso aconteca, sera uma variavel aleat


oria discreta e p sera a distribuicao
de probabilidade da variavel aleat
oria .
Exemplo 1. Distribuicao binomial:
N
p = (N
,
)a b

(1.3)

onde a e um par
ametro tal que 0 < a < 1, b = 1 a e
(N
)=

N!
.
!(n )!

(1.4)

A variavel aleat
oria toma os valores 0, 1, 2, ..., N 1, N . Note que
N
X

p = (a + b)N = 1.

(1.5)

=0

Exemplo 2. Distribuicao de Poisson:

,
(1.6)
!
onde e um par
ametro tal que > 0. A variavel aleat
oria toma os valores
0, 1, 2, 3, .... Note que

X
X

p = e
= 1.
(1.7)
!
p = e

=0

1.3

=0

VARIAVEL
ALEATORIA
CONTINUA

Uma variavel aleat


oria contnua x pode assumir qualquer valor sobre a reta
real. Nesse caso associamos uma probabilidade a cada intervalo da reta. A
probabilidade de que variavel aleat
oria x esteja no intervalo [a, b] e
Z b
(x)dx,
(1.8)
a

15

16

Din
amica Estoc
astica e Irreversibilidade

onde (x) e a densidade de probabilidade, que deve ter as propriedades


(x) 0
e

(1.9)

(x)dx = 1.

(1.10)

A distribuicao acumulada de probabilidades F (x) e definida por


Z x
(y)dy
F (x) =

(1.11)

e e uma funcao monotonica crescente.


Exemplo 3. Distribuicao gaussiana:
1
x2
(x) =
exp( 2 ).
2
2 2

(1.12)

Exemplo 4. Distribuicao de Laplace:


(x) =

1
|x|
exp( ).
2

(1.13)

Recorrendo ao uso da funcao delta de Dirac, uma distribuicao discreta de


probabilidades p pode ser descrita pela seguinte densidade de probabilidade:
X
(x) =
p (x ).
(1.14)

Com esse recurso, a notacao empregada para variaveis aleat


orias contnuas pode
ser usada tambem para variaveis discretas, quando for conveniente.

1.4

MEDIAS
E MOMENTOS DE UMA DISTRIBUIC
AO

Considere uma funcao f (x) e seja (x) a densidade de probabilidades associada


a x. A media hf (x)i e definida por
Z
hf (x)i = f (x)(x)dx.
(1.15)
Os momentos n s
ao definidos por
n

n = hx i =

xn (x)dx.

(1.16)

Vari
aveis Aleat
orias

O primeiro momento 1 e simplesmente a media de x. A dispersao ou variancia


2 e definida por
2 = h(x hxi)2 i
(1.17)
facil ver que
e e sempre nao negativa. E
2 = hx2 i hxi2 = 2 21 ,

(1.18)

bastando para isso usar a seguinte propriedade da media


haf (x) + bg(x)i = ahf (x)i + bhg(x)i,

(1.19)

onde a e b s
ao constantes.
Exemplo 5. Momentos da distribuicao gaussiana. Considere a seguinte identidade:
Z

x2
(1.20)
)dx = 21/2 ,
exp(
2

v
alida para > 0. Se derivarmos com relacao a ambos os membros dessa
expressao m vezes, obtemos:
Z

x2
x2m exp(
(1.21)
)dx = 1 3 5 ... (2m 1) 21/2 2m .
2

Dividindo ambos os membros por 21/2 e fazendo as substituicoes 1 = 2


e 2m = n, obtemos:
Z
x2
1
xn exp( 2 )dx = 1 3 5 ... (n 1) n ,
n =
(1.22)
2
2 2
v
alida para n par. Em particular
2 = 2 ,

4 = 3 4 ,

6 = 15 6 .

(1.23)

Os momentos mpares da distribuicao gaussiana s


ao nulos.

1.5

CARACTERISTICA
FUNC
AO

A funcao caracterstica g(k) de uma variavel aleat


oria x e definida como a
transformada de Fourier da densidade de probabilidade associada a x, isto e,
Z
g(k) = (x)eikx dx = heikx i.
(1.24)

17

18

Din
amica Estoc
astica e Irreversibilidade

Ela possui as seguintes propriedades:


g(0) = 1

(1.25)

|g(k)| 1.

(1.26)

Exemplo 6. A Funcao caracterstica da distribuicao gaussiana e tambem


uma funcao gaussiana e e dada por
g(k) = exp(

2 k2
).
2

(1.27)

A funcao caracterstica e u
til na obtencao dos momentos n , pois o desenvolvimento de g(k) em serie de Taylor, quando existe, nos da

X
(ik)n
g(k) = 1 +
n .
n!
n=1

(1.28)

Essa expressao se obtem diretamente de (1.24) atraves do desenvolvimento de


eikx em potencias de x. A funcao caracterstica sempre existe. Entretanto,
nem sempre e possvel desenvolve-la em serie de Taylor, o que significa que a
distribuicao de probabilidade nao possui momentos.
Exemplo 7. A distribuicao de probabilidades de Lorentz
(x) =

(a2

a
,
+ x2 )

(1.29)

onde a > 0, possui como funcao caracterstica a seguinte funcao:


g(k) = exp(a|k|).

(1.30)

Esta claro que g(k) nao e diferenciavel em k = 0 e, portanto, nao possui desenvolvimento em serie de Taylor.
A funcao caracterstica tambem serve para gerar os cumulantes n que s
ao
definidos atraves de

X
(ik)n
g(k) = exp{
n }.
(1.31)
n!
n=1

Vari
aveis Aleat
orias

Tomando o logaritmo do lado direito de (1.28), desenvolvendo-a em serie de


Taylor e comparando com o lado direito de (1.31), obtemos as seguintes relacoes
entre os cumulantes e os momentos:
1 = 1 ,

(1.32)

2 = 2 21 ,

(1.33)

3 = 3 32 1 + 231 ,

(1.34)

4 = 4 43 1 322 + 122 21 641

(1.35)

etc. Comparando (1.27) e (1.31), vemos que todos os cumulantes da distribuicao


gaussiana, a partir do terceiro, s
ao nulos.
Considere o caso de uma variavel aleat
oria discreta que toma os valores x .
Ent
ao
X
(x) =
p (x x )
(1.36)

de onde conclumos que a funcao caracterstica de uma variavel discreta e dada


por
X
g(k) =
p eikx .
(1.37)

Exemplo 8. Uma variavel aleat


oria discreta assume os valores +1 e 1 com
probabilidades iguais a 1/2. Usando a notacao acima, temos x0 = 1 e x1 = 1
e p0 = p1 = 1/2 de modo que a funcao caracterstica e
g(k) = cos k.

(1.38)

A obtencao de (x) a partir de g(k) se faz tomando-se a antitransformada


de Fourier, isto e,
Z
1
g(k)eikx dk.
(1.39)
(x) =
2

1.6

GERATRIZ
FUNC
AO

Para distribuicoes de probabilidades correspondentes a variaveis discretas que


tomam os valores 0, 1, 2, ..., muitas vezes e conveniente o uso da funcao geratriz
G(z) definida por

X
p z .
(1.40)
G(z) =
=0

19

20

Din
amica Estoc
astica e Irreversibilidade

A serie e convergente pelo menos para 1 z 1. Derivando sucessivamente


a funcao geratriz, vemos que ela possui as seguintes propriedades:
G (1) =

p = hi

(1.41)

( 1)p = h2 i hi.

(1.42)

=1

e
G (1) =

X
=2

Assim os momentos podem ser calculados a partir das derivadas da funcao


geratriz calculadas em z = 1.
Exemplo 9. A funcao geratriz para a distribuicao binomial, equacao (1.3), e
dada por
N
X
N
(N
z = (az + b)N .
(1.43)
G(z) =
)a b
=0

Determinando as derivadas G (z) e G (z) e usando as formulas (1.41) e (1.42)


obtemos a media
hi = N a,

(1.44)

h2 i hi2 = N ab,

(1.45)

e a variancia

da distribuicao binomial.

1.7

MUDANC
A DE VARIAVEL

Considere duas variaveis aleat


orias x e y tais que y = f (x). Suponha que a
densidade de probabilidade da variavel x seja 1 (x). Como obter a densidade
de probabilidade 2 (y) da variavel y? A resposta a essa pergunta e dada pela
formula:
Z
2 (y) =

(y f (x))1 (x)dx,

(1.46)

cuja demontracao sera feita a seguir.


Seja g2 (k) a funcao caracterstica correspondente `a variavel y. Como x e y
est
ao ligados por y = f (x), ent
ao podemos escrever:
Z
g2 (k) = hexp(iky)i = hexp{ikf (x)}i = eikf (x) 1 (x)dx.
(1.47)

Vari
aveis Aleat
orias

Por outro lado,


2 (y) =

1
2

de onde obtemos:
1
2 (y) =
2

Z Z

Usando a representacao
(x) =

eiky g2 (k)dk,

eik[yf (x)] 1 (x)dkdx.


1
2

eikx dk

para a funcao delta de Dirac, obtemos a relacao desejada.


Se f (x) for biunvoca ent
ao a formula (1.46) nos da
Z x2
Z y2
1 (x)dx,
2 (y)dy =

(1.48)

(1.49)

(1.50)

(1.51)

x1

y1

onde x1 e x2 s
ao tais que y2 = f (x2 ) e y1 = f (x1 ). Essa expressao pode ser
escrita de forma equivalente como
2 (y)dy = 1 (x)dx.

(1.52)

Exemplo 10. Seja y = x2 e 1 (x) = 1 para 0 x 1 e zero para outros


valores de x. Ent
ao
Z 1
Z 1
1
1

2
(y x )dx =
2 (y) =
(x y)dx = .
(1.53)
2|x|
2
y
0
0
Outra maneira e usar a expressao (1.52) acima para obter
2 (y) = 1 (x)

1
1
1
=
= .
dy/dx
2x
2 y

(1.54)

Em simulacoes numericas de processos estocasticos, a geracao de n


umeros
aleat
orios que possuem uma certa distribuicao de probabilidades constitui um
item indispensavel. O caso mais simples e mais usado e o de n
umeros gerados no intervalo [0, 1] com igual probabilidade. Denotando por uma variavel
aleat
oria com tal propriedade, a densidade de probabilidade p() de e dada
por p() = 1. Entretanto, em algumas simulacoes, deseja-se gerar n
umeros
aleat
orios com outra distribuicao de probabilidades, digamos com uma densidade de probabilidade (x) definida no intervalo a x b. Se conseguirmos
determinar a relacao x = f () entre x e , ent
ao podemos gerar x a partir de
usando essa relacao.

21

22

Din
amica Estoc
astica e Irreversibilidade

Vamos considerar aqui somente o caso em que (x) corresponde a uma funcao
f () biunvoca. Nesse caso, usando a expressao (1.51), obtemos:
Z x
Z
(x )dx .
(1.55)
p( )d =
a

Tendo em vista que p() = 1, ent


ao
Z x
(x )dx = F (x),
=

(1.56)

onde F (x) e a distribuicao acumulada de probabilidade associada `a variavel x.


Portanto, f () e a funcao inversa de F (x), isto e, x = f () = F 1 ().
Exemplo 11. Suponha que (x) = 2x e 0 x 1. Ent
ao, F (x) = x2 e

portanto x = f () = .
O metodo descrito acima s
o e interessante quando F (x) e sua inversa podem
ser obtidos em forma fechada. Esse nao e o caso, por exemplo, da distribuicao
gaussiana. Na parte final da proxima secao, veremos uma alternativa para
contornar esse problema para o caso gaussiano.

1.8

CONJUNTA
DISTRIBUIC
AO

Suponha que x e y sejam duas variaveis aleat


orias. A probabilidade de que x
se encontre no intervalo [a, b] e y no intervalo [c, d] e
Z bZ d
(x, y)dxdy.
(1.57)
a

onde (x, y) e a densidade conjunta de probabilidade de x e y. Ela possui as


propriedades
(x, y) 0
(1.58)
e

Z Z

(x, y)dxdy = 1.

(1.59)

A partir dela podemos obter as densidades marginais de probabilidade 1 (x) de


x e 2 (y) de y, dadas, respectivamente, por
Z
1 (x) = (x, y)dy
(1.60)
e

2 (y) =

(x, y)dx.

(1.61)

Vari
aveis Aleat
orias

23

As variaveis aleat
orias x e y s
ao independentes entre si quando (x, y) = 1 (x)2 (y).
Nesse caso, a media do produto de duas funcoes, X(x) e Y (y), e igual ao produto
da media, isto e,
hX(x)Y (y)i = hX(x)ihY (y)i.
(1.62)
Dado (x, y), a distribuicao de probabilidades 3 (z) de uma terceira variavel
aleat
oria z que depende de x e y atraves de z = f (x, y) pode ser obtida por
meio da formula
Z Z
3 (z) =
(z f (x, y))(x, y)dxdy.
(1.63)
Para o caso de duas variaveis aleat
orias u e v que dependem de x e y atraves
da seguinte trasformacao u = f1 (x, y) e v = f2 (x, y), a distribuicao conjunta de
probabilidades 3 (u, v) das variaveis aleat
orias u e v e dada por
Z Z
3 (u, v) =
(u f1 (x, y))(v f2 (x, y))(x, y)dxdy.
(1.64)
Ambas as formulas (1.63) e (1.64) podem ser demonstradas utilizando um procedimento analogo ao caso de uma variavel, visto na secao 1.7.
Se a transformacao (x, y) (u, v) for biunvoca, a formula (1.64) implica
3 (u, v)dudv = (x, y)dxdy.

(1.65)

Exemplo 12. A distribuicao de velocidades de Maxwell e dada por


(x, y, z) =

 3/2

exp{ (vx2 + vy2 + vz2 )},


2
2

(1.66)

onde vx , vy e vz s
ao as componentes cartesianas da velocidade de uma molecula,
e = m/(kB T ) onde m e a massa da molecula, kB e a constante de Boltzmann
e T a temperatura absoluta. Queremos determinar a distribuicao de probabilidades velq
(v) correspondente ao modulo v da velocidade de uma molecula, dada
por v = vx2 + vy2 + vz2 . Para isso, determinamos inicialmente a densidade de
probabilidades conjunta 3 (v, , ) onde e s
ao os angulos esfericos. A partir
de
3 (v, , )dvdd = (vx , vy , vz )dvx dvy dvz
(1.67)
e usando a relacao dvx dvy dvz = v 2 sin dvdd entre coordenadas cartesianas e
esfericas, obtemos:
3 (v, , ) =

 3/2

exp( v 2 )r2 sin .


2
2

(1.68)

24

Din
amica Estoc
astica e Irreversibilidade

Logo
vel (v) =

3 (v, , )dd = 4

 3/2

v 2 exp( v 2 ).
2
2

(1.69)

Um exemplo muito u
til do emprego de transformacao de variaveis encontrase no seguinte algoritmo utilizado para gerar n
umeros aleat
orios que estejam distribudos de acordo com a distribuicao gaussiana a partir de n
umeros aleat
orios
gerados com igual probabilidade no intervalo [0, 1]. Sejam e duas variaveis
aleat
orias independentes e uniformemente distribudas no intervalo [0, 1] e considere duas variaveis aleat
orias r e definidas por
r
2
| ln(1 )|
e
= 2,
(1.70)
r=

onde e uma constante positiva. Elas possuem as seguintes densidades de


probabilidades:

1 (r) = r exp( r2 )
(1.71)
2
e
1
,
0 2,
(1.72)
2 () =
2
respectivamente. Definimos em seguida as variaveis x e y por
x = r sin

y = r cos .

(1.73)

A distribuicao conjunta de probabilidades c (x, y) dessas variaveis e dada por


c (x, y)dxdy = 1 (r)2 ()drd.

(1.74)

Como dxdy = rdrd, obtemos, ent


ao:
c (x, y) =

exp{ (x2 + y 2 )}
2
2

(1.75)

e, portanto, c (x, y) = (x)(y) onde


(x) =

 1/2

exp( x2 )
2
2

(1.76)

e a distribuicao gaussiana. Note que x e y s


ao variaveis aleat
orias independentes.
Assim, a partir de dois n
umeros aleat
orios e uniformemente distribudos
no intervalo [0, 1], podemos gerar, utilizando as equacoes (1.70) e (1.73), dois
n
umeros aleat
orios independentes x e y cada um deles distribudos de acordo
com a distribuicao gaussiana (1.76).

Vari
aveis Aleat
orias

BIBLIOGRAFIA
Feller, W. 1950. An Introduction to Probability Theory and its Aplications.
Wiley, London.
Fernandez, P.J. 1973. Introduca
o a
` Teoria das Probabilidades. Livros Tecnicos
e Cientficos, Rio de Janeiro.
Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
James, B. R. 1981. Probabilidade: um Curso em Nvel Intermedi
ario. IMPA,
Rio de Janeiro.
Kac, M. 1959. Statistical Independence in Probability, Analysis and Number
Theory. The Mathematical Association of America.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.

EXERCICIOS
N
1. Determine a media e a variancia da distribuicao binomial p = (N
)a b
e da distribuicao de Poisson p = e /!.

2. Obtenha a distribuicao de Poisson a partir da distribuicao binomial, tomando o limite em que N e a 0 de tal forma que aN = ,
constante.
3. Mostre que h(x hxi)2 i = hx2 i hxi2 .
4. Determine todos os momentos das distribuicoes de probabilidades dadas
abaixo:
a) Distribuicao quadrada:
(x) =

0,
(2a)1 ,

|x| > a,
|x| a.

b) Distribuicao exponencial:
(x) = exp(x),

x 0.

25

26

Din
amica Estoc
astica e Irreversibilidade

c) Distribuicao de Laplace:
(x) =

exp(|x|).
2

5. Obtenha as funcoes caractersticas g(k) correspondentes `as distribuicoes


definidas no exerccio anterior. Desenvolva g(k) em serie de Taylor para
obter os momentos. Compare com os resultados do exerccio anterior.
6. Determine a funcao caracterstica da distribuicao de probabilidade de Lorentz
a
.
(x) =
2
(a + x2 )
7. Determine a funcao caracterstica da distribuicao gaussiana abaixo
(x m)2
1
exp{
(x) =
}.
2 2
2 2
Quais s
ao os cumulantes dessa distribuicao?
8. Determine a distribuicao de probabilidades e os momentos correspondentes `
a funcao caracterstica g(k) = p + q cos k, onde p + q = 1.
9. Determine a funcao geratriz e a partir dela a media e a variancia das
seguintes distribuicoes de probabilidades:
a) Distribuicao de Poisson p = e /,
b) Distribuicao geometrica p = b a, onde a + b = 1.
10. A densidade de probabilidade da variavel aleat
oria x e dada por 1 (x) = 1
para 0 x 1 e 1 (x) = 0 para outros valores de x. Obtenha a densidade
de probabilidade 2 (y) da variavel y = f (x) para os seguintes casos: a)
f (x) = cos(2x); b) f (x) = ln x.
11. Uma partcula possui igual probabilidade de se encontrar em qualquer
ponto de uma superfcie esferica cujo centro coincide com a origem de um
sistema de coordenadas esfericas. Determine a probabilidade de encontrar a partcula entre as circunferencias (latitudes) descritas pelos angulos
azimutais 1 e 2 .
12. Determine um algoritmo para gerar n
umeros aleat
orios que estejam distribudos de acordo com a distribuicao exponencial, a partir de n
umeros
aleat
orios igualmente distribudos no intervalo [0, 1]. Gere os n
umeros a
partir desse algoritmo, faca um histograma e compare-o com a expressao
analtica. Faca o mesmo para o caso da distribuicao de Lorentz.

Vari
aveis Aleat
orias

13. Gere n
umeros aleat
orios que sejam distribudos de acordo com a distribuicao gaussiana com largura = 1. Faca um histograma e compare com
a curva analtica.

27

e
ncia de Varia
veis Independentes
Sequ

2.1

SOMA DE VARIAVEIS
INDEPENDENTES

Muitos fenomenos aleat


orios s
ao constitudos por um conjunto ou por uma sucess
ao de ensaios independentes e, portanto, descritos por variaveis aleat
orias
independentes. Como exemplo, citamos o passeio aleat
orio, que serve como modelo para diversos fenomenos aleat
orios. A intervalos regulares de tempo, um
caminhante da um passo para frente ou para tras, aleatoriamente, sendo que
cada passo dado nao dependente dos passos dados anteriormente. H
a dois teoremas fundamentais relativos ao comportamento de uma seq
uencia de variaveis
independentes, v
alidos quando o n
umero delas e muito grande: a lei dos grandes
n
umeros e o teorema central do limite.
Considere uma variavel aleat
oria y que seja a soma de duas variaveis aleat
orias
independentes x1 e x2 , cujas funcoes caractersticas s
ao g1 (k) e g2 (k), respectivamente. A funcao caracterstica G(k) correspondente a y est
a relacionada a
g1 (k) e g2 (k) atraves de
G(k) = g1 (k)g2 (k).

(2.1)

Ou seja, a funcao caracterstica de uma soma de variaveis e igual ao produto


das corres- pondentes funcoes caractersticas.

30

Din
amica Estoc
astica e Irreversibilidade

Para demontrar esse resultado basta usar a relacao


Z
(y) = (y x1 x2 )1 (x1 )2 (x2 )dx1 dx2

(2.2)

obtida do captulo 1, onde 1 (x1 ), (x2 ) e (y) s


ao as densidades de probabilidade correspondentes a x1 , x2 e y, respectivamente. Multiplicando ambos os
membros por eiky e integrando em y, obtemos o resultado (2.1). Alternativamente podemos partir da definicao de funcao caracterstica e escrever
Z
(2.3)
G(k) = eiky (y)dy = heiky i = heikx1 eikx2 i.
Mas como as variaveis s
ao independentes, ent
ao
heikx1 eikx2 i = heikx1 iheikx2 i

(2.4)

de onde se obtem o resultado (2.1), pois


Z
ikx1
i = eikx1 1 (x1 )dx1
g1 (k) = he
e
g2 (k) = heikx2 i =

eikx2 2 (x2 )dx2 .

(2.5)

(2.6)

Suponha em seguida que a variavel y seja a soma de N variaveis independentes, isto e,


N
X
xj .
(2.7)
y = x1 + x2 + x3 + ... + xN =
j=1

Ent
ao o resultado acima se generaliza para
G(k) = g1 (k)g2 (k)g3 (k)...gN (k).

(2.8)

(j)

Denotando por n o n-esimo cumulante de y e por n o n-esimo cumulante


de xj ent
ao, a partir de (2.8),
n =

N
X

n(j) .

(2.9)

j=1

Para obter esse resultado basta tomar o logaritmo de ambos os membros de


(2.8) e comparar os coeficientes da n-esima potencia de k. Dois casos importantes
desse resultado geral correspondem a n = 1 (media) e n = 2 (variancia). Quando
n=1
N
X
hxj i,
(2.10)
hyi =
j=1

Seq
uencia de Vari
aveis Independentes

e quando n = 2
hy 2 i hyi2 =

N
X
j=1

{hx2j i hxj i2 }.

(2.11)

Esses resultados podem tambem ser obtidos de forma direta. Tomando a


media de ambos os lados de (2.7), obtem-se a relacao (2.10) entre as media.
Elevando ambos os membros de (2.7) ao quadrado e tomando a media, obtemos
hy 2 i =

N
X
j=1

hx2j i + 2

X
j<k

hxj ihxk i.

(2.12)

onde levamos em conta que as variaveis aleat


orias s
ao independentes. Tomando
o quadrado de ambos os membros de (2.10) e comparando com (2.12), obtemos
a relacao (2.11) entre as variancias.
Se as N variaveis independentes tiverem a mesma distribuicao de probabilidades e, portanto, a mesma funcao caracterstica g(k), ent
ao
G(k) = [g(k)]N .

(2.13)

n = N n(j) .

(2.14)

hyi = N hxj i

(2.15)

hy 2 i hyi2 = N {hx2j i hxj i2 }.

(2.16)

e, portanto,
Em particular, quando n = 1,

e, quando n = 2,
Ou seja a media e a variancia de y s
ao iguais a N vezes a media e a variancia
de xj , respectivamente.
Exemplo 1. Ensaios de Bernoulli. Considere uma seq
uencia de N ensaios
independentes. Em cada ensaio, podem ocorrer apenas dois eventos A e B,
mutualmente excludentes. Seja p a probabilidade de ocorrencia de A e q = 1p a
probabilidade de ocorrencia de B. Desejamos determinar a probabilidade PN ()
de que A ocorra vezes numa seq
uencia de N ensaios. Para cada ensaio defina
uma variavel aleat
oria i (i = 1, 2, ..., N ) que toma o valor 1 caso ocorra A e o
valor 0 caso ocorra B. Portanto a probabilidade de i = 1 ou 0 e igual a p ou q,
respectivamente. Queremos determinar a distribuicao de probabilidades PN ()
da variavel aleat
oria
= 1 + 2 + ... + N
(2.17)

31

32

Din
amica Estoc
astica e Irreversibilidade

que conta quantas vezes ocorreu o evento A numa seq


uencia de N ensaios.
A funcao caracterstica G(k) da variavel e, por definicao, dada por
X
G(k) =
PN ()eik .
(2.18)

Por outro lado, como as variaveis i s


ao independentes e tem a mesma distribuicao de probabilidades, ent
ao a funcao caracterstica G(k) da variavel
aleat
oria e dada por
G(k) = [g(k)]N ,
(2.19)
onde g(k) e a funcao caracterstica de cada uma das variaveis aleat
orias j e
dada por
(2.20)
g(k) = heik1 i = peik + q.
Assim
G(k) = (peik + q)N .

(2.21)

Usando a expansao binomial, obtemos


G(k) =

N
X

ik N
(N
q
,
)p e

(2.22)

=0

que, comparada com a expressao (2.18), nos da


N
PN () = (N
,
)p q

(2.23)

que e a distribuicao de probabilidades binomial.

2.2

LEI DOS GRANDES NUMEROS

Vamos considerar aqui uma seq


uencia de N variaveis aleat
orias 1 , 2 , ..., N
independentes e identicamente distribudas, isto e, que tenham a mesma distribuicao de probabilidades. A lei dos grandes n
umeros diz que
N
1 X
j a
N j=1

quando

N ,

(2.24)

onde a = hj i e a media da distribuicao comum. A u


nica condicao para a validade desse teorema e que a media exista. Esse teorema permite a interpretacao
freq
uencial da probabilidade de um evento. Suponha que estamos interessados
em saber a freq
uencia de ocorrencia de um evento A numa seq
uencia de N ensaios. Se denotarmos por j a variavel que toma o valor 1 se ocorrer o evento A

Seq
uencia de Vari
aveis Independentes

e o valor 0 quando nao ocorrer o evento A, ent


ao = (1 + 2 + ... + N ) sera o
n
umero de vezes que o evento A aconteceu e a frequencia sera, pois, f = /N.
Por outro lado, a = hj i = p onde p e a probabilidade de ocorrer A. Logo, a lei
dos grandes n
umeros garante que f = p quando N .

O resultado (2.24) significa que, no limite N , o u


nico resultado possvel
para a variavel y e a, o que e equivalente a dizer que y assume o valor a com
probabilidade um ou ainda que a densidade de probabilidades associada a y e
(y) = (y a).

(2.25)

Esse resultado se demonstra como segue.


Seja Gy (k) a funcao caracterstica correpondente `a variavel aleat
oria y definida por
y=

N
1 X
j
N j=1

(2.26)

e g(k) a funcao caracterstica de cada uma das variaveis j . Ent


ao
Gy (k) = heiky i =

N
Y

j=1

heikj /N i = [g(

k N
)] .
N

(2.27)

Como a media existe, podemos escrever


g(k) = 1 + ika + o(k)

(2.28)

onde o(x) significa que o(x)/x 0 quando x 0. Dessa forma


[g(

ika
k
k N
)] = [1 +
+ o( )]N eika
N
N
N

quando

(2.29)

e portanto
Gy (k) = eika .

(2.30)

A distribuicao de probabilidades (y) de y e obtida pela antitransformada de


Fourier, que e a densidade dada pela expressao (2.25).
Nota. Como dissemos acima, a condicao para a validade da lei dos grandes
n
umeros e que a media exista. A existencia da media significa que nao s
o a
R
R
integral x(x)dx seja finita mas tambem que a integral |x|(x)dx seja finita
(convergencia absoluta). Um contra-exemplo e a distribuicao de Lorentz para a
qual essa integral diverge.

33

34

Din
amica Estoc
astica e Irreversibilidade

2.3

TEOREMA CENTRAL DO LIMITE

O teorema central do limite afirma que a variavel aleat


oria z definida por
z=

N
1 X
j N a}
{
N b j=1

(2.31)

possui a distribuicao de probabilidades gaussiana


2
1
ez /2
2

(2.32)

no limite N . Para que o teorema central do limite seja v


alido, basta
existir a media a e a variancia b. Note que esse nao e o caso, por exemplo, da
distribuicao de Lorentz.
Seja g(k) a funcao caracterstica de cada uma das variaveis aleat
orias j e
considere a expansao em cumulantes. Devemos ter
1
g(k) = exp{iak bk 2 + o(k 2 )},
2

(2.33)

pois o primeiro cumulante e a media a e o segundo e a variancia b. A funcao


caracterstica Gz (k) correspondente `a variavel z e dada por
N

k X
Gz (k) = heikz i = hexp{i
(j a)}i
N b j=1

(2.34)

ou por
Gz (k) =

N
Y

j=1

heiKj ieiKa = {g(K)eiKa }N ,

(2.35)

pois as variaveis s
ao independentes e possuem a mesma distribuicao de probabi
lidades, e a variavel K e definida por K = k/ N b. Usando a expansao de g(k)
em cumulantes, expressao (2.33), obtemos ainda
1
Gz (k) = exp{ N bK 2 + N o(K 2 )}.
2

(2.36)

Agora N bK 2 = k 2 e sendo o(K 2 ) = o(N 1 ) ent


ao N o(N 1 ) 0 quando
N . Portanto
2
Gz (k) = ek /2
(2.37)
o que corresponde `
a distribuicao gaussiana
2
1
(z) = ez /2 .
2

(2.38)

Seq
uencia de Vari
aveis Independentes

Para N suficientemente grande, esse resultado constitui uma boa apro


ximacao de modo que, em termos da variavel = 2 +2 +...+N = N bz +N a,
ele se escreve
1
( N a)2
PN () =
exp{
},
(2.39)
2N b
2N b

pois (z)dz = PN ()d e d = N bdz.


Exemplo 2. No ensaio de Bernoulli do exemplo 1, a probabilidade de j
tomar o valor 1 (ocorrencia do evento A) e p e de tomar o valor 0 (ocorrencia
do evento B) e q = 1 p. A funcao caracterstica sera, pois, aquela dada por
(2.20). Podemos usar o teorema central do limite para obter a distribuicao de
probabilidades PN () para um n
umero N grande de ensaios. Para isso, basta
conhecer a media e a variancia de j , dadas por a = hj i = p e b = hj2 ihj i2 =
p p2 = pq, respectivamente. De acordo com o teorema central do limite, a
distribuicao de probabilidades da variavel , que conta quantas vezes ocorreu o
evento A, sera
( N p)2
1
},
(2.40)
exp{
PN () =
2N pq
2N pq
que e uma gaussiana de media N p e variancia N pq, as mesmas, e claro, da
distribuicao binomial original.

Exemplo 3. Considere um cristal paramagnetico constitudo por N ons


magneticos. Na presenca de um campo magnetico externo, a componente do
dipolo magnetico de cada on, paralela ao campo, pode estar em dois estados: na
mesma direcao do campo (evento A) ou na direcao contraria ao campo (evento
B). De acordo com a mec
anica estatstica, a probabilidade de ocorrer A e
H
H
H
p = e /(e + e
), e a de ocorrer B e q = eH /(eH + eH ), onde e
proporcional ao inverso da temperatura absoluta e H e proporcional ao campo
magnetico.
Defina a magnetizacao M como sendo o n
umero de ons a favor do campo
subtrado do n
umero N de ons contrarios ao campo, isto e, M = 2 N. Se
usarmos uma variavel j que toma os valores +1 ou 1 caso o j-esimo on esteja
a favor ou contrario ao campo, respectivamente, ent
ao M = 1 + 2 + ... + N .
Todas elas s
ao independentes e possuem a mesma distribuicao de probabilidades.
A probabilidade de j = +1 e p e de j = 1 e q de modo que a media e
m hj i = p q = tanh H

(2.41)

35

36

Din
amica Estoc
astica e Irreversibilidade

e a variancia e
hj2 i hj i2 = 1 m2 = 1 tanh 2 H.

(2.42)

Para N muito grande, a distribuicao de probabilidades PN (M ) da variavel


aleat
oria M sera pois
1
(M N m)2
PN (M ) =
exp{
}.
2N
2N

(2.43)

Esta claro que hM i = N m e que hM 2 i hM i2 = N , ou seja, nao s


o a media
como a variancia de M s
ao proporcionais ao n
umero de ons N do cristal, isto
e, s
ao grandezas extensivas.

2.4

PASSEIO ALEATORIO
UNIDIMENSIONAL

Considere uma partcula se movendo ao longo de uma reta, partindo da origem.


A cada intervalo de tempo , ela salta uma distancia h para a direita com probabilidade p e uma distancia h para a esquerda com probabilidade q = 1 p.
Para descrever o movimento da partcula, introduzimos variaveis aleat
orias independentes 1 , 2 , 3 , ... que tomam os valores +1 ou 1 conforme o salto
seja para a direita ou para a esquerda, respectivamente. A variavel j indica
se no j-esimo instante a partcula deve saltar para a direita ou para a esquerda
e, portanto, ela toma o valor +1 com probabilidade p e o valor 1 com probabilidade q. A posicao da partcula no instante t = n sera x = hm onde
m = 1 + 2 + ... + n .
A media e variancia de j s
ao dadas por
a = hj i = p q

(2.44)

b = hj2 i hj i2 = 1 (p q)2 = 4pq,

(2.45)

respectivamente. A funcao caracterstica g(k) da variavel j e


g(k) = heikj i = peik + qeik .

(2.46)

Para obter a probabilidade Pn (m) de a partcula estar a m passos da origem


apos n intervalos de tempo, determinamos primeiro a correspondente funcao
caracterstica
Gn (k) = [g(k)]n = (peik + qeik )n .

(2.47)

Seq
uencia de Vari
aveis Independentes

Fazendo a expansao binomial


Gn (k) =

n
X

(n )p q n eik(2n)

(2.48)

=0

e comparando com a definicao de Gn (k), dada por


n
X

Gn (k) =

Pn (m)eikm ,

(2.49)

m=n

onde m toma os valores n, n + 2, ..., n 2, e n, vemos que


Pn (m) =

n!

nm p
( n+m
2 )!( 2 )!

(n+m)/2 (nm)/2

(2.50)

Para fazer a comparacao acima e conveniente, primeiro, trocar de variavel, no


somatorio, passando de para m = 2 n. A media e a variancia de m s
ao
dadas por
hmi = na = n(p q)
(2.51)
e
hm2 i hmi2 = nb = 4npq.

(2.52)

Se desejarmos obter a distribuicao de probabilidades para n 1, basta


utilizar o teorema central do limite ja que as variaveis 1 , 2 , 3 , ... s
ao independentes. A partir do resultado (2.39), obtemos:
1
(m na)2
Pn (m) =
},
exp{
2nb
2nb

(2.53)

v
alido para n 1.
A densidade de probabilidade (x, t) = Pn (m)/h da variavel x no instante t
e dada por
1
(x ct)2
exp{
(x, t) =
},
(2.54)
2Dt
2Dt
onde

ha
h(p q)
=

(2.55)

h2 4pq
h2 b
=
.

(2.56)

hxi = ct

(2.57)

hx2 i hxi2 = Dt,

(2.58)

c=
e

D=
Obtemos ainda os resultados:
e

37

38

Din
amica Estoc
astica e Irreversibilidade

que permitem dizer que c e a velocidade media da partcula e D o coeficiente


de difus
ao.
Vamos considerar em seguida um passeio aleat
orio unidimensional generico.
Supo- nha que a cada intervalo de tempo uma partcula se desloca de um valor
xj da posicao onde se encontra. Supondo que ela parta da origem, a posicao da
partcula no instante t = n sera x = x1 + x2 + ... + xn . Seja P (xj ) a densidade
de probabilidade de xj e seja g(k) a correspondente funcao caracterstica, isto
e,
Z
g(k) = heikxj i =

P (xj )eikxj dxj .

(2.59)

A funcao caracterstica G(k) correspondente `a variavel x e dada por


G(k) = [g(k)]n .

(2.60)

Para obter a densidade de probabilidades da variavel x para n grande, utilizamos a mesma tecnica utilizada para a demonstracao do teorema central do
limite. Essa tecnica equivale a expandir a funcao caracterstica g(k) em cumulantes ate segunda ordem, isto e,
g(k) = eiAkBk

/2

(2.61)

desde que a media A e a variancia B de xj existam. Portanto,


G(k) = einAknBk

/2

(2.62)

e lembrando que t = n e definindo c = A/ e D = B/ , temos


G(k) = eictkDtk

/2

(2.63)

de modo que a densidade de probabilidade (x, t) de x sera


1
(x ct)2
(x, t) =
}.
exp{
2Dt
2Dt

(2.64)

interessante notar que a densidade de probabilidade (x, t) para o proE


blema do passeio aleat
orio unidimensional satisfaz a seguinte equacao diferencial:
D 2

= c
+
.
(2.65)
t
x
2 x2
Essa e uma equacao de difus
ao, com arrastamento, e e um caso particular das
equacoes de Fokker-Planck que serao estudadas no captulo 4.
Os resultados (2.64) podem ser mais bem entendidos se examinarmos um
sistema composto por um conjunto de muitas partculas que executam passeios

Seq
uencia de Vari
aveis Independentes

aleat
orios independentes. A densidade de partculas e proporcional `a densidade
de probabilidades dada acima. Assim, se imaginamos que no instante inicial
todas elas se encontram na origem, depois de algum tempo elas estarao espalhadas de acordo com a distribuicao acima. Para tempos longos, a densidade

de partculas sera uma gaussiana centrada em x = ct e com largura = Dt.

2.5

PASSEIO ALEATORIO
BIDIMENSIONAL

Vamos considerar agora o caso de uma partcula se movimentando num espaco


bidimensional. O caso de tres ou mais dimensoes pode ser tratado de modo
semelhante. A cada intervalo de tempo , a partcula se desloca da posicao
anterior para uma nova posicao. No j-esimo intervalo de tempo denotamos o
deslocamento por rj = (xj , yj ). Supondo que no instante inicial a partcula
esteja no origem do sistema de coordenadas, a posicao da partcula no instante
t = n sera r = r1 +r2 +...+rn . As variaveis r1 , r2 , ..., rn s
ao pois consideradas
variaveis aleat
orias independentes, ou melhor, vetores aleat
orios independentes,
com um determinada distribuicao de probabilidades P (rj ) = P (xj , yj ). A correspondente funcao caracterstica g(k) = g(k1 , k2 ) sera dada por
g(k) = hexp{ik rj }i = hexp{i(k1 xj + k2 yj )}i
ou ainda por
g(k) =

Z Z

eikrj P (rj )dxj dyj .

(2.66)

(2.67)

Notar que xj e yj podem nao ser independentes.


A funcao caracterstica G(k) correspondente ao vetor r = (x, y) e dada por
G(k) = heikr i = heik(r1 +r2 +...+rn ) i = heikrj in = [g(k)]n .

(2.68)

Para obter a densidade de probabilidades do vetor aleat


orio r utilizamos a
mesma tecnica usada para demontrar o teorema central do limite. Essa tecnica
equivale a usar a expansao de g(k) em cumulantes ate ordem k 2 , isto e,
1
g(k) = exp{i(a1 k1 + a2 k2 ) (b11 k12 + b12 k1 k2 + b22 k22 )},
2

(2.69)

onde
a1 = hxj i

a2 = hyj i

(2.70)

s
ao os cumulante de primeira ordem e
b11 = hx2j i hxj i2 ,

(2.71)

39

40

Din
amica Estoc
astica e Irreversibilidade

b12 = hxj yj i hxj ihyj i

(2.72)

b22 = hyj2 i hyj i2

(2.73)

s
ao os cumulantes de segunda ordem. Assim, para t = n grande temos
G(k) = exp{in(a1 k1 + a2 k2 )

n
(b11 k12 + 2b12 k1 k2 + b22 k22 )}.
2

(2.74)

A densidade de probabilidade Pn (r) = Pn (x, y) do vetor aleat


orio r = (x, y) e
obtida por
Z Z
1
eikr G(k)dk1 dk2
(2.75)
Pn (r) =
(2)2
e sera uma gaussiana bidimensional dada por
Pn (x, y) =
exp{

2 n2 D

1
[b22 (x na1 )2 + 2b12 (x na1 )(y na2 ) + b11 (y a2 )2 ]} (2.76)
2nD

onde D = b11 b22 b212 .


Exemplo 4. Suponha que a cada intervalo de tempo a partcula se desloque
uma distancia h na direcao x ou na direcao y com igual probabilidade. Nesse
caso
1
1
P (xj , yj ) = (xj h)(yj ) + (xj + h)(yj )+
4
4
1
1
+ (xj )(yj h) + (xj )(yj h).
(2.77)
4
4
A funcao caracterstica correspondente sera
g(k1, k2 ) = hei(k1 xj +k2 yj ) i =

1 ihk1
+ eihk1 + eihk2 + eihk2 )
(e
4

(2.78)

ou

1
(cos hk1 + cos hk2 )
(2.79)
2
Para obter resultados v
alidos para n grande, utilizamos a expansao em cumu2
lantes ate ordem k , dada por
g(k1, k2 ) =

Portanto

1
g(k1 , k2 ) = exp{ h2 (k12 + k22 )}
4

(2.80)

1
G(k1 , k2 ) = exp{ nh2 (k12 + k22 )}.
4

(2.81)

Seq
uencia de Vari
aveis Independentes

de modo que, tomando a anti-transformada de Fourier,


Pn (x, y) =

x2 + y 2
1
exp{
}.
nh2
nh2

(2.82)

Definindo o coeficiente de difus


ao D = h2 /(2 ), ent
ao a densidade de probabilidade (x, y, t) de x e y no instante t e dada por
(x, y, t) =

1
x2 + y 2
exp{
}.
2Dt
2Dt

(2.83)

facil ver que hx2 i = hy 2 i = Dt e portanto hr2 i = hx2 + y 2 i = 2Dt.


E
Exemplo 5. Suponha que a cada intervalo de tempo a partcula se desloque
uma distancia fixa h em qualquer direcao. Ent
ao, usando coordenadas polares,
temos:
1
(2.84)
(rj h)drj dj .
P (rj )drj dj =
2
A funcao caracterstica correspondente e dada por
g(k) = hexp{i(k1 xj + k2 yj )}i = hexp{i(k1 rj cos j + k2 rj sin j )}i
ou
g(k) =

1
2

(2.85)

exp{ih(k1 cos j + k2 sin j )}dj .

(2.86)

Definindo k e de modo que k1 = k cos e k2 = k sin sejam as componentes


cartesianas de k, ent
ao
Z 2
Z 2
1
1
g(k) =
exp{ihk cos(j )}dj =
exp{ihk cos j }dj (2.87)
2 0
2 0
p
e portanto g(k) s
o depende do modulo k = k12 + k22 . A integral e a funcao
de Bessel J0 (hk). Entretanto, para obter o comportamento da densidade de
probabilidade para n grande, necessitamos somente dos cumulantes de primeira
e segunda ordem. Nesse caso temos a1 = a2 = 0,
Z Z 2
1
(2.88)
r2 cos 2 j P (rj )drj dj = h2 ,
b11 = hx2j i =
2
0
0
b12 = 0 e b22 = b11 . Logo
g(k) = exp{

h2 2
(k + k22 )}
4 1

(2.89)

de modo que novamente obtemos a mesma distribuicao de probabilidades do


exemplo anterior.

41

42

Din
amica Estoc
astica e Irreversibilidade

BIBLIOGRAFIA
Feller, W. 1950. An Introduction to Probability Theory and its Aplications.
Wiley, London.
Fernandez, P. J. 1973. Introduca
o a
` Teoria das Probabilidades.
Tecnicos e Cientficos, Rio de Janeiro.

Livros

Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.


Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
James, B. R. 1981. Probabilidade: um Curso em Nvel Intermedi
ario. IMPA,
Rio de Janeiro.
Kac, M. 1959. Statistical Independence in Probability, Analysis and Number
Theory. The Mathematical Association of America.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.

EXERCICIOS
1. Mostre que a soma de duas variaveis aleat
orias gaussianas tambem e gaussiana. Faca o mesmo para o caso das distribuicoes de Lorentz e de Poisson.
2. Gere uma seq
uencia de n
umeros aleat
orios 1 , 2 , 3 , ... que tomam o valores 1 ou +1 com igual probabilidade. Coloque num gr
afico a freq
uencia
fn = (1 + 2 + ... + n )/n versus o n
umero n de n
umeros gerados. Verifique que fn 0. Repita o procedimento para o caso em que os n
umeros
aleat
orios sejam gerados de acordo com a distribuicao de Lorentz dada
por 1/[(1 + 2 )]. Nesse caso fn 0 ?
3. Gere uma seq
uencia de N numeros aleat
orios 1 , 2 , ..., N que tomam o

valor 0 ou 1 e calcular z = (1 + 2 + ... + N N a)/ N b, onde a = 1/2 e a


media e b = 1/2 e a variancia dos n
umeros gerados. Repita o procedimento
L vezes e faca um histograma dos valores de z. Compare com a distribuicao
gaussiana (2)1/2 exp{z 2 /2}.
4. Considere uma seq
uencia de N variaveis aleat
orias 1 , 2 , ..., N independentes e igualmente distribudas, que tomam o valor +1 ou 1 com
probabilidade iguais a 1/2, e seja x a variavel x = (1 + 2 + ... + N )/N .
Determine as medias hxi, h|x|i, e hx2 i para N grande.

Seq
uencia de Vari
aveis Independentes

5. Use a formula de Stirling

n! = nn en 2n,
v
alida para n 1, e que da uma excelente aproximacao para n!, para
mostrar que a distribuicao de probabilidades binomial, expressao (2.23),
e dada por

1/2
N

N
PN () =
exp{ ln
(N ) ln
}
2(N )
Np
Nq
para N e grandes. Desenvolva a expressao entre chaves em torno de
seu maximo, = N p, para alcancar o resultado (2.39), deduzido por
intermedio do teorema central do limite.
6. Verifique que a densidade de probabilidade
(x, t) =

1
(x ct)2
exp{
}
2Dt
2Dt

satisfaz a equacao diferencial

1 2

= D 2 c .
t
2 x
x
7. Use a formula de Stirling para obter a densidade de probabilidades do
exerccio anterior a partir do resultado
Pn (m) =

n!

nm p
( n+m
2 )!( 2 )!

(n+m)/2 (nm)/2

v
alido para o passeio aleat
orio. As definicoes apropriadas s
ao x = hm,
2
t = n , D = h b/ , c = ha/ , a = p q e b = 4pq.
8. Considere o passeio aleat
orio unidimensional descrito pela seq
uencia 1 ,
2 , 3 , ..., n de variaveis aleat
orias independentes que tomam os valores
+1 (passo `
a direita) e 1 (passo `a esquerda). Suponha, entretanto, que
a probabilidade de j = +1 seja p se j for mpar e q se j for par, com
p + q = 1. Consequentemente, a probabilidade de j = 1 sera q se j
for mpar e p se j for par. Determine a distribuicao de probabilidades
da posicao x = h(1 + 2 + ... + n ) da partcula que executa o passeio
aleat
orio.
9. Uma partcula executa um passeio aleat
orio bidimensional. A cada intervalo de tempo os possveis deslocamentos s
ao (h, h) todos eles
com a mesma pro- babilidade. Determine a probabilidade de encontrar a
partcula na posicao r = (hm1 , hm2 ) depois de n intervalos de tempo.

43

44

Din
amica Estoc
astica e Irreversibilidade

10. Uma molecula de um g


as desloca-se de uma distancia h entre duas colis
oes com igual probabilidade em qualquer direcao. Depois de n colisoes,
determine o deslocamento quadr
atico medio hr2 i da molecula a partir do
ponto inicial, onde r = r1 + r2 + ... + rn , sendo rj = (xj , yj , zj ) o j-esimo
deslocamento. Ache tambem a funcao caracterstica G(k) = hexp(ik r)i
da variavel r = (x, y, z) e a distribuicao de probabilidade de r. Ache a
expressao dessa probabilidade para n grande.

o de Langevin
Equac
a

3.1

MOVIMENTO BROWNIANO

Considere uma partcula de massa m imersa num lquido. Essa partcula est
a
sujeita a uma forca viscosa, que consideraremos proporcional `a sua velocidade,
e a forcas de car
ater aleat
orio devidas ao impacto da partcula com as moleculas
do lquido. Vamos considerar o caso simples de um movimento unidimensional
ao longo do eixo x. A equacao de movimento sera
m

dv
= v + F (t),
dt

(3.1)

onde

dx
(3.2)
dt
e a velocidade e x a posicao da partcula. A primeira parcela do lado direito
da equacao (3.1) e a forca viscosa, sendo uma constante, e F (t) e a forca
aleat
oria que possui as seguintes propriedades:
v=

hF (t)i = 0,

(3.3)

pois, em media, a forca devida `


as moleculas e nula, e
hF (t)F (t )i = B(t t ),

(3.4)

46

Din
amica Estoc
astica e Irreversibilidade

pois estamos considerando que os impactos sejam independentes. A equacao


(3.1), suplementada pelas propriedades (3.3) e (3.4), e denominda equacao de
Langevin.
Dividindo ambos os membros da equacao (3.1) por m, a equacao de Langevin
escreve-se na forma
dv
= v + (t),
(3.5)
dt
onde = /m e (t) = F (t)/m. O rudo (t) e uma variavel estocastica, isto e,
uma variavel aleat
oria dependente do tempo, que possui as propriedades:
h(t)i = 0

(3.6)

h(t)(t )i = (t t ),

(3.7)

e
onde = B/m2 .
Velocidade quadr
atica media
A solucao generica da equacao diferencial (3.5) e obtida como segue. Comecamos
por escrever v(t) = u(t)et , onde u(t) e uma funcao de t a ser determinada.
Substituindo em (3.5), vemos que ela deve satisfazer a equacao
du
= et (t),
dt
cuja solucao e
u = u0 +

(3.8)

et (t )dt .

(3.9)

Portanto

v = v0 et + et

et (t )dt ,

(3.10)

onde v0 e a velocidade da partcula no instante t = 0. Essa solucao e v


alida
para qualquer funcao temporal (t). Em seguida, vamos usar as propriedades
especficas do rudo para determinar a media e a variancia da velocidade.
Usando a propriedade (3.6) temos
hvi = v0 et .

(3.11)

(3.12)

Dessa forma
t

v hvi = e

Z tZ
0

et (t )dt ,

de onde obtemos
(v hvi)2 = e2t

(t )(t )e(t +t ) dt dt

(3.13)

Equac
ao de Langevin

e
h(v hvi)2 i = e2t

e2t dt ,

(3.14)

onde usamos a propriedade (3.7). Efetuando a integral, obtemos a variancia da


velocidade

hv 2 i hvi2 =
(1 e2t ).
(3.15)
2
Para tempos longos, isto e, no regime estacion
ario, hvi = 0 e a velocidade
quadr
atica media se torna

hv 2 i =
.
(3.16)
2
Sabemos, a partir da teoria cinetica dos gases, que
1
1
mhv 2 i = kB T
2
2

(3.17)

onde kB e a constante de Boltzmann e T a temperatura absoluta. Comparando


essas duas equacoes, obtemos a relacao entre o coeficente e a temperatura:
=

2kB T
.
m

(3.18)

Lembrando que B = m2 e que = m, obtemos a relacao entre B e a


temperatura:
B = 2kB T.
(3.19)
Deslocamento quadr
atico medio
Em seguida, obteremos o deslocamento quadr
atico medio da partcula. Para
isso, calculamos primeiro x(t) dado por
Z t
v(t )dt ,
(3.20)
x = x0 +
0

onde x0 e a posicao da partcula no instante t = 0 ou, tendo em vista a equacao


(3.10),
Z t
Z t
Z t

et
(t )et dt dt .
(3.21)
x = x0 + v0
et dt +
0

Efetuando a primeira integral e invertendo a ordem das integrais da u


ltima
parcela,
Z t
Z t

1
et dt dt .
(3.22)
x = x0 + v0 (1 et ) +
(t )et

t
0

Integrando em t , obtemos o resultado:

1
1
x = x0 + v0 (1 et ) +

(t )(1 e(t

t)

)dt

(3.23)

47

48

Din
amica Estoc
astica e Irreversibilidade

que e v
alido para qualquer funcao temporal (t). Usando a propriedade (3.6),
obtemos o deslocamento medio da partcula:
1
hxi = x0 + v0 (1 et ).

(3.24)

O desvio quadr
atico medio calcula-se determinando primeiro, a partir de
(3.23) e de (3.24), a diferenca
Z

1 t
(t )(1 e(t t) )dt ,
(3.25)
x hxi =
0
de onde se obtem
1
(x hxi) = 2

Z tZ
0

(t )(t )(1 e(t t) )(1 e(t

t)

)dt dt .

Depois, usando a propriedade (3.7), segue-se que


Z

t
h(x hxi)2 i = 2
(1 e(t t) )2 dt ,
0

(3.26)

(3.27)

de onde obtemos, apos efetuar a integral,


hx2 i hxi2 =

2
1

{t (1 et ) +
(1 e2t )}.
2

(3.28)

Para tempos longos o termo dominante e o primeiro de modo que nesse


regime o desvio quadr
atico medio e proporcional a t, isto e,
hx2 i hxi2 = Dt,

(3.29)

onde D = / 2 = B/2 e o coeficiente de difus


ao. Usando a relacao (3.18),
podemos escrever a seguinte relacao entre o coeficiente de difus
ao e a temperatura:
2kB T
D=
(3.30)

que e a relacao de Einstein-Smoluchowski.


Embora tenhamos deduzido a relacao (3.30) para o caso unidimensional,
ela tambem vale para o caso real de partculas imersas num lquido. Para
partculas esfericas de raio a imersas num lquido de coeficiente de viscosidade
, o coeficiente e dado pela lei de Stokes:
= 6a,

(3.31)

kB T
.
3a

(3.32)

de modo que
D=

Equac
ao de Langevin

O conhecimento do coeficiente de difus


ao D, obtido atraves da medida do desvio
2
2
quadr
atico medio hx i hxi , permite, pois, a determinacao da constante de
Boltzmann kB . De fato, uma tal experiencia foi realizada por Perrin examinando
o movimento browniano de partculas supensas num lquido.
Balanco energetico
O impacto aleat
orio das moleculas do fluido sobre a partcula transfere energia cinetica daquelas para a partcula. Essa, por sua vez, dissipa energia devida
`a forca viscosa e ao mesmo tempo tem sua energia cinetica modificada. A taxa
com que a energia e transferida `
a partcula deve ser igual `a soma da taxa com
que a energia e dissipada e a variacao da energia cinetica da partcula. Esse balanco energetico e obtido da seguinte forma. Multiplicamos ambos os membros
da equacao de Langevin por v e usamos a igualdade vdv/dt = (1/2)dv 2 /dt para
obter:
m d 2
v = v 2 + vF
(3.33)
2 dt
ou
d m 2
( v ) + vFat = vF,
(3.34)
dt 2
onde Fat = v e a forca de atrito ou viscosa.
Tomando a media,
dEc
+ Pdis = P,
(3.35)
dt
onde Ec = mhv 2 i/2 e a energia cinetica media, Pdis = hvFat i = hv 2 i e a
taxa de dissipacao de energia, ou potencia dissipada, e P = hvF i e a taxa de
transferencia de energia para a partcula, ou potencia transferida.
Cada uma das parcelas do membro direito da equacao (3.35) pode ser obtida
explicitamente como funcoes do tempo usando a expressao de hv 2 i dada por
(3.15). Fazendo os calculos, obtemos o resultado
P =

m
B
kB T
=
=
,
2
2m
m

(3.36)

ou seja, a potencia transferida e independente do tempo.


importante notar que, embora Pdis 0, a variacao de energia cinetica
E
dEc /dt pode ser positiva, nula ou negativa. Esse u
ltimo caso ocorre quando a
2
energia cinetica inicial da partcula, mv0 /2, for maior do que a energia cinetica
media no estado estacion
ario, kB T /2. No regime estacion
ario, entretanto, a
variacao de energia cinetica e nula, dEc /dt = 0, de modo que Pdis = P , e
portanto toda a energia transferida `a partcula e dissipada.

49

50

Din
amica Estoc
astica e Irreversibilidade

3.2

DE PROBABILIDADES
DISTRIBUIC
AO
Distribuica
o das velocidades

Vimos que a velocidade v(t) de uma partcula livre num meio viscoso e sujeita
a forcas aleat
orias varia de acordo com a equacao de Langevin (3.5) onde (t)
e uma variavel estocastica, isto e, uma variavel aleat
oria dependente do tempo.
Da mesma forma, a velocidade v(t) tambem e uma variavel estocastica. A
diferenca entre elas e que a distribuicao de probabilidades de (t) e conhecida
previamente enquanto que a de v(t) desejamos determinar.
Para achar a distribuicao de probabilidades relativa a v(t), comecamos por
discretizar o tempo em intervalos iguais a , escrevendo t = n . Dessa maneira,
a equacao (3.5) e escrita na forma aproximada

(3.37)
vn+1 = avn + n ,
onde a = (1 ) e as variaveis aleat
orias j possuem as propriedades
hj i = 0

hj k i = jk .

(3.38)

w ,

(3.39)

A partir de (3.37), segue-se a relacao:


vn =

n1
X
=0

onde w e definido por

w = a n1

(3.40)

e consideramos, por simplicidade, a condicao inicial v0 = 0. Dessa forma vn e


uma soma de variaveis aleat
orias independentes.
Denotando por gn (k) a funcao caracterstica relativa `a variavel vn , temos
gn (k) = heikvn i =

n1
Y
=0

heikw i,

(3.41)

pois as variaveis w s
ao independentes. Supondo que a distribuicao de probabilidades da variavel seja uma gaussiana de media zero e variancia 1, segue-se
que a distribuicao de probabilidades da variavel w tambem sera uma gaussiana
de media zero mas de variancia a2 . Logo
2

heikw i = ea

k2 /2

(3.42)

de onde obtemos
gn (k) = ebn k

/2

(3.43)

Equac
ao de Langevin

onde
bn =

n1
X

a2 =

=0

1 a2n
.
1 a2

(3.44)

Portanto, a densidade de probabilidades da variavel vn obtem-se calculando a


antitransformada de Fourier de (3.43), ou seja,
1
v2
Pn (vn ) =
exp{ n }.
2bn
2bn

(3.45)

Tomando o limite em que 0 e n com n = t fixo, a densidade de


probabilidade (v, t) da variavel v no instante t sera
(v, t) = p

1
2b(t)

exp{

v2
},
2b(t)

(3.46)

onde b(t) e o limite de bn , dado por


b(t) =

kB T

(1 et ) =
(1 et ).
2
m

No regime estacion
ario, isto e, para t , b(t) kB T /m, e obtemos
r
m
mv 2
(v) =
exp{
},
2kB T
2kB T

(3.47)

(3.48)

que e a distribuicao de velocidades de Maxwell, para o caso unidimensional.


Distribuica
o das posico
es
Para obter a distribuicao de probabilidade das posicoes, vamos proceder da
mesma maneira como fizemos acima. Usando a mesma discretizacao escrevemos
xn+1 = xn + vn

(3.49)

de onde segue a relacao


xn =

n1
X

v ,

(3.50)

=1

na qual consideramos por simplicidade que x0 = 0 e que v0 = 0. Note que as


variaveis v nao s
ao independentes. Se, entretanto, usarmos a equacao (3.39)
podemos escrever
n1
X
u ,
(3.51)
xn =
=1

onde

u =

1
(1 a ) n1 ,

(3.52)

51

52

Din
amica Estoc
astica e Irreversibilidade

de modo que agora xn e uma soma de variaveis independentes u .


Denotando por Gn (k) a funcao caracterstica relativa a variavel aleat
oria xn ,
temos
n1
Y
heiku i.
(3.53)
Gn (k) = heikxn i =
=1

Como a variavel possui distribuicao gaussiana de media zero e variancia


1, ent
ao a variavel u tambem ter
a a mesma distribuicao mas com variancia
2
2
(1 a ) / . Logo
2
Gn (k) = edn k /2 ,
(3.54)
onde
dn =

n1
X
1 an
1 a2n

+
(1 a)2 }.
(1 a )2 = 2 {n 2
2

1a
1 a2

(3.55)

=1

No limite 0 e n com n = t fixo, obtemos a densidade de


probabilidade 1 (x, t) da variavel x na forma de uma gaussiana
x2
1
exp{
1 (x, t) = p
},
2d(t)
2d(t)

(3.56)

onde d(t) e o limite de dn , dado por


d(t) =

2
1

{t (1 et ) +
(1 e2t )},
2

(3.57)

que por sua vez e a variancia de x(t) dada pela equacao (3.28). No regime em
que t e muito grande d(t) Dt e assim
1
x2
},
1 (x, t) =
exp{
2Dt
2Dt

(3.58)

que coincide com a expressao vista anteriormente para o caso do passeio aleat
orio.

3.3

CONJUNTO DE EQUAC
OES
DE LANGEVIN

Suponha que um sistema seja descrito por um conjunto de N variaveis x1 , x2 ,


x3 , ..., xN . A equacao do movimento para esse sistema e dada pelo conjunto de
equacoes
dxi
= fi (x1 , x2 , ..., xN ) + i (t)
(3.59)
dt
para i = 1, 2, ..., N, onde as variaveis estocasticas 1 (t), 2 (t), ..., N (t) possuem
as seguintes propriedades
hi (t)i = 0
(3.60)

Equac
ao de Langevin

e
hi (t)j (t )i = ij (t t ),

(3.61)

onde 11 , 12 , 22 , ... s
ao constantes. A equacao de Langevin (3.59) e uma
equacao estocastica em que o rudo e aditivo.
Exemplo 1. Considere uma partcula se movendo ao longo do eixo-x, que
realiza um movimento browniano e que esteja sujeita a uma forca viscosa e a
uma forca externa el
astica. A equacao de Newton para essa partcula e
m

dv
= v kx + F (t),
dt

(3.62)

onde F (t) e a forca aleat


oria que possui as propriedades
hF (t)i = 0

(3.63)

hF (t)F (t )i = B(t t ),

(3.64)

e
A equacao (3.62) junto com a equacao
dx
=v
dt

(3.65)

constituem as equacoes de movimento da partcula.


Dividindo ambos os membros de (3.62) por m, obtemos a equacao
dv
= v 2 x + (t),
dt

(3.66)

onde = /m e 2 = k/m. O rudo (t) possui as propriedades


h(t)i = 0

(3.67)

h(t)(t )i = (t t ),

(3.68)

e
onde = B/m2 . Fazendo as identificacoes
x1 = x,
x2 = v,

f1 (x, v) = v,

(3.69)

f2 (x, v) = v 2 x

(3.70)

e 11 = 12 = 21 = 0 e 22 = , vemos que as equacoes (3.66) e (3.65) se


ajustam `
a forma (3.59), com N = 2.

53

54

Din
amica Estoc
astica e Irreversibilidade

As equacoes de Langevin (3.59) constituem, em geral, um conjunto acoplado


de equacoes. O caso mais simples de um conjunto acoplado ocorre quando as
funcoes fi s
ao lineares, isto e, quando
fi =

N
X

Aij xj

(3.71)

j=1

Nesse caso as equacoes de Langevin s


ao dadas por
N

X
d
Aij xj + i
xi =
dt
j=1

(3.72)

e podem ser escritas na forma matricial


d
x = Ax + ,
dt

(3.73)

onde x e s
ao matrizes colunas com elementos xi e i , respectivamente, e A e
a matriz quadrada, N N , cujos elementos s
ao Aij .
Para resolver a equacao matricial (3.73) determinamos, inicialmente, a matriz M que diagonaliza a matriz A (caso ela seja diagonaliz
avel), isto e, determinamos M tal que
M AM 1 = ,
(3.74)
onde e a matriz diagonal cujos elementos i s
ao os autovalores de A. Em
seguida, construmos a matriz R(t) cujos elementos s
ao
X
Rij (t) =
Mik ek t (M 1 )kj ,
(3.75)
k

ou seja,
R = M D(t)M 1 ,

(3.76)
k t

onde D(t) e a matriz diagonal cujos elementos s


ao Dk (t) = e
ambos os membros de (3.75) com relacao ao tempo, obtemos
d
R(t) = M D(t)M 1 .
dt

. Derivando

(3.77)

Mas, tendo em vista que M = AM , o lado direito dessa equacao se torna igual
a AR(t), de modo que
d
R(t) = AR(t).
(3.78)
dt
A solucao geral da equacao (3.73) se obtem com a ajuda de R(t). Para a
condicao inicial x(0) = x0 , a solucao e dada por
Z t
R(t t )(t )dt ,
(3.79)
x(t) = R(t)x0 +
0

Equac
ao de Langevin

que pode ser verificada por substituicao direta em (3.73), usando a propriedade
(3.78) e levando em conta que R(0) = I onde I e a matriz identidade. A partir
dessa solucao podemos obter os diversos momentos de xi .

3.4

TEMPORAL DOS MOMENTOS


EVOLUC
AO

Nesta secao vamos considerar o caso de uma equacao de Langevin em uma


variavel. Ela e dada por
dx
= f (x) + (t),
(3.80)
dt
onde f (x) e uma funcao de x somente, que denominamos forca, e (t) e a variavel
estocastica, ou rudo, cujas propriedades s
ao conhecidas. Ela possui media nula
h(t)i = 0

(3.81)

h(t)(t )i = (t t ),

(3.82)

e, alem disso,
isto e, as variaveis (t) e (t ) s
ao independentes para t 6= t . A variavel aleat
oria
que possui essas propriedades e denominada de rudo branco pois a transformada
de Fourier de h(0)(t)i dada por
Z
eit h(0)(t)idt =
(3.83)
e independente da frequencia .
Exemplo 2. No movimento browniano, visto na secao 3.1, uma partcula
livre move-se num meio viscoso e est
a sujeita a forcas aleat
orias. Considere que
alem dessas forcas ela esteja sujeita a uma forca externa Fe (x). A equacao do
movimento sera ent
ao
m

d2 x
dx
= Fe (x)
+ F (t).
dt2
dt

(3.84)

Para os casos em que a massa da partcula e desprezvel, essa equacao resulta


em
dx
= Fe (x) + F (t).
(3.85)

dt
Dividindo ambos os membros por , essa equacao se torna do tipo (3.80) com
f (x) = Fe (x)/, e (t) = F (t)/ .
Resolver a equacao de Langevin significa determinar a distribuicao de probabilidade P (x, t) em cada instante t > 0, dada a distribuicao P (x, 0) no instante

55

56

Din
amica Estoc
astica e Irreversibilidade

t = 0. Se no instante inicial a partcula estiver localizada no ponto x0 ent


ao
P (x, 0) = (x x0 ). Alternativamente podemos determinar todos os momentos
(t) = hx i como funcoes do tempo, dados os momentos no instante inicial. Na
secao 3.6 veremos como deduzir, a partir da equacao de Langevin, uma equacao
diferencial para P (x, t) denominada equacao de Fokker-Planck. Determinar a
solucao dessa equacao significa, portanto, resolver a equacao de Langevin. Nesta
secao vamos deduzir equacoes temporais para os diversos momentos de x.
Comecamos por discretizar o tempo em intervalos de tempo . A posicao no
ins- tante t = n sera xn e a equacao de Langevin na forma discretizada sera

xn+1 = xn + fn + n ,
(3.86)
onde fn = f (xn ) e n possui as propriedades
hn i = 0

hn n i = nn .

(3.87)

A equacao de Langevin discretizada pode ser vista como uma equacao de recorrencia. Notar que a variavel alet
oria xn+1 e independente de n+1 , embora
seja dependente de n , de n1 , de n2 etc.
Em seguida, vemos que
hxn+1 i = hxn i + hfn i

(3.88)

de onde obtemos

d
hxi = hf (x)i
dt
que e a equacao para a evolucao temporal para a media hxi.
Elevando ao quadrado ambos os membros de (3.86), temos:

x2n+1 = x2n + 2 n xn + n2 + 2 xn fn + n fn + 2 fn2 ,

(3.89)

(3.90)

de onde obtemos
hx2n+1 i = hx2n i + + 2 hxn fn i + 2 hfn2 i

(3.91)

usando a propriedade de que xn e n s


ao independentes e que hn i = 0 e hn2 i = 1.
Logo
d 2
hx i = + 2hxf (x)i
(3.92)
dt
que da a evolucao temporal do segundo momento hx2 i.
Para obter a evolucao temporal do -esimo momento de x, elevamos ambos
os membros de (3.86) `a -esima potencia

xn+1 = {xn + fn + n } .
(3.93)

Equac
ao de Langevin

Desprezando termos de ordem superior a , temos:

1
2 2
xn+1 = xn + n x1
+ x1
n
n fn + ( 1) n xn ,
2

(3.94)

de onde obtemos

e, portanto,

1
2
hxn+1 i = hxn i + hx1
n fn i + ( 1) hxn i
2

(3.95)

d
1
hx i = hx1 f (x)i + ( 1)hx2 i,
dt
2

(3.96)

que da a evolucao temporal do momento hx i.


A equacao (3.96) e na verdade um conjunto de equacoes para os diversos
momentos da variavel aleat
oria x. A equacao para o primeiro momento pode
depender do segundo momento e portanto nao pode ser resolvida isoladamente.
Dessa forma necessitamos da equacao para o segundo momento. Entretanto,
a equacao para o segundo momento pode depender do terceiro momento e,
portanto, devemos utilizar a equacao para o terceiro momento. Assim o conjunto
de equacoes (3.96) constitui um conjunto hierarquico de equacoes. Em alguns
casos pode ocorrer que a equacao para um determinado momento s
o possui
momentos de ordem inferior. Nesse caso, temos um conjunto finito de equac
oes
a resolver.
Exemplo 3. Se f (x) = c, temos:
d
hxi = c
dt

d 2
hx i = 2chxi + ,
dt

(3.97)

cujas solucoes para a condicao inicial hxi = x0 e hx2 i = x20 em t = 0 s


ao
hxi = x0 + ct

hx2 i = x20 + ( + 2cx0 )t + c2 t2 .

(3.98)

A partir desses dois momentos, obtemos a variancia


hx2 i hxi2 = t.

(3.99)

Esse exemplo se identifica com o problema do passeio aleat


orio visto na secao
2.4.
Exemplo 4. Suponha que f (x) = x. Nesse caso, as duas primeiras
equacoes nos dao
d
hxi = hxi
(3.100)
dt

57

58

Din
amica Estoc
astica e Irreversibilidade

d 2
hx i = 2hx2 i + .
(3.101)
dt
Vemos pois que por integracao das equacoes acima podemos obter os dois primeiros momentos. Com a condicao inicial hxi = x0 e hx2 i = x20 em t = 0
obtemos a seguinte solucao:

e
hx2 i =

hxi = x0 et

(3.102)

2t

+ (x20
)e
.
2
2

(3.103)

Quando t , hxi 0 e hx2 i /2.


Esse exemplo pode ser entendido como o problema original de Langevin
visto na secao 3.1. Para isso, basta fazer as substituicoes: x v, /m e
(t) F (t)/m, o que acarreta B/m2 .

3.5

DO MOVIMENTO ALEATORIO

SIMULAC
AO

O movimento de uma partcula que obedece `a equacao de Langevin


dx
= f (x) + (t),
dt

(3.104)

onde (t) possui as propriedades


h(t)i = 0

(3.105)

h(t)(t )i = (t t ),

(3.106)

pode ser simulado da seguinte forma. Discretizamos o tempo em intervalos de


tempo e denotamos por xn a posicao da partcula no instante t = n . A
equacao de Langevin e ent
ao aproximada por
xn+1 = xn + f (xn ) +

n .

(3.107)

onde 0 , 1 , 2 , ... formam uma seq


uencia de variaveis aleat
orias independentes
tais que
hn i = 0

hn2 i = 1.

(3.108)

Assim, tendo gerado uma seq


uencia de n
umeros aleat
orios 0 , 1 , 2 , ... e sendo
dada a posicao inicial x0 , podemos gerar a sequencia de pontos x1 , x2 , x3 , ...,
isto e, a trajet
oria (discretizada) da partcula. Uma possvel distribuicao de

Equac
ao de Langevin

probabilidades para a variavel n e aquela em que ela toma somente dois valores
1 e +1, ambos com probabilidade 1/2.
Suponha que desejamos saber a posicao media da partcula como funcao do
tempo. Devemos ent
ao gerar in
umeras trajet
orias partindo do mesmo ponto x0 .
Uma estimativa da media xn = hxi no instante t = n sera dada por
L

xn =

1 X (j)
x ,
L j=1 n

(3.109)

(j)

onde L e o n
umero de trajet
orias geradas e xn denota a posicao da partcula
no instante t = n na j-esima trajet
oria. Da mesma forma, a estimativa do
2
2
segundo momento xn = hx i e dada por
L

x2n =

1 X (j) 2
[x ] ,
L j=1 n

(3.110)

de onde obtemos a estimativa para a variancia: x2n (xn )2 . Outros momentos


tambem podem ser igualmente calculados.
Podemos entender a simulacao das L trajet
orias como sendo as trajet
orias
de L partculas (nao interagentes) que se movem ao longo da reta real x todas
elas partindo do mesmo ponto x0 no instante t = 0. A cada intervalo de tempo
, cada uma delas se move para um novo ponto de acordo com a equacao de
Langevin discretizada. A cada instante de tempo t podemos construir tambem
um histograma, isto e, dividimos a reta real em intervalos x e para cada
intervalo [x, x+x] determinamos o n
umero N (x, t) de partculas cujas posicoes
est
ao dentro desse intervalo.

3.6

DE FOKKER-PLANCK
EQUAC
AO

Seja Pn (xn ) a distribuicao de probabilidades da variavel xn e gn (k) a correspondente funcao caracterstica dada por
Z
ikxn
(3.111)
i = eikxn Pn (xn )dxn .
gn (k) = he
Ent
ao
gn+1 (k) = heikxn+1 i = heik[xn + f (xn )+ n ] i

(3.112)

ou, tendo em vista que xn e n s


ao independentes,
gn+1 (k) = heik[xn + f (xn )] iheik n i.

(3.113)

59

60

Din
amica Estoc
astica e Irreversibilidade

Em seguida, obtemos a expansao de gn+1 (k), ate termos em primeira ordem em


. O primeiro termo do produto da
heikxn {1 + ik f (xn )}i = heikxn i + ik hf (xn )eikxn i

(3.114)

1
1
1 + ik hn i k 2 2 hn2 i = 1 k 2 ,
2
2

(3.115)

e o segundo

onde usamos as propriedades hn i = 0 e hn2 i = / . Logo


gn+1 (k) = gn (k) + {ikhf (xn )eikxn i

2 ikxn
i}.
k he
2

Usamos agora as seguintes propriedades:


Z
d
d
ikhf (x)eikx i = hf (x) eikx i = eikx [f (x)Pn (x)]dx
dx
dx
e
k 2 heikx i = h

d2 ikx
e i=
dx2

para concluir que


Pn+1 (x) Pn (x) =

eikx

d2
Pn (x)dx
dx2

d2
d
Pn (x).
[f (x)Pn (x)] +
dx
2 dx2

(3.116)

(3.117)

(3.118)

(3.119)

Dividindo ambos os membros por e tomando o limite 0, obtemos

2
P (x, t),
P (x, t) = [f (x)P (x, t)] +
t
x
2 x2

(3.120)

que e a equacao de evolucao temporal da distribuicao de probabilidade P (x, t).


Essa equacao e denominada equacao de Fokker-Planck e sera analisada em detalhe mais adiante no captulo 4.

BIBLIOGRAFIA
Chandrasekhar, S. 1943. Stochastic problems in physics and astronomy.
Rev. Mod. Phys., 15, 1.
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemistry and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. Random walk and the theory of Brownian motion. American
Mathematical Monthly , 54, 369.

Equac
ao de Langevin

Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.


North-Holland, Amsterdam.
Nicolis, G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Systems. John Wiley, New York.
Oliveira, M. J. de 1996. Numerical stochastic methods in statistical mechanics. Int. J. Mod. Phys. B, 10, 1313.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Applications. Springer-Verlag, Berlin.
T. & Oliveira M. J. de 1997. Stochastic mechanics of nonequilibrium
Tome
systems. Braz. J. Phys., 27, 525.
Ulenbeck, G. E. & Ornstein, L. S. 1930. On the theory of the Brownian
motion. Phys. Rev., 36, 823.

EXERCICIOS
1. Mostre que a correlacao temporal das velocidades de uma partcula livre,
executando movimento browniano (ver secao 3.1), e dada por
hv(t0 )v(t0 + t)i = e|t|/m hv 2 (t0 )i.
Determine, a partir dela, a autocorrelacao de equilbrio K(t) definida por
K(t) = lim hv(t0 )v(t0 + t)i
t0

b
e a transformada de Fourier K()
=

eit K(t)dt.

2. Determine explicitamente como funcoes do tempo a variacao da energia


cinetica media dEc /dt e a potencia media dissipada Pdis para o caso da
partcula livre que executa movimento browniano. Mostre que a soma
dEc /dt + Pdis = P onde P e a potencia transferida e uma constante. Faca
um gr
afico dessa tres grandezas versus t. Para quais valores da velocidade
inicial a energia cinetica media Ec decresce?
3. Considere uma partcula que executa movimento browniano ao longo do
eixo-x, sujeita a uma forca viscosa e a uma forca elastica. De acordo com
o exemplo 1, as equacoes do movimento da partcula s
ao
dv
= v 2 x + (t)
dt

61

62

Din
amica Estoc
astica e Irreversibilidade

dx
= v,
dt
onde o rudo (t) possui as propriedades
h(t)i = 0

h(t)(t )i = (t t ).

Use o metodo desenvolvido na secao 3.3 para determinar x(t) e v(t) como
funcoes do tempo para a condicao inicial x(0) = 0 e v(0) = 0. Mostre que
Z t

(e1 (tt ) e2 (tt ) )(t )dt


x(t) = a
0

v(t) = a
onde

t
0

(1 e1 (tt ) 2 e2 (tt ) )(t )dt ,


a=

sendo 1 e 2 as razes da equacao

1
1 2

2 + + 2 = 0.
Em particular mostre que
hx2 i =

et 1 e22 t 1
a2 e21 t 1
(
+4
+
),
2
1

2
hxvi =

e
hv 2 i =

a2 1 t
(e e2 t )2
2

et 1
a2
[1 (e21 t 1) + 41 2
+ 2 (e22 t 1)].
2

4. Para o movimento browniano apresentado na secao 3.1, determine hvi e


hv 2 i como funcoes do tempo, usando as equacoes de evolucao dos momentos. Determine tambem hxi a partir de dhxi/dt = hvi. Usando a as
equacoes (3.1) e (3.2) na forma discretizada, mostre que
d
hxvi = hxvi + hv 2 i
dt
e que

d 2
hx i = 2hxvi
dt
A partir dessas equacoes, determine hxvi e hx2 i como funcoes do tempo.
Supo- nha que no instante t = 0 a posicao e a velocidade da partcula
sejam x0 e v0 , respectivamente.

Equac
ao de Langevin

5. Considere o conjunto de equacoes de Langevin:


dx1
= ax2 + 1 (t)
dt

dx2
= bx1 + 2 (t),
dt

onde h1 (t)i = h2 (t)i = 0 e hi (t)j (t )i = ij (t t ). Use o metodo


desenvolvido na secao 3.4 para construir equacoes de evolucao para hx21 i,
hx22 i, e hx1 x2 i. Resolva as equacoes para os casos: a) b = a, a > 0 e b)
b = a, a > 0.
6. Simule o movimento aleat
orio de uma partcula que obedece a equacao de
Langevin
dx
= f (x) + (t),
dt
onde h(t)i = 0 e h(t)(t )i = (t t ), e que se encontra em x = 0 no
instante t = 0, para os casos:
a) f (x) = a para x < 0, f (x) = 0 para x = 0, e f (x) = a para x > 0,
b) f (x) = x, e

c) f (x) = bx(x2 a2 ).
Faca histogramas para diversos valores de t.

7. Use a equacao de Fokker-Planck para deduzir a equacao de evolucao temporal dos momentos.

63

o de Fokker-Planck
Equac
a

4.1

EM UMA VARIAVEL

EQUAC
AO

Vimos que a equacao de Langevin em uma variavel


dx
= f (x) + (t),
dt

(4.1)

onde o rudo (t) possui as propriedades


h(t)i = 0

(4.2)

h(t)(t )i = (t t ),

(4.3)

est
a associada `
a equacao de Fokker-Planck em uma variavel, ou equacao de
Smoluchowski,

P (x, t) = [f (x)P (x, t)] +


P (x, t),
t
x
2 x2

(4.4)

que da a evolucao temporal da probabilidade P (x, t). Resolver essa equacao


significa, pois, resolver a equacao de Langevin.

66

Din
amica Estoc
astica e Irreversibilidade

Exemplo 1. A equacao de Langevin acima pode ser interpretada como a


equacao de movimento de uma partcula de massa desprezvel que se move num
meio viscoso e sujeita a uma forca externa. Realmente, a equacao de movimento
de uma tal partcula e
m

d2 x
dx
=
+ Fe (x) + F (t),
2
dt
dt

(4.5)

onde a primeira parcela `a direita e a forca viscosa, proporcional `a velocidade; a


segunda e a forca externa e a terceira e a forca aleat
oria. Quando a massa for
muito pequena, ou no regime de alta viscosidade, podemos desprezar o termo `a
esquerda e escrever
dx

= Fe (x) + F (t).
(4.6)
dt
Dividindo ambos os membros dessa equacao pelo coeficiente de atrito , camos
na equacao (4.1). Assim a grandeza f (x) da equacao (4.1) e interpretada como a
forca externa, dividida por , e o rudo (t) e interpretado como forca aleat
oria,
dividida por .
Dois casos particulares da equacao (4.1) ja foram vistos anteriormente: o
caso em que f (x) = c, constante, e o caso em que f (x) = x. O primeiro caso
corresponde `
a difus
ao de partculas sujeitas `a uma forca constante. O segundo
caso corresponde `
a difus
ao de partculas sujeitas `a uma forca elastica.
No primeiro caso, as equacoes de Langevin e Fokker-Planck s
ao

dx
= c + (t)
dt

(4.7)

P
P
2P
,
= c
+
t
x
2 x2

(4.8)

respectivamente. Vimos no captulo 2 que a solucao dessa equacao para a


condicao inicial P (x, 0) = (x) e a gaussiana
P (x, t) =

(x ct)2
1
exp{
}.
2t
2t

(4.9)

Para o segundo caso, em que f (x) = x, as equacoes s


ao

dx
= x + (t)
dt

(4.10)

P
(xP ) 2 P
=
+
.
t
x
2 x2

(4.11)

Equac
ao de Fokker-Planck

Essa u
ltima e conhecida tambem como equacao de Smoluchowski. A solucao
(ver exerccio 1) para a condicao inicial P (x, 0) = (x x0 ) e a gaussiana
P (x, t) = p

1
2b(t)

exp{

[x a(t)]2
}
2b(t)

(4.12)

cuja media a(t) depende de t como


a(t) = x0 et

(4.13)

e cuja variancia b(t) varia com t de acordo com


b(t) =

(1 et ).
2

(4.14)

Diferentemente do que acontece no primeiro caso, nesse, P (x, t) atinge uma


distribuicao estacion
aria quando t pois a variancia b(t) /2 nesse
limite. A distribuicao estacion
aria, que denotamos por P (x), e dada por
r

x2
P (x) =
exp{
}.
(4.15)

4.2

ESTACIONARIA

SOLUC
AO

Em seguida, vamos ver de que maneira pode ser obtida a solucao estacion
aria
da equacao de Fokker-Planck (4.4) no caso geral. Para isso, escrevemos essa
equacao na forma

P (x, t) = J(x, t),


(4.16)
t
x
onde J(x, t) e dada por
J(x, t) = f (x)P (x, t)


P (x, t).
2 x

(4.17)

Na forma (4.16) a equacao de Fokker-Planck e uma equacao de continuidade,


sendo J(x, t) a corrente de probabilidade. Estamos supondo que a variavel x
tome valores no intervalo [a, b] onde um ou ambos os limites podem ser infinitos.
Se integrarmos ambos os lados da equacao (4.16) em x, obtemos:
d
dt

P (x, t)dx = J(a, t) J(b, t).

(4.18)

Como a densidade de probabilidade P (x, t) deve estar normalizada em qualquer


instante, isto e,
Z b
P (x, t)dx = 1,
(4.19)
a

67

68

Din
amica Estoc
astica e Irreversibilidade

ent
ao o lado esquerdo da equacao (4.18) deve se anular, de onde se conclui que as
condicoes de contorno deve ser tais que J(a, t) = J(b, t). Assim, a conservacao
da probabilidade total (4.19) nao e conseq
uencia apenas da equacao de FokkerPlanck mas tambem das condicoes de contorno. Trataremos nesta secao somente
do caso em que a corrente de probabilidade nos extremos x = a e x = b se anule
para qualquer instante t, isto e, J(a, t) = J(b, t) = 0. A condicao de contorno
tal que a corrente de probabilidade se anula e denominada refletora.
No regime estacion
ario, a densidade de probabilidade sera independente de t
de modo que a corrente de probabilidade tambem sera independente de t, tendo
em vista a equacao (4.17). Como o lado esquerdo da equacao (4.16) se anula,
ent
ao a corrente de probabilidade sera tambem independente de x. Logo, ela
deve ter o mesmo valor qualquer que seja x. Mas como ela e nula nos extremos
do intervalo [a, b], ent
ao ela deve ser nula em todo o intervalo. Portanto, a
distribuicao estacion
aria P (x) deve satisfazer a equacao
f (x)P (x)

d
P (x) = 0
2 dx

(4.20)

ou ainda

2
d
ln P (x) = f (x).
(4.21)
dt

Denotando por V (x) o potencial correspondente `a forca f (x), isto e,


f (x) =

ent
ao

d
V (x)
dx

2
ln P (x) = V (x) + const,

(4.22)

(4.23)

de onde obtemos

2
P (x) = A exp{ V (x)},

onde A e uma constante de normalizacao.

(4.24)

Exemplo 2. Se no exemplo 1 denotarmos por U (x) a energia potencial associada a Fe (x), vemos que U (x) = V (x). No entanto, vimos no captulo anterior
que = 2kB T . Dessa forma temos:
P (x) = A exp{

U (x)
}.
kB T

(4.25)

Exemplo 3. Para o caso em que Fe (x) = kx, temos U (x) = kx2 /2 e


portanto
kx2
}.
(4.26)
P (x) = A exp{
2kB T

Equac
ao de Fokker-Planck

A normalizacao de P (x) da A =

p
k/2kB T .

Exemplo 4. Considere o caso de uma partcula sujeita a um campo gravitacional, isto e, Fe (x) = mg. Nesse caso o intervalo de variacao de x e x 0.
Temos V (x) = mgx e portanto
P (x) = A exp{

mgx
}.
kB T

(4.27)

A normalizacao da A = mg/kB T . Note que a equacao (4.20) est


a satisfeita para
qualquer valor de x 0.

4.3

OPERADOR DE EVOLUC
AO

Vimos na secao anterior como obter a solucao estacion


aria da equacao de FokkerPlanck em uma variavel. Nesta secao mostraremos que a solucao P (x, t) tende
para a solucao estacion
aria P (x) quando t . Alem disso, estudaremos o
comportamento de P (x, t) para tempos longos.
A equacao de Fokker-Planck em uma variavel

P (x, t) = [f (x)P (x, t)] +


P (x, t),
t
x
2 x2

(4.28)

onde f (x) e uma funcao real, pode ser escrita na forma

P (x, t) = WP (x, t),


t

(4.29)

onde W e o operador de evolucao, que age sobre funcoes (x), definido por
2

(x).
[f (x)(x)] +
x
2 x2

W(x) =

(4.30)

A classe de funcoes sobre a qual atua o operador W e composta por funcoes


(x) tais que f (x)(x) + (/2) (x) se anula nos dois extremos x = a e x = b.
Para essas funcoes vale a seguinte propriedade
Z

W(x)dx = 0.

(4.31)

Essa propriedade e de fundamental importancia, pois a partir dela conclumos


que a distribuicao de probabilidades P (x, t), que satisfaz a equacao de FokkerPlanck (4.29), estara normalizada em qualquer instante t > 0, uma vez que
esteja normalizada em t = 0.

69

70

Din
amica Estoc
astica e Irreversibilidade

importante notar que a distribuicao de probabilidade estacion


E
aria P (x)
satisfaz a equacao
WP (x) = 0.

(4.32)

A introducao do operador evolucao W nos permite escrever a solucao formal


da equacao de Fokker-Planck:
P (x, t) = etW P (x, 0)

(4.33)

onde etW e o operador definido por


etW = 1 + tW +

t2 2 t3 3
W + W + ...
2!
3!

(4.34)

Realmente, derivando ambos os membros da equacao (4.33) com relacao ao


tempo e usando a definicao (4.34) vemos que (4.29) fica satisfeita.
Suponha em seguida que W possua um espectro discreto, isto e, que
W (x) = (x)

(4.35)

para = 0, 1, 2, ..., onde (x) s


ao as autofuncoes e s
ao os autovalores de W,
e tambem que P (x, 0) admita a expansao
P (x, 0) =

a (x).

(4.36)

a et (x).

(4.37)

=0

Ent
ao a equacao (4.33) nos da
P (x, t) =

X
=0

As autofuncoes satisfazem a seguinte equacao

(x)dx = 0,

(4.38)

que se obtem usando a propriedade (4.31) na equacao (4.35).


facil ver que uma das autofuncoes de W deve ser P (x), a distribuicao de
E
probabi- lidade estacion
aria. De fato, examinando a equacao (4.32), vemos que
P (x) e autofuncao com autovalor nulo. Vamos pois colocar 0 (x) = P (x) e
0 = 0. Dessa forma podemos escrever
P (x, t) = P (x) +

X
=1

a et (x).

(4.39)

Equac
ao de Fokker-Planck

onde levamos em conta que a0 = 1, o que pode ser mostrado integrando ambos
os lados da equacao (4.36) e usando o resultado (4.38).
Veremos mais adiante, na secao 4.5, que os outros autovalores s
ao estritamente negativos de forma que todas as parcelas da somatoria se anulam quando
t . Portanto, nesse limite P (x, t) P (x).
O comportamento de P (x, t) para tempos longos sera portanto exponencial
e ca- racterizado pelo segundo autovalor dominante 1 , ou seja,
P (x, t) = P (x) + a1 (x)et|1 |

(4.40)

(desde que a1 6= 0, senao basta considerar a proxima parcela cujo coeficiente


a seja nao nulo). A grandeza tR = 1/|1 | e pois o tempo de relaxacao para a
solucao estacion
aria. Em algumas situacoes, como aquela do exemplo 5 abaixo,
pode acontecer que tR , caso em que a relaxacao deixa de ser exponencial
e passa a ser algebrica.
A solucao da equacao de autovalores W(x) = (x) deve respeitar as
condicoes de contorno, isto e, f (x)(x) + (/2) (x) = 0, nos extremos x = a
e x = b.
Exemplo 5. Considere o caso de uma partcula confinada no intervalo L/2
x L/2, na ausencia de forcas externas. Nesse caso f (x) = 0 e, portanto, devemos resolver a equacao de autovalores
d2
(x) = (x)
2 dx2

(4.41)

com as condicoes de contorno (L/2) = (L/2) = 0. As solucoes que obedecem essas condicoes s
ao
(
L1 cos(kx) = 0, 2, 4, ...

(x) =
(4.42)
= k 2 ,
1
2
L sin(kx) = 1, 3, 5, ...
onde k = /L e escolhemos a normalizacao de modo que 0 (x) = P (x). A
solucao da equacao de Fokker-Planck para o caso de a partcula estar na origem
em t = 0, isto e, P (x, 0) = (x), sera
P (x, t) =

1
2
+
L L

etk

/2

cos(kx).

(4.43)

=2(par)

Enquanto L for finito o tempo de relaxacao sera tR = 1/|2 | = (L/2)2 . Esse


tempo diverge para L . Nesse caso, entretanto,
Z
2
1
1 tk2 /2
ex /2t
(4.44)
e
cos(kx)dk =
P (x, t) =
0
2t

71

72

Din
amica Estoc
astica e Irreversibilidade

e, portanto, o decaimento sera algebrico, P (x, t) t1/2 .

4.4

ADJUNTA
EQUAC
AO

` equacao de Fokker-Planck em uma variavel,


A

P (x, t) = WP (x, t),


t

(4.45)

associamos a equacao adjunta

Q(x, t) = W Q(x, t),


t
onde W e o operador adjunto de W, definido por
Z
Z
(W ) dx = (W)dx

(4.46)

(4.47)

para quaisquer funcoes (x) e (x) que pertencam `a classe de funcoes mencionada logo abaixo da equacao (4.30). A partir das definicoes de W e de W
conclumos que
2

(x).
(4.48)
W (x) = f (x) (x) +
x
2 x2
Portanto, W nao e auto-adjunto (hermitiano), exceto quando f (x) 0.
Denotando por (x) as autofuncoes de W , podemos escrever
W = ,

(4.49)

pois o operador adjunto W deve ter os mesmos autovalores de W. Os conjuntos das autofuncoes desses dois operadores formam um conjunto bi-ortonormal,
possuindo as seguintes propriedades:
Z
(x) (x)dx =
(4.50)
e

(x ) (x) = (x x ).

(4.51)

Vimos que 0 (x) = P (x) e a autofuncao (dominante) com autovalor 0 = 0.


A essa autofuncao est
a associada a autofuncao adjunta 0 1. Que 0 1
e uma autofuncao com autovalor zero pode ser verificado substituindo-a na
equacao (4.48), o que fornece W 0 = 0.

Equac
ao de Fokker-Planck

Existe uma relacao simples entre as autofuncoes de W e de W , dada por


(x) = P (x) (x). Realmente, substituindo essa expressao em W = ,
usando a definicao de W dada por (4.30) e a igualdade WP (x) = 0, obtemos:
P f

2
P

+ P 2 +
= P .
x
2 x
x x

(4.52)

Usando a relacao (4.20), isto e, 2f P = P/x, obtemos:


f

2
+
=
x
2 x2

(4.53)

que e a equacao de autovalores para o operador adjunto W .


Exemplo 6. Para o caso de f (x) = x, as autofuncoes est
ao relacionadas
aos polin
omios de Hermite H (x), que satisfazem a relacao
H (x) 2xH (x) = 2H (x).

(4.54)
p
Comparando com a equacao (4.53), podemos concluir que (x) = a H (x /)
e que = .

4.5

OPERADOR HERMITIANO

possvel, entreVimos na secao anterior que, em geral, W nao e hermitiano. E


tanto, fazer uma tranformacao sobre W e obter um operador hermitiano, que
denotamos por K e que possui os mesmos autovalores que W.
Definimos o operador K por

onde 0 (x) =

K(x) = [0 (x)]1 W[0 (x)(x)],

(4.55)

P (x). As autofuncoes de K s
ao (x) = [0 (x)]1 (x), pois
K = 01 W = 01 = ,

(4.56)

de onde conclumos que os autovalores s


ao , os mesmos de W. Para obter
a forma explcita de K, aplicamos o operador numa funcao qualquer (x) e
usamos a definicao de W, isto e,
K = 01 W(0 ) = 01 {

(0 )}.
(f 0 ) +
x
2 x2

(4.57)

Depois usamos a igualdade

1
1
ln 0 =
ln P (x) = f (x)
x
2 x

(4.58)

73

74

Din
amica Estoc
astica e Irreversibilidade

para obter a forma desejada:


1 f
1
2
K = {
.
+ f 2 } +
2 x
2 x2

(4.59)

A equacao (4.59) revela que o operador K se identifica formalmente com


um operador hamiltoniano
H=

h2 2
+ Vef (x)
2m x2

(4.60)

tal que a energia potencial (efetiva) seja dada por


Vef (x) =

1
1
{ f (x) + [f (x)]2 }
2 x

(4.61)

e que a constante seja proporcional ao quadrado da constante de Planck. Para


o caso em que f (x) = x temos Vef (x) = ( + 2 x2 /)/2.
Exemplo 7. Para o caso f (x) = x, temos:
K=

1
2
1
( 2 x2 ) +
.
2

2 x2

(4.62)

No entanto, sabemos da mec


anica quantica que

h2 2
1
1
+ m 2 x2 = h( + )
2m x2
2
2

(4.63)

com = 0, 1, 2, ..., onde s


ao as outofuncoes do oscilador harmonico. Fazendo
as substituicoes h2 /m = , m 2 = 2 / e, portanto, h = , obtemos
K =

1 2 2
2


x + = .
2 x2
2
2

(4.64)

Logo, = , e os autovalores s
ao negativos, exceto 0 = 0.
importante notar que a expressao (4.59) nos diz que K e de fato hermitiE
ano. Os operadores hermitianos possuem as seguintes propriedades: os autovalores s
ao reais, as autofuncoes s
ao ortogonais e formam um conjunto completo.
Essa u
ltima propriedade justifica a expansao feita em (4.36). Pode-se mostrar
ainda que o autovetor dominante (aquele que corresponde ao maior autovalor)
e estritamente positivo e nao degenerado. Portanto podemos identifica-lo com
a densidade de probabilidade estacion
aria P (x). Sendo nulo o autovalor correspondente (e nao degenerado), ent
ao todos os outros devem ser estritamente
negativos.

Equac
ao de Fokker-Planck

Vamos demonstrar, explicitamente, que os autovalores s


ao negativos ou nulo.
Para isso basta mostrar que
Z
(x)K(x)dx 0
(4.65)
para qualquer funcao (x). Iniciamos por escrever a equacao (4.57) na forma





2
K =
=

0 ( ) ,
(4.66)
2
0 0
2 0
0
onde usamos a equacao (4.58) para eliminar f . Assim


Z
Z

2
Kdx =
( ) 0 ( ) dx
2
0
0
e, fazendo uma integracao por partes, obtemos:
2
Z
Z
2

Kdx =
( 0 ) 0 dx 0,
2

(4.67)

(4.68)

onde a parte integrada se anula tendo em vista as condicoes de contorno, isto


e, a condicao J(a) = J(b) = 0.

4.6

EM VARIAS

EQUAC
AO
VARIAVEIS

Nas secoes anterioriores estudamos a equacao de Fokker-Planck para o caso de


uma variavel. Daqui em diante trataremos do caso em que temos mais de uma
variavel.
Suponha que um sistema seja descrito por um conjunto de N variaveis x1 ,
x2 , x3 , ..., xN . A equacao do movimento para esse sistema e dada pelo conjunto
de equacoes
dxi
= fi (x1 , x2 , ..., xN ) + i (t)
(4.69)
dt
para i = 1, 2, ..., N, onde as variaveis estocasticas 1 (t), 2 (t), ..., N (t) possuem
as seguintes propriedades:
hi (t)i = 0
(4.70)
e
hi (t)j (t )i = ij (t t ),

(4.71)

onde 11 , 12 , 22 , ... s
ao constantes.
Desejamos determinar a equacao da evolucao temporal da distribuicao de
probabilidades P (x1 , x2 , ..., xN , t) das variaveis x1 , x2 , ..., xN . Usando procedimento analogo `
aquele utilizado para o caso de uma variavel, visto no captulo

75

76

Din
amica Estoc
astica e Irreversibilidade

3, podemos mostrar que essa distribuicao de probabilidades obedece a equacao


N
N N
X

1 XX

2
P =
(fi P ) +
P,
ij
t
xi
2 i=1 j=1
xi xj
i=1

(4.72)

que denominamos equacao de Fokker-Planck em v


arias variaveis.
Exemplo 8. Considere uma partcula se movendo ao longo do eixo-x, que
realiza um movimento browniano e que esteja sujeita `a forca viscosa e a uma
forca externa Fe (x). A equacao de Newton para essa partcula e
m

dv
= v + Fe (x) + F (t),
dt

(4.73)

onde F (t) e a forca aleat


oria que possui as propriedades
hF (t)i = 0

(4.74)

hF (t)F (t )i = B(t t ),

(4.75)

e
onde B = 2kB T. A equacao (4.73) junto com a equacao
dx
=v
dt

(4.76)

constituem as equacoes de movimento da partcula. Para que elas estejam na


forma (4.69) dividimos ambos os membros de (4.73) por m. Assim fazemos as
identificacoes: x1 = x, x2 = v, f1 (x, v) = v, f2 (x, v) = [Fe (x) v]/m, 11 =
12 = 0, e 22 = = B/m2 . A equacao para a distribuicao de probabilidades
P (x, v, t) de x e v e pois

P.
P = v P Fe (x) P +
(vP ) +
t
x
m
v
m v
2 v 2

(4.77)

Essa u
ltima equacao e denominada equacao de Kramers.
Para caso de uma forca externa elastica, Fe (x) = kx, a equacao se torna

P = v P + 2 x P + (vP ) +
P,
t
x
v
v
2 v 2

(4.78)

onde 2 = k/m e = /m.


A equacao de Fokker-Planck pode ainda ser escrita na forma de uma equacao
de continuidade
N
X

P =
Ji ,
(4.79)
t
x
i
i=1

Equac
ao de Fokker-Planck

onde Ji , a i-esima componente da corrente de probabilidade, e dada por


N

Ji = fi P

1X
P.
ij
2 j=1
xj

(4.80)

As solucoes da equacao de Fokker-Planck devem ser determinadas de acordo


com as condicoes de contorno prefixadas. Vamos considerar aqui condicoes
de contorno tais que, nos pontos dessa superfcie, a componente da corrente de
probabilidade normal a ela se anule. Alem disso estaremos tratando de condicoes
de contorno naturais, ou seja, tais que o contorno se situa no infinito. Nesse caso
a distribuicao de probabilidade e suas derivadas devem se anular rapidamente
quando xi de modo que Ji 0 nesse limite.
No regime estacion
ario a densidade de probabilidade e independente do
tempo e satisfaz a equacao

N
N N
X

2
1 XX
ij
(fi P ) +
P = 0,
xi
2 i=1 j=1
xi xj
i=1

(4.81)

que pode ser escrita na forma


N
X

Ji = 0.
x
i
i=1

(4.82)

No caso de uma u
nica variavel, vimos que a corrente de probabilidade estacionaria deve ser constante, isto e, independente da posicao, e que essa constante
deve ser nula. Para mais de uma variavel, entretanto, isso pode nao acontecer.
O fato de a componente normal ser nula nos pontos da superficie de contorno
nao e suficiente para garantir que a corrente seja nula em toda parte. De fato,
as correntes podem ser circulares e tangentes `a superfcie de contorno.
Vamos examinar, em seguida, as condicoes que fi e ij devem satisfazer para
que, no regime estacion
ario, a corrente se anule em todos os pontos. Quando
a corrente e nula em todos os pontos, temos uma situacao de equilbrio termodin
amico. Se, no regime estacion
ario, Ji = 0, ent
ao, a equacao (4.80) nos
da
N
1X

fi =
lnP.
(4.83)
ij
2 j=1
xj
Por conveniencia definimos uma matriz quadradada G cujos elementos s
ao
ij e construmos a grandeza Fi dada por
Fi = 2

N
X

k=1

(G1 )ik fk ,

(4.84)

77

78

Din
amica Estoc
astica e Irreversibilidade

onde denotamos por (G1 )ij os elementos da matriz inversa de G. A equacao


(4.83) implica

Fi =
lnP.
(4.85)
xi
Portanto, dessa equacao resulta a condicao procurada:

Fi =
Fj ,
xj
xi

(4.86)

que deve ser satisfeita para quaisquer pares i, j. Os estados estacion


arios de
sistemas tais que fi e ij satisfazem essa condicao, s
ao estados de equilbrio
termodin
amico, ou reversveis. Sistemas que nao obedecem essa condicao s
ao
ditos irreversveis.
Se a condicao de reversibilidade (4.86) for satisfeita, ent
ao Fi deve ser o
gradiente de um potencial (x1 , x2 , ..., xN ):
Fi =

.
xi

(4.87)

Determinando , podemos escrever


ln P = + const

(4.88)

P = A exp{},

(4.89)

ou ainda

onde A e uma constante que deve ser determinada pela normalizacao de P.


Para o caso em que ij = ij , temos Fi = 2fi / e a condicao de reversibilidade se escreve

fi =
fj
(4.90)
xj
xi
para quaisquer pares i, j. Essa condicao nos diz que a forca deve ser conservativa,
isto e, deve ser o gradiente de um potencial V (x1 , x2 , ..., xN ):
fi =

V.
xi

(4.91)

Nesse caso = 2V / e, portanto,


2
P = A exp{ V }.

(4.92)

Equac
ao de Fokker-Planck

4.7

METODO
ESTOCASTICO
DE LANGEVIN

Considere um sistema cujo estado microsc


opico e definido pelo conjunto das variaveis (x1 , x2 , ..., xN ) e seja V (x1 , x2 , ..., xN ) a energia associada a esse estado.
De acordo com a mec
anica estatstica, a densidade de probabilidade do estado
(x1 , x2 , ..., xN ) e dada por
P (x1 , x2 , ..., xN ) =

1
1
exp{
V (x1 , x2 , ..., xN )},
Q
kB T

(4.93)

onde Q e a constante de normalizacao. A media de uma funcao de estado


F (x1 , x2 , ..., xN ) e dada por
Z
hF i = F (x1 , x2 , ..., xN )P (x1 , x2 , ..., xN )dx1 dx2 ...dxN .
(4.94)
Nesta secao apresentamos um metodo numerico de car
ater estatstico para a
estimativa de medias do tipo (4.94). O metodo usa a ideia de que, para estimar
a media de uma funcao de estado, e suficiente escolher apenas alguns estados, desde que eles sejam os que mais caracterizam o sistema em consideracao.
Os estados mais caractersticos s
ao aqueles que tem mais peso estatstico que
no caso presente s
ao dados pela distribuicao de probabilidades (4.93). Assim,
para obter uma estimativa numerica dessa media basta gerar um seq
uencia de
(L)
(L)
(L)
(2)
(2)
(2)
(1)
(1)
(1)
L estados (x1 , x2 , ..., xN ), (x1 , x2 , ..., xN ), ..., (x1 , x2 , ..., xN ) com a
probabilidade P (x1 , x2 , ..., xN ). Se isso for feito uma estimativa F de hF i sera
ent
ao dada por
L
1X
()
()
()
F =
F (x1 , x2 , ..., xN ).
(4.95)
L
=1

O problema que devemos resolver em seguida e o de gerar estados (x1 , x2 , ..., xN )


com a probabilidade desejada.
Esse problema se resolve se usarmos a equacao de Langevin (4.69), com fi
definido por

V (x1 , x2 , ..., xN )
(4.96)
fi (x1 , x2 , ..., xN ) =
xi
e com i = = 2kB T . Se usarmos a equacao de Langevin para gerar numericamente uma trajet
oria a partir de um estado inicial dado, os estados serao gerados
de acordo com a distribuicao de probabilidades P (x1 , x2 , ..., xN , t) dependente
do tempo e que satisfaz a equacao de Fokker-Planck
N
N
X
X

P (x, t) =
fi (x)P (x, t) + kB T
P (x, t).
t
xi
x2i
i=1
i=1

(4.97)

79

80

Din
amica Estoc
astica e Irreversibilidade

Para tempos longos os estados estarao sendo gerados de acordo com a densidade
de probabilidade dada por (4.93) pois essa distribuicao e a solucao estacion
aria
da equacao de Fokker-Planck (4.97). Assim, se descartarmos os estados iniciais, os estados seguintes estarao sendo gerados de acordo com a probabilidade
desejada. Note que nesse metodo nao e necessario determinar a constante de
normalizacao Q.
Para a efetiva utilizacao do metodo estocastico de Langevin, devemos inicialmente discretizar o tempo. Dessa forma escrevemos a equacao de Langevin
na forma
(+1)

xi

()

()

()

()

= xi + fi (x1 , x2 , ..., xN ) +
()

onde as variaveis aleat


orias i
()

()

2 kB T i ,

(4.98)

s
ao independentes e possuem as propriedades

hi i = 0

()

h[i ]2 i = 1,

(4.99)

isto e, tem media nula e variancia igual a um.


(0)
(0)
(0)
Partimos de um estado inicial (x1 , x2 , ..., xN ) e geramos os estados seguintes de acordo com a equacao (4.98). Notar que em cada passo temporal
devemos gerar N n
umeros aleat
orios independentes, um para cada valor de i.
Podemos, por exemplo, gerar um n
umero que tome os valores 1 ou +1 com
igual probabilidade. Dessa forma as propriedades (4.99) estarao satisfeitas.
Exemplo 9. Considere uma cadeia linear de N stios onde a cada stio
est
a associado uma variavel ale
atoria xi . Suponha que a energia (potencial)
V (x1 , x2 , ..., xN ) do estado (x1 , x2 , ..., xN ) seja dada por
V =

N
N
X
X
a
b
( x2i x4i ) c
xi xi+1 ,
2
4
i=1
i=1

(4.100)

onde a, b, e c s
ao par
ametros positivos, e usamos condicoes peri
odicas de contorno, isto e, xN +1 = x1 . A forca fi sera pois
fi = axi bx3i + c(xi1 + xi+1 ),

(4.101)

de modo que a equacao de Langevin discretizada sera


xi = (1 + a)xi bx3i + c(xi1 + xi+1 ) +

2 kB T i ,

(4.102)

onde (x1 , x2 , ..., xN ) e o estado no instante t e (x1 , x2 , ..., xN ) e o estado no


instante t + .

Equac
ao de Fokker-Planck

BIBLIOGRAFIA
Chandrasekhar, S. 1943. Stochastic problems in physics and astronomy.
Rev. Mod. Phys., 15, 1.
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemistry and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. Random walk and the theory of Brownian motion. American
Mathematical Monthly, 54, 369.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
Nicolis G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Systems. John Wiley, New York.
Oliveira, M. J. de 1996. Numerical stochastic methods in statistical mechanics. Int. J. Mod. Phys., 10, 1313.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Applications. Springer-Verlag, Berlin.
T. & Oliveira, M. J. de 1997. Stochastic mechanics of nonequiliTome
brium systems. Braz. J. Phys., 27, 525.
Ulenbeck G. E. & Ornstein, L. S. 1930. On the theory of the Brownian
motion. Phys. Rev. , 36, 823.

EXERCICIOS
1. Determine a solucao geral da equacao de Smoluchowski
P

2P
= (xP ) +
t
x
2 x2
correspondente a f (x) = x, supondo que ela seja da forma
P (x, t) = p

1
2b(t)

exp{

[x a(t)]2
},
2b(t)

onde a(t) e b(t) s


ao funcoes de t, somente. Construa equacoes diferenciais
para a(t) e para b(t) e as integre.

81

82

Din
amica Estoc
astica e Irreversibilidade

2. Determine as autofuncoes e os autovalores do operador de evolucao W


dado por
d
d2
W = [f (x)(x)] +
(x)
dx
2 dx2
correspondente a uma forca f (x) dada por

x > 0,
,
f (x) =
0,
x = 0,

,
x < 0,
onde e uma constante positiva.

3. Mostre que a solucao estacion


aria da equacao de Kramers (4.78) e do tipo
P = A exp{ax2 /2 bv 2 /2}. Determine as constantes a e b e normalize P
para achar a constante A. Note que a densidade de corrente nao se anula!
4. Mostre que a solucao dependente do tempo da equacao de Kramers (4.78)
e do tipo P = A exp{ax2 /2 bv 2 /2 cxv}, onde a, b, c e A dependem
do tempo. Demonstre que para essa densidade de probabilidades,
hx2 i =

b
,
ab c2

hy 2 i =

a
ab c2

hxyi =

c
.
ab c2

Para determinar a, b e c como funcoes do tempo, inverta essas equacoes


para achar a, b e c em termos de hx2 i, hy 2 i e hxvi. Em seguida use as
expressoes temporais dessas u
ltimas grandezas obtidas no exerccio 3 do
captulo 3.
5. Simule a trajet
oria de uma partcula que obedeca a equacao de Langevin
cuja forca f (x) = V (x) onde
V (x) = bx2 (x2 a2 ),
com a > 0. Obtenha o histograma de x, que e uma estimativa numerica
da pro- babilidade estacion
aria, para os seguintes valores dos par
ametros:
a = 1, b = 1, = 0.01 e = 0.1, 0.2, 0.5, 1, 2, e 5. Faca tambem um
histograma do tempo que a partcula permanece em cada uma das regi
oes
x > 0 e x < 0. Obtenha o tempo medio de permanencia em cada uma
dessas regi
oes.
6. Considere uma cadeia linear de N stios. A cada stio i est
a associada
uma variavel real xi . A energia do estado (x1 , x2 , ..., xN ) e dada por
N
N
X
X
a 2 b 4
xi xi+1 ,
( xi xi ) c
V =
2
4
i=1
i=1

Equac
ao de Fokker-Planck

onde a, b, e c s
ao constante positivas, e consideramos condicoes de contorno
pe- riodicas, isto e, xN +1 = x1 . Use o metodo estocastico de Langevin para
obter um histograma da variavel m definida por m = (x1 +x2 +...+xN )/N,
isto e, a densidade de probabilidade de m. Repita a simulacao para outras
temperaturas.

83

Cadeias de Markov

5.1

PROCESSOS ESTOCASTICOS

Uma variavel aleat


oria que depende de um par
ametro t e chamada de funcao
aleat
oria ou, se t significa o tempo, de variavel estocastica. Consideraremos aqui
processos estocasticos em que o tempo possa ser discretizado e que a variavel
estocastica tambem seja discretizada. Suponha que a variavel estocastica xt
assuma valores inteiros e t os valores 0, 1, 2, 3, ... Um processo estocastico fica
completamente definido ate o instante pela distribuicao de probabilidade conjunta
P (n0 , n1 , n2 , ..., n )

(5.1)

de que xt tome o valor n0 no instante t = 0, o valor n1 no instante t = 1, o valor


n2 no instante t = 2, ..., e o valor n no instante t = .
Em seguida, considere a probabilidade condicional
P+1 (n+1 |n0 , n1 , n2 , ..., n )

(5.2)

de que a variavel estocastica xt tome o valor n+1 no instante t = + 1, dado


que ela tenha tomado o valor n0 no instante t = 0, o valor n1 no instante t = 1,
o valor n2 no instante t = 2, ..., e o valor n no instante t = . Se ela for igual `a

86

Din
amica Estoc
astica e Irreversibilidade

probabilidade condicional
P+1 (n+1 |n )

(5.3)

de que a variavel estocastica xt tome o valor n+1 no instante t = + 1, dado


que ela tenha tomado o valor n no instante t = , ent
ao o processo estocastico e
um processo markoviano. Em outros termos, um processo markoviano e aquele
em que a probabilidade condicional de xt tomar um determinado valor num determinado instante depende somente do valor que ela tenha tomado no instante
anterior.
A partir da definicao de probabilidade condicional, podemos obter a seguinte
formula:
P (n0 , n1 , n2 , ..., n ) = P (n |n1 )...P2 (n2 |n1 )P1 (n1 |n0 )P0 (n0 ).

(5.4)

Vemos pois que o processo markoviano fica completamente definido pelas probabiliddes condicionais dadas por (5.3) e pela probabilidade inicial P0 (n0 ).
Vamos definir agora a probabilidade P (n ) de que a variavel xt tome o valor
n no instante t = independentemente de quais valores ela tenha tomado nos
instantes anteriores. Ela e dada por
P (n ) =

P (n0 , n1 , n2 , ..., n ),

(5.5)

onde a soma se estende sobre n0 , n1 , ..., n1 mas nao sobre n . Se usarmos a


equacao (5.4), obtemos a seguinte equacao de recorrencia:
P (n ) =

n1

P (n |n1 )P1 (n1 ).

(5.6)

Portanto, dado P0 (n0 ), podemos obter P (n ) em qualquer instante.


A probabilidade condicional P+1 (n+1 |n ) e interpretada como a probabilidade de transicao do estado n para o estado n+1 . Em princpio ela pode
depender do ins- tante considerado. Isto e, dados dois estados, a probabilidade
de transicao entre eles poderia ser diferente para cada instante de tempo. Entretanto, consideraremos somente processos markovianos cujas probabilidades
de transicao nao variam no tempo. Nesse caso, escrevemos, pois,
P+1 (n+1 |n ) = T (n+1 , n )

(5.7)

de modo que a equacao (5.6) se torna


P (n ) =

n1

T (n , n1 )P1 (n1 ).

(5.8)

Cadeias de Markov

5.2

MATRIZ ESTOCASTICA

Vimos que um processo estocastico markoviano fica completamente definido


pela probabilidade de transicao e pela probabilidade inicial. Vamos escrever a
equacao anterior na forma simplificada
X

P (n) =

T (n, m)P1 (m)

(5.9)

e interpretar T (n, m) como elemento de uma matriz T. Ela deve possuir as


seguintes propriedades:
T (n, m) 0,

(5.10)

pois T (n, m) e uma probabilidade (condicional) e


X

T (n, m) = 1,

(5.11)

pois ela deve estar normalizada. Ou seja, os elementos da matriz T devem ser
nao negativos e a soma dos elementos de uma coluna qualquer deve ser igual
a unidade. Note que a somatoria e feita sobre a primeira variavel, que denota
o ndice de linha da matriz. Qualquer matriz quadrada que possua essas duas
propriedades e chamada de matriz estocastica.
Se definirmos a matriz P como a matriz coluna cujos elementos s
ao P (n),
ent
ao a equacao (5.9) pode ser escrita na forma de um produto de matrizes, isto
e,
P = T P1 .

(5.12)

Dessa forma, dada a matriz coluna inicial P0 , obtemos P atraves de


P = T P0

(5.13)

e o problema de determinar P (n) se reduz ao calculo da -esima potencia da


matriz estocastica T. Essa equacao pode ser escrita na forma
P (n) =

T (n, m)P0 (m),

(5.14)

onde o elemento de matriz T (n, m) e interpretado como a probabilidade de


transicao do estado m para o estado n em passos, ou seja, e a probabilidade
de a variavel xt tomar o valor n num certo instante t dado que ela tenha tomado
o valor m num instante anterior t .

87

88

Din
amica Estoc
astica e Irreversibilidade

5.3

TEOREMA DE PERRON-FROBENIUS

O problema fundamental dos processos markovianos e determinar quais s


ao as
propriedades da matriz estocastica T para que
lim P = P,

(5.15)

onde P e a solucao estacion


aria, isto e, satisfaz a equacao
T P = P.

(5.16)

Com essa finalidade, apresentamos algumas propriedades gerais da matriz estocastica e algumas definicoes.
1) A matriz estocastica possui um autovalor igual `a unidade.
2) Qualquer autovalor de T satisfaz a condicao || 1, isto e, no plano
complexo, os autovalores se localizam no disco de raio igual `a unidade.
3) Ao autovalor = 1 corresponde um autovetor com componentes nao
negativas.
Notar que em geral os autovalores podem ser complexos e que ao autovalor
= 1 pode corresponder mais de um autovetor, isto e, o autovalor = 1 pode
ser degenerado.
Definica
o. Uma matriz estocastica e irredutvel se para cada par (m, n)
existe uma potencia tal que T (m, n) > 0. Isto significa que a probabilidade
de atingir um determinado estado a partir de um outro qualquer e nao nula. O
expoente nao precisa ser necessariamente o mesmo para todos os pares.
4) Teorema de Perron-Frobenius. O autovalor = 1 de uma matriz irredutvel e nao degenerado. Alem disso o autovetor correspondente possui todas
as componentes estritamente positivas.
Esse teorema afirma que a solucao estacion
aria da equacao (5.16) e u
nica e

que alem disso P (n) > 0. E importante notar que e possvel haver autovalores
tais que || = 1 alem do autovalor = 1. Isso pode ocorrer com as matrizes
chamadas cclicas.
Definica
o. Uma matriz estocastica e regular se todos os elementos de alguma
potencia de T s
ao estritamente positivos. Ou seja, se existe tal que T (n, m) >
0 para quaisquer n e m. Note que todos os elementos devem ser estritamente
positivos para o mesmo . Matriz regular e equivalente a matriz irredutvel e
aperi
odica.
5) Com excecao do autovalor = 1, todos os autovalores de uma matriz
regular s
ao, em modulo, estritamente menores do que a unidade, isto e, || < 1.

Cadeias de Markov

6) Quando , T converge para uma matriz cujas colunas s


ao todas

iguais a P. Da, conclui-se que P = T P0 converge para P qualquer que seja


P0 .
Para que o limite de P exista quando , e necessario que nao haja
nenhum autovalor complexo sobre o crculo unitario, exceto = 1. Entretanto,
para que o limite seja independente da probabilidade inicial, a probabilidade
estacion
aria deve ser u
nica, isto e, o autovalor = 1 deve ser nao degenerado.
Isso ocorre com as matrizes regulares. Entretanto, pode haver matrizes nao
regulares que satisfacam essa propriedade. Um exemplo de uma matriz nao
regular que tem essa propriedade e aquela correspondente a um sistema com
um estado absorvente.

5.4

METODO
ALGEBRICO

Dada a matriz de transicao T e a probabilidade inicial P0 , podemos obter P a


partir de P = T P0 . Para isso devemos determinar T , o que faremos atraves
do metodo algebrico que consiste em determinar os autovetores e autovalores de
T, caso eles existam.
Vamos considerar o caso em que os autovalores de T sejam nao degenerados.
Como T e em geral nao simetrica, devemos considerar que os autovetores `a
direita e `
a esquerda sejam em geral distintos. Sejam {k } e {k } os autovetores
`a direita e `
a esquerda, respectivamente, e {k } os correspondentes autovalores,
isto e,
T k = k k

(5.17)

k T = k k .

(5.18)

Note que k e uma matriz coluna enquanto que k e uma matriz linha. Os
autovetores formam um conjunto completo ortonormalizado de modo que
j k = jk
e

k k = I,

(5.19)

(5.20)

onde I e a matriz identidade.


importante notar que P e um autovetor `a direita com autovalor igual `a
E
unidade. Escrevemos pois 1 = P. O correspondente autovetor `a esquerda 1 e

89

90

Din
amica Estoc
astica e Irreversibilidade

a matriz linha que possui todas as entradas iguais a unidade, isto e, 1 (n) = 1
para qualquer n. Realmente, a equacao
X
T (n, m) = 1
(5.21)
n

escrita na forma

1 (n)T (n, m) = 1 (m)

(5.22)

implica 1 T = 1 . A normalizacao de P = 1 nos da 1 1 = 1.


Considere agora a potencia T da matriz T que escrevemos na forma
X
X
X
T = T I = T
k k =
T k k =
k k k ,
(5.23)
k

onde substitumos a matriz identidade pelo lado esquerdo da equacao (5.20) e


usamos a identidade T k = k k . A partir de
X
T =
k k k
(5.24)
k

obtemos:
P = T P0 =

k k (k P0 )

(5.25)

ou ainda
P = P +

k k (k P0 ),

(5.26)

k6=1

pois 1 = 1, 1 = P e 1 P0 = 1 ja que P0 est


a normalizado. Como os autovalores
satisfazem a desigualdade |k | < 1 para k 6= 1, ent
ao |k | 0 quando
de modo que todas as parcelas da somatoria anulam. Logo P P quando
, qualquer que seja P0 .
Exemplo 1. Considere a matriz estocastica 2 2 dada por
"
#
1b
q
T =
.
b
1q
Os autovetores e autovalores s
ao
1 =

1 1

1
1 =
q+b

"

"

e
1 h
2 =
b
q+b

2 =

1
1

q
b

1 = 1

2 = 1 b q.

(5.27)

(5.28)

(5.29)

Cadeias de Markov

Assim obtemos:
T = 1 1 1 + 2 2 2
ou seja,
1
T =
q+b

"

q
b

q
b

(1 q b)
+
q+b

(5.30)

"

b
b

q
q

(5.31)

Para uma probabilidade inicial


P0 =

"

p1
p2

(5.32)

obtemos:
1
P = T P0 =
q+b

"

q
b

(1 q b)
+
q+b

"

bp1 qp2
bp1 + qp2

(5.33)

Se q + b 6= 0 ent
ao, no limite , P se aproxima da probabilidade estacionaria 1 independentemente da condicao inicial.

5.5

REVERSIBILIDADE MICROSCOPICA

A probabilidade estacion
aria P (n) satisfaz a equacao
X
P (n) =
T (n, m)P (m),

(5.34)

que podemos escrever na forma


X
{T (n, m)P (m) T (m, n)P (n)} = 0,

(5.35)

P
pois m T (m, n) = 1. Se a solucao da equacao (5.35) e tal que cada parcela
da somatoria se anula, ent
ao a solucao estacion
aria satisfaz o balanceamento
detalhado ou a condicao de reversibilidade microsc
opica. Nesse caso dizemos
que P (n) e a probabilidade de equilbrio termodin
amico. Entretanto, a reversibilidade microsc
opica e uma propriedade da matriz estocastica e, portanto, do
processo estocastico que estamos considerando. Alguns processos estocasticos
possuem reversibilidade microsc
opica, outros nao.
Suponha que o processo markoviano satisfaca o balanceamento detalhado
T (n, m)P (m) = T (m, n)P (n)

(5.36)

para qualquer par m, n de estados. O lado direito e interpretado como a probabilidade de transicao de m para n, enquanto que o lado direito e a probabilidade

91

92

Din
amica Estoc
astica e Irreversibilidade

de transicao de n para m. Em outras palavras, ha a ocorrencia da reversibilidade


microsc
opica. Em princpio, e possvel saber se ha reversibilidade microsc
opica
sem determinar a probabilidade estacion
aria P (n). Considere tres estados quaisquer n, n , e n . Na situacao estacion
aria, a probabilidade de ocorrer a trajet
oria
n n n n e dada por
T (n, n )T (n , n )T (n , n)P (n)

(5.37)

enquanto que a probabilidade de ocorrer a trajet


oria reversa n n n n
e dada por
T (n, n )T (n , n )T (n , n)P (n).

(5.38)

Havendo reversibilidade microsc


opica, essas duas expressoes devem ser iguais o
que implica
T (n, n )T (n , n )T (n , n) = T (n, n )T (n , n )T (n , n).

(5.39)

Portanto, um processo com reversibilidade microsc


opica deve satisfazer essa
equacao para quaisquer triplas de estados. Express
oes analogas tambem podem
ser escritas para quatro ou mais estados.
Uma propriedade importante das matrizes estocasticas que possuem reversibilidade microsc
opica e que seus autovalores s
ao todos reais. Definimos a matriz
Tb por
1
T (m, n)(n),
(5.40)
Tb(m, n) =
(m)
p
onde (n) = P (n). Se dividirmos ambos os membros da equacao (5.36) por
(n)(m), vemos que a matriz Tb e simetrica. Sendo simetrica (hermitiana), ela
possui autovalores reais. Basta agora mostrar que Tb possui os mesmos autovalores de T. Realmente, seja k um autovetor de T e k o autovalor correspondente,
isto e
X
T (m, n)k (n) = k k (m).
(5.41)
n

Dividindo ambos os membros por (m), obtemos:


X
n

1
1
Tb(m, n)
k (n) = k
k (m).
(n)
(m)

Portanto, k (n)/(n) e autovetor de Tb com o mesmo autovalor k de T .

(5.42)

Cadeias de Markov

5.6

ENTROPIA

Em seguida vamos mostrar, para o caso em que a probabilidade estacion


aria satisfaz o balanceamento detalhado, que a funcao temporal H definida por
H =

P (n) ln

P (n)
P (n)

(5.43)

e uma funcao decrescente no tempo, isto e, vamos mostrar que H+1 H .


Seja f (x) uma funcao convexa, isto e, que possua a propriedade
f (p1 x1 + p2 x2 ) p1 f (x1 ) + p2 f (x2 )

(5.44)

para quaisquer valores de x1 e x2 , onde p1 0, p2 0 e p1 + p2 = 1. Essa


propriedade, v
alida para dois pontos, pode ser generalizada para um n
umero
qualquer de pontos
N
N
X
X
pm f (xm ),
(5.45)
pm xm )
f(
m=1

m=1

onde

pm 0

N
X

pm = 1.

(5.46)

m=1

A partir da equacao de evolucao para P (n) e usando a condicao de balanceamento detalhado (5.36), obtemos:
P+1 (n) X
P (m)
=
.
T (m, n)
P (n)
P (m)
m

(5.47)

Agora, usamos a equacao (5.45) com pm = T (m, n) e xm = P (m)/P (m) para


concluir que
X
P (m)
P+1 (n)
)
).
(5.48)
T (m, n)f (
f(
P (n)
P (m)
m
Multiplicando ambos os lados por P (n) e somando em n, obtemos:
X
n

P (n)f (

X
P+1 (n)
P (m)
)
).
P (m)f (
P (n)
P (m)
m

(5.49)

Para o caso em que f (x) = x ln x, obtemos:


X
n

P+1 (n) ln

P+1 (n) X
P (m)

P (m) ln
P (n)
P (m)
m

(5.50)

ou seja H+1 H . Se definirmos a entropia S por S = kH + C onde k e


C s
ao constantes, vemos que S+1 S , ou seja, a entropia e funcao temporal
monotonica crescente.

93

94

Din
amica Estoc
astica e Irreversibilidade

5.7

MODELO DE EHRENFEST

Considere duas urnas A e B e um certo n


umero N de bolas numeradas de 1 ate
N. Inicialmente, as bolas s
ao colocadas na urna A. Em seguida, uma das bolas e
sorteada e transferida para a outra urna. Esse procedimento e ent
ao repetido a
cada intervalo de tempo. Desejamos determinar a probabilidade P (n) de haver
n bolas no instante .
Suponha que num certo instante a urna A tenha n bolas. A probabilidade de
o n
umero delas diminuir para n1 sera igual `a probabilidade de sortearmos umas
das bolas da urna A (que sera retirada de A e transferida para B), ou seja, n/N.
Da mesma forma, a probabilidade de o n
umero de bolas da urna A aumentar
para n + 1 sera igual `a probabilidade de sortearmos uma das bolas da urna B
(que sera transferida para A), ou seja, (N n)/N. Portanto, a probabilidade de
transicao T (m, n) de n para m sera
n
n = 1, 2, ..., N 1, N
(5.51)
T (n 1, n) =
N
e
N n
T (n + 1, n) =
n = 0, 1, ..., N 1.
(5.52)
N
Em outros casos, T (m, n) = 0.
Aqui, entretanto, vamos considerar o caso mais geral em que permitimos
que o n
umero de bolas da urna A possa nao se alterar. Vamos supor que a
probabilidade de que o n
umero nao se altere seja p. Nesse caso temos pois
n
T (n 1, n) = q ,
n = 1, 2, ..., N 1, N,
(5.53)
N
T (n, n) = p,
n = 0, 1, 2, ..., N 1, N,
(5.54)
e

N n
,
n = 1, 2, ..., N 1, N,
(5.55)
N
onde q = 1 p. O modelo original de Ehrenfest e recuperado quando p = 0.
Substituindo T (m, n) na equacao de evolucao temporal
T (n + 1, n) = q

P+1 (m) =

N
X

T (m, n)P (n)

(5.56)

n=0

obtemos:
n+1
n1
)P (n 1) + pP (n) + q(
)P (n + 1),
(5.57)
N
N
equacao que e valida para n = 0, 1, 2, ..., N , desde que coloquemos P (N +1) = 0
e P (1) = 0. Essa equacao sera resolvida para a condicao inicial P0 (n) = n,N
que corresponde a ter todas as bolas na urna A.
P+1 (n) = q(1

Cadeias de Markov

A probabilidade estacion
aria P (n) satisfaz a equacao
P (n) = (1

n1
n+1
)P (n 1) + (
)P (n + 1)
N
N

cuja solucao e
N

P (n) = 2

N
n

(5.58)

(5.59)

facil verificar que P (n) satisfaz a condicao de balanceamento detalhado (5.36).


E
Portanto o modelo de Ehrenfest possui reversibilidade microsc
opica.
Antes de determinar P (n), vamos construir a equacao para a evolucao temporal do n
umero medio de bolas na urna A dado por
X =

N
X

nP (n).

(5.60)

n=0

A partir da equacao (5.57), obtemos:


X+1 = X + q(1

2
X ),
N

(5.61)

que deve ser resolvido com a condicao inicial X0 = N. A solucao e


X =

N
2
N
+ (1 q) .
2
2
N

(5.62)

Portanto, X aproxima-se exponencialmente da solucao estcionaria N/2. Escrevendo


N
N
+ e ,
(5.63)
X =
2
2
vemos que = ln(1 2q/N ).
Da mesma maneira, podemos determinar o segundo momento definido por
Y =

N
X

n2 P (n).

(5.64)

n=0

A evolucao temporal do segundo momento e dada por


Y+1 = (1

4
q)Y + 2qX + q
N

(5.65)

que deve ser resolvida com a condicao inicial Y0 = N 2 . Usando a solucao de X ,


obtemos:
N2
N
N2
2
Y =
+
+
(1 q) .
(5.66)
4
4
2
N
A partir dos resultados anteriores obtemos a variancia
B = Y X2 =

N
2
N
(1 q) ,
4
4
N

(5.67)

95

96

Din
amica Estoc
astica e Irreversibilidade

que tambem se aproxima de seu valor estacion


ario N/4 de forma exponencial,
com o mesmo expoente .
Em seguida, vamos obter a solucao detalhada do modelo de Ehrenfest definido pela matriz dada pelas equacoes (5.53), (5.54) e (5.55). Considere a
equacao de autovetores `a direita
N
X

T (m, n)(n) = (m)

(5.68)

n=0

ou ainda
q(1

n1
n+1
)(n 1) + p(n) + q(
)(n + 1) = (n),
N
N

(5.69)

v
alida para n = 0, 1, 2, ..., N , desde que coloquemos (1) = 0 e (N + 1) = 0.
Defina em seguida a funcao f (x) por
f (x) =

N
X

(n)xn

(5.70)

n=0

que e um polin
omio de grau N. Multiplicando ambos os membros da equacao
n
(5.69) por x e somando em n, conclumos que f (x) deve satisfazer a equacao
q(1 x2 )f (x) = N ( p qx)f (x)

(5.71)

f (x) = A(1 + x)N k (1 x)k ,

(5.72)

cuja solucao e
onde A e uma constante e k = N ( 1)/2q.
Como a funcao f (x) deve ser um polin
omio de grau N , segue-se que k tem
que ser um n
umero inteiro maior ou igual a zero e menor ou igual a N. Portanto,
os autovalores s
ao dados por
k = 1

2q
k
N

com

k = 0, 1, 2, ..., N.

(5.73)

A cada autovalor k corresponde um autovetor k cujos elementos s


ao os coeficientes de fk (x), dado por
fk (x) =

N
X

k (n)xn .

(5.74)

n=0

Como o autovetor 0 deve ser identificado com o vetor probabilidade estacionaria P, que est
a normalizado, ent
ao devemos ter f0 (1) = 1 de onde obtemos
N
A = 2 . Assim
fk (x) = 2N (1 + x)N k (1 x)k ,
(5.75)

Cadeias de Markov

que e a funcao geratriz dos autovetores de T. Em particular f0 (x) = 2N (1+x)N


cuja expansao da a distribuicao estacion
aria P (n) mostrada pela equacao (5.59).
Usando as relacoes (5.19) e (5.20) entre os autovetores `a direita k e `a
esquerda k , podemos obter a seguinte relacao:
k (n) = 2N n (k).

(5.76)

Notar a troca entre k e n.


Vamos supor que inicialmente todas as bolas estejam na urna A. Ent
ao,
P0 (n) = nN , de modo que
P (n) =

N
X

T (n, m)P0 (m) = T (n, N )

(5.77)

m=0

ou, usando o teorema espectral (5.24),


P (n) =

N
X

k k (n)k (N ).

(5.78)

k=0

Se quisermos determinar hxn i, multiplicamos essa equacao por xn , somamos em


n e usamos a funcao geratriz. O resultado e
hxn i =

N
X

xn P (n) =

n=0

N
X

k fk (x)k (N ).

(5.79)

k=0

Usando o resultado k (N ) = (1)k (N


cao (5.75), obtemos:
k ) e a equa
hxn i = 2N (1 + x)N +

N
X

k=1

N
k (1)k (N
(1 + x)N k (1 x)k .
k )2

(5.80)

Derivando essa equacao com relacao a x e fazendo x = 1, obtemos


hni =

N
N
N
N
2
+ 1 =
+ (1 q)
2
2
2
2
N

(5.81)

que e o resultado obtido anteriormente. Da mesma forma podemos obter outros


momentos.
Suponha que estejamos no estado estacion
ario e que no instante haja m
bolas na urna A. A probabilidade de haver m 1 bolas na urna A no instante
1 e o mesmo n
umero de bolas no instante + 1 e dada por
P =

n2
T (n 1, n)T (n, n 1)P (n 1)
= 2.
P (n)
N

(5.82)

97

98

Din
amica Estoc
astica e Irreversibilidade

Da mesma forma a probabilidade de haver n 1 bolas na urna A no instante


1 e n + 1 no instante posterior + 1 e dada por
P+ =

T (n + 1, n)T (n, n 1)P (n 1)


n
n
= (1 ).
P (n)
N
N

(5.83)

A probabilidade de haver n + 1 bolas na urna A no instante 1 e n 1 no


instante + 1 e
P+ =

T (n 1, n)T (n, n + 1)P (n + 1)


n
n
= (1 ).
P (n)
N
N

(5.84)

Finalmente, a probabilidade de haver n + 1 bolas na urna A no instante 1 e


o mesmo n
umero de bolas no instante + 1 e dado por
P++ =

n
T (n + 1, n)T (n, n + 1)P (n + 1)
= (1 )2 .
P (n)
N

(5.85)

Portanto, se n for proximo de N, a maior dessas quatro probabilidades sera


P . Isso tem o seguinte significado. Faca uma serie de simulacoes do modelo
de Ehrenfest e coloque num gr
afico o n
umero de bolas na urna A em funcao
do tempo. De todas as curvas que passam por n num determinado instante ,
as de maior freq
uencia s
ao aquelas que no instante anterior 1 e no instante
posterior + 1 passam por n 1, isto e, aquelas que tem a forma de um V
invertido no ponto (, n).

5.8

PASSEIO ALEATORIO

Vamos retomar o problema do passeio aleat


orio introduzido no captulo 2 e
reformu- l
a-lo em termos de uma cadeia de Markov. A cada intervalo de tempo,
uma partcula, que se move ao longo de uma reta, salta uma distancia h para
a esquerda ou para a direita com igual probabilidade. As possveis posicoes da
partcula s
ao x = nh com n = 0, 1, 2, ..., N 1. Para simplificar vamos considerar
condicoes peri
odicas de contorno o que significa que, quando a partcula estiver
na posicao h(N 1), ela podera saltar para o posicao x = 0 e vice-versa. A
probabilidade de transicao T (m, n) de n para m sera T (n1, n) = T (n+1, n) =
1/2 e T (m, n) = 0 em outros casos.
Aqui, entretanto, vamos permitir que a partcula possa permanecer onde
estava com uma certa probabilidade p. Nesse caso ent
ao, a matriz estocastica e
dada por
1
(5.86)
T (n 1, n) = T (n + 1, n) = q
2
e
T (n, n) = p,
(5.87)

Cadeias de Markov

onde q = 1 p. Em outros casos, T (m, n) = 0.


Seja P (n) a probabilidade de a partcula estar na posicao x = nh no instante
. Vamos supor que no instante zero ela esteja no origem de modo que P0 (n) =
n0 . A equacao que da a evolucao de P (n) e dada por
X
P+1 (n) =
T (n, m)P (m).
(5.88)
m

Para o caso que estamos considerando


P+1 (n) =

1
1
qP (n + 1) + pP (n) + qP (n 1),
2
2

(5.89)

onde n = 0, 1, 2, ..., N 1 e usamos condicoes peri


odicas de modo que P (N +
n) = P (n).
A matriz estocastica acima e um exemplo de uma matriz de Toeplitz que s
ao
matrizes cujos elementos de uma determinada diagonal s
ao todos iguais. Isto e,
uma matriz de Toeplitz T possui a propriedade
T (n, m) = f (n m)

(5.90)

onde f (n) e peri


odica: f (n + N ) = f (n). Note que f (n) possui as propriedades
f (n) 0 e
X
f (n) = 1.
(5.91)
n

Para o caso em consideracao, f (1) = f (N 1) = q/2, f (0) = p e zero em outros


casos. A equacao de evolucao de P (n) sera, pois
X
P+1 (n) =
f (n m)P (m).
(5.92)
m

Definindo G (k) como a funcao caracterstica correspondente a P (n), isto


e,

eikn P (n),

(5.93)

G+1 (k) = F (k)G (k),

(5.94)

G (k) =

ent
ao

onde F (k) e a funcao caracterstica de f (n), ou seja


X
F (k) =
eikn f (n).

(5.95)

A partir da equacao (5.94) obtemos


G (k) = [F (k)] G0 (k).

(5.96)

99

100

Din
amica Estoc
astica e Irreversibilidade

Para P0 (n) = n0 , a funcao caracterstica correspondente e G0 (k) = 1 de modo


que
G (k) = [F (k)] .
(5.97)
Para o caso do passeio ale
atorio considerado aqui F (k) = p + q cos k e,
portanto,
G (k) = (p + q cos k) .
(5.98)
A partir de G (k), obtemos P (n).
Qualquer matriz de Toeplitz possui os seguintes autovetores:
1 ikn
2
e ,
k=
j,
j = 0, 1, 2, ..., N 1.
(5.99)
N
N
Para verificar isso, basta subtituir esses autovetores na equac
ao de autovalores
X
T (n, m)k (m) = k k (n).
(5.100)
k (n) =

Levando em conta as propriedades de f (n), obtemos:


X
k =
eikn f (n) = F (k)

(5.101)

ou, para o caso que estamos considerando, k = p + q cos k. Os autovetores `a


esquerda s
ao dados por k (n) = eikn . Dessa forma, temos
P (n) = T (n, 0)

(5.102)

ou, usando o teorema espectral (5.24),


X
1 X ikn
P (n) =
k k (n)k (0) =
k e
N
k

ou ainda

P (n) =

(5.103)

1 X
(p + q cos k) eikn .
N

(5.104)

5.9

RECORRENCIA

Seja R (n, m) a probabilidade de a partcula estar na posicao n, apos intervalos de tempo, dado que ela estava na posicao m no instante inicial e que em
nenhum instante ela tenha estado na posicao n. Em outras palavras, R (n, m)
e a probabilidade de a partcula atingir a posicao n pela primeira vez em intervalos de tempo comecando pela posicao m. De acordo com Kac, existe uma
relacao entre a matriz estocastica T e essa probabilidade dada por
T (n, m) =

X
j=1

Rj (n, m)Tj (n, n),

(5.105)

Cadeias de Markov

v
alida para 1, onde Tj (n, m) = T j (n, m) e a probabilidadede de atingir n
em j intervalos de tempo comecando por m, sendo que T0 (n, m) = (n, m). Essa
relacao pode ser entendida como segue. Comecando do estado m, o estado n
pode ser atingido, em intervalos de tempo, atraves de maneiras mutuamente
excludentes. Cada maneira e rotulada pelo ndice j que indica o n
umero de
passos em que n e atingido pela primeira vez. Assim, a partcula estara em n
apos passos se ela atingir n pela primeira vez em j passos e voltando a n apos
j passos.
Definimos as funcoes geratrizes
g(n, m, z) =

T (n, m)z + (n, m)

(5.106)

=1

h(n, m, z) =

R (n, m)z .

(5.107)

=1

interessante notar que a matriz g(z) cujos elementos s


E
ao g(n, m, z) e igual `a
2 2
inversa da matriz I zT , pois g(z) = I + zT + z T + .... A matriz g(z) tambem
e conhecida como funcao de Green.
Usando a equacao (5.105), obtemos
g(n, m, z) = (n, m) + h(n, m, z)g(n, n, z)
ou ainda
h(n, m, z) =

g(n, m, z) (n, m)
.
g(n, n, z)

Para m = n,
h(n, n, z) = 1

1
.
g(n, n, z)

(5.108)

(5.109)

(5.110)

A probabilidade R(n) de que a partcula volte `a posicao n comecando na


mesma posicao n, e que chamamos de probabilidade de recorrencia do estado
n, sera

X
1
R (n, n) = h(n, n, 1) = 1
R(n) =
.
(5.111)
g(n, n, 1)
=1

importante observar que se g(n, n, 1) diverge ent


E
ao R(n) = 1 e o estado e
recorrente, isto e, a probabilidade de a partcula voltar `a posicao inicial e igual
a um. Caso contrario, essa probabilidade sera menor do que um. No caso em
que R(n) = 1, podemos definir o tempo medio de recorrencia hi por
hi =

X
=1

R (n, n) = lim

z1

d
h(n, n, z).
dz

(5.112)

101

102

Din
amica Estoc
astica e Irreversibilidade

Usando a relacao
T (n, m) =

k k (n)k (m)

(5.113)

obtemos:
g(n, m, z) =

X
k

1
k (n)k (m).
1 zk

Para saber se n e recorrente devemos olhar para


X
1
g(n, n, z) =
k (n)k (n)
1 zk

(5.114)

(5.115)

ou ainda para
g(n, n, z) =

P (n) X
1
+
k (n)k (n),
1z
1 zk

(5.116)

k6=0

pois 0 = 1, 0 (n) = P (n) que e a probabilidade estacion


aria, e 0 (n) = 1.
Enquanto P (n) 6= 0, o que ocorre quando o n
umero de estados for finito
(lembrar do teorema de Perron-Frobenius), devemos ter g(n, n, z) quando
z 1. Da conclumos que R = 1 e o estado n (ou qualquer outro) e sempre
recorrente.
Para valores de z proximos de um, g(n, n, z) e dominada pelo primeiro
termo. Assim para z 1, escrevemos g(n, n, z) = P (n)(1 z)1 de modo
que h(n, n, z) = 1 (1 z)/P (n). Logo hi = 1/P (n). Para o problema do
passeio aleat
orio P (n) = 1/N , todos os estados possuem o mesmo tempo medio
de recorrencia que e igual a N.
Em sequida vamos considerar o caso em que P (n) se anula. Consideraremos
o caso do passeio aleat
orio para o qual P (n) = 1/N. Nesse caso a primeira
parcela se anula e devemos considerar todos os termos da somatoria. A partir
dos autovalores obtidos anteriormente chegamos ao resultado
g(n, m, z) =

1 X eik(nm)
,
N
1 zk

(5.117)

onde k = 2j/N, j = 0, 1, 2, ..., N 1 e k = p + q cos k. Portanto


g(n, n, z) =

1
1 X
.
N
1 zk

(5.118)

Quando N , obtemos a integral


1
g(n, n, z) =
2

1
dk.
1 zk

(5.119)

Cadeias de Markov

E o problema agora e saber se a integral diverge quando z 1, isto e, saber se


a integral
Z
1
1
g(n, n, 1) =
dk
(5.120)
2q
1 cos k

diverge. Para isso, basta saber o comportamento do integrando para pequenos


valores de k. Escrevendo:
Z
Z
Z
Z
1
1
1
1
1
dk =
dk =
dk +
dk (5.121)
2
1 cos k
1 cos k
1 cos k
1 cos k

onde 1, vemos que o integrando da primeira integral pode ser aproximado


por 2/k 2 que possui como integral a funcao 2/k que diverge em k = 0. Logo
R(n) = 1 e qualquer estado e recorrente. Entretanto, o tempo medio de recorrencia e infinito.

5.10

PASSEIO ALEATORIO
MULTIDIMENSIONAL

Vamos considerar inicialmente o caso em que uma partcula se move num plano.
A cada intervalo de tempo, ela pode saltar uma distanica h na direcao leste,
oeste, norte ou sul com igual probabilidade. Denotamos ent
ao a posicao da
partcula pelo vetor r = hn = h(n1 , n2 ). As probabilidades de transicao nao
nulas s
ao dadas por
T (n, m) =

1
q
4

se

n1 = m1 1 ou

n2 = m2 1,

(5.122)

e
T (n, n) = p,

(5.123)

onde estamos usando condicoes peri


odicas de contorno nas duas direcoes. A
funcao f (n) sera pois
f (n) =

1
q,
4

F (k) =

se

|n| = 1

f (0) = p,

(5.124)

1
eikn f (n) = p + q(cos k1 + cos k2 ),
2

(5.125)

de modo que

onde k = (k1 , k2 ). Aqui tambem os autovalores de T s


ao dados por k = F (k)
de modo que g(n, n, 1) para um sistema infinito e dado por
1
g(n, n, 1) =
4 2 q

Z Z

2
dk1 dk2 .
2 cos k1 cos k2

(5.126)

103

104

Din
amica Estoc
astica e Irreversibilidade

Essa integral tambem diverge, pois, repetindo o argumento feito na secao anterior, temos que considerar a integral numa vizinhanca da origem. Nessa vizinhanca |k| 1 e devemos analisar o comportamento da integral
Z
Z Z
1
1
2kdk = 2 ln k.
(5.127)
dk
dk
=
1
2
2
2
k1 + k2
k2
Essa integral diverge de forma logaritma quando k 0. Portanto, no plano,
qualquer estado e recorrente.
Em tres ou mais dimensoes devemos generalizar a integral (5.126) para o
caso de um espaco de d dimensoes. A integral nesse espaco sera
1
g(n, n, 1) =
q(2)d

Z Z

...

d
dk1 dk2 ...dkd
d cos k1 cos k2 ... cos kd

(5.128)
e novamente devemos observar o comportamento proximo de k1 = k2 = ... =
kd = 0. A integral numa vizinhanca ao redor da origem e dada por
Z
Z
1 d1
1
1
dk
dk
...dk
=
c
k
dk = c
k d2 ,
(5.129)
1
2
d
k12 + k22 + ... + kd2
k2
d2
que e finita para d 3. Logo, R < 1, para d 3.
Os resultados acima permitem fazer a seguinte afirmacao devida a P
olya:
em uma e duas dimensoes qualquer estado e recorrente (R = 1), isto e, a
partcula voltar
a ao ponto de partida com probabilidade igual a um; em tres
ou mais dimensoes, entretanto, isso nao ocorre; nesses casos, a probabilidade de
recorrencia e menor do que um (R < 1) e a partcula podera nunca mais voltar
ao ponto de partida.
Em tres dimensoes
Z Z Z
1
3
g(n, n, 1) =
...
dk1 dk2 dk3 . (5.130)
3
q(2)
3 cos k1 cos k2 cos k3

Calculando numericamente a integral,


g(n, n, 1) =

1
1.516386...
q

(5.131)

o que fornece R = 1 0.659462...q < 1, enquanto q > 0. Para q = 1, R =


0.340537....

BIBLIOGRAFIA
Chandrasekhar, S. 1943. Stochastic problems in physics and astronomy.
Rev. Mod. Phys., 15, 1.

Cadeias de Markov

Feller, W. 1950. An Introduction to Probability Theory and its Aplications.


Wiley, London.
Gantmacher, F. R. 1959. Applications of the Theory of Matrices. Interscience
Pub., New York.
Gnedenko, B. V. 1976. The Theory of Probability. Mir Publishers, Moscow.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kac, M. 1947. Random walk and the theory of Brownian motion. American
Mathematical Monthly, 54, 369.
Kac, M. 1959. Probability and Related Topics in Physical Sciences. Interscience
Publishers, New York.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
Kemeny, J. G. & Snell, J. L. 1960. Finite Markov Chains. Van Nostrand,
Princeton.
Montroll, E. W. & Weiss, G. H. 1965. Random walks on lattices. II. J.
Math. Phys., 6, 167.
Nicolis, G & Prigogine, I. 1979. Self-Organization in Nonequilibrium Systems. John Wiley, New York.

EXERCICIOS
1. Uma cadeia e constituda por uma sucess
ao de atomos de tres tipos, A, B,
e C. Nessa cadeia, dois
atomos do mesmo tipo nunca aparecem juntos. Um
atomo do tipo B sucede um do tipo A com probabilidade 1/3 e um atomo

do tipo A sucede um
atomo do tipo B com probabilidade 1/3. Depois
de um
atomo do tipo C sempre vem um atomo do tipo A. Determine
a concentracao de cada tipo de atomo. Determine a fracao dos possveis
pares de
atomos vizinhos.
2. Uma cadeia de Markov e definida pela matriz estocastica T e pelo vetor
probabilidade inicial P0 , dados por

1
0
1/3 1

P0 = 0
T = 1/3 0
0
0
2/3 2/3 0

105

106

Din
amica Estoc
astica e Irreversibilidade

Use o metodo algebrico para determinar o vetor probabilidade P em qualquer instante .


3. Considere uma cadeia de Markov cuja probabilidade e dada por
P (n0 , n1 , n2 , ..., n ) = T (n |n1 )...T (n2 |n1 )T (n1 |n0 )P0 (n0 ),
e defina a entropia da cadeia S ate o instante por
XXX X
P (n0 , n1 , n2 , ..., n ) ln P (n0 , n1 , n2 , ..., n ).
S =
...
n0

n1

n2

Suponha que a matriz estocastica T (n, m) possua uma probabilidade estacion


aria u
nica P (n). Mostre ent
ao que a grandeza S = S /, no limite
, e dada por
XX
S=
T (n, m)P (m) ln T (n, m)
n

inclusive para o caso de matrizes cclicas. Ache o valor de S para o caso


da cadeia definida no exerccio 1 acima. Determine a expressao de S para
o caso em T (n, m) = p(m).

o Mestra
Equac
a

6.1

INTRODUC
AO

Considere a matriz estocastica T (n, m) de uma cadeia de Markov. Suponha que


as transicoes ocorram a cada intervalo de tempo e que a matriz estocastica
seja dada por
T (n, m) = W (n, m),
n 6= m,
(6.1)
e
T (n, n) = 1 (n).

(6.2)

Suponha ainda que seja pequeno de modo que a probabilidade de permanencia


no mesmo estado seja muito proxima da unidade. A propriedade
X
T (m, n) = 1
(6.3)
m

implica

(n) =

W (m, n).

(6.4)

m(6=n)

Vamos examinar em seguida a evolucao da probabilidade P (n) de o sistema


estar no estado n no -esimo intervalo de tempo, que escrevemos na forma
X
P+1 (n) =
T (n, m)P (m) + T (n, n)P (n)
(6.5)
m(6=n)

108

Din
amica Estoc
astica e Irreversibilidade

ou ainda, usando as equacoes (6.1) e (6.2),


X
P+1 (n) =
W (n, m)P (m) + P (n) (n)P (n).

(6.6)

m(6=n)

Definindo a probabilidade do estado n no instante t = por P (n, t) = P (n),


ent
ao
X
P (n, t + ) P (n, t)
=
W (n, m)P (m, t) (n)P (n, t).
(6.7)

m(6=n)

No limite 0, o lado esquerdo se torna a derivada temporal de P (n, t) de


modo que
X
d
P (n, t) =
W (n, m)P (m, t) (n)P (n, t).
(6.8)
dt
m(6=n)

Usando a equacao (6.4), podemos escrever ainda:


X
d
P (n, t) =
{W (n, m)P (m, t) W (m, n)P (n, t)},
dt

(6.9)

m(6=n)

que e a equaca
o mestra. W (n, m) e interpretada como a probabilidade de
transicao de m para n por unidade de tempo, ou ainda, taxa de transica
o de m
para n.
Exemplo 1. O passeio aleat
orio em tempo contnuo e definido como segue.
Um partcula se move ao longo de uma reta. A cada intervalo de tempo curto
t, ela salta uma distancia h para a esquerda ou para a direita com probabilidade t/2. As possveis posicoes da partcula s
ao dadas por x = nh onde
n = 0, 1, 2, ..., N 1. Por conveniencia consideramos condicoes peri
odicas de
contorno. As taxas de transicao W (n, m) s
ao dadas por
W (n, n + 1) = W (n, n 1) =

.
2

(6.10)

As outras taxas de transicao s


ao nulas. A equacao mestra se torna
d

P (n, t) = P (n + 1, t) + P (n 1, t) P (n, t).


dt
2
2

6.2

(6.11)

W
MATRIZ DE EVOLUC
AO

Examinando o lado direito da equacao mestra (6.9), observamos que a somat


oria
se estende somente sobre os estados m diferentes de n. Como o elemento W (n, n)

Equac
ao Mestra

nao participa dessa equacao podemos defini-lo segundo nossa conveniencia. Vamos definir W (n, n) de tal forma que
X

W (m, n) = 0,

(6.12)

(6.13)

isto e,
W (n, n) =

m(6=n)

W (m, n) = (n).

Tendo em vista que, agora, todos os elementos W (n, m) est


ao determinados,
podemos definir a matriz quadrada W , denominada matriz de evolucao, como
aquela cujos elementos s
ao W (n, m). Ela possui as seguintes propriedades: a)
qualquer elemento fora da diagonal e maior ou igual zero,
W (n, m) 0,

n 6= m,

(6.14)

b) a soma dos elementos de uma coluna e nula, equacao (6.12). Esta claro que
os elementos da diagonal devem ser negativos ou nulos. Seja uma matriz
coluna cujos elementos s
ao (n). Ent
ao, usando a equacao (6.13), vemos que
X
m

W (n, m)(m) =

{W (n, m)(m) W (m, n)(n)}.

(6.15)

m(6=n)

Logo a equacao mestra pode ser escrita na forma


X
d
P (n, t) =
W (n, m)P (m, t)
dt
m

(6.16)

d
P (t) = W P (t),
dt

(6.17)

ou ainda

onde P (t) e a matriz coluna cujos elementos s


ao P (n, t).
A solucao formal da equacao (6.17) com a condicao inicial P (n, 0) e dada
por
P (t) = etW P (0),

(6.18)

onde P (0) e a matriz coluna cujos elementos s


ao P (n, 0) e etW e a matriz definida
por
t2
t3
t4
etW = I + tW + W 2 + W 3 + W 4 + ...
(6.19)
2!
3!
4!
sendo I a matriz identidade.

109

110

Din
amica Estoc
astica e Irreversibilidade

Exemplo 2. Considere o caso mais simples possvel de uma sistema com dois
estados n = 1, 2 com matriz de evolucao W dada por
!
/2 /2
W =
.
(6.20)
/2
/2
facil ver que
E
W = ()1 W,

= 1, 2, 3, ...

(6.21)

de modo que
exp{tW } = I +

t W =I +W

t ()1 = I +

=1

=1

1
(1 et )W, (6.22)

onde I e a matriz identidade 2 2. Logo


1
(1 et )W P (0),

(6.23)

1
(1 et ) + et P (1, 0)
2

(6.24)

P (t) = P (0) +
ou, explicitamente,
P (1, t) =
e

1
(1 et ) + et P (2, 0).
(6.25)
2
No limite t temos P (1, t) = P (2, t) = 1/2, independente da condicao
inicial.
P (2, t) =

6.3

COMPORTAMENTO PARA TEMPOS LONGOS

A solucao estacion
aria Pe (n) da equacao mestra e aquela que satisfaz a equacao
X
{W (n, m)Pe (m) W (m, n)Pe (n)} = 0
(6.26)
m(6=n)

ou
W Pe = 0.

(6.27)

Dadas a taxas de transicao, desejamos determinar quais as condicoes para que


essa solucao seja u
nica e para que
lim P (t) = Pe ,

isto e, que P (t) se aproxime da solucao estacion


aria para tempos longos.

(6.28)

Equac
ao Mestra

111

Uma forma de solucionar tal problema e reduzi-lo a um problema de processos markovianos de tempo discreto. Discretizando o tempo em intervalos t,
podemos es- crever a solucao formal (6.18) na forma
P (t) = (etW ) P (0),

(6.29)

onde e tal que t = t. Mas essa equacao pode ser entendida como um
processo markoviano discreto, como visto no captulo 5, cuja matriz estocastica
e
T = etW ,
(6.30)
que tambem pode ser escrita na forma
T = I + tW

(6.31)

para t suficientemente pequeno, onde I e a matriz identidade. Portanto, se


a matriz T satisfizer os requisitos do teorema de Perron-Frobenius, a solucao
estacion
aria sera u
nica e ela sera atingida no limite t para quaisquer
condicoes iniciais.
Usando os resultados da secao 5.3, e tendo em vista a equacao (6.30) ou
(6.31), podemos fazer as seguintes afirmacoes de car
ater geral.
1) A matriz de evolucao W possui um autovalor nulo.
2) A parte real de qualquer autovalor de W e negativo ou nulo.
3) Ao autovalor nulo corresponde um autovetor com componentes nao-negativas.
Se qualquer estado n puder ser atingido a partir de qualquer outro m, ent
ao
podemos afirmar o seguinte:
4) O autovalor nulo e nao degenerado e o autovetor correspondente possui
todas as componentes estritamente positivas. Em outras palavras, o estado
estacion
ario e u
nico e Pe (n) > 0.
5) Todos os outros autovalores possuem parte real estritamente negativa.
6) Quando t a probabilidade P (n, t) converge para Pe (n) qualquer que
seja a condicao inicial P (n, 0).

6.4

ENTROPIA

Uma maneira alternativa de demonstrar a aproximacao ao estado estacion


ario
no limite de tempos longos e construir uma funcao que seja monotonica no
tempo e limitada.
Defina a funcao H(t) por
H(t) =

X
n

Pne f (xn ),

xn (t) =

Pn (t)
,
Pne

(6.32)

112

Din
amica Estoc
astica e Irreversibilidade

onde f (x) e uma funcao diferenciavel, convexa e tal que f (x) 0 o que implica
H(t) 0. Estamos usando a notacao Pn (t) e Pne no lugar de P (n, t) e Pe (n),
respectivamente.
Derivando a funcao H(t), temos
X
dH
dPn
=
f (xn )
dt
dt
n

(6.33)

X
X
dH
e
=
f (xn )
{Wnm xm Pm
Wmn xn Pne }.
dt
n

(6.34)

e, portanto,

m(6=n)

Multiplicando ambos os membros da equacao (6.26) por uma funcao arbitraria


An e somando em n obtemos:
X
X
e
An
{Wnm Pm
Wmn Pne } = 0,
(6.35)
n

m(6=n)

que, somado `
a equacao anterior, resulta em
dH
=
dt

e
{(xm f (xn ) + An )Wnm Pm
(xn f (xn ) + An )Wmn Pne } (6.36)

n,m(n6=m)

ou
dH
=
dt

e
{(xm f (xn ) + An ) (xm f (xm ) + Am )}Wnm Pm
.

(6.37)

n,m(n6=m)

Se escolhermos An = f (xn ) xn f (xn ) obtemos


dH
=
dt

e
{(xm xn )f (xn ) + f (xn ) f (xm )}Wnm Pm
.

(6.38)

n,m(n6=m)

Para uma funcao convexa, a expressao entre chaves e sempre estritamente negativa, exceto quando xm = xn , de modo que dH/dt < 0. No entanto, como
H(t) 0, ela deve decrescer e se aproximar de seu valor mnimo, ou seja, ela
deve se anular quando t , o que ocorre se, para qualquer par n, m tal
que Wnm 6= 0, tenhamos xn () = xm (). Se a matriz de evolucao W for tal
que qualquer estado possa ser atingido a partir de qualquer outro estado ent
ao
xn () deve ter o mesmo valor para todos os possveis valores de n de onde
conclumos que Pn () = Pne .
A escolha f (x) = x ln x x + 1, resulta na funcao H de Boltzmann dada por
H(t) =

X
n

Pn (t) ln

Pn (t)
,
Pne

(6.39)

Equac
ao Mestra

que est
a relacionada com a entropia S(t) atraves de S = kH + C onde k e
C s
ao constantes. A entropia assim definida e, portanto, uma funcao temporal
monotonica crescente.

6.5

METODO
ALGEBRICO

A solucao da equacao mestra pode ser obtida se determinarmos todos os autovetores e autovalores da matriz de evolucao W . Suponha que {k } e {k }
sejam os autovetores `
a esquerda e `a direita, respectivamente; e que {k } sejam
os autovalores correspondentes, isto e,
W k = k k

k W = k k .

(6.40)

Por simplicidade consideramos aqui que os autovalores s


ao nao degenerados. Os
autovetores formam um conjunto completo de modo que
j k = jk

k k = I,

(6.41)

onde I e a matriz identidade.


Notar que o vetor probabilidade estacion
aria Pe e um autovetor com autovalor nulo. Denotando por 0 o autovetor correspodente ao autovalor nulo 0 = 0,
vemos que eles coincidem, 0 = Pe . Alem disso, o correspondente autovetor `a
esquerda 0 e uma matriz linha com todas as componentes iguais `a unidade.
Realmente, a equacao (6.12) pode ser escrita como
X

0 (n)W (n, m) = 0

(6.42)

ou ainda 0 W = 0. A normalizacao de Pe nos da 0 Pe = 1 ou seja 0 0 = 1.


Considere agora a seguinte expansao:
etW = etW I = etW

k k =

ak etk k ,

de onde obtemos:
P (t) =

etk k k

(6.43)

(6.44)

onde ak e um escalar dado por ak = k P (0). Como um dos autovalores e nulo,


podemos escrever ainda:
P (t) = Pe +

k(6=0)

ak etk k ,

(6.45)

113

114

Din
amica Estoc
astica e Irreversibilidade

onde usamos o fato de que a0 = 0 P (0) = 1, pois P (0) est


a normalizado. E
importante observar que, como todos os outros autovalores s
ao estritamente
negativos, segue-se que lim P (t) = Pe quando t .
Exemplo 3. Considere a matriz de evolucao W dada por
"
#
b q
W =
b
q

(6.46)

com b 0 e q 0. Os autovetores e autovalores s


ao dados por
" #
h
i
q
1
0 = 1 1 ,
0 =
,
0 = 0
q+b b

(6.47)

e
1 h
1 =
b
q+b

1 =

"

1
1

1 = (b + q).

(6.48)

Assim, obtemos
etW = et0 0 0 + et1 1 1 ,
ou seja,
tW

1
=
q+b

"

q
b

q
b

et(b+q)
+
q+b

"

b
b

(6.49)
q
q

(6.50)

Para uma probabilidade inicial


P (0) =

"

p1
p2

(6.51)

obtemos:
tW

P (t) = e

1
P (0) =
q+b

"

q
b

et(b+q)
+
(bp1 qp2 )
q+b

"

1
1

(6.52)

que da a probabilidade dos dois estados em cada instante.

6.6

REVERSIBILIDADE MICROSCOPICA

Quando as taxas de transicao W (n, m) forem tais que a probabilidade estacionaria Pe (n) satisfizer a equacao
W (n, m)Pe (m) W (m, n)Pe (n) = 0

(6.53)

Equac
ao Mestra

para quaisquer pares de estados m e n, dizemos que elas obedecem o balanceamento detalhado. Nesse caso dizemos que Pe (n) alem de ser a probabilidade
estacion
aria e tambem a probabilidade de equilbrio termodin
amico. Entretanto, devemos observar que a obediencia ao balanceamento detalhado e uma
propriedade t
ao-somente da matriz de evolucao W . Algumas matrizes, ou seja,
alguns processos, obedecem o balanceamento, outros nao.
A condicao de balanceamento detalhado e equivalente `a reversiblidade microsc
opica. A probabilidade da transicao m n durante um intervalo de tempo
pequeno t, no estado estacion
ario, e igual a (t)W (n, m)Pe (m), enquanto a
probabilidade da transicao reversa n m e igual a (t)W (m, n) Pe (n). Se a
equacao (6.53), for satisfeita ent
ao essas duas probabilidades serao iguais para
quaisquer pares de estados m e n.
Podemos em princpio estabelecer se um determinado processo obedece a
reversibi- lidade microsc
opica sem apelar para a equacao (6.53), isto e, sem
que se saiba, a priori, a probabilidade estacion
aria. Considere tres estados

quaisquer n, n , e n mas distintos. No estado estacion


ario a probabilidade
da ocorrencia da trajet
oria fechada n n n n, em tres intervalos de
tempos consecutivos t, e
tW (n, n )tW (n , n )tW (n , n)Pe (n),

(6.54)

enquanto a probabilidade de ocorrencia da trajet


oria reversa no mesmo intervalo
de tempo e
tW (n, n )tW (n , n )tW (n , n)Pe (n).
(6.55)
Havendo reversibilidade, essas duas probabilidades s
ao iguais, de modo que
W (n, n )W (n , n )W (n , n) = W (n, n )W (n , n )W (n , n),

(6.56)

que e a condicao procurada.


Uma propriedade importante das matrizes de evolucao W que satisfazem o
ba- lanceamento detalhado e que seus autovalores s
ao todos reais. Definindo a
f
matriz W por
f (m, n) = 1 W (m, n)(n),
(6.57)
W
(m)
p
Pe (n), dividimos ambos os membros da equacao (6.53) por
onde (n) =
f e simetrica. Agora, dividindo ambos os membros
(m)(n), concluindo que W
da equacao de autovalores
X
n

W (m, n)k (n) = k k (m)

(6.58)

115

116

Din
amica Estoc
astica e Irreversibilidade

por (m) e usando a equacao (6.57), obtemos:


X
n

f (m, n) k (n) = k k (m) ,


W
(n)
(m)

(6.59)

f possui os mesmos autovalores de W . Os autovetores s


ou seja, W
ao ek com
e
f
componentes k (n) = k (n)/(n). Como W e simetrica e real, seus autovalores
s
ao reais. Logo, os autovalores de W s
ao reais.

6.7

PASSEIO ALEATORIO
GENERALIZADO

Vamos considerar aqui um processo que pode ser entendido como um passeio
aleat
orio ao longo de uma reta, mas com transicoes que dependem da posicao
em que se encontra o passeante. As possveis posicoes ao longo da reta s
ao
dadas por x = hn. A cada intervalo de tempo pequeno t, uma partcula que
esteja na posicao x = hn salta uma distancia h para a direita com probabilidade
(t)an ou para a esquerda com probabilidade (t)bn . As taxas de transicao
Wnm s
ao pois dadas por
Wn+1,n = an

Wn1,n = bn .

(6.60)

As outras taxas de transicao s


ao nulas. A equacao mestra torna-se ent
ao
d
Pn (t) = bn+1 Pn+1 (t) + an1 Pn1 (t) (an + bn )Pn (t).
dt

(6.61)

Quando an e bn forem independentes de n e iguais, recuperamos o passeio


aleat
orio usual do exemplo 1.
Exemplo 4. A versao em tempo contnuo do modelo das urnas de Ehrenfest
possui taxas de transicao dadas por
Wn+1,n = an =

N n
,
N

n = 0, 1, 2, ..., N 1

(6.62)

n
,
n = 1, 2, ..., N 1, N,
N
onde e uma constante positiva. A equacao mestra escreve-se
Wn1,n = bn =

d
n+1
n1
Pn (t) =
Pn+1 (t) + (1
)Pn1 (t) Pn (t).
dt
N
N

(6.63)

(6.64)

Equac
ao Mestra

A evolucao temporal da media hf (n)i de uma funcao da variavel estocastica


n e obtida multiplicando ambos os membros de (6.61) por f (n) e somando sobre
n. Apos rearranjar os termos, obtemos:
d
hf (n)i = h[f (n + 1) f (n)]an i + h[f (n 1) f (n)]bn i.
dt

(6.65)

Como exemplo, podemos considerar os momentos de n. A evolucao temporal


do primeiro momento e
d
hni = han i hbn i,
(6.66)
dt
a do segundo momento e
d 2
hn i = h(2n + 1)an i + h(2n + 1)bn i,
dt

(6.67)

etc. Se as taxas de transicao an ou bn nao forem lineares em n, a equacao para


um determinado momento dependera de momentos de ordem superior.

6.8

REAC
OES
QUIMICAS

Nesta secao estudaremos a cinetica das reacoes qumicas sob o ponto de vista
estocastico. A principal raz
ao dessa abordagem e que as reacoes qumicas s
ao
de natureza estatstica. Em alguns casos, as flutuacoes s
ao pequenas, mas em
outros, elas s
ao grandes o suficiente para justificar um tratamento estocastico.
Uma tratamento detalhado das reacoes qumicas e difcil, de modo que usaremos uma abordagem aproximada. As reacoes qumicas serao descritas por um
modelo tal que as interacoes entre componentes s
o dependam do n
umero delas,
nao dependendo das configuracoes microsc
opicas das moleculas. Dentro desse
modelo, as taxas de reacao serao funcoes apenas dos n
umeros de moleculas de
cada especie envolvida nas reacoes. Um tratamento mais geral, em que se leve
em conta a individualidade das moleculas e sua configuracoes locais, sera objeto
de estudo mais adiante, no Captulo 11.
Vamos considerar inicialmente o caso mais simples da reacao A B com
taxa de reacao k e que corresponde, por exemplo, ao caso do decaimento radiativo. Os estados possveis correspondem ao n
umero n de moleculas do tipo A
onde n = 0, 1, 2, 3, .... A probabilidade de transicao n n 1 num intervalo de
tempo t pequeno e (t)kn de modo que bn = kn e an = 0. A equacao mestra
e pois
d
Pn (t) = k(n + 1)Pn+1 (t) knPn (t)
(6.68)
dt

117

118

Din
amica Estoc
astica e Irreversibilidade

de onde obtemos a evolucao temporal para o primeiro momento, que e o n


umero
medio de moleculas do tipo A:
d
hni = khni
dt

(6.69)

d 2
hn i = 2khn2 i + khni.
dt

(6.70)

e para o segundo momento:

A solucao dessas duas equacoes s


ao
hni = n0 ekt

(6.71)

hn2 i = n0 ekt + (n20 n0 )e2kt

(6.72)

e
com a condicao inicial hni = n0 e hn2 i = n20 . A variancia e dada por
hn2 i hni2 = n0 ekt (1 ekt ).

(6.73)

Em seguida, vamos considerar o caso em que an ou bn nao s


ao lineares em
n. Um exemplo e o modelo de Schlogl, descrito pelo conjunto das reacoes
A+B
2A
A

2A,

(6.74)

A + B,

(6.75)

C,

(6.76)

com taxas de reacao k1 , k2 , e k3 , respectivamente. A primeira e uma reacao


cataltica, a segunda e a sua reversa, e a terceira e uma aniquilacao espont
anea.
Consideramos que as moleculas do tipo B constituem um reservat
orio, o que
significa dizer que as taxas de reacao s
ao independentes do n
umero delas. A
taxa de transicao da primeira reacao, correspondente ao processo n n + 1, e
k1 n; a taxa de transicao da segunda, correspondente ao processo n n 1, e
k2 n2 ; enquanto da terceira, correspondente tambem ao processo n n 1, e
k3 n. Dessa forma vemos que
an = k1 n

bn = k2 n2 + k3 n.

(6.77)

Portanto, a equacao mestra escreve-se


d
Pn (t) = [k2 (n + 1)2 + k3 (n + 1)]Pn+1 (t),
dt
+k1 (n 1)Pn1 (t) (k1 n + k2 n2 + k3 n)Pn (t).

(6.78)

Equac
ao Mestra

A evolucao temporal do primeiro momento e


d
hni = (k1 k3 )hni k2 hn2 i,
dt
a do segundo momento e

(6.79)

d 2
hn i = (k1 + k3 )hni + (2k1 2k3 + k2 )hn2 i 2k2 hn3 i.
(6.80)
dt
Vemos pois que a evolucao temporal de um determinado momento depende
de momentos de ordem superior. Uma maneira de resolver aproximadamente
essas equacoes e fazer um truncamento. O mais simples consiste em fazer a
aproximacao hn2 i = hni2 a qual, inserida na equacao (6.79), nos da a equacao
aproximada
d
hni = (k1 k3 )hni k2 hni2 .
(6.81)
dt
Para k1 6= k3 a solucao e
hni =

k1 k3
.
k2 + C exp{(k1 k3 )t}

(6.82)

onde C e uma constante que deve ser determinada pela condicao inicial.
No limite t obtemos as solucoes estacion
arias
hni = 0,

k1 < k3

(6.83)

k1 k3
,
k1 > k3 .
(6.84)
k2
Assim, no regime estacion
ario o sistema exibe uma transicao de fase de um
regime em que nao ha moleculas do tipo A, quando k1 < k3 , para um regime
em que o n
umero de moleculas e nao nulo, quando k1 > k3 . Em ambos os casos,
hni se aproxima de ser valor estacion
ario de forma exponencial, et/ , com um
tempo de relaxacao dado por
hni =

= |k1 k3 |1 ,

(6.85)

o qual diverge quando k1 k3 .


Quando k1 = k3 a equacao de evolucao para hni se torna
d
hni = k2 hni2
dt
cuja solucao e
hni =

1
k2 t + c

(6.86)

(6.87)

de modo que para tempos longos hni t1 , ou seja, nesse caso, o decaimento
ao estado estacion
ario deixa de ser exponencial e torna-se algebrico.

119

120

Din
amica Estoc
astica e Irreversibilidade

6.9

GERATRIZ
METODO
DA FUNC
AO

Em alguns casos, a equacao mestra (6.61) pode ser resolvida de forma exata
atraves do metodo da funcao geratriz. Vamos ilustrar o metodo considerando
a reacao qumica linear descrita pela equacao mestra (6.68). A funcao geratriz
f (x) e definida por
n

f (x, t) = hx i =

Pn (t)xn ,

n=0

|x| < 1.

(6.88)

A ideia do metodo e construir uma equacao diferencial para f (x, t) a partir da


equacao mestra. Resolvendo essa equacao, a expansao em serie de potencias de
x fornece a distribuicao de probabilidades Pn (t). Alternativamente, podemos
obter os diversos momentos por meio de




f
f
hni = x
,
hn2 i = x x
,
(6.89)
x x=1
x x x=1
etc.
Derivando ambos os membros de (6.88) com relacao ao tempo e usando
(6.68), obtemos:

f (x, t) = k(1 x) f (x, t).


(6.90)
t
x
A solucao dessa equacao e da forma
f (x, t) = (z),

z = (1 x)ekt ,

(6.91)

onde a funcao (z) deve ser determinada pelas condicoes iniciais. Suponha
que no instante t = 0 haja n0 moleculas de modo que f (x, 0) = xn0 . Como
f (x, 0) = (1 x), ent
ao (z) = (1 z)n0 . Logo,
f (x, t) = [1 (1 x)ekt ]n0 .

(6.92)

O momento de ordem pode ser obtido tomando-se a -esima derivada dessa


funcao com relacao a x no ponto x = 0.
Em seguida, vamos considerar o caso correspondentes `as reacoes qumicas
A B e B A. A taxa de transicao da primeira reacao e k1 n, enquanto a
da segunda e simplesmente k2 . Estamos considerando que as moleculas do tipo
B s
ao em n
umero abundante, de modo que elas nao entram na equacao. Nesse
caso temos ent
ao an = k2 e bn = k1 n. Assim, a equacao mestra torna-se
d
Pn (t) = k1 (n + 1)Pn+1 (t) + k2 Pn1 (t) (k2 + k1 n)Pn (t).
dt

(6.93)

Equac
ao Mestra

Usando o mesmo metodo da funcao geratriz, obtemos a equacao

f (x, t) = k1 (1 x) f (x, t) k2 (1 x)f (x, t).


t
x
A solucao e da forma
f (x, t) = h(x)g(x, t),

(6.94)

(6.95)

onde g(x, t) satisfaz a mesma equacao anterior, isto e,


g

g = k1 (1 x)
t
x

(6.96)

e h(x) e solucao de
k1

h
k2 h = 0.
x

(6.97)

Logo
f (x, t) = (z)ex ,

z = (1 x)ek1 t ,

k2
.
k1

(6.98)

Suponha que no instante t = 0 haja n0 moleculas de modo que f (x, 0) = xn0 .


Ent
ao, devemos ter
(6.99)
xn0 = (1 x)ex ,
de onde obtemos:
(z) = (1 z)n0 e(1z) .

(6.100)

Portanto
f (x, t) = [1 (1 x)ek1 t ]n0 exp{(1 x)(1 ek1 t )}.

(6.101)

Quanto t , obtemos:
f (x, ) = exp{(1 x)}
e portanto
f (x, ) = e

X
1 n n
x
n!
n=1

(6.102)

(6.103)

de onde obtemos a probabilidade estacion


aria

e n
.
(6.104)
n!
O primeiro momento hni e igual a` derivada de f (x, t) com relacao a x calculado no ponto x = 1, ou
Pn () =

hni = n0 ek1 t + (1 ek1 t ).

(6.105)

O decaimento exponencial s
o depende da constante k1 . No limite t obtemos hni = = k2 /k1 .

121

122

Din
amica Estoc
astica e Irreversibilidade

6.10

EM SERIE

EXPANSAO
TEMPORAL

Ate aqui estudamos alguns metodos exatos para a solucao da equacao mestra.
O metodo de expansao em serie temporal que apresentaremos a seguir tambem
e exato, desde que todos os termos da serie sejam calculados. Entretanto, em
muitas situacoes e impossvel, do ponto de vista pratico, calcular todos os termos. Se conseguirmos calcular um certo n
umero deles, a serie truncada podera

ser extrapolada. E exatamente dentro desse esprito que a expansao em serie


tem sua aplicacao. Essa abordagem exige que as grandezas relevantes possam
ser desenvolvidas em serie de potencia temporal.
Vimos que a solucao formal da equacao mestra na forma matricial
d
P (t) = W P (t)
dt

(6.106)

para uma condicao inicial P (0), e dada por


P (t) = etW P (0)

(6.107)

ou, de forma explicita,


P (t) = {I + tW +

t2 2 t3 3
W + W + ...}P (0).
2!
3!

Para determinar a expansao temporal da media


X
hF i =
F (n)P (n, t)

(6.108)

(6.109)

de uma funcao F (n), procedemos da seguinte forma: introduzimos inicialmente


a matriz linha , que denominamos vetor ou matriz de referencia, cujos elementos s
ao todos iguais a um, (n) = 1. Ent
ao, o produto matricial P (t) e dado
por
X
X
P (t) =
(n)P (n, t) =
P (n, t) = 1.
(6.110)
n

Uma propriedade importante da matriz de referencia e


W = 0,

(6.111)

que se obtem a partir da propriedade (6.12).


Em seguida definimos uma matriz quadrada F cujos elementos fora da diagonal s
ao nulos e cujos elementos da diagonal s
ao F (n). Com essa definicao, a
media hF i pode ser calculada pela formula
hF i = F P (t),

(6.112)

Equac
ao Mestra

pois
F P (t) =

(n)F (n)P (n, t) =

F (n)P (n, t).

(6.113)

Usando a expansao temporal (6.108) de P (t) em (6.112), obtemos:


hF i = F {I + tW +

t2 2 t3 3
W + W + ...}P (0).
2!
3!

Portanto
hF i = f0 +
onde os coeficientes s
ao dados por

t f ,

(6.114)

(6.115)

=1

f0 = F P (0),

(6.116)

que e a media de F no instante t = 0, e


f =

1
F W P (0),
!

1.

(6.117)

Vamos considerar agora a tranformada de Laplace de P (t) dada por


Z
P (t)ezt dt.
(6.118)
Pb(z) =
0

Usando a expansao temporal (6.108) e tendo em vista a identidade


Z
1 zt
1
t e dt = +1 ,
! 0
z

(6.119)

ent
ao

1
1
1
1
Pb(z) = { I + 2 W + 3 W 2 + 4 W 3 + ...}P (0).
(6.120)
z
z
z
z
Mas a soma entre colchetes identifica-se com a inversa da matriz (zI W ), que
denotamos por (zI W )1 , isto e,
(zI W )1 =

1
1
1
1
I + 2 W + 3 W 2 + 4 W 3 + ...
z
z
z
z

(6.121)

de modo que
Pb(z) = (zI W )1 P (0).

(6.122)

Da mesma forma, podemos obter a transformada de Laplace da media hF i


dada por
Z
hF iezt dt = F Pb(z) = F (zI W )1 P (0),
(6.123)
0

que se obtem usando as equacoes (6.112) e (6.121).

123

124

Din
amica Estoc
astica e Irreversibilidade

Se quisermos obter a probabilidade estacion


aria P () a partir da transforb
mada de Laplace P (z), utilizamos a formula
P () = lim z Pb(z),
z0

que se obtem da seguinte maneira: partindo de


Z
P (t)zezt dt
z Pb(z) =

(6.124)

(6.125)

e, fazendo uma integral por partes,

z Pb(z) = P (0) +

Tomando o limite z 0, temos:

lim z Pb(z) = P (0) +

z0

6.11

P (t)ezt dt.

(6.126)

P (t)dt = P ().

(6.127)

PERTURBATIVA
EXPANSAO

Suponha que desejemos calcular o vetor estacion


ario P correspondente `a matriz
de evolucao W , isto e, queremos obter a solucao de
W P = 0.

(6.128)

Para fazer uma expansao em serie, imaginamos que W possa ser escrito na forma
W = W0 + V,

(6.129)

onde W0 e uma matriz de evolucao nao perturbada e V a perturbacao. Pretendemos obter as propriedades do sistema descrito pelo operador W como series
de potencia em . Supomos conhecidos os conjuntos dos autovetores `a direita
{n }, `
a esquerda {n } e dos autovalores {n } da matriz de evolucao W0 . Eles
satisfazem as equacoes
W0 n = n n

n W0 = n n .

(6.130)

Denotamos por 0 = 0 autovalor nulo de W0 . O correspondente autovetor `a


direita 0 identifica-se com o vetor estacion
ario P0 de W0 , e o vetor `a esquerda
0 identifica-se com o vetor de referencia , ou seja,
0 = P0

0 = .

(6.131)

Equac
ao Mestra

Alem disso, temos as seguintes propriedades:


n n = nn

n n = I,

(6.132)

onde I e a matriz identidade. A partir desses resultados, e facil ver que W0


possui a seguinte expansao:
X

W0 =

n n n ,

(6.133)

n(6=0)

onde o termo n = 0 foi excludo pois 0 = 0. Para isso basta usar a identidade
W0 = W0 I e as propriedades contidas nas expressoes (6.130) e (6.132).
Em seguida, fazemos a hip
otese de que P possa ser desenvolvido em serie de
potencias de , ou seja,
P = P0 + P1 + 2 P2 + 3 P3 + ....

(6.134)

Substituindo em (6.128) e tendo em vista (6.129), obtemos a seguinte equacao:


(W0 + V )(P0 + P1 + 2 P2 + 3 P3 + ...) = 0.

(6.135)

Como os coeficientes das diversas potencias de devem se anular, conclumos


que
W0 P = V P1 ,

1.

(6.136)

Multiplicando ambos os membros da equacao (6.134) por e levando em


conta que P = 1 e que P0 = 0 0 = 1, obtemos mais uma propriedade:
P = 0,

6= 0.

(6.137)

Em seguida, vamos definir a matriz R por


R=

n(6=0)

1
n
n

(6.138)

que possui a seguinte propriedade:


RW0 = W0 R = I 0 0 = I P0 .

(6.139)

Isto e, a matriz R e a matriz inversa de W0 dentro do subspaco cujos vetores


s
ao ortogonais ao vetor 0 . Para verificar essa propriedade, basta multiplicar
a expressao da definicao de R pela expansao de W0 dada por (6.133) e usar a
ortogonalidade (6.132) entre os autovetores de W0 .

125

126

Din
amica Estoc
astica e Irreversibilidade

Multiplicando ambos os membros da equacao (6.136) por R e usando a


propriedade (6.139), temos:
(I P0 )P = V RP1 ,

1.

(6.140)

Mas, de (6.137), P = 0 para 1, de modo


P = RV P1 ,

1.

(6.141)

que e a equacao que fornece P recursivamente. A partir dessa equacao, obtemos:


P = (RV )(RV )...(RV )P0 = (RV ) P0 ,

(6.142)

que da P a partir de P0 . Substituindo na expansao (6.134), obtemos finalmente:


P = P0 +

(RV ) P0 .

(6.143)

=1

Tendo em vista que


(I + RV )1 = I +

(RV )

(6.144)

=1

podemos escrever ainda


P = (I + RV )1 P0 .

(6.145)

hF i = F P

(6.146)

A media hF i dada por

calcula-se usando a expressao (6.143) para P , isto e,


hF i = F P0 +

F (RV ) P0 ,

(6.147)

=1

ou seja,
hF i = f0 +

f ,

(6.148)

=1

onde
f0 = F P0 ,

f = F (RV ) P0 .

(6.149)

Assim, se conseguirmos determinar os coeficientes f , temos o desenvolvimento


da media hF i em potencias de .

Equac
ao Mestra

BIBLIOGRAFIA
Gardiner, C. W. 1983. Handbook of Stochastic Methods for Physics, Chemistry and Natural Sciences. Springer-Verlag, Berlin.
Haken, H. 1976. Synergetics, An Introduction. Springer-Verlag, Berlin.
Kampen, N. G. van 1981. Stochastic Processes in Physics and Chemistry.
North-Holland, Amsterdam.
McQuarrie, D. A. 1967. Stochastic Approach to Chemical Kinetics. J.
Appl. Prob., 4, 413.
Nicolis, G. & Prigogine, I. 1979. Self-Organization in Nonequilibrium Systems. John Wiley, New York.
Risken, H. 1984. The Fokker-Planck Equation: Methods of Solution and Applications. Springer-Verlag, Berlin.
gl, F. 1972. Chemical reaction models for non-equilibrium phase tranSchlo
sitions. Z. Phys., 53, 147.
, T. 1996. Irreversibilidade: Modelos de Rede com Din
Tome
amicas Estoc
asticas.
Tese de Livre-Docencia, Instituto de Fsica, Universidade de Sao Paulo.

EXERCICIOS
1. Uma maneira de resolver numericamente uma equacao de Fokker-Planck
e discretiz
a-la. A discretizacao espacial de uma equacao de Fokker-Planck
resulta numa equacao mestra. Demonstre essa afirmacao para a equacao
de Smoluchowski, apresentada na secao 4.1, usando as seguintes aproximacoes para a primeira e segunda derivadas de uma funcao espacial
F (x):
F (x + x) F (x)
x
e
F (x + x) 2F (x) + F (x x)
.
(x)2
Quanto valem as taxas de transicao, nessa aproximacao?
2. Aplique o metodo do exerccio anterior `a equacao de Kramers correspondente a uma partcula sujeita a uma forca elastica, apresentado no exemplo

127

128

Din
amica Estoc
astica e Irreversibilidade

8 da captulo 4. Calcule numericmente, discretizando o tempo, a distribuicao das posicoes e das velocidades para diversos instantes. Calcule
tambem as distribuicoes estacion
arias. Considere como condicao inicial
que a partcula esteja em repouso na origem do sistema de coordenadas.
3. Use o metodo da funcao geratriz para determinar a solucao da equacao
mestra correspondente ao modelo das urnas de Ehrenfest.
4. Considere as seguintes reacoes:
A+X

2X,

B+X

C,

onde as concentracoes das especies A, B, e C s


ao mantidas constantes por
meio de reservat
orios. Escreva a equacao mestra e a equacao de evolucao
para o valor medio hni do n
umero de moleculas da especie X. Use a
aproximacao mais simples para determinar hni como funcao do tempo e o
valor estacion
ario.
5. O mesmo exerccio anterior para o caso das reacoes

3X,

A + 2X

C.

B+X

Mostre tambem que nesse caso o sistema exibe uma transicao de primeira
ordem.
6. Mostre que a funcao geratriz f (x, t) correspondente `a equacao mestra
(6.61) obedece a equacao diferencial
1

f (x, t) = ( 1)Bf (x, t) + (x 1)Af (x, t),


t
x
onde A e B s
ao dois operadores diferenciais definidos por
Axn = an xn

Bxn = bn xn .

Escreva explicitamente esses operadores para o caso linear an = 1 + 1 n


e bn = 2 + 2 n.
7. Considere a seguinte matriz de evolucao W correspondente a um sistema
com dois estados 1 e 2:
!
b q
W =
,
b
q

Equac
ao Mestra

onde b e a taxa de transicao 1 2 e q e a taxa de transicao 2 1.


Determine as potencias W e a partir dela obtenha as matrizes etW e (zI
W )1 . Determine ent
ao o vetor probabilidade P (t) e sua tranformada de
b
Laplace P (z), usando a condicao inicial
!
p1
P (0) =
.
p2
Determine P () atraves de P () = limz0 z Pb(z).

8. Considere um sistema com dois estados descrito pela matriz de evolucao


do exerccio anterior. Escolhendo
!
!
1 1
0 1
W0 = b
,
V =
,
= q b,
1
1
0 1
determine os autoestados de W0 e a partir dele calcule R. Obtenha ent
ao
a expansao do vetor probabilidade estacion
aria P de W em potencias de
. Em seguida efetue a somatoria.
9. Use a propriedade RW0 = I P0 e a equacao W = W0 + V para
mostrar que P0 = (I + RV )P e assim demonstrar a equacao (6.145).

129

todo de Monte Carlo


Me

7.1

INTRODUC
AO

De acordo com a mec


anica estatstica, as propriedades de um sistema em equlibrio
termodin
amico s
ao obtidas a partir de uma distribuicao de probabilidade P (s),
conhecida a priori, e definida para os possveis estados (microscopicos) s do
sistema. Seja f (s) uma propriedade, isto e, uma funcao de estado. A media hf i
e dada por
X
hf i =
f (s)P (s),
(7.1)
s

onde

1
exp{H(s)}
Z
e Z e a funcao de particao dada por
X
Z=
exp{H(s)}.
P (s) =

(7.2)

(7.3)

O metodo de Monte Carlo fornece uma estimativa para qualquer media hf i


e consiste no seguinte. Suponha que um certo n
umero M de estados seja gerado
de acordo com a probabilidade P (s); ent
ao a media aritmetica
M
1 X
f (si )
M i=1

(7.4)

132

Din
amica Estoc
astica e Irreversibilidade

sera uma estimativa para hf i onde s1 , s2 , ..., sM s


ao os estados gerados. A
estimativa sera tanto melhor quanto maior for o valor de M. Em seguida, devemos resolver o problema de gerar estados com a probabilidade desejada P (s).
A solucao se encontra na construcao de um processo markoviano cuja probabilidade estacion
aria seja P (s). Isto e, devemos construir uma matriz estocastica

T (s, s ) tal que


X
T (s, s )P (s ) = P (s).
(7.5)
s

Esse problema e o inverso do que se apresenta usualmente em processos markovianos. Em geral a matriz T e dada e desejamos determinar P . Aqui P e
dado e desejamos obter T. Em geral podemos ter mais de uma solucao para esse
u
ltimo problema o que e muito conveniente do ponto de vista computacional.
A maneira utilizada para construir a matriz estocastica e fazer uso da condicao
de balanceamento detalhado, isto e, construmos T (s, s ) tal que
T (s, s )P (s ) = T (s , s)P (s).

(7.6)

A equacao (7.5) fica automaticamente satisfeita desde que


X

T (s , s) = 1.

(7.7)

7.2

ALGORITMO DE METROPOLIS

Um dos algoritmos mais utilizados para construir a matriz estocastica e o denominado algoritmo de Metropolis. Para cada estado s definimos um conjunto
V (s) de estados vizinhos a s e adotamos T (s , s) = 0 para o caso em que s nao
pertenca a essa vizinhanca. Isto significa que a transicao de s para estados fora
importante escolher as vizinhancas dos diversos
de sua vizinhanca e proibida. E
estados de modo que se um dado estado s nao pertence `a vizinhanca de um
outro estado s ent
ao s nao pertence `a vizinhanca de s . Por simplicidade todas
as vizinhancas s
ao escolhidas com o mesmo n
umero de estados que denotamos
por N.
Para um estado s que pertenca `a vizinhanca de s, a matriz estocastica e
definida por
T (s , s) =

1
exp{[H(s ) H(s)]},
N

e
T (s , s) =

1
,
N

se

se

H(s ) > H(s),

H(s ) H(s),

(7.8)

(7.9)

Metodo de Monte Carlo

desde que s seja distinto de s. O elemento diagonal e dado por


X
T (s, s) = 1
T (s , s).

(7.10)

s (6=s)

Para mostrar que a condicao de balanceamento detalhado (7.6) est


a satisfeita, considere dois estados s1 e s2 tais que H(s1 ) > H(s2 ). Nesse caso, de
acordo com as equacoes (7.8) e (7.9), temos:
T (s1 , s2 ) =

1
exp{[H(s1 ) H(s2 )]
N

1
.
N

(7.11)

1
exp{H(s2 )}.
Z

(7.12)

T (s2 , s1 ) =

Por outro lado,


P (s1 ) =

1
exp{H(s1 )}
Z

P (s2 ) =

Substituindo esses resultados em (7.6), vemos que a condicao de balanceamento


importante notar que na construcao de T (s , s) nao
(7.6) est
a satisfeita. E
necessitamos de Z, mas t
ao-somente da diferenca entre H(s ) e H(s).
Se as vizinhancas forem escolhidas de forma que qualquer estado puder ser
alcancado a partir de qualquer outro, garantimos que a matriz estocastica sera
regular e, portanto, para suficientemente grande, o estado s sera escolhido
com a probabilidade de equilbrio P (s ).
Computacionalmente, comecamos por um estado qualquer s0 . A partir dele,
ge- ramos uma seq
uencia de estados s1 , s2 , s3 ... da seguinte forma. Suponha que no -esimo instante o estado seja s . No instante seguinte escolhemos
aleatoriamente um estado qualquer da vizinhanca de s . Suponha que o estado
escolhido seja s . Calculamos ent
ao a diferenca H = H(s ) H(s ).
a) Se H 0, ent
ao o novo estado sera de fato s , isto e, s+1 = s.
b) Se H > 0, calculamos p = exp{H} e geramos um n
umero aleat
orio
igualmente distribudo no intervalo [0, 1]. Se p ent
ao s+1 = s , caso
contrario s+1 = s , isto e, o estado nao se altera.
Apos descartar os primeiros D estados, podemos usar os M estados seguintes
para estimar a media hf i de qualquer funcao de estado por
M
1 X
f (s+D ).
M

(7.13)

=1

7.3

OSCILADOR HARMONICO

Como exemplo de aplicacao do metodo de Monte Carlo, vamos considerar aqui


um oscilador qu
antico unidimensional cuja probabilidade de equilbrio e dada

133

134

Din
amica Estoc
astica e Irreversibilidade

por
P (n) =

1
exp{E(n)},
Z

E(n) = n,

n = 0, 1, 2, ...,

(7.14)

onde e uma constante. A vizinhanca do estado n sera composta pelos estados


n + 1 e n 1, com excecao do estado n = 0 que sera tratado mais adiante.
O algoritmo de Metropolis e construdo como segue. Suponha que num certo
instante o estado seja n. No instante seguinte:
a) escolhemos um dos estados n + 1 ou n 1 com igual probabilidade, nesse
caso, 1/2.
b) Se o estado for n + 1, ent
ao H = (n + 1) n = > 0. Esse estado
sera o novo estado com probabilidade exp{}.
c) Se o estado for n 1, ent
ao H = (n 1) n = < 0. E o novo
estado sera n 1.
Assim,

T (n + 1, n) =

1
q
2

(7.15)

T (n 1, n) =

1
,
2

(7.16)

onde q = exp{}. O elemento diagonal e dado por


T (n, n) = 1 T (n + 1, n) T (n 1, n) =

1
p,
2

(7.17)

onde p = 1 q. Essas equacoes s


ao v
alidas para n = 1, 2, 3, ...

Quando n = 0, a vizinhanca sera o estado n = 1. Para que a condicao de


balanceamento detalhada seja satisfeita, devemos ter
T (1, 0)P (0) = T (0, 1)P (1),

de onde obtemos
T (1, 0) =

1
q.
2

(7.18)

(7.19)

Portanto, quando n = 0, o novo estado sera n = 1 com probabilidade q/2. O


estado sera o mesmo com probabilidade 1 q/2, isto e,
1
T (0, 0) = 1 q.
2

(7.20)

As equacoes (7.15), (7.16), (7.17), (7.19) e (7.20) definem a matriz estocastica


T (m, n) que possui como probabilidade de equilbrio P (n) = exp{n}/Z.

Metodo de Monte Carlo

7.4

MODELO DE ISING

bem conhecido que certos materiais magneticos como o ferro possuem uma
E
magnetizacao permanente que desaparece quando o material e aquecido a temperaturas maiores do que a temperatura de Curie. Dizemos que, em temperaturas baixas, o sistema est
a numa fase termodin
amica ordenada e, em altas
temperaturas, numa fase desordenada. A descricao mais simples de tal fenomeno
e dada pelo modelo de Ising.
Considere um reticulado e suponha que em cada ponto do reticulado exista
um atomo magnetico. O estado de um atomo magnetico e caracterizado pela
direcao do momento dipolo magnetico. No modelo de Ising o momento de dipolo
magnetico se encontra na direcao do eixo z ou em direcao contraria a z. Assim,
o momento de dipolo i do i-esimo atomo e dado por
i = i ,

(7.21)

onde e uma constante e a variavel i toma os valores +1 caso o momento


de dipolo aponte na direcao z e 1 em caso contrario. O estado total, ou
configuracao, do sistema fica completamente especificado pelas variaveis 1 , 2 ,
3 , ... , N , onde N e o n
umero total de atomos magneticos. Como cada variavel
toma dois valores, o n
umero total de configuracoes e igual a 2N .
Considere agora dois
atomos vizinhos i e j. Eles podem estar em quatro
estados: em dois deles os dipolos s
ao paralelos entre si e nos outros dois eles s
ao
antiparalelos. Para favorecer o ordenamento ferromagnetico, vamos considerar
que a situacao de menor energia seja aquela em que os dipolos sejam paralelos.
Assim, a energia desses dois
atomos e dada por Ji j onde J > 0 e uma
constante que representa a interacao entre os dipolos magneticos. A energia
total E() correspondente `
a configuracao = (1 , 2 , 3 , ..., N ) sera pois
E() = J

i j ,

(7.22)

(ij)

onde a soma se extende sobre os pares de atomos vizinhos. Se o sistema estiver


sujeito a um campo externo na direcao z, ent
ao a energia ter
a um termo adicional
devido `
a interacao dos dipolos com o campo, isto e,
E() = J

X
(ij)

i j H

i ,

(7.23)

onde H e uma constante proporcional ao campo.


Em equilbrio termodin
anico a uma temperatura T , a probabilidade P ()

135

136

Din
amica Estoc
astica e Irreversibilidade

de encontrar o sistema na configuracao e dada por


P () =

1
exp{E()},
Z

(7.24)

onde = 1/(kB T ), sendo kB a constante de Boltzmann, e Z e a funcao de


particao dada por
X
Z=
exp{E()},
(7.25)

onde a soma se extende sobre todas a 2N configuracoes.


Entre as propriedades termodin
amicas que desejamos calcular est
ao:
a) a magnetizacao media
M = hM ()i,
onde
M () =

i ,

(7.26)

(7.27)

b) a susceptibilidade
X=

1
{h[M ()]2 i M2 },
kB T

(7.28)

c) a energia media
U = hE()i,

(7.29)

d) a capacidade termica
C=

1
{h[E()]2 i U 2 }.
kB T 2

(7.30)

Em seguida, vamos descrever o metodo de Monte Carlo, que usa o algoritmo


de Metropolis, para obter configuracoes com a probabilidade dada por (7.24).
Comecamos por gerar uma configuracao inicial de forma aleat
oria. A partir
dela outras configuracoes s
ao geradas. Suponha que num certo instante a configuracao seja = (1 , 2 , 3 , ..., N ). A proxima configuracao sera escolhida
como segue.
Um
atomo e escolhido ao acaso, digamos, o i-esimo atomo. Considere ent
ao
i
a configuracao = (1 , 2 , 3 , ... , i , ..., N ) em que o momento de dipolo
do
atomo escolhido foi invertido. Calculamos em seguida a diferenca de energia
E = E( i ) E(), que e dada por
X
E = 2Ji {
i+ + H},
(7.31)

onde a soma se estende sobre os atomos vizinhos ao atomo i.

Metodo de Monte Carlo

a) Se E 0, ent
ao a nova configuracao sera i .

b) Se E > 0, ent
ao calculamos p = exp{E} e geramos um n
umero
aleat
orio igualmente distribudo no intervalo [0, 1].
b1) Se p, ent
ao a nova configuracao sera i .

b2) Se > p, a configuracao continuar


a a mesma, isto e, sera .
Usando esse procedimento, iremos gerar uma seq
uencia de configuracoes.
Para cada configuracao calculamos as funcoes de estado desejadas, como por
exemplo, M (), [M ()]2 , E(), e [E()]2 . As estimativas das medias s
ao obtidas
a partir das medias aritmeticas dessas grandezas, depois de descartarmos as
configuracoes iniciais, como mostra a formula (7.13).

7.5

SISTEMA CLASSICO
DE MOLECULAS

Uma subst
ancia simples, como o oxigenio, nitrogenio ou argonio, apresenta tres
fases termodin
amicas, s
olido, lquido ou vapor (ou g
as), de acordo com a pressao
e temperatura em que ela se encontra. Esses tres estados da materia podem ser
previstos teoricamente admitindo-se que as moleculas tenham uma interacao
atrativa quando a distancia entre elas e grande, e repulsiva a curtas distancias.
Para o caso dos gases nobres, a energia de interacao entre duas moleculas separadas por uma distancia r e bem representada pelo potencial de Lennard-Jones
a
a
(r) = {( )12 ( )6 },
r
r

(7.32)

onde e a s
ao dois par
ametros positivos.
Podemos imaginar tambem potenciais de interacao menos realistas como o
potencial de interacao entre esferas rgidas de diametro a dado por
(r) =

,
0,

r < a,
a r,

(7.33)

ou ainda o potencial entre esferas rgidas atrativas dado por

,
(r) =
,

0,

r < a,
a r < b,
b r.

(7.34)

Um sistema de esferas rgidas, entretanto, apresenta somente duas fases termodin


amicas, uma fase s
olida e uma fase fluida. Ja um sistema de esferas atrativas
pode apresentar as tres fases.

137

138

Din
amica Estoc
astica e Irreversibilidade

A energia potencial total E de um conjunto de N moleculas confinadas num


recipiente de volume V e dada por
E=

1X X
(rij ),
2 i

(7.35)

j(6=i)

onde rij = |ri rj | sendo ri a posicao da i-esima molecula. A soma se estende


sobre todos os pares de moleculas. A altas temperaturas as propriedades termodin
amicas s
ao obtidas a partir da mec
anica estatstica classica. De acordo
com essa teoria, a densidade de probabilidade (r1 , r2 , r3 , , ..., rN ) de encontrar
a primeira molecula na posicao r1 , a segunda na posicao r2 etc., independente
de suas velocidades, e dada por
(x) =

1
exp{E(x)},
Q

(7.36)

onde Q e a integral de configuracao que torna normalizado e x denota a colecao


de todas as posicoes das particulas, isto e, x = (r1 , r2 , r3 , ..., rN ).
A partir dessa densidade de probabilidade, pode-se obter qualquer propriedade que possa ser escrita como uma media configuracional, isto e, como media
de funcoes de x. Exemplos de tais funcoes s
ao a propria energia potencial E(x)
e o virial W (x) definido por
W =

1X X
rij F (rij ),
2 i

(7.37)

j(6=i)

onde F (r) = d(r)/dr. Assim, podemos calcular a media da energia potencial,


dada por
Up = hE(x)i,
(7.38)
a variancia da energia potencial, dada por
= h[E(x)]2 i Up2

(7.39)

= hW (x)i.

(7.40)

e a media do virial, dada por

Essas grandezas est


ao relacionadas com a energia interna U , a capacidade
termica a volume constante CV e a pressao p atraves das formulas
U=

d
N kB T + Up ,
2

(7.41)

CV =

d
N kB +
2
kB T 2

(7.42)

Metodo de Monte Carlo

e
P V = N kB T +

,
d

(7.43)

onde d e a dimensao do espaco onde se movem as moleculas.


Em seguida descrevemos o metodo de Monte Carlo, que usa o algoritmo
de Metropolis, para obter configuracoes x = (r1 , r2 , r3 , ..., rN ) com a probabilidade dada por (7.36). Comecamos por gerar uma configuracao inicial de forma
aleat
oria. Num recipiente c
ubico de volume V , escolhemos aleatoriamente N
posicoes onde serao colocadas as N moleculas. A partir dessa configuracao, outras s
ao geradas sucessivamente. Suponha que num certo instante a configuracao
A proxima configuracao sera escolhida como segue.
seja x = (r1 , r2 , r3 , ..., rN ).
Uma molecula e escolhida ao acaso, digamos, a i-esimo molecula. Escolhemos
tambem, de forma aleat
oria, um ponto qualquer dentro de uma vizinhanca de
ri . A vizinhanca pode ser um cubo de um determinado tamanho, centrado em
ri . Considere a configuracao x = (r1 , r2 , r3 , ..., ri , ..., rN ) em que ri denota o
ponto escolhido. Calculamos ent
ao a diferenca de energia E = E(x ) E(x),
que e dada por
X
E =
[(|ri rj |) (|ri rj |)],
(7.44)
j

onde a soma se estende sobre as moleculas, exceto a propria molecula i.


a) Se E 0, ent
ao a nova configuracao sera x . Em outras palavras, a
molecula escolhida e deslocada para a nova posicao ri .
b) Se E > 0, ent
ao calculamos p = exp{E} e geramos um n
umero
aleat
orio igualmente distribudo no intervalo [0, 1].
b1) Se p, ent
ao a nova configuracao sera x , ou seja, a molecula escolhida
e colocada na nova posicao ri .
b2) Se > p, a configuracao continuar
a a mesma, isto e, sera x e a molecula
escolhida permanece na mesma posicao.
Usando esse procedimento, iremos gerar uma seq
uencia de configuracoes.
Para cada configuracao calculamos as funcoes de estado desejadas, como por
exemplo, E(x), [E(x)]2 , e W (x). As estimativas das medias s
ao obtidas a partir das medias aritmeticas dessas grandezas, depois de descartarmos as configuracoes iniciais.
No caso dos potenciais de esferas duras (7.33) e (7.34), se a posicao escolhida
para o deslocamento de uma molecula estiver dentro da esfera de uma outra
molecula, ela nao se deslocar
a.

139

140

Din
amica Estoc
astica e Irreversibilidade

7.6

DE CORRELAC

FUNC
AO
AO

A simulacao numerica de sistemas interagentes, como o modelo de Ising ou um


sistema classico de moleculas, permite o calculo de grandezas macrosc
opicas ou
termo- din
amicas, mas tambem permite o calculo de grandezas microsc
opicas.
Uma delas e a funcao de correlacao que mede a correlacao entre as partculas.
Essa grandeza e fundamental para o conhecimento do estado de agregacao ou
do ordenamento das partculas.
Para um sistema de Ising, definimos a funcao de correlacao G(r) por
G(r) =

1 X
hr r +r i.
N

(7.45)

Dada uma configuracao de spins, gerada pela simulacao, essa funcao e obtida da
seguinte forma. Para cada par de spins separados por um vetor r, somamos +1
se os dois spins do par forem de mesmo sinal e 1 se forem de sinais contrarios.
O resultado da soma deve ser multiplicado por 2 e dividido por N . Para grandes
separacoes, a correlacao hr r +r i se aproxima de hr ihr +r i = (M/N )2 de
modo que G() = (M/N )2 .
facil mostrar que a susceptibilidade por stio = X/N se relaciona com a
E
funcao de correlacao G(r) por
=

1 X
{G(r) G()}.
kB T r

(7.46)

Para sistemas moleculares a funcao de correlacao radial G(r) e definida por


G(r) =

1 XX
h(rij r)i.
N i

(7.47)

j(6=i)

Dada uma configuracao de moleculas, ela e determinada da seguinte forma.


Fixamos um intervalo r. Para uma certa molecula i, determinamos o n
umero
ni de outras moleculas que est
ao a uma distancia entre r r/2 e r + r/2
dela. Fazemos o mesmo para todas as moleculas. A funcao distribuicao radial
P
sera dada por ( i ni )/(N r). Alternativamente, podemos contar quantos
pares de moleculas possuem distancia entre as moleculas do par entre r r/2
e r + r/2. A funcao distribuicao sera igual a esse n
umero multiplicado por 2
e dividido por N .
A partir da funcao de correlacao, pode-se obter as grandezas Up e dadas
por
Z
N
Up =
(r)G(r)dr
(7.48)
2

Metodo de Monte Carlo

N
=
2

rF (r)G(r)dr.

(7.49)

BIBLIOGRAFIA
Allen, M. P. & Tildesley, D. J. 1987. Computer Simulation of Liquids.
Clarendon Press.
Binder, K. (ed.), 1986. Monte Carlo Method in Statistical Physics. 2. ed.
Springer-Verlag, Berlin.
Binder, K. & Heermann, D. H. 1992. Monte Carlo Simulation in Statistical
Physics. 2. ed. Springer-Verlag, Berlin.
Hammersley, J. M. & Handscomb, D. C. 1964. Monte Carlo Methods.
Chapman and Hall, London.
Heermann, D. W. 1990. Computer Simulation Methods in Theoretical Physics.
2. ed. Springer-Verlag, Berlin.
Metropolis, N.; Rosenbluth, A. W.; Rosenbluth, M. N.; Teller, A. H.
& Teller, E. 1953. Equation of state calculations by fast computing
machines. J. Chem. Phys., 21, 1087.
Mouritsen, O. G. 1984. Computer Studies of Phase Transitions and Critical
Phenomena. Springer-Verlag, Berlin.
Oliveira, M. J. de 1996. Numerical stochastic methods in statistical mechanics. Int. J. Mod. Phys., 10, 1313.
, T. 1996. Irreversibilidade: Modelos de Rede com Din
Tome
amicas Estoc
asticas.
Tese de Livre-Docencia, Instituto de Fsica, Universidade de Sao Paulo.
Wood, W. W. & Jacobson, J. D. 1957. Preliminary results from a recalculation of the Monte Carlo equation of state of hard spheres. J. Chem.
Phys., 27, 1207.

EXERCICIOS
1. Simule o oscilador harmonico de acordo com as probabilidades de transicao
apresentadas na secao 7.3. Determine numericamente P (n) e compare com
a expressao exata.

141

142

Din
amica Estoc
astica e Irreversibilidade

2. Construa uma cadeia de Markov cuja probabilidade estacion


aria P () seja
proporcional a (2 + 1) exp{a( + 1)}. A partir das probabilidades
de transicao, faca a simulacao numerica para determinar numericamente
P ().
3. Use o algoritmo de Metropolis para simular o modelo de Ising unidimensional cuja energia e dada por
E() = J

N
X

+1 ,

=1

com condicoes peri


odicas de contorno. Determine a energia media, a capacidade termica e a susceptibilidade. Faca um gr
afico dessas grandezas
como funcao da temperatura e compare com as expressoes exatas. Use
como condicao inicial uma configuracao aleat
oria de spins.
4. Use o algoritmo de Metropolis para simular o modelo de Ising definido
numa rede quadrada com L L = N stios e com condicoes peri
odicas de
contorno. Calcule as grandezas
m=

1
h|M ()|i
N

1
{h[M ()]2 i h|M ()|i2 }
N

e faca um gr
afico delas como funcao da temperatura para L = 4, 8, 16 e
32.
5. Considere um g
as de N esferas rgidas de diametro a confinadas num recipiente c
ubico de volume V . Use o metodo de Monte Carlo para determinar
a funcao de correlacao radial G(r). A partir dela, determine a pressao p
que no caso de esferas duras est
a relacionada com a funcao de correlacao
por
a
pV
= 1 + G(a),
N kB T
2d
onde d = 3. Notar que G(a) e a altura do primeiro pico da funcao de
correlacao radial em r = a.
6. O mesmo problema anterior mas para o caso de N discos rgidos de
diametro a confinados numa superfcie quadrada de area A (d = 2).
7. O mesmo problema anterior mas para um sistema unidimensional (d =
1) de N bast
oes rgidos de comprimento a confinados num segmento de
comprimento L.

Metodo de Monte Carlo

8. Simule um g
as de esferas duras atrativas. Calcule a funcao distribuicao
radial e a pressao.
9. Simule um g
as de partculas interagindo com o potencial de LennardJones. Calcule a energia media e a capacidade termica.

143

es de Fase e Criticalidade
Transic
o

8.1

INTRODUC
AO

A agua, quando aquecida a pressao constante, entra em ebulicao a uma temperatura bem definida, transformando-se em vapor. Para cada valor da pressao a
que est
a submetida a
agua, corresponde uma temperatura de transicao. Num diagrama temperatura-pressao, a transicao lquido-vapor e representada por uma
linha que possui uma inclinacao positiva, pois a temperatura de transicao cresce
com o aumento da pressao. Sobre a linha de transicao o lquido e o vapor coexistem em quaisquer proporcoes. Entretanto, o lquido e o vapor apresentam
densidades bem definidas que dependem apenas da temperatura de transicao.
` medida que aumentamos a temperatura ao longo da linha de coexistencia, as
A
diferencas entre as densidades do lquido e do vapor se tornam cada vez menores
e acabam se anulando num ponto crtico caracterizado por uma temperatura e
uma pressao bem definidas. Nesse ponto, o lquido e o vapor tornam-se indistintos e a linha de coexistecnia tem seu termino. A temperaturas mais altas,
nao ha mais distincao entre a fase lquida e a fase gasosa.
Outros tipos de transicao de fase ocorrem em fsica da materia condensada.
Uma subst
ancia ferromagnetica, quando aquecida, perde sua imantacao a uma
temperatura bem definida, denominada temperatura de Curie, tornando-se pa-

146

Din
amica Estoc
astica e Irreversibilidade

ramagnetica. Nessa fase paramagnetica a subst


ancia s
o adquire magnetizacao se
aplicarmos um campo magnetico. Quando o campo e retirado, a magnetizacao
se anula. Na fase ferromagnetica, ao contrario, uma magnetizacao permanece
mesmo depois de se retirar o campo magnetico.
A liga metalica zinco-cobre sofre uma transicao ordem-desordem com a variacao da temperatura. Imagine que a estrutura cristalina da liga metalica
seja composta por duas redes entrelacadas que denominaremos de subrede A e
subrede B. A temperaturas baixas, os atomos de cobre se localizam preferencialmente em umas das subredes, enquanto os atomos de zinco se localizam preferencialmente na outra subrede. A temperaturas altas, entretanto, um atomo
de zinco, ou de cobre, pode ser encontrado em qualquer subrede com igual probabilidade. Aumentando-se a temperatura, a liga passa de uma fase ordenada
para uma fase desordenada ao se atingir a temperatura crtica. Abaixo da temperatura crtica, podem ocorrer dois estados ordenados. Em um deles os atomos
de zinco se localizam com maior probabilidade na subrede A (e o cobre em B),
e no outro, em B (e o cobre em A). A simetria e maior na fase desordenada e
menor na fase ordenada de modo que, na temperatura crtica, ha uma quebra
espont
anea de simetria.
Para a descricao das transicoes de fase, e importante introduzir-se a nocao
de par
ametro de ordem cuja propriedade mais importante e assumir o valor nulo
na fase desordenada ou na de maior simetria e o valor nao nulo na fase ordenada
ou na de menor simetria. No caso da transicao lquido-vapor, podemos definilo como a diferenca entre a densidade do lquido e do vapor em coexistencia.
Em sistemas que apresentam ferromagnetismo, o par
ametro de ordem e simplesmente a magnetizacao do sistema, denominada espont
anea ou remanente.
Na liga metalica discutida acima, podemos defini-la como a diferenca da densidade do zinco nas duas subredes. Em todos os tres sistemas discutidos acima, o
par
ametro de ordem se anula para temperaturas acima da temperatura crtica.

8.2

QUEBRA ESPONTANEA
DE SIMETRIA

importante entender de que maneira, do ponto de vista matematico, ocorre


E
uma transicao de fase e como surge uma quebra espont
anea de simetria em
um sistema descrito por um processo estocastico. Uma quebra espont
anea de
simetria e a conseq
uente transicao de fase, como a de ordem-desordem descrita
na secao anterior, ocorrem quando, ao variarmos um par
ametro externo (e. g.,
a temperatura), o sistema passa de uma fase desordenada para uma fase ordenada, caracterizada por dois estados ordenados. O surgimento de dois estados

Transic
oes de Fase e Criticalidade

ordenados assinala a ocorrencia da quebra espont


anea de simetria e est
a relacionado com a existencia de mais de um estado estacion
ario. Devemos examinar
ent
ao quais s
ao as condicoes para que um processo estocastico possa ter mais
de um estado estacion
ario.
Se um processo estocastico, regido por uma equacao mestra, encerrar um
n
umero finito de estados e se qualquer estado puder ser alcancado a partir
de qualquer outro, nao haver
a quebra espont
anea de simetria. Basta aplicar o
teorema de Perron-Frobenius `
a matriz de evolucao correspondente para concluir
que ha um u
nico estado estacion
ario. Assim, enquanto o n
umero de estados
for finito, ha apenas um estado estacion
ario e, portanto, nao e possvel haver
transicao de fases. Para a ocorrencia de uma transicao de fase, ou melhor, para
haver mais de um estado estacion
ario, e necessario, embora nao suficiente, que
o n
umero de estados seja infinito.
Para ilustrar essa ideia, vamos examinar um modelo simples que descreve
qualitativamente a liga metalica mencionda na secao anterior. Considere uma
rede cristalina composta por duas subredes A e B e suponha que a liga seja
constituda por N
atomos de zinco e um n
umero igual de atomos de cobre.
A intervalos regulares de tempo, um atomo de zinco e escolhido ao acaso e e
trocado com um
atomo de cobre que esteja num stio de outra subrede. Se no
instante inicial todos os
atomos de zinco estiverem em uma subrede, depois de
algum tempo, as duas subredes acabarao tendo o mesmo n
umero de atomos de
zinco, em media, o que caracteriza o estado desordenado. Portanto, no regime
estacion
ario, a liga metalica se encontrar
a no estado desordenado.
O modelo assim definido e semelhante ao modelo das urnas de Ehrenfest
visto no captulo 5. Vimos l
a que a probabilidade estacion
aria se identifica com
a distribuicao binomial. No presente caso, portanto, a probabilidade de que a
subrede A tenha n
atomos de zinco e dada por
Pn =

1 N
( ).
2N n

(8.1)

Essa distribuicao possui um maximo quando a subrede A tiver a metade dos


atomos de zinco. Quando N for grande, a distribuicao se aproxima de uma
gaussiana. A presenca de um u
nico pico na distribuicao de probabilidades indica
que o sistema apresenta uma u
nica fase termodin
amica, nesse caso uma fase
desordenada.
Vamos agora modificar esse modelo para que a distribuicao estacion
aria
possa vir a ter dois maximos no lugar de um u
nico. A intervalos regulares
de tempo, escolhemos um
atomo de zinco ao acaso e em seguida verificamos
em que subrede ele se encontra. Se estiver na subrede que possui um n
umero

147

148

Din
amica Estoc
astica e Irreversibilidade

menor de
atomos de zinco, ele e trocado com um atomo de cobre que esteja
em outra subrede. Se entretanto, pertencer `a subrede com um n
umero maior
de
atomos de zinco, essa troca e realizada com uma probabilidade p. Se p for
pequeno, esperamos que haja um ac
umulo de atomos de zinco na subrede que
inicialmente tenha mais atomos de zinco.
Seja n o n
umero de atomos de zinco na subrede A. De acordo com as regras
acima, a taxa de transicao Wn ,n de n n e dada por
n
,
N

N
,
2

(8.2)

n
p,
N

n>

N
,
2

(8.3)

Wn1,n =
Wn1,n =
e
Wn+1,n =

N n
p,
N

n<

N
,
2

(8.4)

N
N n
,
n ,
(8.5)
N
2
onde 0 p 1. A taxa de transicao vale zero em outros casos. Notar que
a taxa de transicao possui a propriedade simetrica WN n ,N n = Wn ,n , isto
e, ela e invariante pela mudanca n N n e n N n . O processo e
governado pela equacao mestra
Wn+1,n =

d
Pn = Wn,n+1 Pn+1 + Wn,n1 Pn1 Wn+1,n Pn Wn1,n Pn .
dt

(8.6)

Pode-se verificar que a probabilidade estacion


aria e
Pn =

N
1 N
(n ) exp{C|n |},
Z
2

(8.7)

onde Z e uma constante de normalizacao e a constante C est


a relacionada com
p atraves de
p = eC .

(8.8)

Notar que a distribuicao de probabilidade possui a simetria PN n = Pn , isto e,


ela e invariante pela transformacao n N n.
Se p = 1, a distribuicao estacion
aria possui um u
nico maximo que ocorre em
n = N/2, pois nesse caso recamos no modelo de Ehrenfest examinado acima.
Se p < 1, entretanto, a distribuicao de probabilidade estacion
aria possui dois
maximos o que pode ser verificado mais facilmente se examinarmos o caso em
que N e n s
ao muito grandes. Para isso e conveniente considerar a distribuicao
de probabilidades (x) da variavel x = n/N que da a concentracao de atomos

Transic
oes de Fase e Criticalidade

de zinco na subrede A. Usando a formula de Stirling e tendo em vista que


(x) = N Pn , obtemos:
s
1
2N
(x) =
exp{N f (x)},
(8.9)
Z x(1 x)
onde

1
f (x) = x ln x + (1 x) ln(1 x) C|x |.
2
Essa funcao possui mnimos em x = x+ e x = x onde
x+ =

1
,
1+p

x =

p
,
1+p

(8.10)

(8.11)

o que significa que (x) possui maximos nesses mesmos pontos.


Alguns pontos devem ser destacados. Primeiro, a distancia entre os maximos,
dada por
1p
,
(8.12)
x+ x =
1+p
se anula, quando p 1. Quando p = 1, vimos que a distribuicao de probabilidade possui um u
nico maximo em n = N/2 ou x = 1/2. Portanto, temos dois
regimes: um caracterizado por dois maximos, enquanto p < 1, e outro por um
u
nico quando p = 1. Ao redor de x = x+ e de x = x , a distribuicao de probabilidades (x) possui a forma de uma gaussiana cuja largura e proporcional
p
a p/N .
Segundo, no limite em que N (n
umero infinito de estados) e para p < 1,
a altura dos maximos cresce sem limites enquanto que o valor da distribuicao de
probabi- lidades em x = 1/2 se anula. Portanto, nesse limite a distribuicao de
probabilidades da v
ariavel x e caracterizada por dois deltas de Dirac localizados
simetricamente em x = x+ e x = x . Isso significa que, no limite N , o
sistema exibe dois estados estacion
arios. Dependendo da condicao inicial, o
sistema pode atingir um ou outro estado.
Para entender de que maneira o sistema podera atingir um dos dois estados
estacion
arios e portanto apresentar a quebra espont
anea de simetria, vamos
examinar um sistema com N muito grande. Suponha que o processo estocastico
seja simulado numericamente a partir de uma condicao inicial em que a subrede
A esteja repleta de
atomos de zinco. Durante um certo intervalo de tempo, que
denotamos por , a concentracao de atomos de zinco em A flutuar
a em torno
de x+ = 1/(1 + p) com um dispersao proporcional a p/N . O intervalo de tempo
sera tanto maior quanto maior for N . Quando N , a dispersao se anula
de modo que a subrede A sempre ter
a um n
umero maior de atomos de zinco

149

150

Din
amica Estoc
astica e Irreversibilidade

do que a subrede B. Nesse caso e temos uma quebra espont


anea de
simetria.
importante notar ainda que a simulacao numerica de um tal modelo, ou de
E
outros modelos semelhantes, deve apresentar uma distribuicao de probabilidades
simetrica ja que as simulacoes s
ao realizadas com N finito. Entretanto, pelo
fato de o tempo de observacao em simulacoes numericas nao ser infinito existe
a possibilidade de que a distribuicao de probabilidade nao seja simetrica se N
for suficientemente grande. Em outras palavras, o fato de N ser finito, embora
grande, fica compensado por um tempo finito de observacao o que acarreta uma
distribuicao assimetrica para x.
O par
ametro de ordem m desse modelo e definido como diferenca entre as
concentracoes x+ e x dos dois estados ordenados, ou seja,
m=

1p
.
1+p

(8.13)

Assim, na fase ordenada, m 6= 0, enquanto que na fase desordenada, m = 0.

8.3

MODELO CINETICO
DE BRAGG-WILLIAMS

No modelo introduzido na secao anterior, a probabilidade de transferencia de


um
atomo de zinco para a outra subrede nao leva em conta o n
umero de atomos
de zinco presentes em cada subrede. No presente modelo, se o atomo de zinco
escolhido estiver na subrede que possui um n
umero menor de atomos de zinco,
ele e transferido para a outra subrede. Se entretanto, ele estiver na subrede com
um n
umero maior de atomos de zinco, ele e transferido `a outra subrede com
uma probabilidade que e tanto maior quanto menor for o n
umero de atomos de
zinco na subrede em que o atomo se encontra.
De acordo com essas consideracoes, as taxas de transicao do modelo s
ao
dadas por
n
N
Wn1,n = ,
n ,
(8.14)
N
2
N
n
n> ,
(8.15)
Wn1,n = pn ,
N
2
e
N n
N
Wn+1,n =
pN n ,
n< ,
(8.16)
N
2
N
N n
,
n ,
(8.17)
Wn+1,n =
N
2
onde n e o n
umero de atomos de zinco na subrede A e pn pode ser entendido
como a probabilidade de transferencia de um atomo de zinco da subrede A para
a subrede B. A taxa de transicao vale zero em outros casos.

Transic
oes de Fase e Criticalidade

A dependencia de pn com n sera escolhida de tal forma que a probabilidade


estacion
aria Pn correspondente ao processo estocastico definido pelas taxas de
transicao acima seja
Pn =

K
N
1 N
( ) exp{
(n )2 },
Z n
2N
2

(8.18)

que e a distribuicao de probabilidade correspondente ao modelo de equilbrio


denominado modelo de Bragg-Williams, onde a constante K e proporcional ao
inverso da temperatura absoluta. Podemos verificar que a escolha deve ser
pn = exp{

K
(2n N 1)}.
2N

(8.19)

A probabilidade estacion
aria (8.18) possui dois maximos enquanto o par
ametro
K for maior do que um certo valor crtico Kc e um u
nico em caso contrario.
Para determinar o valor crtico Kc , vamos examinar a distribuicao de probabilidades Pn para o caso em que N e muito grande. Novamente, vamos considerar
a distribuicao de probabilidades (x) da variavel x que da a concentracao de
atomos de zinco na subrede A. Usando a formula de Stirling, obtemos:
s
2N
1
exp{N f (x)},
(8.20)
(x) =
Z x(1 x)
onde

K
1
(x )2 .
(8.21)
2
2
Os maximos locais de (x) ocorrem nos mnimos locais de f (x).
Para analisar o comportamento da funcao f (x), determinamos suas derivadas, dadas por
1
(8.22)
f (x) = ln x ln(1 x) K(x ),
2
e
1
1
f (x) = +
K.
(8.23)
x 1x
Como f (1/2) = 0 e f (1/2) = 4 K, ent
ao a funcao f (x) possui um mnimo
em x = 1/2 enquanto K < 4. O mnimo e absoluto, pois f (x) > 0 para K < 4.
Quando K > 4, a funcao f (x) passa a ter um maximo local em x = 1/2,
e desenvolve dois mnimos que se localizam de forma simetrica em relacao a
x = 1/2. Portanto, a distribuicao de probabilidades estacion
aria (x) possui
4
um u
nico maximo para K Kc = 4 (b bc = e ) e dois maximos para
K > Kc (b < bc ).
Esses dois mnimos s
ao solucoes de f (x) = 0. Quando K se aproxima do
valor crtico Kc , esses mnimos se localizam proximo de x = 1/2. Portanto, para
f (x) = x ln x + (1 x) ln(1 x)

151

152

Din
amica Estoc
astica e Irreversibilidade

determinar os mnimos para valores de K proximos do valor crtico, fazemos uma


expansao de f (x) em torno de x = 1/2 ate termos da ordem de (x 1/2)3 , isto
e,
1
4
1
f (x) = (4 K)(x ) + (x )3 .
(8.24)
2
3
2
Os mnimo ocorrem para
r
1
3
(K 4).
(8.25)
x =
2
4
O par
ametro de ordem m e definido da mesma maneira como foi feito na secao
anterior de modo que m = x+ x , ou seja,
p
m = 3(K Kc ),
Kc = 4.
(8.26)

Para K Kc o par
ametro de ordem se anula.
Um sistema descrito pelo modelo cinetico de Bragg-Williams apresenta, portanto, uma quebra espont
anea de simetria e uma transicao de fase quando o
par
ametro externo K atinge seu valor crtico Kc . Quando K Kc ha um u
nico
estado estacion
ario correspondente a uma fase desordenada. Quando K > Kc
ha dois estados estacion
arios correspondentes a fases ordenadas.

8.4

TEORIA CINETICA
DE LANDAU

Vamos estudar um sistema que sofre uma quebra espont


anea de simetria e
uma conseq
uente transicao de fase associada a um par
ametro de ordem m.
A transicao e induzida por um par
ametro externo p tal que, acima de um valor
crtico pc , o estado estacion
ario e desordenado (m = 0) e que, abaixo desse
valor, o estado estacion
ario e ordenado (m 6= 0).
Suponha que esse sistema seja descrito por uma distribuicao de probabilidades cuja evolucao temporal seja governada por uma equacao mestra. Suponha,
ainda, que o sistema seja definido num reticulado e que a cada ponto r esteja associado uma variavel estocastica r cuja media hr i se identifique com o
par
ametro de ordem m. Podemos imaginar um cristal magnetico tal que o momento magnetico de cada stio do cristal seja proporcional `a variavel r . Dessa
forma o par
ametro de ordem m pode ser identificado como uma grandeza proporcional `
a magnetizacao do sistema magnetico. Tendo em vista que a equacao
mestra e uma equacao diferencial de primeira ordem no tempo, segue-se que a
evolucao temporal de m e da foma dm/dt = f onde f e uma funcao nao s
o de
m = hr i mas tambem de outros momentos, tais como hr i, hr r i, hr r r i
etc.

Transic
oes de Fase e Criticalidade

Na teoria de Landau, a simetria possui um papel fundamental de modo


que ima- ginamos que o sistema seja invariante por determinadas operacoes de
simetria. Como o sistema e descrito por uma equacao mestra, isso implica que
as taxas de transicao devem ser invariantes pelas mesmas operacoes de simetria.
Essa invariancia nos leva a admitir que a funcao f deve se transformar, sob uma
operacao de simetria, da mesma maneira que m. Aqui vamos examinar apenas o
caso em que o sistema seja invariante pela ope- racao de inversao r r , que
significa trocar o sinal de todas as variaveis estocasticas. Sob essa operacao de
simetria, o par
ametro de ordem m se modifica de acordo com a transformacao
m m. A funcao f se modifica da mesma maneira, isto e, de acordo com a
transformacao f f .
Vamos admitir, de forma aproximada, que f seja funcao somente de m de
modo que
d
m = f (m).
(8.27)
dt
Aplicando a operacao de inversao em ambos os lados dessa equacao, temos
d
(m) = f (m).
dt
Comparando as equacao (8.27) e (8.28), vemos que
f (m) = f (m).

(8.28)

(8.29)

Supondo, em analogia com a teoria original de Landau, que f (m) possa ser
desenvolvida em serie de potencias de m, ent
ao a expansao s
o deve ter potencias
impares, ou seja,
f (m) = c1 m + c3 m3 + c5 m5 + ....
(8.30)
A solucao da equacao (8.27) pode ser feita explicitamente para o caso em que
f (m) pode ser aproximada pelos primeiros termos da expansao. Dessa forma
consideramos a seguinte equacao de evolucao para o par
ametro de ordem:
d
(8.31)
m = am bm3 ,
dt
onde a e b s
ao dois par
ametros dependentes de p, sendo que b e estritamente
positivo para que m seja limitado e a podendo ser positivo, negativo ou nulo.
Multiplicando ambos os lados de (8.31) por m chegamos `a equacao
1 d 2
m = am2 bm4 ,
2 dt

(8.32)

que pode ser entendida como uma equacao diferencial em m2 . A solucao de


(8.32), para o caso em que a 6= 0, e
a
m2 = 2at
,
(8.33)
ce b

153

154

Din
amica Estoc
astica e Irreversibilidade

onde c e uma constante que deve ser determinada a partir da condicao inicial.
Quando t obtemos solucoes distintas dependendo do sinal do par
ametro
a. Se a > 0 ent
ao m 0, que corresponde ao estado desordenado. Se a < 0
p
ent
ao m m onde m = |a|/b, que corresponde ao estado ordenado. De
posse desses resultados, podemos admitir que a depende de p de acordo com
a = A(p pc ), para valores de p proximo de pc , onde A > 0. Dessa forma,
quando p estiver acima de seu valor crtico, o estado estacion
ario sera desordenado, m = 0; e abaixo desse valor, ordenado, m 6= 0. O par
ametro de ordem se
comporta portanto como
m (pc p)1/2 .
(8.34)
Quando p > pc (a > 0) vemos, a partir da solucao (8.33), que, para tempos
longos, m decai exponencialmente ao seu valor estacion
ario. Escrevendo
m = m0 et/ ,

(8.35)

ent
ao o tempo de relaxacao = 1/a . Logo, se comporta como
(p pc )1 .

(8.36)

Da mesma forma quando p < pc (a < 0), m decai exponencialmente ao seu valor
estacion
ario m , para tempos longos.
Quando p = pc (a = 0) o decaimento deixa de ser exponencial e passa a ser
algebrico. A partir da equacao
dm
= bm3 ,
dt

(8.37)

m t1/2 .

(8.38)

v
alida para a = 0, vemos que a solucao e m = 1/ 2bt + c. O comportamento
assint
otico de m para tempos longos e pois algebrico e e dado por

O par
ametro de ordem decai exponencialmente fora do ponto crtico com um
determinado tempo caracterstico, o tempo de relaxao , cujo comportamento
e dado por (8.36). Aproximando-se do ponto crtico, o tempo de relaxacao
cresce sem limites acabando por divergir nesse ponto. Sobre o ponto crtico
o comportamento do par
ametro de ordem deixa de ser exponencial e se torna
algebrico como dado pela expressao (8.38).

8.5

TEORIA DE ORNSTEIN-ZERNIKE

Vamos examinar agora a variacao temporal da correlacao hr r i = r ,r entre


as variaveis estocasticas associadas aos stios r e r . Estamos supondo que o sistema possua invariancia translacional de modo que r ,r = r r s
o dependa da

Transic
oes de Fase e Criticalidade

diferenca r r . Como a equacao mestra e uma equacao diferencial de primeira


ordem no tempo, podemos aqui tambem imaginar que a evolucao temporal de
r e da foma dr dt = gr onde gr e uma funcao nao s
o de r mas tambem de
outros momentos.
Vamos supor, de forma aproximada, que gr seja funcao apenas das correlacoes de pares de maneira que
d
r = gr ({r }).
dt

(8.39)

Expandindo gr ate termos lineares em r , temos:


X
d
Ar,r r .
r =
dt

(8.40)

Em seguida fazemos a hip


otese de que gr s
o dependa das correlacoes r tais

que r seja vizinho de r. Logo


X
d
r = Ar + B
r+ ,
dt

(8.41)

que pode ser escrito na forma


X
d
r = Cr + B
(r+ r ),
dt

(8.42)

onde a soma se estende sobre os stios vizinhos do stio r. Supondo que as


variacoes da densidade sejam pequenas, a u
ltima parcela do lado direito da
equacao (8.42) pode ser aproximada pelo laplaciano da densidade de modo que

= C + D2 .
t

(8.43)

Procurando por solucoes com simetria esferica a equacao acima se torna

2 (d 1)
= C + D{ 2 +
},
t
r
r
r

(8.44)

onde d e a dimensao espacial do sistema em consideracao.


Vamos considerar daqui em diante somente o regime estacion
ario para o qual
C + D{

2 (d 1)
+
} = 0,
r2
r
r

(8.45)

e procurar solucoes que decaiam com r. Para isso, e necessario que C 0. Em


uma dimensao a solucao e
(r) = A1 er/ ,
(8.46)

155

156

Din
amica Estoc
astica e Irreversibilidade

e para d > 1 a solucao para grandes valores de r e dada por


(r) = Ad

er/
r(d1)/2

r ,

(8.47)

p
onde Ad e uma constante que s
o depende da dimensao e = D/|C|. Vemos
pois que decai exponencialmente com a distancia com um comprimento de
correlacao que diverge quando C se anula. Portanto, C = 0 indica o ponto
crtico de modo que escrevemos C = C0 (pc p), que e analogo ao que fizemos na
secao anterior. Assim o comportamento do comprimento de correlacao para p
pr
oximo de pc e dado por
(p pc )1/2 .

(8.48)

Ou seja, o comprimento de correlacao diverge quando nos aproximamos do ponto


crtico.
No ponto crtico, p = pc , devemos resolver a equacao (8.45) para o caso em
que C = 0. Nesse caso a solucao sera
(r) =

Ad
,
rd2

d > 2.

(8.49)

Para d 2, nao ha solucao que decaia com a distancia.


interessante observar que a transformada de Fourier de definida por
E
Z
b(k) = (r)eikr dd r
(8.50)

e dada por

b(k)

1
,
2 + k 2

= 1 .

(8.51)

No ponto crtico ela e dada por


b(k)

1
.
k2

(8.52)

Num sistema magnetico, a susceptibilidade magnetica mede a resposta da


magnetizacao a um campo externo. Pode se mostrar que ela e proporcional `a
variancia da magnetizacao, ou seja, proporcional a b(0). Portanto, 2 = 2
de modo que, usando a expressao (8.48), conclumos que o comportamento de
pr
oximo do ponto crtico e dado por
(p pc )1 ,
e a susceptibilidade diverge no ponto crtico.

(8.53)

Transic
oes de Fase e Criticalidade

8.6

EXPOENTES CRITICOS

Vimos na secao anterior que proximo do ponto crtico, o par


ametro de ordem
m se comporta como
m || ,
(8.54)
onde = p pc e = 1/2, e que a susceptibilidade se comporta como
,

(8.55)

com = 1. Os expoentes e s
ao denominados expoentes crticos e podem ser medidos experimentalmente. Verifica-se que os valores dos expoentes
crticos e , obtidos acima a partir da teoria de Landau, nao coincidem com
os valores experimentais. Isso e explicado se entendermos a teoria de Landau
como uma descricao aproximada dos fenomenos crticos. De fato, a principal
hip
otese utilizada na deducao dos expoentes, a de que certas funcoes possuem
desenvolvimento em serie de potencia, e em geral incorreta.
Podemos definir ainda outros expoentes crticos. O comprimento de correlacao espacial se comporta como
|| ,

(8.56)

enquanto que o tempo de relaxacao se comporta como


z .

(8.57)

No ponto crtico, a correlacao de pares decai de acordo com


(r)

r ,

(8.58)

k 0.

(8.59)

rd2+

ou
b(k)

1
k 2

Ainda no ponto crtico o par


ametro de ordem decai de forma algebrica conforme
m t .

(8.60)

A partir dos resultados da secao anterior, que devem ser tambem entendidos
como apro- ximacoes, temos = 1/2, z = 2, = 0 e = 1/2. Todos os
expoentes crticos encontrados na secao anterior s
ao denominados expoentes
classicos.
Os expoentes crticos definidos acima nao s
ao todos independentes mas est
ao
relacionados entre si por diversas relacoes. Duas delas s
ao
= (2 )

(8.61)

157

158

Din
amica Estoc
astica e Irreversibilidade

e
=

.
z

(8.62)

Outra relacao e
2 + = d,

(8.63)

que e v
alida para dimensoes d abaixo de uma dimensao crtica dc . Para d dc
a relacao se torna 2 + = dc e os expoentes crticos classicos passam a ser
v
alidos.

BIBLIOGRAFIA
Baker, Jr., G. A. 1990. Quantitative Theory of Critical Phenomena. Academic Press, Boston.
Binney, J. J.; Dowrick, N. J.; Fisher, A. J. & Newman, M. E. J. 1992.
The Theory of Critical Phenomena. Clarendon Press, Oxford.
Konno, K. 1994. Phase Transitions of Interacting Particle Systems. World
Scientific.
Landau, L. D. & Lifshitz, E. M. 1958. Statistical Physics. Pergamon Press,
Oxford.
Liggett, T. M. 1985. Interacting Particle Systems. Springer-Verlag, New
York.
Marro, J. & Dickman, R. 1999. Nonequilibrium Phase Transitions. Cambridge University Press, Cambridge.
Reichl, L. E. 1980. A Modern Course in Statistical Mechanics. University of
Texas Press, Austin.
Stanley, H. E. 1971. Introduction to Phase Transitions and Critical Phenomena. Oxford University Press, New York.
Thompson, C. J. 1979. Mathematical Statistical Mechanics. Princeton University Press, Princeton.
, T. 1996. Irreversibilidade: Modelos de Rede com Din
Tome
amicas Estoc
asticas.
Tese de Livre-Docencia, Instituto de Fsica, Universidade de Sao Paulo.
, T.; Brunstein, A. & Oliveira, M. J. de 2000. Symmetry and
Tome
universality in nonequilibrium models. Physica A, 283, 107.

Transic
oes de Fase e Criticalidade

Yeomans, J. M. 1992. Statistical Mechanics of Phase Transitions. Clarendon


Press, Oxford.

EXERCICIOS
1. Simule o modelo definido na secao 8.2 para o caso de diversos valores de
p para N = 100. Faca histogramas da concentracao x = n/N .
2. Simule o modelo cinetico de Bragg-Williams para o caso de diversos valores
de K para N = 100. Faca histogramas da magnetizacao da concentracao
x = n/N .
3. Considere o modelo definido pela taxa de transicao
1
Wn+1,n = (N n) {1 + S(2n N )},
2
e

1
Wn1,n = n {1 S(2n N )},
2
onde S(x) e uma funcao tal que S(x) = 1 para x > 0, S(x) = 1 para
x < 0, e S(x) = 0 para x = 0; e e um par
ametro definido no intervalo
0 1. Simule esse modelo para diversos valores de e fazer os
respectivos histogramas da magnetizacao. A simulacao pode ser feita da
seguinte maneira. Definimos variaveis i , com i = 1, 2, ..., N , que tomam
valores 1. Escolhemos aleatoriamente uma delas. A probabilidade de a
variavel trocar de sinal sera (1 )/2, (1 + )/2, ou 1/2, conforme 2n N ,
tenha o mesmo sinal de i , tenha o sinal contrario de i , ou 2n N = 0,
respectivamante.

159

Você também pode gostar