Você está na página 1de 19

3

1. Teoria das Distribuicoes da Fsica Estatstica

Esta introducao visa familiarizar o leitor com conceitos estatsticos, dis-


tribuicoes, probabilidades, etc.. Os exemplos dados poderao parecer em primeira
inspecao banais, porem contem os ingredientes matematicos necessarios para se
compreender as aplicacoes fsicas a serem estudadas ao longo do curso. A ex-
posicao sera sucinta e desprovida de rigor matematico. Para material de apoio
e complemento, algumas referencias padrao sao fornecidas ao final do captulo.
O objetivo de uma teoria estatstica e descrever comportamentos medios
de sistemas. Em particular, a teoria sera mais eficiente quando tratar de N
sistemas preparados de forma semelhante com N  1. O tratamento estatstico
e bastante usado em varios campos do conhecimento, tais como fsica, medicina,
sociologia, etc.. Uma teoria aplicavel em uma variedade tao grande de problemas
nao pode ser baseada exclusivamente em caractersticas especficas dos sistemas
estudados. Veremos que algumas hipoteses fortes sobre aspectos genericos dos
problemas a serem estudados nos permitem uma grande simplificacao e o uso
de um tratamento unificado. Os exemplos a seguir tornarao mais clara esta
discussao:
Um problema estatstico simples com o qual nos defrontamos ja em cursos de
matematica elementar e: Jogando cara ou coroa com uma moeda N vezes, qual
a probabilidade de que obtenhamos cara n vezes (com n N )? Este problema
nos e familiar e sabemos trata-lo usando a teoria de probabilidades a qual
nada mais e do que a teoria estatstica.
Um exemplo de um problema de fsica e: Uma partcula em suspensao na
superfcie de um lquido percorre em media uma distancia ` entre colisoes com
outras partculas. Apos N colisoes qual a probabilidade de que a partcula em
questao esteja a uma distancia d do ponto inicial? A teoria estatstica da uma
resposta.
A chave para identificarmos a semelhanca entre os exemplos dados esta na
complexidade da dinamica dos mesmos. De fato, mesmo o primeiro exemplo
poderia ser descrito atraves da mecanica classica. Imagine que conhecessemos
as condicoes iniciais da moeda ao ser lancada com grande precisao e pudessemos
integrar suas equacoes de movimento. Isto nos propiciaria prever se o resultado
seria cara ou coroa, pois trata-se de um problema determinstico. A pratica
nos mostra que tal projeto e bastante difcil de ser executado caso contrario,
alguem ja estaria explorando um cassino com esta ideia. Por tras disto esta a
nocao de ergodicidade, a base em que se apoia a teoria estatstica. Quando um
problema e muito complexo e o resultado final varia drasticamente atraves
de alteracoes mnimas das condicoes iniciais, o problema e classificado como
ergodico e um tratamento estatstico torna-se adequado. Pense que mesmo
tendo calculado o resultado do lancamento da moeda para um conjunto de
condicoes iniciais, uma subita lufada de vento pode por todo calculo a perder.
O problema ergodico nao sera tratado neste curso, pois o tornaria demasi-
4

1
0
1
0 l
1
0 1
0
0
1
11
00 0
1
00
11
11
00 00
11
00
11 1
0
00
11
00
11 1
0 1
0
00
11
00
11 0
1
111
000
000
111
000
111
1
0
0
1
1
0 1
0 1
0
1
0
0
1 0
1
1
0
1
0 1
0
1
0
1
0
1
0 1
0
1
0 1
0 1
0
0
1 0
1
1
0
1
0

Figure 1: Partcula movendo-se sob a acao de centros espalhadores.

adamente longo. Voltaremos a esta discussao em outras oportunidades mais a


frente, mas sempre superficialmente. Referencias bibliograficas adequadas sobre
o assunto estao listadas no final do captulo. A mensagem que deve ficar e que
e frequente encontrarmos sistemas cujo comportamento e determinstico, mas
que podem ser considerados como dando eventos completamente aleatorios e
descorrelacionados.
O roteiro deste captulo se inicia com uma apresentacao dos elementos basicos
da teoria estatstica. Comecamos nossa discussao com variaveis discretas, dis-
tribuicao binomial e o exemplo do passeio aleatorio. Passamos entao para o
limite contnuo e discutimos a distribuicao gaussiana e a distribuicao de Pois-
son, ambas de grande relevancia para fsica.

1.1. Elementos basicos de estatstica

Tomemos de uma variavel u que so possa assumir um conjunto contavel


(finito ou infinito) de M valores

u1, u2, , uM .

Esta variavel e chamada de estocastica quando seu valor so pode ser determinado
apos o exame do resultado do experimento, como por exemplo no jogo de cara
ou coroa. Podemos definir P (ui), a probabilidade de um P experimento dar ui .
Obviamente a funcao P (u) deve satisfazer P (u) 0 e i P (ui ) . O valor
medio de u, que sera denotado por u, e dado por
PM
P (u1)u1 + + P (uM )uM P (ui)ui
u= ou u = Pi=1 M
. (1)
P (u1) + + P (uM ) i=1 P (ui )

Por conveniencia, em geral, as distribuicoes de probabilidade sao normalizadas


unidade,
XM
P (ui) = 1 . (2)
i=1
5

Assim sendo a media passa a ser dada pela forma mais simples
M
X
u= P (ui)ui . (3)
i=1

Esta definicao e facilmente estendida a medias de funcoes arbitrarias da variavel


u
XM
f(u) = P (ui)f(ui ) . (4)
i=1

Por vezes desejamos obter apenas algumas informacoes simples de uma dis-
tribuicao, enquanto que conhecer a funcao exata que ajusta tal distribuicao e
uma informacao que nao nos interessa. Nestes casos e interessante se conhecer
os primeiros momentos de uma distribuicao, onde o n-esimo momento e definido
como

X
M
un P (ui)un
i . (5)
i=1

Em primeira inspecao, poderamos conjecturar que conhecendo todos os momen-


tos de uma distribuicao, te-la-amos caracterizado completamente. Infelizmente
ha alguns contra-exemplos que desmentem esta asserciva. Ainda assim, por
vezes o primeiro e segundo momentos de uma distribuicao contem informacao
suficiente para diversas aplicacoes fsicas.
O primeiro momento nada mais e do que a media da distribuicao, como fica
claro ao compararmos a Eq. (3) com a Eq. (5). Muito util tambem e a variancia,
definida como o segundo momento em torno da media, ou

X
M
(u)2 (u u)2 = P (ui)(ui u)2 2 , (6)
i=1

onde e chamado de desvio padrao. Note que

(u u)2 = u2 2uu + u2 = u2 2u u + u2 = u2 u2 ,

como (u)2 0, entao


u2 u2 , (7)
garantindo que a variancia e sempre positiva ou nula. E comum usar-se tambem
u2 para denotar a variancia no que segue daremos preferencia a esta ultima
notacao.
A maioria dos problemas fsicos a serem considerados neste curso envolvem
variaveis estocasticas contnuas e nao as discretas, descritas acima. Para tratar-
mos tais problemas, os conceitos acima apresentados precisam ser estendidos.
Como acima, tambem quando trabalhamos com uma variavel estocastica contnua
x, a quantidade estatstica central de interesse e a distribuicao P (x). Neste caso,
6

a probabilidade de que o resultado de uma medida de x esteja entre os valores


a e b e dada por:
Z b
P(a x b) = dx P (x) . (8)
a

Esta definicao e tambem a justificativa para chamarmos P (x) de densidade de


probabilidade. A igualdade acima e valida para P (x) normalizados a unidade
Z
dx P (x) = 1 ,
D

onde a integracao e feita sobre todo o domnio D da densidade de probabilidade.


Estas consideracoes nos levam imediatamente a generalizacao dos momentos de
uma distribuicao. A definicao agora passa a ser
Z
n
x = dx xn P (x) .
D

Esta relacao sera muito utilizada nos captulos que se seguem.

1.2. Passeio aleatorio e a distribuicao binomial

Consideremos o problema de uma partcula restrita a movimentar-se em uma


dimensao sob a influencia de um potencial que age periodicamente. Suponhamos
ainda que o potencial age apos cada passo de comprimento ` da partcula e
seu efeito e de determinar aleatoriamente em que direcao sera dado o proximo
passo. Seja p a probabilidade de ir para a direita e q a de ir para a esquerda:
Apos N passos, a pergunta natural deste problema e: Qual a probabilidade de
encontrarmos a partcula na posicao m, ao final destes N passos? Ou melhor,
quanto vale PN (m)?
Alternativamente sabendo o numero de passos para a direita, n1 ; ou o
numero de passos para a esquerda n2, a posicao m fica determinada, pois

n1 + n2 = N e n1 n2 = m . (9)

A probabilidade de uma sequencia de n1 passos para a direita e n2 passos


para a esquerda e dada pelo produto

p p q q = pn1 qn2 . (10)


| {z } | {z }
n1 n2 vezes

Ha, no entanto, para um total de N passos varias sequencias distintas compostas


de n1 passos a direita e n2 passos a esquerda. O numero total de sequencias
distintas C corresponde ao numero de permutacoes na ordem em que os passos
sao dados para a direita e para a esquerda. Este numero e
7

N!
C= . (11)
n1!n2!
Entao a probabilidade de tomarmos n1 passos a direita (ou n2 = N n1 a es-
querda) em qualquer ordem e obtida multiplicando a probabilidade pelo numero
de caminhos possveis.

N ! n1 n2
WN (n1 ) = p q . (12)
n1 !n2!

Esta e a distribuicao binomial. 1


Como n1 e N determinam a posicao m, pois n1 = (N + m)/2 e n2 =
(N m)/2, podemos traduzir WN (n1) em PN (m)

N!
PN (m) =    p(N +m)/2 (1 p)(N m)/2 . (13)
(N + m)/2 ! (N m)/2 !

Exemplo: Vamos analisar o problema de jogarmos cara ou coroa N = 20


vezes. A probabilidade de obtermos cara e p = 1/2 (analogo ao ir para a
direita ou esquerda com p = 1/2 no problema do passeio aleatorio) e coroa tem
probabilidade q = 1 1/2 = 1/2.

Figura 1.2.

A figura acima traduz muito bem o resultado intuitivo de que jogando


N = 20 vezes, o resultado mais provavel e que tenhamos 10 eventos cara
(n1 = 10). Para n1 = 10, W20 (n1) tem seu maximo e nos da o resultado
mais provavel. E importante notar que resultados muito diferentes de n1 = 10
sao pouco provaveis, ou seja |n1 10|  1, W20 (n1 ) 0.
Voltemos ao problema do passeio aleatorio para estudarmos o valor medio
e a variancia. O numero medio de passos a direita e obtido usando as Eqs.(3)
e(12)
N
X N
X N!
n1 = WN (n1) n1 = pn1 qN n1 n1 . (14)
n1 =0 n1
n
=0 1
!(N n1)!

1 Aqui
PN
convem nos lembrarmos da expansao binomial: (p + q)N = n=0
N !/(n!(N
n
n)!)p q N n .
8

Atraves do metodo da forca bruta podemos calcular n1 atraves dos seguintes


passos: Primeiro corta-se o fator multiplicativo n1 com o fatorial tomando o
cuidado de alterar o somatorio
X
N
N!
n1 = pn1 qN n1 ,
n1 =1
(n 1 1)!(N n 1 )!

em seguida, fazendo a mudanca de variaveis n0 = n1 1, obtemos uma nova


distribuicao binomial em n0
N
X 1 N
X 1
N! n0 +1 N 1n0 (N 1)! 0 0
n1 = 0 0
p q = N p 0 0
pn qN 1n .
n !(N 1 n )! n !(N 1 n )!
n0 =0 0 n =0

A nova somatoria e a expansao binomial de (p + q)N 1 . O resultado final e

n1 = N p . (15)

Este resultado ja era previsvel antes mesmo de fazermos as contas, pois a media
de passos para a esquerda nada mais e do que o numero total de passos N vezes
a probabilidade p de ir para a esquerda a cada passo.
Um modo mais elegante de obtermos este resultado e observarmos que
n1
n1pn1 = p (p ) .
p

Usando esta identidade em (14) escrevemos


" N #
X
n1 = p WN (n1) = p (p + q)N = p N . (16)
p n =0 p
1

Este truque torna facil a tarefa de calcular o segundo momento n2i (tente o
metodo direto, e convenca-se de que este e bastante trabalhoso!)

N
X XN  2
N! N!
n21 pn1 qN n1 n21 = p pn1 qN n1
n1 =0
n 1 !(N n 1 )! n1 =0
n 1 !(N n 1 )! p
 2

= p (p + q)N . (17)
p

Desta equacao, operando as derivadas e apos algumas manipulacoes algebricas,


obtemos
n21 = (N p)2 + N pq , (18)
o que nos leva ao resultado final para a variancia

n21 (n1 n1 )2 = N pq . (19)


9

A variancia envolve quadrados de n1 e uma boa estimativa da variancia tpica


vem de p r p
n21 N pq q 1 n21 1
= = ou . (20)
n1 Np p N n1 N
A expressao (20) implica
que com N crescente o desvio padrao dividido pelo
valor medio cai com 1/ N . Este quociente e um bom parametro para uma
estimativa do intervalo de confiabilidade (ou erro) de um experimento, como
por exemplo N jogos de cara ou coroa.

1.3. A distribuicao de Poisson

A distribuicao poissoniana e um caso particular da distribuicao binomial,


quando um evento tem probabilidade muito pequena de ocorrer (p  1), mas
o numero total de eventos e muito grande (N  1) de modo que N p seja uma
constante finita. Ou seja, n = N p  1. Neste caso nao e difcil mostrar que a
distribuicao binomial se reduz a:
N! nn n
WN (n) = pn (1 p)N n e .
(N n)!n! n!
Antes de fazermos a demonstracao e necessario apresentarmos uma aproximacao
para a funcao fatorial, conhecida como formula de Stirling 2
 n n
n! 2n , (21)
e
a qual nos permite extender para o contnuo o domnio da variavel discreta n.
Facamos agora a algebra: usando a formula de Stirling, vemos que
N N

N! N e
 Nn .
(N n)! N n N n N n
e
Empregando esta relacao e lembrando que p = n/N , podemos escrever
 N n
Nn n n
WN (n) p 1 .
n! N
Para chegar ao resultado desejado, agora basta apenas lembrar que para a finito,
 a N
lim 1 = ea ,
N N
2 Precisao da formula de

Stirling: Definindo s(n) = 2n(n/e)n /n!, podemos nos convencer
numericamente da acuracia da aproximacao, notando que
s(1) 0.90 , s(2) 0.96 , s(5) 0.98 , s(10) 0.99 , etc.
10

e uma das definicoes da funcao exponencial.


Note que a nova distribuicao nao depende separadamente de p e N , mas da
combinacao a n = N p. Esta expressao e a distribuicao de Poisson:
an a
Pa (n) = e . (22)
n!
Esta distribuicao tem multiplas aplicacoes em disversas areas da fsica. Um
dos exemplos mais simples e o do decaimento radiativo nuclear. Imagine uma
amostra de algumas gramas de um material contendo uma concentracao razoavel
de nucleos que decaem espontaneamente com tempo medio de decaimento (tempo
de meia vida) da ordem de semanas. Neste caso dar um tratamento microscopico
ao problema e virtualmente impossvel, uma vez que o numero de constituintes
do sistema e enorme e a natureza da interacao nuclear e complexa. Conclui-se
que o tratamente estatstico se faz necessario. Notemos entao que o numero de
nucleos e grande (N  1), e que no entanto a probabilidade de que um dado
nucleo decaia em um segundo, por exemplo, e baixa (p  1). Destas condicoes
vemos que a distribuicao de Poisson deve ser a mais indicada para descrever o
processo. A analise dos dados mostra que ela o faz com grande sucesso.

1.4. O limite para N  1 e a distribuicao gaussiana

O objetivo desta sessao e obter o limite da distribuicao binomial para N  1,


no caso em que n1 = pN  1 e n2 = qN  1. Examinando a Fig. 1.2, podemos
esperar que, nestas condicoes, a distribuicao WN (n1 ) seja centrada em torno
de n1 caindo rapidamente para valores de n1 muito diferentes do valor medio.
Mostraremos abaixo que a curva contnua que melhor ajusta o histograma da
Fig. 1.2 e uma gaussiana.
Aproximando os fatoriais da distribuicao binomial WN (n), Eq. (12) pela
expressao (21), obtemos
N n
2N Ne p 1 (1 p)N n1
WN (n1) n1 p N n1 .
2n1 ne1 2(N n1 ) N n e
1

Explicitando a algebra, mesmo correndo o risco de sermos tediosos, WN (n1)


pode ser rearranjado como:
 n N 1/2
1  n1 n1 1/2 N n1 1
WN (n1 ) pn1 (1 p)N n1
2N N N
Para as simplificacoes subsequentes e necessario escrever WN (n1 ) como uma
exponencial
n  
1 1  n1  1 N n1
WN (n1 ) = exp (n1 + ) ln (N n1 + ) ln +
2N 2 N 2 N
11
o
n1 ln p + (N n1 ) ln(1 p)
1 n o
= exp f(n1 ) . (23)
2N
O motivo para fazermos estas manipulacoes e que queremos mostrar que (23)
pode ser muito bem aproximada por uma gaussiana centrada em n1 , o que
implica que f(n1 ) a + b(n1 n1 )2, onde a e b sao constantes arbitrarias com
b < 0. Para determinarmos a e b, e conveniente expandir f(n1 ) em serie de
Taylor em torno de um ponto arbitrario n01

1 1
f(n1 ) = f(n01 ) + f 0 (n01 )(n1 n01) + f 00 (n01 )(n1 n01)2 + f 000 (n01 )(n1 n01 )3 +
2 6
(24)
onde queremos que n01 satisfaca:

d

WN (n1 ) =0 implica que f 0 (n1 ) =0,
dn1 0
n1 =n01
n1 =n1

Da fica claro que n01 n1, pois

n1 1 N n1 1 N n1
f 0 (n1) = ln 1+ln + + +ln pln(1p) ,
N 2n1 N 2(N n1 ) N n1 N n1

lembrando que n1 = N p e tomando f 0 (n1 ) em n1 , obtemos



pq
0
f (n1) = 0
2N pq
n1 =n1

para N  1 (a menos que pq  1, que e o caso do limite de Poisson discutido


no topico anterior). E facil prosseguir e calcular a segunda e terceira derivadas
da funcao f(n1 )
 
d 0 d n1 1 N n1 1
f 00 (n1 ) = f (n1 ) = ln + ln + + ln p ln(1 p)
dn1 dn1 N 2n1 N 2(N n1 )
1 1
= + O(N 2) (25)
n1 N n1
portanto, para n1 = n1

1 1 1
00
f (n1 ) = . (26)
Np N Np N pq
n1 =n1

A derivada terceira e:
 
d 00 d 1 1 1 1
f 000 (n1) f (n1 ) = = 2 ,
dn1 dn1 n1 N n1 n1 (N n1 )2
12

o que da
1
000
f (n1 ) = (p2 q2 ) . (27)
(N pq)2
n1 =n1

Note que p 1 e q 1, portanto |q2 p2 | < 1. Disto decorre que:



1
000 00
|f (n1 )| < 2 2 2  |f (n1)| , (28)
N p q
n1 =n1 n1 =n1

e por isto para N  1, derivadas superiores a f 00 podem ser desprezadas. (A


grosso modo cada derivada a mais ganha um termo da ordem de 1/N o que
garante a qualidade da aproximacao para N  1.)
Precisamos ainda calcular f(n1 ) (lembrando novamente que n1 = N p)

1 n1 1 N n1
f(n1 ) = (n1 + ) ln (N n1 + ) ln + n1 ln p + (N n1 ) ln(1 p)
2 N 2 N
1 N Np 1 N Np
= N p ln p ln p (N N p) ln ln +
2 N 2 N
N p ln p + (N N p) ln(1 p)
1 1
= ln p ln q . (29)
2 2
Reunindo estes resultados ficam determinados a e b, de modo que
 
1 1 00 2
WN (n1 ) exp f(n1 ) + f (n1 )(n1 n1 )
2N 2

obtemos a distribuicao aproximada


 
1 (n1 n1 )2 p
WN (n1 ) = exp 2 onde N = N pq . (30)
2N 2N

ilustrada na figura 1.3.


Ainda nao chegamos a distribuicao gaussiana propriamente dita, pois falta-
nos tirar o limite para uma distribuicao de variavel contnua. Antes de faze-lo,
e bom motivar fisicamente o trabalho a ser feito. Como vimos a variancia (as
vezes chamada de dispersao) escala como N e, juntamente com o valor
medio, determina o intervalo mais provavel de um evento
ocorrer (n1 ). Para
N  1, ha muitos valores de n1 neste intervalo ( N ).
Dito isto, voltemos ao problema do passeio aleatorio e ao inves de contar o
numero de passos a direita, digamos que o que nos interessa e a posicao final:

x = (2n1 1 N )` , (31)
onde ` e o comprimento de cada passo. A distribuicao desejada pode tomar um
numero muito alto de valores com alta probabilidade, pois N  1. Em geral
`/x  1, o que nos motiva a simplificar o problema e tomar a variavel x como
13

contnua. Resta-nos agora transformar WN (n1 ) em uma distribuicao P (x) com


x contnuo. Para tal observemos que

dx
P (x)dx = WN (n1 ) . (32)
2`
Esta relacao e simples de verificar graficamente (Fig. 1.3)

Figura 1.3


Substituindo (32) em (30) e definindo = (pq)N ` e = 2 N pq`, obtemos:
 
1 (x )2
P (x) = exp , (33)
2 22

a distribuicao gaussiana.
Examinemos agora propriedades da distribuicao gaussiana. Primeiro, sua
normalizacao tem de ser verificada
Z Z Z
1 2 2 1 2
dxP (x) = dx e(x) /2 = dy ey /2 = 1 ,
2 2

o que e um teste de consistencia para as aproximacoes que fizemos a fim de


obter (33), uma vez que a distribuicao binomial, nosso ponto de partida, e
normalizada.
Usando as relacoes do apendice A, fica facil de ver que para a distribuicao
gaussiana dada por (33), x = e que a variancia x2 = 2 . De fato, e
caracterizam completamente a distribuicao gaussiana.

1.5. Funcao caracterstica e o teorema do limite central

E comum caracterizarmos uma distribuicao por seus momentos. Para isto e


muito util trabalharmos com a funcao caracterstica da distribuicao em questao.
Ela e dada pela transformada de Fourier da densidade de probabilidade
Z
(k) e ikx = dx eikxP (x) . (34)
14

Expandindo a funcao caracterstica em uma serie de potencias em k, obtemos o


seguinte resultado
Z  
1 2 2 i 3 3
(k) = dx P (x) 1 + ikx k x k x +
2! 3!
k 2 n
(ik) n X
(ik)n xn
= 1 + ikx x2 + + x + = . (35)
2! n! n=0
n!

Alternativamente a densidade de probabilidade e a transformada de Fourier


inversa da funcao caracterstica. Conhecendo a funcao caracterstica, podemos
facilmente calcular os momentos de todas as ordens de uma distribuicao:

1 dn
(k)

xn = n .
i dkn
k=0

A utilidade da funcao caracterstica fica mais patente quando examinamos


um evento que depende de duas ou mais variaveis aleatorias. Por simplicidade,
consideremos inicialmente uma variavel aleatoria z que seja funcao das variaveis
aleatorias x e y, com z = G(x, y). A densidade de probabilidade de z e definida
como Z Z
P3(z) = dx dy (z G(x, y))P (x, y) ,

onde P (x, y) e a densidade de probabilidade para a combinacao de eventos (x, y).


Se estes forem independentes, entao P (x, y) = P1(x)P2 (y) e fica facil de ver que
a funcao caracterstica de P3(z)
Z
3(k) dz eikz P3(z)

e expressa por
Z Z Z Z Z
3 (k) = dz eikz dx dy (zG(x, y)) P1 (x)P2(y) = dx dy eikG(x,y)P1(x)P2 (y) .

Para G(x, y) = x + y
Z Z
3 (k) = dx dy eik(x+y) P1(x)P2(y) = 1(k)2 (k)

ou seja, a funcao caracterstica de z e o produto das funcoes caractersticas de


x e y.
A aplicacao mais direta disto e: Consideremos uma variavel aleatoria x que
siga a distribuicao de probabilidade P (x) com primeiro e segundo momentos
respectivamente x e x2. Entao facamos n medidas de x e tomemos a media
1
a= (x1 + x2 + + xn) . (36)
n
15

Qual sera a distribuicao Q(a) da variavel a? O melhor modo de obtermos uma


resposta a esta pergunta e calcularmos (k), a funcao caracterstica de Q(a):
Z
(k) = da eik(ax) Q(a x)
Z  h i
ik
= dx1 dxnP (x1) P (xn) exp (x1 x1) + + (xn xn)
n
Z   Z  
ik ik
= dx1P (x1) exp (x1 x1) dxnP (xn) exp (xn xn)
n n
  n
k
= . (37)
n

Definindo, por consistencia,


Z
1
(k) = dxP (x x)eik(xx) = 1 k2 2 + O(k3 )
2

(convenca-se disto comparando (35) com a expressao acima), segue que


  3 n
1 k22 k
(k) = 1 2
+O 3
2 n n

a qual no limite de n  1, resulta em

2
2 /2n
(k) ek . (38)
n

Para obtemos Q(a) basta fazer a transformada de Fourier inversa


Z
1
Q(a x) = dk eik(ax) (k) ,
2

a qual e facilmente efetuada, bastando completar quadrados


p !2
Z  2
Z
2 2 n (a n) n/2 k
dk eik(ax) ek /2n = exp 2
dk exp i (a x) + .
2 2n

A integral gaussiana e obtida fazendo uma mudanca de variaveis e consultando


o apendice A. O resultado e
 
n n (a x)2
Q(a x) = exp (39)
2 2 2

o que nos mostra que independente da forma de P (x), a media de um grande


numero de x sera uma gaussiana centrada em x e com desvio padrao N 1/2 vezes
menor do que o desvio padrao da densidade de probabilidade P (x). O unico
16

requerimento e de que P (x) tenha momentos finitos. Este resultado e chamado


de teorema do limite central.

Topico especial: Equacao de Difusao

Consideremos novamente o problema do passeio aleatorio em uma dimensao,


onde uma variavel segue a probabilidade condicional T de dar passos de com-
primento ` a cada intervalo de tempo . Se conhecermos:

T n1 `, (s 1) |n2`, s ) a probabilidade condicional de que uma variavel estocastica
u ter o valor n2 no s-esimo passo dado que tenha o valor n1
no (s 1)-esimo passo, (40)
onde u = 0, 1, 2, da o valor absoluto da posicao da partcula, podemos
escrever a equacao de evolucao temporal para probabilidade de encontrarmos
uma partcula na posicao n2 ` como
X
P1 (n2`, s ) = P1(n1 `, (s 1) )T (n1`, (s 1) |n2`, s ) . (41)
n1

No caso mais simples, correspondendo ao exemplo do jogo de cara ou coroa, a


probabilidade de ir a esquerda ou direita e igual e, portanto,
 1 1
T n1 `, (s 1) |n2`, s = n2 ,n1 +1 + n2 ,n1 1
2 2
de modo que a Eq.(41) se simplifica para:
1 1
P1 (n`, s ) = P1((n 1)`, (s 1) ) + P1((n + 1)`, (s 1) )
2 2
Para obtermos uma equacao diferencial para a distribuicao de probabilidade,
temos que reescrever a equacao acima na forma:
P1 (n`, s ) P1(n`, (s 1) ) 1 
= P1((n+1)`, (s1) )2P1 (n`, (s1) )+P1 ((n1)`, (s1) ) .
2
Vamos agora escrever x = n` e t = s e tomar o limite ` e 0, de modo
que D = `2/2 seja finito. Como resultado obtemos a equacao de difusao
P1 (x, t) 2 P1(x, t)
=D . (42)
t x2
Podemos resolver de forma facil a Eq. (42) para o caso especial em que
inicialmente P1(x, 0) = (x), onde (x) e a funcao delta de Dirac (veja apendice
A). Para tal e conveniente fazer a tranformada de Fourier de P1 (x, t)
Z
Pe(k, t) = dxP1(x, t) eikx .

17

Assim, a Eq. (42) assume a forma

Pe (k, t)
= Dk2 Pe1(k, t) ,
t
que podemos imediatamente solucionar, dando
2
Pe1(k, t) = A eDk t
onde a constante A e determinada pelas condicoes iniciais do problema. Como
Pe1 (k, 0) = 1, temos que A = 1. Fazendo a transformada de Fourier inversa
Z
1 2
P1(x, t) = dkeikxeDk t
2
o que nos leva a resposta final
1 2
P1 (x, t) = ex /4Dt . (43)
4Dt
Um dos resultados interessantes que podemos obter sem grande esforco sao
as equacoes de movimento
R para os momentos da distribuicao P1(x, t). O mo-
mento hx(t)i dxxP1(x, t) da a posicao media da partcula como funcao
do tempo. Multiplicando a Eq. (42) por x e integrando sobre x, encontramos
Z
dhx(t)i 2P1(x, t)
=D dxx =0
dt x2
o que nos leva a concluir que a posicao media da partcula nao muda com o
tempo. Podemos fazer algo muito parecido para hx2(t)i. Neste caso multipli-
camos a Eq. (42) por x2 e integramos sobre a posicao, encontrando
dhx2(t)i
= 2D ou seja hx2(t)i = 2Dt
dt
o que se constitui numa das caractersticas mais marcantes de um processo
difusivo. O momento hx2 (t)i e uma medida da largura de P1(x, t) no instante
t, a qual se alarga com o tempo, conforme ja esperado.

Sugestoes bibliograficas

Boa parte dos textos de mecanica estatstica partem do pressuposto de que a


teoria de distribuicoes e um pre-requisito para o curso e dao uma enfase diferente
as questoes matematicas tratadas neste captulo. Assim, textos tradicionais
costumam ser bastante sinteticos, com a notavel excessao do livro do Reif [1],
o qual recomendo fortemente como leitura suplementar. Boas referencias para
teoria de distribuicoes para fsicos sao Matthews e Walker [2] e um pouco mais
avancado Hoel [3]. Estudantes com pendores matematicos que queiram ler um
pouco mais sobre teoria ergotica devem consultar o texto de Kinchin [4].
18

1. F. Reif, Fundamentals of Statistical and Thermal Physics (McGraw-Hill


Book Co., New York, 1965).
2. J. Matthews e R. L. Walker, Mathematical Methods of Physics (W. A.
Benjamin, Menlo Park, 1973)
3. P. G. Hoel, Introduction to Mathematical Statistics (Wiley, New York,
1966).
4. A. I. Kinchin, Mathematical Foundations of Statistical Mechanics (Dover
Publications, New York, 1949).

Problemas resolvidos

1. Um recipiente macroscopico de volume V contem N moleculas de um gas


ideal em equilbrio termico.

(a) A probabilidade de que uma dada molecula esteja numa pequena


parte de volume v do recipiente e p = v/V . Qual a funcao distribuicao
f(n) que da a probabilidade de encontrarmos n moleculas em v?
(b) Calcule o numero medio de partculas em v como funcao de N, v e V
(c) Qual a probabilidade de que nao haja molecula alguma em v? Se
o ar fosse composto apenas de O2 , qual a probabilidade de nossos
pulmoes nao capturarem molecula alguma de O2 em uma aspiracao
tpica (v = 103m3)?

Resolucao:

(a) Se v  V , entao p = v/V  1, mas num recipiente macroscopico ha


um numero de moleculas N  1. Da a distribuicao que nos da a
probabilidade de encontrarmos n moleculas em v e a Poisson.
an a
P (n) = e com a = pN .
n!
(b) O numero medio de partculas e n = pN .
(c) Nenhuma molecula em v corresponde a n = 0
v
P (0) = ea com a= N.
V
Para o caso em questao (veja uma tabela de constantes fsicas!)
N/V = 2.4 1025 m3 e v = 103m3. Assim, a = 2.4 1022.
Portanto P (0) = exp(2.4 1022)  1. O que nos garante que nes-
tas condicoes e bastante improvavel nos sufocarmos por flutuacoes
estatsticas.
19

2. O modelo de Drude para metais considera que cada atomo da rede cristalina
contribui com um certo numero de eletrons de valencia, os quais se movem
quase livremente dentro do metal. A probabilidade de um eletron sofrer
uma colisao em um intervalo de tempo infinitesimal dt e dt/ .

(a) Mostre que um eletron escolhido aleatoriamente em um certo instante


tem probabilidade et/ de nao ter sofrido colisao alguma nos t se-
gundos anteriores. Mostre tambem que a probabilidade de nao haver
colisao alguma nos proximos t segundos e a mesma.
(b) Mostre que a probabilidade de que o intervalo entre duas colisoes
sucessivas esteja compreendido entre t e t + dt e (dt/ ) et/ .
(c) Mostre que, como consequencia, o tempo medio entre colisoes suces-
sivas de um eletron e .

Resolucao:

(a) Tomemos um eletron aleatorio no instante t e digamos que a proba-


bilidade de ele nao ter sofrido colisao desde t = 0 seja P (t). A prob-
abilidade de que ele continue se propagando livremente ate t + dt e
entao dada por
dt
P (t + dt) = (1 )P (t) .

Reescrevemos a expressao acima como:

dt dP dt
dP P (t + dt) P (t) = P (t) ou = .
P
Integrando a equacao acima em ambos os lados e considerando que
P (0) = 1, obtemos o resultado desejado P (t) = et/ . O outro caso
do enunciado e deixado para o leitor.
(b) O raciocnio e muito parecido com o do item anterior. Agora, quer-
emos que o eletron que propagou livremente ate t (processo com
probabilidade P (t)) sofra colisao entre os intantes t e t + dt (processo
com probabilidade dt/ ). Isto da

dt dt t/
Pc (t) = P (t) ou seja Pc(t) = e ,

o que nos define uma probabilidade para a taxa de colisoes dPc/dt.
(c) O tempo medio de colisoes pode ser obtido da integral
Z Z
dPc t
t= dt t = dt et/
0 dt 0

cujo resultado e t = .
20

Problemas propostos

1. Considere a distribuicao poissoniana Pa (n) = (an /n!) ea

(a) Demonstre que a distribuicao de Poisson e normalizada


(b) Calcule o valor medio da distribuicao e sua variancia.

2. A variavel aleatoria x obedece a distribuicao de probabilidade

f(x) = ex (0 < x < )

(a) Encontre x
(b) Dois valores x1 e x2 sao escolhidos independentemente. Encontre
x1 + x2 e x1 x2
(c) Qual a distribuicao de probabilidade P (a) da variavel aleatoria a =
(x1 + x2)/2. Sugestao: Cuidado com os domnios de integracao!)
3. Mostre que a funcao caracterstica para a distribuicao gaussiana e
2
2 /2
(k) = eikx ek

(Veja que o fator gaussiano em (k) faz com que apenas valores de k da
ordem de 1/ sejam importantes, pois (k) e muito pequeno para k  1/.
Trace analogia com o princpio da incerteza!)
4. Em 0.30 mg de 238U temos 7.6 1017 atomos. A probabilidade de que um
nucleo se desintegre por segundo (emitindo uma partcula ) e 4.91018.
Entao, para t = 1s, p = 4.9 1018. Estamos supondo que o decaimento
de diferentes atomos nao seja correlacionado.)

(a) Argumente por que a distribuicao de Poisson e uma boa aproximacao


para o decaimento estatstico do 238U , supondo que a distribuicao
binomial descreve bem o processo.
(b) Escreva a distribuicao de Poisson que da a probabilidade de que em
1 s, n nucleos decaiam e construa o histograma de Pa (n 15).
(c) Qual a probabilidade de que em 1 s nenhum atomo decaia?
(d) Qual a probabilidade de que em 1 s pelo menos 5 atomos decaiam?

5. No caso da distribuicao gaussiana o devio padrao tem um significado es-


tatstico bem definido. No caso em que
 
1 (x )2
P (x) = exp ,
2 22

(a) Qual a probabilidade de observarmos um evento num intervalo [


, + ]?
21

(b) E em [ 3, + 3]? (Observacao: O resultado sera em termos


da funcao erro. O valor numerico pode ser obtido consultando uma
tabela - recomendo Abramowitz e Stegun, Handbook of Mathemati-
cal Functions (Dover, New York).)
6. A teoria estatstica de reacoes nucleares de nucleo composto, uma seccao
de choque tpica e dada por
2
X i

(E) = i
E E i i 2
i

onde a soma e feita sobre ressonancias isoladas, cada uma delas corre-
spondendo a uma energia Ei, uma largura partial i e um largura total
i . Para o nucleo composto existe um regime onde as seguintes hipoteses
sao validas: (i) todos i sao reais e iguais a constante ; (ii) os i sao
numeros reais distribuidos aleatoriamente com

i = 0 i2 = 2 = cte

(iii) os Ei sao igualmente espacados, com espacamento D e (iv) D  .


(Caso voce esteja interessado na fsica do problema, consulte K. S. Krane,
Introductory Nuclear Physics.)

Usando as aproximacoes acima calcule (E), 2 (E) e (E)(E + ) e


mostre que
2
(E) 1 (E) (E + ) 2
= e = .
2(E) 2 2 (E) 2 + 2

Você também pode gostar