Você está na página 1de 19

3

1. Teoria das Distribui


c
oes da Fsica Estatstica
Esta introduca
o visa familiarizar o leitor com conceitos estatsticos, distribuic
oes, probabilidades, etc.. Os exemplos dados poder
ao parecer em primeira
inspeca
o banais, porem contem os ingredientes matem
aticos necess
arios para se
compreender as aplicaco
es fsicas a serem estudadas ao longo do curso. A exposica
o ser
a sucinta e desprovida de rigor matem
atico. Para material de apoio
e complemento, algumas referencias padr
ao s
ao fornecidas ao final do captulo.
O objetivo de uma teoria estatstica e descrever comportamentos medios
de sistemas. Em particular, a teoria ser
a mais eficiente quando tratar de N
sistemas preparados de forma semelhante com N  1. O tratamento estatstico
e bastante usado em v
arios campos do conhecimento, tais como fsica, medicina,
sociologia, etc.. Uma teoria aplic
avel em uma variedade t
ao grande de problemas
n
ao pode ser baseada exclusivamente em caractersticas especficas dos sistemas
estudados. Veremos que algumas hip
oteses fortes sobre aspectos genericos dos
problemas a serem estudados nos permitem uma grande simplificaca
o e o uso
de um tratamento unificado. Os exemplos a seguir tornar
ao mais clara esta
discuss
ao:
Um problema estatstico simples com o qual nos defrontamos j
a em cursos de
matem
atica elementar e: Jogando cara ou coroa com uma moeda N vezes, qual
a probabilidade de que obtenhamos cara n vezes (com n N )? Este problema
nos e familiar e sabemos trat
a-lo usando a teoria de probabilidades a qual
nada mais e do que a teoria estatstica.
Um exemplo de um problema de fsica e: Uma partcula em suspens
ao na
superfcie de um lquido percorre em media uma dist
ancia ` entre colis
oes com
outras partculas. Ap
os N colis
oes qual a probabilidade de que a partcula em
quest
ao esteja a uma dist
ancia d do ponto inicial? A teoria estatstica d
a uma
resposta.
A chave para identificarmos a semelhanca entre os exemplos dados est
a na
complexidade da din
amica dos mesmos. De fato, mesmo o primeiro exemplo
poderia ser descrito atraves da mec
anica cl
assica. Imagine que conhecessemos
as condico
es iniciais da moeda ao ser lancada com grande precis
ao e pudessemos
integrar suas equaco
es de movimento. Isto nos propiciaria prever se o resultado
seria cara ou coroa, pois trata-se de um problema determinstico. A pr
atica
nos mostra que tal projeto e bastante difcil de ser executado caso contr
ario,
alguem j
a estaria explorando um cassino com esta ideia. Por tr
as disto est
aa
noca
o de ergodicidade, a base em que se apoia a teoria estatstica. Quando um
problema e muito complexo e o resultado final varia drasticamente atraves
de alteraco
es mnimas das condic
oes iniciais, o problema e classificado como
erg
odico e um tratamento estatstico torna-se adequado. Pense que mesmo
tendo calculado o resultado do lancamento da moeda para um conjunto de
condico
es iniciais, uma s
ubita lufada de vento pode p
or todo c
alculo a perder.
O problema erg
odico n
ao ser
a tratado neste curso, pois o tornaria demasi-

1
0
1
0

l
11
00
00
11
00
11

00
11
11
00
00
11
00
11
00
11
00
11

1
0
0
1

1
0
0
1
1
0
1
0

1
0
0
1

111
000
000
111
000
111

1
0
1
0

1
0
0
1

1
0
0
1
1
0
1
0
1
0
0
1

1
0
1
0

1
0
0
1

1
0
1
0

1
0
1
0
1
0
0
1

1
0
1
0

Figure 1: Partcula movendo-se sob a aca


o de centros espalhadores.
adamente longo. Voltaremos a esta discuss
ao em outras oportunidades mais `
a
frente, mas sempre superficialmente. Referencias bibliogr
aficas adequadas sobre
o assunto est
ao listadas no final do captulo. A mensagem que deve ficar e que
e freq
uente encontrarmos sistemas cujo comportamento e determinstico, mas
que podem ser considerados como dando eventos completamente aleat
orios e
descorrelacionados.
O roteiro deste captulo se inicia com uma apresentaca
o dos elementos b
asicos
da teoria estatstica. Comecamos nossa discuss
ao com vari
aveis discretas, distribuic
ao binomial e o exemplo do passeio aleat
orio. Passamos ent
ao para o
limite contnuo e discutimos a distribuic
ao gaussiana e a distribuic
ao de Poisson, ambas de grande relev
ancia para fsica.

1.1. Elementos b
asicos de estatstica
Tomemos de uma vari
avel u que s
o possa assumir um conjunto cont
avel
(finito ou infinito) de M valores
u1, u2, , uM .
Esta vari
avel e chamada de estoc
astica quando seu valor s
o pode ser determinado
ap
os o exame do resultado do experimento, como por exemplo no jogo de cara
ou coroa. Podemos definir P (ui), a probabilidade de um
P experimento dar ui .
Obviamente a func
ao P (u) deve satisfazer P (u) 0 e i P (ui ) . O valor
medio de u, que ser
a denotado por u, e dado por
PM
P (ui)ui
P (u1)u1 + + P (uM )uM
u=
u = Pi=1
ou
.
(1)
M
P (u1) + + P (uM )
i=1 P (ui )
Por conveniencia, em geral, as distribuico
es de probabilidade s
ao normalizadas
u
`nidade,
M
X
P (ui) = 1 .
(2)
i=1

5
Assim sendo a media passa a ser dada pela forma mais simples
M
X

u=

P (ui)ui .

(3)

i=1

Esta definica
o e facilmente estendida a medias de funco
es arbitr
arias da vari
avel
u
M
X
f(u) =
P (ui)f(ui ) .
(4)
i=1

Por vezes desejamos obter apenas algumas informaco


es simples de uma distribuic
ao, enquanto que conhecer a funca
o exata que ajusta tal distribuica
o e
uma informac
ao que n
ao nos interessa. Nestes casos e interessante se conhecer
os primeiros momentos de uma distribuica
o, onde o n-esimo momento e definido
como
un

M
X

P (ui)un
i .

(5)

i=1

Em primeira inspeca
o, poderamos conjecturar que conhecendo todos os momentos de uma distribuica
o, te-la-amos caracterizado completamente. Infelizmente
h
a alguns contra-exemplos que desmentem esta asserciva. Ainda assim, por
vezes o primeiro e segundo momentos de uma distribuic
ao contem informaca
o
suficiente para diversas aplicaco
es fsicas.
O primeiro momento nada mais e do que a media da distribuica
o, como fica
claro ao compararmos a Eq. (3) com a Eq. (5). Muito u
til tambem e a vari
ancia,
definida como o segundo momento em torno da media, ou
(u)2 (u u)2 =

M
X

P (ui)(ui u)2 2 ,

(6)

i=1

onde e chamado de desvio padr


ao. Note que
(u u)2 = u2 2uu + u2 = u2 2u u + u2 = u2 u2 ,
como (u)2 0, ent
ao
u2 u2 ,

(7)

comum usar-se tambem


garantindo que a vari
ancia e sempre positiva ou nula. E
2
u para denotar a vari
ancia no que segue daremos preferencia a esta u
ltima
notaca
o.
A maioria dos problemas fsicos a serem considerados neste curso envolvem
vari
aveis estoc
asticas contnuas e n
ao as discretas, descritas acima. Para tratarmos tais problemas, os conceitos acima apresentados precisam ser estendidos.
Como acima, tambem quando trabalhamos com uma vari
avel estoc
astica contnua
x, a quantidade estatstica central de interesse e a distribuic
ao P (x). Neste caso,

6
a probabilidade de que o resultado de uma medida de x esteja entre os valores
a e b e dada por:
Z b
dx P (x) .
(8)
P(a x b) =
a

Esta definica
o e tambem a justificativa para chamarmos P (x) de densidade de
probabilidade. A igualdade acima e v
alida para P (x) normalizados a unidade
Z
dx P (x) = 1 ,
D

onde a integraca
o e feita sobre todo o domnio D da densidade de probabilidade.
Estas consideraco
es nos levam imediatamente `
a generalizaca
o dos momentos de
uma distribuic
ao. A definica
o agora passa a ser
Z
n
x =
dx xn P (x) .
D

Esta relaca
o ser
a muito utilizada nos captulos que se seguem.

1.2. Passeio aleat


orio e a distribui
c
ao binomial
Consideremos o problema de uma partcula restrita a movimentar-se em uma
dimens
ao sob a influencia de um potencial que age periodicamente. Suponhamos
ainda que o potencial age ap
os cada passo de comprimento ` da partcula e
seu efeito e de determinar aleatoriamente em que direca
o ser
a dado o pr
oximo
passo. Seja p a probabilidade de ir para a direita e q a de ir para a esquerda:
Ap
os N passos, a pergunta natural deste problema e: Qual a probabilidade de
encontrarmos a partcula na posica
o m, ao final destes N passos? Ou melhor,
quanto vale PN (m)?
Alternativamente sabendo o n
umero de passos para a direita, n1 ; ou o
n
umero de passos para a esquerda n2, a posica
o m fica determinada, pois
n1 + n2 = N

n1 n2 = m .

(9)

A probabilidade de uma seq


uencia de n1 passos para a direita e n2 passos
para a esquerda e dada pelo produto
p p
| {z }
n1

q q
| {z }

= pn1 qn2 .

(10)

n2 vezes

H
a, no entanto, para um total de N passos v
arias seq
uencias distintas compostas
de n1 passos `
a direita e n2 passos `
a esquerda. O n
umero total de seq
uencias
distintas C corresponde ao n
umero de permutaco
es na ordem em que os passos
s
ao dados para a direita e para a esquerda. Este n
umero e

C=

N!
.
n1!n2!

(11)

Ent
ao a probabilidade de tomarmos n1 passos `
a direita (ou n2 = N n1 `
a esquerda) em qualquer ordem e obtida multiplicando a probabilidade pelo n
umero
de caminhos possveis.
WN (n1 ) =

N ! n1 n2
p q .
n1 !n2!

(12)

Esta e a distribuic
ao binomial. 1
Como n1 e N determinam a posica
o m, pois n1 = (N + m)/2 e n2 =
(N m)/2, podemos traduzir WN (n1) em PN (m)
PN (m) = 

N!

 p(N +m)/2 (1 p)(N m)/2 .
(N + m)/2 ! (N m)/2 !

(13)

Exemplo: Vamos analisar o problema de jogarmos cara ou coroa N = 20


vezes. A probabilidade de obtermos cara e p = 1/2 (an
alogo ao ir para a
direita ou esquerda com p = 1/2 no problema do passeio aleat
orio) e coroa tem
probabilidade q = 1 1/2 = 1/2.
Figura 1.2.

A figura acima traduz muito bem o resultado intuitivo de que jogando


N = 20 vezes, o resultado mais prov
avel e que tenhamos 10 eventos cara
(n1 = 10). Para n1 = 10, W20 (n1) tem seu m
aximo e nos d
a o resultado
importante notar que resultados muito diferentes de n1 = 10
mais prov
avel. E
s
ao pouco prov
aveis, ou seja |n1 10|  1, W20 (n1 ) 0.
Voltemos ao problema do passeio aleat
orio para estudarmos o valor medio
e a vari
ancia. O n
umero medio de passos `
a direita e obtido usando as Eqs.(3)
e(12)
n1 =

N
X
n1 =0

1 Aqui

WN (n1) n1 =

N
X
n1

N!
pn1 qN n1 n1 .
n
!(N
n1)!
=0 1

conv
em nos lembrarmos da expans
ao binomial: (p + q)N =
n
N
n
.
n)!)p q

PN

n=0

(14)

N !/(n!(N

8
Atraves do metodo da forca bruta podemos calcular n1 atraves dos seguintes
passos: Primeiro corta-se o fator multiplicativo n1 com o fatorial tomando o
cuidado de alterar o somat
orio
n1 =

N
X
n1

N!
pn1 qN n1 ,
(n

1)!(N

n
)!
1
1
=1

em seguida, fazendo a mudanca de vari


aveis n0 = n1 1, obtemos uma nova
0
distribuica
o binomial em n
n1 =

N
1
X
n0 =0

N
1
X
0
0
N!
(N 1)!
n0 +1 N 1n0
q
=
N
p
p
pn qN 1n .
0
0
0
0
n !(N 1 n )!
n !(N 1 n )!
0
n =0

A nova somat
oria e a expans
ao binomial de (p + q)N 1 . O resultado final e
n1 = N p .

(15)

Este resultado j
a era previsvel antes mesmo de fazermos as contas, pois a media
de passos para a esquerda nada mais e do que o n
umero total de passos N vezes
a probabilidade p de ir para a esquerda a cada passo.
Um modo mais elegante de obtermos este resultado e observarmos que
n1pn1 = p

n1
(p ) .
p

Usando esta identidade em (14) escrevemos


#
" N
X

n1 = p
WN (n1) = p (p + q)N = p N .
p n =0
p

(16)

Este truque torna f


acil a tarefa de calcular o segundo momento n2i (tente o
metodo direto, e convenca-se de que este e bastante trabalhoso!)

n21


2
N
X
N!
N!

pn1 qN n1
pn1 qN n1 n21 =
p
n
!(N

n
)!
n
!(N

n
)!
p
1
1
1
1
n1 =0
n1 =0

2

p
(p + q)N .
(17)
p
N
X

Desta equaca
o, operando as derivadas e ap
os algumas manipulac
oes algebricas,
obtemos
n21 = (N p)2 + N pq ,
(18)
o que nos leva ao resultado final para a vari
ancia
n21 (n1 n1 )2 = N pq .

(19)

9
A vari
ancia envolve quadrados de n1 e uma boa estimativa da vari
ancia tpica
vem de
p
p

r
n21
N pq
q 1
n21
1

=
.
=
ou
(20)
n1
Np
p N
n1
N
A express
ao (20) implica
ao dividido pelo
que com N crescente o desvio padr
valor medio cai com 1/ N . Este quociente e um bom par
ametro para uma
estimativa do intervalo de confiabilidade (ou erro) de um experimento, como
por exemplo N jogos de cara ou coroa.

1.3. A distribui
ca
o de Poisson
A distribuic
ao poissoniana e um caso particular da distribuic
ao binomial,
quando um evento tem probabilidade muito pequena de ocorrer (p  1), mas
o n
umero total de eventos e muito grande (N  1) de modo que N p seja uma
constante finita. Ou seja, n = N p  1. Neste caso n
ao e difcil mostrar que a
distribuica
o binomial se reduz a:
WN (n) =

nn n
N!
.
pn (1 p)N n
e
(N n)!n!
n!

Antes de fazermos a demonstrac


ao e necess
ario apresentarmos uma aproximaca
o
para a funca
o fatorial, conhecida como f
ormula de Stirling 2
 n n

n! 2n
,
(21)
e
a qual nos permite extender para o contnuo o domnio da vari
avel discreta n.
Facamos agora a
algebra: usando a f
ormula de Stirling, vemos que


N N
N!
N
e
Nn .


(N n)!
N n N n N n
e
Empregando esta relaca
o e lembrando que p = n/N , podemos escrever

N n
n
Nn n
WN (n)
.
p 1
n!
N
Para chegar ao resultado desejado, agora basta apenas lembrar que para a finito,

a N
lim 1
= ea ,
N
N

Stirling: Definindo s(n) = 2n(n/e)n /n!, podemos nos convencer


numericamente da acur
acia da aproximaca
o, notando que
2 Precis
ao da f
ormula de

s(1) 0.90 ,

s(2) 0.96 ,

s(5) 0.98 ,

s(10) 0.99 ,

etc.

10
e uma das definico
es da funca
o exponencial.
Note que a nova distribuic
ao n
ao depende separadamente de p e N , mas da
ao e a distribuica
o de Poisson:
combinaca
o a n = N p. Esta express
Pa (n) =

an a
e .
n!

(22)

Esta distribuica
o tem m
ultiplas aplicaco
es em disversas
areas da fsica. Um
dos exemplos mais simples e o do decaimento radiativo nuclear. Imagine uma
amostra de algumas gramas de um material contendo uma concentrac
ao razo
avel
de n
ucleos que decaem espontaneamente com tempo medio de decaimento (tempo
de meia vida) da ordem de semanas. Neste caso dar um tratamento microsc
opico
ao problema e virtualmente impossvel, uma vez que o n
umero de constituintes
do sistema e enorme e a natureza da interaca
o nuclear e complexa. Conclui-se
que o tratamente estatstico se faz necess
ario. Notemos ent
ao que o n
umero de
n
ucleos e grande (N  1), e que no entanto a probabilidade de que um dado
n
ucleo decaia em um segundo, por exemplo, e baixa (p  1). Destas condico
es
vemos que a distribuic
ao de Poisson deve ser a mais indicada para descrever o
processo. A an
alise dos dados mostra que ela o faz com grande sucesso.

1.4. O limite para N  1 e a distribui


c
ao gaussiana
O objetivo desta sess
ao e obter o limite da distribuica
o binomial para N  1,
no caso em que n1 = pN  1 e n2 = qN  1. Examinando a Fig. 1.2, podemos
esperar que, nestas condico
es, a distribuic
ao WN (n1 ) seja centrada em torno
de n1 caindo rapidamente para valores de n1 muito diferentes do valor medio.
Mostraremos abaixo que a curva contnua que melhor ajusta o histograma da
Fig. 1.2 e uma gaussiana.
Aproximando os fatoriais da distribuic
ao binomial WN (n), Eq. (12) pela
express
ao (21), obtemos

N n
2N Ne
p 1 (1 p)N n1
WN (n1)
n1 p
N n1 .
1
2n1 ne1
2(N n1 ) N n
e
Explicitando a
algebra, mesmo correndo o risco de sermos tediosos, WN (n1)
pode ser rearranjado como:
WN (n1 )


n N 1/2
1  n1 n1 1/2 N n1 1
pn1 (1 p)N n1
N
2N N

Para as simplificac
oes subseq
uentes e necess
ario escrever WN (n1 ) como uma
exponencial


n
1
1  n1 
1
N n1
WN (n1 ) =
(N n1 + ) ln
+
exp (n1 + ) ln
2
N
2
N
2N

11

1
2N

n1 ln p + (N n1 ) ln(1 p)
o
n
exp f(n1 ) .

o
(23)

O motivo para fazermos estas manipulaco


es e que queremos mostrar que (23)
pode ser muito bem aproximada por uma gaussiana centrada em n1 , o que
implica que f(n1 ) a + b(n1 n1 )2, onde a e b s
ao constantes arbitr
arias com
b < 0. Para determinarmos a e b, e conveniente expandir f(n1 ) em serie de
Taylor em torno de um ponto arbitr
ario n01
1
1
f(n1 ) = f(n01 ) + f 0 (n01 )(n1 n01) + f 00 (n01 )(n1 n01)2 + f 000 (n01 )(n1 n01 )3 +
2
6
(24)
onde queremos que n01 satisfaca:



d


WN (n1 )
=0
implica que
f 0 (n1 )
=0,

dn1
n1 =n01
0
n1 =n1

Da fica claro que n01 n1, pois


f 0 (n1) = ln

n1
N n1
n1
1
1
N
1+ln

+ln pln(1p) ,

+
+
N 2n1
N
2(N n1 ) N n1 N n1

lembrando que n1 = N p e tomando f 0 (n1 ) em n1 , obtemos




pq

0
f (n1)
=
0

2N pq
n1 =n1

para N  1 (a menos que pq  1, que e o caso do limite de Poisson discutido


f
no t
opico anterior). E
acil prosseguir e calcular a segunda e terceira derivadas
da funca
o f(n1 )


n1
d 0
d
N n1
1
1
f 00 (n1 ) =
ln
f (n1 ) =
+ ln

+
+ ln p ln(1 p)
dn1
dn1
N
2n1
N
2(N n1 )
1
1
=

+ O(N 2)
(25)
n1
N n1
portanto, para n1 = n1



f (n1 )

00

n1 =n1

1
1
1

=
.
Np N Np
N pq

A derivada terceira e:
f 000 (n1)

d 00
d
f (n1 ) =
dn1
dn1



1
1
1
1

= 2

,
n1 N n1
n1 (N n1 )2

(26)

12
o que d
a




f (n1 )

000

=
n1 =n1

1
(p2 q2 ) .
(N pq)2

(27)

Note que p 1 e q 1, portanto |q2 p2 | < 1. Disto decorre que:






1


000
00
|f (n1 )|
< 2 2 2  |f (n1)|
,


N p q
n1 =n1

(28)

n1 =n1

e por isto para N  1, derivadas superiores a f 00 podem ser desprezadas. (A


grosso modo cada derivada a mais ganha um termo da ordem de 1/N o que
garante a qualidade da aproximaca
o para N  1.)
Precisamos ainda calcular f(n1 ) (lembrando novamente que n1 = N p)
f(n1 )

n1
1
1
N n1
= (n1 + ) ln
(N n1 + ) ln
+ n1 ln p + (N n1 ) ln(1 p)
2
N
2
N
1
N Np 1 N Np
= N p ln p ln p (N N p) ln
ln
+
2
N
2
N
N p ln p + (N N p) ln(1 p)
1
1
= ln p ln q .
(29)
2
2

Reunindo estes resultados ficam determinados a e b, de modo que




1
1 00
2
WN (n1 )
exp f(n1 ) + f (n1 )(n1 n1 )
2
2N
obtemos a distribuica
o aproximada


1
(n1 n1 )2
WN (n1 ) =
exp
2
2N
2N

onde

N =

p
N pq .

(30)

ilustrada na figura 1.3.


Ainda n
ao chegamos `
a distribuica
o gaussiana propriamente dita, pois faltanos tirar o limite para uma distribuica
o de vari
avel contnua. Antes de faze-lo,
e bom motivar fisicamente o trabalho a ser feito.
ancia (`
as
Como vimos a vari
vezes chamada de dispers
ao) escala como N e, juntamente com o valor
medio, determina o intervalo mais prov
avel de um evento
ocorrer (n1 ). Para

N  1, h
a muitos valores de n1 neste intervalo ( N ).
Dito isto, voltemos ao problema do passeio aleat
orio e ao inves de contar o
n
umero de passos `
a direita, digamos que o que nos interessa e a posic
ao final:
x = (2n1 1 N )` ,

(31)

onde ` e o comprimento de cada passo. A distribuic


ao desejada pode tomar um
n
umero muito alto de valores com alta probabilidade, pois N  1. Em geral
`/x  1, o que nos motiva a simplificar o problema e tomar a vari
avel x como

13
contnua. Resta-nos agora transformar WN (n1 ) em uma distribuica
o P (x) com
x contnuo. Para tal observemos que
P (x)dx = WN (n1 )

dx
.
2`

(32)

Esta relaca
o e simples de verificar graficamente (Fig. 1.3)
Figura 1.3

Substituindo (32) em (30) e definindo = (pq)N ` e = 2 N pq`, obtemos:




1
(x )2
P (x) =
,
exp
22
2

(33)

a distribuic
ao gaussiana.
Examinemos agora propriedades da distribuica
o gaussiana. Primeiro, sua
normalizaca
o tem de ser verificada
Z
Z
Z
2
2
2
1
1
dxP (x) =
dx
dy ey /2 = 1 ,
e(x) /2 =
2
2

o que e um teste de consistencia para as aproximaco


es que fizemos a fim de
obter (33), uma vez que a distribuica
o binomial, nosso ponto de partida, e
normalizada.
Usando as relaco
es do apendice A, fica f
acil de ver que para a distribuic
ao
gaussiana dada por (33), x = e que a vari
ancia x2 = 2 . De fato, e
caracterizam completamente a distribuica
o gaussiana.

1.5. Fun
c
ao caracterstica e o teorema do limite central
comum caracterizarmos uma distribuic
E
ao por seus momentos. Para isto e
muito u
til trabalharmos com a funca
o caracterstica da distribuic
ao em quest
ao.
Ela e dada pela transformada de Fourier da densidade de probabilidade
Z
ikx
(k) e
= dx eikxP (x) .
(34)

14
Expandindo a funca
o caracterstica em uma serie de potencias em k, obtemos o
seguinte resultado


Z
i 3 3
1 2 2
(k) =
dx P (x) 1 + ikx k x k x +
2!
3!

2
n
X
(ik)n xn
k
(ik) n
= 1 + ikx x2 + +
x + =
. (35)
2!
n!
n!
n=0
Alternativamente a densidade de probabilidade e a transformada de Fourier
inversa da funca
o caracterstica. Conhecendo a funca
o caracterstica, podemos
facilmente calcular os momentos de todas as ordens de uma distribuica
o:

1 dn(k)
xn = n
.

i
dkn
k=0

A utilidade da funca
o caracterstica fica mais patente quando examinamos
um evento que depende de duas ou mais vari
aveis aleat
orias. Por simplicidade,
consideremos inicialmente uma vari
avel aleat
oria z que seja funca
o das vari
aveis
aleat
orias x e y, com z = G(x, y). A densidade de probabilidade de z e definida
como
Z
Z
P3(z) = dx dy (z G(x, y))P (x, y) ,
onde P (x, y) e a densidade de probabilidade para a combinaca
o de eventos (x, y).
Se estes forem independentes, ent
ao P (x, y) = P1(x)P2 (y) e fica f
acil de ver que
a func
ao caracterstica de P3(z)
Z
3(k) dz eikz P3(z)
e expressa por
Z
Z
Z
Z
Z
3 (k) = dz eikz dx dy (zG(x, y)) P1 (x)P2(y) = dx dy eikG(x,y)P1(x)P2 (y) .
Para G(x, y) = x + y
3 (k) =

Z
dx dy eik(x+y) P1(x)P2(y) = 1(k)2 (k)

ou seja, a funca
o caracterstica de z e o produto das funco
es caractersticas de
x e y.
A aplicaca
o mais direta disto e: Consideremos uma vari
avel aleat
oria x que
siga a distribuic
ao de probabilidade P (x) com primeiro e segundo momentos
respectivamente x e x2. Ent
ao facamos n medidas de x e tomemos a media
a=

1
(x1 + x2 + + xn) .
n

(36)

15
Qual ser
a a distribuica
o Q(a) da vari
avel a? O melhor modo de obtermos uma
resposta a esta pergunta e calcularmos (k), a funca
o caracterstica de Q(a):
Z
(k) =
da eik(ax) Q(a x)
 h
Z
i
ik
=
dx1 dxnP (x1) P (xn) exp
(x1 x1) + + (xn xn)
n




Z
Z
ik
ik
=
dx1P (x1) exp
(x1 x1) dxnP (xn) exp
(xn xn)
n
n
  n
k
=

.
(37)
n
Definindo, por consistencia,
Z
1
(k) = dxP (x x)eik(xx) = 1 k2 2 + O(k3 )
2
(convenca-se disto comparando (35) com a express
ao acima), segue que

n

1 k22
k3
(k) = 1
+O 3
2 n2
n
a qual no limite de n  1, resulta em
(k)

ek

2 /2n

(38)

Para obtemos Q(a) basta fazer a transformada de Fourier inversa


Z
1
Q(a x) =
dk eik(ax) (k) ,
2
a qual e f
acilmente efetuada, bastando completar quadrados

!2
p
Z

Z
2
2 2
n/2
n (a n)
k
.
dk eik(ax) ek /2n = exp
dk exp i
(a x) +
2
2

2n

A integral gaussiana e obtida fazendo uma mudanca de vari


aveis e consultando
o apendice A. O resultado e



n
n (a x)2
Q(a x) =
(39)
exp
2
2
2
o que nos mostra que independente da forma de P (x), a media de um grande
n
umero de x ser
a uma gaussiana centrada em x e com desvio padr
ao N 1/2 vezes
menor do que o desvio padr
ao da densidade de probabilidade P (x). O u
nico

16
requerimento e de que P (x) tenha momentos finitos. Este resultado e chamado
de teorema do limite central.

T
opico especial: Equa
c
ao de Difus
ao
Consideremos novamente o problema do passeio aleat
orio em uma dimens
ao,
onde uma vari
avel segue a probabilidade condicional T de dar passos de comprimento ` a cada intervalo de tempo . Se conhecermos:

T n1 `, (s 1) |n2`, s )
a probabilidade condicional de que uma vari
avel estoc
astica
u ter o valor n2 no s-esimo passo dado que tenha o valor n1
no (s 1)-esimo passo,
(40)
onde u = 0, 1, 2, d
a o valor absoluto da posica
o da partcula, podemos
escrever a equac
ao de evoluca
o temporal para probabilidade de encontrarmos
uma partcula na posic
ao n2 ` como
X
P1 (n2`, s ) =
P1(n1 `, (s 1) )T (n1`, (s 1) |n2`, s ) .
(41)
n1

No caso mais simples, correspondendo ao exemplo do jogo de cara ou coroa, a


probabilidade de ir `
a esquerda ou direita e igual e, portanto,
 1
1
T n1 `, (s 1) |n2`, s = n2 ,n1 +1 + n2 ,n1 1
2
2
de modo que a Eq.(41) se simplifica para:
P1 (n`, s ) =

1
1
P1((n 1)`, (s 1) ) + P1((n + 1)`, (s 1) )
2
2

Para obtermos uma equaca


o diferencial para a distribuica
o de probabilidade,
temos que reescrever a equaca
o acima na forma:

P1 (n`, s ) P1(n`, (s 1) )
1
=
P1((n+1)`, (s1) )2P1 (n`, (s1) )+P1 ((n1)`, (s1) ) .

2
Vamos agora escrever x = n` e t = s e tomar o limite ` e 0, de modo
que D = `2/2 seja finito. Como resultado obtemos a equaca
o de difus
ao
P1 (x, t)
2 P1(x, t)
.
=D
t
x2

(42)

Podemos resolver de forma f


acil a Eq. (42) para o caso especial em que
inicialmente P1(x, 0) = (x), onde (x) e a funca
o delta de Dirac (veja apendice
A). Para tal e conveniente fazer a tranformada de Fourier de P1 (x, t)
Z
Pe(k, t) =
dxP1(x, t) eikx .

17
Assim, a Eq. (42) assume a forma
Pe (k, t)
= Dk2 Pe1(k, t) ,
t
que podemos imediatamente solucionar, dando
2
Pe1(k, t) = A eDk t

onde a constante A e determinada pelas condico


es iniciais do problema. Como
Pe1 (k, 0) = 1, temos que A = 1. Fazendo a transformada de Fourier inversa
Z
2
1
P1(x, t) =
dkeikxeDk t
2
o que nos leva `
a resposta final
2
1
P1 (x, t) =
ex /4Dt .
4Dt

(43)

Um dos resultados interessantes que podemos obter sem grande esforco s


ao
as equac
oes de movimento
para
os
momentos
da
distribui
c
a

o
P
(x,
t).
O
mo1
R
mento hx(t)i dxxP1(x, t) d
a a posica
o media da partcula como funca
o
do tempo. Multiplicando a Eq. (42) por x e integrando sobre x, encontramos
Z
dhx(t)i
2P1(x, t)
dxx
=0
=D
dt
x2

o que nos leva a concluir que a posica


o media da partcula n
ao muda com o
tempo. Podemos fazer algo muito parecido para hx2(t)i. Neste caso multiplicamos a Eq. (42) por x2 e integramos sobre a posic
ao, encontrando
dhx2(t)i
= 2D
dt

ou seja

hx2(t)i = 2Dt

o que se constitui numa das caractersticas mais marcantes de um processo


difusivo. O momento hx2 (t)i e uma medida da largura de P1(x, t) no instante
t, a qual se alarga com o tempo, conforme j
a esperado.

Sugest
oes bibliogr
aficas
Boa parte dos textos de mec
anica estatstica partem do pressuposto de que a
teoria de distribuico
es e um pre-requisito para o curso e d
ao uma enfase diferente
as quest
`
oes matem
aticas tratadas neste captulo. Assim, textos tradicionais
costumam ser bastante sinteticos, com a not
avel excess
ao do livro do Reif [1],
o qual recomendo fortemente como leitura suplementar. Boas referencias para
teoria de distribuic
oes para fsicos s
ao Matthews e Walker [2] e um pouco mais
avancado Hoel [3]. Estudantes com pendores matem
aticos que queiram ler um
pouco mais sobre teoria erg
otica devem consultar o texto de Kinchin [4].

18
1. F. Reif, Fundamentals of Statistical and Thermal Physics (McGraw-Hill
Book Co., New York, 1965).
2. J. Matthews e R. L. Walker, Mathematical Methods of Physics (W. A.
Benjamin, Menlo Park, 1973)
3. P. G. Hoel, Introduction to Mathematical Statistics (Wiley, New York,
1966).
4. A. I. Kinchin, Mathematical Foundations of Statistical Mechanics (Dover
Publications, New York, 1949).

Problemas resolvidos
1. Um recipiente macrosc
opico de volume V contem N moleculas de um g
as
ideal em equilbrio termico.
(a) A probabilidade de que uma dada molecula esteja numa pequena
parte de volume v do recipiente e p = v/V . Qual a funca
o distribuic
ao
f(n) que d
a a probabilidade de encontrarmos n moleculas em v?
(b) Calcule o n
umero medio de partculas em v como funca
o de N, v e V
(c) Qual a probabilidade de que n
ao haja molecula alguma em v? Se
o ar fosse composto apenas de O2 , qual a probabilidade de nossos
pulm
oes n
ao capturarem molecula alguma de O2 em uma aspirac
ao
tpica (v = 103m3)?
Resoluca
o:
(a) Se v  V , ent
ao p = v/V  1, mas num recipiente macrosc
opico h
a
um n
umero de moleculas N  1. Da a distribuica
o que nos d
a a
probabilidade de encontrarmos n moleculas em v e a Poisson.
P (n) =

an a
e
n!

com

a = pN .

(b) O n
umero medio de partculas e n = pN .
(c) Nenhuma molecula em v corresponde a n = 0
P (0) = ea

com

a=

v
N.
V

Para o caso em quest


ao (veja uma tabela de constantes fsicas!)
N/V = 2.4 1025 m3 e v = 103m3. Assim, a = 2.4 1022.
Portanto P (0) = exp(2.4 1022)  1. O que nos garante que nestas condico
es e bastante improv
avel nos sufocarmos por flutuac
oes
estatsticas.

19
2. O modelo de Drude para metais considera que cada
atomo da rede cristalina
contribui com um certo n
umero de eletrons de valencia, os quais se movem
quase livremente dentro do metal. A probabilidade de um eletron sofrer
uma colis
ao em um intervalo de tempo infinitesimal dt e dt/ .
(a) Mostre que um eletron escolhido aleatoriamente em um certo instante
tem probabilidade et/ de n
ao ter sofrido colis
ao alguma nos t segundos anteriores. Mostre tambem que a probabilidade de n
ao haver
colis
ao alguma nos pr
oximos t segundos e a mesma.
(b) Mostre que a probabilidade de que o intervalo entre duas colis
oes
sucessivas esteja compreendido entre t e t + dt e (dt/ ) et/ .
(c) Mostre que, como conseq
uencia, o tempo medio entre colis
oes sucessivas de um eletron e .
Resoluca
o:
(a) Tomemos um eletron aleat
orio no instante t e digamos que a probabilidade de ele n
ao ter sofrido colis
ao desde t = 0 seja P (t). A probabilidade de que ele continue se propagando livremente ate t + dt e
ent
ao dada por
dt
P (t + dt) = (1 )P (t) .

Reescrevemos a express
ao acima como:
dP P (t + dt) P (t) =

dt
P (t)

ou

dP
dt
= .
P

Integrando a equaca
o acima em ambos os lados e considerando que
P (0) = 1, obtemos o resultado desejado P (t) = et/ . O outro caso
do enunciado e deixado para o leitor.
(b) O raciocnio e muito parecido com o do item anterior. Agora, queremos que o eletron que propagou livremente ate t (processo com
probabilidade P (t)) sofra colis
ao entre os intantes t e t + dt (processo
com probabilidade dt/ ). Isto d
a
Pc (t) =

dt
P (t)

ou seja

Pc(t) =

dt t/
,
e

o que nos define uma probabilidade para a taxa de colis


oes dPc/dt.
(c) O tempo medio de colis
oes pode ser obtido da integral
Z
Z
dPc
t
t=
dt t
dt et/
=
dt

0
0
cujo resultado e t = .

20

Problemas propostos
1. Considere a distribuic
ao poissoniana Pa (n) = (an /n!) ea
(a) Demonstre que a distribuic
ao de Poisson e normalizada
(b) Calcule o valor medio da distribuic
ao e sua vari
ancia.
2. A vari
avel aleat
oria x obedece `
a distribuica
o de probabilidade
f(x) = ex

(0 < x < )

(a) Encontre x
ao escolhidos independentemente. Encontre
(b) Dois valores x1 e x2 s
x1 + x2 e x1 x2
(c) Qual a distribuica
o de probabilidade P (a) da vari
avel aleat
oria a =
(x1 + x2)/2. Sugest
ao: Cuidado com os domnios de integraca
o!)
3. Mostre que a funca
o caracterstica para a distribuica
o gaussiana e
(k) = eikx ek

2 /2

(Veja que o fator gaussiano em (k) faz com que apenas valores de k da
ordem de 1/ sejam importantes, pois (k) e muito pequeno para k  1/.
Trace analogia com o princpio da incerteza!)
4. Em 0.30 mg de 238U temos 7.6 1017
atomos. A probabilidade de que um
n
ucleo se desintegre por segundo (emitindo uma partcula ) e 4.91018.
Ent
ao, para t = 1s, p = 4.9 1018. Estamos supondo que o decaimento
de diferentes
atomos n
ao seja correlacionado.)
(a) Argumente por que a distribuica
o de Poisson e uma boa aproximaca
o
para o decaimento estatstico do 238U , supondo que a distribuic
ao
binomial descreve bem o processo.
(b) Escreva a distribuica
o de Poisson que d
a a probabilidade de que em
1 s, n n
ucleos decaiam e construa o histograma de Pa (n 15).
(c) Qual a probabilidade de que em 1 s nenhum
atomo decaia?
(d) Qual a probabilidade de que em 1 s pelo menos 5
atomos decaiam?
5. No caso da distribuic
ao gaussiana o devio padr
ao tem um significado estatstico bem definido. No caso em que


1
(x )2
P (x) =
,
exp
22
2
(a) Qual a probabilidade de observarmos um evento num intervalo [
, + ]?

21
(b) E em [ 3, + 3]? (Observaca
o: O resultado ser
a em termos
da funca
o erro. O valor numerico pode ser obtido consultando uma
tabela - recomendo Abramowitz e Stegun, Handbook of Mathematical Functions (Dover, New York).)
6. A teoria estatstica de reaco
es nucleares de n
ucleo composto, uma secc
ao
de choque tpica e dada por

2
X

i


(E) =
i

E

i
i
2
i
onde a soma e feita sobre ress
onancias isoladas, cada uma delas correspondendo a uma energia Ei, uma largura partial i e um largura total
i . Para o n
ucleo composto existe um regime onde as seguintes hip
oteses
s
ao v
alidas: (i) todos i s
ao reais e iguais `
a constante ; (ii) os i s
ao
n
umeros reais distribuidos aleatoriamente com
i = 0

i2 = 2 = cte

(iii) os Ei s
ao igualmente espacados, com espacamento D e (iv) D  .
(Caso voce esteja interessado na fsica do problema, consulte K. S. Krane,
Introductory Nuclear Physics.)
Usando as aproximac
oes acima calcule (E), 2 (E) e (E)(E + ) e
mostre que
(E)

2(E)

1
2

(E) (E + )
2 (E)

2
.
2 + 2

Você também pode gostar