Você está na página 1de 216

Notas de Aula de Fı́sica Estatı́stica

Thiago R. de Oliveira

June 21, 2017


2
Chapter 1

Prefácio

Estas notas de aula estão baseadas no livro do Salinas e seguem a ordem e estrutura dele. Elas
contém detalhes das passagens matemáticas e discussões extras sobre alguns detalhes. Além disso
adicionei outras coisas que julguei importante me baseando nos Livros: Reif, Gould, Blundell. As
notas de aula do Prof. Brum tb foram consultadas
Os livros de Fı́sica Estatı́stica que conheço podem ser classificados em dois tipos. Os que só
abordam a Fı́sica Estatı́stica e assumem um conhecimento previo de termodinâmica, como o do
Salinas. O segundo tipo são livros de termoestatı́stica, já que apresentam os dois tópicos de forma
conjunta, como o Reif, Gould, Blundell, etc. De fato a maior parte dos livros modernos parece
estar nesta segunda categoria.
Em relação a abordagem, encontrei dois principais modos de introduzir a fı́sica estatı́stica.
Iniciando com a teoria cinética dos gases, como o Huang, ou usando o problema do passeio aleatório,
como o Salinas, Reif, etc. Não tenho opinião formada sobre qual a melhor maneira. Considero
ambos os tópicos importantes, apesar de que talvez a teoria cinética tenha um valor mais histórico
do que prático atualmente. Como de costume minha tendência seria apresentar ambos. Mas como
o tempo é espaço são finitos e alguns livros de termodinâmica mais modernos já apresentam a teoria
cinética, optei por não apresenta-lá. Devo dizer que estas notas estão extremamente detalhadas,
creio eu, apresentando quase todos os detalhes da maior parte das ”deduções” matemáticas. E
tenho dúvidas se isso é desejável, visto que para aprender o aluno deve fazer as contas ele mesmo;
pelo menos eu acredito nisto. Tentei também ser detalhista na notação e indices, visto que minha
experiência é que muitos alunos ficam sem entender muita coisa por economizarmos na notação e
indices, já que para nós aquilo parece simples e claro.
Uma outra tentativa foi discutir a exaustão os conceitos envolvidos e suas conexões.

3
4 CHAPTER 1. PREFÁCIO
Contents

1 Prefácio 3

2 Introdução 9
2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2 Idéia Geral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 Breve Introdução Histórica 11

4 Revisão de Termodinâmica 13
4.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.2 Conceito de trabalho e calor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3 Leis da termodinâmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.3.1 1a Lei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.3.2 2a Lei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.3.3 3a Lei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4.4 Potenciais termodinâmicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.4.1 Potenciais Termodinâmicos e Transformação de Legendre . . . . . . . . . . 19
4.5 Equilı́brio e Estabilidade Termodinâmica . . . . . . . . . . . . . . . . . . . . . . . . 20

5 Teoria de Probabilidade 21
5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.2 Definições e Interpretações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.3 Propriedades Fundamentais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5.4 Sistemas Compostos ou de mais de uma variável . . . . . . . . . . . . . . . . . . . 23
5.5 Valores Esperados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.5.1 Primeiro momento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.5.2 Desvio Padrão, ou segundo momento . . . . . . . . . . . . . . . . . . . . . . 25
5.6 Interpretações e teoria de informação . . . . . . . . . . . . . . . . . . . . . . . . . . 27

6 Passeio aleatório e Distribuição Binomial 29


6.1 Valores esperados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.2 Movimento Browniano e difusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
6.3 Equação de Difusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.4 Limite N → ∞ e distribuição gaussiana . . . . . . . . . . . . . . . . . . . . . . . . 36
6.5 Expansão de P (n) e de lnP (n)(quadro do sec 1.5 do Reif) . . . . . . . . . . . . . . 41
6.6 Aproximação de Stirling . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
6.7 Teorema central do limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.8 ”Prova” de teorema central do limite . . . . . . . . . . . . . . . . . . . . . . . . . . 45

7 Descrição Estatistica de Sistemas Fisicos 49


7.1 Especificação do Estado de um sistema . . . . . . . . . . . . . . . . . . . . . . . . 50
7.1.1 Caso Clássico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
7.1.2 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.2 Gás Ideal Clássico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
7.3 Comportamento geral de Ω(E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

5
6 CONTENTS

7.4 Caso Quântico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57


7.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

8 Fundamentos da Fı́sica Estatı́stica 61


8.1 Equação de Movimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.1.1 Derivadas totais e parciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
8.2 Equação da Continuidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
8.3 Teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
8.4 Implicações de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
8.5 Hipótese Ergódica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.5.1 Hipótese Ergódica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.6 Equilı́brio e a seta do tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

9 Termodinâmica Estatistica 73

10 Ensemble Microcaônico e Interações Térmicas 79


10.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
10.2 Interação Térmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
10.3 Escala Absoluta de Temperatura . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
10.4 Temperaturas negativas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
10.5 Escala de energia KB T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
10.6 Análise mais rigorosa de P(E1 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
10.7 Exemplo: gás ideal com interação térmica . . . . . . . . . . . . . . . . . . . . . . 88
10.8 Interações Térmicas e Mecânicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
10.9 Outro modo de obter a conexão Micro/Macro . . . . . . . . . . . . . . . . . . . . . 92
10.10Limite termodinâmico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
10.11Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
10.12Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
10.12.1 Paramagneto quântico ideal de spin 1/2 . . . . . . . . . . . . . . . . . . . . 95
10.12.2 Sólido de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
10.12.3 Gás de Boltzmann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
10.12.4 Gás ideal monoatômico clássico e o fator de gibbs N1 ! . . . . . . . . . . . . 107

11 Ensemble Canônico 111


11.1 Distribuição de Boltzmann-Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
11.2 Equilı́brio e Flutuações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
11.3 Conexão micro/macro 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
11.4 Conexão micro/macro 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
11.5 Entropia de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
11.6 Derivação Alternativa do Ensemble Canônico . . . . . . . . . . . . . . . . . . . . . 120
11.6.1 Sistema com Energia Média . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
11.6.2 Princı́pio de Jaynes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
11.6.3 Correlações e a Distribuição de Boltzmann . . . . . . . . . . . . . . . . . . 121
11.7 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
11.8 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
11.8.1 Sólido de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
11.8.2 Paramagneto Ideal Clássico . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
11.8.3 Paramagneto Ideal Quântico . . . . . . . . . . . . . . . . . . . . . . . . . . 127
11.8.4 Partı́culas com 2 nı́veis de energia . . . . . . . . . . . . . . . . . . . . . . . 129
11.9 Conexão entre os ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.10Breve digressão sobre a transformada de Laplace inversa . . . . . . . . . . . . . . . 135

12 Gás Clássico no Canônico e Aproximações para Sistemas Interagentes 137


12.1 Gás Ideal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
12.2 Distribuição de Maxwell-Boltzmann . . . . . . . . . . . . . . . . . . . . . . . . . . 140
CONTENTS 7

13 Sistemas Interagentes (Gases Reais) 143


13.1 Expansão de Alta Temperaturas ou Cumulantes . . . . . . . . . . . . . . . . . . . 143
13.2 Expansão em Densidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
13.3 Segundo coeficiente de Virial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
13.4 Teorem da equipartição da energia . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

14 Ensemble Grande-canônico 157


14.1 Conexão micro macro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
14.1.1 Conexão Micro/Macro via Função de Partição . . . . . . . . . . . . . . . . 164
14.1.2 Conexão Micro Macro via Entropia de Gibbs . . . . . . . . . . . . . . . . . 165
14.2 Forma Geral de ZGC para Sistemas não Interagentes e o Fator de Gibbs . . . . . . 165
14.3 Gás Ideal Clássico no Grande-Canônico . . . . . . . . . . . . . . . . . . . . . . . . 166
14.4 Outros Ensembles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
14.5 Conexão formal entre ZC e ZGC . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
14.6 Derivadas parciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168

15 Gás Ideal Quântico 171


15.1 Particula quântica na caixa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
15.2 O problema estatı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
15.3 Estatı́stica de Bósons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
15.4 Estatı́stica de Férmions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
15.5 Bósons e Férmions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
15.6 Potencial Quı́mico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
15.7 Número de ocupação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
15.8 Limite clássico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

16 Gás Ideal de Férmions 189


16.1 Gás de Fermi a T=0: completamente degenerado . . . . . . . . . . . . . . . . . . . 191
16.2 Gás Ideal de Fermi à 0 < T  TF : Degenerado . . . . . . . . . . . . . . . . . . . . 193
16.2.1 Argumento Qualitativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
16.2.2 Expansão de Sommerfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
16.3 Paramagnetismo de Pauli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
16.3.1 Magnetização do estado fundamental: T = 0 . . . . . . . . . . . . . . . . . 200
16.3.2 Limite de Baixas T : gás degenerado . . . . . . . . . . . . . . . . . . . . . . 201
16.4 Limite Clássico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203

17 Gás Ideal de Bósons 205


17.1 Condensação de Bose-Einstein . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
17.1.1 Número de Bósons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
17.1.2 Função de Partição, pressão, calor especı́fico, etc . . . . . . . . . . . . . . . 212
17.2 Gás de Bósons Ultra-relativı́stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
17.3 Radiação de corpo negro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
8 CONTENTS
Chapter 2

Introdução

2.1 Introdução
O objetivo da Fı́sica é entender, explicar e prever os fenômenos naturais. A mecânica clássica
estuda o movimento de objetos pontuais e macroscópicos rı́gidos. Ela foi altamente bem sucedida
e estabeleceu um paradigma para o desenvolvimento da ciência.
A termodinâmica por outro lado estuda as trocas de calor entre objetos macroscópicos. Ela é
uma teoria fenomenológica com leis empı́ricas a partir de propriedades (conceitos) macroscópicos
como volume, pressão e temperatura. Ela introduziu o conceito de entropia e energia interna e
esclareceu o conceito de calor: não é uma ”quantidade fı́sica” mas um processo de transferência
de energia; análogo ao trabalho. Seu desenvolvimento se deu em parte com o objetivo de estudar
as máquinas térmicas. Posteriormente foi bem fundamentada matematicamente. No entanto
acreditamos que todos os objetos macro são constituı́dos de um conjunto de partı́culas elementares
e que o comportamento do objeto macro deriva do comportamento de seus constituintes: essa
é a base de toda ciência moderna e um grande paradigma da ciência; o reducionismo. Segundo
Feymann, informação mais importantes para ser deixado pela ciência é que os obejtos são feitos
de ”átomos” que se movem sem parar.
Portanto as leis e conceitos da termodinâmica devem ser entendidos e derivados a partir da
análise do movimento de interação das partı́culas elementares que compõem o objeto macroscópico.
Note que a termodinâmica e a fı́sica estatı́stica é a parte da fı́sica mais estudada fora dos
departamentos de fı́sica e também a que explica mais fenômenos do cotidiano
Note também que no começo do século XX, quando a fı́sica estatı́stica estava sendo desenvolvida,
a idéia de átomo não era consenso. Grandes cientistas, Como Mayer, duvidavam da existência de
átomos
O sucesso da fı́sica estatı́stica foi uma das grandes evidências para a existência dos átomos.
Em 1859, Maxwell desenvolve a teoria cinética dos gases, baseado no trabalho de Bernoulli.
Usa médias sobre um grande número de partı́culas para conectar a descrição micro com a macro.
Em 1864 Boltzmann começa a trabalhar no assunto. Em 1872 estabelece a relação entre entropia
e número de estados microscópicos, que se torna fundamental.
Planck, Clausius e Gibbs também fizeram parte do desenvolvimento do que se torna a fı́sica
estatı́stica.
Objetos macro têm ∼ 1023 constituintes e assim temos ∼ 1023 equações diferenciais acopladas
para serem resolvidas! Isso é impraticável. Mesmo que fosse possı́vel não teria grande utilidade.
O que você aprenderia sobre um gás com uma lista de ∼ 1023 equações para ~r(t)? Muita in-
formação!!! Isto levou a uma nova maneira de descrever sistemas ou mesmo de se fazer fı́sica: uso
de pobrabilidades!!! Renuncio ao conhecimento completo do sistema e ao invés de ter {~r(t), ~v (t)}
de cada átomo só tenho a probabilidade de um átomo ter {~r(t), ~v (t)} → P (~r(t), ~v (t)). Só tenho
informações estatı́sticas sobre o sistema e a teoria das probabilidades, e não o cálculo diferencial e
integral, se torna a ferramenta matematica fundamental

9
10 CHAPTER 2. INTRODUÇÃO

2.2 Idéia Geral


A ideia geral é que

• Não tenho conhecimento completo sobre o sistema: {~r(t), ~v (t)} de todos ”átomos”.
• Mas tenho alguma informação macro que restringe os possı́veis valores de {~ri , ~vi }: sei que
está num volume V, ou tem energia E, por exemplo.

• Assim assumo alguma P(~ri , ~vi ). Qual assumir é umas das grandes perguntas. Um tratamento
estatı́stico das eq.s microscópicas permite derivar outras propriedade e eqs.
• ”leis” obtidas são na verdade estatı́sticas. Mas para N  1 elas são quase exatas: P V = nRT
por exemplo é uma ”lei” estatı́sitca.

• mas para N  1 é praticamente impossı́vel observar desvios que diminuem rapidamente com
N

Iremos ver que muitas vezes obtemos ”leis estatı́sticas” que predizem comportamentos inesper-
ados do ponto de vista micro: ”leis emergentes”. Famosa frase e artigo de P. W. Anderson: More
is different (Science 177, 393 1972) Olhando para o movimento dos átomos em um gás é difı́cil
imaginar que ele pode condensar num lı́quido (em uma transições de fase) com propriedades bem
diferentes. Do mesmo modo é possı́vel imaginar que a capacidade de crescer e se reproduzir (uma
definição de de vida) de um sistema biológico, seja nada mais que um fenômeno emergente com
origem nas leis microscópicas do seu constituı́nte.
Ao invés de tentar proceder com cálculos complicados de muitas equações, em geral é melhor
tentar desenvolver novos conceitos que podem iluminar caracterı́sticas essenciais(pressão, temper-
atura ou até mesmo o parâmetro de ordem em transições de fase) do sistema.
O surgimento desses fenômenos coletivos é mais uma razão para abandonar a tentativa de se
fazer uma descrição microscópica do sistema: grande debate entre Anderson e Weinberg
Note que esses fenômenos emergentes ou comportamento coletivo também são de grande im-
portância em outras áreas como o mercado financeiro. Alguns ı́ndices do mercado financeiro sofrem
quedas abruptas que não podem ser previstas analisando o comportamento anterior.
Outro fenômeno desse tipo de grande importância é a chamada flecha do tempo: eq.s da fı́sica
são invariantes por reversão temporal: t → −t e p → −p leva a mesma equação. Ou seja, não
há direção preferencial do tempo. Por outro lado, fenômenos macroscópicos tem uma direção
preferencial no tempo, o do aumento da entropia. Isto é dado pela 2a lei da termodinâmica que
diz que a entropia de um sistema fechado sempre aumenta ou se mantém constante.
Deduzir a 2a lei a partir da fı́sica microscópica foi um dos grandes objetivos de Boltzmann e
outros. E até hoje existem debates sobre o sucesso de tal empreitada.
Como veremos uma das questões importantes é a própria definição de entropia em termos de
grandezas microscópicas
Chapter 3

Breve Introdução Histórica

11
12 CHAPTER 3. BREVE INTRODUÇÃO HISTÓRICA
Chapter 4

Revisão de Termodinâmica

Como já dito o objetivo da Fı́sica Estatı́stica, pelo menos o original, era deduzir as leis da ter-
modinâmica a partir das leis microscópicas. Assim iremos fazer uma breve revisão dos resultados
mais importantes que iremos tentar reobter na Fı́sica Estatı́stica; iremos ignorar, por exemplo,
toda a parte sobre maquinas térmicas que pode ser considerada uma aplicação da termodinâmica.
Um dos conceitos de grande importância é o equilı́brio entre diferentes sistemas, as condições de
estabilidade da termdodinâmica, o significado dos diferentes potenciais e a relação entre eles (isto
será importante para entender a relação entre os diferentes ensembles)

4.1 Preliminares
A Termodinâmica é uma teoria fenomenológica de sistemas macroscópicos. Originalmente seu
objetivo era descrever transformações de calor em trabalho e vice-versa.
Na Termodinâmica os sistemas são descritos por quantidades macroscópicas que a princı́pio
podem ser medidas sem acesso a detalhes microscópicos do sistema. Exemplos são pressão, vol-
ume, temperatura, campo magnético, energia interna, entropia. Note que temos algumas poucas
quantidades, enquanto que numa descrição microscópica terı́amos que obter a posição ~r e momento
p~ de todos os ∼1023 constituintes. Assim o conhecimento sobre o estado do sistema pode ocorrer
em dois nı́veis: podemos conhecer o macro-estado, quando sabemos as quantidades macroscópicas,
e podemos conhecer o micro-estado, quando conhecemos as quantidades microscópicas. A ter-
modinâmicas esta interessada em descrever o sistema a nı́vel do macro-estado. É a fı́sica estatı́stica
que se interessa por uma descrição a nı́vel dos micro-estados.
Estas quantidades macroscópicas são chamadas de parâmetros ou variáveis termodinâmicas.
Também usamos o termo função de estado que seria qualquer quantidade macro que tem um valor
bem definido (no equilı́brio). Em geral o termo função de estado é usado para a energia interna U
e entropia S, mas P , V , T , etc a rigor também são funções de estado (talvez isso se deva ao fato
de em geral termos controle, no lab, sobre P ,V ,T ,etc e não sobre S e U que seriam determinados
pelos valores de P , V , T , etc).
As variáveis termodinâmicas também são classificadas em extensivas, proporcionais a extensão,
tamanho, do sistema, como V e U ou intensivas, que não dependem do tamanho do sistema, como
V U
P e T . Em geral, é interessante definir densidades ( N , N ) que são intensivas.
Um conceito de suma importância é o equilı́brio termodinâmico: um macro-estado onde os
parâmetros termodinâmicos não variam. Na verdade parâmetros como pressão e temperatura só
são bem definidos em estados de equilı́brio, onde não variam e são homogêneos, ou seja, tem o
mesmo valor em qualquer parte do sistema. Além disso constatamos que um sistema termodinâmico
quando deixado ”sozinho” (sem perturbações externas) por um tempo suficiente, atinge um estado
de equilı́brio que não depende de ”detalhes” do estado inicial (a temperatura final de um copo de
agua com gelo, por exemplo, não dependende de como você jogou a pedra de gelo no copo).
Uma Equação de estado é uma relação entre os parâmetros termodinâmicos de um sistema em
equilı́brio termodinâmico. Se temos P ,V ,T então uma equação de estado tem a forma:

f (p, v, t) = 0 (4.1)

13
14 CHAPTER 4. REVISÃO DE TERMODINÂMICA

Isso reduz o número de parâmetros independentes (define um superfı́cie no espaço dos parâmetros
termodinâmicos). O exemplo mais conhecido é P V = nRT válido para gases ideais.
Uma transformação termodinâmica é uma mudança de estado. Se o estado inicial é de equilı́brio
a transformação pode ocorrer por uma mudança nos parâmetros externos. A transformação é quase
estática quando os parâmetros externos são alterados tão vagarosamente que o sistema está sempre
em equilı́brio. A transformação é reversı́vel quando a transformação ”volta pelo mesmos caminho”
se ”voltamos pelo mesmo caminho” os parâmetros externos. Note que uma transformação reversı́vel
deve ser quase estática mas nem toda transformação quase estática é reversı́vel.

4.2 Conceito de trabalho e calor


Entre os parâmetros macroscópicos que caracterizam o sistema alguns são ”externos” (impostos
pelo ambiente ao redor) como volume V , campos magnético B ou campo e elétrico E. Estes
parâmetros podem variar com o tempo alterando o estado de equilı́brio do sistema. Cada um
destes parâmetros externos, também chamados de coordenadas generalizadas, acopla com uma
outra grandeza do sistema fazendo esta variar e que chamamos de força generalizada (a pressão
é um exemplo). Denotando os parâmetros externos como Xα e as forças generalizadas como ξα ,
definimos o trabalho feito sobre o sistema como:

X
dW
¯ = ξα dXα (4.2)
α

Aqui usamos o diferencial cortado para o trabalho (¯ dW ) para explicitar que este diferencial não é
exato, visto que depende do processo (do caminho). Se Xα = V , por exemplo, então ξα = −P .
No caso onde Xα = B temos ξα = −M (momento magnético). Assim temos uma generalização da
usual definição de trabalho dW = F dx. 1
Sabemos que trabalho é um processo onde transferimos energia para um sistema alterando
parâmetros externos. No entanto esta não é a única maneira de transferir energia. Um outro modo
é através do calor, que está relacionado com uma mudança de temperatura. Assim dizemos que
calor é absorvido por um sistema se sua T aumentar sem haver realização de trabalho. E logo
definimos a quantidade de calor transferida num processo como

dQ
¯ = CdT (4.3)

com C a capacidade térmica (na verdade pode-se entender a formula acima como uma definição
de C). Aqui também usamos o diferencial cortado ,¯ dQ, pelas mesmas razões acima.
Portanto, calor é a transferência de energia de forma não mecânica; sem mudanças nas nos
parâmetros macroscópicos externos. E trabalho é a transferencia de energia de forma mecânica.2
Por último, deve-se mencionar que essas transferências de energia, na forma de calor ou trabalho,
se deve a interação com um outro sistema. E quase sempre estamos interessados no caso onde a
interação Hint é muito menor que a energia de cada sistema (Ha ,Hb ) de tal forma que a energia
total é conservada.

4.3 Leis da termodinâmica


Irei rever as 3 leis da termodinâmica.
1 Quando
P ∂E
os parâmetros externos mudam de dXα a mudança na energia é dE(Xα ) = α ∂Xα dXα . Como
∂E
¯ = −dE, temos que ξα =
dW − ∂X
α
2 Um outro modo de distinguir calor e trabalho é que trabalho é uma transferência de energia onde temos controle

sobre o processo e calor é quando não temos controle. Ou seja uma ocorre através de variáveis macro e outra atráves
de variáveis micro. Outro modo de diferenciar os dois é através da segunda lei: trabalho pode ser completamente
convertido em calor num processo ciclı́co, enquanto o inverso não é verdade. Esta diferenciação entre calor e trabalho
não é trivial na teoria quântica onde ainda se debate o tema (veja pag. 9 de arXiv:1503.01195 [quant-ph])
4.3. LEIS DA TERMODINÂMICA 15

4.3.1 1a Lei
1a Lei: Em uma transferência termodinâmica arbitrária a quantidade dU ≡ dQ
¯ + d̄W só depende
do estado inicial e final do sistema.

Isto define uma função de estado U chamada de energia interna. Na verdade ela é definida
a menos de uma constante aditiva que depende de um estado escolhido como referência. Note
que isto só é possı́vel porque, apesar de dW
¯ e dQ¯ serem diferenciais inexatos, dU é uma diferencial
exata, ou seja não depende do processo (caminho) 3 . As vezes esta lei também é escrita com o sina
negativo para o trabalho, mas neste caso dW ¯ é o trabalho feito pelo sistema sobre a vizinhança.
Tal definição é útil no contexto de maquinas térmicas.
Note que a 1a Lei é válida independente do processo ser reversı́vel ou não. Mas expressões
como dW¯ = −P dV ou dQ ¯ = Cv dT são válidas somente em processos reversı́veis (em processos
irreversı́veis, que não são quase estáticos, a pressão e e temperatura não estão definidos a todo
momento, já que não há equilı́brio termodinâmico a todo instante. E como veremos nestes processos
¯ irr ≥ −P dV devido a ”perdas”; como forças dissipativas.)
dW
O fundamento experimental da primeira lei é a demonstração de Joule da equivalência entre
calor e energia mecânica. É a lei de conservação da energia levando em conta que calor também é
uma forma de transferir energia (e não substância como se acreditava na teoria do calórico)

4.3.2 2a Lei
Há diversas versões equivalentes da 2a lei:

2a lei (Kelvin): não existem transformações termodinâmicas cujo único efeito seja extrair
calor de um reservatório e converte-lo totalmente em trabalho

2a lei (Clausius): não existem transformações termodinâmica cujo único efeito seja retirar
calor de um reservatório frio e dar a um reservatório quente

2a lei (Carnot): de todas as máquinas térmicas trabalhando com dois reservatórios com TH
e TC , nenhuma é mais eficiente que a de Carnot

Todas as versões são equivalentes. No entanto a versão de Carnot é a mais moderna e permite
facilmente definir o conceito de entropia. Para isto, decompomos um ciclo qualquer em n → ∞
ciclos pequenos de Carnot e usando a 2a lei pode-se obter o teorema de Clausius:
Teorema de Clausius: Em qualquer transformação cı́clica em que T é bem definida temos
I
dQ
¯
≤0 (4.4)
T
A igualdade ocorre somente quando a transformação é reversı́vel; como num ciclo de Carnot. Disto
obtemos um corolário: Numa transformação reversı́vel dQ ¯
T não depende do caminho, mas só dos
4
estados iniciais e finais . Assim pode-se definir uma função de estado: uma propriedade do sistema;
só depende do estado atual do sistema e não de sua ”história”. Esta função de estado é chamada
entropia
Z B
dQ
¯ rev
S(A) − S(B) = (4.5)
A T
O caminho de integração deve ser qualquer processo reversı́vel entre A e B. Logo a entropia de
um sistema no estado A, S(A), é definida a menos de uma constante aditiva que depende do
3 Uma diferencial exata df = F1 (x, y) dx + F2 (x, y)dy, deve ter F1 = ∂f
∂x
e F2 = ∂f
∂y
~.
; em forma vetorial ∇f = F
~ ~
H H H
Além disso temos df = F .d~ r = (∇ × F ).d~ r, onde na última igualdade usamos o teorema de Stokes. Como
~ = 0 implica que ∂F1 = ∂F2 ou
H
o rotacional de um gradiente é sempre nulo, temos df = 0. Além disso ∇ × F ∂y ∂x
∂2f ∂2f
∂y∂x
= ∂x∂y . Com isso pode-se obter as relações de Maxwell
4 já que
H dQ
¯ dQ
¯ rev
rev T = 0, T
é um diferencial exata; somente em processos reversı́veis. Dizemos que 1/T é o fator
integrante que torna dQ
¯ um diferencial exato
16 CHAPTER 4. REVISÃO DE TERMODINÂMICA

estado de referência B usado (análogo a dependência do potencial gravitacional na escola do zero


do potencial)
Em uma transformação infinitesimal reversı́vel temos
dQ
¯ rev
dS = (4.6)
T
dQ
¯
H
Numa transformação arbitrária, reversı́vel ou não, temos T ≤ 0 e assim
Z B Z A
dQ
¯ dQ
¯
+ ≤0 (4.7)
A T B T

Escolhendo o caminho da volta como reversı́vel 5 , obtemos


Z B Z A Z B
dQ
¯ dQ
¯ rev dQ
¯ rev
≤− = ≡ S(B) − S(A) (4.8)
A T B T A T

Como isso é verdade para um caminho qualquer e A e B podem estar perto um do outro, temos

¯ rev dQ
dQ ¯
dS ≡ ≥ (4.9)
T T
Disto, vemos que dQ ¯ rev ≥ dQ
¯ irr . Esta relação parece estranha, já que esperamos uma maior perda
de calor, dissipação, em processos irreversı́veis. Mas note que quando o sistema perde, irradia, calor
dQ
¯ < 0. Portanto a perda é maior num processo irreversı́vel: num processo irreversı́vel o valor
absoluto do calor perdido (irradiado) é sempre maior que no processo reversı́vel. Como em ambos
os processos o valor de dU é o mesmo, pela 1a lei, temos que, para realizar o mesmo trabalho, o
valor necessário de calor para o processo reversı́vel é menor que no irreversı́vel. Do mesmo modo,
para um certo valor fixo de d̄Q obtemos dW ¯ rev ≤ dW¯ irr : o trabalho necessário para realizar um
processo irreversı́vel é sempre maior que para o reversı́vel.
Note que para obter dS num processo irreversı́vel deve-se usar um outro processo qualquer
reversı́vel que conecte os estados iniciais e finais
Por último, Considere um sistema isolado termicamente. Neste caso dQ = 0 e da desigualdade
acima temos
dS ≥ 0 (4.10)
Esta é na verdade a versão mais conhecida da 2a lei: qualquer transformação em um sistema
termicamente isolado aumenta ou mantém constante a entropia (constante somente em processos
reversı́veis). Ela também implica que a entropia de um sistema termicamente isolado tende ao
máximo valor consistente com as ”restrições externas”(dadas pelos parâmetros externos, como
volume). Ou seja, o estado de equilı́brio de um sistema isolado é o de máxima entropia.
Note que a entropia de um sistema pode diminuir caso ele não esteja isolado. Neste caso
veremos que esta diminuição é ”compensada” por um ganho de entropia na vizinhança tal que a
entropia do sistema mais vizinhança seja ≥ 0

4.3.3 3a Lei
Como mencionamos a entropia só é definida a menos de uma constante; depende de um estado de
referência. Note que dado um estado de referência pode não haver transformações reversı́veis para
qualquer outro estado e assim a entropia não poderia ser definida para qualquer estado (isto pode
ocorrer por exemplo se os estado A e B se encontram em fases diferentes)
A terceira lei fornece informações adicional sobre S.
Nerst chegou a uma formulação da 3a lei em 1906 após estudar a termodinâmica de reações
quı́micas:

3a Lei: Perto do zero absoluto, todas as reações em um sistema em equilı́brio interno ocorrem
sem haver mudança na entropia.
5 Apesar de termos que escolher o caminho de volta como reversı́vel, o processo de ida é totalmente arbitrário
4.4. POTENCIAIS TERMODINÂMICOS 17

Em 1911, Planck adicionou mais informação dizendo: A entropia de todos os sistemas em


equilı́brio é a mesma a T = 0 e seu valor pode ser tomado como 0.
Assim temos um valor absoluto para S (em T = 0)
A 3a lei tem diversas consequências, entre elas (veja Concepts in Thermal Physics, S. J. Blun-
dell and K. M. Blundell):

• A capacidade térmica C → 0 quando T → 0. Isto está em desacordo com a predição


clássica de que C é constante é igual a R2 por grau de liberdade e por mol. A prova vem de que
∂S
C = T ∂T = ∂ ∂S
ln T e quando T → 0 ln, T → −∞ com S → 0.

• O coeficiente de expansão térmica β → 0 quando T → 0

• A susceptibilidade magnética χ → 0 quando T → 0. Isto leva a uma violação da Lei de Curie


χ ∼ T1 .

Assim vemos que teorias clássicas onde a lei de Curie é válida e a capacidade térmica não tende
a zero a baixas temperaturas, violam a 3a lei. Esta violação se deve ao fato de não considerarmos
as interações no gás ideal e no paramagneto. Assim devemos considerar as interações em T baixas
e levar em conta a M Q.
Uma última consequência, que as vezes é usada como a própria 3a lei, é que é impossı́vel atingir
a T = 0 em um número finito de processos. Note que a 2a lei impede que exista uma máquina de
Carnot com reservatório frio a TC = 0. O problema é que mesmo que houvesse uma máquina com
TC = 0, uma transformação iria alterar (aumentar) TC . Assim considera-se que a impossibilidade
de um sistema qualquer atingir T = 0 é uma consequência da 3a lei e independe da 2a lei.
Em sistemas quânticos ter S = 0 em T = 0 implica que o estado fundamental não pode ser
degenerado. No entanto existem exemplos onde isto ocorre. Em geral se argumenta que nestes
sistemas sempre há uma interação que foi desprezada e que irá quebrar a degenerescência. Note
também que mesmo que esfriarmos um átomo a T = 0 seu núcleo ainda pode ter S 6= 0 ou até
mesmo os glúons e quarks de cada próton e neutron. Pode-se argumentar que os e− , núcleo e
quarks não estão em equilı́brio entre si devido a interações que desprezamos.s

4.4 Potenciais termodinâmicos


As variáveis termodinâmicas mais comuns, no caso de um fluido em uma caixa, por exemplo, são
p ,T , V , U e S. Mas sabemos que estas grandezas não são todas independentes. Assim temos
que escolher qual tratar como independente e tal escolha pode tornar a descrição mais simples.
Por outro lado devemos considerar quais delas podemos controlar no laboratório e em que tipo
de processos estamos interessados: Variar p com V constante ou variar V com p constante? Na
chamada representação de energia consideramos U = U (S, V, N ) e obtemos uma equação que é
chamada de equação, ou relação, fundamental da termodinâmica:

dU = T dS − pdV + µdN (4.11)

que descreve um processo termodinâmico (quase estático) quando S, V N são alterados. Além disso
obtemos as seguintes definições para os parâmetros intensivos:

∂U ∂U ∂U
T (S, V, N ) = , p(S, V, N ) = e µ(S, V, N ) = (4.12)
∂S ∂V ∂N
Nesta descrição S, V e N são as variáveis independentes (ou naturais) e a partir dela obtermos
U (S, V, N ). E a partir de U (S, V, N ) podemos obter todas as propriedades termodinâmicas por
derivadas parciais6 . Assim U (S, V, N ) caracteriza completamente o sistema. Esta descrição é boa
para processos onde controlamos S,V e N e medimos o T, p e µ.
6 Chamamos os pares de variáveis (T, S), (P, V ) e (µ, N ) de pares conjugados, já que estão relacionados pelas

derivadas parciais.
18 CHAPTER 4. REVISÃO DE TERMODINÂMICA

No entanto pode ocorrer de controlarmos T ao invés de S. Além disso S é função de T e


poderia-se escrever U (T, V, N ). O problema é que neste caso as derivadas parciais de U não seriam
simples e não podemos obter toda a informação termodinâmica a partir de U (T, V, N ); ou seja não
é uma relação fundamental7 . Note também que a princı́pio U só está definido a menos de uma
constante e assim pode-se combinar as outras variáveis de forma a obter dimensão de energia e
adicionar a U : U + T S , U − pV , U + 2pV ; por exemplo.
A pergunta interessante é se existe uma outra função de estado que depende de T ,V ,N com
propriedades similares a U (S, V, N ). Essa função existe e se chama de função de Helmhotz8

F (T, V, N ) = U − T S (4.13)
Dela obtemos
dF = −SdT − pdV + µdN (4.14)
Do ponto de vista matemático F é uma transformada de Legendre9 de U em relação a T = ∂U ∂S
Portanto U (S, V, N ) e F (T, V, N ) são descrições equivalentes do sistema. Ambos caracterizam
completamente o sistema termodinâmicos e permitem obter todas as grandezas termodinâmicas. É
somente uma escolha de quais das variáveis termodinâmicas queremos escolher como independente;
por gosto pessoal ou por conveniência da situação.
Do mesmo modo podemos trocar V por p ou N por µ obtendo

A(T, µ, V ) = U − T S − µN (4.15)

chamada de função de Gibbs, e


H(S, N, p) = U + pV (4.16)
chamada de Entalpia.
Todas estas funções são chamadas de potenciais termodinâmicos. Além de caracterizar com-
pletamente o sistema elas tem outras duas propriedades importantes: são máximo ou mı́nimo no
equilı́brio e dão um limite no máximo trabalho que pode ser extraı́do do sistema. Por isso também
são chamadas de energias livre. Para ver isso considere uma transformação com T constante
(isotérmica) onde F é a função de estado apropriada. Da 2a lei temos que
dQ
¯
dS ≥ (4.17)
T
¯ o calor absorvido pelo sistema. Da 1a lei −¯
com dQ ¯ − dU . Num processo qualquer,
dW = dQ
reversı́vel ou não, d̄Q ≤ T dS e logo

−¯
dW ≤ T dS − dU (4.18)
−¯
dW ≤ d(T S − U ) (4.19)
−¯
dW ≤ −dF (4.20)
¯ ≥ dF
dW (4.21)
Assim, temos que para realizar um processo em que temos dF é necessário realizar um trabalho
maior ou igual a dF . Num processo reversı́vel todo o trabalho é convertido na energia livre de
Helmhotz, mas num processo irreversı́vel parte do trabalho (o ”excesso”) não é convertida em
energia livre; ela é ”perdida”. E se quisermos retirar trabalho do sistema (dW < 0), então deverá
haver uma perda em F , no mı́nimo no mesmo valor do trabalho retirado. Ou seja, o máximo
trabalho que pode ser retirado do sistema é a diminuição de energia livre de Helmohtz. O mesmo
e válido para os outros potenciais quando as respectivas variáveis naturais são fixas. Quando S é
fixa dQ = 0 e d̄W ≥ dU .
¯ = 0 (sistema mecanicamente isolado) então dF ≤ 0; qualquer mudança em F deve ser
Se dW
negativa. Assim esperamos que no processo de equilibração os processos microscópicos irão levar
7Apartir de U (S, V, N ) pode-se obter U (T, V, N ), mas o contrário não é verdade
8 Comentar que também pode-se escrever a transformada de Legendre como minS {U − T S} tal como feito no
salinas.
9 A transformada de Legendre é a que usamos para ir da Lagrangeana para a Hamiltoniana. Ela permite escrever

uma função f (x) em termos de sua derivada ∂f ∂x


.
4.4. POTENCIAIS TERMODINÂMICOS 19

a uma diminuição de F até seu valor mı́nimo, o que deve ocorrer quando o equilı́brio é alcançado.
Ou seja, o estado de equilı́brio térmico é o de menor valor de F .
Por completeza, deve-se mencionar que ao invés de começar com U (S, V, N ) poderı́amos ter
S(U, V, N ). Ou seja, a entropia também é um potencial termodinâmico válido e temos

1 p µ
dS = dU + dV − dN (4.22)
T T T
com
∂S 1 ∂S p ∂S µ
= ; = ; =− (4.23)
∂U V,N T ∂V U,N T ∂N U,N N
A partir de S(U, V, N ) pode-se trocar U por T , V por p, etc e obter outros potenciais que são
chamados de potenciais de Massieu (veja sec. 5.6 do vol. I do livro ”From Microphysics to
Macrophysics” de Roger Balian). Em geral os potenciais em termos da energia são mais comuns
(por razões históricas). Veremos que para fazer a conexão com o fı́sica estatı́stica os potenciais em
termos de entropia são mais ”naturais”
Por último, note que é possı́vel reduzir o número de variáveis necessárias para descrever o
sistema considerando que o sistema é extensivo: U (λS, λV, λN ) = λU (S, V, N ) (U é uma função
homgenea de 1a ordem em relação a S, V e N ). Assim podemos definir densidades de energia
U S V
u= N , de entropia s = N e volume v = N e temos

U (S, V, N ) = N u(s, v) (4.24)

com T = ∂u ∂u
∂s e p = ∂v e du = T ds − pdv
Além de eliminar a variável N , estas densidade são muito úteis quando analisamos o limite
termodinâmico onde tomamos N e V → ∞ , mas mantendo as densidades u, s e v constantes.

4.4.1 Potenciais Termodinâmicos e Transformação de Legendre


Como vimos acima obtemos a energia livre de Helmhotz por uma transformada de Legendre:

F (T, V, N ) = U (S, V, N ) − T S (4.25)


com T = ∂U∂S . Note que a princı́pio F parece depender de S, mas como T e S estão relacionadas
por derivadas a dependência em S irá sumir. E S é obtido a partir de S = ∂F
∂T .
No entanto podemo definir essa transformação de um outro modo:

F (T, V, N ) = min{U (S, V, N ) − T S} (4.26)


S

onde agora consideramos S como uma parâmetro independente. Assim fixado um valor de T ,
devemos buscar o valor de S (que agora não é fixado por T ) que minimiza U − T S. Esse será o
valor de equilı́brio de S para uma dada (T, V, N ). Assim S é obtido da condição


{U (S, V, N ) − T S} = 0 (4.27)
∂S
Logo é útil definir um ”potencial generalizado” F (T, V, N ; S). Note que ele depende tanto de T
como de S e portanto não é um potencial termodinâmico de fato. A condição de equiĺibrio fica

∂F (T, V, N ; S) ∂U
= −T =0 (4.28)
∂S ∂S
e leva a
∂U
=T (4.29)
∂S
que é equivalente a relação original entre S e T . Assim vemos que as duas ”definições” da trans-
formada de Legendre são equivalentes. Como veremos depois em algumas situações é interessante
pensar que para atingir o equilı́brio o sistema procura o mı́nimo da função F (T, V, N ; S). Funções
analogas também podem ser definidas para os outros potenciais.
20 CHAPTER 4. REVISÃO DE TERMODINÂMICA

4.5 Equilı́brio e Estabilidade Termodinâmica


Vamos discutir brevemente condições para o equilı́brio entre diferentes sistemas. Para isso considere
dois gases que inicialmente estão numa caixa, mas separados por uma parede fixa, impermeável e
adiabática. Cada gás está em equilı́brio térmico com um certa energia interna, volume e número
de partı́culas. Em um dado momento a parede se torna diatérmica permitindo a troca de energia
na forma de calor. Assim os valores da energia interna de cada gás podem variar, mas a soma é
fixa. Após um certo tempo o sistema irá evoluir para um novo estado de equilı́brio com os dois
gases em equilı́brio. Este novo estado de equilı́brio é o que maximiza a entropia. Assim devemos
maximizar a entropia total

S = S1 (U1 , V1 , N1 ) + S2 (U2 , V2 , N2 ) (4.30)

com V1 , V2 , N1 , N2 fixos e
U0 = U1 + U2 = constante (4.31)
Queremos obter o valor das energia internas de cada gás no equilı́brio que ocorre quando
∂S ∂S1 ∂S2 ∂S1 ∂S2 1 1
= + = − = − =0 (4.32)
∂U1 ∂U1 ∂U1 ∂U1 ∂U2 T1 T2
onde usamos que ∂U1 = −∂U2 , já que a energia interna total é constante. Assim obtemos que o
equilı́brio ocorre quando as temperaturas são iguais; resultado já esperado. Note que as energias
internas de cada um não são iguais, mas sim suas temperaturas.
Vamos adiante analisando a derivada segunda

∂2S ∂ 2 S1 ∂ ∂S2 ∂ 2 S1 ∂ 2 S2
2 = 2 − = 2 + (4.33)
∂U1 ∂U1 ∂U1 ∂U2 ∂U1 ∂U22

Em termos da temperatura, ∂S/∂U = 1/T , temos

∂2S ∂ 1 ∂ 1 1 ∂T1 1 ∂T2


= + =− 2 − 2 (4.34)
∂U12 ∂U1 T1 ∂U2 T2 T1 ∂U1 T2 ∂U2
10
Para termos um máximo da entropia a segunda derivada tem que ser negativa e portanto
∂T
>0 (4.35)
∂U
que implica que a capacidade térmica e o calor especı́fico devem ser negativos:
1 ∂U
cV = <0 (4.36)
N ∂T
Essa condição é chamada de condição de estabilidade da termodinâmica e como vimos tem origem
no estado de equilı́brio ser o de máxima entropia. Fisicamente, temos que quando um sistema
ganha energia sua temperatura deve aumentar. Isso permite o equilı́brio ser estável a pequenas
flutuações. Caso cV > 0 uma pequena pertubação no estado de equilı́brio iria levar o sistema para
fora do equilı́brio e não de volta a ele: o ambiente fornece um pouco de energia e a temperatura
do sistema diminui e se torna menor que a do ambiente. Logo mais energia ira fluir na direção do
sistema fazendo a sua temperatura ainda menor e assim por diante. Note que podemos ter também
a situação onde os dois gases podem trocar partı́culas, ou mesmo o volume de cada um variar.
Uma analise análoga mostra que o novo estado de equilı́brio e quando as os potenciais quı́micos e
as pressões são iguais. E também obtemos que a compressibilidade, ∂P/∂V , e ∂µ/∂N devem ser
negativos 11 .

10 Isso é equivalente a dizer que a entropia deve ser uma função concava
11 a compressibilidade isotérmica e na verdade definida como κT = − V1 ∂V∂P
.
Chapter 5

Teoria de Probabilidade

5.1 Introdução
Este capı́tulo, onde iremos introduzir alguns conceitos básicos de probabilidade. Ele foi baseado
nos cap. 15 do Mary L. Boas e no cap. 3 do Harvey Gould.
Probabilidades surgem quando estudamos sistemas que mesmo quando preparados exatamente
da mesma maneira fornecem resultados distintos quando observados. Assim não conseguimos
prever, teoriacamente ou experimentalmente por leis fenômenológicas, com absoluta certeza o
resultado de uma observação. Fica claro que para se falar de probabilidade precisamos observar (ou
fazer medidas) mais que uma vez sobre o sistema preparado exatamente da mesma maneira. Não
faz sentido falar de probabilidade em uma única observação (veremos depois que na interpretaçã
Bayesiana isto não é verdade).
De modo equivalente podemos ter um conjunto de sistemas idênticos e preparados extamente
da mesma maneira e observar cada membro do conjunto (os sistemas devem ser independentes).
A esse conjunto de sistemas idênticos damos o nome de ensemble (grupo em francês). De modo
análogo não faz sentido falar de probabilidade para um único sistema. Temos sempre que pensar
no sistema como parte de um ensemble e as probabilidade irão depender de que ensemble especı́fico
estamos considerando.
ACREDITO QUE A EQUIVALÊNCIA ENTRE ESTAS DUAS SITUAÇÕES É ANALOGA A
ERGODICIDADE QUE ASSUMIMOS POSTERIORMENTE. PENSAR MELHOR SOBRE ISSO
E INCLUIR ALGUM COMENTÁRIO!?

5.2 Definições e Interpretações


P
Mais formalmente, considere um ensemble de sistemas idênticos S. A probabilidade de ocorrer
um evento x (um certo valor para alguma medida) é dada por:

Ω(x)
P (x) = lim
P , (5.1)
Ω( )
P
Ω( )→∞

P P
com Ω( ) o número de total de sistemas no ensemble e Ω(x) o número de sistemas que exibem
o evento x. Fica claro que:

• 0 ≤ P (x) ≤ 1.

• Se P (x) = 0, nenhum sistema exibe o evento x, mesmo para infinitos sistemas.

• Se P (x) = 1, todos os sistemas exibem o evento x.

O exemplo mais simples e conhecido de um fenômeno probabilistı́co é o lançamento de uma


moeda: devemos ter N moedas idênticas e jogar cada uma de modo idêntico. Então contar o
número de vezes que temos o evento x (cara, por exemplo).

21
22 CHAPTER 5. TEORIA DE PROBABILIDADE

Cara Coroa
Probabilidade 1/2 1/2

Table 5.1: Probabilidades para um espaço amostral uniforme no lançamento de uma moeda

2 Caras 1 Cara 0 Caras


Probabilidade 1/4 1/2 1/4

Table 5.2: Probabilidade amostral não uniforme no lançamento de duas moedas

Essa é uma visão bem objetiva e experimental de probabilidade. Uma das ”dificuldades” é que
formalmente temos que considerar infinitos eventos o que não é realistı́co. Esperamos e daremos
evidências de que o valor de P (x) converge para um valor bem definido permitindo assim o uso de
um número finito de eventos.
Uma outra possibilidade de definir probabilidades formalmente é considerar todos os possı́veis
resultados de um experimento. Tais resultados devem ser mutuamente exclusivos: a ocorrência de
um exclui a possibilidade da ocorrência dos outros.
Este conjunto de eventos mutualmente exludentes é chamado de espaço amostral. Exemplos
são
Para 1 moeda: {cara, coroa}
Para 1 dado: {1,2,3,4,5,6}
Para 2 dados: {cara cara, cara coroa, coroa cara, coroa coroa}
Note que há mais de uma maneira de definir o espaço amostral de um mesmo sistema. Para
o caso de 2 dados por exemplo podemos considerar: {2 caras, 1 cara, 0 caras} ou {0 caras, pelo
menos 1 cara}. A única restrição é que os resultados, elementos do conjunto, sejam mutuamente
excludentes.
Cada resultado, ou evento, no espaço amostral é considerado um ponto do espaço amostral. E
a cada evento associamos uma probabilidade.
Com isso definimos a probabilidade de 1 evento somando as probabilidades de cada ponto
”favorável” ao evento. Por exemplo, a probabilidade de pelo menos 1 cara = probabilidade de 1
cara + probabilidade de 2 caras: 3/4 = 1/2 + 1/4
Note que para espaços amostrais uniformes temos que a
número de pontos favoráveis ao evento
probabiidade = (5.2)
número de pontos do espaço amostral
Uma das ”dificuldades” desta definição é que temos que assumir a priori o conceito de proba-
bilidade ao associar probabilidades aos pontos do espaço amostral.
No caso de espaços amostrais uniformes pode-se argumentar em termos de simetria: não temos
nenhuma informação que leve a privilegiar um dos eventos, assim devem ser equiprováveis.
Essas duas definições de probabilidade levam a interpretações do conceito de probabilidade
que são chamadas de frequentistas: associam probabilidade com a frequência que um evento oc-
core. Existem outras definições ou interpretações que são mais subjetivas. A principal delas é
a Bayesiana, baseada em um trabalho do clérigo e matemático amador Thomas Bayes de 1763.
Nela a probabilidade de um evento é o grau de confiância que o observador tem que tal evento irá
ocorrer e portanto depende do observador em questão.
Um diferença fundamental entre as duas interpretações é que na frequentista (ou observacional)
a distribuição de probabilidade é uma propriedade intrinseca do sistema sendo observado e não
depende do observador. Já na interpretação do Bayes ela depende do observador em questão e
portanto é subjetiva.

5.3 Propriedades Fundamentais


Independente da interpretação, probabilidades deve obedecer a algumas regras básicas e funda-
mentais. 1
1 Na verdade tais regras podem ser vistas como axiomas que definem o conceito de probabilidade do mesmo modo

que podemos usar regras para definir o conceito de vetor. Em 1933 o matemático russo A.N.Kolmogorov formulou
5.4. SISTEMAS COMPOSTOS OU DE MAIS DE UMA VARIÁVEL 23

1. P (xi ) ≥ 0

2. Normalização: Se existem M possı́veis eventos xi então


M
X
P (xi ) = 1 (5.3)
i=1

Intuitivamente estamos dizendo que cada sistema do ensemble tem que exibir um dos possı́veis
eventos.

3. Se temos dois eventos distintos x1 e x2 , ou seja, são mutuamente excludentes, então

P (x1 ou x2 ) = P (x1 ) + P (x2 ) (5.4)

1 1 2 1
Exemplo: a pobabilidade de obter 1 ou 3 quando jogo um único dado é 6 + 6 = 6 = 3

4. Para dois eventos independentes (um não influencia o outro) a probabilidade que ambos
ocorram (pode ser uma após o outro ou ao mesmo tempo, já que são independentes)

P (x1 e x2 ) = P (x1 )P (x2 ) (5.5)

Note que ”x1 e x2 ” é o que chamamos de um evento composto. No caso de dados, por
exemplo, devemos lançar dois dados.

Se usarmos a definição de probabidade como (número de eventos x)/(número total de eventos)


e assumimos que todos os eventos são equiprováveis podemos facilmente deduzir as regras acima.
A propriedade 3) se origina no fato de que o número de eventos onde x1 ou x2 ocorrem é igual ao
número de eventos x1 + número de eventos x2 .

5.4 Sistemas Compostos ou de mais de uma variável


Vamos analisar a propriedade 4) com mais cuidado, visto que ela será usada em uma das hipóteses
fundamentais da teoria que iremos desenvolver. Primeiramente devemos notar que a situação
envolve eventos compostos de eventos individuais: o evento é na verdade o que observamos em
dois (ou mais) sistemas ou após observar o mesmo sistema duas vezes. Exemplos seriam observar
o lançamento de dois dados, de um dado e uma moeda, de um dado de 6 faces e outro de 4. Como
os sistemas não precisam necessariamente ser idênticos talvez seja melhor usar as variáveis x e y.
O sistema composto é identificado pela variável (x, y). Para obter a P (x, y) temos que considerar
o espaço amostral do evento composto. Ele será o produto dos espaços amostrais de cada evento,
já que cada possı́vel resultado de x pode se combinar com qualquer possı́vel resultado de y. Os
exemplos de dois dados e uma dado e uma moeda estão mostrados nas Tabs. 5.4 e 5.4.
Se quisermos obter a probabilidade de obter 1 e 2 no lançamento de dois dados, temos que
contar quantos eventos favoráveis temos. Aqui temos que ser cuidadosos porque há duas situações
distintas. Numa identificamos os dados como primeiro e segundo (ou A e B) e queremos obter 1
no primeiro e 2 no segungo. Ou não indentificamos os dados e só estamos interessados em obter
a dupla 1 e 2 sem importar qual dado fornece qual número. No primeiro caso temos somente
um evento favorável que é o elemento (1, 2) do espaço amostral, enquanto que no segundo caso
temos dois eventos favoráveis que são os elementos (1, 2) e (2, 1). Logo temos P (1, 2) = 1/36 e
P (1, 2 ou 2, 1) = 2/36.
Agora vamos obter o lado direito da equação da propriedade 4) e assim verificar sua validade
neste exemplo. Temos que P (1, 2) = P (1)P (2) = 1/61/6 = 1/36 e que P (1, 2 ou 2, 1) = P (1)P (2)+
P (2)P (1) = 1/36 + 1/36 = 2/36, ambas de acordo com o obtido acima. Note que no segundo caso
também fizemos uso da propriedade 3).
um conjunto completo de axiomas para a definição matemática de probabilidade. Formalmente pode-se definir um
espaço de probabilidades usando o espaço amostral, os eventos como pontos, e as probabilidades associadas aos
eventos como ”medidas” neste espaço.
24 CHAPTER 5. TEORIA DE PROBABILIDADE

{11,12,13,14,15,16
21,22,23,24,25,26
31,32,33,34,35,36
41,42,43,44,45,46
51,52,53,54,55,56
61,62,63,64,65,66}

Table 5.3: Espaço amostral uniforme do lançamento de dois dados.

{cara 1, cara 2,cara 3, cara 4, cara 5, cara 6


coroa 1, coroa 2,coroa 3, coroa 4, coroa 5, coroa 6}

Table 5.4: Espaço amostral uniforme do lançamento de uma dado e uma moeda.

Um caso mais interessante é a probabilidade de obter x ≤ 3 e y ≤ 2. Temos que a P(x ≤ 3)


3 1 2 1
= = já que há três possibilidades x = 1, 2 ou 3. E a P(y ≤ 2) = = já que há duas
6 2 6 3
6 1 11
possibilidades y = 1 ou 2. Finalmente a P (x ≤ 3 e y ≤ 2) = = = , já que há 6
36 6 23
possibilidades e fica claro que é o produto do número de possibilidade de x vezes o número de
possibilidades de y; posso combinar cada possibilidade de x com outra de y
Assim vemos que no caso de sistemas independentes a probabilidade do evento conjunto fatora
nas probabilidades de eventos individuais. Deve-se ter claro também que a origem desta ”fatoração”
é o fato de que o valor que obtemos em um dos eventos não interfere no que é obtido no segundo
evento. Na verdade nem mesmo os eventos possı́veis mudam, eles são o mero produto dos eventos
individuais. Se os dois dados tivessem interagindo, por exemplo, ligados por uma mola em uma das
faces, então o valor obtido em um iria interferir no segundo e as probabilidades não iriam fatorar.
Um outro exemplo, seria o caso de dois sistemas quânticos cada um descrito por sua hamiltoniana.
Neste caso os possı́veis eventos de cada sistema numa medição da energia são os autovalores das
respectivas hamiltonianas. No entanto se houver interação não só a regra do produto não é válida
como os valores possı́veis do sistema composto não são mais os meros produtos dos valores de
energia observados em cada sistema quando isolado; são os autovalores da hamiltoniana total que
inclui um termo de interação.
Um outro conceito importante é o das probabilidades marginais. Como vimos, quando temos
sistemas compostos ou um sistema com mais de uma varável aleatória, descrevemos ele por uma
distribuição de probabilidade que é uma função de duas ou mais varáveis, P (x, y) por exemplo.
Mas como procedemos se estamos interessados em observar somente um dos sistemas ou somente
uma das variáveis aleatórias? Neste caso pode-se mostrar que
X
P (x) = P (x, y) (5.6)
y

e chamamos P (x) da probabilidade marginal de P (x, y). A ideia é que como só observamos a
váriável x, consideramos todos os possı́veis valores de y condizentes com x e usando a propriedade
3) devemos somar sobre todos os valores possı́veis de y; não estamos interessados qual valor y terá.
No caso de uma moeda e um dado, ambos não viciados, temos 12 possı́veis resultados, cada um
com probabilidade 1/12. Qual a probabilidade de se observar a face 1 no dado, quando lançamos
os dois juntos? Há duas possibilidades de se observar a face 1, numa a moeda fornece cara a
na outra coroa. Como qualquer uma delas serve ,usamos a propriedade 3) e somamos as duas,
obtendo 1/12+1/12=2/12=1/6. E interessante notar que se os sistemas são independentes então
as probabilidades fatoram e temos
X X
P (x) = P (x, y) = P (x) P (y) (5.7)
y y

e portanto a probabilidade de obter o valor x é proporcional ao número de possı́veis valores de y


compatı́veis com o valor de x escolhido. E como veremos em algumas situaçãoes as propriedades do
sistema descrito por y se tornam muito relevantes para P (x); alguns valores de x podem ser muito
5.5. VALORES ESPERADOS 25

mais prováveis que outros por terem muitos mais valores de y compatı́veis com ele ADICIONAR
UM EXEMPLO!

5.5 Valores Esperados


5.5.1 Primeiro momento
A distribuição de probabilidade P (x) de uma dada variável aleatória x, é a descrição mais completa
do sistema, fornecendo toda a informação disponı́vel do ponto de vista estatı́stico. Porém muitas
vezes não estamos interessados em tanta informação. Assim é interessante e útil definir o valor
esperado (ou valor médio ou primeiro momento) da variável aleatória. O valor esperado é a soma
ponderada de todos os valores possı́veis:
P
P (xi )xi
i
x̄ ≡ P (5.8)
P (xi )
i

Também se usa a notação E[x] ou hxi


O valor esperado x̄ fornece informação sobre a ”localização” de P (x) ou em torno de quais
valores xi está distribuı́do. O nome valor esperando sugere que x̄ é o valor que esperamos obter
num evento. No entanto devemos ser cuidadosos com o que queremos dizer com isso. No caso de
um dado de 6 faces com iguais probabilidades para cada uma (P= 16 ). O valor esperado será

1 1 1
x̄ = (1) + (2) + ... + (6) = 3, 5 (5.9)
6 6 6
O significado de x̄=3,5 é que se lançarmos o dado N vezes e calcularmos o valor médio obtido (a
média aritmética dos N resultados) ele irá convergir, e neste sentido é o valor esperado, para x̄
conforme N → ∞ (isto é garantido pela lei dos grande números que discutiremos depois). Assim
num lançamento de N dados (ou após lançar N vezes o mesmo dado) esperamos obter x̄ como o
valor esperado.
O valor 3,5 não é o que esperamos obter num lançamento, não é nem um evento possı́vel; nunca
iremos observá-lo em um lançamento. Neste sentido não é o valor que esperamos obter. A priori
tampouco podemos esperar obter mais valores em torno de 3,5. Outro exemplo é o caso de moedas,
onde devemos obter metade caras e metade coroas e portanto o valor esperado é ”nulo”). Nesse
caso quanto maior o número de lançamentos mais confidentes podemos estar de que o número de
casos será igual ao de coroas.
Note que estamos comparando o valor esperando teórico x̄ com o valor médio obtido em um
número finito N de observações. Por isso muitas vezes usa-se o nome valor esperado para x̄ teórico
e valor médio para o obtido em N eventos. Isso causa menos confusão, no entanto não garanto
manter este padrão.
Em suma, x̄ não é o valor esperado no sentido habitual. Num lançamento(ou evento aleatório)
a melhor previsão que você pode fazer é usar o valor mais provável, ou seja, onde P (x) é máximo.
Como veremos em muitos casos o valor médio é igual ao mais provável, o que ajuda a confusão.

5.5.2 Desvio Padrão, ou segundo momento


Mencionamos que x̄ dá a localização de P (x) já que os valores de xi estão distribuı́dos ao redor de
x̄. Podemos perguntar quão dispersos os pontos estão em relação a x̄. Um modo de quantificar isso
seria obter ∆x ≡ x − x̄ que é o desvio médio. Mas x − x̄ = x̄ − x̄=0 (a média da soma é a soma
das médias). Da própria definição da média temos desvios positivos e negativos que se cancelam.
Como estamos interessados somente na magnitude do desvio podemos usar |x − x̄|. Porém esta
grandeza é matematicamente um pouco incoveniente por usar a função módulo, que é não analitica
na origem. Uma segunda opção é olhar para ∆x2 ≡ (x − x̄)2 que é chamado de desvio quadrático
médio ou dispersão ou variância ou segundo momento 2 (em relação a x̄). Também se usa da letra
p
2 Note que temos um tipo de raiz do quadrado médio ou RMS (root mean square) |x − x̄| = (x − x̄)2 ≥ (x − x̄)2
26 CHAPTER 5. TEORIA DE PROBABILIDADE

σx2 ≡ ∆x2 . Ele da uma idéia de dispersão e tem as seguintes propriedades que são usadas com
frequência mas muitas vezes sem saber:

• ∆x2 ≥ 0 já que é uma soma de termos positivos.


• ∆x2 = 0 ↔ xi = x̄ para qualquer i
• ∆x2 = (x − x̄)2 = (x2 − 2xx̄ + x̄2 ) = x2 − 2x̄x̄ + x̄2 = x̄2 − x̄2

Assim ∆x2 quantifica o quão dispersos os pontos estão em relação a x. Se ele for pequeno a
maior parte dos pontos está perto do médio. Assim podemos definir intervalos de confidnência:
um intervalor onde a maior parte dos pontos está. Para a distribuição
p Gaussiana( ou normal) por
exemplo, sabemos que ≈67% dos ”pontos” estão no intervalo x± ∆x2 .

Assim ∆x2 é um valor esperado em 2 sentidos

1) Se obtivermos a média aritmética dos valores de (x-x̄)2 numa amostra de N eventos esper-
amos que tal valor convija para ∆X 2 no limite que N→ ∞
p
2) Esperamos encontrar uma fração dos pontos no intervalo x± ∆x2 ( a desigualdade de
Chebyshev quantifica isso: P(|x − x̄| ≥ Kσx ) ≤ K12

2
p Logo pode-se usar ∆x como uma estimativa do desvio médio em x. Na verdade devemos usar
2
p∆x
∆x2 → tem a mesma unidade de x. É chamado de desvio padrão(também se usa a notação σx .
Também conhecido como RMS, root mean square, de ∆x). Mede a dispersão da distribuição

FIGURA AQUI

É importante notar que tem mais significado fı́sica olhar para o valor relativo do desvio
p
∆x2 p
→ Desvio padrão relativo, comparar ∆x2 com x̄ (5.10)
x
p
→ Isso porque o valor de ∆x2 pode aumentar simplesmente porque o valor absoluto de x̄
aumentou.
Um desvio de 10 reais em 100 é ”muito maior” que um desvio de 1.000 em 100.000

Por com completeza, deve-se mencionar que também se define os chamados n-ésimos momentos
de P(x) X
xn ≡ P (xi )xni (5.11)
i
n
obs: as vezes se usa (xi − x) no lugar de xni

Como dito anteriormente a média ou valor esperado é o primeiro momento.


Dados todos os xn podemos reconstruir(obter) a distribuição de probabilidade original

Por último, pode-se definir valores esperados para uma função de x


X
f (x) = f (xi )P (xi ) (5.12)
i

e pode-se mostrar que (propriedades que já usamos acima)


i) f (x) + g(x) = f (x) + g(x)
ii) cf (x) = cf (x)
5.6. INTERPRETAÇÕES E TEORIA DE INFORMAÇÃO 27

5.6 Interpretações e teoria de informação


Essa definição que demos de probabilidade é empı́rica. Mas como já comentamos há outros modos
de obter a probabilidade de um evento.
A interpretação fequentista tem alguns ”problemas”.
•assume que os eventos tem a mesma probabilidade, ou seja, assume probabilidade para definir
a probabilidade.
•assumo que as frequências serão as mesma num novo experimento no futuro
•não temos como saber quantas medidas são suficientes para uma boa estimativa.

Note que podemos usar o argumento de simetria para dizer que a probabilidade de eventos é
igual: não temos, a priori, nenhuma razão para dizer que as probabilidade sejam diferentes.

Usamos o conceito de probabilidade o tempo todo no nosso dia a dia, quando tomamos decisões.
Temos assim uma intuição sobre probabilidade. Probabilidade está relacionado com o nosso grau
de confiança de que um evento irá ocorrer: a probabilidade é uma medida do grau de confiança
que temos de que o eventos irá ocorrer.
Nesse caso a probabilidade de um dado evento irá depender do conhecimento prévio que temos.
Por exemplo, se jogarmos uma moeda 100 vezes e obtermos 100 caras em seguida, podemos usar
essa informação como evidências de que a moeda não é perfeita e portanto a probabilidade de obter
outro cara é alta.
Outro exemplo, eu e você jogamos cada um uma moeda. Qual a probabilidade de ter 2 caras?
se eu vejo que minha moeda é coroa, vou dizer que a probabilidade é zero. Se não conheço os
resultados de nenhuma das duas moedas irei dizer que a probabilidade é 21 . Se sei que minha
moéda é cara, então direi que a probabilidade é 12
Assim sempre ”calculamos” uma probabilidade condicional: probabilidade do evento E dada a
informação I ou P ( EI )
Pessoas racionais com a mesma informação deveriam chegar a mesma conclusão sobre a prob-
abilidade de um evento. Essa ideoa é chamada de uma ”aposta coerente”
A aposta coerente deve ser considerada virtual. Uma pessoa pode considerar um evento 99,999%
provável e ainda se recusar a apostar R$1.000.000,00 contra R$1,00 se R$1.000.000,00 for muito
mais dinheiro do que ele tem. Mas poderı́amos convencer essa pessoa que essa aposta seria justa
se ela tivesse uma quantida infinita de dinheiro.
Ou seja, decisões dependem não só da probabilidade como um grau de confiança de que um
evento irá ocorrer, mas também na importância subjetiva das consequências( nesse caso a quanti-
dade de dinheiro) → estimativas de probabilidade devem ser separadas de outras questões subje-
tivas envolvidas na consequência do evento.

Nessa interpretação, probabilidades estão diretamente relacionadas com o conceito de informação.


Considere dois experimentos cada um com dois resultados E1 e E2 com probabilidades P1 e
P2 : jogar uma moeda, por exemplo:
No primeiro experimento temos P1 =P2 = 12 (moeda perfeita)
No segundo experimento temos P1 = 15 e P2 = 54 ( moeda viciada)

Nossa intuição diria que o primeiro experimento é mais incerto que o segundo(não?)

Consideramos outros 2 experimentos. No terceiro há quatro possı́veis resultados com P1 = P2 =


P3 = P4 = 41 e no quarto há seis possı́veis resultados com P1 = P2 = P3 = P4 = P5 = P6 . Apresar
de que em ambos os casos os resultados são equiprováveis, dirı́amos que o quarto experimento é
mais incerto que o terceiro, já que há mais possibilidades.

Podemos tornar essa intuição mais ”precisa” introduzindo uma medidade de incerteza que seja
consistente com nossa intuição.
Queremos definir uma função da distribuição de probabilidade que meça quantas incerteza há:
S(P1 , P2 , ..., Pi , ...)
28 CHAPTER 5. TEORIA DE PROBABILIDADE

1
No caso onde os eventos são equiprováveis, P1 = P2 = ... = Pi = Ω com Ω o número total de
possı́veis resultados, temos S( Ω1 , ..., Ω1 ) ou simplesmente S(Ω)
Nesse caso S(Ω) tem que satisfazer algumas condições simples:

1) S(Ω = 1)= 0 Se só há uma possibilidade não há incerteza


2) S(Ω1 ) > S(Ω2 ) se Ω1 > Ω2 → S(Ω) aumenta monotonicamente com Ω

No caso de múltiplos eventos: jogar um dado com Ω1 possı́veis resultados e uma moeda com
Ω2 possı́veis resultados; todos equiprováveis. O número total de possı́veis resultados é Ω = Ω1 Ω2 .
Se o resultado do dado é conhecido a incerteza em relação a ele é zero, mas ainda há incerteza
associada a moeda. Assim devemos ter:

3) S(Ω1 Ω2 ) = S(Ω1 ) + S(Ω2 ) ( aditividade)

Pode-se mostrar que há uma única função que satisfaz a essas propriedades(ver cap.3 do Havey
Gould). Ela tem a forma

S(x) = Alnx + B (5.13)


B deve ser nulo para satisfazer a condição 1) e A é arbitrário. Assim escolhemos A=1
Logo para probabilidades iguais temos

S(Ω) = lnΩ (5.14)


No caso onde as probabilidades não são iguais também pode-se encontrar a função que obedece
as propriedades acima. Nesse caso tem-se
X 1
S=− Pi lnPi → Se reduz a ln Ω para Pi = (5.15)
i

Pode-se ver que se um dos resultados é certo Pi = 1 e Pj = 0 para j6=i então S= -1 ln 1 = 0
Pode-se mostrar também que o caso Pi = Ω1 , probabilidades iguais, maximiza a função S.
Assim pode-se usar um ”princı́pio da máxima incerteza ou ignorância” para justificar o uso das
probabilidades iguais a priori.
A expressão para S foi proposta por Claude Shannon em 1999 nos seus trabalhos sobre teoria
estatı́stica de comunicação.
Shannon define a informação ie trazida por um evento com probabilidade Pe como
ie = −KlnPe (5.16)
Aqui uma informação constitui um ou mais eventos escolhidos em relação a um conjunto finito
de eventos possı́veis. Uma informação é mais importante quanto menor for a probabilidade dela
ocorrer(como no exemplo do dois experimentos acima)

Se o evento ainda não ocorreu a possibilidade que o sistema traga informação correspondente
ao evento e é o produto da informação que ele tem caso ocorra é a probabilidade de ocorrer
efetivamente:

Ie = −KPe lnPe (5.17)


Considerando todos os eventos possı́veis no sistema a possibilidade que o sistema leve in-
formação ao exterio se pudéssemos distinguir cada um dos eventos possı́veis é
X
−K Pe lnPe (5.18)
e
Antes de observar os eventos podemos considerar que a expressão acima(S a menos de uma
constante) representa a falta de informação, ou nosso grau de ignorância, sobre o sistema. Assim a
expressão acima e quanto obtemos de informação, em média, quando observamos um evento. Ao
observar um dado evento e, nosso grau de ignorância diminue, e devemos concluir este evento da
soma acima.
Chapter 6

Passeio aleatório e Distribuição


Binomial

Vamos estudar o problema de uma partı́cula(bêbado) se movendo de forma aleatória em uma


dimensão.
Cada passo tem tamanho e, mas pode ser para direita ou esquerda e a escolha é aleatória:

Probabilidade: P de ir para direita e q de ir para esquerda.

Matematicamente temos uma variável aleatória S que pode assumir os valores ±e. A dis-
tribuição de probabilidade ω(S) é
ω(s) = pδ(s − e) + qδ(s + e)sendo → δ = delta de dirac (6.1)

Estamos interessados no que ocorre após N passos. Qual é a probabilidade de a partı́cula estar
em x=me.
Queremos obter a distribuição de probabilidade da variável
N
X
x= Sk sendo x a soma de variáveis aleatórias (6.2)
k=1

Iremos considerar duas hipóteses importantes( e que irão se manter em todos os problemas que
estudarmos durante o curso)

i)cada passo(evento) é independente. As variáveis Sk não estão correlacionadas. Em geral


dizemos que não há memória(está tão bêbado que não lembra o passo anterior)

ii)a distribuição de probabilidade de cada passo é idêntica

P
Ao invés de analisar x vamos analisar a variável N1 = δ(SK − e): conta o número de passos
K
para direita e está relacionada a x

Note que pode-se generalizar para 2 ou 3 dimensões. Além disso este modelo descreve diversos
outros sistemas: magnetismo(N spins 21 que apontam para cima ou para baixo aleatoriamente)

29
30 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

difusão, luz incoetente de N fontes, etc,...

Temos que utilizar as regras de eventos compostos em probabilidade.

A probabilidade de ter uma sequência especı́fica de N1 passos para a direita e N − N1 para


esquerda é, por exemplo

ppqqpp...p = pN1 q N −N1 → usamos que a P(x1 ex2 ) = P (x1 )P (x2 ) que é valida para eventos independentes
(6.3)
Mas há muitas maneiras de se dar N1 passos para a direita. Devemos somar as probabilidades
de cada possibilidade já que não estamos interessados na ordem em que os passos ocorreram.
O problema é de quantas maneiras podemos arranjar uma sequência de N1 passos para direita
e N − N1 para esquerda
Análogo a ter N bolas de 2 cores e contar de quantas maneiras podemos arranjá-las em N
caixas.
N!
(6.4)
N1 !(N − N1 )!
Relembrando análise combinatória
N bolas distinguı́veis( de diferentes cores ou númerados de 1 a N)
Há N! modo de arranjá-las

Agora imagine que 2 são indistinguı́veis: 3 e 5 por exemplo.


Para cada arranjo com 3 e 5 numa dada posição há um outro arranjo idêntico a menos de que
a 3 e 5 estão trocadas.
Mas como elas são indistinguı́veis (apagamos os números) estes dois arranjos na verdade são
um só
2 3 1 3 6 5 ... N
.
.
.
1 4 1 5 6 3 ... N

Logo há na verdade N2 ! arranjos neste caso.


N!
No caso de 3 bolas indistinguı́veis, temos 3! maneiras de arranjá-las. E assim há 3! arranjos.
Para N1 indistinguı́veis há NN−1!
!

Logo a probabilidade de dar N1 passos para direita( e logo N − N1 para esquerda) em N passos

N!
PN (N1 ) = pN1 q N −N1 → soma das probabilidade de cada sequência de passos. Cada sequência tem a m
N1 !(N − N1 )!
(6.5)
Essa distribuição de probabilidade é chamada de distribuição binomial. Esta expressão aparece
na expansão do binômio de Newton
N
X N!
(p + q)N = pn q N −n (6.6)
n=0
N !(N − n)!

Como p+q=1(distribuição ω(s) é normalizado) temos


N
X
PN (N1 ) = (p + q)N = 1 (6.7)
N1 =0

De N1 podemos obter a posição X

x = N1 e − (N − N1 )e (6.8)
6.1. VALORES ESPERADOS 31

x = (2N1 − N )e (6.9)
Escrevemos x=m.e com m=2N1 -N temos
N! N +m N −m
PN (x) = N +M
 N −M  p 2 q 2 (6.10)
2 ! 2 !

Enfatizamos que PN (N1 ) é a distribuição de um ”evento composto” de vários eventos proba-


bilı́sticos.
Temos um evento com probabilidade p e q e olhamos para N desses eventos e queremos saber
quantas vezes um determinado resultado saiu: número de caras quando jogo N moedas, ou jogo a
mesma moeda N vezes

Note também que o evento obbter N1 passos para direita(ou N1 caras) é de certo modo um
evento macro, onde ignoramos detalhes micro como a ordem em que os passos foram dados(não
interessa qual moeda especificamente deu cara, mas somente o número total)

6.1 Valores esperados


N
X X N!
N1 = N1 P (N1 ) = N1 pN1 q N2 (6.11)
N1 !N2 !
N1 =1 N1

N2 = N − N1
Note que
∂ N1
N1 pN1 = p (p ) (6.12)
∂p
Logo
X N! ∂
N1 = p (pN1 )q N2 (6.13)
N1 !N2 ! ∂p
N1
N!
P
N1 !N2 ! → Não depende de p
N1
!
∂ X N!
=p pN1 q N2 (6.14)
∂p N1 !N2 !
N1


p (p + 1)N ja que N = N1 + N2 (6.15)
∂p

p N (p + q)N −1 (6.16)
p+q=1

N1 = p N (6.17)
Probabilidade de dar um passo para direita vezes número de passos totais.

Também pode-se obter

N2 = N − N1 = N − N1 (6.18)

N − pN = (1 − p)N (6.19)
= qN (6.20)
Note qie para obter N1 médio (N1 ) temos que ter um ensemble de bêbados cada um dando N
passos. Ou fazer várias observações onde o bêbado anda N passos em cada.
32 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

O evento aleatório consiste em dar N passos e não somente 1.

Agora obtemos N12


X N!
N12 = N1 N12 pN1 q N2 (6.21)
N1 !N2 !
  
∂ ∂
Usamos que p ∂p p ∂p pN1 =


p N1 pN1 = pN12 pN1 −1 = N12 pN1 (6.22)
∂p
 2 X
∂ N1
→ N12 = p pN1 q N2 (6.23)
∂p N1 !N2 !
N1
 2

= p (p + 1)N (6.24)
∂p


p N (p + q)N −1

=p (6.25)
∂p

= p p N (N − 1)(p + q)N −2 + N (p + q)N −1



(6.26)
p+q =1

= p2 N (N − 1) + N p (6.27)

Note that we only use p + q = 1 at the end if the calculation. To use the p ∂p
trick we have to
consider p and q as indepent variables, whish in fact makes the calculation more general

Logo ∆N12 = p2 N (N − 1) + N p − (N p)2

= p2 N 2 − p2 N + N p − N 2 p2 (6.28)
N p(1 − p) (6.29)
N pq (6.30)
Assim

√ √
q
∆N12 pq N
r
q 1
= = √ (6.31)
N1 pN p N
Ou seja, a distribuição binomial se torna bem concentrado em torno de N1 para valores grandes
de N .
q
Note que ∆N12 aumenta com N , mas porque o valor médio N1 está aumentando também.
Assim fez mais sentido olhar para o desvio padrão relativo a média: mede o número relativo de
eventos que desviam da médoa e não o número absoluto de eventos

Se p = q = 12 por exemplo temos que N1 = N2 = N2 e a posição final média do bêbado é X = 0.


Mas vemos que a probabilidade de achar o bêbado a uma distância fixa de x(ou de obter um desvio
em N1 em relação a média N1 − N2 ) aumenta. Isso pode ser visto no gráfico da direita abaixo: a
probabilidade de obter um desvio de 10 passos, N1 − N1 = 10,(x = 10l) aumenta com N (a largura
da curva aumenta com N ).
Mas o relevante é a probabilidade de obter um desvio relativo, o que pode ser visto no gráfico
da esquerda onde temos PN (N1 ) versus NN2 . Ali vemos que a probabilidade de obter um desvio de
1

10%( N
N
1
= 1, 1) diminui com N (a largura da curva diminui com N )
1
6.2. MOVIMENTO BROWNIANO E DIFUSÃO 33

Figure 6.1:

O mesmo se aplica para moedas. A probabilidade de obter um desvio N1 − N2 = S moedas por


exemplo aumenta com N e a variância também aumenta: é muito mas fácil obter um desvio de S
moedas quando jogo 1000, do que quando jogo 10 moedas. Mas um desvio de S moedas em 1000
é muito menos ”significativo” do que em 10.

Também podemos observar que

• O valor máximo se desloca para a direita com N


• O valor máximo de PN (N1 ) diminui com N . Isso pode ser entendido pelo fato de que o número
de eventos possı́veis aumenta enquanto a soma das probabilidades de cada um deve continuar sendo
1.
• Quando observamos PN (N1 ) em função de NN1
1
a largura diminue com N . Nesse caso a largura

2
∆N12
 
N1 N1 1
− = (N1 − N1 )2 = (6.32)
N1 N1 N12 N12
∆N12 1
E vimos que ≡ N ou seja, deve diminuir com N
N12

• conforme N aumenta a distância vertical entre os pontos diminui. Ou seja a diferença entre
a P (N1 ) e P (N1 + 1) diminui.

6.2 Movimento Browniano e difusão


Irei discutir alguns pontos do movimento browniano enfatizando aqueles que para mim não estão
claros em alguns livros(provavelmente a culpa é minha!)

Como já comentamos o problemas do bêbado é um modelo simples do movimento browniano,


onde temos uma partı́culas andando aleatoriamente devido a colisões com outras partı́culas(difusão
de uma partı́cula num meio).
34 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

1
Vimos que P(x) é uma distribuição binomial. No caso onde p = q = 2 temos que x =
(p − q)N e = 0,
O que podemos dizer sobre o movimento das partı́culas.

Nas figuras abaixo estão simulações do caminho aleatório.


Cada curva é uma realização do caminho para N passos com N = 100 do lado esquerdo e
N − 10000 do lado direito. O eixo vertical é a posição x e o horizontal o número de passos. Pode-se
imaginar o eixo horizontal como o tempo.

Figure 6.2:

X = 0 porque há partı́culas indo tanto para direita(para cima no gráfico) como para esquerda.
O movimento de uma dada partı́cula é totalmente aleatória(imprevisı́vel).
Mas olhando para todas as curvas juntas vemos √ uma ”tendência” das partı́culas se afastarem
da origem. Essa tendência vem do fato de que σx ≡ N e de que σx é uma medida do intervalo
em torno de x = 0 no qual temos um certo número de partı́culas. Como esse intervalo aumenta a
uma tendência do ensemble de partı́culas se afastar da origem(ou melhor, ficar mais disperso). A
curva contı́nua verde é a fronteira do intervalor de confidencia onde temos 95% das partı́culas

Ao lado temos as distribuições de probabilidades para diversos N (ou tempos)

Figure 6.3:

Vemos que a posição mais provável de se encontrar a partı́cula(onde P (x) é máximo) é x = 0


para todo tempos.

O que aumenta com o tempo é o intervalo no qual encontro um certo número de partı́culas(67%
por exemplo para uma regiçai de σ) p p
É neste sentido que em geral se usa ∆x2 = x2 (já que x = 0) como medida x para descrever
o movimento Browniano.
p √ √
E vemos que a distância x2 ∝ t(ou N ) e não ∝ t como esperado para uma partı́cula livre
se movendo com velocidade constante.
6.3. EQUAÇÃO DE DIFUSÃO 35
p
Este movimento com x2 ≡ t é chamado de difusivo enquanto que o caso ∝ t é chamado de
balı́stico. A constante de proporcionalidade é chamada de coeficiente de difusão.

Um bom exemplo de tudo isto é o movimento de uma gota de tinta jogada em água. Ve-
mos a gota difundir. O que estamos vendo é o efeito macroscópico de um conjunto(ensemble) de
partı́culas brownianas
√ e veremos que as ”bordas” da gota(dentro do qual está a maior parte das
partı́culas) cresce ∝ t.

Outro ”detalhe como cada passo é independente do outro(não há memória) ao invês de obser-
var M partı́culas dos N passos, podemos observas uma únicas partı́culas dos M N passos. Isso é
similar ao caso onde jogamos N vezes a mesma moeda ou N moedas idênticas(matematicamente
dizemos que o sistema é ergódico). Logo podemos usar σx como a região onde uma única partı́culas
irá passar 67% do tempo.

Devo mencionar também que o passeio aleatório exibe invariância de escala: se fizemos um
zoom em uma região do movimento (comN  1) esta região irá parecer similar a trajetória inteira
(até que o zoom seja tão grande que se possa distinguir passos individuais)

Discutir relação entre coeficiente de difusão e flutuações

6.3 Equação de Difusão


Como mencionamos acima ao observar uma únicas partı́cula teremos t ∝ N e temos uma dis-
tribuição de probabilidade que muda com o tempo: PN (n) → P (x, t) (x ∝ N1 e t ∝ N ). P (x, t)
descreve a densidade de um conjunto de partı́culas cada uma se movendo aleatoriamente ou a
distribuição de probabilidade de uma única molécula. Se as partı́culas são independentes estas
duas situações são equivalentes.

De fato essa evolução de P (x, t) no tempo pode ser vista na figura acima onde P (x, t) está
plotado para diversos t.
O que queremos é achar a equação que governa esta evolução.
Iremos considerar o limite do contı́nuo onde N é tão grande que tomamos x e t como contı́nuos(discuto
com mais detalhes adiante)
Mostraremos que a equação em questão é

∂P (x, t) ∂ 2 P (x, t)
=D (6.33)
∂t ∂x2
Ela é chamada de equação de difusão com D o coeficiente de difusão

Vamos a sua dedução. A cada intervalo ∆t a posição da partı́cula muda de S(t). ASsim

x(t + ∆t) − x(t) + S(t) (6.34)

A distribuição de probabilidade para cada passo é ω(S)(novamente cada passo é independente


e descrito pela mesma distribuição). Além disso consideramos que

S = 0 médio (6.35)

S 2 = a2 , desvio quadrático médio (6.36)

Queremos saber qual é P (x, t + ∆t) dado P (x0 , t).


Para a partı́cula sair de x0 em t e chegar em x em t + ∆t o passo S(t) tem que ter tamanho
x − x0 . Isso ocorre com probabilidade S(x − x0 ) vezes a probabilidade da partı́cula começou em
x0 : P (x0 , t). Somando sobre todas as possı́veis posições iniciais x0 temos
36 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

Z ∞
P (x, t + ∆t) = P (x0 , t)S(x − x0 )dx0 (6.37)
−∞
R∞ R −∞ R∞
usando u = x − x0 , dx0 = −du e ∞
→ ∞
=− −∞
Z ∞
P (x, t + ∆t) = P (x − u, t)S(u)du (6.38)
−∞

Agora supomos que P (x, t) é largo na escala de ω(S): passos são muitos menores que a escala
onde P (x, t) varia(o que em geral ocorre para N  1). Assim podemos usar uma expansão de
Taylor para P (x − u, t)

Temos então
u2 ∂ 2 P
Z  
∂P
P (x, t + ∆t) ≡ P (x, t) − u + S(u)du (6.39)
∂x x 2 ∂x2 x

1 ∂2P
Z Z Z
∂P
P (x, t + ∆t) = P (x, t) S(u)du − u S(u)du + u2 S(u)du (6.40)
∂x 2 ∂x2
u2 S(u)du → u2 = a2
R R R
S(u)du = 1, u S(u)du → u = 0,

a2 ∂ 2 P
P (x, t + ∆t) = P (x, t) + (6.41)
2 ∂x2
Agora também assumimos que a variação de P (x, t) no tempo é lenta em um passo tal que

∂P
P (x, t + ∆t) − P (x, t) = ∆t (6.42)
∂t
Com isso obtemos

∂P a2 ∂ 2 P
= (6.43)
∂t Z∆t ∂x2
2
a
que é a equação de difusão com D = 2∆t
Aqui fica claro que o coeficiente de difusão depende de quanto a partı́cula flutua: a2 . Por outro
lado D também está relacionado com a velocidade com que a partı́cula difunde

6.4 Limite N → ∞ e distribuição gaussiana


Estamos interessados no caso limite de N → ∞. Neste limite ocorre duas coisas:

1) Distribuição se ”concentra” em torno de N1 : maior parte dos pontos está em torno de N1

2) Número de valores possı́veis para N1 aumenta e P (N1 ) se torna contı́nuo

O ponto 2 pode ser visto graficamente ou calculando(estou usando n para N1 )a mudança relativa
P (n)
N!
P (n + 1) − P (n) (n+1)!(N −n−1)!pn+1 (1−p)N −n−1
= N!
−1 (6.44)
P (n) n!(N −n)!P n (1−p)N −1

n!(N − n)!
= P (1 − P )−1 − 1 (6.45)
(N + 1)!(N − n − 1)!
N −n p
= −1 (6.46)
n+1 1−p
Escrevemos n − n + δn = N p + δn
6.4. LIMITE N → ∞ E DISTRIBUIÇÃO GAUSSIANA 37

N − N p − δn p N −Np
= − 1 ≡N 1 −1 (6.47)
N p + δn + 1 1 − p Np
1−p p
= −1≡0 (6.48)
p 1−p
Ou seja P (n + 1) − P (n)  P (n) para n → ∞. Podemos então considerar P (n) uma função
contı́nua de n, apesar de que somente valores inteiros têm significado fı́sico.

1
Isto também pode ser visto graficamente ao lado onde temos P (n) para p x q = 2 e N =
20, 50, e 100. A distância vertical entre os pontos diminui.

Figure 6.4:

Note também que ∆n2 aumenta com N , mas o número de pontos em torno de n também
aumenta.

Neste caso onde a variável aleatória e contı́nua (n ∈ R) P (n) é chamado de densidade de


probabilidade. Neste caso devemos falar da probabilidade de obter n em um certo intervalor finito
dn:

P (n)dn : probabilidade de obter n e n+dn (6.49)


Isto porque a probabilidade de se obter um dado n é zero já que existem infinitos(e incontáveis)
valores possı́veis para n. Isto também pode ser obtido fazendo dn → 0 acima:
Z n1 + 12
P (n1 ) = P (n)dn (6.50)
n1 + 12

Note também que a aproximação do contı́nuo só faz sentido para 1  dn <(pequeno na
escada macro N mas grande na escala micro da unidade relevante)

O limite do contı́nuo fica mais claro se usamos a variável x = ml. Quando L = N l  l pode-se
considerar x contı́nuo.
Assim a probabilidade de estar entre x e x + dx é
dx
P (x)dx = P (m) com dx  L mas  l (6.51)
2l
O intervalo dx contém dx
2l possı́veis valores de m, todos com quase o mesmo valor de P (m). E
a probabilidade de encontrar no intervalor dx é obtido somando essas probabilidade(como P (m)
não varia muito considero todos iguais)
É a proporcional a dx como esperado

Note que m = N1 − N2 = 2N1 − N


38 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

Logo ∆m = 2 e ∆x = 2l

Figure 6.5:

Como no limite N → ∞ a maior parte dos pontos está no entorno de n iremos estudar o seu
comportamento nesta região. Devemos notar que o máximo não parece ser igual ao valor médio
n(fato que iremos provas em seguida). Assim iremos expandir P (n) em torno do máximo.

Na verdade iremos expandir ln P (n) e depois tirar a exponencial. Isto porque P (n) varia muito
rápido e sua expansão converge muito lentamente enquanto que ln P (n) converge mais rápido.
Note também que P (n) é monotônico em relação a P (n) e portanto os máximos coincidem.
Por último devemos notar que P (n) envolver a função fatorial que é um pouco chata de se
tratar matematicamente. E além disso essa função pode ser aproximada para valores grandes de
seu argumento. Assim usaremos a aproximação de Stirling.

ln N ! ≡ N ln N − N + θ(ln N ) (6.52)
Portanto tempos

ln P (n) = ln N ! − ln n! − ln(N − n)! + n ln p + (N − n)ln q (6.53)

≡ N ln N − n ln n − (N − n)ln(N − n) + n ln p + (N − n)ln q (6.54)


Para obter o máximo de lnP (n) =

d ln P (n) n (N − n)
= − − ln n − (−1) (6.55)
dn n N −n

= −ln n + ln(N − n) + ln P − ln q (6.56)


 
(N − n) p
= ln (6.57)
n q
O máximo ocorre para
N − n∗ p
=1 (6.58)
n∗ q

(N − n∗)p − n ∗ q = 0 (6.59)

n ∗ (p + q) = N p (6.60)

n∗ = N p = n (6.61)
→ máximo é igual valor médio (no limite N  1)

Temos que obter a segunda derivada para expandir em torno do máximo


6.4. LIMITE N → ∞ E DISTRIBUIÇÃO GAUSSIANA 39

d2 ln P (n)
 
1 1 n+N −n
=− − =− (6.62)
dn2 n N −n n(N − n)
−N
= (6.63)
n(N − n)
N −1
No ponto máximo temos − N p(N −N p = N pq
−1
N − N p = 1 − p = q, N p q < 0 → máx!
Agora fazemos a expansão de ln P (n)
 
1 −1
ln P (n) ≈ ln P (n) + (n − n)2 + ... (6.64)
2! N pq
−(n−n)2
P (n) ≈ P (n) e 2N pq → gaussiana (6.65)
Note que N pq = ∆n2 = σn2
O valor de P (n) Pode ser obtido da normalização de P (n)
N
X Z N
P (n) = 1 → P (n)dn = 1 (6.66)
n=1 0

Como P (n) está concentrado em torno de n podemos estender os limites de integração para
−∞ e + ∞
Z +∞ 2
− N −n
P (n)e 2σn2 = 1 (6.67)
−∞
Z +∞ 2
−n
− N2σ 2 1
e n = (6.68)
−∞ P (n)
R∞ 2 √
Usando que −∞ e−x dx = π
1
temos P (n) = √2πσ
n
Logo
2
1 −
(n−n)

P (n) = √ e 2σn2 (6.69)


2πσn
P (n) → distribuição gaussiana ou normal descoberta por gauss quando estudava a distribuição
de erros em medidas

→ boa aproximação para a distribuição binomial para N  1 e N1  1(é melhor para p longe
de 0 e 1)

Figure 6.6:

Note que:
40 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

→A maior parte dos ”pontos” está em torno de n


→A chance de obter n > n ± 3σn é muito pequena(dexai exponencialmente)

Usando essa expressão gaussiana podemos obter n e σn novamente


−(n−n)2

e 2σn2
Z
< n >G = n √ = n → obtido pelo binomial sem aproximação (6.70)
−∞ 2πσn
e também para < σn >G = σn

Note que aqui também estendemos os limites de integração para −∞ e +∞.

→ A aproximação da distribuição gaussiana se torna ruim para valores muito grandes de n − n.


Porém nesses pontos a distribuição binomial (e gaussiano) assumem valores muito pequenos já que
σn √1 (verdade para gaussiana e binomial)
n ≡ N

Vamos obter o termo de terceira ordem para analisar melhor a aproximação

∂ 3 ln P (n)
 
∂ 1 1
= − − (6.71)
∂n3 ∂n n N −n
1 1
= − (6.72)
n2 (N − n)2
para n = n = N p

1 1 1 1 q 2 − p2 1
2 2
− 2 2
= 2 2 − 2 q 2 = 2 2 2 ≤(em módulo) 2 2 2 (6.73)
N p N (1 − p) N p N N q p N q p
para que a aproximaçãp seja boa

1 q 2 − p2
(n − n)2  (n − n)3 (6.74)
2N pq 6N 2 p2 q 2
3N pq
(n − n)  (6.75)
q 2 − p2
3N pq
Para n − n ≈ q 2 −p2 a aproximação é ruim mas
 2
−1 3N pq
Pn ≡ e 2N pq →N →∞ 0 (6.76)
q 2 − p2
Ou seja nestes pontos a distribuição vai a zero aproximadamente com N e logo o ”erro” é
irrelevante!

→ distribuição gaussiana decai exponencialmente, ou seja não tem ”cauda”, em contraste com
ditribuição que deccaem polinomialmente

→ Note que consideramos que N pq  1. No caso onde p  1 pode-se fazer outras aproximações
e a binomial se reduz a chamada distribuição de Poison

(n)n −n
PN (n) e com n = pN (6.77)
n!
Ocorre quando
1
• p diminui com N : p ≡ N por exemplo(pN é fixo)

• p é constante e  1, e estou interessado no caso n  N.


Na verdade para N  1,PN (n) se torna muito pequeno para n ≈ N já que o fator pn é  1
para p  1. ASsim PN (n) só é significativo para n  N
6.5. EXPANSÃO DE P (N ) E DE LNP (N )(QUADRO DO SEC 1.5 DO REIF) 41

→ Aparece em diversas áreas e situações também chamadas de lei dos eventos raros já que a
probabilidade de um evento individual (p) é muito pequena.

6.5 Expansão de P (n) e de lnP (n)(quadro do sec 1.5 do Reif )


Vemos usar um exemplo para ilustrar a diferença entre expandir P (n) ou lnP (n).
Considere a função

1
f (y) = (6.78)
(1 + y)N
Queremos uma aproximação para y  1, mas N e grande o que faz a função variar rapidamente.
Uma expansão de Taylor direta daria

1
f (y) ≈ 1 − N y + N (N − 1)y 2 + ... (6.79)
2
Para N  1 podemos ter N y & 1 e vemos que a expansão não converge: os termos de 1o e 2o
ordem são grandes.
Consideramos a expansão de ln f (y) = −N ln(1 + y), temos

1
ln f (y) ≈ 0 − N y + N y 2 + ... (6.80)
2
Note que o termo de 1o ordem é igual, ou seja, a posição dos máximos coincidem. Isto é geral
já que

∂ln f (y) 1 ∂ f (y) ∂f


= =0→ =0 (6.81)
∂y f (y) ∂y ∂y
também vemos que o termo de 2o ordem de f (y) vai com N 2 enquanto o de ln f vai com N

Agora aplicamos a função exponencial nos dois lados da expansão de ln f (y) temo
N y2 y2
f (y) ≈ e−N y+ 2 +...
= e−N (y− 2 +...
(6.82)
Esta expansão é válida enquanto y . 1 enquanto a de f (y) exige N y . 1

6.6 Aproximação de Stirling


Como sempre há várias maneiras de justificar a aproximação de Stirling com diversos nı́veis de
intuição e rigor.

Para N  1 ln N ! é uma função que varia lentamente

Figure 6.7:

d ln N ! ln(N +1)1−ln N !
Assim temos dN ≈ 1
42 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

ln(N + 1) + ln N ! − ln N !
= (6.83)
1

= ln(N + 1) ≈ ln N (6.84)
R R
Integrando
R temos d ln N ! = ln N dN
Uso ln x dx = x ln x − x + const. por partes com u = ln x dv = dx

ln N ! = N ln N − N + θ(ln N ) (6.85)
Essa é a aproximação de Stirling(para uma derivação mais rigorosa veja o apêndice A6 do Reif)

Assim temos para N, n  1

ln P (n) ≈ N ln N − N − n ln n + n − (N − n) ln(N − n) + (N − n) + n ln p + (N − n)ln q (6.86)

Figure 6.8:

Outro modo de ver a aproximação é


N
X
ln N ! = ln 1 + ln 2 + ... + ln N = ln N (6.87)
n=1
N
P
ln N → soma das áreas dos retângulos ≈ áreas sobre a curva ln n
n=1

Figure 6.9:
Z N Z N
ln N ! ≈ ln N dn = n ln n − n (6.88)
1 1

≈ N ln N − N + 1 ≈ N ln N − N , para N  1 (6.89)

ln P (n) ≈N,n1 N ln N − n ln n − (N − n)ln(N − n) + n ln p + (N − n)ln q (6.90)


6.7. TEOREMA CENTRAL DO LIMITE 43

6.7 Teorema central do limite


Na verdade pode-se mostrar que a distribuição gaussiana aparece em probabilidades bem mais
gerais que o do caminho aleatório.

No nosso caso tı́nhamos um sistema muito simples onde há somente duas possibilidades: passo
para direita ou esquerda
Esse único evento também tem uma distribuição de probabilidade associado

Figure 6.10:

ω(S) = pδ(s − l) + qδ(s + l) (6.91)


ω(S) → probabilidade de um dado passo ter comprimento l→ não é gaussiana!
Mas quando combinamos N  1 sistemas desses obtemos um sistema bem mais complicado
com muitas possibilidades

E olhamos para uma nova variável aleatória desse sistema que é o número de passos para direita
N
X
N1 = δ(Si − l) (6.92)
i=1

N1 → é uma soma sobre os eventos individuais.

Poderia ter olhado também para


N
X
x= [l δ(si + l) − l δ(si − l)] (6.93)
i

E vimos que a distribuição de probabilidade desse sistema complicado é gaussiana no limite de


muitos sistemas.

O que ocorreria para uma ω(S) diferente?


O cálculo é mais complicado

No entanto pode-se mostrar que para qualquer distribuição ω(S), no limite de muitos sistema
idênticos e independentes a distribuição resultante será gaussiana

→ Teorema Central do Limite( ou do limite central. Limite porque vale para N  e central
porque para valores próximos da média)

A distribuição de probabilidade de qualquer quantidade mensurável é gaussiana no limite de


um grande número de observações independentes

Está relacionada a lei dos grandes números

Em resumo: Imagine que tenhamos um conjunto de variáveis aleatórias independentes e iden-


ticamente distribuı́das(independent and identically distributed: i.i.d) xi
44 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

Ou seja a função P (xi ) é a mesma para todo x1


→ temos várias moedas cada uma com a mesma distribuição P (xi )

Temos que o valore esperado de uma dada xi é



X
E(xi ) = xK K K
i P (xi ) = µ, xi : valores possı́veis para xi (6.94)
k

var(xi ) = σ 2 < ∞ (6.95)


E(xi ) = µ é o valor esperado de uma dada xi .
De uma dada moeda por exemplo
Esse valor é o mesmo para todas as variáveis xi . A variância também é a mesma para cada xi .

Agora definimos o valor médio quando jogamos N moedas. Pode ser N juntas ou N vezes a
mesma moeda
1 X
xN = N xi (6.96)
N i=1
xN também é uma variável aleatória. Se jogamos N moedas novamente iremos provavelmente
obter um valor diferentes para xN .

Queremos saber como se compota essa nova variável aleatória xN

A lei dos grandes números diz que xN converge para N µ

A convergência pode ser fraca ou forte

Fraca: converge em probabilidade

lim P (|Xn − µ| < ) = 1 p/ ∀  > 0 (6.97)


n→∞

Forte: converge quase certamente


 
P lim |xn − µ| <  = 1 (6.98)
n→∞

A forte implica na fraca, mas a fraca não implica na forte

A versão fraca garante que os desvios se tornem raros, ou seja, são infrequentes.
Mas ela não garante que |xn − µ| tende a zero para n → ∞(na verdade, no caso fraco, este
limite pode até não existir)
Na versão forte temos que com prob→1 |xn − µ| tende a 0
Exemplo: jogador de dardos tende a acertar mais próximo do centro conforme o número de
jogadas aumenta. Assim a probabilidade de um desvio diminue. Mas mesmo para N  1 ele pode,
muito raramente, errar o alvo.
Tais detalhes pode ser importantes numa discussão bem purista dos fundamentos da fı́sica
estatı́stica.
Que tipo de convergência queremos prova para obter as leis da termodinâmica?

Também pode-se mostrar a lei no caso onde as variâncias, não são finitas, mas a convergência
será mais lenta.
→ Mostra que a precisão tende a melhorar com mais medidas.

• para uma moeda sem vı́cio o número de caras e coroas tende a ser igual para muitos sorteios.
• também explica a difusão - Porque as moléculas de um gás tendem a ocupar todo o recipı́ente.
• justifica a definição frequentista de probabilidade
6.8. ”PROVA” DE TEOREMA CENTRAL DO LIMITE 45

O teorema central o limite diz como ocorre a convergência para µ e possı́veis flutuações(mas só
no caso de σ 2 < ∞)

• converge em probabilidade
• pode ser visto como uma versão mais precisa da versão fraca da lei dos grandes números

⇒ distribuição da diferença n(xn − µ) tende a uma gaussiana com média 0 e variância σ 2
2
Ou seja, a distribuição de xn tende a uma gaussiana com média µ e variância σn (lembrando
que σ 2 é a variância de uma xi ) → não importa a forma de P (xi )
2
que a variância de xn é σn é fácil ver no caso de i.d.d
 
1
var(xn = var (x1 + x2 + ... + xn ) (6.99)
n
1
= var(x1 + x2 + ... + x2 ) (6.100)
n2

1 σ2
= n var(x) = (6.101)
n2 n
O teorema também pode ser provado no caso de as distribuições não serem idênticas, mas
obedecerem outras condições.
Mas é importante ter variâncias finitas
Para distribuição com lei de potência como |x|−(α+1) 0 < α < 2 que tem variância infinita não
haverá convergência para gaussiana mas para outra distribuição

6.8 ”Prova” de teorema central do limite


Considero uma variável aleatória si que tem uma densidade de probabilidade ω(Si )

Imagine que Si é o comprimento do passo dado pelo bêbado

Figure 6.11:

Agora considero uma sequência de N ”experimentos” independentes cada um dado pela mesma
densidade de probabilidade ω(S)

Qual a probabilidade de obter um valor entre x e x + dx com


N
X
x= Si → seria o comprimento total do caminho do bêbado (6.102)
i=1

Como estamos no contı́nuo temos que considerar a probabilidad de um dado passo estar em
um intervalor ds

A probabilidade de uma dada sequência de eventos(ou passos) é

ω(S1 )dS1 ω(S2 )dS2 ...ω(SN )dSN → produto das probabilidades individuais, já que os eventos são independentes
(6.103)
46 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

P
Há mais que uma sequência de passos que leva a x < Si < x + dx
Temos que somar sobre todas as possibilidades. Note que cada Si pode assumir valores entre
−∞ e ∞
Assim
Z Z Z
P (x)dx = ... ω(S1 )dS1 ...ω(SN )dSM (6.104)

RRR N
P
→integração sobre todos Si tal que x < Si < x + dx
i=1

→ Temos que integrar em algum subespaço de RN dado pela condição acima


Uma maneira de fazer isso é deixar a integração ser no espaço todo, mas com uma função que
é nula fora do subespaço original
A função delta de dirac é ideal para isso
Assim temos
Z ∞ Z ∞ " #
X
P (x)dx = ... ω(S1 )ω(S2 )...ω(SN ) δ(x − Si )dx (6.105)
−∞ −∞ i
P P
δ(x − Si 6= 0 simente se x = Si
i i P
Note que também temos que integrar em dx para permitir o valor de Si estar no intervalor
(x,x+dx)
Agora usamos a representação integral do delta de dirac
Z ∞
X 1 X
δ(x − Si ) = dk e−ik (x − Si ) (6.106)
2π −∞ i

A integral fica
Z ∞ Z ∞ Z ∞
eik
dk (x − S1 − S1 ... − SN ) ... ω(S1 )...ω(SN )dS1 ...dSN dx (6.107)
−∞ 2π −∞ −∞
Z ∞ Z ∞ Z ∞
e−ikx
= dk dx ω(S1 )eikS1 dS1 ... ω(SN )eikSN dS (6.108)
−∞ 2π −∞ −∞

As integrais em S1 , S2 , ...SN são todas idênticas


∞ ∞ N
e−ikx
Z Z
P (x) = dk dSω(S) eikS (6.109)
−∞ 2π −∞
R∞
−∞
dSω(S) eikS = Q(k)
Z ∞
1
P (x) = Q(k)N eikx dk (6.110)
2π −∞

Note que Q(k) é a transformada de Fourier da densidade de probabilidade ω(s)


Q(k) é chamada de função caracterı́stica
Por outro lado Q(K) tende a diminuir com K. Isso porque
Z ∞
Q(K) = dS ω(S) eiks (6.111)
−∞

eiks → termo oscilantes: oscila com perı́odo K. Para K  1 o perı́odo de oscilação se torna 1

Essa oscilação pode ”motar” o termo ω(S) se ele varia mais lentamente dentro de um perı́odo.
b
Rb
iks eiks 1
Temos que a
e dS ≈ ik ≤ (uso que|eiks | ≤ 1) ik
a
6.8. ”PROVA” DE TEOREMA CENTRAL DO LIMITE 47

Figure 6.12:

Logo para K  1 a integral é ≈ 0


Por outro lado preciso que ω(S) oscila lentamente em um perı́odo λ = K talque
Z b Z b
dS ω(S) eiks ≡ ω(a) eiksdS ≈ 0 (6.112)
a a

dS (a − b)  ω → na verdade preciso que seja sob uma perı́odo
R∞ 2π
Com isso posso dividir a integral −∞ em várias partes de comprimento λ = K e em cada
parte usar a aproximação acima.

Como Q(K) ≈ 0 para K  1 (Q(K))N é ainda menor e a contribuição para integral de P (X)
é desprezı́vel.
Para valores pequenos de K usamos uma expansão em K. Na verdade usaremos uma expansão
de log QN já que QN varia rapidamente
 com K 
R∞ 2 2
TemosQ(K) ≈ −∞ dS ω(S) 1 + iks − K 2S + ...
= 1 + ikS − 12 K 2 S 2

Note que aparecem os n momentos das distribuição ω(S). Vamos assumir que esses momentos
são finitos e se tornam pequenos para n grande.
Assim

K2 2
 
ln Q(K)N = N ln Q(K) = N ln 1 + ikS − S + ... (6.113)
2
2
Usamos que ln(1 + ) ≈  − 2 +, , ,

K 2S2 2
 
1 1
ln QN ≈ NiKS − K 2 S 2 − (iKS − ) (6.114)
2 2 2
 
1 2 2 1 2 2 3
≈ N iKS − K S + K S + θ(K ) (6.115)
2 2
 
1 2 2 2
≈ N iKS − K (S − S ) (6.116)
2
2
S 2 − S → variância
 
1
=N iKS − K 2 ∆S 2 (6.117)
2
Assim

N K2
QN ≈ eiN KS − ∆S 2 (6.118)
2
e
Z ∞
1 1 2
∆S 2
P (x) = dK ei(N S−x)K− 2 N K (6.119)
2π −∞
48 CHAPTER 6. PASSEIO ALEATÓRIO E DISTRIBUIÇÃO BINOMIAL

i(N S − x) = b e 21 N ∆S 2 = a
R∞ 2
Integral gaussiana da forma −∞ du e−au +bu
2 b
Uso −au
h + bu = −a(u2 − i a u)
b
 2 b
 2
= −a u − 2a − 2a
b
v =u− 2a dv = du
∞ ∞
Z Z r
−au2 +bu b2
−av 2 b2 π
du e =e 4a dv e =e 4a (6.120)
−∞ −∞ a
R∞ 2

−∞
dv e−av → gaussiana
Logo
2
s
1 −(N S−x) π
P (x) = e 2N ∆S2 (6.121)
2π N ∆S 2
2

1 −(x−µ)2
P (X) = √ e 2σ 2 (6.122)
2πσ 2
com µ = N S
σ 2 = N ∆S 2
Obtemos uma gaussiana como no caso do binomial. Mas nesse caso ω(S) é genérica. Só assumi
que

i) Os eventos são independentes


ii)ω(S) decai rapidamente para S → ∞, tal que os n momentos são finitos
Chapter 7

Descrição Estatistica de Sistemas


Fisicos

O problema do caminho aleatório introduz o tipo de análise que iremos fazer para sistemas
macroscópicos. Temos um evento ”microscópico” sobre o qual não somos capazes de fazer uma
análise determinı́stica (um único passo). Assim atribuı́mos uma distribuição de probabilidade para
esse evento micro. A partir dela obtemos predições sobre eventos a nı́vel ”macroscópico” (após
vários passos). Porém tais predições são probabilı́sticas e portanto sobre um conjunto de sistemas
(ensemble) e não sobre um único sistema. Vimos também que a distribuição de probabilidade
de eventos macroscópicos pode se tornar muito concentrada no limite de muitos eventos micro (a
variância relativa ∼ N1 ) de tal modo que a predição probabilı́stica se torna quase certa (no caso,
a probabilidade de obter um desvio relativo no número de passos para direita em relação ao seu
valor médio).
Agora iremos aplicar o mesmo ”método” para tratar sistemas macroscópicos compostos de
muitas partı́culas microscópicas. Um exemplo paradigmático é um gás numa caixa. Como não
conhecemos qual o estado microscópico completo do sistema, posição e velocidade de cada partı́cula,
iremos atribuir uma distribuição de probabilidade para possı́veis micro-estados. A partir desta
distribuição iremos derivar predições probabilı́sticas para algumas variáveis macroscópicas.
Apesar de não conhecermos o estado microscópico do sistema, temos alguma informação macroscópica
sobre ele. Conhecemos algumas das suas variáveis macro: pressão, temperatura, volume, energia,
magnetização, etc. O conhecimento de uma ou mais dessas variáveis macro não determina o estado
microscópico do sistema, mas o restringe à um conjunto finito.
Assim temos duas caracterizações do sistema

• Macro-estado: Conhecer (ou fixar) uma ou mais variáveis macroscópicas.


• Micro-estado: Conhecer o estado microscópico do sistema: posição e momento de todas as
partı́culas.

Como já mencionamos o micro-estado contém muito mais informação: conhecimento do micro-
estado implica no conhecimento do macro-estado, mas o contrário não é verdade. Além disso
o conhecimento de um macro-estado ”define” um conjunto de micro-estados compatı́veis com o
macro-estado. Um exemplo: Sei que o gás está numa caixa de volume V . Assim sei que a posição
de cada partı́cula tem que estar dentro da caixa. Conhecido os possı́veis micro-estaodos temos que
atribuir uma distribuição de probabilidade para eles. E a partir disto obter probabilidades para as
outras grandezas macro (desconhecidas) assumir certos valores.
Enfatizo, mais uma vez, que estaremos descrevendo um conjunto de sistemas idênticos, um
ensemble, preparados do mesmo modo a nı́vel macro. Eles estão todos no mesmo macro-estado,
mas a nı́vel microscópico cada sistema do ensemble pode ter um micro-estado distinto. Essa dis-
tribuição dos sistemas nos micro-estados é dada pela distribuição de probabilidade que caracteriza
o ensemble.
Assim o primeiro passo é obter o conjunto de micro-estados acessı́veis a partir do macro-estado.
Para isso iremos introduzir alguns conceitos importantes, como a densidade de estados (na ver-

49
50 CHAPTER 7. DESCRIÇÃO ESTATISTICA DE SISTEMAS FISICOS

dade veremos que ela caracteriza o sistema completamente já que a partir dela pode-se obter todas
as propriedades termodinâmicas). Então escolhemos uma distribuição de probabilidade para os
micro-estados acessı́veis. Depois iremos tentar justificar a escolha da distribuição de probabili-
dade que será uma distribuição uniforme: todos os micro-estados compatı́veis (ou acessı́veis) serão
equiprováveis. Isto pode ser visto (e é a visão do livro do Salinas) como um postulado fundamental
da fı́sica estatı́stica. No entanto gastaremos um tempo razoável tentando justificar tal escolha. No
final discutirei algumas outras questões relacionadas aos fundamentos da teoria: o uso de ensembles
e a irreversibilidade temporal de eventos macro (ou a seta do tempo)
Em suma, os ingredientes básicos da descrição estatı́stica são:

1. Macro-estados e micro-estados
2. Ensembles
3. Postulados das probabilidades iguais a priori
4. Probabilidade para eventos macro (também descritos pela termodinâmica)

”Notas de rodapé”

Usei e tentarei usar analogias com o passeio aleatório, mas como toda analogia ela tem seus
limites. No caso do bêbado temos somente um único sistema e o sistema (ou evento) macro é
construı́do deixando o único sistema evoluir por um grande tempo. No caso de um gás temos
muitos sistemas. Assim o evento macro tem origem no grande número de sistemas e não na
evolução temporal. Porém cada sistema também evolui e se eles forem independentes e idênticos
podemos considerar médias no tempo ao invés do ensemble e intuitivamente esperamos que elas
sejam idênticas (tal como podemos considerar um ensemble de moedas ou jogar várias vezes a
mesma moeda)
Essa ”confusão” entre médias temporais e sobre o ensemble será discutidas mais adiante. Note
que tal confusão já ocorria nos primeiros trabalhos em teoria cinética dos gases. No trabalho de
Maxwell sobre a distribuição de velocidades das partı́culas em um gás (e nos trabalhos seguintes
de Boltzmann) não fica claro se aquilo é a distribuição das velocidades entre as partı́culas do gás
ou a distribuição da velocidade de cada partı́culas enquanto evolui no tempo.

7.1 Especificação do Estado de um sistema


7.1.1 Caso Clássico
Na mecânica clássica o estado de uma partı́cula em uma dimensão (1-D) é totalmente especificado
por dois números reais: posição x e velocidade v (ou momento p). Se conhecemos x e p num
instante t0 e as forças que atuam, as leis da mecânica permitem obter x e p em qualquer instante t.
Ao invés de usar x e p separadamente podemos usar o ponto (x,p) em 2-D. Esse espaço em 2-D é
chamado de espaço de fase. Conforme x e p mudam com t o ponto (x,p) também muda e define uma
trajetória no espaço de fase. Assim x e p determinam completamente o micro-estado da partı́cula.
Os macro-estados seriam uma região do espaço de fase que é determinada a partir de alguma
informação macroscópica: partı́cula está numa caixa de volume V e/ou tem energia E, etc. Dado
um macro-estado existem vários micro-estados permitidos e por isso temos aleatoriedade. Assim
o primeiro passo é obter a região do espaço de fase associado a uma dada variável macroscópica.
Antes, vamos à algumas definições. Para um sistema de N partı́culas o espaço de fase tem
6N dimensões. Um elemento de volume é dado por d3N qd3N p e em geral é chamado de célula do
espaço de fase. No formalismo hamiltoniano ao invés de especificar as forças que atuam sobre o
sistema, especificamos a Hamiltoniana H(qi , pi ) do sistema; que é equivalente a sua energia. Fixar
a energia, H(qi , pi ) = E, é equivalente a definir uma hiper superfı́cie no espaço de fase; nesta hiper
superfı́cie estariam todos os micro-estados compatı́veis com o valor E da macro-variável energia
total. Assim definimos a área desta hiper superfı́cie como
Z
σ(E) = d3N q d3N p (7.1)
H(qi ,pi )=E
7.1. ESPECIFICAÇÃO DO ESTADO DE UM SISTEMA 51

O cálculo desta integral em geral é complicado devido ao vı́nculo de se manter na hiper superfı́cie.
Por isso é útil definir o volume da região cuja fronteira é a hiper superfı́cie, ou seja da região
H(qi , pi ) ≤ E: Z
ω(E) = d3N q d3N p (7.2)
H(qi ,pi )≤E

A partir disto podemos obter o volume entre duas hiper superfı́cies com energia E e E + ∆E para
∆E pequeno como1
∂ω
∆ω = ω(E + ∆E) − ω(E) = ∆E (7.3)
∂E
Por outro lado, o volume entre duas superfı́cies de área σ(E) e distância ∆E entre elas, segundo
o teorema de Cavalieri, deve ser dada por

∆ω = σ(E)∆E (7.4)

Comparando com a equação anterior, temos


∂ω
σ(E) = (7.5)
∂E
Note que σ(E) é um tipo de densidade. É só lembrar da densidade de massa usual onde temos
∆m = ρ∆V e ρ = ∂m ∂V . Aqui ao invés da quantidade de massa por unidade de volume, temos a
quantidade de pontos no espaço de fases por unidade de energia.
Assim definimos regiões do espaço de fases que irão corresponder a macro-estados. No entanto
queremos obter o número de micro-estados nestas regiões. Poderı́amos associar o volume e área
com o número total de micro-estados. No entanto a analise dimensional não bate: o número de
micro-estados é adimensional equanto o volume tem dimensão de d3N q d3N p. E além disso não
podemos associar um micro-estado a cada ponto do espaço de fase, já que temos um número infinito
e incontável de pontos. Para resolver isso temos que introduzir uma constante de proporcionalidade
(h0 )3N = (δq δp)3N . Assim o número de micro-estados com energia E fica
σ(E) 1 ∂ω
Ω(E) = = 3N (7.6)
h3N
0 h0 ∂E

Também devemos introduzir esta constante para obter o número de micro-estados com energia
menor que E:
ω(E)
Φ(E) = 3N (7.7)
h0
Note que Ω(E) é uma densidade de micro-estados por unidade de energia.2 Muitas vezes se
usa a letra g(E) para denominar esta densidade. A constante h3N 0 pode ser interpretada como
o volume de uma célula no espaço de fase que determina um micro-estado. Seria como uma
discretização do espaço de fase que evita o problema matemático de um número infinito de micro-
estados e o problema prático de medir a posição e momento com precisão perfeita. A princı́pio
a introdução desta constante parece arbitrária, até porque seu valor é arbitrário. No entanto
veremos depois que ela não tem consequências práticas visto que ela só influenciará o valor absoluto
da entropia enquanto que as propriedades termodinâmicas só dependem da variação da entropia
(derivadas parciais de S) que não dependem do valor de h0 . Lembrando que já na termodinâmica
a entropia é sempre definida em relação a uma valor de referência. É interessante mencionar que
essa arbitrariedade no valor de h0 é ”resolvida” pela mecânica quântica que impõe limites no valor
h
de h0 pelo princı́pio de incerteza de Heisenberg: δxδp ≥ 2π . 3
Definimos também o número de graus de liberdade: número de maneiras que o sistema é capaz
de mover-se sem violar vı́nculos. Para uma partı́culas em 1-D temos 1 grau de liberdade.
1 Note que ∆ω(E, dE) deve ir a zero quando dE → 0 e portanto a expressão acima pode ser vista como o primeiro

termo de uma expansão de Taylor de ∆ω(E).


2 O Salinas usa a letra Ω tanto para o volume acessı́vel do espaço de fase como para o número de micro-estados

(volume/δqδp). O Reif usa Ω para o número de micro-estados. As duas grandezas são proporcionais, mas não são
iguais e isso pode causar alguma confusão
3 Pessoalmente, sou cuidadoso no uso do princı́pio de incerteza de Heisenberg para justificativas deste tipo, já

que existem diversas interpretações do seu significado fı́sico.


52 CHAPTER 7. DESCRIÇÃO ESTATISTICA DE SISTEMAS FISICOS

Figure 7.1: Espaço de fase para uma partı́cula em 1-D e uma trajetória, dada pela condição inicial
e forças que atuam.

Figure 7.2: Ilustração do espaço de fase, com um ponto que caracteriza um micro-estado e uma
região que caracteriza um macro-estado.

Figure 7.3: Ilustração da discretização do espaço de fase, com cada célula correspondendo a um
único micro-estado.

7.1.2 Exemplos
Vamos usar alguns exemplos simples e concretos dos conceitos definidos. Começamos com o caso
mais simples possı́vel: uma única partı́cula em 1-D numa ”caixa” de comprimento L e com energia
p2
total E. Essa informação ”macroscópica” sobre o sistema impõe que 0 ≤ x ≤ L e 2m = E. Ou
seja, a região acessı́vel correspondente a esse macro-estado são os dois segmentos de reta mostrados
na figura abaixo.

Figure 7.4:

Por um lado vemos que o espaço acessı́vel é unidimensional enquanto o espaço de fase é bidi-
mensional, o que pode levar a dificuldades matemáticas.4 E por outro lado, dificilmente somos
capazes de determinar a energia E exatamente num sistema de muitas partı́culas. Logo iremos
considerar que só sabemos que energia está em um intervalo (E,E + dE). Note que dE é a precisão
com que somos capazes de medir a energia macroscópica. Ela deve ser pequena na escala macro
4 como associamos um micro-estado com um volume (δxδp) o número de micro-estados numa superfı́cie é nulo
7.1. ESPECIFICAÇÃO DO ESTADO DE UM SISTEMA 53

para assim termos um macro-estado em um equilı́brio bem definido (energia não varia muito).
Mas deve ser grande na escala micro para permitir um grande número de micro-estados possı́veis
e assim podermos fazer um tratamento estatı́stico.

Figure 7.5: os diferencias δ da figura são na verdade d: ou seja, pequenos a nı́vel macro, mas
grandes a nı́vel micro

O volume do espaço de fase acessı́vel fica

∆ω(E, dE, L) = 2 L dp (7.8)

É interessante escrever em termos de dE que é o que realmente conhecemos em sistemas macro.


p2
Como E = 2m , então
p
dE = dp, (7.9)
m
e dp = m √ m dE = m
p
p dE = 2mE 2E dE. Logo,

r r
m 2m
∆ω(E, dE, L) = 2L dE = L dE (7.10)
2E E

Para obter o número de micro-estados temos que introduzir o volume por micro-estados h =
δpδx. Mas em geral não nos preocuparemos muito com isso dado que as duas grandezas são
proporcionais. Como podemos escrever ∆ω = σdE temos
r
2m
σ(E) = L (7.11)
E

que é a densidade de estados (números de micro-estados por unidade de energia). É importante


enfatizar que σ(E) é uma propriedade do sistema e como vemos não depende de dE.
Como mencionamos, estas grandezas podem ser obtidas a partir do volume:

∆ω(E, dE) = ω(E + dE) − ω(E) (7.12)

∂ω
= dE = σ(E)dE (7.13)
∂E
Para o caso da partı́cula em 1-D, obtemos

ω(E) = 2L 2mE (7.14)

e portanto
√ 1 1
r
∂ω 2m
σ= = 2L 2m √ = L (7.15)
∂E 2 E E
que é igual ao obtido anteriormente, sem usar ω(E).
Nosso segundo exemplo será o oscilador harmônico em 1D. Considere que sabemos que sua
energia está entre E e E + dE. Logo

p2 kx2
E≤ + ≤ E + dE. (7.16)
2m 2
54 CHAPTER 7. DESCRIÇÃO ESTATISTICA DE SISTEMAS FISICOS

Figure 7.6: Volume do espaço de fases acessı́vel para uma partı́cula em 1-D numa caixa de tamanho
L e energia menor que E.

Ou seja, o conhecimento da energia restringe os possı́veis micro-estados aos pontos de uma casca
elı́ptica.
p2 x2
+ 2E = 1 (7.17)
2mE k
Para obter a o número de micro-estados acessı́veis, a área da casca elı́ptica, primeiro obtemos a
área da elipse (que em 2D é um volume): região com micro-estados com energia até E

r r
2E m
ω(E) = π 2mE = 2π E (7.18)
k k
Assim o volume da casca será
∂ω
∆ω(E, dE) = dE = σ(E)dE (7.19)
∂E
com r
m
σ(E) = 2π (7.20)
k
Note que neste caso a densidade σ não depende de E. Mas dado
q um dx o número de micro-
2E
estados acessı́veis depende de x (ou de p). Ele é maior para x ≈ k , como pode ser visto na
figura abaixo

Figure 7.7: Região do espaço de fase acessı́vel a um oscilador harmônico unidimensional com
energia entre E e E + dE; é uma casca elı́ptica.

O caso de sistemas de muitas partı́culas é mais complicado, já que os volumes tem que ser
obtidos diretamente por integrais multiplas. Iremos estudar o exemplo mais simples neste caso que
é um gás de partı́culas não interagentes.

7.2 Gás Ideal Clássico


Vamos estudar agora um exemplo concreto de sistema macroscópico: N moléculas (ou átomos)
numa caixa de volume V . A energia total é
E = K + U + Eint (7.21)
7.3. COMPORTAMENTO GERAL DE Ω(E) 55

Figure 7.8:

com U a interação entre moléculas, e Eint a energia interna da molécula (vibração, rotação, etc).
Desprezando U e Eint , temos o gás ideal que é uma boa aproximação no limite de baixa con-
centração NV  1 (tal que a distância média entre as moléculas é grande de podemos ignorar a
interação) e quando as moléculas são mono-atómicas. A energia total fica
N
X 1
E= pi |2
|~ (7.22)
i=1
2m

O volume no espaço de fase compatı́vel com energia entre E e E + dE é


Z Z
∆ω(E, dE) = ... dr~ 1 ...dr~N dp
~ 1 ...dp~N (7.23)
E≤H(qi ,pi )≤E+dE

Como E não depende das coordenadas, mas só dos momentos, a integração nas coordenadas é
~ i = V . Portanto
R
direta e fatora em integrais na coordenada de um único átomos onde dr
Z
∆ω(E, dE) = V N ~ 1 ...dp~N .
dp (7.24)
E≤H(qi ,pi )≤E+dE

Note que ∆ω cresce exponencialmente com N ; ou seja o número de micro-estados aumenta muito
rápido com o tamanho do sistema.
Fica faltando a integral nos momentos p~i que não são independentes devido a restrição no valor
de energia. Se a energia está fixa em E, temos:
N X
X 3
2mE = p2iα , (7.25)
i=1 α=1

ou seja, temos uma hiperesfera em 3N = f dimensões com raio 2mE. Logo ∆ω(E, ∆E) é
proporcional ao volume de uma casca esférica. Para obter este volume devemos fazer a integração
que é um pouco complicada. No entanto sabemos que o volume de uma hiperesfera em f dimensões
deve ser proporcional a Rf . Assim o volume da região com energia menor que E é
f
ω(E) ∝ Rf = (2mE) 2 (7.26)

e
∂ω f f 3N
∆ω(E, dE) ∝dE ∝ (2mE) 2 −1 ∝ E 2 −1 (7.27)
∂E 2
Combinando com a parte nas coordenadas espaciais, e considerando 3N/2 − 1 ≈ 3N/2 temos:
3N
∆ω(E, dE) ∝ V N E 2 (7.28)

Como N ≈ 1023 o número de micro-estados acessı́veis cresce rapidamente com E.

7.3 Comportamento geral de Ω(E)


Baseado na secção 2.4 do Reif
56 CHAPTER 7. DESCRIÇÃO ESTATISTICA DE SISTEMAS FISICOS

No exemplo do gás ideal vimos que o número de micro-estados acessı́veis cresce muito rápido
com a energia para sistemas macroscópicos. Na verdade esse comportamento é tı́pico de diversos
sistemas de nosso interesse e além disso uma hipótese importante na teoria. Como vimos podemos
usar tanto ∆ω ou σ(E) para quantificar o número de micro-estados, cada um com suas vantagens e
desvantagens. O primeiro, por exemplo, pode fazer mais sentido fisicamente já que não conhecemos
E com total precisão, mas tem o problema de depender de dE. O segundo não depende da precisão
em que o esperimento é feito, dE, e portanto pode ser considerado um propriedade do sistema;
mas por outro lado pode levar a problemas matematicos. Mas como veremos em termos práticos
podemos usar as duas e ambas irão dão todas as propriedades importantes do sistema. Por isso é
fundamental saber como elas dependen de propriedades do sistema, em especial como dependem
da energia E. Por isso iremos argumentar de modo heurı́stico como deve ser tal dependência em
geral.
Considere um sistema com f graus de liberdade e com energia E medida a partir do menor
valor possı́vel (0 no caso clássico ou a energia do estado fundamental no caso quântico). Φ(E) é o
número total de micro-estados com energia menor que E. Obviamente Φ(E) deve aumentar com
E. A pergunta é como? ou melhor, quão rápido?
Considere um único graus de liberdade do sistema. Chamamos Φ1 () o número de possı́veis
valores para esse grau de liberdade quando sua contribuição para a energia do sistema é menor ou
igual a . Também esperamos que Φ1 () aumente com . Uma possibilidade razoável a ter

Φ1 () ∝ α (com α ≈ 1) (7.29)


Vamos assumir que a energia se distribui quase de maneira uniforme entre os graus de liberdade.
Assim a energia por grau de liberdade é dada por
E
≈ (7.30)
f

Se cada grau de liberdade pode assumir Φ1 () valores, o sistema como um todo pode assumir(Φ1 ())f
valores. Ou seja, o número de micro-estados do sistema todo com energia menor de E é
f
Φ(E) ≈ (Φ1 ()) (7.31)
Daı́ o número de micro-estados com energia entre E e E + δE é

∂Φ
∆ω(E, dE) = Φ(E + δE) − Φ(E) ≈ dE (7.32)
∂E

f −1 ∂Φ1
= f (Φ1 ()) dE (7.33)
∂E
∂Φ1 1 ∂Φ1
Usando que ∂E = f ∂ temos

∂Φ1
∆ω(E, dE) ≈ Φ1f −1
dE (7.34)
∂
Disso vemos que quando E aumenta o número de estados por grau de liberdade (Φ1 ) aumenta
lentamente de modo proporcional a  ≈ ( E f ). Mas para sistemas macroscópicos onde f ≈ 10
23
o
número de micro-estados possı́veis para o sistema todo aumenta de forma muito rápida com E 5 :
 1023
1023 E
∆ω(E, dE) ∼ (Φ1 ) ∼ (α = 1) (7.35)
f

Portanto ∆ω cresce rapidamente com E; cresce com uma lei de potência ( ou polinomialmente)
mas com uma potência muito grande(≈ 1023 ).
Note que para sistema finitos (discretos) há um valor máximo para a energia: no caso de
spins com campo magnético seria todos apontando na direção do campo. Nesses casos ∆ω(E) irá
aumentar com E inicialmente mas em algum momento deve começar a diminuir com E.
5O ∂Φ1
termo ∂
dE ∼ αα−1 dE ∼ dE para α ≈ 1
7.4. CASO QUÂNTICO 57

7.4 Caso Quântico


Em mecânica quântica um sistema não é descrito como um ponto (ou vetor) no espaço de fases,
mas como um vetor em um outro espaço vetorial, um pouco mais complicado: o espaço de Hilbert
H. É um
R ∞espaço complexo de todas as funções quadradas integráveis, ou seja, qualquer função f
tal que −∞ |f (x)|2 dx < ∞. Representamos estes vetores pela letra ψ, ou |ψi na notação de Dirac.
Aqui, a informação macroscópica sobre o sistema irá definir uma ”região” ou sub-espaço do espaço
de Hilbert. Como em todo espaço vetorial um vetor qualquer pode ser escrito em termos de uma
base {φn }, temos: X
|ψi = cn |φn i (7.36)
n

com cn os coeficientes de ψ na base {φn }. O número de vetores da base é a dimensão do espaço de


Hilbert. Uma base importante são os auto-vetores da Hamiltoniana: |En i com H|En i = En |En i.
Onde em os auto-valores de energia En são discretos. No caso onde sabemos que a energia do
sistema está entre E e E + dE, então os auto-estados |En i com E ≤ En ≤ E + dE são possı́veis
micro-estados, compatı́veis com o macro-estado. Mas na verdade superposições destes micro-
estados a princı́pio também são micro-estados válidos. Ou seja, qualquer estado
X
|ψi = cn |En i (7.37)
E≤En ≤E+dE

seria um possı́vel micro-estado. Estes estados são estados de superposição onde se pode obser-
var efeitos de interferência quântica: ”eletron em dois locais ao mesmo tempo”. No entanto, não
observamos sistemas macroscópicos em tais estados de superposição. Assim teremos que intro-
duzir uma hipótese extra em sistemas quânticos: estados de superposição não são micro-estados
acessı́veis. Assim só consideramos os auto-estados de energia como compatı́veis e o número total
de micro-estados acaba sendo a dimensão do sub-espaço correspondente. 6
Vamos considerar exemplo simples de partı́culas com spins 12 , em posições fixas e num campo
magnético externo na direção z. Há uma energia de interação entre o momento magnético de spin
de cada partı́cula e o campo hz . A Hamiltoniana do sistema é a soma da Hamiltoniana de cada
partı́culas no campo (não há interação entre elas)
N
X X X
H=− µ~i .~h = −µ0 σ~i .~h = −µ0 h σiz (7.38)
i=1 i i

com σiz o operador do spin na direção do campo (z), cujo auto-valores são ±1. Ou seja, o momento
magnético da partı́culas só pode assumir duas direções: alinhado ou anti-alinhado ao campo. Isto
leva a quantização da energia. Partı́culas com spin na direção do campo tem energia −µh e
aquelas com spin na direção contrário tem energia +µh. Se há N1 partı́culas apontando na direção
do campo então a energia do sistema é

E = −µ0 hN1 + µ0 h(N − N1 ) (7.39)

O auto-estados de energia são todas as possı́veis configurações com cada spin na direção do campo
|+i ou contrária ao campo |−i. Para 2 partı́culas por exemplo os auto-estados de energia são:
| + +i, | − +i, | + −i e | − −i. Chamamos m (ou S) do número quântico de spin: um número que
especifica o grau e liberdade de spin. Neste caso m especifica completamente o estado da partı́cula,
já que a posição é fixa. Para N partı́culas temos que especificar N números: (m1 , m2 , .., mN ). Para
uma energia qualquer há 2N configurações ou micro-estados) possı́veis. Mas se fixamos a energia,
restringimos os micro-estados possı́veis. Como a energia é dada somente pelo número de partı́culas
com spin up, mas não depende de quais spins são up, há várias configurações, ou micro-estados,
6 A não observação de estados de superposição em sistemas macroscópicos, pode ser justificada pela teoria da

decoêrencia. A ideia é que sistemas macroscópicos não podem ser facilmente isolados de sua vizinhança, e é esta
interação com o ambiente ao redor que destrói a superposição e sua coerência. Note que na mecânica quântica
somente estados ortogonais podem ser distinguidos em um único experimento e o número de possı́veis estados
ortogonais em uma dada base é a dimensão do espaço de Hilbert. Talvez este seja um outro modo de justificar a
não contagem de estados de superposição como micro-estados acessı́veis
58 CHAPTER 7. DESCRIÇÃO ESTATISTICA DE SISTEMAS FISICOS

com uma mesma energia E (dizemos que há degenerescência ou que a energia é degenerada).
Assim, temos que obter o número de configurações de N spins com N1 up. Este é um problema
de combinatória, análogo a ao numero de possibilidades de em N moedas, N1 serem caras, e a
solução é
N!
Ω(E, N ) = (7.40)
N1 !N2 !
Note que no exemplo acima, estamos desconsiderando os graus de liberdade espaciais para uma
partı́culas em 1 − D são caracterizados por uma função complexa de x: ψ(x). Para N partı́culas
em 3 − D temos uma função ψ(r~1 , r~2 , ..., r~N ). Assim na verdade temos que especificar os graus de
liberdade espaciais e de spin ψ(r~1 , S1 , r~2 , S2 , .., r~N , SN ) com Si o ı́ndice dos graus de liberdade de
spin.
Vamos utilizar como segundo exemplo o oscilador harmônico. No caso quântico o oscilador só
pode ter alguns valores de energia dados pela fórmula:

1
En = (n + )~ω (7.41)
2
onde ω é a frequência angular da oscilação e n = 0, 1, 2, ... é um número quântico que especifica
o micro-estado do oscilador. Assim para um sistema de N osciladores de mesma frequência e
P seria dado pelo número quântico de cada oscilador: |n1 , n2 , ..., nN
não interagentes o micro-estado
e a energia total seria E = k (nk + 1/2)~ω. Obter o número de possibilidades de distribuir a
energia entre os osciladores, ou seja, o número de micro-estados compatı́veis com uma dada energia
também é um problema de combinatória, que trataremos mais a frente.
Por último iremos considerar uma partı́cula em uma caixa de tamanho L em 1D Nesse caso a
energia também é quantizada (só pode assumir alguns valores) e dada por:

~2 kn2 nπ
En = kn = ; n = 1, 2, ... (7.42)
2m L
Para N partı́culas não interagentes os auto-estados de energia são dados por |kn1 , kn2 , ..., knN i.
Estes auto-estados podem ser representados por pontos no espaço do vetores de onda. Obter o
número de micro-estados compatı́vel com um dado valor de energia é equivalente a obter o número
de pontos dentro de uma hiper-esfera. O tratamento exato deste problema é um pouco tedioso
(veja seção 1.4 do Pathria 3 sed. ou pag. 135 do Greiner). No limite termodinâmico os nı́veis se
tornam um contı́nuo e temos novamente uma integração.

7.5 Resumo
Em resumo, a princı́pio um sistema de muitas partı́culas pode ser descrito deterministicamente
usando as leis da mecânica clássica ou quântica. Mas para isso temos que determinar o seu
estado microscópico completamente; seu micro-estado. A partir disso poderı́amos obter o micro-
estado em qualquer instante de tempo t. Porém em geral não temos toda essa informação ou
tampouco estamos interessados em toda essa quantidade de informação. Temos disponı́vel somente
uma informação parcial sobre grandezas macroscópicas: o volume, pressão, temperatura, energia,
etc. Essa informação define o que chamamos de estado macroscópico do sistema e apesar de não
especificar o micro-estado do sistema restringe os possı́veis micro-estados: aqueles compatı́veis
(acessı́veis) com o macro-estado.

Figure 7.9:
7.5. RESUMO 59

Por definição, todos os micro-estados acessı́veis tem o mesmo valores da grandeza macroscópica
usada: energia por exemplo. Mas outras grandezas, podem assumir valores distintos: o momento
angular total, por exemplo.
Na maior parte das vezes estamos interessados em sistemas em equilı́brio que estão isolados
tal que sua energia total é constante e tem um valor entre E e E + dE. Ou seja, a energia é
a variável macro que conhecemos e que define os micro-estados acessı́veis e logo o ensemble de
sistemas considerados. Todos os Ω(E) micro-estados acessı́veis tem o mesmo valor de energia. No
entanto, podem existir outros parâmetros macro A (momento angular total por exemplo) que não
estão fixos e que variam entre os Ω(E) micro-estados. Assim teremos ”sub-regiões” Ω(E, A) dentro
de Ω(E) cada uma com um valor distinto de A. Um dos principais objetivos é prever os valores
para as grandezas A que não estão fixas ou não são conhecidas. Para isso, teremos que obter
a probabilidade de A assumir um certo valor Ak , dado que conheço a energia: P (E, Ak ). Para
isso primeiro precisamos de uma probabilidade para cada um dos micro-estado estados acessı́veis
P (q, p|E): probabilidade de estar no micro-estado (q, p) dado que a energia vale E. P (q, p|E)
caracteriza completamente o sistema do ponto de vista estatı́stico 7 . Ou seja, é possı́vel fazer
qualquer previsão probabilı́stica sobre qualquer grandeza macroscópica.
Como havı́amos mencionado a definição de probabilidade vem da contagem de eventos(micro-
estados) com um dada caracterı́stica. Por isso a importância de saber contar o número de micro-
estados acessı́veis em um certo sistema com alguma grandeza macro conhecida 8 . No entanto, no
final iremos postular uma P (q, p|E)
O postulado das probabilidades iguais a priori diz que todos os micro-estados acessı́veis tem a
mesma chance (probabilidade) de ocorrer no ensemble. Assim
1
P (q, p|E) = , (7.43)
Ω(E)
ou seja, a probabilidade não depende de (q, p) e é inversamente proporcional ao número de micro-
estados. A partir disto queremos obter a probabilidade de encontrar o valor Ak para o parâmetro
A. Esta é obtida somando os valores de P (q, p|E) que são compatı́veis com o A = Ak . Note que
A = A(q, p) e temos que somar os micro-estados tal que A(q, p) = Ak . Como todos os micro-estados
são equiprováveis, essa soma é igual ao número de micro-estados compatı́veis com o valor A = Ak :
Ω(E, AK ). Portanto a probabilidade de encontrar o sistema com o valor Ak para o parâmetro A é
Ω(E, AK )
P (E, AK ) = . (7.44)
Ω(E)
Com P (AK ) podemos obter valores médios e desvios para a variável A e portanto fazer predições
sobre experimentos.
Na visão frequentista P (q, p)dqdp da o número de sistemas do ensemble com micro-estados na
região dqdp. Como iremos usar a distribuição uniforme onde P (q, p) = constante, se q, p ∈ a região
acessı́vel, devemos ter cuidado para não confundir:

• ω(q, p): densidade de micro-estados que só depende da Hamiltoniana

• P (q, p): densidade de probabilidade que da o número (relativo) de sistemas do ensemble


no micro-estado (q, p). Ou seja, probabilidade de encontrar um sistema do ensemble nesse micro-
estado. É uma propriedade do ensemble!

A densidade de probabilidade é proporcional a densidade de estados e essas duas grandezas as


vezes se confundem. Há maior probabilidade de encontrar o sistema numa região onde há mais
micro-estados (como nas ”bordas” da elipse no caso do oscilador). Essa diferença é mais clara no
caso quântico: a densidade de micro-estados é a densidade de nı́veis de energia em uma dada região
e é uma propriedade da Hamiltoniana (e condições de contorno). A densidade de probabilidade
7 Por enquanto vamos ignorar o fato de que essa probabilidade possa depender do tempo, visto que microscopi-

camente o sistema esta evoluindo no tempo


8 O fato da descrição ser quântica ou clássica só irá alterar como essa contagem é feita: uma integral no espaço

de fases, ou um problema de combinatória. Mas todo o resto do formalismo da fı́sica estatı́stica é independente de
qual é a descrição microscópica.
60 CHAPTER 7. DESCRIÇÃO ESTATISTICA DE SISTEMAS FISICOS

é o número de partı́culas em uma dada região, o que depende das da energia das partı́culas (ou
da temperatura). Pode ocorrer que a região com mais nı́veis (micro-estados) não seja a com mais
partı́culas (a mais ”populada”).
No próximo capı́tulo iremos fazer uma breve revisão da descrição clássica do movimento para
obter alguma informação sobre possı́veis densidades de probabilidade. P (q, p)
Chapter 8

Fundamentos da Fı́sica Estatı́stica

Como já mencionamos iremos fazer uma descrição estatı́stica do nosso sistema usando distribuições
de probabilidade. Assim, na verdade não descrevemos ou fazemos previsões sobre um único sistema,
mas sim sobre um ensemble de sistemas (em geral estas cópias são consideradas cópias ”mentais”
do sistema, todas com o mesmo macro-estados mais diferentes micro-estados)
Apesar de não conhecermos o micro-estado em que o sistema se encontra, ele tem um bem
definido e que deve estar mudando no tempo com a evolução temporal. Vamos considerar que esta
evolução é dada pela mecânica clássica.
O que sabemos são os micro-estados compatı́veis com as informações macroscópicas que temos.
A cada um destes micro-estado podemos associar uma probabilidade, ou melhor, uma densidade de
probabilidade ρ(q, p, t): a fração de sistemas do ensemble num dado micro-estado. Esta densidade
de probabilidade também caracteriza o nosso ensemble de sistemas. Como o micro-estado de cada
sistema varia no tempo o ensemble como um todo, ρ(q, p), também evolui no tempo. Queremos
saber como é essa evolução do ensemble: ρ(q, p, to ) ⇒ ρ(q, p, t)

Figure 8.1: Evolução do micro-estado de cada sistema e to ensemble como um todo. Estamos
considerando a possibilidade do ensemble (e do macro-estado) estar variando no tempo

Apesar de que os micro-estados podem estar evoluindo, a nı́vel macroscópico estamos interessa-
dos nas situações de equilı́brio. Como as variáveis macro não mudam o conjunto de micro-estados
acessı́veis compatı́veis com o macro-estado também não muda.
As variáveis macro irão corresponder a valores médios de grandezas que dependem do estado
micro, assim estes não devem mudar com o tempo. No equilı́brio a variável macro tem um valor
fixo, mas dentro de um certo erro. Por exemplo, sabemos que a energia está entre E e E + dE.
Onde o ”erro” dE é pequeno a nı́vel macro mas grande a nı́vel micro para que existam muitos
micro-estado acessı́veis. Assim para uma propriedade fı́sica qualquer A(q, p) devemos ter que
Z
A≤A≡ dq dp ρ(q, p, t) A(p, q) ≤ A + dA (8.1)

A pergunta é: quais são as densidade de probabilidade ρ(q, p, t) compatı́veis com essa restrição
do equilı́brio termodinâmico nos valores médios de A?. Uma possibilidade seria ter ρ(q, p, t) =
ρ(q, p), ou seja, não há dependência explicita no tempo. Mas vamos considerar o caso geral, e
estudar o que as leis da da mecânica dizem sobre a evolução de ρ(q, p, t).

61
62 CHAPTER 8. FUNDAMENTOS DA FÍSICA ESTATÍSTICA

8.1 Equação de Movimento


1
No formalismo Hamiltoniano cada trajetória obedece as equações

dq ∂H dp ∂H
= e =− (8.2)
dt ∂p dt ∂q
com H o Hamiltoniano do sistema (é a energia se as condições sobre o sistema não mudam com o
tempo; H não depende explicitamente de t). Note também que todos os sistema do ensemble são
idênticos e portanto tem o mesmo H. O que muda é a condição inicial
Consideramos um ensemble no tempo t descrito por ρ(q, p, t). Usando a regra da cadeia temos

dρ ∂ρ dq ∂ρ dp ∂ρ
= + + (8.3)
dt ∂q dt ∂p dt ∂t
d ∂
Note que a distinção entre derivadas totais dt e parciais ∂t
Usando as equações de Hamilton acima temos
 
dρ ∂ρ ∂H ∂ρ ∂H ∂ρ
= + − + (8.4)
dt ∂q ∂ρ ∂p ∂q ∂t
Para simplificar a notação introduzimos o parêntesis de Poison

∂ρ ∂H ∂ρ ∂H
{ρ, H} = − (8.5)
∂q ∂p ∂p ∂q
Assim
dρ ∂ρ
= {ρ, H} + (8.6)
dt ∂t
Na verdade essa equação é satisfeita para qualquer grandeza que dependa de {q(t), p(t), t}: o
momento angular ou uma função qualquer A(q(t), p(t), t), por exemplo.
Note que estou simplificando a notação usando q e p para o conjunto de coordenadas (q1 , ..., qN )
e (p1 , ..., pN ). Explicitamente terı́amos:
N  
X ∂ρ ∂H ∂ρ ∂H
{ρ, H} = − (8.7)
i=1
∂qi ∂pi ∂pi ∂qi

8.1.1 Derivadas totais e parciais


Antes de prosseguir, uma breve lembrança sobre derivadas totais e parciais
∂ρ
• ∂t é a taxa de variação de ρ no tempo para um ponto (q, p) fixo
dp
• dt é a taxa e variação numa dada trajetória

Figure 8.2:

Para uma função qualquer f (q(t), p(t), t), temos


1 equações diferenciais de primeira ordem; o que é uma das vantagens do formalismo Hamiltoniano sobre o

Lagrangeano
8.2. EQUAÇÃO DA CONTINUIDADE 63

df ∂f ∂q ∂f ∂ρ ∂f
= + + (8.8)
dt ∂q ∂t ∂ρ ∂t ∂t
∂q ∂ρ 2
Usando a notação ∂t ≡ q̇, ∂t ≡ ρ̇ e ~v = (q̇, ṗ) temos
df ~ + ∂f
= ~v .∇f (8.9)
dt ∂t
 
df ~ ∂
= ~v .∇ + f (8.10)
dt ∂t

8.2 Equação da Continuidade


Além de saber como o ensemble evolui, também temos interesse em nos fixar numa dada região
dqdp (um conjunto de micro-estados) e saber como a densidade muda naquela região. Será que
alguns micro-estados se tornam mais ou menos prováveis?
A fração (ou número) de sistemas do ensemble que tem micro-estados numa região V é dada
por
Z
N (t) = ρ(q, p, t) dqdp (8.11)
V

Figure 8.3:

Queremos saber como N (t) muda no tempo: será que mais sistemas ”entram” nessa região ou
saem?
O número de micro-estados na região não muda no tempo. O que pode mudar é o número de
sistemas que ocupam aqueles micro-estados. O número total de sistemas do ensemble tampouco
muda. Assim para que o número de sistema que têm micro-estados na região V mude, algum
~ e deve ser igual a taxa com
H
sistema deve entrar ou sair. Esse fluxo de sistemas é dado por S ρ~v .ds
que o número de sistemas no volume V varia. Matematicamento temos
Z  I
dN d ~
= ρ dV = − ρ~v .ds (8.12)
dt dt V S
H
com dV = dqqp, S a integração sobre a superfı́cie da região de volume V . O sinal negativo se
~ = n̂ds com n̂ o vetor normal a
deve ao fato de que o fluxo é positivo quando é para fora já que ds
superfı́cie e para fora dela.
~ = ~ v dV , temos
H R
Usando o teorema de Gauss (ou do divergente), S ~v .ds V
∇.~
Z  Z
d ~ v ) dV
ρ dV = − ∇.(ρ~ (8.13)
dt V V
d ∂
Colocamos dt para dentro da integração com o cuidado que ela se torna ∂t já que ρ também
depende de q e t e não somente de t como N
Z Z
∂ ~ v )dV
ρdV = − ∇.(ρ~ (8.14)
V ∂t V
 
2 ~ +
~v .∇ ∂
é chamado de derivada conectiva ou materia ou lagrangiana ou de Stokes,...
∂t
64 CHAPTER 8. FUNDAMENTOS DA FÍSICA ESTATÍSTICA

Fazendo a região dV muito pequena obtemos uma equação diferencial

∂ρ ~ v)
= −∇.(ρ~ (8.15)
∂t
Esta equação nada mais é que uma equação da continuidade para ρ: a variação numa dada
região é igual ao que entra menos o que sai.

8.3 Teorema de Liouville


~ explicitamente ∇
Escrevendo o vetor ∇ ~ = ( ∂ , ∂ ) e ~v = (q̇, ṗ) o lado direito da equação da
∂q ∂p
continuidade fica

∂ ∂
∇.(ρ~v ) = (ρq̇) + (ρṗ) (8.16)
∂q ∂p

∂ρ ∂ q̇ ∂ρ ∂ ṗ
∇.(ρ~v ) = q̇ + ρ + ṗ + ρ (8.17)
∂q ∂q ∂p ∂p
Usando as equações de Hamilton

∂ρ ∂H ∂ ∂H ∂ρ ∂H ∂ ∂H
∇.(ρ~v ) = +ρ − −ρ (8.18)
∂q ∂p ∂q ∂p ∂p ∂q ∂p ∂q
 2 2

~ v ) = {ρ, H} + ρ ∂ H − ∂ H
∇.(ρ~ (8.19)
∂q∂p ∂p∂q
∂2H ∂2H
Como ∂q∂p − ∂p∂q = 0 obtemos

~ v ) = {ρ, H}
∇.(ρ~ (8.20)
Então, combinando as equações de Hamilton com a da continuidade, obtemos

∂ρ
= −{ρ, H} (8.21)
∂t
Portanto, utilizando a equação acima na equação de movimento para ρ, temos

dρ ∂p
= {ρ, H} + =0 (8.22)
dt ∂t
que é o teorema de Liouville (obtido por Liouville em 1838).
O teorema de Liouville, diz que ρ(q, p, t) é constante numa trajetória do espaço de fase; é uma
constante do movimento. O micro-estado de cada sistema esta mudando no tempo, mas fração de
sistemas naquele micro-estado não muda: em t0 há N0 sistemas no micro-estado (q0 , p0 ). Em t1
o micro-estado evolue para (q1 , p1 ) e o número de sistemas neste novo micro-estado é N1 = N0 .
Mas se fixamos um micro-estado sua probabilidade a princı́pio pode mudar: em t1 pode não haver
mais nenhum sistema no micro-estado (q0 , p0 ).
Note que integrando ρ no espaço de fases todo obtemos o número de sistemas no ensemble ou
o número de micro-estados ”ocupados”. Assim vemos que este número não muda com a evolução:
dizemos que o volume é preservado. Como já dito, é análogo ao escoamento de um fluido incom-
pressı́vel

Figure 8.4:
8.4. IMPLICAÇÕES DE LIOUVILLE 65

Note que uma forma de obter o volume é escolher ρ = 1 para todos os micro-estados na região
desejada e ρ = 0 fora dela
O fato de ρ ser constante no tempo mostra que não há atratores: no caso de um pêndulo com
atrito, um grande conjunto de estados iniciais evolui para um pequeno conjunto de estados finais
(pêndulo parado) chamados de atratores.
Isto é parecido com o fato de que sistemas termodinâmicos em geral entram em equilı́brio
independente de sua condição inicial. Mas como acabamos de ver o teorema de Liouville impede
isso de ocorrer. Assim deve haver algum outro mecanismo além do dinâmico, responsável por fazer
os sistemas entrarem em equilı́brio termodinâmico.
Note que:
• A equação de continuidade diz o que ocorre numa região fixa dV : a mudança de densidade
tem de vir da entrada ou saı́da de pontos (não há fontes ou sumidouros). Usando informação sobre
como os pontos e ρ se altera com a dinâmica obtemos Liouville.
• Liouville não exclue a possibilidade de ∂ρ∂t 6= 0: pode haver uma dependência explı́cita em t,

mas ela cancelada pela implı́cita para ter dt = 0.
• Em casos simples podemos obter Liouville usando o espaço de posições e velocidades. Mas
em casos mais complicados o teorema só é válido para a coordenada e momentum generalizado e
não para ~r e ~v (casos onde a relação entre p e v é mais complicada, por exemplo quando há um
campos B ~ externo).
• ρ(q, p, t) é invariante por uma transformação canônica (aquela que não altera as equações de
Hamilton) tal como o volume dqdp.

8.4 Implicações de Liouville


Já vimos que o Teorema de Liouville garante que dρ dt = 0. Ou seja, se há uma densidade de
probabilidade inicial ρ0 (q0 , p0 ). Os micro-estados {q0 , p0 } evoluem para uma outro micro-estado
{q1 ,p1 } mas a densidade de probabilidade não muda ρ1 (q1 , p1 , t1 ) = ρ0 (q0 , p0 , t0 )
Mas se nos fixarmos em um dado micro-estado existe a possibilidade de a densidade de proba-
bilidade variar no tempo: ρ(q0 , p0 , t0 ) 6= ρ(q0 , p0 , t1 ). Isso porque ∂ρ
∂t pode ser diferente de zero. O
número de sistemas do ensemble em um dado micro-estado (fixo) estaria mudando.
Se tivermos que ∂ρ∂t = 0 então terı́amos o equilı́brio termodinâmico naturalmente: se ρ(q, p)
não muda no tempo os valores médios também não irão mudar! Além do equilı́brio dos valores
médios terı́amos também o equilı́brio da própria probabilidade de encontrar o sistema em um dado
micro-estado. Terı́amos uma ρ (e logo um ensemble) em equilı́brio estático (ensemble estacionário,
ver Tolman pag. 55).
Lembrando que do Teorema de Liouville:

∂ρ X  ∂ρ ∂H ∂ρ ∂H

= −{ρ, H} = − − (8.23)
∂t i
∂qi ∂pi ∂pi ∂qi
∂ρ ∂ρ
Vemos que um modo simples de obter ∂t = 0 é usar uma ρ(q, p) constante em p e q, já que ∂qi =
∂ρ
∂pi = 0 → {ρ, H} = 0. Uma ρ(q, p) constante é uma densidade de probabilidade uniforme: todos os
micro-estados são equiprováveis. Na verdade podemos ter ρ = ρ(α) com α(q, p) qualquer constante
∂ρ dρ dα
do movimento (α não muda no tempo: dα dt = {α, H} = 0 e ∂t = dα dt = 0). A possibilidade mais
simples é ter ρ = ρ(H(q, p)) e veremos que um caso comum é ρ ∝ exp(−H(q, p)/KB T )
Essa distinção entre equilı́brio termodinâmico (macro) e equilı́brio do ensemble (micro) em
geral não é discutida e iremos confundi-los a seguir (mas note que o segundo é mais ”forte” que o
primeiro)
É possı́vel justificar o uso de ρ(q, p) = constante por outros meios. Pode-se argumentar que não
há razão para que um dado micro-estado seja mais provável que outro; argumento similar ao usado
para uma moeda ”perfeita”. Este é conhecido como princı́pio da máxima ignorância ou de Jaynes.
Mas pode-se imaginar que o sistema tenha alguma particularidade (nas interações, ou simetrias)
que fazem alguns micro-estados mais prováveis. Por outro lado vimos que se em algum instante
de tempo ρ(q, p, t) se torna uniforme, então ela continuará uniforme para sempre (ela é estável
ou de equilı́brio). Isto sugere que não deve haver nada nas leis mecânicas que favoreça alguns
66 CHAPTER 8. FUNDAMENTOS DA FÍSICA ESTATÍSTICA

micro-estados em detrimento de outros, já que a dinâmica não destrói a distribuição uniforme (não
2
está claro! Tenho que provar que ∂∂t2ρ = 0)
Baseado nesses argumentos iremos postular que ρ(q, p) = constante
• Postulado das probabilidades iguais a priori: todos os micro-estados acessı́veis de
um sistema em equilı́brio são equiprováveis.

Justificar esse postulado de modo rigoroso é um dos grandes problemas dos fundamentos da
fı́sica estatı́stica. O que fizemos foi motivar sua plausibilidade. E de qualquer modo sabemos que
TODAS as predições baseadas nele são confirmadas experimentalmente. Isso por si só pode ser
visto como uma justificativa para o seu uso. Mas talvez haja alguma razão mais fundamental de
porque ele funciona!
Para ter uma densidade de probabilidade uniforme e normalizada usamos
(
1
se (q, p) ∈ estados acessı́veis
ρ(q, p) = Ω (8.24)
0 se (q, p) 3 estados acessı́veis

Deste modo temos uma ρ(q, p) e iremos usa-lá para fazer predições sobre o sistema. Note que
argumentos similares, usando Liouville, podem ser feitos no caso quântico.

8.5 Hipótese Ergódica


Antes de continuar quero discutir e enfatizar dois pontos: o uso dos ensembles e como um sistema
chega ao equilı́brio novamente.
Ao usar probabilidades para descrever um dado sistema no laboratório, estamos fazendo predições
para a situação onde temos muitas cópias idênticas (a nı́vel macro) e que faremos a experiência (ou
medidas) em cada cópia. A partir dos resultados em cada cópia podemos obter valores médios para
uma certa grandeza. Mas em um experimento real no laboratório só temos uma única cópia do
sistema fı́sico e fazemos medidas sobre ele. E vemos que os valores medidos de fato correspondem
aos valores médios obtidos no ensemble. A pergunta é: Porque esses valores coincidem!?
Na verdade nossa medida no laboratório leva um tempo finito ∆t e durante este tempo a
grandeza pode estar mudando. O valor que obtemos é, portante um valor médio no tempo. De
fato nosso sistema no laboratório está em um certo micro-estado bem definido que evolui no tempo.
Para uma dada grandeza macro A(q, p) o que medimos no laboratório é
Z T
1
hAilab = A (q(t), p(t)) dt = (8.25)
T 0

que é uma média temporal (Em geral dependência de A em t é implı́cita em q e p.)


Por outro lado em nossas contas teóricas obtemos a média no ensemble
Z
hAiteor = A(q, p) ρ(q, p) dqdp (8.26)

com o ı́ndice Ω indicando que a integral se restringe a região do espaço de fase correspondente ao
micro-estados acessı́veis.
Dos experimentos feitos até hoje temos que hF ilab = hF iteor . Mas por que essas médias são
iguais? Para que essas médias sejam iguais a trajetória no espaço de fases, dada pela dinâmica
do sistema que temos no laboratório, tem que visitar todo o espaço de fases acessı́vel de maneira
uniforme (o tempo gasto em uma região é proporcional ao seu volume). Essa é chamada de hipótese
ergódica.

8.5.1 Hipótese Ergódica


Usaremos a hipótese hipótese indiscriminadamente, porém justifica-la é uma das grandes discussões
dos fundamentos da fı́sica estatı́stica desde o seu surgimento. Assim iremos discuti-la um pouco
mais. Note que ela também justifica o uso do postulado das probabilidades iguais a priori.
8.5. HIPÓTESE ERGÓDICA 67

Figure 8.5:

Figure 8.6:

A hipótese foi proposta por Boltzmann. Na sua forma mais forte, onde a trajetória tem que
visitar absolutamente todos os pontos do espaço acessı́vel, ela só pode ser provada para sistemas
bem simples como o oscilados harmônico. Em geral, tenta-se provar uma forma mais fraca onde
se exige que ”quase todos” (pode-se definir rigorosamente) os pontos sejam visitados.
Deve-se mencionar que o estudo dessa hipótese criou um novo campo da matemática pura
chamada de teoria ergódica que estuda sistema dinâmicos que podem satisfazer a hipótese.
Em geral acredita-se que sistema caóticos deve ser ergódicos, ou seja, satisfazer a hipótese 3 . Os
sistemas integráveis teriam muitas quantidades que se conservam que iriam limitar as regiões que a
trajetória pode visitar. Outro modo de ver isso é lembrar que sistemas caóticos tem como principal
caracterı́stica uma grande sensibilidade as condições iniciais: dois estados iniciais muito próximos
se afastam muito (exponencialmente) após a evolução temporal e portanto exploram mais o espaço
de fase (veja fig. ).

Figure 8.7: Esboço da evolução de dois estados iniciais similares em sistemas caóticos. Após
um certo intervalo de tempo, a ”distância” entre os dois estados aumenta. Na verdade ela deve
aumentar exponencialmente com um tempo, eλt , com a constante λ chamada de expoente de
Lyapunov

Note que mesmo um sistema caótico deve obedecer o Teorema de Liouville: o volume tem
que ser preservar. Assim um conjunto de estados iniciais tem que se espalhar, mas preservando o
volume: se torna um ”polvo” (veja figura
Pode-se argumentar que a hipótese tem que ser válida para a maior parte dos sistema que
encontramos na natureza, visto que as predições da fı́sica estatı́stica vem sendo confirmadas nos
últimos anos! (visão pragmática). No entanto, deve-se notar que exigir a hipótese ergódica é
exigir muito. Na verdade só precisamos que os valores médios de alguns poucos observáveis sejam
3 Sabe-se que somente caos pode não ser suficiente em algumas situações, como no conhecido exemplo de Fermi-

Pasta-Ulam (FPU)
68 CHAPTER 8. FUNDAMENTOS DA FÍSICA ESTATÍSTICA

Figure 8.8: Esboço do que se espera da evolução de um ensemble cuja dinâmica é caótica: o
ensenble explora o espaço de fases preservando seu volume. Se assemelha a uma gota de tinta num
copo de agua e essa ”propriedade” esta relacionada com o que é chamado de mixing

iguais e não todos os possı́veis observáveis do sistema (não não conheço muitas discussões nesta
direção). Além disso existem argumentos estáticos para justificar a equivalência entre as médias
temporais e no ensemble. A ideia é que a maior parte dos micro-estados leva ao mesmo valor
do observável: A(q, p) ≈ Ã para a maior parte dos (q, p) ∈ Ω. Assim não importa muito que
densidade de probabilidade você usa, o valor médio será o mesmo e próximo ao valor tı́pico Ã.
Esse argumento, usualmente chamado de tipicalidade, foi feito já por Boltzmann, após criticas a
suas provas do teorema H (veja J. L. Lebowitz, Physics Today, september 1993).
Há uma imensa literatura sobre ergodicidade e sua relação com caos e integrabilidade (sobre o
que não há?) mas não iremos nos aprofundar nessas discussões.

8.6 Equilı́brio e a seta do tempo


Como já dito iremos analisar somente casos onde o sistema está em equilı́brio termodinâmico. E
nesse casos iremos considerar que temos o equilı́brio estatı́stico: todos os micro-estados acessı́veis
são equiprováveis.
Uma pergunta importante é como o sistema chegou ao equilı́brio termodinâmico. Em geral, as-
sumimos que se esperarmos um tempo suficiente sem perturbar o sistema ele entrará em equilı́brio.
Por exemplo: se deixarmos um copo de cerveja ao ar livre, sabemos que após um certo tempo
ela irá aumentar de temperatura até atingir a temperatura ambiente entrando assim em equilı́brio
com ele. E mais, ele irá entrar em equilı́brio com o ambiente não importa a temperatura inicial ou
outros ”detalhes” da condição inicial. Dois copos com a mesma temperatura terão micro-estados
distintos e que não pertencem a região de micro-estados acessı́veis ao estado de equilı́brio a Tamb .
Mas os dois copos irão evoluir para a região de estados acessı́veis Ω(Tamb ).
Em suma o equilı́brio termodinâmico é bem genérico e não depende do estado inicial do sistema;
há uma perda de ”memória” de seu estado inicial.
Imaginemos que temos um sistema fora do equilı́brio tal que a densidade de estados não é uni-
forme mas está concentrada em alguma região. Pode-se pensar que o sistema estava em equilı́brio
e alguma perturbação tirou ele do equilı́brio. Após a perturbação cessar os sistemas do ensemble
podem acessar os outros micro-estados que não eram acessı́veis ao sistema fora do equilı́brio: esta-
mos considerando que a perturbação restringiu o número de estados acessı́veis, como no caso onde
empurramos todo o gás para metade da caixa e depois deixamos ele livre para expandir.
Portando, após uma perturbação, ou após um vı́nculo ser ”liberado”, cada sistema irá evoluir
passando por vários micro-estados acessı́veis. Ou seja, cada sistema do ensemble estará mudando
de micro-estado. Pode-se argumentar que essa troca de micro-estados em cada sistema é análoga
ao embaralhamento de cartas. Assim se esperarmos um tempo suficiente as cartas estarão tão
misturadas que qualquer uma tem a mesma probabilidade de ocupar qualquer posição no baralho,
independente de como o barato estava arranjado inicialmente. Do mesmo modo esperamos que a
distribuição de micro-estados seja totalmente aleatória, ou seja, uniforme tal como a de equilı́brio
estatı́stico. E uma vez uniforme assim ela ficaria para sempre; em equilı́brio.
Assim o fato de sistemas alcançarem o equilı́brio independente das condições iniciais parece
uma hipótese razoável. Por outro lado ela também é bem confirmada pela experiência. Que
sistemas entram em equilı́brio é uma outra hipótese que assumiremos, mas cujo prova é um das
8.6. EQUILÍBRIO E A SETA DO TEMPO 69

Figure 8.9:

grandes questões dos fundamentos da fı́sica estatı́stica. Temos que provar que a dinâmicas do
sistema realmente é equivalente a um embaralhamento aleatório. Podemos imaginar que a dinâmica
preserva algumas caracterı́sticas do sistema (quantidade que se conserva devida a simetrias) não
sendo assim totalmente aleatórias. Note que a equilibração está diretamente ligada a hipótese
ergódica. Um sistema ergódico deve entrar em equilı́brio, já que ele irá explorar todo o espaço
acessı́vel após a pertubação ou remoção do vı́nculo e assim ter valores médios iguais ao de equilı́brio.
Em geral se acredita que a dinâmica de sistema caóticos é ”aleatória” o suficiente para garantir
essa ida para o equilı́brio. Enquanto isso não ocorreria em sistema integráveis. Porém, estabelecer
isso rigorosamente não é trivial. O fato de que sistemas macroscópicos encontrados na natureza
entram em equilı́brio pode ser considerado uma evidência de que eles são caóticos.
Mesmo que se consiga provar que o sistema atinge o equilı́brio é importante saber quanto tempo
isso leva; o tempo de relaxação. Esse tempo irá depender dos detalhes microscópicos e obtê-lo é
um problema bem difı́cil.
Essa questão está relacionada com a segunda lei da termodinâmica que diz que a entropia de
um sistema fechado nunca diminui. Ou seja, os sistemas sempre evoluem ”na direção” de aumentar
a entropia e nunca de diminuir. O estado de equilı́brio seria o de máxima entropia e a segunda lei
justifica o fato de sistemas em geral entrarem em equilı́brio.
Mas porque os sistema nunca evoluem no sentido da diminuição da entropia? Um gelo não
pode se formar naturalmente num copo de H2 O enquanto a H2 O aumenta de T ? Isso não viola
a conservação da energia! A segunda lei favorece uma direção no tempo; dá uma seta do tempo.
Porém sabemos que as Leis de Newton (e da M.Q.) são invariantes por reversão temporal e portanto
um sistema macroscópico feito de partı́culas que obedecem a tais leis também deveria ter dinâmicas
invariantes por reversão temporal. Assim há um conflito entre a segunda lei (e o fato de sistemas
equilibrarem) e as leis de Newton(ou do M.Q.).

Figure 8.10:

Suponha um estado inicial i, fora do equilı́brio, que evolui para um estado final f em equilı́brio.
Se no ponto f invertemos o momento p de todas as partı́culas o sistema irá voltar para i. Ou seja,
para cada ponto i e evolução que leva ao equilı́brio (e obedece a segunda lei) há um outro ponto
70 CHAPTER 8. FUNDAMENTOS DA FÍSICA ESTATÍSTICA

e evolução que tira o sistema do equilı́brio (e viola a segunda lei). Então porque não observamos
nunca as evoluções onde a segunda lei é violada?
Boltzmann conseguiu obter uma segunda lei para gases usando a hipótese de que as colisões
entre as partı́culas não dependem de seu estado anterior: há uma perda de memória. É como se
discretizassemos a evolução (ou o espaço de fase) e a cada instante de tempo jogássemos fora uma
parte da informação sobre o estado da partı́cula. Justificar tal hipótese é um grande problema.
Essa perda de memória pode ser ”justificada” em sistema caóticos. Nos sistemas caóticos um
pequeno erro na condição inicial pode alterar completamente o estado final. Imagine que fazemos
a evolução em passos discretos: uso o ponto qn−1 como condição inicial para obter o ponto qn e
assim sucessivamente. Agora se durante esse processo fazemos alguma aproximação no valor de qn
o estado final pode ser completamente outro devido ao acumulo de erros. Por exemplo, podemos
acabar preservando somente os primeiros 20 dı́gitos do valor de qn e isso já pode ser suficiente para
que o estado inicial seja muito diferente.

Figure 8.11:

Isso ocorre por exemplo quando fazemos simulações numéricas onde as equações diferenciais do
movimento são resolvidas discretizando o tempo e espaço. Nesse caso os arredondamentos feito
pelo computador podem resultar em estados finais completamente distintos. Isso pode ser visto
utilizando o programa ”sensitivity to initial conditions” do site www.compadre.org/stp. Ele simula
a dinâmica de um gás de partı́culas interagindo pelo potencial de Lennard-Jones e confinados numa
caixa bidimensional (com condições periódicas) usando ”dinâmica molecular”: que basicamente
discretiza o tempo e espaço para resolver as equações diferenciais numericamente.
Iremos simular o caso onde inicialmente 270 partı́culas estão em um lado da caixa e ver como
o número de partı́culas em cada lado muda no tempo. Após um certo tempo invertemos as
velocidades (inversão temporal) e continuamos a simulação. Vemos que em t = 0 todos estão de
um lado e com a evolução elas começam a se espalhar tendo n1 ≈ n2 . Em t = 8 fazemos a inversão
temporal. Pode-se ver que a dinâmica entre t=8 e 16 é uma imagem especular da dinâmica entre
t = 0 e 8. E vemos que o sistema volta a sua condição inicial em t = 16 (no site você pode fazer a
simulação e ver a imagem das partı́culas na caixa evoluindo).
Agora vamos deixar a evolução ocorrer por mais tempo antes de fazer a inversão. Assim mais
erros irão se acumular. Vemos que o sistema não retorna exatamente ao seu estado inicial; não há
simetria e reversão temporal.
Por último fazemos a reversão em t = 15. Vemos que o sistema não volta nem perto do seu
estado inicial. Aqui há uma completa perda de simetria de inversão temporal. Com isso há uma
perda de memória, o que justifica a hipótese de Boltzmann (hipótese do caos molecular)
Deve-se enfatizar que a perda ocorreu somente devido a falta de precisão dos cálculos. Se
tivéssemos uma precisão infinita terı́amos a simetria. E a natureza ”calcula” a evolução com
precisão infinita e portanto a evolução violando a segunda lei devem ocorrer. Mas na prática nunca
podemos isolar um sistema perfeitamente e sempre há perturbações externas, que em geral são
desprezı́veis. Essas pequenas perturbações podem tornar um sistema caótico e portanto irreversı́vel,
justificando a segunda lei. Pode-se mostrar no movimento da moléculas de uma gás ideal as
perturbações devida a força gravitacional de uma pessoa observando o gás, já é o suficiente para
que após algumas poucas dezenas de colisões o movimento já não seja mais reversı́vel 4
Essas pequenas perturbações externas que fariam o sistema caótico e irreversı́vel seriam uma
justificativa para a hipótese de Boltzmann. Mas note que o fato de a dinâmica perder a reversibil-
4 Aqui a irreversibilidade ocorre não por cause de erros numéricos. Mas porque estamos observando somente o

gás e não temos informação sobre as condições iniciais da pessoa. Obviamente se também fossemos capaz de reverter
a condição inicial da pessoa, o movimento do sistema todo, gás+pessoa, seria reversı́vel.
8.6. EQUILÍBRIO E A SETA DO TEMPO 71

Figure 8.12: Nesse caso fizemos a inversão em t = 8 e n1 e n2 são os números de partı́culas de


cada lado.

Figure 8.13: inversão em t = 12

Figure 8.14: inversão em t = 15

idade não justifica o porque não vemos evoluções com diminuição da entropia. A questão é que o
sistema acaba seguindo uma outra trajetória e não chega no ponto que deveria: ele chega em f 0 e
72 CHAPTER 8. FUNDAMENTOS DA FÍSICA ESTATÍSTICA

não em f e se invertemos os momentos em f 0 ele não irão retornar a i. Mas existe um ponto no
espaço de fase tal que a dinâmica termina em i e porque o sistema nunca passa por esse ponto?

Figure 8.15:

Como já mencionamos existe uma outra solução para o problema onde a dinâmica não tem
papel fundamental. O que pode-se mostrar é que para sistemas macroscópicos o número de micro-
estados que violam a segunda lei é muito menor que o número de estados iniciais que não violam.
Assim a segunda lei pode ser violada, mas a probabilidade de isso ocorrer é muito pequena para
sistemas macro. No caso das partı́culas na caixa pode-se ver que há muitos mais micro-estados
onde n1 ≈ n2 do que quando n1  n2
Com isso temos uma segunda lei probabilı́stica que permite violações mas mostra que elas se
tornam muito raras para sistemas de muitas partı́culas. Isso também pode ser visto na mesma
simulação da expansão livre para diferentes número de partı́culas. No lado esquerdo da fig. temos
a simulação para 10 partı́culas. Podemos ver que há grandes flutuações e que em t = 16 todas
as partı́culas voltam a ocupar só um lado da caixa, violando a segunda lei (Note que não fizemos
nenhuma reversão temporal). No lado direito da fig. tempos 270 partı́culas. Vemos que as
flutuações são pequenas. Em geral essas pequenas flutuações não são detectáveis e não vemos
nenhuma grande flutuação. Mas se esperarmos tempo suficiente ela irá ocorrer. De fato, o teorema
de recorrência de Poincare diz que o sistema tem que voltar em algum momento a um ponto muito
próximo de seu estado inicial. Mas, como já argumentado pelo próprio Boltzmann, para sistemas
macro esse tempo é maior que a idade do universo.

Figure 8.16:

Esse tipo de argumento para justificar a segunda lei é chamado de tipicalidade: tipicamente
não há violações. Segundo Lebowitz ele resolve os problemas dos fundamentos da fı́sica estatı́stica;
que não deveriam mais ser discutido. Note que nesse argumento não necessitamos que o sistema
seja caótico(veja artigo de Lebowitz no Physic Today de setembro de 93).
Devo mencionar também que hoje em dia há diversos experimentos onde se observa a violação
da segunda lei em sistemas fechados, mas de ”poucas” partı́culas: se observam as ”pequenas”
flutuações.
Chapter 9

Termodinâmica Estatistica

(baseado nas seções: 2.6-2.8; 3.1-3.2 do Reif)


ADICIONAR ALGO SOBRE A FORÇA ENTROPICA
Aqui iremos rever alguns conceitos básicos da termodinâmica, mas do ponto de vista mi-
croscópico.
Os conceitos são: i) interações mecânicas versus térmicas; ii) processos reversı́veis versus irre-
versı́veis.

O sistema macro em geral podem ser caracterizados por variáveis macroscópicas que podem
ser divididas em duas categorias

•Parâmetros externos(volume, campo elétrico ou magnético): Eles aparecem em H e afetam as


equações do movimento. Em geral a energia depende deles
https://preview.overleaf.com/public/hpznxxnzfsjp/images/58a5c1ab92223936976a56c24c928a9e4b0c9ce7.jpeg
•Parâmetros ”internos”(T ,P ,E,S,m,...): São propriedades do sistema que o caracterizam macro-
scopicamente

Estaremos interessados em estudar o comportamente do sistema em dois tipos de situações

1) Temos um sistema onde conhecemos(e fixamos) uma ou mais variável macro, de modo que
o sistema está em equilı́brio. Então mudamos alguma dessa variáveis(ou removemos a restrição
sobre ela) e queremos saber qual o novo estado de equilı́brio

Exemplos:
• Mudamos a pressão, mantendo o volume fixo, e queremos saber a nova temperatura
• Temos um gás restrito a metade de uma caixa por um membrana que é removida

2) Temos dois sistemas cada um em equilı́brio com algumas variáveis macro ficas; mas difer-
ente em cada sistema. Então colocamos dois sistemas em contato e deixamos eles interagirem e
queremos saber o estado final do sistema todo(composto dos dois sistemas)

Devemos lembrar também que existem dois tipos de interações possı́veis: i) mecânica, ii) térmica
Vamos analisar estes dois tipos de interação do ponto de vista microscópico
Do ponto de vista da termodinâmica tempos

i) A interação mecânica ocorre quando algum dos parâmetros externos são alterados. Essa
mudança leva a realização de trabalho sobre o sistema ou pelo sistema, o que leva a tranferência
de energia ao sistema( ou entre sistemas), assim

∆E = W (9.1)
∆E → mudança da energia do sistema.

73
74 CHAPTER 9. TERMODINÂMICA ESTATISTICA

W → trabalho realizado sobre o sistema

Note que essa relação pode aparecer com o sinal negativo se usarmos w como o trabalho real-
izado pelo sistema

Exemplos(o parâmetro externo pdoe ser um campo elétrico ou magnético):

• Pistão comprimindo o gás por uma força externa


• Dois gases a pressões diferentes em uma caixa, mas separados por um pistão que está fixo. O
pistão então é solto e um gás realiza W sobre o outro.

ii)Na interação térmica nenhum parâmetro externo é variado, mas ainda assim há tranferência
de energia. Nesse caso essa energia transferida é chamada de calor: Q

exemplo: colocamos o sistema sobre o fogo


Nesse caso temos ∆E = Q(Q > 0 se energia é transferia para o sistema)

Assim o calor é uma outra maneira de transferência de energia, além do trabalho, onde não
há movimento macroscópico(ou melhor, não há mudança de nenhum parâmetro macro externo).
Entender o que é calor foi um dos grandes resultados da termodinâmica.

Obviamente em geral os dois processos ocorrem simultaneamente e da lei de conservação de


energia temos a primeira lei da termodinâmica: ∆E = Q + W

Do ponto de vista microscópico também há diferenças entre os dois processos

No processo mecânico como há alteração dos parâmetros externos, os micro-estados podem
mudar( em MQ, os nı́veis de energia podem mudar) já que a Hamiltoniana do sistema se altera.
No processo térmico não há alteração dos micro-estados e assim a mudança de energia se deve a
mudança no número de sistema do ensemble em um dadomicro-estado

No caso quântico os valores de energia possı́veis são discretos. Assim temos

Figure 9.1:

Note que no caso clássico há uma mudança na região acessı́vel(ou compatı́vel) do espaço de
fase. No caso quântico há uma mudança nos estados que são auto-estados de H

Por último, há o importante detalhe que E é uma variável de estado, ou seja, uma propriedade
do sistema, enquanto Q e W não. Ou seja, ∆E só depende do estado final e inicial do sistema e
não do processor particular realizado, mas Q e W dependem do processo. Por isso para transferir
infinitesimais em geral se usa
75

¯ + dW
dE = dQ ¯ (9.2)
→ O traço é para lembrar que não são infinitesimais exatas já que não existe uma função Q e
W que dependa dos parâmetros do sistema.

Outra informação que a termodinâmica nos fornece é sobre quem é o estado de equilı́brio.

→ O estado de equilı́brio é auqele que tem máxima entropia(pode ser visto como um postulado
do termo)

Vamos analisar estas situações do ponto de vista da fı́sica estatı́sca

Temos um sistema em equilı́brio em que conhecemos algumas variáveis macro e há parâmetros
externos fixos(restritos)
A restrição das variáveis e parâmetros ao valores conhecidos limita os possı́veis micro-estados(acessı́veis)

Ω(y1 , y2 , ..., yK ) (9.3)


y1 , y2 , ..., yK → parâmetros macro(internos ou externos) que caracterizam o macro-estado
Ω → Número de micro-estados tal que cada parâmetros K está em yK e yK + δyK

Pelo nosso postulado o sistema tem probabilidade igual de se encontrar em qualquer um dos
micro-estados acessı́veis.

Imagine agora que algumas das restrições sobre alguns parâmetros são retiradas(aumenta o
volume do recipiente, por exemplo)
Agora o sistema tem mais micro-estados acessı́veis que antes: tem os anteriores e alguns outros
que não eram permitidos
assim

Ωf ≥ Ω i (9.4)
Logo após a remoção das restrições os sistemas do ensemble ainda ocupam somente os micro-
estados originais, mas há muitos outros que não são ocupados. Ou seja, o sistema não está em
equilı́brio já que não temos uma distribuição uniforme.
Imaginamos que não há razão para os sistemas do ensemble não evoluı́rem para os outros
possı́veis micro-estados e assim atingir o equilı́brio.
Se supormos que todos os estados são equiprováveis então a probabilidade de o sistema continuar
nos micro-estados originais é

Ωi
Pi = (9.5)
Ωf
E se Ωf  Ωi , Pi  1
→ Entrar em equilı́bri, ocupando igualmente todos os Ωf micro-estados é a situação mais
provável(assumindo que todos os micro-estados são equiprováveis a priori)

Aqui é útil novamente pensar no exemplo de um gás restrito a metade de uma caixa por uma
pelı́cula que é removida. O gás agora pode explorar muitos mais micro-estados onde parte dos
átomos está do outro lado. Por que ele não iria explorar esses micro-estados?

Se consideramos que cada átomo tem a mesma probabilidade de estar em cada lado, a prob-
abilidade de todos estarem no mesmo lado quando podem estar no dois é ( 12 )N enquanto que a
probabilidade de ter 21 em cada lado é N !( 12 )N (para o caso onde distinguimos os átomos individ-
ualmente)
76 CHAPTER 9. TERMODINÂMICA ESTATISTICA

Os argumentos acima(Pi  1) podem servir de justificativa para o fato de que sistemas macro
em geral entram em equilı́brio

Considere que um único parâmetro y tem sua restrição removida: y era igual a yi e agora pode
assumir qualquer valor y

Para cada região de y há um número de micro-estados acessı́veis; algumas regiões tem mais,
outras menos micro-estados

Figure 9.2:

No oscilador, por exemplo, há mais micro-estados para x ≈ xmax doq ue para x ≈ 0

Como todos os micro-estados são equiprováveis(postulado) a probabilidade de encontrar o sis-


tema com um dado valor de y é proporcional ao número de micro-estados acessı́veis: Ω(y)

P (y) ∝ Ω(y) (9.6)


Antes todos os sistemas do ensemble tinham y = yi ou seja

Pi (y) = 1 y = y1 (9.7)

Pi (y) = 0 caso contrário (9.8)


Muitas vezes Ω(y) tem um pico bem pronunciado em algum valor ỹ. Nesse caso quase todos os
sistemas na situação de equilı́brio final terão y perto de ỹ onde Ω é máximo.

Em suma: quando alguma restrição sobre um sistema em equilı́brio é removido os parâmetros


irão mudar de tal modo que Ω(y1 , ..., yk ) seja máximo. Por outro lado sabemos que o sistema evolui
para um novo estado de equilı́brio com máxima entropia. Isso sugere uma relação entre entropira
eΩ

Agora vamos discutir a diferença entre processos reversı́veis e irreversı́veis.


Do ponto de vista da termodinâmica temos que para um sistema termicamente isolado(não há
troca de energia na forma de W ou Q)

•∆S = 0em processos reversı́veis (9.9)

•∆S > 0em processos irreversı́veis (9.10)


77

Outro modo de caracterizar é que se após o processo a imposição ou remoção de restrições(sobre


os parâmetros externos)

• Leva o sistema de volta ao estado inicial → reversı́vel


• não leva o sistema de volta ao estado inicial → irreversı́vel

Do ponto de vista dos micro-estados supomos que após um processo o equilı́brio é alcançado
com os sistemas do ensemble distribuı́dos uniformemente nos Ωf micro-estados.
O simples reestabelecimento das restrições não irão alterar os micro-estados que estão ocupados:
recolocar a membrana no meio da caixa não irá fazer as partı́culas irem todas para um dos lados.
Logo se Ωf > Ωi , reestabelecer as restições não irá levar o sistema de voltar ao seu estado
inicial: os sistemas não irão se mover espontaneamente para uma região mais restrita do espaço
de fases(no caso clássico)

Em resumo, se removemos alguma restrição sobre um sistema isolado e em equilı́brio o número


e estados acessı́veis pode somente aumentar ou se manter o mesmo. se

Ωf > Ωi : processo é irreversı́vel (9.11)

Ωf = Ωi : processor é reversı́vel (9.12)


Essas considerações sugerem uma relação(monotônica) entre a entropia termodinâmica e Ω.

Algumas considerações adicionais

A hipótese de que o sistema está isolado é fundamental. Após o processo a situação original
pode ser recuperada se o sistema não estiver isolado: um pistão poderia empurrar o gás para uma
das metades da caixa. Mas ele teria feito trabalho sobre o sistema e aumentando a sua energia.
No caso onde o sistema não está isolado, podemos incluir sua vizinhança(parte que interage)
de modo que o sistema+vizinhaça=”universo” esteja isolado. Nesse caso, podemos ter ∆Ssist < 0,
mas então ∆viz > 0 tal que ∆Suniv ≥ 0(segunda lei)
A diferença entre o processo reversı́vel e irrevesı́vel está na entropia do ”universo”: para um
processo irreversı́vel

∆Ssis + ∆Sviz > 0 (9.13)

∆Ssis < ∆Sviz (9.14)


O aumento na entropia da vizinhança é maior que a diminuição da entropia do sistema: há um
desperdı́cio de energia em forma de trabalho(se há atrito, por exemplo) ou calor.

Note também que a entropia é uma variável de estadp e assim não depende do processo, mas
somente dos estados finais e iniciais. Logo podemos ter dois processos, um revesı́vel e outro irre-
versı́vel onde o ∆Ssist é o mesmo. A diferença entre os dois processos está na entropia da vizinhança
que será diferente(e portanto seu estado final)

Figure 9.3:
78 CHAPTER 9. TERMODINÂMICA ESTATISTICA

Lembremos também para um processo ser reversı́vel:

1) Se realiza muito lentamente. É quasi-estático de forma a manter o sistema sempre perto do


equilı́brio)
2) O ”atrito” é desprezı́vel. Ou seja, não há perda de energia.
Chapter 10

Ensemble Microcaônico e
Interações Térmicas

10.1 Introdução
Como mencionamos a partir de uma informação macroscópica, ou seja de um macro-estado, obte-
mos o conjunto de micro-estados acessı́veis. Se temos um sistema isolado, por exemplo, com energia
E, volume V e N partı́culas (na verdade essas quantidades são conhecidas com uma certa precisão
∆E, ∆V e ∆N como já discutido). Então podemos obter o número de micro-estados compatı́veis
Ω(E, V, N ). Usamos então o postulado das probabilidades iguais a priori e consideramos todos os
micro-estados Ω(E, V, N ) como equiprováveis. Temos uma distribuição de probabilidade uniforme
dentro da região acessı́vel1 ,
1
P (q, p) = , (10.1)
Ω(E, V, N )
e nula fora dela. A partir dela podemos obter outras propriedades macroscópicas, Xi , que não
conhecemos (Momento angular, momento magnético, por exemplo). Como tais propriedades não
são conhecidas e podem não estar fixas cada micro-estado acessı́vel pode ter valores distintos para
ela. Assim devemos obter o número de micro-estados que tem o mesmo valor da propriedade Xi ,
que denotamos por Ω(E, V, N, Xi ). E facilmente obtemos que a probabilidade do sistema ter um
certo valor para esta propriedade é

Ω(E, V, N, Xi )
P (E, V, N, {Xi }) = (10.2)
Ω(E, V, N )

Note que defino a normalização seP somarmos sobre todos os valores possı́veis da varı́avel Xi obtemos
o número total de micro-estados: Xi Ω(E, V, N, Xi ) = Ω(E, V, N ). (Isso pode ser facilmente visto
na figura como sendo das áreas das diferentes regiões é igual a área total)
Como veremos, para sistemas macro (N ∼ 1023 ) a distribuição de probabilidade P (E, V, N, {Xi })
tem um máximo pronunciado e de pequena largura. Ou seja, existe um macro-estado muito mais
provável que os outros e as flutuações são pequenas. Assim identificamos este acro-estado mais
provável com o estado de equilı́brio termodinâmico. Justificar mais formalmente isto também será
um dos nossos objetivos.
O ensemble de sistemas isolados descrito pelo distribuição de probabilidade uniforme é chamado
de ensemble micro-canônico. Assim introduzimos nosso primeiro ensemble: onde o sistema está
completamente isolado com E,V , e N fixos. Iremos usar este ensemble para estudar uma das
situações mais tı́picas em termodinâmica: o equilı́brio térmico entre dois sistemas. Após estudar as
interações e estabelecer alguns resultados iremos dar alguns exemplos de sistemas isolados descritos
pelo ensemble micro-canônico.
1 Cuidado para não confundir a distribuição uniforme onde a probabilidade de um sistema com energia fixa E
1
estar no micro-estado i é P (i, E) = Ω(E) , com a probabilidade de uma dada configuração macro onde o número de
micro-estados tambem aparece no numerador. Ali tb temos o número de micro-estados total no denominador

79
80 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

Figure 10.1: Cada uma das três regiões tem micro-estados compatı́veis com um certo valor das
variáveis Xi . Mas todas as três são compatı́veis com E,V ,N

10.2 Interação Térmica


Como dito vamos discutir uma das situações mais tı́picas que é a interação térmica entre dois sis-
temas. Consideramos dois sistemas, A1 e A2 , inicialmente isolados e em seus estados de equilı́brio.
Os dois sistemas são então colocados em contato por uma parede que permite somente a troca de
energia na forma de calor. Ou seja não há troca de trabalho nem de partı́culas: V1 , V2 , N1 e N2
são constantes. Com a troca de calor os valores de E1 e E2 irão mudar até atingir o equilı́brio
e queremos obter esse valor de equilı́brio. Para isso usamos o fato de que o sistema todo A1 +A2
está isolado com energia total E12 , volume total V12 e número total de partı́culas N12 constantes.
Assim o sistema todo é descrito pela distribuição de probabilidade do ensemble micro-canônico.
Conheço as váriavéis E12 , V12 , N12 e quero obter a distribuição de probabilidades das váriavéis
E1 , E2 (essas seriam a propriedade Xi que não conheço. Mas aqui ela não é uma propriedade do
sistema todo mais de uma parte dele; sei a energia total mas não sei a energia de uma região que
não interage mecanicamente nem troca partı́culas com o resto.).

Figure 10.2: Sistemas que antes estavam isolados e em cada um em seu estado de equilı́brio são
colocados em contato e trocam calor. Assim as energias individuais de cada podem mudar. Após
um certo tempo haverá um novo estado de equilı́brio com o gás A1 assumindo o valor E˜1 e o gás
A2 assuindo o valor E˜2 para suas energias.

Agora faremos uma importante e fundamental aproximação. Assumimos que a interação entre
os sistemas é fraca tal que a energia total é a soma das energias individuais:
E12 = E1 + E2 + Eint ≈ E1 + E2 (10.3)
com E1 só dependendo das variáveis do sistema A1 , E2 somente das variáveis de A2 e Eint depen-
dendo das variáveis dos dois sistemas. Ou seja, estamos assumindo que Eint  E1 ,E2 . Note que,
por um lado deve existir uma interação para que ocorra troca de energia. Mas ela deve ser pequena
a fim de permitir a aproximação acima (ela é ignorada nesta parte do formalismo matemático).
Justificar tal aproximação rigorosamente não é trivial (e até onde sei um problema não resolvido
completamente).
Queremos obter P (E12 , E1 , E2 ): probabilidade do sistema A1 ter energia entre E1 e E1 +∆E1 e
de A2 ter energia entre E2 e E2 +∆E2 quando a energia total é E12 (ou está entre E12 e E12 +∆E12).
Para simplificar a notação omitimos a dependência nas outras variáveis fixas V12 , N12 . E note
que P (E12 , E1 , E2 ) na verdade só depende de E1 ou de E2 , já que E1 e E2 não são variáveis
independentes visto que E1 +E2 =E12 é fixa. Ou seja, dado E1 temos que E2 =E12 -E1 . Por isso
iremos usar a notação P (E12 , E1 ).
Vamos denotar o número de micro-estados acessı́veis ao sistema todo quando só conhecemos E12
com Ω12 (E12 ). E o número de micro-estados acessı́veis ao sistema quando conhecemos a energia de
10.2. INTERAÇÃO TÉRMICA 81

um deles, A1 , por exemplo por Ω12 (E12 , E1 ). Novamente e daqui adiante omitimos a dependencia
em V12 , N12 , já que são fixas. Também não estamos sendo muito cuidadosos com o fato da energia
estar fixa ou num intervalo.
Portanto, usando que todos os micro-estados são equiprováveis temos:
Ω12 (E12 , E1 )
P (E12 , E1 ) = (10.4)
Ω12 (E12 )
P
Note que como E1 Ω12 (E12 , E1 ) = Ω12 (E12 ) a probabilidade já está normalizada e que a soma
é sobre os possı́veis valores de E1 tal que E1 +E2 =E12 . Como cada micro-estado é equiprovável
a probabilidade de acha-lo numa dada região é proporcional ao número de micro-estados daquela
região. Na verdade é o volume de região dividido pelo volume total (soma dos volumes de cada
região)

Figure 10.3: As diferentes regiões delimitadas pela linha tracejadas azul tem energia total entre
E12 e E12 +∆E1 , mas o valor de E1 pode mudar bastante entre as regiões: E1 ’ numa E2 ” na outra
e assim por diante. Dentro de uma ”região azul” o valor de E1 pode variar microscopicamente de
∆E1 . Mas entre regiões a variação é macroscópica.

Temos então que obter Ω12 (E12 , E1 ). No caso onde A1 está isolado com energia E1 ele pode
estar em qualquer um dos Ω1 (E1 ) possı́veis micro-estados. O mesmo é válido para A2 que pode
estar em qualquer um Ω2 (E2 ) possı́veis micro-estados. A prı́ncipio, cada micro-estado de A1 pode
ser combinado com qualquer outro micro-estado de A2 para dar um micro-estado diferente para
A1 + A2 . Logo o número de micro-estados para A12 quando A1 tem energia E1 e A2 tem energia
E2 = E12 − E1 é 2

Ω12 (E12 , E1 ) = Ω1 (E1 ) Ω2 (E12 − E1 ) (10.5)


É importante mencionar que estamos assumindo que a interação além de não modificar muito a
energia também não modifica muito os micro-estados que considerarmos ser os mesmo de antes da
interação. Outra maneira de ver essa aproximação é que estamos desprezando as correlações entre
os sistemas. Isso fica claro abaixo quando veremos que a probabilidade também será um produto
dos probabilidades dos sistemas individuais (vimos que a P (x1 , x2 ) = P (x1 )P (x2 ) só quando x1 e
x2 são independentes). Existem casos onde a interação é grande e não pode ser desprezada. Tais
sistemas não podem ser analisados com o formalismo usual da Fı́sica Estatı́stica.
Então temos:
Ω1 (E1 )Ω2 (E12 − E1 )
P (E12 , E1 ) = (10.6)
Ω12 (E12 )
O próximo passo é analisar o comportamento de P (E12 , E1 ) com E1 . Antes de uma análise mais
cuidadosa vamos fazer uma discussão mais qualitativa. Lembremos que em geral para sistemas
macro Ω(E) cresce rapidamente com E: Ω(E) ≈ E f com f ∼ 1023 . Logo

Ω1 (E1 ) cresce rápido com E1 (10.7)

Ω2 (E12 − E1 ) decresce rápido com E1 (10.8)


O produto Ω1 (E1 )Ω2 (E12 − E1 ) deve ter um pico extremamente fino em algum ponto E1 = E˜1
2 Imagine o caso onde temos uma moeda e um dado. Quando jogamos os dois o número de micro-estados,

ou eventos, possı́veis é o produto do número de eventos possı́veis para cada um deles: 12 = 2 × 6. E estamos
considerando que os dois não interagem e portanto o que ocorre com um não altera o que ocorre com o outro.
82 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

Figure 10.4: Do lado esquerdo um esboço do número de micro-estados em função da energia para
cada um dos sistemas. Note que Ω1 (E1 ) cresce rapidamente com E1 ao mesmo tempo em que
Ω2 (E2 ) decresce rapidamente com E1 , já que E2 = E12 − E1 . Do lado direito temos um esboço do
produto Ω1 (E1 )Ω2 (E1 ) que tem um pico de pequena largura.

Note que a largura deste pico, ∆E, está relacionada com as flutuações: fornece a magnitude
das flutuações tı́picas; que ocorrem com probabilidades razoáveis. Flutuações muito maiores que
∆E são raras. Por outro lado quanto mais rápido Ω1 (E1 ) e Ω2 (E1 ) crescerem e decrescerem menor
será ∆E. Lembrando que Ω(E) ∼ E f com f ∼ 1023 para sistemas macro pode-se esperar que
∆E será muito pequeno. Isso é fundamental para obter um estado de equilı́brio, onde o valor da
energia não muda a nı́vel macroscópico.
Como P (E) varias muito rapidamente iremos analisar o seu logaritmo. O máximo ocorre
quando
∂ ln P 1 ∂P
= = 0, (10.9)
∂E1 P ∂E1
ou seja, o máximo de P e ln P ocorrem no mesmo ponto. E usamos a derivada parcial já que
todos os outros parâmetros são fixos.3 Usando que ln P = ln Ω1 (E1 ) + ln Ω2 (E2 ) − ln Ω12 (E12 ) e
lembrando que Ω12 (E12 ) é uma constante, a condição de máximo fica:

∂ ln Ω1 (E1 ) ∂ ln Ω2 (E2 ) ∂E2


+ =0 (10.12)
∂E1 ∂E2 ∂E1
∂E2
onde ∂E1 = −1. Definimos
∂ ln Ω(E)
β(E) ≡ (10.13)
∂E
e o máximo ocorre quando
β1 (Ẽ1 ) = β2 (Ẽ2 .) (10.14)
com Ẽ1 e Ẽ2 os valores mais prováveis para as energias de cada um dos dois sistemas. Note que
β1 (E1 ) é uma propriedade microscópica do sistema A1 e está relacionada à como o número de
micro-estados acessı́veis varia com a energia. O mesmo é verdade para β2 (E2 ) e o sistema 2.
Se P (E1 ) está altamente concentrada em torno de E˜1 , é muito provável que encontremos o
sistema A1 com energia E˜1 . Ou seja, se medirmos sua energia diversas vezes, na grande maioria
obteremos um valor que não pode ser distinguido de E˜1 . Isso sugere um estado de equilı́brio. De
fato, o estado de equilı́brio deve ser aquele onde é mais provável encontrar o sistema e esperamos
que as flutuações (probabilidade de encontrar em outras energias) sejam pequenas para o equilı́brio
ter sentido.
Assim conseguimos fazer um conexão com o mundo macroscópico da termodinâmica mostrando
que podem existir estados de equilı́brio. Fomos além e obtivemos estes estados de equilı́brio. Agora
queremos obter as condições de equilı́brio de termodinâmica. Existem diversos modos de se fazer
3 Poderia usar direto
∂P ∂Ω1 ∂Ω2
= Ω2 + Ω1 =0 (10.10)
∂E1 ∂E1 ∂E1
que dividindo dos dois lados por Ω1 Ω2 dá
1 ∂Ω1 1 ∂Ω2
+ =0 (10.11)
Ω1 ∂E1 Ω2 ∂E1
1 ∂Ω ∂ ln Ω
e usando que Ω ∂E
= ∂E
vemos que as condições sobre a probabilidade ou seu logaritı́mo são equivalentes.
10.2. INTERAÇÃO TÉRMICA 83

isso, mas em nenhum deles conseguimos obter a fı́sica macroscópica diretamente da microscópica,
sem usar algum argumento ”heuristico” ou fazer postulados.
Um modo de fazer a conexão com fı́sica macroscópica é lembrar que formalmente em ter-
modinâmica definimos a temperatura de um sistema como uma propriedade tal que quando dois
sistemas estão em equilı́brio suas temperaturas são iguais: T1 = T2 . Agora note que essa condição
é analoga a que temos acima com β: é uma propriedade microscópica que é igual para os dois
sistemas em seus estados mais provável (que consideramos ser o de equilı́brio). Isso sugere que a
propriedade microscópica β de um sistema deve estar relacionada com a temperatura. Terı́amos as-
sim um primeiro link entre a fı́sica macro e a micro. Na verdade, já fizemos o link entre equilı́brio
termodinâmico e o estado mais provável. Note que fazer esse link encontrando relações entre
quantidades micro que se parecem com as relações entre quantidade macro é a ”única” maneira
de achar o equivalente a temperatura microscopicamente. Isso porque a temperatura não é uma
propriedade mecânica, como a pressão: não podemos fazer um modelo mecânico para o observável
temperatura. Um outro observável para qual não temos um modelo mecânico é a entropia. Sabe-
mos que há uma função de estado que se chama entropia e que, se relaciona com a temperatura da
forma T = ∂E/∂S. Mas não temos uma ideia de qual sua origem microscópica 4 . Assim também
temos que obter seu equivalente microscópico procurando grandezas micro que obedeçam relações
semelhantes as obedecidas pela entropia. Note que obtida uma ”definição” microscópica para uma
delas podemos obter a outra usando T = ∂E/∂S.
Um outro caminho para conectar a Fı́sica microscópica com a macroscópica é postular uma
forma microscópica para a entropia e ver que as relações termodinâmicas são satisfeitas. Já
havı́amos sugerido, ao analisar o que ocorre quando retiramos restrições sobre alguns parâmetros,
uma relação entre entropia e o número de micro-estados acessı́veis. Além disso, associamos o es-
tado de equilı́brio com o mais provável. E na termodinâmica o estado de equilı́brio é o estado de
entropia máximo enquanto o outro ocorre para probabilidade máxima que vem de um máximo em
ln Ω. Isso também sugere uma relação entre S e ln Ω.
Logo introduzimos uma definição para entropia em termos microscópicos, que pode ser consid-
erado o 2o postulado da fı́sica estatı́stica:
S ≡ KB ln Ω (10.15)
com KB a constante de Boltzmann.
Este link entre entropia, até então uma grande termodinâmica, e a fı́sica microscópica foi feita
pela primeira vez por Boltzmann. No entanto ele nunca escreveu a fórmula acima dessa forma com
a constante KB , apesar de ela estar escrita em seu túmulo. A constante foi na verdade introduzida
por Planck no seu trabalho sobre a radiação do corpo negro onde também introduz a constante h
Com essa definição temos:
1 ∂S
β(E) = (10.16)
KB ∂E
enquanto da termodinâmica temos
∂E
T = . (10.17)
∂S
Logo a conexão entre quantidades micro e macro fica:
1
β= (10.18)
KB T
onde β é uma propriedade microscópica e KB1 T é uma propriedade macroscópica.
A condição para probabilidade máxima, ou seja, estado mais provável será:
ln P (E1 ) = ln Ω1 (E1 ) + ln Ω2 (B2 ) é máximo (10.19)
e portanto
S1 + S2 é máximo (10.20)
4 De fato, uma das primeiras questões no desenvolvimento da termodinâmica era se estes conceitos de temperatura,

calor e entropia eram fundamentais ou derivados de propriedades mais fundamentais. A teoria do calórico de
Lavoisier, por exemplo, considerava o calor como um fluido e a temperatura como um tipo de energia potencial que
controlava a dinâmica do fluido. A própria derivação de Carnot da eficiência máxima usava este conceito de calor.
Ver R. Fox, The Caloric Theory of Gases (Oxford University Press, Oxford, 1971.
84 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

Que ocorre quando:


β1 (E˜1 ) = β2 (E˜2 ) (10.21)
T1 = T2 (10.22)
Assim temos que esta definição de entropia, leva a que o estado mais provável é aquele onde as
temperaturas de sistemas trocando calor é a mesma e a entropia total do sistema fechado é máxima,
que é equivalente a condição de equilı́brio térmico da termodinâmica. Ou seja, a maximização da
probabilidade corresponde a maximização da entropia termodinâmica e conseguimos recuperar
resultados da termodinâmica a partir da fı́sica estatı́stica.
Veremos que a distribuição P (E1 ) é tal que a energia média E 1 é igual a energia mais provável
Ẽ1 . Assim podemos identificar o valor de equilı́brio de uma grandeza com seu valor médio, que
será o que iremos calcular em geral.
Teremos duas situações principais:
1) As energias iniciais dos sistemas são aproximadamente iguais a mais provável e assim a condição
de máxima probabilidade (ou entropia) já está satisfeita e o sistema se mantém em equilı́brio sem
ocorrer troca de energia(calor) entre os sistemas.

2) Em geral a energia inicial dos sistemas são valores pouco prováveis; de não equilı́brio. Os
sistemas irão trocar energia na forma de calor até que a situação de máxima probabilidade (ou
entropia) ocorra com E1 = Ẽ1 e β1 = β2
Deve-se mencionar que a definição de S depende do valor de ∆E que é arbitrário. No entanto
pode-se mostrar que no limite de N → ∞, S se torna independente de ∆E (pag, 100 do Reif).
Também podemos ver que devido ao uso do log o valor de ∆E só adiciona uma constante a
entropia que já na termodinâmica só é definida e menos de uma constante. E além disso todas as
propriedades termodinâmica são obtidas a partir de derivadas parciais de S, logo o valor ∆E, que
é constante, não irá aparecer nas outras grandezas termodinâmicas. Além disso, pode se mostrar
que as definições

S = KB log Φ(E) : micro-estados com energia menor que E (10.23)


S = KB log Ω(E) : micro-estados com energia entre E e E + ∆E (10.24)
S = KB log ω(E) : micro-estados com energia igual a E (10.25)

são equivalentes no limite de N → ∞ (para sistemas com um limite superior na energia existem
situações onde as definições não são completamente equivalentes e há uma certa discussão sobre
qual é a correta. veja arxiv: (403,4299 e refs, por exemplo). E por último, deve-se mencionar que
a entropia deve ser uma quantidade extensiva, o que pode ocorrer se a função entropia é aditiva.
Como consideramos que a interação é fraca tal que Ω12 = Ω1 Ω2 e usamos a função log na definição
da entropia temos S12 = S1 + S2 e a entropia é aditiva e extensiva.

10.3 Escala Absoluta de Temperatura


Em relação a temperatura lembremos quem em termodinâmica ela pode ser bem definida como
uma propriedade comum a dois sistemas em equilı́brio. Porém fica a dificuldade de associar um
valor numérico a temperatura, ou seja, definir uma escala para temperatura. Em geral isso é feito
medindo alguma outra propriedade do sistema que muda quando ela troca calor com outro para
atingir o equilı́brio. Pode-se medir a pressão de um gás por exemplo e usar isso como escala para
temperatura ou o comprimento de uma barra de metal. O problema com tais escalas é que elas
dependem não só de que qual propriedade é usada mas também do sistema especı́fico usado. No
caso do termômetro de gás a volume constante a escala de temperatura obtida depende de que gás
é usado. É somente no limite de baixas concentrações onde o modelo de gás ideal é válido que a
escala se torna ”absoluta”.
O conceito de temperatura que obtivemos aqui tem a vantagem de não depender de propriedades
particulares do sistema usado como termômetro. Se um dado termômetro (M) está em equilı́brio
com A então βM = βA . Se alguém usa um outro termômetro (M’) este também irá ”marcar”
βM 0 =βA quando em equilı́brio com A, já que β = ∂∂E ln Ω
é uma propriedade do sistema A e não
depende de qual sistema é usado como termômetro. Ou seja, qualquer termômetro irá fornecer
10.4. TEMPERATURAS NEGATIVAS 85

1
o mesmo valor para β e portanto para temperatura. Assim chama-se T= KB β de temperatura
absoluta
Vemos também que a temperatura é naturalmente medida em unidade de energia. Mas histori-
camente usamos outras unidades e por isso precisamos da constante KB para fazer a conversão.
Se medı́ssemos T em energia então S seria adimensional.

10.4 Temperaturas negativas


Como β= ∂lnΩ∂E e Ω sempre aumenta com E, temos β > 0 e T > 0. Mas em alguns casos o sistema
pode ter uma energia máxima. Isso em geral ocorre quando não levamos em conta a energia cinética
que não tem limite superior. Um exemplo, seria N spins 12 localizados sob efeito de uma campo
magnético (sem energia cinética das partı́culas). Nesse caso existe um valor de energia acima do
qual Ω(E) começa a diminuir com E e terı́amos temperaturas negativas (o mais preciso seria dizer
que a temperatura de spin é < 0 já que se deve aos graus de liberdade de spin). Assim a ”desordem”
(entropia) diminui conforme se adiciona E e não aumenta como esperado. No entanto note que a
energia (média) do ensemble aumenta e se pensarmos no conceito de temperatura termodinâmica
(energia média por graus de liberdade) a temperatura < 0 é mais quente que a temperatura > 0.
como se a escala de temperatura fosse de +0K, ..., 300K, ..., +∞K, -∞K, ..., -300k, ..., -0k.
Temperaturas negativas em sistemas de spins foram medidas já nos anos 50 sem gerar muita
controvérsia. (E. M. Purcell, R. V. Pound , A nuclear spin system at negative temperature. Phys.
Rev. 81, 279 (1951)). No entanto, mais recentemente elas também foram medidas em gases ultra-
frios onde os graus de liberdade de movimento estão livres, o que gerou certa controvérsia (S.
Braun, J. P. Ronzheimer, M. Schreiber, S. S. Hodgman, T. Rom, I. Bloch, U. Schneider, Negative
Absolute Temperature for Motional Degrees of Freedom, Science 339, 53 (2013) )

10.5 Escala de energia KB T


É comum usar KB T como uma escala de energia em argumentos qualitativos. Mas qual o signifi-
cado disto? Vimos que Ω(E) ∝ E f com f o número de graus de liberdade e E medido a partir da
menor energia possı́vel. Assim
ln Ω ≈ f ln E + const. (10.26)
e
∂lnΩ f
β= ≈ (10.27)
∂E Ē
Logo no equilı́brio, onde E = Ẽ = Ē (iremos ver que Ẽ é igual a média)


KB T ≈ (10.28)
f

A quantidade KB T é uma estimativa da energia média por grau de liberdade do sistema em


equilı́brio a temperatura T. Este resultado é análogo ao de teoria cinética dos gases onde se obtém
que T é uma medida da energia cinética média por partı́cula. Porém aqui ele é mais geral levando
em conta outros graus de liberdade além de translação.
Note que no equilı́brio:

f1 f2
β1 = β2 → KB T1 ≈ KB T2 → ≈ (10.29)
Ē1 Ē2
ou seja, a energia total é dividida de maneira que a energia média por grau de liberdade de cada
sistema seja igual (a energia total de cada um pode, e em geral é, diferente).
Um exemplo simples do uso de KB T é considerar N partı́culas quânticas numa caixa. Os nı́veis
de energia sendo E0 , E1 ,...,. A temperatura zero dizemos que as N partı́culas estão no estado E0
e só há um único micro-estado compatı́vel. Se colocarmos o sistema em contato com um banho
térmico a temperatura T ele irá receber energia até atingir a temperatura T . Nesta situação temos
um conjunto muito grande de micro-estados compatı́veis: todos com a mesma energia total mas
86 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

com diferentes valores para as energias de cada partı́cula. Dizemos que em média cada partı́cula
tem energia KB T (como veremos a estimativa correta é 23 KB T para partı́culas livres em 3D e sem
spin). A energia de cada partı́cula está flutuando e depende do micro-estado em que o sistema se
encontra. Em geral dizemos que se KB T  E1 −E0 as partı́culas continuam no estado fundamental
E0 : as ”flutuações térmicas” não conseguem ”jogar”(excitar) o sistema para o nı́vel E1 . Mas se
KB T ≈ E1 − E0 esperamos encontrar partı́culas em E1 : elas foram ”jogadas” lá pelas ”flutuações
térmicas”
O termo flutuações térmicas se refere ao fato de que o micro-estado não está fixo, mas há Ω
possı́veis micro-estados. O sistema está evoluindo (”pulando”) de um micro-estado para outro com
em média KB T de energia por grau de liberdade.

10.6 Análise mais rigorosa de P(E1 )


baseado na Sec. 3.7, Reif
Vamos estudar agora com mais cuidado a distribuição de probabilidade P (E1 ). A ideia é similar
a usada no caso do passeio aleatório para obter a gaussiana. Iremos expandir ln P (E1 ) em torno
do máximo E1 = Ẽ1 . Para isso expandimos ln Ω1 (1 ) e ln Ω2 (E2 ):

1 ∂ 2 ln Ω
   
∂ ln Ω1
ln Ω1 (E1 ) = ln Ω(Ẽ1 ) + η+ η 2 + ... (10.30)
∂E1 Ẽ1 2 ∂ 2 E1 Ẽ1

∂ ln Ω ∂ 2 ln Ω ∂β
com η = E1 − Ẽ1 . Usando a definição β = e introduzindo λ = − 2 =− (colocamos
∂E ∂ E ∂E
o sinal - porque veremos que a derivadas segunda é negativa) temos:

1
ln Ω1 (E1 ) = ln Ω1 (Ẽ1 ) + β1 η − λ1 η 2 + ... (10.31)
2

Note que ln Ω2 (E2 ) é expandido também em torno de Ẽ2 e lembrando que E12 = E1 + E2 temos
E2 − Ẽ2 = E12 − E1 − (E12 − Ẽ1 ) = −(E1 − Ẽ1 ) = −η Assim

1
ln Ω2 (E2 ) ≈ ln Ω2 (Ẽ2 ) + β2 (−η) − (−η)2 + ... (10.32)
2
Somando as duas equações temos
h i 1
ln [Ω1 (E1 )Ω2 (E2 )] = ln Ω1 (Ẽ1 )Ω2 (Ẽ2 ) + (β1 − β2 )η − (λ1 + λ2 )η 2 + ... (10.33)
2

No máximo E1 = Ẽ1 → β1 = β2 e o termo linear é nulo, como esperado já que expandimos em
torno do máximo.
Então
1
ln P (E1 ) = ln P (Ẽ1 ) − λ0 η 2 (10.34)
2
sendo λ0 = λ1 + λ2 . Ou seja
λ0 2
P (E1 ) = P (E1 )e− 2 (E1 −Ẽ1 ) (10.35)
Temos uma Gaussiana com média Ẽ1 e variância λ10 .
Note que λ0 tem que ser positivo para que P (E) tenha um máximo, ou seja, para que o sistema
A1 + A2 atinja o equilı́brio. É uma condição para a ”estabilidade” da termodinâmica a variações
de temperatura. Além disso λ1 e λ2 também têm que ser positivos. Alguém sempre pode escolher
um sistema A2 tal que λ2  λ1 e assim λ0 ≈ λ2 e portanto λ2 > 0. O mesmo vale para λ1 . Por
outro lado
∂β ∂β ∂T
λ=− =− (10.36)
∂E ∂T ∂E
sendo
∂β −1
− = (10.37)
∂T KT 2
10.6. ANÁLISE MAIS RIGOROSA DE P(E1 ) 87

Logo  
−1 ∂T 1 ∂T
λ=− = (10.38)
KT 2 ∂E KT 2 ∂E
∂T
Então λ ≥ 0 é equivalente a ∂E ≥ 0 : a temperatura (absoluta) deve aumentar com a ener-
gia. Essa condição aparece na termodinâmica como a estabilidade do equilı́brio termodinâmico a
flutuações. Se λ ≤ 0 então uma pequena flutuação na temperatura de um de dois sistemas em
equilı́brio levaria o sistema para longe do equilı́brio: um corpo se torna um pouco mais ”frio” e
isso faz a energia começar a fluir para o outro corpo ficando ele cada vez mais frio e o outro mais
quente (análogo a ter a um equilı́brio instável em mecânica).
∂T
Lembrando que ∂E = C1V como CV o calor especı́fico a volume constante, a condição de máximo
fica
CV ≥ 0 (10.39)
 
o que é um resultado conhecido na termodinâmica. Note que em geral escrevemos CV = ∂Q ∂T
V
indicando um processo a volume constante. Aqui estamos considerando que a interação é térmica
(dW = 0) e portanto dQ = dE e temos CV = ∂E ∂T
Deve-se mencionar também que existem situações onde CV é negativo. Um exemplo clássico
é quando temos um sistema onde a força gravitacional é relevante como em estrelas ou galáxias.
Nestes sistemas o teorema de virial dá Ēpot = −2Ēcin . Logo a energia total média fica Ē = Ēpot +
Ēcin = −Ēcin e se o sistema perde energia, irradiando energia no espaço, por exemplo, a energia
cinética média na verdade aumenta. E se definirmos temperatura como energia cinética média ela
terá aumentado quando o sistema perdeu energia. A termodinâmica de buracos negros leva versões
ainda mais extremas deste fenômeno. No entanto a termodinâmica e fı́sica estatı́stica de sistemas
gravitacionais não é tão bem estabelecida e existem controversias, como sempre, e tentativas de
se revolver este problema (veja, por exemplo, WALTER THIRRING na Pontifical Academy of
Sciences, Acta 18, Vatican City 2006. www.pas.va/content/dam/accademia/pdf/acta18/acta18-
thirring.pdf). Alguns sistemas pequenos no ensemble micro-canônico podem ter CV < 0. Em geral
isto ocorre porque a interação se torna importante. Um exemplo é quando um sistema tenta evitar
ter uma parte lı́quida coexistindo com outra parte sólida convertendo parte de sua Ecin para Epot
e assim se tornar mais frio com aumento de energia 5 .
Por último em transições de fase CV também pode ter comportamentos ”estranhos” como
divergir ou ter descontinuidades. E em transições envolvendo calor latente (de primeira ordem)
CV = 0: numa mistura de água lı́quida e gelo adicionar calor não altera a temperatura (energia é
usada para derreter o gelo.
Voltando a distribuição de probabilidade para a energia do sistema 1. Mostramos que P (E1 ),
para E1 não muito distante de Ẽ1 , é bem descrita por uma gaussiana com média E = Ẽ. Por
outro lado, para valores de E muito longe da média a P (E1 ) se torna muito pequena, já que o
expoente se torna grande: λ0 (E1 − Ẽ1 )2  2. Assim podemos usar a gaussiana mesmo um pouco
longe da média.
A variância da gaussiana é
1
∆E1 = √ (10.40)
λ0
Vamos supor que λ1 λ2 e então λ0 ≈ λ1 . Usando Ω1 ∝ E1f1 temos que

∂2
 
∂ f1 f1
λ1 ≈ − (f 1 ln E )
1 Ẽ1 ≈ ≈ 2 (10.41)
∂E12 ∂E1 E1 Ẽ1 Ẽ1
5 Veja por exemplo http://journals.aps.org/prl/abstract/10.1103/PhysRevLett.86.1191. Em resumo “Upon melt-

ing, a large system converts added energy completely into potential energy, reducing continuously the fraction of
its solid phase. The kinetic energy and thus the temperature remain constant. A small system, on the other hand,
tries to avoid partly molten states and prefers to convert some of its kinetic energy into potential energy instead.
Therefore the cluster can become colder, while its total energy increases. Negative heat capacities have now been
found for melting clusters, fragmenting nuclei, and astronomical objects. What do these widely different systems
have in common? The answer is that in these systems energy is not an extensive quantity; i.e., if such a system
is divided into arbitrary subsystems the total energy is not simply the sum over the subsystems. The interaction
between the subsystems has to be taken into account [2,14,15]. For example, in stars it is impossible to neglect the
gravity between parts of the system [1,2]. Similarly in clusters and nuclei the interaction between subsystems is not
negligible due to their small size.”
88 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

Ē1
Portanto ∆E1 ≈ √ e
f1
∆E1 1
≈√ . (10.42)
E1 f1
Ou seja, as flutuações relativas decaem rapidamente com o tamanho do sistema e são desprezı́veis
para sistemas macroscópicos.
 2 −1
2 ∂ S
Este resultado também pode ser obtido considerando que ∆E ∼ . Como S e R são
∂E 2
2
∂ S N 1 ∆E 1 1
extensivos (∼ N ) então 2
∼ 2 ∼ . Logo ∆E 2 ∼ N e ∼√ ∼√
∂E N N E N f
24 ∆E1 −12
Em suma, para f1 ≈ N1 ≈ 10 temos ≈ 10 uma variância extremamente pequena.
Ē1
P (E1 ) se torna desprezı́vel se a energia difere de seu valor médio por mais que uma parte em 1012 !!!
Assim obtemos uma das principais caracterı́stica dos sistemas macroscópicos.

• flutuações em parâmetros macroscópicos são totalmente insignificantes.

Um observador quase sempre mede o valor de Ē1 (ou ȳ para outros parâmetros) e não se dá
conta dos aspectos estatı́sticos. As flutuações só se tornam aparentes com medidas muito precisas
(mais que uma parte em 1012 ) ou para sistemas muito pequenos.
Como anteriormente assumimos que a interação é pequena é interessante notar também que as
flutuações estão relacionadas a CV que é a resposta do sistema a uma perturbação (como a tem-
peratura muda quando adiciono calor). Essa resposta quando perturbo o sistema está relacionada
a flutuações quando o sistema está em equilı́brio. É um tipo de relação ”flutuação-resposta”. Com
ela podemos medir CV olhando as flutuações ou obter informação sobre as flutuações medindo
CV . Essas relações podem ser estabelecidas de modo mais geral no que é chamado de ”teoria da
resposta linear”

10.7 Exemplo: gás ideal com interação térmica


(Exemplo 1 do cap. 4 do Salinas)
Temos 2 sistemas de gases ideias cada um com uma energia bem definida (E1 e E2 ) e que
começam a interagir termicamente, sendo o sistema todo isolado e com E1 +E2 constante. Sabemos
que para N grande o suficiente o número de micro-estados com energia entre E e E + ∆E de um
gás ideal é dado por
Ω(E) = CE 32 N (10.43)
com C uma constante que depende de m, V, N
Como vimos a probabilidade de o sistema 1 ter energia E1 é

P (E1 ) ∼ Ω1 (E1 )Ω2 (E2 ) (10.44)

e
ln P (E1 ) = ln(const) + ln Ω1 + ln Ω2 (10.45)
3 3
ln P (E1 ) = ln(const) + N1 ln E1 + N2 ln E2 (10.46)
2 2
Assim
∂ ln P (E1 ) 3 N1 3 N2
= − (10.47)
∂E1 2 E1 2 E2
∂ ∂
onde usamos que =− já que E1 + E2 = const.
∂E1 ∂E2
A condição de equilı́brio, onde P (E1 ) é máxima, fica

Ẽ1 Ẽ2
= (10.48)
N1 N2
10.7. EXEMPLO: GÁS IDEAL COM INTERAÇÃO TÉRMICA 89

, ou seja, a energia por partı́cula é igual nos dois sistemas.


Por outro lado, usando a definição de entropia S = KB ln Ω para cada um dos sistemas temos

∂ ln P (E1 ) ∂ ln Ω1 (E1 ) ∂ ln Ω2 (E2 ) 1 ∂S1 1 ∂S2


= + = − = (10.49)
∂E1 ∂E1 ∂E1 KB ∂E1 KB ∂E2
1 1
= − (10.50)
KB T1 KB T2
e no equilı́brio temos T1 = T2 . Além disso obtemos que tanto para o sistema 1 ou 2
1 3N
= , (10.51)
KB T 2U
ou seja, a temperatura é uma medida do energia média por partı́cula.
Vamos verificar que P (Ẽ1 ) é um máximo

∂ 2 ln(E1 ) 3 N1 3 N2
2 =− 2 − (10.52)
∂E1 2 E1 2 E22

∂ 2 ln(E1 )
 
3 N1 1 N2 1
=− + (10.53)
∂E12 2 E1 E1 E2 E2
N1 N2 3
No equilı́brio = e Ẽ1 = N1 KB T1
Ẽ1 Ẽ2 2
!
2
∂ ln P (E1 ) 3 N1 Ẽ2 + Ẽ1
=− (10.54)
∂E12 2 Ẽ1 Ẽ1 Ẽ2
Ẽ1
3
∂ 2 ln P (E1 )

3 1 2 KB (N1 T1 + N2 T2 )
= − (10.55)
∂E12 2 32 KB T1 ( 32 KB )2 N1 T1 N2 T2


Ẽ1

com T1 = T2 = T temos
∂ 2 ln P (E1 ) 2 1 N1 + N2
=− 2 T 2N N < 0 (10.56)
∂E12 3 KB

1 2
Ẽ1

O que mostra que de fato temos um máximo.


Agora vamos olhar a forma de P (E1 ) usando a expansão de Taylor em torno do máximo Ẽ1
 
1 2 N1 + N2 3 2
ln P (E1 ) = const + − 2 T 2N N (E1 − N 1 K B T ) + ... (10.57)
2! 3 KB 1 2 2

onde const é ln P (Ẽ1 ) mas não precisamos nos preocupar porque pode ser obtido normalizando
P (E1 ) depois. Assim
"  2 #
1 N1 + N2 3
P (E1 ) = A exp − 2 T 2N N E1 − N1 KB T + ... (10.58)
3 KB 1 2 2

e A também pode ser obtido normalizando P (E1 ). Vemos que temos uma gaussiana 6 . Pode-se
calcular o valor médio e mostrar que
3
hE1 i = N1 KB T (10.59)
2
e a variância é
2 2
3KB T N1 N2
h∆E12 i = (10.60)
2(N1 + N2 )
6 Formalmente temos que obter o termo da 3a ordem e mostrar que é muito menor que o de 2a ordem para usar

a aproximação gaussiana; como fizemos no caso do passei aleatório. Mas aqui iremos somente argumentar que o
termo de 2a ordem é pequeno
90 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

e p s
h∆E12 i 2 N2
= (10.61)
hE1 i 3 N1 (N1 + N2 )
Como havı́amos argumentado no caso geral, vemos √ que as flutuações relativas são extremamente
pequenas para sistemas macro: vão a zero com 1/ N . Isso justifica a identificar o valor médio da
energia e a energia interna da termodinâmica.
Agora vamos adiantar um próximo passo que daremos. Já sabemos o estado de equilı́brio de
cada gás. Assim podemos usar a conexão micro macro da entropia para obter todas as grandezas
termodinâmicas no equilı́brio a partir de propriedades microscópicas. Para qualquer um dos gases,
temos
3
ln Ω = ln C + N ln E (10.62)
2
e usando que S = KB ln Ω obtemos
3
S = KB ln C + KB N ln E (10.63)
2
∂S 1
Usando = temos
∂E T
3 1 1
KB N = (10.64)
2 E T
No equilı́brio identificamos Ē com a energia interna U. Logo no equilı́brio temos
3
U= N KB T (10.65)
2
que é uma equação de estado dos gases ideais. Disso pode-se obter o calor especı́fico a volume
constante
∂U 3
CV = = N KB (10.66)
∂T 2
3
que está de acordo com dados experimentais para gases mono-atómicos: CV = N R
2
Conseguimos assim obter as grandezas macro da termo e relações entre elas a partir da in-
formação microscópica contida em Ω e como ele varia com os parâmetros externos.

10.8 Interações Térmicas e Mecânicas


(baseado nas sec 3.0 do Reif e 4.2 Salinas)
Iremos considerar agora o caso onde os sistemas A1 e A2 também podem interagir mecanica-
mente trocando energia na forma de trabalho (um realiza trabalho sobre o outro). Vamos considerar
primeiro a interação mais ”simples” onde o volume pode mudar: a parede entre os sistemas pode
ser mover. Assim a energia e volume de cada sistema são parâmetros livres e o número de partı́culas
é fixo.
De forma análoga ao caso da interação puramente térmica queremos obter P (E12 , E1 , V12 , V1 ):
a probabilidade de encontrar A1 com energia E1 e volume V1 dado que o sistema total está em
equilı́brio com energia a E12 constante e volume V12 constante. Lembrando que dado E1 e V1
podemos obter E2 e V2 já que
E12 = E1 + E2 (10.67)
V12 = V1 + V2 (10.68)
Usando que no equilı́brio todos os micro-estados do sistema total são equiprováveis temos
Ω12 (E12 , E1 , V12 , V1 )
P (E12 , E1 , V12 , V1 ) = (10.69)
Ω12 (E12 , V12 )
e desprezando as correlações devido as interações fracas

Ω12 (E12 , E1 , V12 , V1 ) = Ω1 (E1 , V1 )Ω2 (E2 , V2 ) (10.70)


10.8. INTERAÇÕES TÉRMICAS E MECÂNICAS 91

De modo análogo ao caso da interação mecânica podemos argumentar que Ω12 tem um máximo
em Ẽ1 e Ṽ1 e que a situação de equilı́brio corresponde a esse máximo (já que ele se torna estreito
para N → ∞). Vamos então obter Ẽ1 e Ṽ1 que ocorre quando 7

dΩ12 (E1 , V1 ) = 0 (10.71)

Note que do ponto de vista matemático a únicas coisa que mudou é que agora temos uma função
de duas variáveis ao invés de uma.
Como de costume iremos analisar o ln Ω12

d ln Ω12 (E1 , V1 ) = d ln Ω1 (E1 , V1 ) + d ln Ω2 (E2 , V2 ) (10.72)

Para o sistema 1 e 2 temos


∂ ln Ω1 ∂ ln Ω1
d ln Ω1 = dE1 + dV1 (10.73)
∂E1 ∂V1
∂ ln Ω2 ∂ ln Ω2
d ln Ω2 = dE2 + dV2 (10.74)
∂E2 ∂V2
Usando que dE1 = −dE2 e dV1 = −dV2 (da conservação da energia e volume total) e a já conhecida
∂ ln Ω
∂E ≡ β a condição de máximo fica
 
∂ ln Ω1 ∂ ln Ω2
(β1 − β2 )dE1 + − dV2 = 0 (10.75)
∂V1 ∂V2

Isso só pode ser satisfeito para qualquer valor de dE1 e dV1 se

β1 = β2 (10.76)

e
∂ ln Ω1 ∂ ln Ω2
= (10.77)
∂V1 ∂V2
Já discutimos que β deve estar relacionado com a temperatura, já que no equilı́brio térmico T
deve ser igual. Mas na verdade acabamos por ”postular” uma conexão entre grandezas macro e
micro para a entropia (S = KB ln Ω) e usando que T1 = ∂E ∂S
para obter β = KB T .
Agora vemos que em relação a mudanças no volume o estado mais provável ocorre quando a
propriedade microscópica ∂∂V
ln Ω
é igual para os dois sistemas. E do ponto de vista da termodinâmica
(macro) o equilı́brio ocorre quando as pressões são iguais. Isto sugere que ∂∂V ln Ω
deve estar rela-
cionado com a pressão. Ao invés de tentar adivinhar ou obter tal relação podemos diretamente
∂S
usar o postulado S = KB ln Ω e lembrar da termodinâmica que ∂V E,N
= PT . Assim temos

∂ ln Ω 1 ∂S 1 P
= = = βP (10.78)
∂V KB ∂V KB T
∂S
com ∂V a derivada parcial com E e N fixos.
A condição do estado mais provável, de equilı́brio, fica

β1 = β 2 (10.79)

e
P1 = P 2 (10.80)
Logo no equilı́brio os dois sistemas tem temperaturas e pressões iguais. Aqui também esperamos
que os valores de P1 e P2 não flutuem muito tal como as temperaturas T1 e T2 . Ou seja, a
distribuição de probabilidade têm um máximo pronunciado.
Pode-se considerar interações mais gerais onde outros parâmetros também podem variar. Sis-
tema A1 tem energia E1 e é caracterizado por alguns parâmetros externos y1 , y2 , ..., yn . O mesmo
para A2 que tem parâmetros externos x1 , x2 , ..., xn . O sistema todo está isolado. Eles podem
7 vamos omitir a dependência E12 e V12 já que são constantes
92 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

interagir mecanicamente: os parâmetros y de A1 são funções dos parâmetros x de A2 . Assim o


número de micro-estados é função de energia e dos parâmetros externos

Ω1 (E1 , y1 , ..., yn ) (10.81)

Ω2 (E2 , x1 , ..., xn ) (10.82)


8
E como antes Ω12 (E1 , y1 , ..., yn ) deve ter um máximo com um pico fino para algum valor de
Ē1 = Ẽ1 e y∝ = ỹ∝ . A situação de equilı́brio corresponde a esse máximo onde quase todos os
sistemas do ensemble tem E1 ≈ Ẽ1 e yα ≈ ỹα .
A condição de máximo para ln P fica
n
∂ ln Ω1 X ∂ ln Ω
d ln Ω1 = dĒ1 + dȳα (10.83)
∂E1 α=1
∂yα

Logo teremos uma condição para as propriedades micro ∂∂y


ln Ω
α
e precisamos conectar essa pro-
priedade micro com alguma macro. Uma possibilidade é usar
∂ ln Ω 1 ∂S
= (10.84)
∂yα KB ∂yα
em conjunto com as relações termodinâmicas de derivadas parciais da entropia. Sabemos por
exemplo que ∂N∂S
E,V
= − Tµ com µ o potencial quı́mico. Assim se os dois sistemas puderem
trocar partı́culas os valores de Ñ1 e Ñ2 irão ocorrer quando µ1 = µ2 .

10.9 Outro modo de obter a conexão Micro/Macro


Há uma outra maneira de fazer essa conexão entre as quantidades micro ∂∂y
ln Ω
α
e quantidades
∂S
macro ∂yα . Ela é um pouco mais complicada, mas não assume S = KB ln Ω. Vamos descreve-la
brevemente (veja sec. 3.8 do Reif).
Vamos considerar um sistema com os parâmetros externos assumindo os valorex y1 , ..., yn e
num dado micro-estado r. A energia do sistema é

Er = Er (y1 , ..., yn ) (10.85)

Num processo quase-estático onde os parâmetros yα são variados por valores infinitesimais temos
que a variação em energia deste micro-estado é
X ∂Er
dEr = dyα (10.86)
α=1
∂yα

O trabalho feito pelo sistema nesse processo9 , considerando que ele se mantém no mesmo micro-
estado r, é X
dWr = −dEr = Yα,r dyα (10.87)
onde introduzimos a definição
∂Er
Yα,r ≡ − (10.88)
∂yα
que é chamada de ”força generalizada”. Note que se yα é uma distância então yα é a força usual.
Por exemplo, quando variamos o volume de uma gás temos dW = pdV e logo p= −∂E ∂V : a pressão
é a força generalizada conjugada ao volume V . Se variamos o número de partı́culas N temos
∂E
dW = µN com µ = ∂M sendo o potencial quı́mico. Note que Yα e yα são variáveis conjugadas:
uma delas é intensiva e a outra extensiva. Outro exemplo é entropia e temperatura.
Vamos considerar agora a descrição estatı́stica de um ensemble. Quando alteramos os parâmetros
macroscópicos externos de forma quase estática, cada micro-estado do ensemble pode ter um
8 Ω (E , y , ..., y ) não depende explicitamente de x1 , x2 , ... já que esses são funções de y1 , y2 , ...
12 1 1 n
9 temos o sinal negativo porque dW é o trabalho feito pelo sistema e não sobre ele
10.10. LIMITE TERMODINÂMICO 93

valor diferente para Yα,r . Assim devemos considerar o valor médio no ensemble. E o trabalho
macroscópico resultante de uma mudança nos parâmetros externos é
X
dW = −dE = Y α dyα (10.89)

com
∂Er
Yα ≡− (10.90)
∂yα
a força generalizada média.
Vamos analisar agora o que ocorre com o número de micro-estados acessı́veis quando fazemos
um processo quase estático que altera o estado de equilı́brio do sistema de (Ē, ȳα ) para um novo
estado de equilı́brio (Ē + dĒ, ȳα + dȳα ):
n
∂ ln Ω X ∂ ln Ω
d ln Ω(E, y1 , ..., yn ) = dĒ + dȳα (10.91)
∂E α=1
∂yα

Pode-se mostrar que  


∂ ln Ω ∂ ln Ω ∂E ∂E
=− =β − (10.92)
∂yα ∂E ∂yα ∂yα
Na verdade, obter este resultado não é totalmente trivial. Note, por exemplo, o sinal negativo após
a segunda igualdade, ou seja, não é uma regra da cadeia simples. Na verdade a expressão acima é
∂E
uma aproximação válida somente para sistemas macroscópicos. O valor médio de ∂y α
é novamente
uma média sobre o ensemble (veja sec. 3.8 do Reif para detalhes)
Usando a expressão acima temos
X
d ln Ω = β(dĒ + Y α dȳα ) (10.93)
α

Da expressão para o trabalho macroscópico acima vemos o último termo é o trabalho feito pelo
sistema. Assim
d ln Ω = β(dE + dW ) ≡ βdQ (10.94)
onde a definição de calor dQ = dE + dW . Usando dQ = T dS obtemos

S = KB ln Ω (10.95)

Obtemos o segundo postulado, ou a definição microscópica de entropia 10 . Obviamente tivemos


que assumir ou ”postular” outras relações entre quantidade micro e macro.

10.10 Limite termodinâmico


Fica claro que nossa descrição estatı́stica de sistemas macro fica melhor a medida que o sistema
aumenta de tamanho. De fato, do ponto de vista matemático é interessante tratar o caso limite
N → ∞, onde as flutuações tendem a zero. No entanto nessa situação tanto a energia E como
a entropia S e o volume V também irão tender ao infinito (são grandezas extensivas). Portanto
E
nesse limite devemos descrever o sistema em termos da densidade de energia ( N ), da densidade de
S V
entropia ( N ) e do volume por partı́cula ( N ). Assim temos o conhecido limite termodinâmico onde
E S V
tomamos o limite N → ∞, mas com N , N , N fixos. Note que nem sempre esse limite existe. Para

alguns sistemas, como um gás de e com interação de Coulomb, que é de longo alcance, temos que
E
N → ∞ ; não se mantém fixa.
É importante salientar também que as conexões entre grandezas micro e macro só podem ser
rigorosamente estabelecidas no limite termodinâmico. É somente neste limite que as flutuações
tendem a zero e podemos associar o estado de equilı́brio com o estado mais provável. Além disso é
somente nesse limite que as grandezas definidas, como S = KB ln Ω, não dependem de detalhes do
modelo matemático usado, tal como as condições de contorno, o valor de ∆E ou h0 = δxδp. Além
10 Uma outra opção é postular S = KB ln Ω e obter que dS = dQ/T
94 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

disto é somente neste limite que grandezas, como S = KB ln Ω, se tornam uma função homogênea
e extensiva como requer a termodinâmica. Isso ficará mais claro em alguns exemplo que faremos
depois.
Portanto a conexão macro micro à ser feita é:
S KB ln Ω
s = lim = lim (10.96)
N →∞ N N →∞ N
Vamos olhar com mais cuidado para a extensividade da entropia. Primeiro o uso do ln na
definição da entropia é motivado pela hipótese de que a entropia de sistemas independentes deve
ser a soma das entropias de cada um deles. Ou seja, para dois sistemas não interagindo (sem troca
de energia) temos Ω12 = Ω1 Ω2 e S12 = S1 + S2 . No caso de haver interação fraca temos:
E12
X
Ω12 (E12 ) = Ω1 (E1 )Ω2 (E12 − E1 ) (10.97)
E1 =0

onde temos que somar sobre todos os possı́veis valores de E1 ; já que não o conhecemos. Devido a
interação, manifesta no vı́nculo entre as energias, a princı́pio a entropia não é a soma das entropias
individuais. Porém como já argumentado quando N  1 o termo com E1 = Ẽ1 domina a soma (a
distribuição de probabilidade tem um máximo pronunciado). Logo podemos fazer a aproximação:

Ω12 (E12 ) ≈ Ω(Ẽ1 )Ω(E12 − Ẽ1 ) (10.98)

e temos
T OT AL
S12 ≈ S1 + S2 (10.99)
Ou seja, no limite termodinâmico a entropia se torna extensiva. Note também que o fato da
entropia ser aditiva tem origem em desprezarmos as interações. Quando há interações de longo
alcance, como a gravidade, essa aproximação não é valida e tanto a energia como a entropia não são
extensivas. A teoria que iremos desenvolver, fı́sica estatı́stica de Boltzmann-Gibbs, não se aplica
nesses casos. Há tentativas de resolver esses problemas usando outras definições de entropia que
dão origem a ”fı́sicas estatı́sticas não extensivas”(Um exemplo é a entropia de Tsallis).
Quando as interações são de curto alcance, a interação entre os sistemas só ocorre numa região
finita em torno da fronteira que separa eles. Logo o número de partı́culas interagindo é proporcional
a área das fronteira, L2 , enquanto o número total de partı́culas e proporcional ao volume, L3 .
Como as respectivas energias são proporcionais ao número de partı́culas, no limite termodinâmico
EIN T
(N, V → ∞ com N V constante) temos ET OT AL → 0. Mas insisto que provar isso formalmente com
teoria de perturbação é mais complicado. E além de provar que se pode desprezar EIN T tenho
que provar que os micro-estados (auto estados em MQ) não são modificados.

10.11 Resumo
• 1) Estudamos a interação entre dois sistemas
i) Considerando o sistema total isolado
ii) desprezando as interações
iii)considerando que todos os micro-estados são equiprováveis.
• 2) Obtivemos uma distribuição de probabilidade para as variáveis ”livres”: P (){Xi })
• 3) Vimos que para sistemas macro a probabilidade P ({Xi }) tem um máximo pronunciado e
que se torna estreito para sistemas macro
• 4) Associamos o máximo de P ({Xi }) com o estado de equilı́brio termodinâmico
• 5) Obtivemos, na verdade postulamos, definições microscópicas para temperatura e entropia.
Assim conseguimos ”derivar”, ou melhor justificar, alguns aspectos da termodinâmica a partir
de fı́sica microscópica.
Além Disso
10.12. EXEMPLOS 95

• 6) Introduzimos o ensemble micro-canônico para descrever sistemas isolados onde E, V e N


são fixos.

A seguir iremos aplicar estes conceitos no estudo de sistemas isolados, que como vimos deve
ser descrito pelo ensemble micro-canônico, ou seja, distribuição de probabilidade uniforme. Os
exemplos visto foram retirados do cap. 4 do Salinas.
A idéia é usar a conexão micro/macro S = KB ln Ω para obter S a partir da descrição estatı́stica
microscópica e usando as relações da termodinâmica (derivadas parciais de S) obter as outras
grandezas e relações entre elas a partir de S.
Devo salientar que não estudamos como o sistema atinge o equilı́brio ou nem mesmo se ele irá
ou não atingir. Assumimos que o sistema (total) está em equilı́brio. Esta hipótese está no uso das
probabilidade iguais a priori: Assumimos que a dinâmica é ergódica.

10.12 Exemplos
10.12.1 Paramagneto quântico ideal de spin 1/2
Vamos considerar N partı́culas com spin 12 localizadas e independentes (sem interação) na presença
de um campo magnético externo. Esse modelo é o mais simples para estudar como o momento
magnético de um sistema varia com a temperatura. Veremos que ele explica o comportamento
de sistemas chamados paramagnéticos, os quais são magnetizados por um campo magnético e
portanto tem susceptibilidade magnética χ = ∂m ∂H > 0
11
. Além disso, ao contrário dos materiais
ferromagnéticos, eles não retém a magnetização: o momento magnético vai a zero quando o campo
externo é removido.
A Hamiltoniana é X X
H=− ~ = −µ0 H
µ~i H σi (10.100)
i i

com σi a componente do spin na direção do campo, em geral tomado como ẑ. Sabemos da mecânica
quântica que as variáveis de spin σi só podem assumir dois valores para spin 12 : σi = ±1. A rigor
µ = g µ2B com µB = 2m e~
e
o magneton de Bohr, o fator 12 se deve ao spin 21 e g é o fator g do elétron

(≈ 2 para e ). Mas iremos usar µ0 sem esses detalhes.
Iremos considerar sistemas fechados com energia constante e assim descrevê-los com o ensemble
micro-canônico. Um dos objetivos e obter como as grandezas macro, como temperatura, magne-
tização, dependem do valor da energia e portanto do campo externo H. Para isso iremos usar a
definição de Boltzmann para a entropia e a partir dela calcular outras grandezas termodinâmicas.
O primeiro passo é obter o número de micro-estados acessı́veis Ω para um dado valor de energia
do sistema.
O micro-estado, um auto-estado de energia, é dado por uma lista com o valor de σi de cada
spin: {σ1 , σ2 , ..., σN }. Como havı́amos visto a energia só depende do número de spins +1 e -1 e
não de como eles estão distribuı́dos no sistema.

H = −µ0 H(N+ − N− ) (10.101)

com N+ o número de spins na direção do campo, para cima, N− o número de spins na direção
contrária, e N = N+ + N− . Vemos que fixar a energia é equivalente a fixar N+ ou N− . Assim
temos que obter o número de micro-estados compatı́veis com um dado de N+ , ou seja, de quantos
modos podemos arranjar os N+ spins up entre os N spins. Isso é equivalente ao problema do
número de arranjos distintos de N bolas com N+ de uma certa cor, azul, por exemplo, e N− de
outra cor. Esse é um problema padrão de combinatória e a solução é
N! N!
Ω(N+ , N ) = = (10.102)
N+ !N− ! N+ !(N− N+ )!
11 O fato de termos χ > 0 leva a uma outra caracterı́stica de materiais paramagnéticos: eles são atraı́dos por

um campo magnético externo porque os campos induzidos no material estão sentido do campo externo. Existem
materiais que são repelidos por campos magnéticos externos, já que o campo induzido é no sentido oposto do campo
externo; estes são chamados de diamagnéticos e tem χ < 0. Veremos com mais cuidado essa diferença quando
estudarmos férmios e o paramagnetismo de Pauli e o diamagnetismo de Landau
96 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

Como sabemos a energia do sistema é melhor escrever tudo em termos de E ao invês de N+ e N− .


Temos que
E = −µ0 H(N+ − N− ) (10.103)
E
− = (N+ − N− ) (10.104)
µH
Junto com N = N+ + N− obtemos
 
1 E
N+ = N− (10.105)
2 µ0 H
 
1 E
N− = N+ (10.106)
2 µ0 H
Assim
N!
Ω(E, N ) = h  i h  i (10.107)
1 E
2 N− µ0 H ! 12 N + E
µ0 H !

Note que a variável macro E determina o valor de N+ (ou N− ) que seria outra variável macro.
Como veremos N+ e logo E determinam o valor do momento magnético do sistema. Assim não
precisamos maximizar ln Ω para obter o valor de equilı́brio da magnetização; ele já é definido por
E.
O interesse aqui é obter correspondências entre grandezas macro e micro e equações de estado
para o sistema. Para isso iremos utilizar a fórmula de Boltzmann para a entropia: S = KB ln Ω.
Primeiro temos que
     
1 E 1 E
ln Ω(E, N ) = ln N ! − ln N− ! − ln N+ ! (10.108)
2 µ0 H 2 µ0 H
Como estamos interessados no limite termodinâmico, N → ∞, podemos usar a aproximação de
Stirling para eliminar o fatorial que é mais chato de ser manipulado. Usamos ln N ! ≈ N ln N −N ≈
N ln N . Assim
         
1 E 1 E 1 E 1 E
ln Ω(E, N ) = N ln N − N− ln N− − N+ ln N+
2 µ0 H 2 µ0 H 2 µ0 H 2 µ0 H
(10.109)
e
         
1 1 u N u 1 u N u
lim ln Ω(E, N ) = ln N − 1− ln 1− − 1+ ln 1+
N →∞ N 2 µ0 H 2 µ0 H 2 µ0 H 2 µ0 H
(10.110)
E
onde u = N é a densidade de energia. Continuando, temos
       
1 u N u 1 u N u
= ln N − 1− ln + ln 1 − − 1+ ln + ln 1 +
2 µ0 H 2 µ0 H 2 µ0 H 2 µ0 H
         (10.111)
  
1 N u u 1 u u 1 u u
= ln N − ln 1− + 1+ − 1− ln 1 − − 1+ ln 1 +
2 2 µ0 H µ0 H 2 µ0 H µ0 H 2 µ0 H µ0 H
(10.112)
Os dois primeiros termos ficam
   
1 N u u N
ln N − ln 1− +1+ = ln N − ln = ln 2 (10.113)
2 2 µ0 H µ0 H 2
e portanto
KB ln Ω(E, N )
s(u) = lim (10.114)
N →∞ N
fica
       
KB u u KB u u
s(u) = KB ln 2 − 1− ln 1 − − 1+ ln 1 + (10.115)
2 µ0 H µ0 H 2 µ0 H µ0 H
10.12. EXEMPLOS 97

Agora podemos obter todas as grandezas termodinâmicas a partir da entropia S(u), usando
as relações da termodinâmica. Ou seja a fı́sica estatı́stica propriamente dita acabou aqui. A
temperatura, por exemplo, é
    −1  
1 ∂s KB u KB u u 1
= = ln 1 − − 1− 1− − (10.116)
T ∂u 2µ0 H µ0 H 2 µ0 H µ0 H µ0 H
    −1  
KB u KB u u 1
− ln 1 + − 1+ 1+ (10.117)
2µ0 H µ0 H 2 µ0 H µ0 H µ0 H
e logo     
1 KB u u
= ln 1 − − ln 1 + (10.118)
T 2µ0 H µ0 H µ0 H
e temos uma equação de estado para T e u: T (u)
Essas funções são um pouco chatas de se analisar diretamente. Assim vamos olhar para seus
∂2s
gráficos, começando por s(u). Note que s(u) é uma função côncava da energia: ∂u 2 < 0. Isso é

uma condição necessária para a estabilidade termodinâmica do sistema (T deve aumentar quando
E aumenta). Além da condição de estabilidade, em geral esperamos ter T > 0. No entanto há uma
∂s
região onde ∂u < 0 e logo T < 0. Como mencionamos antes, isso ocorre porque há uma energia
máxima para o sistema e assim após algum valor de energia Ω(E) começa a diminuir com E e
também a entropia. Essa T < 0 quer dizer quer fornecemos calor para o sistema e ele se torna mais
ordenado (menor entropia) e não mais desordenado como esperado. Desse modo não há nada de
problemático com essa região com T < 0. Mesmo assim se denomina a região com T > 0 (u < 0) de
região fı́sica (de fato não é possı́vel chegar a região de T < 0 num processo quasi-estático. A partir
de um campo bem intenso onde todos os spins estariam na direção do campo, u = −µ0 H, terı́amos
que ir diminuindo o campo até chegar u = 0, onde temos metade dos spins na direção do campo
e a outra metada na direção contrária. A partir disto inverterı́amos o campo e começarı́amos a
aumenta-lo novamente. O número de spins na direção contrária ao campo deveria agora ser maior
que os na direção do campo. Porém quando invertemos o campo lentamente passando por H = 0
os spins acompanham o campo e acabaram ”girando junto com o campo”. Assim não entramos
na região T < 0 onde há mais spins estão na direção oposta ao campo. Para obter tal estado,
temos que para algum valor finito de µ inverter o campo rapidamente. Logo que ele é invertido
há mais spins na direção contrária. Mas após um breve intervalo de tempos estes spins ”sentem”
que o campo foi invertido e alguns deles acompanham o campo, voltando a situação anterior: os
spins ficarão por um pequeno intervalo de tempo na direção oposta ao campo, ate relaxarem: não
é uma situação de equilı́brio (como já dito este experimento foi feito nos anos 50; veja secção 10.4)
Note também que para u = ±µ0 H a entropia é nula. Há um único micro-estado acessı́vel: todos
os spins para cima em u = −µ0 H e todos para baixo em u = +µ0 H. Por outro lado a entropia é
máximo para u = 0 onde há metade dos spins para cima e a outra metade para baixo.

Figure 10.5: Esboço da função s(u)

Vamos agora analisar a equação de estado para T e u. No ensemble micro-canônico, obtemos


diretamente T (u), já que u é o parâmetro conhecido. Mas podemos inverter a função e obter u(T ),
que é mais ”útil” já que no laboratório em geral controlamos T e não u. Temos
"  −1 #
1 KB u u
= ln 1 − 1+ (10.119)
T 2µ0 H µ0 H µ0 H
98 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS
 
1 KB µ0 H − u
= ln (10.120)
T 2µ0 H µ0 H + u
 
µ0 H − u 2µ0 H
= exp (10.121)
µ0 H + u KB T
2µ0 H 2µ0 H
u(e KB T + 1) = µ0 H(1 − e KB T ) (10.122)
−µ0 H µ0 H !
e KB T − e KB T
u = µ0 H −µ0 H µ0 H (10.123)
e KB T + e KB T
 
µ0 H
u = −µ0 H tanh (10.124)
KB T
ex − e−x
com tanh x =
ex + e−x
Outra grandeza de interesse é a magnetização do sistema que tal como a energia só depende de
N+ . Aqui também é melhor obter uma ”densidade”: a magnetização por partı́cula
M µ0 N+ − µ0 N− (N+ − N− )
m= = = µ0 (10.125)
N N N
Lembrando que E = −µ0 H(N+ − N− ) Temos
E 1 u
m=− =− (10.126)
HN H
Logo 
µ0 H
m = µ0 tanh (10.127)
KB T
que é uma equação de estado para m, conhecida como equação de Langevin do paramagnetismo
12
. Ela fornece como a magnetização varia como a temperatura e com o campo externo. Na figura
abaixo esboçamos o comportamento de m

KB T
Figure 10.6: magnetização em unidades de µ0 em função do campo em unidade de µ0

Podemos entender o surgimento de uma magnetização macroscópica como uma competição


entre o campo que tenta alinhar os spins e as flutuações térmicas que tentam desordená-los.
Há duas situações limites de interesse:
µ0 H
• K BT
 1: campos grandes e/ou temperaturas baixas. O sistema satura com todos os spin
na direção do campo e temos

m → ±µ0 ⇒ M → ±N µ0 (10.128)

µ0 H
• K BT
 1: campos pequenos e/ou temperaturas altas. A magnetização varia linearmente com H
(proporcionalidade diminui com T) e temos
m µ0
≈ H (10.129)
µ0 KB T
12 Não 1
confundir com a função de Langevin, L(x) = coth(x) − x
, que aparece no paramagneto clássico.
10.12. EXEMPLOS 99

onde usamos que para x  1

ex − e−x 1+x−1+x
tanh x = ≈ =x (10.130)
ex + e−x 1+x+1−x

Esse comportamento linear à altas temperaturas e/ou baixos campos é caracterı́stico de cristais
paramagnéticos. Note que m = 0 para H = 0 como esperado para paramagnetos. As flutuações
térmicas não permitem magnetização macroscópica espontânea. Só há momento magnético quando
um campo externo induz a orientação dos spins. Ou seja, o modelo não explica o ferromagnetismo
onde para certas temperaturas m 6= 0 mesmo para H = 0.
No estudo do magnetismo é interessante obter também a susceptibilidade magnética

∂m
χ(T, H) = (10.131)
∂H

Lembrando que ∂
∂x tanh x = 1 − tanh2 x = 1
cosh2 x
temos

µ20
 
µ0 H
χ(T, H) = cosh−2 (10.132)
KB T KB T

Para campo nulo (H = 0)


µ20
 
1
χ(T, 0) = χ0 (T ) = (10.133)
KB T

ou seja, χ0 (T ) varia com o inverso de T . Essa é a Lei de Curie do paramagnetismo que foi testada e
confirmada em muitos compostos. Ela pode ser usada como termômetro para baixas temperaturas.
Foi descoberta experimentalmente por Pierre Curie (marido de Marie Curie); na verdade ele obteve
que m = const H T o que é equivalente.
Note que apesar da energia e a magnetização total do sistema estar fixa, a de cada partı́cula
não está. Do ponto de vista do ensemble cada sistema tem um micro-estado bem definido com
as energias e magnetização de cada partı́cula distintas. Por outro lado consideramos que nosso
sistema no laboratório está evoluindo no tempo e passando por todos esses possı́veis micro-estados
(de modo ”uniforme”) e assim as energias e magnetizações individuais não estão fixas (para isso
deve haver uma pequena interação entre as partı́culas que desprezamos). Logo podemos ir adiante
e calcular a probabilidade de encontrar um spin qualquer na direção do campo (+1) e por tanto
com energia −µ0 H. Essa probabilidade é proporcional ao número de spins do sistema com spins
na direção do campo. (ou numero de sistemas do ensemble cujo um dado spin esteja na direção
do campo)
   
N+ 1 1 E 1 u
n= = N− = 1− (10.134)
N N2 µ0 H 2 µ0 H
 
µ0 H
Usando que u=-µ0 H tanh temo
KB T
 
1 µ0 H
n= 1 + tanh (10.135)
2 KB T

µ0 H
e KB T
n= µ0 H −µ0 H (10.136)
e KB T + e KB T
Notando que a energia de uma partı́cula na direção do campo é Ei = −µ0 H, temos que a probabil-
−Ei
idade é proporcional ao fator exponencial e KB T que é chamado de fator de Boltzmann. Ele fornece
a probabilidade de encontrar uma partı́cula qualquer com uma certa energia Ei num sistema de
partı́culas não interagentes a uma temperatura T. Iremos obter esse resultado com mais cuidado
quando estudarmos o ensemble canônico.
100 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

10.12.2 Sólido de Einstein


Vamos estudar um sistemas de N osciladores harmônicos unidimensionais quânticos, localizados e
sem interagir. Todos tem a mesma constante de mola k e portanto a mesma frequência ω. Esse
sistema é o modelo mais simples para se levar em conta as vibrações dos átomos em um cristal em
3D. Cada átomo é modelado como um oscilador e desprezamos as interações. Ele foi usado por
Einstein em 1907 para mostrar que esse modelo simples, usando as ideias de quantização, é capaz
de prever a dependência do calor especı́fico de sólidos com a temperatura. De fato esse resultado
foi uma das primeiras predições de sucesso da mecânica quântica, junto com a radiação de corpo
negro e o efeito fotoelétrico; mas é menos mencionado. (o paper original do Einstein é ”Planck
Theory of Radiation and the theory of specific Heat” Ann. d Psysik 22,180 (1907))
Lembrando que para um oscilador quântico
1
H = ~ω(n̂ + ) (10.137)
2

com n̂ o número de quantas de energia do oscilador. Assim as energias possı́veis são En = (n+ 12 )~ω
com n = 0, 1, 2, ...
Os micro-estados do nosso sistema são especificados por um conjunto de N números inteiros
(n1 , n2 , ..., nN ) que da o número de quantas de cada oscilador. A energia total é

1 1
En1,n2,... = (n1 + )~ω + ... + (nN + )~ω (10.138)
2 2
N
En1,n2,... . = (n1 + ... + nN + )~ω (10.139)
2
N
En1,n2,... = M ~ω + ~ω (10.140)
2
N
P
com M = ni o número total de quantas do sistemas.
i=1
Agora temos que calcular o número de micro-estados acessı́veis para um dado valor de energia E
que é determinada por M : quantas maneiras há de se distribuir M quantas entre os N osciladores?
E na verdade, fazer essa contagem é a parte mais difı́cil do problema. O problema é análogo a
distribuir M bolas em N caixas.
• • | • • • | • | • •... • •• (10.141)
Tenho M bolas e N − 1 divisões entre elas (N − 1 divisões definem N caixas). Assim só preciso
obter o número de maneiras de permutar esses M + (N − 1) objetos que é [M + (N − 1)]! . Como
as bolas e divisões são indistinguı́veis entre si também tenho que dividir por M ! e por (N − 1)!:

E N
(M + N − 1)! ( + − 1)!
Ω(E, N ) = = ~ω 2 (10.142)
M !(N − 1)! E N
( − )!(N − 1)!
~ω 2

onde usamos que E = (M + N2 )~ω e logo M = ~ω E


− N2
Para obter ln Ω iremos novamente usar a aproximação de Stirling que facilita a manipulação e
se torna ”exata” no limite termodinâmico (N → ∞) que é o caso de interesse. Logo
       
E N E N E N E N
ln Ω(E, N ) = + − 1 ln + −1 − − ln − − (N − 1) ln(N − 1)
~ω 2 ~ω 2 ~ω 2 ~ω 2
(10.143)
Note que estamos desprezando termos de ordem de N e E, já que usamos ln N ! ≈ N ln N . Assim
devemos desprezar também o termo proporcional a ln(N − 1) que aparece no final da expressão.
Logo, usando N − 1 ≈ N temos:
       
E N E N E N E N
ln Ω(E, N ) = −N ln N + + ln + − − ln − (10.144)
~ω 2 ~ω 2 ~ω 2 ~ω 2
10.12. EXEMPLOS 101

No limite termodinâmico a entropia por oscilador fica:

1
s(u) ≡ lim KB ln Ω(E, N ) (10.145)
N →∞ N

         
u 1 u 1 u 1 u 1
s(u) = −KB ln N + KB + ln N + − KB − ln N −
~ω 2 ~ω 2 ~ω 2 ~ω 2
(10.146)
usando que
   
u 1 u 1
ln N + = ln N + ln + (10.147)
~ω 2 ~ω 2
temos  
u 1 u 1
s(u) = −KB ln N + KB + − + ln N + (10.148)
~ω 2 ~ω 2
       
u 1 u 1 u 1 u 1
KB + ln + − KB − ln − (10.149)
~ω 2 ~ω 2 ~ω 2 ~ω 2
e logo
       
u 1 u 1 u 1 u 1
s(u) = KB + ln + − KB − ln − (10.150)
~ω 2 ~ω 2 ~ω 2 ~ω 2

A partir de s(u) pode-se obter todos as outras quantidades termodinâmicas. A equação de


estado para a temperatura, por exemplo, fica
      −1
1 ∂s 1 u 1 u 1 u 1 1
= = KB ln + KB + + (10.151)
T ∂u ~ω ~ω 2 ~ω 2 ~ω 2 ~ω
      −1
1 u 1 u 1 u 1 1
−KB ln − − KB − − (10.152)
~ω ~ω 2 ~ω 2 ~ω 2 ~ω
e temos  
1 KB 2u + ~ω
= ln (10.153)
T ~ω 2u − ~ω
Pode-se obter então u(T )
 
2u + ~ω ~ω
= exp (10.154)
2u − ~ω KB T

2u + ~ω = e KB T (2u − ~ω) (10.155)
~ω ~ω
2u(1 − e KB T ) = −~ω(1 + e KB T ) (10.156)
~ω !
~ω 1 + e KB T
u= ~ω (10.157)
2 −1 + e KB T
ex +1 ex −1+2 2
e usando ex −1 = ex −1 =1+ ex −1 finalmente temos

~ω ~ω
u(T ) = + ~ω (10.158)
2 e KB T
−1

Essa forma para u(T ) é interessante porque deixa explı́cito que:

• no limite T → ∞ temos u → KB T .

• no limite T → 0 temos u → ~ω
2 .
102 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

Figure 10.7: Retirado do Greiner. Grafico da energia média por partı́cula em unidades de ~ω. A
curva 1 é o resultado correto da mecânica quântica. A curva 2 é a previsão clássica e a curva 3 é
o resultado original obtido por planck; que não continha a energia de ponto zero.

Assim vemos que no limite de altas temperaturas recuperamos o resultado clássico U = N KB T .


Neste situação a energia das flutuações térmicas é tão grande que a estrutura discreta do espectro
não aparece. E no limite de baixas temperatura temos um grande desvio do regime clássico
já que U ≈ N ~ω/2 enquanto classicamente esperamos a energia ser nula: todos os osciladores
”congelados”. Essa energia ”residual” a T = 0 é chamada de energia quântica do ”ponto zero”.
Deve-se mencionar que no trabalho original de Planck da quantização dos osciladores para explicar
a radiação de corpo negro não aparece uma energia de ponto zero. Isso porque ele introduziu
a quantização ”a mão”. A energia do ponto zero só foi aparecer em 1924 com a introdução da
equação de Schrödinger.
O calor especı́fico fica
 
∂u ~ω ~ω −~ω
c= = −1 ~ω e KB T (10.159)
∂T (e KB T − 1)2 KB T 2

 2 ~ω
~ω e KB T
c(T ) = KB ~ω (10.160)
KB T (e KB T − 1)2
A forma dessa função pode ser vista na figura 10.8. Os casos limites de altas e baixas temper-
aturas ficam:13

• KB T  ~ω : C → KB . Se torna constante (C = N KB ) e igual ao valor clássico.


 2 −~ω
• KB T  ~ω : C → KB ~ω
KB T e KT . Decai exponencialmente com T .

Em torno de 1820 Dulong de Petit observaram experimentalmente que a capacidade térmica mo-
cal
lar de todos os sólidos a temperatura suficientemente elevada se aproxima de uma constante(6 mol ◦ C ).

Esses resultado podiam ser obtidos usando o teorema da equipartição da energia (do mesmo modo
que CV era igual para diversos gases), e/ou a fı́sica estatı́stica clássica. Ambos prevem que CV
deve ser igual ao número de graus de liberdade vezes KB . Assim acreditava-se que os resulta-
dos deviam ser válidos a baixas temperaturas. No entanto, experimentos a baixas temperaturas
mostraram que c tendia a zero com T → 0. Esse resultado era previsto pelo modelo de Einstein
e se tornou uma das primeiras evidências da necessidade da utilização da teoria dos quanta de
energia de Planck. Medidas mais precisas posteriormente mostraram que a dependência não era
13 Pode se definir também a temperatura de Einstein TE = ~ω
em relação a qual os casos limites devem ser
KB
considerados.
10.12. EXEMPLOS 103

Figure 10.8: Esboço o calor especı́fico c(T ) para o sólido de Einstein

exponencial mas sim com T 3 . Esse comportamento foi previsto pelo modelo de Debye proposto
em 1912 e que leva em conta a interação entre os átomos e fornece um modelo de osciladores com
frequências diferentes(fónos numa caixa). Na verdade para sólidos em 3D temos que considerar as
3 direções independentes de oscilação para obter cT →∞ == 3KB
Pode-se entender esse valor nulo para cV para sistemas quânticos facilmente. Para temperaturas
kB T muito menores que a distância entre o estado fundamental e o primeiro estado excitado (o
gap), as excitações térmicas não conseguem excitar o sistema que fica a temperatura zero. Já um
sistema clássico pode ser excitado por qualquer quantidade de energia KB T já que suas possı́veis
energias não são quantizadas; seu espectro é contı́nuo.

Figure 10.9:

10.12.3 Gás de Boltzmann


Esse é um modelo de gás proposto por Boltzmann, onde as energias de cada partı́cula são quanti-
zadas e portanto só podem assumir alguns valores discretos j com j = 1, 2, ... O micro-estado do
sistema é especificado pela energia de cada partı́cula: {j1 , j2 , ..., jN } (partı́cula k está no nı́vel
jk com energia jk ). Podemos imaginar uma caixa com partı́culas quânticas.

Figure 10.10:
104 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

A energia total do gás é


E = j1 + j2 + ... + jN (10.161)
Note que podem existir mais que uma partı́cula em um dado nı́vel, ou seja, com uma dada energia.
Assim é interessante definir o número de ocupação de um dado nı́vel: Nk : número de partı́culas
com energia k Deste modo a energia fica
X X
E= k Nk com Nk = N (10.162)
k k

Ou seja, ela é uma função dos Nk


O caso do paramagneto é um caso particular com dois nı́veis. Nesse caso E é função de N1
e N2 , mas como N1 + N2 = N ela é função só de N1 (para N constante). Assim a energia fixa
os números de ocupações, que determinan por exemplo o momento magnético total do sistema.
Aqui é um pouco mais complicado. A energia não fixa os valores de {N1 , N2 , ...}. Há mais que um
conjunto de valores que leva a mesma energia. Portanto iremos obter qual o valor de equilı́brio
para as ocupações Nj . Matematicamente isso ocorre porque temos várias variáveis (N1 , N2 , ...) mas
somente 2 equações. Para isso primeiros temos que obter o número de micro-estados acessı́veis
para um dado conjunto de Nj e energia E. Temos N ”bolas” para distribuir nos infinitos nı́veis
sendo que não distinguimos ”bolas” nos mesmo nı́veis. Logo o número de micro-estados acessı́veis
para uma dada energia é
N!
Ω({Nj }, E, N ) = (10.163)
N1 !N2 !N3 !...
com os vı́nculos X X
N= Nj e E = j Nj (10.164)
j j

Novamente, nesse sistema conhecemos um parâmetro macro, a energia E, mas não outros, as
ocupações, e nosso objetivo é obter os valores de equilı́brio para eles. O valor de equilı́brio é asso-
ciado ao valor mais provável, ou seja, quando P ({Ni }, E, N ) ∝ Ω({Ni }, E, N ) é máximo. Temos
que obter o máximo de ln Ω({Nj }, E, N ) com os vı́nculos sobre N e E. No caso do paramagneto o
vı́nculo era simples e usávamos ele para eliminar N2 e escrever Ω só em termos de N e N1 . Aqui
isso é possı́vel mas bem mais complicado. É mais fácil utilizar os multiplicadores de Lagrange
que é uma técnica geral para obter os extremos de uma função f (x1 , x2 , ..., xN ) sujeitas a vı́nculos
φ1 (x1 , ..., xN ) = c1 ; φ2 (x1 , ..., xN ) = c2 ;... com c1 , c2 ,... constantes.
Preciso que
X ∂ ln Ω
d ln Ω = dNj = 0 (10.165)
j
∂Nj

Com
X ∂N
dN = dNj = 0 (10.166)
j
∂Nj
X ∂E
dE = dNj = 0 (10.167)
j
∂Nj

Tenho que resolver o sistema de equações: tenho M variáveis e M + 2 equações. Ou seja, não
posso ter todos os ∂lnΩ
∂Nj = 0 por causa do dois vı́nculos: os Nj não são todos independentes. A
ideia dos multiplicadores de Lagrange é introduzir duas novas variáveis para deixar os Nj todos
independentes. Assim tenho
d ln Ω − λ1 dN − λ2 dE = 0 (10.168)

X ∂ ln Ω 
∂N ∂E
− λ1 − λ2 dNj = 0 (10.169)
j
∂N j ∂N j ∂Nj

Duas destas M equações não podiam ser nulas. Mas agora escolho λ1 e λ2 para que estas duas
também sejam nulas! Logo a condição de extremo fica
∂ ln Ω
− λ1 − λ2 j = 0 (10.170)
∂Nj
10.12. EXEMPLOS 105

∂N ∂E
onde usei que ∂Nj =1e ∂Nj = i . Essas equações podem ser obtidas diretamente extremizando a
função X X
F (Nj , λ1 , λ2 ) = ln Ω + λ1 (N − Nj ) + λ2 (E − j Nj ) (10.171)
j j

unicamente em relação a coordenada Ni , ou seja, derivando parcialmente. E a extremização em


relação a λ1 e λ2 fornecem as equações para os vı́nculos.
Usando a aproximação de Sterling temos
X
ln Ω ≈ N ln N − Nj ln Nj (10.172)
j

Assim a condição de extremo fica (uso ln Nj + 1 ≈ ln Nj )

− ln Nj − λ1 − λ2 j = 0 (10.173)

e temos que resolver o seguinte sistema de equações

ln Nj + λ1 + λ2 j = 0 (10.174)
X
Nj = N (10.175)
X
 j Nj = E (10.176)
que é mais simples que o sistema original. Diretamente obtemos

Nj = e−λ1 e−λ2 j (10.177)

Logo X X
Nj = e−λ1 e−λ2 j = N (10.178)
j j
e
N
e−λ1 = (10.179)
Z1
e finalmente
N −λ2 j
Nj =e (10.180)
Z1
com X
Z1 = exp(−λ2 j ) (10.181)
j

um fator de normalização
Portanto o valor de equilı́brio de Nj é proporcional a e−λ2 j e

Nj e−λ2 j
= (10.182)
N Z1
pode ser interpretado como a probabilidade de ter Nj partı́culas no nı́vel j . O fator de e−λ2 j é
chamado de fator de Boltzmann e irá aparecer no ensemble canônico onde a energia não está fixa.
Aqui ele está relacionado com a probabilidade para um único nı́vel ter uma dada população num
sistema de partı́culas independentes
A constante λ2 pode ser obtida a partir da restrição na energia
X X j e−λ2 j
E=  j Nj = N (10.183)
j j
Z1

−∂
j e−λ2 j logo
P P
Note que ∂λ2 Z1 = =
1 j


− ∂λ Z1 ∂
E=N = −N ln Z1 (10.184)
Z1 ∂λ2
106 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

Para obter Z1 devemos tomar o limite do contı́nuo

m~v 2
K → (10.185)
2
Z
v2
m~
Z1 → d3~v e−λ2 2 (10.186)

Z 2
Z mvy2 Z
mvx
= dvx e−λ2 2 dvy e−λ2 2 dvz ... (10.187)

mvx2
Como e−λ2 2 é uma gaussiana
s 3
 3
π 2π 2
Z1 = 
λ2 m
 = (10.188)
2
λ2 m

e portanto
  
∂ 3 2π
E = −N ln (10.189)
∂λ2 2 λ2 m
 
3 λ2 m −2π 3N
E = −N 2 = (10.190)
2 2π λ2 m 2λ2
e finalmente obtemos
3N 3
λ2 = = (10.191)
2E 2u
e temos
N 3 j
Nj = exp(− ) (10.192)
Z1 2u

Usando a equação de estado clássica E = 23 N KB T e então λ2 = 1


KB T E nesse limite do contı́nuo
temos
  −3
NK 2π 2
− m~v2
= e 2KB T (10.193)
N λ2 m
 − 32
2πKB T m~
− 2K v 2
= e BT (10.194)
m
que é a famosa distribuição de Maxwell-Boltzmann para as velocidades das partı́culas num gás
ideal. Usando que proporção de partı́culas com uma dada velocidade NNK no limite do contı́nuo é
dada por p(~v )d3~v temos
 − 32
2πKB T −mv 2
p(~v ) = e 2KB T (10.195)
m
Essa distribuição foi proposta por Maxwell que usou como justificativa o fato de ela ser a única
distribuição de velocidade isotrópica (onde todas as componentes de ~v são equivalentes) Depois
Boltzmann conseguiu obte-la a partir do princı́pio das probabilidades iguais
O gás de Boltzmann é interessante até porque é a primeira tentativa de introduzir nı́veis discre-
tos para a energia; anterior ao trabalho de Planck. Ele também é bem genérico e introduz a idéia
dos números de ocupação para descrever o sistema que também será utilizada numa discrição mais
completa das partı́culas como férmions e bósons. Um caso particular dele são sistemas de 2 nı́veis
como o paramegneto de spin 12 ou um sistema com energia 1 = 0 e 2 =  que é o exemplo 4 do
Salinas(cap.4) No entanto não é o mais adequado para discutir o gás ideal clássico, onde deve-se
usar o espaço de fases para obter o número de micro-estados acessı́veis.
10.12. EXEMPLOS 107

1
10.12.4 Gás ideal monoatômico clássico e o fator de gibbs N
!
Vamos considerar num sistema de N partı́culas. A Hamiltoniana deve ser
X p2 X
i
H= + ri − r~j |)
V (|~ (10.196)
i
2m i<j

O termo V (r) é o termo de interação entre as partı́culas. Sua forma exata é complicada. Mas ele
deve aumentar rapidamente para distâncias muito pequenas evitando que uma partı́cula penetre
na outra e ter uma parte atrativa que se anula rapidamente para r → ∞. Uma forma realista e
que pode ser tratada matematicamente é o potencial de Lennard-Jones
h r r0 i
0
V (r) ( )12 − 2( )6 (10.197)
r r

Figure 10.11: Esboço do potencial do tipo Lennard-Jones

Para esse potencial pode-se mostrar a existência do limite termodinâmico. Outros potenciais
mais realı́sticos requerem aproximações. Mas na verdade iremos ignorar o termo de interação,
apesar de que ele não pode ser nulo para que o sistema equilibre trocando energia. E sabemos que
essa aproximação é boa para gases a baixas densidades: gases ideais.
Novamente conhecemos a energia do nosso sistema que é fixa já que ele está isolado, e temos
que primeiro obter o número de micro-estados acessı́veis
Z Z Z Z
∆ω(E, ∆E, V, N ) = ... dr~1 ...dr~N ... dp~1 ...dp~N (10.198)

P ~2
com a integração no momento restrita aos valores onde 2mE ≤ p ≤ 2mE + ∆E A integração
na parte espacial da o volume V . A integração na parte de momento é igual ao volume de uma
hiperesfera de raio 2mE e espessura 2m∆E. Esse volume pode ser obtido
3N
3N 3N
−1 π 2
∆ω(E, ∆E, V, N ) = (2m) 2 E 2 V N ∆E (10.199)
Γ( 3N
2 )
R∞
com Γ a função gamma: Γ(n) = 0 dxe−x xn−1 e para inteiros Γ(n) = (n − 1)!. Lembre que para
obter um número finito e contável de micro-estados temos que definir um micro-estado como uma
região de ”volume elementar” h3N e então dividir δΩ por h3N . A princı́pio o valor de h é arbitrário
e portanto nossa descrição parecer ter um grau de arbitariedade.
A entropia fica
     
3N 3N 3N 3N
S = KB ln(2m) + − 1 ln E − ln Γ + N ln V + ln π + ln ∆E − 3N ln h
2 2 2 2
(10.200)
onde introduzimos o volume elementar h3N . Para N  1 ficamos com
         
3N 3N 3N 3N 3N
ln Γ ≈ ln −1 !≈ − 1 ln −1 − −1 (10.201)
2 2 2 2 2

3N 3N 3N
≈ ln − (10.202)
2 2 2
108 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

e a entropia fica
 
3N 3N 3N 3N 3N 3N
S ≈ KB ln(2m) + ln E − ln + + N ln V + ln π + ln ∆E − N ln h3
2 2 2 2 2 2
(10.203)
( "  32 # )
3 1 V ln ∆E
S ≈ N KB + lnπ 2mE 3
3
+ (10.204)
2 2N
h N
( "   32 #)
3 V 4πmE
S ≈ N KB + ln 3 (10.205)
2 h 3N

Aqui podemos ver que o valor de ∆E que é arbitrário não irá influenciar S no limite termodinâmico
Vamos obter agora as equações de estado. Ainda não iremos tomar o limite termodinâmico e
veremos o porque depois.
 −3  12
h3
 
1 ∂S 4πmE 2
V 4πmE 4πm
= = N KB (10.206)
T ∂E V 3N h3 3N 3N

1 3N KB
= (10.207)
T 2E
Assim obtemos E = 32 N KB T que é a expressão conhecida da termodinâmica para o gás ideal
monoatômico,
Podemos obter também a pressão usando
 23  32
h3
 
p ∂S 4πmE 1 4πmE N KB
= = N KB = N KB = (10.208)
T ∂V V 3N h3 3N V

Assim obtemos pV = N KB T que é a conhecida equação de estado (ou lei) dos gases ideais
É interessante notar que os resultados não dependem de δE e h. Na verdade pode-se obter os
mesmos resultados se na definição da entropia só usássemos os micro-estados na superfı́cie(δE = 0)
ou mesmo usando todos os micro-estados contidos dentro da hiper esfera, ou seja, com energia
menor ou igual a E. Esse fato pode ser explorado na tentativa de procurar outras definições de
entropia. Note também que essa derivação conecta a constante de Boltzman KB com a constante
dos gases ideais R.
Voltemos agora para nossa expressão para S
(  3 )
3 V 4πm E 2
S ≈ N KB ln (10.209)
2 h3 3 N

E
No limite termodinâmico vemos que irá sobrar uma dependência no volume total V : N = u fica
constante mas V aumenta! Ou seja, a entropia se torna mal comportada no limite N → ∞. Outro
modo de ver isso é notar que S(E, V, N ) não é extensivo: deveria aumentar com N , mas aumenta
com N ,E e V sendo que E e V também aumentam com N . Parece que há micro-estados demais!
Esse ”problema” com S leva a um ”paradoxo” discutido pela primeira vez por Gibbs e por isso
conhecido como o paradoxo de Gibbs. Vamos analisar a situação de 2 gases diferentes, A e B, a
mesma T e p, mas divididos por uma divisória. O número de partı́culas e volume de cada gás pode
ser diferente. Podemos escrever a entropia em termos de V e T = 32 N E KB
  
3 V 3
S(V, T ) = N KB + ln (2πmKB T ) 2 (10.210)
2 h3
 
3
S(V, T ) = N KB ln V + ln T + σ (10.211)
2
3 3 2πmKB

com σ = 2 + 2 ln h2 uma constante.
10.12. EXEMPLOS 109

Se retirarmos a divisória os gases irão se misturar e atingir um novo equilı́brio. A energia interna
só depende de T e portanto não muda durante o processo. A pressão também não muda. Porém
a entropia muda, já que o volume de cada gás muda: Antes temos dois gases com (T, VA , NA )
e (T, VB , NB ) e depois temos (T, VA + VB , NA ) e (T, VA + VB , NB ). Pode-se obter facilmente a
mudança de entropia neste processo

∆S = SA (T, VA + VB , NA ) + SB (T, VA + VB , NB ) − (SA (T, VA , NA ) + SB (T, VB , NB )) (10.212)

∆S = NA KB ln(VA + VB ) + NB KB ln(VA + VB ) − NA KB ln VA − NB KB ln VB (10.213)


   
VA + VB VA + VB
∆S = NB KB ln + NB KB ln (10.214)
VA VB
Ou seja, ∆S > 0 e há um aumento de entropia. Por um lado isso parece razoável e correto. Houve
um processo de mistura dos dois gases que é irreversı́vel (não esperamos ver os gases se separarem
espontaneamente). Por outro lado, as variáveis macro que podemos observar (p e T ) não mudam
durante o processo. Ou seja, não há nenhum processo macroscopicamente observável ocorrendo
no processo de retirar a divisória. Nesse sentido a entropia não deveria aumentar. O aumento da
entropia parece razoável quando pensamos nos dois gases como distintos inicialmente e depois uma
mistura. No final não distinguimos micro-estados onde trocamos uma partı́cula de A por B.
Imagine agora que os gases A e B fossem do mesmo tipo. Nesse caso nossas contas não
mudariam. Mas claramente o aumento de entropia iria parecer estranho porque não houve um
processo de mistura de gases distintos. Nas nossas contas estamos considerando que as partı́culas
são distinguı́veis: se trocamos as posições e velocidades de 2 partı́culas temos um micro-estado
distinto. Assim mesmo para gases idênticos a entropia aumenta porque as partı́culas que estão a
esquerda irão se misturar de forma irreversı́vel com as que estão a direita. Ou seja, trocar uma
partı́cula da esquerda por uma da direita gera um novo micro-estado. Mas podemos realmente
distinguir as partı́culas individualmente? Classicamente isso pode ser feito seguindo a trajetória
de cada uma. Porém do ponto de vista quântico isso não pode ser feito. Na mecânica quântica as
partı́culas são intrinsecamente indistinguı́veis: todos os e− são iguais. Assim trocar 2 partı́culas
de posição não cria um novo micro-estado; é o mesmo micro-estado. Essa é a origem do excesso
de micro-estados que temos no nosso modelo. Temos que ”retirar” esses micro-estados que são
equivalentes.
Há N ! maneiras de permutar as N partı́culas e essas permutações não criam novos micro-estados
para partı́culas indistinguı́veis! Assim temos que fazer a alteração
1
Ω(E, δE, V, N ) → Ω(E, δE, V, N ) (10.215)
N!
com N1 ! o fator de correção de Gibbs
A entropia fica "   32 #
3 V 4πmE
S = KB N + ln 3 − KB lnN ! (10.216)
2 h 3N
Usando Stirling mais uma vez: lnN ! ≈ N lnN
  32 !#
3 1 V 4πmE
S = KB N + ln (10.217)
2 h3 N 3N

Essa expressão é bem comportada no limite de N → ∞ e se torna extensiva


S
lim → S(u, v) (10.218)
N
Refazendo a conta para a mistura de gases veremos que ∆S = 0
Vemos então que para obter resultados consistentes temos que colocar o fator de Gibbs ”a
mão” usando a justificativa que as partı́culas não são distinguı́veis, embora classicamente elas
sejam. Note que obviamente pode-se argumentar que seria muito difı́cil seguir as trajetórias para
ser capaz de distinguir as partı́culas. Mas isso não é uma justificativa para colocar o fator N1 ! . O
que importa aqui é se na teoria usada esses micro-estados são ou não distintos.
110 CHAPTER 10. ENSEMBLE MICROCAÔNICO E INTERAÇÕES TÉRMICAS

Logo vemos que nesse caso a mecânica quântica fornece resultados mais consistentes que a
mecânica clássica. O fator de Gibbs aparece naturalmente. Deve-se mencionar que existem ten-
tativas de se resolver o paradoxo usando outras definições de entropia microscópicas. Na verdade
há uma vasta literatura sobre outras possı́veis definições de entropia e até mesmo sobre qual era a
”real” definição de Boltzmann. De qualquer modo devemos sempre colocar a mão o fator N1 ! nos
sistemas clássicos. Porém há situações onde as partı́culas são distinguı́veis como quando elas estão
localizadas em certas posições. Nesses casos não se deve usar o fator de Gibbs
Chapter 11

Ensemble Canônico

O ensemble micro-canônico é a base da descrição estatı́stica de sistemas macroscópicos. Ele permite


descrever sistemas isolados e a princı́pio qualquer sistema pode ser aproximadamente isolado se
ampliamos o sistema suficientemente para englobar qualquer troca de energia. Porém do ponto de
vista prático nem sempre podemos ou desejamos isolar um sistema. E do ponto de vista teórico
também vimos que este isolamento cria vı́nculos na energia que dificultam o cálculo do número de
micro-estados acessı́veis; temos que fazer somas com certas restrições.
Uma situação comum em termodinâmica é termos um sistema onde não temos controle sobre a
energia e/ou somos capazes de medi lá. O que em geral controlamos e medimos é a temperatura.
Podemos controlar a temperatura, e até mesmo mantê-la fixa, colocando o sistema em contato com
um reservatório térmico: o sistema troca energia com o reservatório mas mantém sua T fixa e igual
a do reservatório. Do ponto de vista de processos, no micro-canônico temos controle sobre (E, V, N )
que são variáveis independentes e a entropia é uma função delas S(E, V, N ). Como vimos nesta
situação o estado de equilı́brio é o que maximiza a entropia S. Ou seja, se altero um pouco E num
processo quase-estático o novo estado de equilı́brio é o que maximiza S. Mas e no caso onde não
tenho controle sobre (E, V N ) mas sobre (T, V, N )? Neste caso E esta variando e portanto entropia
S também. Assim, a princı́pio, elas não são boas grandezas para descrever o estado do sistema
no equilı́brio. Neste caso pode-se mostrar que a grandeza F = E − T S faz o papel da entropia
ou energia. Num processo onde há troca de energia com (T, N, V ) fixos ∆F ≤ 0 do mesmo modo
que ∆S ≥ 0 no micro-canônico. O estado de equilı́brio é aquele que minimiza F que é chamada
de energia livre de Helmhotz. O nome energia livre se deve ao fato de que o trabalho extraı́do do
sistema num processo é sempre menor que ∆F . F é chamado de potencial termodinâmico e como
veremos para cada situação onde um dado parâmetro pode ser controlado (E, T, P, N, ...) há um
potencial associado. Note que são somente maneiras distintas, e mais convenientes, de descrever o
mesmo sistema fı́sico.

11.1 Distribuição de Boltzmann-Gibbs


Queremos descrever um sistema fı́sico com T fixa, mas E em princı́pio livre. Assim iremos obter a
probabilidade de encontrar o sistema com uma dada energia. Para isso iremos considerar o sistema
e seu reservatório térmico que juntos são um sistema isolado. É equivalente a focar numa região
pequena de um sistema isolado.
Iremos proceder como antes analisando o sistema conjunto S+R no micro-canônico em equilı́brio.
A energia total é E0 = ES + ER , onde novamente ignoramos a interação. Já analisamos esta
situação, onde os sistema podem trocar energia, e vimos que o estado de equilı́brio é aquele onde
a energia de cada sistema é tal que suas temperaturas são iguais. Iremos repetir a análise, porém
com mais detalhes e levando em conta que um dos sistemas, o reservatório, é muito maior que
outro.
Usando o postulado ou princı́pio das probabilidades iguais a priori para o sistema isolado S +R,
temos que a probabilidade de encontrar S com ES e R com energia ER é proporcional o número

111
112 CHAPTER 11. ENSEMBLE CANÔNICO

Figure 11.1:

de micro-estados compatı́veis com tais valores:

ΩSR (E0 , ES , ER ) ΩS (ES )ΩR (ER )


P (E0 , ES , ER ) = ≈ (11.1)
ΩSR (E0 ) ΩSR (E0 )

Note que as três variáveis E0 , ES , ER não são independentes, já que a energia se conserva. Escreve-
mos as grandezas como funções das três somente por completeza. Mas como P estamos interessando
no sistema deixaremos tudo em função de ES . Lembrando também que ES ΩSR (E0 , ES , ER ) =
ΩSR (E0 ).
Estamos interessados somente no estado do sistema e não nos importa o estado do reservatório,
que só foi incluı́do para podermos usar o tratamento de sistemas isolados. Assim queremos saber
qual é a probabilidade de encontrar os sistema num micro-estado especı́fico j? Ou seja, fixamos o
micro-estado do sistema (ΩS = 1) e portanto fixamos sua energia e também a energia de ER .

ΩR (ER ) ΩR (E0 − ESj )


P (S em j) = = , (11.2)
ΩSR (E0 ) ΩSR (E0 )

com ΩR o número de micro-estados de R compatı́veis com S ter o micro-estado j com energia


ESj . Todos os micro-estados j com a mesmo valor de ESj tem a mesma probabilidade. Mas, como
ΩR diminui com ESj a probabilidade de encontrar S no micro-estado j com energia ESj decai com
ESj . Note que não queremos saber a probabilidade de ser ter uma dada energia, mas sim um dado
micro-estado com aquela energia. Essas duas coisas só são equivalente no caso onde só há um
micro-estado para cada valor de energia, o que sabemos não ser o caso em geral.
Agora consideramos que o reservatório é muito maior que o sistema tal que:

ESj  ER e portanto ESj  E0 para qualquer j (11.3)

Deste modo podemos expandir ΩR (E0 −ESj ) em torno de E0 . Como de costume é mais conveniente
expandir o ln ΩR . Simplificando a notação usarei Pj ao invés de P (S em j).

ln Pj = const + ln ΩR (E0 − ESj ) (11.4)

com const = ln ΩSR (E0 ) a constante de normalização da distribuição de probabilidade.



∂ ln ΩR (E)
ln Pj ≈ const + ln ΩR (E0 ) + (−Ej ) (11.5)
∂E
E0

1 ∂ 2 ln ΩR (E)
+ (−Ej )2 (11.6)
2 ∂E 2


E0

Usando a definição microscópica de Boltzmann para a entropia, S = KB ln Ω temos

∂ ln ΩR 1
= (11.7)
∂E KB TR
11.1. DISTRIBUIÇÃO DE BOLTZMANN-GIBBS 113

Iremos considerar que o termo de segunda ordem é desprezı́vel:

∂ 2 ln ΩR
 
1 ∂ 1
= ≈0 (11.8)
∂E 2 KB ∂E TR

Ou seja, a temperatura do reservatório não muda quando ele troca energia com o sistema. Essa
aproximação é boa para reservatórios muito maiores que o sistema: a energia ganha ou perdida
altera muito pouco a sua temperatura porque a energia é distribuı́da em um número muito grande
de graus de liberdade. Outro modo de ver isso é em termos de capacidade térmica do reservatório
que é muito grande devido ao seu tamanho. É como jogar uma pedra de gelo em uma piscina cheia
de água a 25 ◦ C. A temperatura de equilı́brio será 24,9999 ◦ C, ou seja, podemos considerar que
a temperatura da piscina não mudou e que o gelo que atingiu a temperatura original da piscina.
Neste sentido que dizemos que o reservatório fixa a temperatura do sistema
Com essas considerações temos
Ej
ln Pj ≈ const’ − (11.9)
KB TR
Ej
−K
Pj ≈ const”e B TR (11.10)
e como de costume a constante const” pode ser obtida da normalização somando sobre todos os
possı́veis micro-estados (sem fixar a energia)
X X −Ej

Pj = const e KB T = 1 (11.11)
j j

1 1
const = P −Ej = (11.12)
Z
e KB T

Introduzimos assim Z que é chamada de função de partição e como veremos terá um papel funda-
mental.
Em suma, temos que a probabilidade de encontrar um sistema, em contato com um reservatório
a temperatura TR , no micro-estado j é

e−Ej /(KB TR )
Pj = (11.13)
Z
Como vimos anteriormente, no equilı́brio TS = TR e assim o sistema assume a temperatura do
reservatório quando em equilı́brio com ele. O importante é que além de eles terem a mesma
temperatura, a do reservatório não muda com as trocas de energia. Quando coloco eles em contato
com temperaturas distintas é a do sistema que irá se igualar a do reservatório que não irá se
alterar; dizemos que o reservatório fixou a temperatura do sistema. Assim em geral e daqui em
diante iremos desconsiderar o sub-ı́ndice R na temperatura e usar somente T
Essa distribuição de probabilidades que obtivemos é chamada da distribuição do ensemble
canônico ou de Boltzmann-Gibbs (ou Maxwell-Boltzmann-Gibbs). O fator e−Ej /KB T é chamado
em geral de fator de Boltzmann. Vemos que a probabilidade decresce exponencialmente com a
energia, tornando os nı́veis de alta energia pouco prováveis. Note também o efeito da temperatura:
um aumento da temperatura aumenta a probabilidade de se encontrar o sistema em nı́veis de alta
energia. E como se as flutuações térmicas, ou seu aumento, excitassem o sistema para estes nı́veis.
Por outro lado vemos que no limite de baixas temperaturas a probabilidade de se encontrar o
sistema no menor nı́vel aumenta.
Essa é a distribuição de probabilidade de um sistema que não tem sua energia fixa mas sim sua
temperatura, que na verdade é fixada pelo reservatório.
Pj é a probabilidade de encontrar o sistema em um micro-estado especı́fico. Mas em geral não
temos um controle tão ”fino” sobre os sistema que apesar de menor que o reservatório também
é macroscópico. Estamos interessados (ou só somos capazes) em conhecer seu macro-estado e
assim queremos a probabilidade de S ter uma dada energia E não importando qual o micro-estado
114 CHAPTER 11. ENSEMBLE CANÔNICO

compatı́vel com tal energia. Como já vimos em outros casos, em geral, há vários micro-estados
com a mesma energia e assim temos que somar sobre eles.
X
P (E) = Pj . (11.14)
j tq Ej =E

Na verdade devemos ter E ≤ Ej ≤ E + ∆E. Como Pj só depende da energia e assim é o mesmo
para todos os micro-estados ele sai da soma e temos
X X
P (E) = Pj = Pj δ(Ej − E). (11.15)
j tq Ej =E j

onde reescrevemos o vı́nculo sobre a soma usando uma delta de Dirac: a segunda soma é sobre
todos os micro estados j, mas com uma delta de Dirac. Já usamos esta soma anteriormente, é
chamamos ela de Ω(E). Assim ficamos com 1

Ω(E)e−βE
P (E) = , (11.16)
Z
1
Ω(E)e−βE , isso porque a soma
P
com β = KB T . Note também que Z pode ser escrito como Z =
E
sobre todos os micro-estados pode ser feita em duas partes: primeiro fixamos a energia e somamos
sobre todos os micro estados com tal energia. Depois somamos sobre todos os valores de energia.
X X X XX X
= = δ(Ej − E) = Ω(E) (11.17)
j E j t.q. Ej =E E j E

Note que a soma sobre E deve ser de 0 a E0 , mas como em geral tomamos o limite termodinâmico
iremos somar de 0 a ∞. Devemos notar também que apesar de S ser muito menor que R, ele
ainda é um sistema macro com muitos graus de liberdade e portanto Ω(E) cresce rapidamente
com E. Ao mesmo tempo e−βE decresce rapidamente com E. Logo P (E) deve exibir um máximo
pronunciado que se torna mais estreito a medida que S aumenta: ∆E → 0 com N→ ∞

Figure 11.2:

11.2 Equilı́brio e Flutuações


Assim, de modo análogo ao que vimos anteriormente, as flutuações na energia de S vão tender a
zero no limite termodinâmico. Veremos que isso leva a equivalência entre os ensembles no limite
termodinâmico: apesar de no canônico E estar livre no limite termodinâmico ela se torna fixa e
portanto o canônico se torna equivalente ao micro-canônico.
De fato o argumento usado aqui é o mesmo que usamos quando estudamos o equilı́brio entre
dois sistemas. A situação é a mesma mas com um sistema (R) muito maior que o outro. Assim
1 Note que o Ω(E) utilizado aqui é o do sistema que é descrito pelo canônico e não do sistema S+R que esta no

micro canônico. Além disso, rigorosamente devemos usar o número de micro-estados com energia entre E e E + δE
e ω(E) é a densidade de micro-estados com energia E, tal que Ω(E)=ω(e)δE. Assim temos a probabilidade de
encontrar o sistema com energia entre E e E+δE o que pode depender de δE. Mas como já vimos o valor de δE não
interfere nas predições de grandezas termodinâmicas no limite termodinâmico.
11.2. EQUILÍBRIO E FLUTUAÇÕES 115

todos os argumentos se aplicam: há um valor mais provável para E e no limite termodinâmico
a distribuição se torna gaussiana com as flutuações relativas tendendo a zero. Naquele caso o
equilı́brio era associado ao estado mais provável, ou seja ao máximo de PS (ES , ER , ESR ), que
ocorria quando
∂ ln ΩS ∂ ln ΩR
= (11.18)
ΩES ˜ ∂ER ˜

ES ER
ou seja
βS = βR ⇒ TS = TR (11.19)
Vamos obter agora o máximo da distribuição canônica PS (E):

∂PS ∂ΩS −βR E
= e − βR ΩS e−βR E = 0 (11.20)
∂E ∂E

!
∂ΩS
− βR ΩS (Ẽ) e−βR Ẽ = 0 (11.21)
∂E


1 ∂ΩS
= βR (11.22)
ΩS (Ẽ) ∂E Ẽ

∂ ln ΩS
= βR (11.23)
∂E

βS = β R (11.24)
e assim vemos que as temperaturas são iguais e que a energia mais provável é a mesma obtida
antes; o que já era esperado. E também temos que a energia média é igual a mais provável: Ẽ = Ē.
Insistindo mais um pouco. Imagine que temos um sistema isolado com uma energia fixa E0
e uma temperatura T0 . Se eu colocar tal sistema em contato com um reservatório térmico que
também tenha temperatura TR = T0 o sistema irá agora trocar energia que não estará mais fixa.
Porém o valor mais provável de sua energia será E0 (sua energia fixa anterior). E no limite N → ∞
as flutuações relativas irão a zero tornando a energia fixa e igual a anterior. Assim os ensembles
são equivalentes. Do ponto de vista matematico, lembremos que a distribuição microcanônica
é Pmc (E) = δ(E − E0 ) e a canônica é uma gaussiana com média E0 que tende a uma delta,
δ(E − E0 ), para N → ∞. Note que é P (E) ∝ Ω(E)e−βE que se torna uma gaussiana e não
Pj ∝ e−βEi (probabilidade de um micro-estado especı́fico)
Voltando a descrição do sistema. Obtivemos uma descrição estatı́stica completa do sistemas, já
que temos a distribuição de probabilidade Pj e P (E). Com elas podemos calcular valores médios de
qualquer outras grandezas do sistema e depois associar tais valores médios (e mais prováveis) com
grandezas termodinâmicas e assim obter a termodinâmica a partir de informação microscópica.
Primeiramente vamos obter a energia média e aproveitar para analisar um pouco mais as
flutuações e justificar as afirmações acima. Temos que
Ej e−βEj
P
X j
E= Ej Pj = P −βEj . (11.25)
j
e
j

Essa soma pode ser feita usando um ”truque” parecido com utilizado no passeio aleatório. Temos
que
∂ X −βEj X
e = −Ej e−βEj . (11.26)
∂β j j
P −βEj
Lembrando que e = Z obtemos
j

∂Z
∂β ∂ ln Z
E=− =− (11.27)
Z ∂β
116 CHAPTER 11. ENSEMBLE CANÔNICO

Logo, para obter E só precisamos da função de partição Z e não de todos os detalhes sobre
a distribuição Pj . Veremos que a partir de Z pode-se obter qualquer grandeza termodinâmica.
2
Podemos ir adiante e obter E 2 para então obter a variância ∆E 2 =E 2 − E . Usando o mesmo
”truque” duas vezes temos
1 ∂ 2 X −βEj
E2 = e . (11.28)
Z ∂β 2 j

Assim 2
1 ∂2

−1 ∂Z
∆E 2 = Z− (11.29)
Z ∂β 2 Z ∂β
e notando que
1 ∂2Z
 
∂ 1 ∂Z 1 ∂Z ∂Z
=− 2
+ (11.30)
∂β Z ∂β Z ∂β ∂β Z ∂β 2
temos que  
∂ 1 ∂Z ∂
∆E 2 = =− (Ē) (11.31)
∂β Z ∂β ∂β
Agora iremos identificar E com a energia interna da termodinâmica fazendo uma conexão
macro/micro. Isso é válido no limite termodinâmica onde as flutuações de E em torno de E são
desprezı́veis como já argumentado. Assim

∂U ∂U
∆E 2 = − = KB T 2 (11.32)
∂β ∂T

onde usei que ∂β = − KB1T 2 ∂T . Logo

∆E 2 = N KB T 2 cV ≥ 0 (11.33)

onde usei ∂U 2
∂T = C = N cV , C é a capacidade térmica e cV é o calor especı́fico a volume constante .
Como vimos no caso do equilı́brio entre dois sistemas, pode-se mostrar que a variância da energia
esta relacionada a segunda derivada de P (E). Assim cV deve ser positivo para termos um máximo
em Pj e não um mı́nimo (temos um sistema termodinâmico estável: aumento de energia leva a
aumento de T ; caso contrário não há equilı́brio).
As flutuações relativas ficam
p √
∆E 2 N KB T 2 cV 1
= ≡√ (11.34)
E Nu N
E
onde u é a energia média por partı́cula u= N . Vemos que as flutuações relativas tendem a zero
quando limite N→ ∞ o que garante a conexão com a termodinâmica. Novamente, esse argumento
é o mesmo utilizado quando estudamos a interação entre dois sistema. A única diferença aqui é que
um deles (R) é muito maior que o outro e portanto sua T não varia. Note também que tomamos
o limite de NS → ∞ e portanto NR também deve ir para ∞ com a razão N NS  1
R

11.3 Conexão micro/macro 1


Como já comentamos antes há várias maneiras de conectar as grandezas microscópicas com as
macroscópicas. No micro-canônico uma das possibilidade foi conectar a entropia termodinâmica
com o ln Ω. Neste caso a entropia não é uma boa grandeza para ser usada, já que seu valor está
flutuando. Assim do lado da termodinâmica devemos procurar usar a energia livre de Helmotz,
que é fixa no equilı́brio como mencionado no inicio. E do lado microscópico? Como motivação
podemos lembrar que a função de partição Z faz o papel do ln Ω; ambos são uma soma sobre os
micro-estados com os devidos pesos probabilı́sticos: 1 no micro-canônico e e−βE no canônico.
2 Aqui aparece c
V e não cP porque mantivemos o volume fixo; e como variamos T com V e N fixos a pressão irá
mudar. De qualquer modo a termodinâmica também exige cP ≥ 0 para a estabilidade térmica
11.4. CONEXÃO MICRO/MACRO 2 117

Assim vamos analisar Z. Notamos que que


X
Ω(E)e−βE ≈ max Ω(E)e−βE .
 
Z= (11.35)
E
E

Isso porque Ω(E)e−βE tem um máximo bem pronunciado e estreito: a soma será dominada pelo
termo de máximo Ẽ. Podemos reescrever

Z = max [exp(ln Ω(E) − βE)] (11.36)


E
Z = max [exp −β(E − KB T ln Ω)] (11.37)
E
 
Z = exp −β min[E − T S] (11.38)
E

Como dito antes em um sistema com T fixa em equilı́brio a grandeza F = U − T S é mı́nima tal
como S é máximo quando E é fixo (ou E é mı́nimo quando S é fixo). E vemos por outro lado que
no estado mais provável, que deve estar conectado ao estado de equilı́brio termodinâmico, temos

1
min E − T S = − ln Z (11.39)
E β
3
Logo podemos conectar minE [E − T S] com F e obter

1
F (T, V, N ) → − ln Z(T, V, N ) (11.40)
β
Rigorosamente a conexão só é válida no limite termodinâmico, onde as flutuações são nulas e
devemos usar as densidades:
F −1 ln Z
f (T, v) ≡ lim → lim (11.41)
N →∞ N N →∞ β N

E a partir de F (ou f ) pode-se obter todas as outras grandezas termodinâmicas (tal como a
partir de S para sistemas isolados) já que

∂F ∂F ∂F
= −S, = −p, =µ (11.42)
∂T ∂V ∂N

V,N T,N T,V

A função de partição Z faz o papel de Ω e F faz o papel de S no ensemble canônico.

11.4 Conexão micro/macro 2


Uma outra maneira de fazer a conexão micro macro é comparar o que ocorre em um sistema
quando este é submetido a um processo quasi-estacionário do ponto de visto termodinâmico e do
ponto de vista microscópico4 . Considere um sistema em contato com um reservatório e portanto
com T fixo. Ou considere que só conhecemos sua energia média. Vamos supor que o sistema é
caracterizado por um único parâmetro externo x (V, N ou campo magnético, etc...). Logo a energia
do micro-estado j depende de x: Ej (x). Num processo onde x é variado lentamente para x + dx
temos que a mudança na energia deste micro-estado é

∂Ej
∆Ej = dx (11.43)
∂x
3 Note que a definição F = E − T S parece depender de E. Mas na verdade ali temos a minimização sobre E.

Outro modo de ver é que S é função de E e cancela essa suposta dependência. Assim temos F (T, V, N ). Isso pode
∂SR
ser visto notando que ∂E∂F
= 1 − TR , ∂E = 1− TT
R ∂F
. No equilı́brio TR = TS e ∂E = 0. Na verdade F é construı́do
S S S S
∂S
para não depender de ES e sim de T = ∂E .
4 Baseado nas seções 6.5 e 6.6 do F. Reif.
118 CHAPTER 11. ENSEMBLE CANÔNICO

O trabalho feito pelo sistema quando ele permanece neste microestado j é igual −∆Ej .5 No caso
de um ensemble temos que obter o valor médio da mudança de energia considerando todos os
possı́veis micro-estados e a probabilidade de serem ocupados. Este valor médio irá corresponder
ao trabalho macroscópico feito pelo sistema:
X X  ∂Ei  e−βEj (x)
dW = − (∆Ej )Pj = − dx (11.44)
j j
∂x Z

Notamos que  
X ∂Ej 1 ∂ X −βEj (x)  1 ∂Z
e−βEj (x) =− e =− (11.45)
j
∂x β ∂x j
β ∂x

assim
1 1 ∂Z 1 ∂ ln Z
dW = dx = dx (11.46)
β Z ∂β β ∂x
Esté é um cálculo microscópico do trabalho feito pelo sistema durante este processo. Do ponto de
vista da termodinâmica temos que
∂U
∆U = dx (11.47)
∂x
e ∆U = −dW (a temperatura está fixa e portando não há troca de calor com o reservatório).
Por outro lado também escrevemos dW = Xdx definindo assim X como a força generalizada:
X = − ∂U ∂x
Comparando as expressões termodinâmicas e microscópicas para o trabalho definimos a força
generalizada média
1 ∂ ln Z
X̄ = (11.48)
β ∂x
e associamos ela com X da termodinâmica obtendo assim uma conexão micro/macro. Nesta
conexão o que fazemos é procurar grandezes microscópicas e termodinâmicas que satisfazem as
mesmas regras durante um processo termodinâmico. Pode-se entender também como a associação
de grandezas macros com valores médios. Temos por exemplo que P = β1 ∂∂V ln Z
. Mas como já dito
nem sempre isso é possı́vel como no caso da temperatura: não temos um modelo microscópico para
a grandeza temperatura.
No micro-canônico analisamos o que ocorria com Ω durante o processo quasi-estático onde o
sistema está sempre no equilı́brio. Aqui iremos olhar para ln Z que é o análogo. Notando que Z é
função de β e x: Z(β, x) temos
∂ ln Z ∂ ln Z
d ln Z = dx + dβ (11.49)
∂x ∂β
Usando a relação acima temos a expressão para a energia média
d ln Z = βdW − Edβ (11.50)
Podemos reescrever em termos de dE ao invés de dβ
d ln Z = βdW − d(Eβ) + βdE (11.51)
d(ln Z + Eβ) = β(dW + dE) = βdQ (11.52)
Acima conectamo a grandeza macro, variação de calor dQ, com dW + dE. Com isso temos uma
conexão entre grandezas micro do lado esquerdo e grandezas macro do lado direito. Esta conexão
pode ser reescrita usando dS = dQ/T e logo βdQ = dS/KB como:
ln Z + Eβ = S/KB (11.53)
KB T ln Z + E = T S (11.54)
−KB T ln Z = E − T S (11.55)
5 Note que estamos considerando que não há troca de calor, já que o processo é quase estático e o sistema

permanece no micro-estado enquanto a energia deste varia. Isto é equivalente a aproximação adiabática na mecânica
quântica. Deste ponto de vista a troca
11.5. ENTROPIA DE GIBBS 119

Identificando E com U e usando que F = U − T S recuperamos a relação


1
F =− ln Z (11.56)
β

Devemos mencionar que acima usamos S = KB (ln Z + βE). Esta definição de S está de acordo
com a ”original” S = −KB ln Ω no limite termodinâmico. Isso pode ser visto usando novamente
que Z ≈ Ω(E)−βE e portanto

S = KB (ln Ω(E) − βE + Eβ) (11.57)

S = KB ln Ω(E) (11.58)
Assim no limite termodinâmico onde E flutua muito pouco em torno de E as duas definições de
entropia coincidem

11.5 Entropia de Gibbs


Há uma outra maneira de escrever a entropia que permite uma conexão com teoria da informação.
Usando que F = U − T S , F = −1/β ln Z, e identificando U com a energia média, temos

S = KB (ln Z + Eβ) (11.59)


X
S = KB (ln Z + β Ej Pj ) (11.60)
j

Queremos obter a entropia como um valor médio e portanto usamos que ZPj = e−βEj e logo
−βEj = ln(ZPj ). Assim temos
X
S = KB (ln Z − (ln Z + ln Pj )Pj ) (11.61)
j
X X
S = KB (ln Z − Pj ln Z − Pj ln Pj ) (11.62)
j j
P P P
Notando que - ln ZPj = − ln Z Pj = − ln Z(1), já que Pj = 1, chegamos a
j j j
X
S = −KB Pj ln Pj (11.63)
j

Esta é outra possı́vel definição de entropia proposta por Gibbs. Ela também é chamada as
vezes de entropia de Shannon já que foi proposta de forma independente por Claude Shannon
como uma medidade da quantidade de informação contida numa distribuição de probabilidade.
Essa conexão pode ser utilizada para argumentar em favor de uma interpretação em termos de
teoria de informação para a entropia termodinâmica.
Note que S=-KB ln Pj e que se Pj = Ω1 temos

1
S = −KB ln = KB ln Ω (11.64)

recuperando assim a definição de Boltzmman
Note também que partindo da definição de Gibbs, Eq. 11.63, poderı́amos obter diretamente
F = − β1 ln Z.
Portanto a definição de Gibbs parece mais geral. Na verdade há discussões sobre qual é a
melhor definição para S. Um dos problemas da definição de Gibbs é que se caso um observador
ganhe alguma informação sobre o sistema as probabilidade poderiam se alterar e portanto alterar
a entropia do sistema e consequentemente sua temperatura. O mero fator de ser tornar consciente
de uma informação sobre o sistema iria alterar uma propriedade fı́sica do sistema. JUSTIFICAR
MELHOR ESSA AFIRMAÇÃO E DAR REFERENCIAS
120 CHAPTER 11. ENSEMBLE CANÔNICO

11.6 Derivação Alternativa do Ensemble Canônico


Obtivemos o ensemble canônico a partir do micro-canônico, considerando que o ”universo” sis-
tema+reservatório está isolado. Porém existem outros modos de obter e justificar a distribuição
de probabilidade de Boltzmann-Gibss

11.6.1 Sistema com Energia Média


Uma outra situação descrita pela distribuição de Boltzmann-Gibbs é quando temos um conjunto,
ensemble, de sistemas, onde não sabemos a energia de cada sistema, mas somente a energia total
de todos os sistemas e a energia média do conjunto.6 Usando ns para o número de sistema com
energia Es e M para o número total de sistemas, a informação disponı́vel sobre o ensemble é
1 X
ns E s = E (11.65)
M s

e X
ns = M (11.66)
s

A prı́ncipio os sistemas do ensemble podem estar em qualquer micro-estado que seja compatı́vel
com as condições acima. E todos estes micro-estados compatı́veis são equiprováveis. A restrição
sobre o valor médio da energia, impõe restrições em como a energia se distribui entre os sistemas.
Ou seja, nas possı́veis configurações do ensemble {n1 , n2 , ...}. Note que para obter E temos que
saber a probabilidade de ter uma dada configuração {n1 , n2 , ...}. Como todos os micro-estados são
equiprováveis tal probabilidade será proporcional ao número de micro-estados compatı́veis com
a configuração {n1 , n2 , ...}. O número de maneiras de arranjar os M sistemas na configuração
{n1 , n2 , ...} é dado por
M!
W {ns } = (11.67)
n1 !n2 !n3 !....
Assim a configuração mais provável é aquela que maximiza W {ns }, sob as condições sobre
a energia média e número de sistemas fixo. Utilizando a aproximação de Stirling e maximizando
ln W restrito aos vı́nculos com multiplicadores de Lagrange pode se obter que o valor mais provável
ñs é dado por
ñs e−βEs
= P −βEs (11.68)
M se

Assim recuperamos a distribuição canônica. Mas note que aqui a variável β não tem um
significado fı́sico direto em termos da temperatura do reservatório. Ela é determinada pela condição
de que a distribuição obtida dá o valor correto para a energia média, ou seja
−βEs
P
s Es e
P −βEs
=E (11.69)
se

Note que obtivemos somente que o valor mais provável é equivalente ao dado pela distribuição
canônica; na verdade obtivemos um valor extremo. Pode-se mostrar que W {ñs } é máximo ex-
pandindo ln W {ns } em torno de ñs . Mais, importante devemos mostrar que a distribuição de
probabilidade esta concentrada ao redor de ñs e por isso podemos ignorar os outros possı́veis val-
ores (flutuações). Para isso deve-se obter o valor médio de ns e n2s e logo as flutuações. No entanto
este problema é um pouco mais complicado e envolve fazer uma integração pelo método do ponto
de sela ou ”steepest descent”. (Veja sec. 3.2 do Pathria)

11.6.2 Princı́pio de Jaynes


A definição de entropia de Gibbs permite um outro modo de justificar as diferentes distribuições
de probabilidades de cada ensemble. A idéia é usar um princı́pio da máxima ignorância proposto
por Jaynes:
6 Baseado na sec. 6.10 do F. Reif
11.6. DERIVAÇÃO ALTERNATIVA DO ENSEMBLE CANÔNICO 121

• A distribuição
P de probabilidade Pj do ensemble é aquela que maximiza a entropia, S =
−KB Pj ln Pj , dado os vı́nculos conhecidos.
j

Se interpretarmos entropia como a ignorância ou falta de informação que temos sobre o sis-
tema, como é feito em teoria de informação, o princı́pio de Jaynes afirma que a distribuição de
probabilidade é aquela que maximiza a ignorância. Me parece, de algum modo, análoga a ideia
de que não devemos fazer hipóteses desnecessárias. Assim usamos a distribuição de probabilidade
que assume que não temos nenhum conhecimento extra sobre o sistema, ou seja, temos ignorância
máxima sobre ele.
Pode-se mostrar, utilizando multiplicadores de Lagrange, que a distribuição Pj que maximiza
S com as restrições de que X X
Pj = 1 e Ej Pj = E (11.70)
j j


e−βEj
Pj =. (11.71)
Z
Note que Z e β à principio são os dois multiplicadores de lagrange e não o Z e β quePusamos
anteriormente. Mas pode-se mostrar que para satisfazer os vinculos devemos ter Z = e−βEj
recuperando a definição anterior. Para β é um pouco mais complicado. Obtemos que
S 1
E− = − ln Z (11.72)
KB β β

Aqui temos que recorrer fazer conexões macro/micro através de identificações que levam a ex-
pressões conhecidas. Vemos por exemplo que identificando
1
β= e F = −KB T ln Z (11.73)
KB T

recuperamoas a expressão F = E − T S e a distribuição de Boltzmann.


Assim obtemos a distribuição de Boltzmann-Gibbs diretamente sem considerar o sistema como
parte de um sistema maior que está isolado.7
Também pode-se mostrar que Pj = Ω1 maximiza S quando a única restrição é
P
Pj = 1
j
Note que pode-se mostrar que maximizar a entropia de Gibbs é equivalente a maximização
de W {ns } P
que fizemos na seção anterior. Isso porque usando a aproximação de Stirling ln W =
M ln M − s ns ln ns e Pns = ns /M .

11.6.3 Correlações e a Distribuição de Boltzmann


Irei apresentar um outro método, ainda mais abstrato, de se obter a distribuição de Boltzmann.8 .
Já enfatizamos a nossa hipótese de que sistema e banho interagem fracamente. Essa hipótese
leva as probabilidades a fatorar PSR = PS PR : estamos desprezando as correlações produzidas
pela interação. Esta derivação é interessante porque parte justamente da hipótese de que as
probabilidades fatoram; ou seja não há correlações.
Iremos agora não somente desprezar as interações entre sistema e banho, mas desprezar as
interações entre as ”partı́culas” que constituem o sistema.9 Assim a energia do sistema será a
simples soma das energias de cada partı́cula:
N
X
E= Ei . (11.74)
i=1
7 Seriainteressante estudar as flutuações e como a hipótese de interação fraca entra nesta derivação
8 Baseado no capı́tulo 4 do livro ”Applicatopns ef classical Physics” by Roger D. Blondford e Kip S. Thorne
9 Note que essas duas coisas são na verdade equivalentes. Isto porque consideramos sistemas homogêneos, assim

a interação entre as partı́culas do sistema e a mesma que ocorre entre as partı́culas na fronteira entre o sistema
e reservatório. Essa hipótese de homogeneidade também exige que num sistema fechado qualquer sub sistema
suficientemente pequeno deve ser descrito pelo ensemble canônico e com a mesma temperatura.
122 CHAPTER 11. ENSEMBLE CANÔNICO

Note que no caso do ensemble canônico isto leva a fatoração das probabilidades:
N N
e−βE Y e−βEi Y
PS (E) = = = Pi (Ei ) (11.75)
Z i=1
Z i=1

Como veremos isso facilitará muito os nossos cálculos já que a função da partição será a de uma
única partı́cula a potência de N .
Mas a ideia é ir além é usar hipótese de que as probabilidades fatoram para ”deduzir” a dis-
tribuição de Maxwell-Boltzmann. Consideramos um ensemble de sistemas que unicamente trocam
energia com um reservatório recebendo uma energia E. Qual a distribuição de probabilidade deste
ensemble? Como o único parâmetro do sistema que pode ser alterado é a energia (as outras
grandezas V , N ,... se mantém fixas) temos que P deve depender somente de E

P = P (E) (11.76)

Mas qual a forma de P (E)? Para isso decompomos nosso sistema em um grande número de subsis-
temas (cada um com a mesma hamiltoniana, já que os constituintes são idênticos) e consideramos
três hipóteses:
1. Cada subsistema também está em equilı́brio e portanto pk = pk (Ek , I1k , I2k , ...). I1k , I2k são
outras grandezas que os subsistemas podem trocar entre si além de energia.
2. Não há correlação entre os subsistemas
Y
p(E) = Pk (Ek , I1k , ...) (11.77)
N

Sempre é possı́vel fazer os subsistemas pequenos o suficiente para desprezar as correlações


P
3. A energia é linearmente aditiva: E = Ek .
k

Pode-se mostrar que a única maneira de satisfazer as hipóteses acima é ter:

ln Pk = −βEk + função de I1k , I2k , ... (11.78)

ln P = −βE + constante (11.79)


com β uma constante. Como β é o mesmo para qualquer subsistema k, ele deve ser alguma
caracterı́stica do reservatório que está em equilı́brio com os os subsistemas. Ou seja, deve estar
relacionado a temperatura. Assim, obtem-se que

P (E) ∝ e−βE (11.80)

Também obtemos que se um sistema está em equilı́brio, subsistemas pequenos também devem
estar e com a mesma T . Assim o resto do sistema pode ser visto como um reservatório para
o subsistema. E nesse caso tanto o subsistema (sistema) como o reservatório são descritos pela
distribuição canônica. Contudo parece haver uma contradição, já que anteriormente consideramos
todos os micro-estados do banho como equiprováveis (PR ∝ ΩR ). A confusão ocorre porque no
tratamento anterior levamos em conta um tipo de correlação entre sistema e reservatório: se a
energia de um aumenta a do outro diminue, já que a total é fixa.

11.7 Resumo
Em resumo, um sistema cuja temperatura T é fixa, em geral devido ao contato com um reservatório
térmico, é descrito pelo ensemble canônico. Neste caso o procedimento é obter a função de partição
Z e fazer a conexão com a termodinâmica usando a relação F = − β1 ln Z. Para então obter todas
as outras grandezas termodinâmicas a partir de derivadas parciais de F .
Assim tudo se resume a contar micro-estados, mas no caso do canônico com o peso e−βE . Como
veremos o canônico oferece a vantagem de que a contagem é mais fácil já que não há restrições sobre
11.8. EXEMPLOS 123

os micro-estados (vı́nculos) como no micro-canônico. Na verdade usar uma média irrestrita, mas
com um peso como uma aproximação de médias restritas a certos valores é um método matemático
de aproximação de grande utilidade.10
Como já dissemos a distribuição de probabilidade caracteriza completamente o sistema do ponto
de vista estatı́stico. Podemos obter qualquer observável calculando seu valor médio. Mas também
vimos que na verdade para obter as propriedades termodinâmicas só precisamos das funções de
partição (Z ou Ω). Qual a vantagem então de conhecer a distribuição de probabilidade? Ocorre, que
existem grandezas de interesse que não possuem correspondência com a termodinâmica. Exemplo
são as probabilidades de encontrar uma dada partı́cula em uma dada posição independente de
seu momento ou a distância média entre duas partı́culas |~ri − ~rj |, ou entre seus momentos. Tais
observáveis são importante e permitem estudar o grau de organização do sistema (caracterizar a
condensação através da formação de gotas, ou a formação de regiões com momentos magnéticos
alinhados (domı́nios magnéticos) )

11.8 Exemplos
11.8.1 Sólido de Einstein
Vamos analisar de novo o modelo de Einstein para um sólido: N osciladores quânticos localizados
e não interagentes, todos com a mesma frequência ω. Mas agora iremos considerar que o sistema
está em contato com um reservatório R (ou banho) térmico que troca energia com o sistema, mas
mantém sua temperatura fixa e igual a de R. Em suma não temos controle sobre a energia do
sistema, mas sim sobre sua temperatura.
Como cada oscilador é quântico ele só pode assumir alguns valores i para a energia:
 
1
i = + ni ~ω ; ni = 0, 1, 2, ... (11.81)
2

ni é chamado de quanta energia de cada oscilador. O micro-estado de cada oscilador é dado por
ni e logo o micro-estado do sistema e dado pela lista {ni } ≡ {n1 , n2 , .., nN }.11 A energia total fica
N  
X 1
E({ni }) = + ni ~ω (11.82)
i=1
2

No micro-canônico tı́nhamos que obter o número de micro-estados compatı́veis com uma dada
energia: como distribuir os quanta de energia entre os osciladores mantendo E fixa. Aqui somamos
todos os micro-estados possı́veis para todos os possı́veis valores de energia com o peso de Boltzmann.
A função de partição fica X
Z= e−βE({ni }) (11.83)
{ni }

com s soma sobre {ni } sendo sobre todos os possı́veis micro-estados, logo todos os possı́veis con-
juntos ni . Essa soma pode ser reescrita como
∞ X
∞ ∞
( 12 +ni )~ω
P
X X X −β
Z= e−βE({ni }) = ... e i (11.84)
{ni } n1 =0 n2 =0 nN =0

Note que como estamos no limite termodinâmico a energia total varia de 0 a infinito e as somas
são independentes: não há vı́nculos entre os ni já que E não está fixa. Ou seja, as somas fatoram.
10 Veja sec. 6.8 do F. Reif. Mas note que os valores médios serem equivalentes nos diferentes ensembles, não
garante que flutuações serão as mesmas. No caso do micro-canônico por exemplo, as flutuações são estritamente
zero, mas não no canônico. Ou seja uma coisa é achar uma aproximação para uma distribuição de probabilidade que
forneça os valores corretos para a média, ou primeiro momento. Agora se queremos aproximar também as flutuações
ou até mesmo momentos maiores, o problema pode ser mais complicado
11 Lembrando que estamos considerando os osciladores como distinguı́veis e por isso temos informação sobre a

energia de cada um deles. Essa é uma boa aproximação já que os osciladores estão localizados e portanto podem
ser diferenciados por sua posição.
124 CHAPTER 11. ENSEMBLE CANÔNICO

Além disso como não há energia de interação a exponencial também fatora e temos:
∞ ∞ ∞
1 1 1
X X X
Z= e−β( 2 +n1 )~ω e−β( 2 +n2 )~ω ... e−β( 2 +nN )~ω (11.85)
n1 =0 n2 =0 nN =0

Cada umas das somas são iguais e assim

Z = Z1N (11.86)

com

1
X
Z1 = e−β( 2 +n)~ω (11.87)
n=0

a função de partição de um único oscilador.


Sempre que tratarmos sistemas não interagentes teremos essa ”fatoração” da função partição.
O problema se resume do problema de 1 partı́cula e só precisamos obter Z1

X n
Z1 = e−β~ω/2 e−β~ω . (11.88)
n=0

∞ n
e−β~ω
P
A soma é uma progressão geométrica que pode ser calculada facilmente:
n=0


X
S= an = 1 + a + a2 + ... = 1 + a(1 + a + a2 + ...) (11.89)
n=0

S = 1 + aS (11.90)

S(1 − a) = 1 (11.91)
1
S= (11.92)
(1 − a)
logo
e−β~ω/2 1
Z1 = = (11.93)
1 − e−β~ω 2 sinh(β~ω/2)
Assim vemos que a soma no caso canônico é mais simples e não envolve somas restritas que levam
a problemas de combinatória.
Toda a informação microscópica está contida em Z. Agora precisamos fazer a conexão com a
termodinâmica usando
1 ln Z
f = lim − (11.94)
N →∞ β N
Temos então
e−β~ω/2
 
1
f = lim − N ln (11.95)
N →∞ βN 1 − e−β~ω
 
1 β~ω −β~ω
f =− − − ln(1 − e ) (11.96)
β 2

+ KB T ln(1 − e−β~ω )
f= (11.97)
2
E a partir de f pode-se obter todas as propriedade termodinâmicas do sistema. Em particular a
entropia por oscilador fica 12
∂f
s(T ) = − (11.98)
∂T
12 Note o sinal -; lembrando f = u − T s
11.8. EXEMPLOS 125

Note que coloquei a dependência em T para enfatizar que essa é a variável independente que
controlamos e não E como no micro-canônico. Derivando temos
  
1 ~ω
s(T ) = − KB ln(1 − e−β~ω ) + KB T (−e−β~ω
) (11.99)
1 − e−β~ω KB T 2

e−β~ω
 

s(T ) = −KB ln(1 − e−β~ω ) + KB (11.100)
KB T 1 − e−β~ω
Vemos que no micro-canônico temos s(u) e não s(T ) e por isso as expressões para s a primeira
vista parecem diferentes. Mas se obtermos u(T ), invertermos para ter T (u) e substituir em s(T )
teremos s(u) e recuperamos o obtido no micro-canônico.
A partir de s(T ) pode-se obter o calor especı́fico a volume constante 13
∂S
cV = T (11.101)
∂T

e−β~ω
    
1 ~ω ~ω ~ω −1 ~ω
cV = KB T − (−e−β~ω ) − + (e β~ω
)
1 − e−β~ω KB T 2 KB T 2 1 − e−β~ω KB T (eβ~ω − 1)2 KB T 2
(11.102)
 2 ~ω
~ω e KB T
cV = KB ~ω (11.103)
KB T (e KB T − 1)2
Você pode, e deve, verificar que o resultado é o mesmo obtido no ensemble micro-canônico.
Podemos obter também o potencial quı́mico
∂F ∂ F
µ= = (N f ) = f = (11.104)
∂N ∂N N
e a pressão
∂F
p=− =0 (11.105)
∂V
o que era esperado já que no nosso modelo os osciladores estão fixos, ou melhor, oscilando em torno
de um ponto fixo, e não podem exercer pressão.
Pode-se obter também a energia interna por oscilador. Ela está associada a energia média do
ensemble. E como já enfatizamos, apesar da energia não estar fixa as flutuações em torno da
média tendem a zero no limite N → ∞ e portanto pode-se associar U com E. Há dois modos de
obter u(T ). Usando f = u − T s e as expressões obtidas para f (T ) e s(T ). Ou pode-se calcular
diretamente E. Como vimos
∂ 1 ∂ ∂
E=− ln Z → u = − ln Z = − ln Z1 (11.106)
∂β N ∂β ∂β
Assim   −β~ ω 
∂ e 2
u=− ln −β~ω
(11.107)
∂β 1−e
 
~ω 1
u=− − − (−e−β~ω )(−~ω) (11.108)
2 1 − e−β~ω
~ω ~ω
u(T ) = + β~ω (11.109)
2 e −1
Também pode-se verificar que o resultado é igual ao obtido no micro-canônico (ou se usarmos
f = u − T s).
Em suma as propriedade fı́sicas do sistema são as mesmas em ambos os ensembles: são somente
diferentes maneiras de descrever o mesmo sistema.
Como anteriormente vemos que no limite de
13 Também poderı́amos obter primeiro a energia média E para então obter c ∂U
V = ∂T
. Aqui estamos usando
∆U = ∆Q = T ∆S quando V é constante.
126 CHAPTER 11. ENSEMBLE CANÔNICO

• alta temperatura ou clássico: KB T  ~ω: u(T ) → KB T e cV é constante

• baixa temperatura ou quântico: kB T  ~ω: u(T ) → ~ω/2 que é a energia de ponto zero
ou do vácuo quântico

Por último temos que como todos os osciladores são idênticos


X
H= Hi = N Hi (11.110)
i

e assim
H
i ≡ Hi = =u (11.111)
N
 
1 1
i = ~ω + β~ω (11.112)
2 e −1
com i energia média do oscilador i que vemos não depender de i: igual para todos os osciladores.
Por outro lado  
1
 = ~ω +n (11.113)
2
onde descartei o ı́ndice i, já que são todos iguais. Logo
 
1
 = ~ω +n (11.114)
2
e
1
n= (11.115)
eβ~ω −1
onde n é o número quântico médio de cada oscilador. Ou seja, é o número médio de quantas de
energia, ou de excitação, de cada oscilador. Esse resultado já foi obtido no micro-canônico, mas
de maneira mais difı́cil. Ele também irá aparecer no estudo de bósons.

11.8.2 Paramagneto Ideal Clássico


(baseado na sec. 3.9 pathria)
Iremos estudar um sistema de N dipolos magnéticos de momento magnético µ na presença
de um campo magnético H. Como de costume iremos considerar que não há interação entre os
dipolos e que estes estão localizados. Como já mencionado no caso do ensemble micro-canônico este
modelo descreve uma paramagneto: sistema que adquire magnetização finita somente na presença
de um campo externo.
Sabemos que os dipolos na presença de um campo H sofrem um torque que tenta alinha-
los na direção do campo. Se o sistema estiver isolado todos os dipolos irão se alinhar com o
campo e o sistema estará completamente magnetizado. Mas se o sistema estiver em contato
com um reservatório térmico, sua energia estará flutuando; teremos flutuações térmicas. Esta
flutuações térmicas ”tentam” evitar o completo alinhamento dos dipolos: há uma competição
entre as flutuações térmicas tentando ”desordenar” o sistema e o campo que tentar ordenar. No
equilı́brio térmico obtemos uma magnetização parcial do sistema que depende da temperatura.
No caso clássico temos que a energia dos dipolos é dada pela energia potencial devido a interação
com o campo:
XN XN
E=− µ ~ = −µH
~ i .H cos θi (11.116)
i=1 i=1

com θi o ângulo entre o dipolo µ~ i e o campo H ~


A função de partição de uma partı́cula fica
X
Z1 = exp(βµH cos θ) (11.117)
θ
11.8. EXEMPLOS 127

Classicamente o dipolo pode apontar em qualquer direção, assim iremos integrar sobre todas
as direções usando o ângulo sólido sin θdθdφ
Z 2π Z π
Z1 = eβµH cos θ sin θdθdφ (11.118)
0 0

ea cos θ sin θdθ que é direta se


R
A integração em φ da 2π e fica faltando fazer uma integral do tipo
notarmos que − a1 dθ
d a cos θ
e = sin θea cos θ . Assim
−1 π −1 −βµH sinh βµH
Z1 = 2π eβµH cos θ 0 = 2π (e − eβµH ) = 4π (11.119)
βµH βµH βµH
A energia livre de Helmholtz fica
 
−N sinh βµH
F = ln 4π (11.120)
β βµH

Como mencionamos uma das grandezas de maior interesse é a magnetização total do sistema
que é dada pela soma da magnetização média de cada dipolo

µ cos θeβµH cos θ


P
Mz = N µz = N hµ cos θi = N θP βµH cos θ (11.121)
θe

que pode ser escrito como


N ∂ 1 ∂ ∂F
Mz = ln Z1 = ln[(Z1 )N ] = − (11.122)
β ∂H β ∂H ∂H
Assim temos   
N βµH cosh(βµH) sinh(βµH)
Mz = βµ − (11.123)
β sinh(βµH) βµH βµH 2
e logo  
1
µz = µ coth(βµH) − = µL(βµH) (11.124)
βµH
onde introduzimos a função de Langevin L(x) = coth x − 1/x. Deve-se notar que o parâmetro
relevante é KµH
BT
, a razão entre a energia de dipolo e a energia térmica.
No caso de baixas temperatura ou altos campos, KµH BT
 1, temos que L(x) ≈ 1 e logo

lim µz = µ (11.125)
µH/KB T →∞

ou seja quase todos os dipolos estão orientados com o campo; como esperado.
No limite de altas temperaturas ou baixos campos, KµH BT
 1 temos L(x) ≈ x/3 − x3 /45 e logo

1 µH
lim µz = µ (11.126)
µH/KB T →0 3 KB T

A susceptibilidade magnética isotérmica a altas temperaturas fica

µ2 1
 
∂Mz
χT ≡ lim ≈N , (11.127)
H→0 ∂H T 3KB T

ou seja, decai com 1/T , o que é conhecido como Lei de Curie do paramagnetismo.

11.8.3 Paramagneto Ideal Quântico


Vamos considerar agora os nossos dipolos como quânticos; eles não podem assumir qualquer direção
ou modulo. Lembrando que o momento magnético µ ~ e o momento angular ~l de um dipolo estão
e ~
~ = (g 2mc )l e que o modulo do momento angular só pode assumir os valores l2 =
relacionados: µ
2 e
J(J + 1)~ com J inteiro ou semi-inteiro positivo. A quantidade (g 2mc ) é chamada de fator
128 CHAPTER 11. ENSEMBLE CANÔNICO

giromagnético, enquanto g é o fator de Lande que vale 2 para momentos magnéticos de spins e 1
para momentos magnéticos devido a movimentos orbitais 14 . Assim podemos escrever
µz = gµB m ; m = −J, −J − 1, ..., J − 1, J (11.128)
e~
com µB = 2mc o magneton de Bohr. A Hamiltoniana fica
N
X N
X
H= −µ~i .H = gµB H mi (11.129)
i=1 i=1

Como os dipolos não interagem vamos obter primeiro a função de partição de uma partı́cula
J J 2J
X X X 0 e(2J+1)a − 1
Z1 = exp(βgµB Hm) = (ea )m = e−aJ (ea )m = e−aJ (11.130)
ea − 1
m=−J m=−J m0 =0

onde definimos a = βgµB H’, fizemos a mudança de variável m0 = m + J e utilizamos que a soma
de uma PG finita (a + ar + ar2 + ... + arM ) é (arM +1 − a)/(r − 1). E conveniente reescrever como

e(2J+1)a/2 e(2J+1)a/2 − e−(2J+1)a/2 sinh [(2J + 1)a/2]


Z1 = e−aJ = (11.131)
ea/2 ea/2 − e−a/2 sinh(a/2)
E portanto temos
sinh [(J + 1/2)βgµB H]
Z1 = (11.132)
sinh( 12 βgµB H)
Assim temos a função de partição e podemos obter a energia livre de Helmotz
 
N sinh [(J + 1/2)βgµB H]
F = − ln (11.133)
β sinh( 12 βgµB H)
e então todas as propriedades termodinâmicas.
Em particular, neste modelo estamos interessados no momento magnético médio do sistema
que será uma expressão um pouco complicada
µz = gµB JBJ (x) (11.134)
com x = β(gµB JH) a razão entre a energia de um spin J com a energia térmica e BJ (x) a função
de Brillouin de ordem J:
      
1 1 1 1
BJ (x) = 1 + coth 1 + x − coth x (11.135)
2J 2J 2J 2J
Essa função é um pouco complicada, e deve ser analisada graficamente. Assim iremos estudar
casos limites de interesse. Primeiro a baixas temperatura, x  1, onde BJ (x) ≈ 1 para qualquer
J. Assim temos quase todos os spins alinhados com o campo
µz ≈ gµB J para β(gµB JH)  1 (11.136)
No limite de altas temperaturas, ou baixos campos, temos BJ (x) ≈ (1 + 1/J)x/3 e logo
(gµB J)2 1 g 2 µ2B J(J + 1)
µz ≈ (1 + )H = H para β(gµB JH)  1 (11.137)
3KB T J 3KB T
Assim a altas temperaturas a susceptibilidade magnética fica
g 2 µ2B J(J + 1)
χ= (11.138)
3KB T
e temos novamente uma lei de Curie. Note que neste caso a constante de Curie fornece informação
sobre o produto gJ(J + 1). Ela pode fornecer informação sobre o valor de J ou sobre o valor de g,
ou seja, sobre a origem do magnetismo; se devido a spin, momento orbital ou se ambos.
14 Note que o fator de 2 para o spin não pode ser obtido por um modelo clássico de spin, mas somente na mecânica

quântica relativista
11.8. EXEMPLOS 129

Figure 11.3: Retirado do Greiner. Função de Brillouin.

11.8.4 Partı́culas com 2 nı́veis de energia


Temos um sistema de N partı́culas não interagentes e em equiibrio com um reservatı́rio a tem-
peratura T . Cada partı́cula pode ter duas energias 1 = 0, 0 =  > 0. Este sistema descreve o
paramagneto de spins 1/2, átomos com dois nı́veis (em geral o átomo tem mais de dois nı́veis mas
existem regimes onde somente dois deles são relevantes)
A energia total do sistema não é fixa e pode variar; o que está fixo é sua temperatura. O
micro-estado é dado por uma lista com o valor da energia de cada partı́cula: {j1 , j2 , ..., jN }. Na
verdade podemos ter uma lista indicando os nı́veis diretamente: {j1 , j2 , ..., jN }. Para simplidicar a
notação usamos {jk } para um dado micro-estado. Note que estamos considerando que as partı́culas
são distinguı́veis e portanto trocar o estado de duas partı́culas gera um novo micro-estado. Isto é
válido se as partı́culas estiverem localizadas e não livres em uma caixa.
A energia tota do sistema é
XN
E({jk }) = jk (11.139)
k=1
Somar sobre todos os micro-estados com diferentes energias é somar sobre todos as possı́veis
configurações de nı́veis jk . Assim a função de partição é

X
Z= exp [−βEi ({jk })] (11.140)
{jk }
" N
#
X X
Z= exp − βjk (11.141)
{jk } k=1
" N
#
X X
Z= exp − βjk (11.142)
j1 ,j2 ,...,jN k=1
X Y
Z= exp [βjk ] (11.143)
j1 ,j2 ,...,jN k
X X X
Z= exp [−βj1 ] exp [−βj2 ] ... exp [−βjN ] (11.144)
j1 j2 jN

O somatório fatoriza já que as partı́culas não interagem e a energia não está fixa
 N
X
Z= exp [−βj ] (11.145)
j
130 CHAPTER 11. ENSEMBLE CANÔNICO

Figure 11.4: Retirado do Pathria. As linhas contı́nuas representam a predição teórica. Os pontos
são os resultados experimentais para ”potassium chromium alum” (J=3/2, curva I), ”iron ammonia
alum” (J=5/2, curva II) e ”gadolinium sulphate octahydrate” (J=7/2, curva III).

Z = Z1N (11.146)
com

Z1 = e−β(0) + e−β() (11.147)


−β
Z1 = 1 + e (11.148)

Como já comentamos a soma sobre micro-estados pode ser feita em duas partes: uma soma
sobre micro-estados com energia fixa e uma soma sobre energia. Vamos refazer a soma deste modo
para ilustrar. Temos que a função de partição pode ser escrita como
X X X X X
exp [−βE({jk })] = exp [−βE({jk })] = exp [−βE({jk })]
{jk } E {jk } E {jk }
E({jk })=E E({jk })=E
(11.149)
Note que a segunda soma é sobre todos os micro-estados com um dada energia fixa, por isso o
termo exponencial não varia é pode sair da soma. E essa é a soma que fizemos no micro-canônico
e temos
X N!
= Ω(E, N ) = (11.150)
N1 !N2 !
{jk }
E({jk })=E

com Ni o número de partı́culas com energia i . Usando está expressão podemos obter a função de
partição usando X
Z= Ω(E)e−βE . (11.151)
E

A soma em E se torna uma soma em N1 ou N2 ; lembrando que como N = N1 + N2 é fixo somente


11.8. EXEMPLOS 131

um dos Ni é independente e vamos somar somente sobre N2 . Assim


N
X N!
Z= e−βN2  (11.152)
N2 !(N − N2 )!
N2 =0

Esta soma se parece com a do binômio de Newton, porém esta faltando um dos termos: o termo
elevado a N − N2 . Porém como 1 = 1N −N2 temos
N N
X N! X N!
Z= (e−β )N2 1N −N2 = (p)N2 q N −N2 (11.153)
(N − N2 )!N2 ! n =0
(N − N 2 )!N 2 !
N2 =0 2

com p = e−β e q = 1 e portanto


Z = (1 + e−β )N (11.154)
que é o mesmo resultado obtido anteriormente.
Como já vimos a partir de Z podemos obter todas as propriedades termodinâmicas. Primeiro
obtemos a energia liver de Helmholtz por partı́cula.

F 1
f = lim = lim − ln Z (11.155)
N →∞ N N →∞ βN

1
f = lim − N ln(1 + e−β ) (11.156)
N →∞ βN
f = −KB T ln(1 + e−β ) (11.157)
Logo podemos obter a entropia por partı́cula

e−β
 
∂f 
s(T ) = − = KB ln(1 + e−β ) + KB T (11.158)
∂T 1 + e−β KB T 2

 e−β
s(T ) = KB ln(1 + e−β ) + (11.159)
T 1 + e−β
Nos casos limites temos:

• KB T   : s(T ) → KB ln 2

• KB T   : s(T ) → 0

O limite de baixa temperatura está em acordo com a 3a lei da termodinâmica: S deve ir a zero
para T → 0. Já o caso de alta temperatura vem do fato de que a T  1 os dois micro-estados se
tornam equiprováveis.
O calor especı́fico fica

e−β  e−β −eβ


   
∂S   −
cV = T = T KB − T + T (11.160)
∂T 1 + e−β KB T 2 T 2 1 + e−β T (eβ) + 1)2 KB T 2
2
eβ


cV = KB (11.161)
KB T (1 + eβ )2
2
e−β


cV = KB (11.162)
KB T (1 + e−β )2
Aqui novamente recuperamos a expressão obtida no caso micro-canônico. O casos limites ficam:

• KB T   cV → 0

• KB T   cV → 0
132 CHAPTER 11. ENSEMBLE CANÔNICO

Figure 11.5: Retirado do Salinas

Vemos que o calor especı́fico é nulo a baixas e altas temperatura e têm um máximo em torno de
KB T ∼ . Este comportamento é uma caracterı́stica importante de sistemas com partı́culas que
podem ocupar um número finito de nı́veis de energia discretos e que tem uma gap entre o estado
fundamental e os estados excitados. Ele é chamado de ”efeito Schottky”. O gap a faz com que um
acréscimo de energia menor que o gap não consiga tirar o sistema do estado fundamental e elevar
sua T fazendo assim cV = 0. Por outro lado, a altas temperaturas há uma saturação dos nı́veis de
alta energia que são finitos e um acreécimo de energia não consegue alterar muito esta distribuição
e excitar ainda mais o sistema fazendo assim cV = 0
Vamos obter a energia por partı́cula usando f = u − T s

e−β
u(T ) = f + T s = (11.163)
1 + e−β

Que também é igual a obtida para o micro-canônico quando a energia era fixa. Os limites de
u(T ) ficam:

• KB T   : u(T ) → /2

• KB T   : u(T ) → 0

Devemos lembrar que esta sistema pode assumir T < 0 já que tem um limite superior para a
energia. Vemos que u(T ) aumenta com T de 0 a /2 e que a T < 0 o sistema tem mais energia que
a T > 0 e nesse sentido a temperatura negativa é mais ”quente” que a positiva.
No caso do canônico podemos considerar diretamente uma única partı́cula e a probabilidade
de encontrá-la nos nı́veis 1 = 0 e 2 =  é

1 e−β
P (1 ) = P (2 ) = (11.164)
Z1 1 + e−β

Como obtido anteriormente no micro-canônico de modo ”indireto” olhando para o número de


partı́culas num dado nı́vel. Qua a energia média por partı́cula é igual a energia média de uma
partı́cula é consequência das partı́culas não interagirem.
Vamos analisar os limites de P (1 ) e P (2 )

• Para T → 0, temos u → 0(β → ∞): P1 → 1 e P2 → 0 : todas as partı́culas estão no nı́vel


mais baixo (estado fundamental),
1 1
• Para T → ∞, temos u = /2(β → 0): P1 → 2 e P2 → 2: os dois nı́veis estão igualmente
populados
11.8. EXEMPLOS 133

Figure 11.6: Retirado do Salinas

Por último podemos obter s(u) substituindo T (u) em s(T ). Primeiro usando u(T ) obtemos
T (u)
e−β 
u(T ) = −β
= β (11.165)
1+e e +1
Assim temos
u(eβ + 1) =  (11.166)
β
ue =−u (11.167)
ln u + β = ln( − u) (11.168)
−u
β = ln (11.169)
u
 
1 −u
β = ln (11.170)
 u
 
1 1 −u
= KB ln (11.171)
T  u
Lembrando que
 1 e−β
s(T ) = KB ln 1 + e−β +

(11.172)
T 1 + e−β
temos
e−β
   
1 −u
s(T ) = KB ln + KB ln u (11.173)
u  u
  
 u −u
s(T ) = KB ln − β + ln (11.174)
u  u
    
 −u u −u
s(T ) = KB ln − ln + ln (11.175)
u u  u
  
  u  −u
s(T ) = KB ln + − 1 ln (11.176)
u  u
h  u   u u i
s(T ) = KB ln + − 1 ln 1 − − ln (11.177)
h u u   u 
 i
u

s(T ) = KB ln − 1 − ln 1 − (11.178)
 u    
u u u u
s(T ) = −KB ln − 1 − ln 1 − (11.179)
   
Pode-se checar que esse resultado é igual ao obtido no micro-canônico, mostrando mais uma vez a
equivalência entre os ensembles.
134 CHAPTER 11. ENSEMBLE CANÔNICO

11.9 Conexão entre os ensembles


Ja argumentamos fisicamente que o ensemble micro-canônico e canônico são equivalente no limite
termodinâmico, visto que as flutuações tendem a zero neste limite. Também vimos que os resultados
obtidos para as grandezas fı́sicas são os mesmos. Isto é esperado, já que as propriedades fı́sicas dos
sistemas não devem depender de como medimos elas: podemos medir uma propriedade, isolando
o sistema e fornecendo energia de forma controlada ou podemos colocar ele em contato com um
banho térmico que fornece energia conforme variamos a temperatura do banho.15
OLHAR AS DEFNICOES DE C EM TERMOS DE DERIVADAS NOS DOIS ENSEMBLES
PARA COMENTAR A DIFERENCA
Vamos estudar de modo um pouco mais formal e matemático a equivalência entre os ensembles
micro-canônico e canônico. Temos a seguinte correspondência

micro-canônico canônico
Variável conhecida E T
Potencial Termodinâmico S F
Função de partição Ω Z

A equivalência vem do fato de que as variáveis do lado esquerdo e direito estão conectadas.
Na termodinâmica, por exemplo, temperatura e energia estão conectadas por um derivada, T =
∂E
∂S ; e dizemos que T e E são variáveis conjugadas. Além disso S e F estão relacionadas por
uma transformada de Legendre: uma é a transformada de Legendre da outra (a transformada de
Legendre é uma transformada como a de Fourier ou Laplace). Ou seja, conhecer a função ou sua
transformada é equivalente já que a partir de uma pode-se obter a outra: as duas contém a mesma
informação, são somente modos distintos de representar. Isso justifica matematicamente o fato de
S e F conterem a mesma informação sobre o sistema; a partir de ambos pode-se obter todas as
grandezas termodinâmicas.
Mas qual a relação entre Ω e Z? Para analisar isso iremos considerar um sistema clássico usando
o espaço de fases. A probabilidade de encontrar o sistema com um micro-estado numa região dq ~ dp
~
centrada em ~q e p~ é
~ dp
e−βH(~q,~p) dq ~
dP (~q, p~) = 3N
. (11.180)
Z h0
A probabilidade dP sistema ter energia entre E e E + dE é
Z ~ dp
e−βE dq ~
dP (E) = 3N
. (11.181)
E≤H(~
q ,~
p)≤E+dE Z h0

e−βH
Para dE pequeno posso tirar Z da integral e temos

e−βE
Z ~ dp
dq ~
dP (E) = 3N
(11.182)
Z E≤H(~
q ,~
p)≤E+dE h0

~ dp/h
~ 3N é o número de micro-estados em uma camada do espaço de fase
R
A integral E≤H≤E+dE dq 0
de espessura dE. No micro-canônico havı́amos chamado essa integral de ∆Φ. E vimos que

∆Φ(E) = Ω(E)dE (11.183)

com Ω(E) a densidade de estados. Assim

e−βE
dP (E) = Ω(E) dE (11.184)
Z
15 Não confundir com o fato de que o calor especı́fico pode depender do processo no qual o sistema é submetido

se a pressão ou volume constante. Além disso, para sólidos em geral sempre se mede cP porque não temos controle
sobre o volume do sólido que pode se expandir ou contrair. Em geral o calor especı́fico é medido isolando-se o
sistema e fazendo um processo adiabático onde um pulso de energia e fornecido ao sistema e observa como ele relaxa
ao equilı́brio térmico novamente
11.10. BREVE DIGRESSÃO SOBRE A TRANSFORMADA DE LAPLACE INVERSA 135

R∞
e a função de partição pode ser obtida usando que 0 dP (E) = 1 e logo
Z ∞
Z= dE Ω(E) e−βE (11.185)
0

Portanto vemos uma relação entre Ω(E) e Z: dado Ω(E) pode-se obter Z. Pode-se obter também
uma relação inversa: obter Ω(E) a partir de Z.
A relação entre Ω(E) e Z(β) é uma por uma transformada de Laplace. Mas para a trans-
formação estar bem definida β deve ser complexo. Assim temos que tratar β como um simpes
parâmetro (sem conexão com a temperatura) e estênde-lo para o plano complexo; considerar a
continuação analı́tica de Z(β) no plano complexo β. Neste caso
Z ∞
Z(β) = dE Ω(E) e−βE (11.186)
0

é uma função analı́tica de β com <[β] > 0 para garantir que a integral é limitada para todo valor
de E.
Pode-se então fazer a transformada inversa para obter
Z β 0 +i∞
1
Ω(E) = dβ eβE (11.187)
2πi β 0 −i∞

com β = β 0 + iβ 00 e β arbitrário mas positivo; β >0


Assim estabelecemos uma relação formal completa entre os dois ensembles mostrando que eles
carregam a mesma informação.
Pode-se ir além e mostrar que as transformações de Laplace e Legendre estão relacionadas no
limite termodinâmico (veja a discussão no Am. J. Phys, 77,614(2009)).

11.10 Breve digressão sobre a transformada de Laplace in-


versa
0
Para obter a transformada de Laplace inversa multiplicamos a transformada dos dois lados por eβE
e integramos em um contorno C do plano complexo que é uma reta vertical. Definindo β = β 0 +iβ 00
com β 0 , β 00 ∈ < mas β 0 > 0. Obtemos
Z ∞
Z(β) = dE g(E) e−βE (11.188)
0
0
Z β +i∞ Z β 0 +i∞ Z ∞
βE 0 0
−E)
dβ Z(β) e = dβ dE g(E) eβ(E (11.189)
β 0 −i∞ β 0 −i∞ 0

COLOCAR FIGURA

No contorno C dβ = idβ 00 já que β 0 é fixo.


Como o integrando é analı́tico podemos trocar a ordem de integração do lado direito e fazer
primeiro a integral em β que fica
Z β 0 +i∞ Z +∞
0 0
−E) +iβ 00 (E 0 −E)
dβ eβ(E =i dβ 00 eβ (11.190)
β 0 −i∞ −∞

Z β 0 +i∞ Z ∞
β(E 0 −E) β 0 (E 0 −E) 00
(E 0 −E)
dβ e =ie dβ 00 eiβ (11.191)
β 0 −i∞ −∞
Z β 0 +i∞
0 0
−E) (E 0 −E)
dβ eβ(E = i eβ 2π δ(E 0 − E) (11.192)
β 0 −i∞
136 CHAPTER 11. ENSEMBLE CANÔNICO

Voltando a integral toda ficamos com


Z β 0 +i∞ Z
βE 0 0
(E 0 −E)
dβ Z(β) e = dE g(E) 2πi eβ δ(E 0 − E) (11.193)
β 0 −i∞

Z β 0 +i∞
0
dβ Z(β) eβE = 2πi g(E 0 ) (11.194)
β 0 −i∞

e assim Z β 0 +i∞
1 0
g(E) = dβ Z(β) eβE (11.195)
2πi β 0 −i∞
Chapter 12

Gás Clássico no Canônico e


Aproximações para Sistemas
Interagentes

Neste capı́tulo temos dois objetivos. Primeiro analisar o gás ideal no ensemble canônico, visto
que é o sistema macroscópico mais simples e conhecido. Queremos também mostrar como o en-
semble canônico simplifica a analise e como recuperamos os resultados do micro-canônico e da
termodinâmica. Um segundo objetivo é estudar sistemas onde a interação entre as partı́culas não
pode ser desprezada. Para isso apresentaremos métodos de aproximação como a expansão de virial,
a expansão de alta temperatura e a expansão de cluster.

12.1 Gás Ideal


Vamos analisar novamente o gás clássico: um sistema de N partı́culas de massa m contido num
volume V e descrito pela seguinte habiltoniana.
X p2 X
i
H= + ri − r~j |)
V (|~ (12.1)
i
2m i<j

Note que a soma e sobre i < j para evitar somarmos duas vezes a interação entre duas partı́culas e
o termo de interação só depende da distância entre as partı́culas (o que ocorre para a maior parte
das interações mas não para todas, como a interação de dipolo por exemplo)
Um potencial realı́stico deve ter duas caracterı́sticas:

• V (r) → ∞ para r → 0 : as partı́culas são impenetráveis

• V (r) → 0 para r → ∞ : a interação deve se anular a distância muito grande (mais rápido
que 1r para o limite termodinâmico estar bem definido)

COLOCAR FIGURA

A forma exata do potencial deve ser obtido, por primeiros princı́pios a partir da mecânica
quântica. Este cálculo em geral é muito difı́cil e por isso se usa uma forma simples e fenomenológica.
Um potencial tı́pico e que pode ser tratado analiticamente, é o potencial de Lennard-Jones
h σ σ i
VLJ (r) = 4 ( )12 − ( )6 (12.2)
r r
Para Ar pode exemplo temos σ = 3,4.10−10 m e  = 1,6.10−21 J

137
138CHAPTER 12. GÁS CLÁSSICO NO CANÔNICO E APROXIMAÇÕES PARA SISTEMAS INTERAGENTES

A parte atrativa se deve a interação induzida de dipoli-dipolo de átomos neutros. A atração


resultante é chamada de potencial de Van der Waals. A parte repulsiva vem do princı́pio de
exclusão de Pauli que impede dois férmios de ocupar o mesmo estado quântico (como veremos no
estudo de gases quânticos)
Outro potencial bem mais simples é o de esfera dura que considera o potencial infinito a partir
de uma certa distância:
(
∞ para r < r0 (esfera rı́gida)
V (r) (12.3)
−V0 ( rr0 )6 ; para r > r0

Dado o potencial e logo a Hamiltoniana o objetivo e obter a função de partição que no caso de
sistemas classicos é uma integral no espaço de fase com o peso de Boltzmann para cadamicro-estado
Z Z Z Z Z
−βH
Z = dr ~ 1 dr ~ 2 ... dr~N dp~ 1 dp~ 2 ... dp~N (12.4)

~ 1 dr ~ 2 ... dr~N , restrita a região de volume V


R R R
com a integração no espaço de coordenadas, dr
onde o gás está contido.
Podemos escrever e−βH = e−βK e−βV com K a parte cinética e V a parte de interação. Deve-se
mencionar que esta separação em geral não é possı́vel no caso quântico já que K e V não comutam.
A integração no espaço e momento fatora. Além disso a integral de momentos fatora em
integrais de uma única partı́cula e temos
Z ∞ Z ∞ Z ∞ 2
p~1 2 p~2 2 p~
N
~ 1 e−β 2m
dp ~ 2 e−β 2m
dp ... d3 p~N e−β 2m (12.5)
−∞ −∞ −∞
R∞ 2
dxe−ax =

As integrais são todas iguais e são uma gaussiana. Lembrando que −∞ a temos
Z ∞ Z 3   32
p~ 2
1 p2
x 2mπ
~ 1 e−β 2m
dp = dpx e−β 2m = (12.6)
−∞ β
Fica faltando a integral no espaço de coordenadas que chamamos de QN :
P
−β V (|r~i −r~j |)
Z Z
1 ~ 1 ... dr~N e i<j
QN = N dr (12.7)
V
onde colocamos V N na definição de QN para esta ser adimensional e não depender do volume.
Essa integral não fatoriza em integrais de uma única partı́cula e em geral não pode ser calculada
exatamente. Assim temos que recorrer a aproximações. Sabemos que para gases diluı́dos, com
baixa densidade, a interação pode ser ignorada. Assim uma possibilidade é fazer uma expansão
em termos de um parâmetro pequeno. Isso será discutido mais adiante.
Agora vamos desprezar completamente a interação, gás ideal, onde temos

QN = 1 (12.8)

logo so temos a parte do momento que já obtivemos acima e portanto


  3N
2πm 2
Z= VN (12.9)
β
Note que aqui só tivemos que fazer uma integral gaussiana enquanto que no caso micro-canônico
para obter Ω( equivalente a Z) tivemos que obter a área de hipersfera que é um pouco mais
complicada e envolve as funções gamma.
Obtida a função de particão, fazemos a conexão com a termodinâmica usando
1 1
F =− ln Z ou melhor f = lim − ln Z (12.10)
β N →∞ βN
Temos    
1 1 3N 2πm
lim − ln Z = − ln + N ln V (12.11)
N →∞ NZ βN 2 β
12.1. GÁS IDEAL 139
 
1 −3KB T 2πm
lim − ln Z = ln − KB T ln V (12.12)
N →∞ βN 2 β
O limite acima parece estar bem definido já que a dependência em N se anula. No entanto
devemos lembrar que no limite termodinâmico temos que ter N → ∞ com V /N constante, o que
exige que V → ∞. Assim vemos que há um problema no limite termodinâmico: f diverge devido
ao termo −KB T ln V . Isso também ocorreu no ensemble micro-canônico e vimos que um modo de
entende-lo e que há micro-estados demais.
Como no caso micro-canônico, um modo de corrigir esse problema é dividir Z por N ! (o fator
de correção de Gibbs). Lembrando que podemos entender esse fator de N ! como devido ao fato
de que devemos considerar as partı́culas indistinguı́veis e logo há menos micro-estados: permutar
o estado de duas partı́culas não gera um novo micro-estado. Lembramos também que para ter
um número bem definido de micro-estados devemos ”discretizar” o espaço de fase associando um
micro-estado não com um ponto mas como uma pequena região de volume h = drdp. Logo Z deve
ser dividido também por h3N . Isso também é necessário para ter Z adimensional.
Portanto temos:
  3N
Z 1 2πm 2
Z→ = QN (12.13)
N !h3N N ! βh2
Com isso
    
3KB T 2πm 1 1
f = lim − ln − KB T ln V − ln (12.14)
N →∞ 2 β βN N !h3N

usando Stirling ln N ! ≈ N lnN − N


   
3KB T 2πm KB T
f = lim − ln − KB T ln V + (N ln N − N + 3N ln h) (12.15)
N →∞ 2 β N
   
3KB T 2πm
f = lim − ln − KB T (ln V − ln N ) + KB T (−1 + 3 ln h) (12.16)
N →∞ 2 β
Logo    
3KB T 1 V
f = lim − ln + ln 2πm − 2 ln h + 1 − KB T ln (12.17)
N →∞ 2 β N
usando que ln β1 = ln KB + ln T e V
N =v

3
f= KB T ln T − KB T ln v − cKB T (12.18)
2
 
2πmKB
com c= 32 ln +1
h2
Podemos então obter a densidade de entropia
 
∂f 3 3 1
s=− = − − KB lnT − KB T − KB lnv − KB c (12.19)
∂T 2 2 T
3 3
s(T ) =KB lnT + KB lnv + KB c + KB (12.20)
2 2
A função s(T) tem a seguinte forma

COLOCAR FIGURA

Ou seja, se torna negativo para temperaturas suficientementes baixas. Isso está em conflito
com as predições da termodinâmica. Este defeito se deve ao fato de usarmos a mecânica clássica.
No limite de baixas temperaturas devemos considerar os efeitos quânticos, o que levará a s → 0 no
limite de T → 0.
140CHAPTER 12. GÁS CLÁSSICO NO CANÔNICO E APROXIMAÇÕES PARA SISTEMAS INTERAGENTES

INTUIÇÃO FISICA DE PQ S FICA NEGATIVA? O GAS CONGELA COM E=0. E SE


COLOCAR UMA INTERAÇÃO?
Analisamos agora o calor especı́fico a volume constante

∂S
cv ≡ T (12.21)
∂T

v

que da
3
cv = KB (12.22)
2
o que esta de acordo com os resultados do termodinâmica para o gás ideal monoatômico.
Obtemos também a presão
∂f KB T
p=− = (12.23)
∂v v
T

O que leva a conhecida Lei de Boyle


pv = KB T (12.24)
Lembrando que a energia interna no canônico é

dE E e−βE
R

E= R =− ln Z (12.25)
dE e−βE ∂β
"   3N #
∂ 1 2πm 2
E=− ln QN (12.26)
∂β N !h3N β
 
∂ 3N
E=− − lnβ + const. (12.27)
∂β 2
3N 1 3
E= = N KB T (12.28)
2 β 2
3
logo u = KB T
2
Usando s(T ) pode-se obter T (s) e logo u(s). Invertendo obtem-se

3
s(u) = kB ln u + kB ln v + constante (12.29)
2
que está de acordo com o obtido no micro-canônico.

12.2 Distribuição de Maxwell-Boltzmann


Neste seção queremos obter a distribuição de velocidades de Maxwell-Boltzmann: a probabilidade
de achar uma dada partı́cula com velocidade entre ~v e ~v + dv. ~ Este foi um dos primeiros resulta-
dos estatı́sticos de um sistema macroscópico. Ela foi primeiramente obtida por Maxwell usando
argumento de simetria e depois por Boltzamann a partir da distribuição do ensemble canônico.
Temos
~ = V e−β 2m
P (~v )dv
~2
p
d~
p (12.30)
Z1
p2
  32
~ −β 2m = V 2mπ
R
com Z1 uma constante de normalização tal que Z1 = V dpe β
Assim
 − 23
2mπ βp2
~
P (~v )d~v = e− 2m m3 dv (12.31)
β
 − 32
2πKB T − mv
2
~
P (~v )d~v = e 2KB T dv (12.32)
m
12.2. DISTRIBUIÇÃO DE MAXWELL-BOLTZMANN 141

Logo
 − 32
2πKB T mv
− 2K
2
P (~v ) = e BT (12.33)
m
Este resultado é igual ao obtido no limite do contı́nuo de gás de Boltzmann com nı́veis discretos
de energia.
Veja também que P(~v ) só depende do módulo da velocidade. Assim
Z ∞
vx = vx P (~v ) = 0 = vy = vz (12.34)
−∞

Como não deve haver direção preferencial no espaço (é isotrópico) devemos ter

~ = P (v)4πv 2 dv ≡ P0 (v)dv
P (~v )dv (12.35)

com P0 a densidade de probabilidade para módulo de ~v .


Logo obtemos a distribuição de velocidades de Maxwell-Boltzmann.
− 23
mv 2
  
2πKB T 2
P0 (v) = 4π v exp (12.36)
m 2KB T

Note que enquanto a distribuição do vetor velocidade e de cada componente é uma gaussiana a
distribuição do modulo tem um fator v 2 .
A velocidade mais provável é obtida com
− 23 
mv 2 mv 2
      
dP0 (v) 4πKB T 2mv
= 4π 2v exp − + v2 − exp − = 0 (12.37)
dv m 2KB T 2KB T 2KB T
m 3
2ṽ − ṽ = 0 (12.38)
KB T
 
m 2
ṽ 2 − ṽ = 0 (12.39)
KB T
 1
2KB T 2
ṽ = (12.40)
m
Podemos obter também a velocidade média v
  23 Z ∞  
m mv 2
2 − 2KB T
v = 4π dv v v e . (12.41)
2πKB T 0

mv 2 m
Usando y = dy = vdv temos
2KB T KB T
  32 Z ∞    
m KB T 2KB T
v = 4π dy ye−y (12.42)
2πKB T 0 m m
  32  2 Z ∞
m 2KB T 1
v = 4π dy y e−y (12.43)
2πKB T m 2 0
R∞
Lembrando a definição da função gamma Γ(n + 1) = 0 xn e−x dx e que Γ(n + 1) = n! para n
inteiro, temos
  12
1 1
v = 4π Γ2 (12.44)
π 2
 1
8KB T 2
v= (12.45)

onde usamos Γ2 = 1. Note que ṽ < v
142CHAPTER 12. GÁS CLÁSSICO NO CANÔNICO E APROXIMAÇÕES PARA SISTEMAS INTERAGENTES

Figure 12.1: Distribuição de velocidades de Maxwell-Boltzmann


Do mesmo modo pode-se obter (usando Γ(n) = (n − 1)Γ(n − 1), Γ(1) = 1 e Γ( 21 = π) )

3KB T
v2 = (12.46)
m
A energia cinética média por partı́cula fica
1 3
mv 2 = KB T (12.47)
2 2

E como P (v) é isotrópico vx2 = vy2 = vz2 = v 2 /3 = KT /m


−3
Para T ≈ 300k e m ≈ 28.136.1025 (nitrogênio) temos que o valor tı́pico de V é 500m/s (próximo da
velocidade do som)
Essa distribuição foi proposta por Maxwell em torno de 1866, argumentando que essa era a
distribuição de probabilidades isotrópico. Usando essa distribuição se obteve diversos resultados
da termodinâmica, o que é chamada de teoria cinética dos gases.
Depois Boltzmann obteve a distribuição usando o que seria o princı́pio ergódico atual.
Aqui vemos que ela pode ser obtida a partir dos princı́pios mais gerais de fundamentais da
fı́sica estatı́stica. Essa distribuição já foi testada experimentalmente diversas vezes.
Chapter 13

Sistemas Interagentes (Gases


Reais)

Iremos agora tentar analisar o termo de interação entre as partı́culas. Um exemplo são os chamados
gases reais onde devido a altas densidades ou baixas temperaturas a aproximação de gás ideal se
torna ruim (baseado na sec. 8.4 do Gould)
Como já comentado antes a dificuldade está em obter a integral
P
−β ri −~
V (|~ rj |)
Z Z
1 ~ 1 ...dr
~ N e i<j
QN = N ... dr (13.1)
V
Z
1 Y
QN = N d3N r e−βVij (13.2)
V i<j

com Vij = V (|~ri − ~rj |). Note que QN é o valor médio de e−βV , já que integramos sobre todos os
possı́veis valores das coordenadas espaciais e portanto de V : QN = he−βV i (Essa média não é sobre
todo o espaço de fase como estamos acostumados, mas somente sobre o espaço de coordenadas)
Como mencionamos em geral essa integração não pode ser feita exatamente. Queremos fazer
uma aproximação que seja boa para interações fracas. Um exemplo são gases com baixas densidades
onde as partı́culas interagem raramente visto que a distância média entre elas é grande. Parte das
considerações e dificuldades são análogas as encontradas em teoria quântica de campos: vamos
introduzir diagramas como os de Feymann e encontrar integrais divergentes.

13.1 Expansão de Alta Temperaturas ou Cumulantes


Uma possibilidade para aproximar QN e expandir a exponencial em sua série de Taylor. Este
método é conhecido como expansão do cumulante ou de altas temperaturas.
Temos
1
Z Z X (−βV )n X (−β)n
QN = N ~ 1 . . . dr
dr ~N = hV n i (13.3)
V n
n! n
n!

Então temos que obter todos os momentos da distribuição de probabilidade de V (no espaço
de coordenadas e usando uma distribuição de probabilidade uniforme para as coordenadas) Mas
devemos lembrar que na verdade estamos interessados no ln Z para então obter F e não diretamente
em Z. Então vamos obter uma expansão para a função ln Z que também pode ser escrito como
uma série de potências de β. Temos, mudando a notação para U ao invés de V para o potencial,
(∞ )
X (−β)n
n
ln QN = ln hU i (13.4)
n=0
n!

O que fazemos é truncar a soma e depois fazer uma expansão de Taylor do log: ln(1 + ) ≈
2 3
1 +  − 2 + 3

143
144 CHAPTER 13. SISTEMAS INTERAGENTES (GASES REAIS)

Por exemplo
β2 2 β3 3
 
ln Z ≈ ln 1 − βhU i + hU i + hU i + ... . (13.5)
2 6
β2 2 β3 3
Usando  = −βhU i + 2 hU i + 6 hU i temos
2 3
β 2 hU 2 i β 3 hU 3 i 1 β 2 hU 2 i β 3 hU 3 i β 2 hU 2 i β 3 hU 3 i
 
1
ln Z ≈ 1−βhU i+ + −
−βhU i + + + −βhU i + + +. . .
2 6 2 2 6 3 2 6
(13.6)
Agora agrupamos os termos com a mesma ordem em β
β2 β3
ln Z ≈ 1 − βhU i + (hU 2 i − hU i2 ) + (hU i3 + 3hU ihU 2 i + 2hU i3 ) + . . . (13.7)
2 6
Assim vemos que pode-se escrever

X (−β)n
ln Z = Mn (hU i) (13.8)
n=1
n!

e temos uma expasão de alta temperatura para ln Z e portanto para F . Os coeficientes Mn são
chamados de cumulantes. Os primeiros, conforme obtivemos acima, são 1

M1 = hU i (13.9)

M2 = hU 2 i − hU i2 (13.10)
M3 = hU 3 i − 3hU ihU 2 i + 2hU i3 (13.11)
A princı́pio a expansão parece interessante porque só depende de β. Mas no entanto Mn
depende de quão forte é o potencial e o parâmetro relevante é βu0 com u0 uma medida da energia
do potenial (U (r) = u0 f (r) com f (r) uma função adimensional). Por isso essa expansão não
funciona bem para potenciais que são muito repulsivos a pequenas distância, como o de Lennard-
Jones, já que a integral do potencial vai divergir. Nestes casos veremos que há um outro modo de
se fazer a expansão.
Assim tudo que temos que fazer é obter os valores médios de hU n i. Lembrando que U =
P
Vij
i<j
temos X
hU i = hVij i (13.12)
i<j
XX
hU 2 i = hVij Vkl i (13.13)
i<j k<l

Como todas as partı́culas são indênticas cada um dos N (N − 1)/2 termos na soma em hU i é
igual. Escolhendo as partı́culas 1 e 2, por exemplo temos
Z Z Z Z Z  Z Z
~
hV12 i = dr1 dr2 ~ V12 ~ ~
dr3 . . . drN = V N −2 ~
dr1 dr~ 2 V12 (13.14)

onde o fator V N −2 vem da integração nas coordenadas das partı́culas que não interagem através
de V12 . Portanto temos
N (N − 1) 1 N −2 ~ 2 V12 = N (N − 1) 1
Z Z Z Z
hU i = V ~ 1 dr
dr ~ 1 dr
dr ~ 2 V12 (13.15)
2 VN 2 V2
~ = (~r1 +~r2 )/2) (ou medindo
Usando coordenadas relativas (~r = ~r1 −~r2 ) e de centro de massa (R
a posição da partı́cula 2 a partir da partı́cula 1) temos
Z Z Z Z Z
~ 1 dr
dr ~ 2 V (|~r1 − ~r2 |) = dr
~ V (r) dR
~ =V d~r V (r) (13.16)

1 Note que os três primeiros cumulantes são três primeiros momentos centrais h(U − hU i)n i mas isso não é verdade

para ordem superiores onde os cumulantes são polinômios mais complicados dos momentos.
13.1. EXPANSÃO DE ALTA TEMPERATURAS OU CUMULANTES 145

~ No limite de muitas partı́culas usamos N − 1 ≈ N e


onde o volume V vem da integração em dR.
temos
N2 1
Z
hU i = V d~r V (r) (13.17)
2 V2
Z
ρ
hU i = N d~r V (r) (13.18)
2
onde usamos ρ = N/V e vemos que hU i cresce linearmente com N e portanto é extensivo, como
devemos esperar para ln Z e para F Agora vamos analisar os termos de ordem superior que são
muito mais interessantes.
M2 = hU 2 i − hU i2 (13.19)
X X X X
=h Vij Vkl i − h Vij ih hVkl i (13.20)
i<j k<l i<j k<l
XX X X
= hVij Vkl i − hVij i hVkl i (13.21)
i<j k<l i<j k<l
XX
= [hVij Vkl i − hVij ihVkl i] (13.22)
i<j k<l

Vemos que temos a diferença entre o valor médio do produto e o produto dos valores médios.
Como vimos anteriormente se duas variáveis aleatórias são independentes então a média do produto
fatora e é igual ao produto da média. Assim podemos classificar os termos hVij Vkl i em três classes:

• Nenhum ı́ndice em comum (disconectados). Por exemplo

hV12 V34 i = hV12 ihV34 i (13.23)

Estes termos fatoram porque as variáveis r~12 e r~34 são independentes e portanto V12 e V34
também são. Como hV12 i = hV34 i estes termos irão se cancelar com os que vem de hU 2 i
• Um ı́ndice em comum (reduzı́veis). Por exemplo
Z Z Z
1 ~ 1 ~r2 dr~ 3 V (r~1 − r~2 )V (r~2 − r~3 )
hV12 V23 i = 3 dr (13.24)
V

Este termo também se fatora devido a invariância translacional (não há um potencial externo
não homogêneo). Isso porque podemos escolher a partı́cula com ı́ndice em comum, a 2 neste
caso, como origem e integrar sobre as distâncias relativas de 1 e 3 com 2 (que é a origem).
Assim temos neste caso. Assim
Z Z Z
1 ~ 1 dr ~ 2 dr ~ 3 V (~r12 )V (~r32 )
hV12 V23 i = 3 dr (13.25)
V
Z Z Z
1 ~ 12 dr ~ 32 V (~r12 )V (~r32 ) dr~2
= 3 dr (13.26)
V
Z Z
1 ~ 12 dr ~ 32 V (~r12 )V (~r32 )
= 2 dr (13.27)
V
hV12 V23 i = hV12 ihV23 i (13.28)
Note que tanto V (r~12 ) como V (r~23 ) não depende da posição de 2, mas somente da posição
de 1 e 3 em relação a 2. E a integral sobre 2 da V , já que ela pode estar em qualquer parte
da caixa. Tal como os termos disconectados estes irão se cancelar com outros vindos de hU i2
no cálculo de M2
• Ambos ı́ndices em comum (irreduzı́veis).
Z
2 1 ~ 12 V 2
hV12 V12 i = hV12 i= dr 12 (13.29)
V

Estes termos não fatoram e logo não se cancelam.


146 CHAPTER 13. SISTEMAS INTERAGENTES (GASES REAIS)

Assim vemos que há muitos menos termos para se calcular. O cálculo de M2 se fica
X
hVij2 i − hVij i2

M2 = (13.30)
i<j

Como vimos o primeiro termo é proporcional a 1/V e portanto a 1/N . Já o segundo termo fica
 Z 2
1 ~ ij Vij
hVij i2 = dr (13.31)
V
e portanto é proporcional a 1/N 2 . Assim podemos ignorar o segundo termo e temos que
2 Z
N (N − 1) 1
Z
~ 12 V 2 = N
X
M2 = hVij2 i = dr ~ 12 V 2
dr (13.32)
12 12
i<j
2 V 2V

O mais interessante do cálculo de M2 é o fato de que os termos disconectados e reduzivéis não


contribuem. E de fato a não contribuição dos P termos
P disconectados é essencial para que ln Z e
logo F sejam extensivas. A contribuição de i<j k<l hVij ihVkl i para i 6= j 6= k 6= l é da ordem
de N 4 /V 2 , já que cada hVij i é da ordem de 1/V e a somatória tem da ordem de N 4 termos com
os indices diferentes. Assim termos disconectados são proporcionais a N 4 /V 2 ∼ ρ2 N 2 e portanto
proporcional a N 2 e não a N como esperarı́amos. Os termos reduzı́veis também não contribuem,
mas eles não atrapalhariam a extensividade já que são proporcionais a N 3 /V 2 ∼ ρN (o número
de termos com um indice um comum é proporcional a N 3 )
Para os termos de ordem superior a classificação fica mais complicada já que podemos ter 1, 2
ou mais indı́ces em comum: o produto de três termos, hVij Vkl Vmn i pode fatorar em três termos,
em dois ou em nenhum, por exemplo. Esta analise pode ser simplificada introduzindo uma notação
gráfica ou diagramática parecida com os diagramas de Feyman.
O cumulante Mn envolve valores médios (integrais) de potências de U do tipo hU a ib hU c id com
a + b + c + d = n. Assim temos que calcular termos do tipo
X X X
hU a i = ... [hVi1 j1 Vi2 j2 . . . Via ja i] (13.33)
i1 <j1 i2 <j2 ia <ja

com a ≤ n. Como vimos os termos que fatoram do termo de maior ordem, hU n i, podem cancelar
os termos de menor ordem em U . Assim o que temos que fazer é descobrir quais são os termos de
hU n i que ”sobrevivem” em Mn . Para isso temos que classificar os termos de hU n i de acordo com
o número de indices que são iguais.
Note que podemos separar os termos das somas considerando quantos e quais indices são iguais.
Um exemplo é: XX X
Vij Vkl = Vij Vij (13.34)
i6=j k6=l i6=j
| {z } | {z }
(N (N − 1))2 N (N − 1)
XX X X
+ Vij Vjl + Vij Vil (13.35)
i6=j l6=j i6=j l6=i6=j
| {z } | {z }
N (N − 1)2 N (N − 1)(N − 2)
X X XX
+ Vij Vkj + Vij Vki (13.36)
i6=j k6=j6=i i6=j k6=l
| {z } | {z }
N (N − 1)(N − 2) N (N − 1)(N − 2)
X X
+ Vij Vkl (13.37)
i6=j k6=i6=l
| {z }
N (N − 1)(N − 2)(N − 3)
Um modo mais fácil de organizar estes termos é introduzindo diagramas ou grafos que repre-
sentam estes valores médios (integrais). Os termos acimas podem ser representados como:
13.1. EXPANSÃO DE ALTA TEMPERATURAS OU CUMULANTES 147

hVij Vij i = hVij2 i i j

hVij Vjl i = hVij ihVjl i = i j l

hVij Vil i = hVij ihVil i = i j l

hVij Vkj i = hVij ihVkj i = i j k

hVij Vki i = hVij ihVki i = i j k

hVij Vkl i = hVij ihVkl i = i j k l

Assim definimos um grafo de s vertı́ces e n arestas (”bonds”) como: todas as maneiras de


conectar os s vertı́ces com as n arestas, sem deixar nenhuma aresta desconectada. Todos estes
grafos são denotados de G(s, n). Note que não devemos colocamos nenhum tipo de etiqueta nos
vertı́ces, como feito acima para ilustrar, e portanto os grafos 2 e 3 são equivalentes aos 4 e 5. De
fato somente dois deles apareceriam quando consideramos a soma somente para i < j e k < l ao
invés de i 6= j k 6= l VERIFICAR ISSO
Outros exemplos são:

hV12 V23 V45 i = hV12 V23 ihV45 i = 1 2 3 4 5

3
hV12 V12 V12 V34 i = hV12 ihV34 i = 1 2 3 4

hV12 V23 V13 i =??? 2 3

Para representar um termo hVij Vkl ...Vpq i onde V aparece n vezes e temos s indı́ces distintos
construimos um grafo de s vertı́ces e n arestas (”bonds”). Os vertı́ces representam os indı́ces
distintos ou partı́culas e as arestas as interações entre as partı́culas. Para um dado s e n temos que
considerar todos os grafos possı́veis (todos os modos de conectar as s partı́culas pelas n interações)
e a soma deles chamamos de G(s, n). Um exemplo seria 2

i i i

G(3, 2) = j k + j k + j k

Temos que considerar também P os diferentes valores entre 1 e N que i, j, l, k, .. podem assumir
(o número de termos na soma i,j,k,l,... ). Se ignoramos diferenças entre N , N − 1, N − 2, etc,
cada grafo com s vertı́ces irá aparcer N s vezes e como todas as partı́culas são idênticas cada um
têm o mesmo valor.
Os grafos podem ser classificados em três tipos análogos aos termos de hU 2 i:

• Disconectados: o grafo contém duas ou mais partes que não estão conectadas por uma aresta
2 Note que este grafo não é válido já que uma das partı́culas fica desconectada

j k
148 CHAPTER 13. SISTEMAS INTERAGENTES (GASES REAIS)

• Reduzı́veis: o grafo pode ser separado em duas partes disconectadas pela remoção de um
único vertı́ce.
• Irreduzı́vel: o diagrama não contém vertı́ces disconectados e não pode ser separado em duas
ou mais partes disconectadas pela remoção de um único vertı́ce.
O valor de hU n i é a soma de todos os possı́veis grafos de n arestas e s
2n
X
hU n i = G(s, n) (13.38)
s=2

Porém os únicos grafos que irão contribuir para o comulante Mn são os irreduzı́veis, já que
pode-se mostrar que os disconectados e reduzı́veis que tem origem em hU n i irão se cancelar com
os termos que tem origem em hU m i com m < n ou serão de ordem O(1/N ) em relação ao termo
irreduzı́vel onde todos os ı́ndices são iguais. Assim temos que obter todos os grafos irreduzı́veis
que chamamos de Girr (s, n)
A integral deste grafos irreduzı́vieis não pode ser fatorada. Mas podemos escolher uma das
coordenadas como centro e integrar sobre ela obtendo um fator V . Lembremos que temos um
valor médio e portanto nossa integral com s ı́ndices distintos está divida por V s . Assim um grafo
irreduzı́vel Girr (s, n) fornece uma contribuição proporcional a V (N/V )s = V ρs . Novamente pode-
se ver que os grafos que são reduzı́veis a m partes, integrais que fatoram em m grupos, terão uma
contribuição de V m e portanto não levaram a um ln Z extensı́vel.
Portanto temos
∞ ∞
X (−β)n X (−β)n X s
ln Z = Mn (hU i) = ρ Girr (s, n) (13.39)
n=1
n! n=1
n! s

Note que os grafos representam as integrações sem a divisão pelo volume e por isso deixamos
o volume explicito atraves da densidade. Fica claro também que a expansão é temperatura e que
um termo de ordem n contém contribuições em termos de densidade até ordem n (VER MELHOR
ESSA PARTE). Mostraremos que é possı́vel reoordenar está expansão em potências da densidade.

13.2 Expansão em Densidade


Este método tem dois inconvenientes: consideramos a interação fraca no sentido de que as partı́culas
interagem muito raramente.
R∞ No entanto quando elas interagem para distâncias pequenas temos
V  1 e a integral 0 dr[V (r)]k pode divergir3 ; as partı́culas raramente interagem, mas quando
isto ocorre a interação é forte. Outra dificuldade é que a exponencial tende a 1 no limite r → ∞ e
não a zero; não temos um parâmetro pequeno para expandir.
Um outra possibilidade é definir a função de Mayer
f = 1 − e−βV (13.40)
Assim quando a interação for fraca temos f ≈ 0 e podemos expandir em torno de f = 0. Isto
levará ao que é conhecido como a expansão de cluster de Ursel e Mayer. Note que f ≈ 0 tanto
para r → ∞(v → 0) ou para T → ∞(β → 0)
Definindo esta função para o potencial de interação de cada par de partı́cula (fij = 1 − eVij
temos Y Y X X
e−βV = e−βVij = (1 + fij ) = 1 + fij + fij fkl + ... (13.41)
i<j i<j i<j i<j,k<l

Para entender melhor o ultimo termo considere 3 partı́culas


(1 + f12 )(1 + f13 )(1 + f23 ) = 1 + (f12 + f13 + f23 ) + (f12 f13 + f12 f23 + f13 f23 ) + f12 f13 f23 (13.42)
Assim temos uma expansão em potências de f até ordem N (N −1)/2. Se consideramos somente
o primeiro termo (ordem zero em f) recuperamos o caso do gás ideal onde desprezamos totalmente
as interações.
3 note que com a exponencial a integral é bem comportada neste limite já que quando V → ∞ temos e−βV → 0
13.2. EXPANSÃO EM DENSIDADE 149

Interpretamos o segundo termo como levando em conta somente a interação devido a colisões de
pares de partı́culas: fij se deve a interações (colisões) exclusivas entre as partı́culas i e j. Estamos
excluindo a possibilidade de que quando i e j colidem (ou se aproxima e interagem fortemente)
uma terceira partı́cula ou um segundo par estejam próximos e também interagam, ou colidam, com
i e j. Podemos imaginar que num sistema com baixa densidade a probabildiade de se encontrar
três partı́culas juntas é bem menor que encontrar somente duas. Note também que consideramos
todas as possı́veis combinações de duas partı́culas: 12, 13 e 23 no caso de três partı́culas.
O terceiro termo pode ser interpretado como devido a interações (ou colisões) entre pares de
partı́culas: fik flm é a interação entre os pares ik e lm. Estamos considerando a situação onde até
quatro partı́culas estejam próximas e interagindo fortemente ao mesmo tempo. Mas é importante
notar que fazendo todas as possı́veis combinações entre dois pares haverão termos onde um ou
dois indices são iguais. No caso de três partı́culas temos sempre um dos indices iguais. Neste caso
interpretamos f12 f23 como uma interação conjunta entre as partı́culas 1, 2 e 3; as três próximas,
ou colidindo ao mesmo tempo. Mas para mais que três partı́culas irão aparecer termos onde os
indices são todos distintos, f12 f34 por exemplo. Estes termos podem ser interpretados como duas
colisões independentes: 1 e 2 colidindo em um canto e 3 e 4 em outro sem 1 ou 2 interagir com 3 ou
4. Irão aparecer também termos onde dois indices são iguais: fij fij QUAL A INTERPRETAÇÃO
DESTES TERMOS? PAR IJ INTERAGINDO COM ELE MESMO? NA VERDADE ESTES
TERMOS NÃO APARECEM JA QUE K,L TEM QUE SER DIFERENTE DE IJ
Portando podemos interpretar cada termo de ordem k da expansão como considerando a pos-
sibilidade de termos k pares de partı́culas interagindo, mas sem interagir com o resto. E como se
tivessemos dividido o sistema em grupos (ou clusters) de partı́culas que interagem entre si, mas
sem haver interação entre os cluster. Note que originalmente todas as partı́culas interagem com
todas as outras.
Mas como já mencionamos alguns dos k pares podem ter partı́culas em comum; quando alguns
dos indices são iguais. E portanto podemos reoordenar a expansão juntando termos em que o
mesmo número de partı́culas interagem e não os que tem mesmo número de pares. Por isso a
expansão que obtemos neste procedimento é chamada de expansão de cluster.
Uma maneira eficiente de organizar a expansão é utilizando diagramas 4
Primeiro desenhamos N pontos representando as partı́culas.

1 2 3 ... N

Cada integral é representada conectando as partı́culas que interagem através dos fij fkl .... Assim
as integrais do termo de segunda ordem são representadas por diagramas onde somente duas
partı́culas estão conectadas. A integral
Z Z Z  Z Z  Z 
~ ~
dr1 ... drN f12 = ~
dr1 ~ ~ ~
dr2 dr3 dr2 f23 . . . ~
drN (13.43)

é representada por

1 2 3 ... N

Assim para obter todos os termos de primeira ordem em f temos que considerar todos os
diagramas onde somente duas partı́culas estão conectadas. Em geral as partı́culas são identicas e
fij não depende de quem são as partı́culas ij e logo todas as integrais tem o mesmo valor, mas os
diagramas são considerados diferentes: temos que somar todos os possı́veis diagramas.
Um termo de segunda ordem, como a integral
Z Z Z Z Z  Z  Z 
~ 1 ... dr
dr ~ N f12 f23 = ~ 1 dr
dr ~ 2 dr ~ 2 f12 f23 ~ 4 ...
dr ~N
dr (13.44)

4 Esta parte dos diagramas esta bem baseada no Mehran Kardar que considero ter uma exposição mais clara que

o Huang e ate mesmo que o Gould


150 CHAPTER 13. SISTEMAS INTERAGENTES (GASES REAIS)

é representada por

1 2 3 4 ... N

Aqui temos que considerar todos os diagramas onde temos duas partı́culas conectadas (temos
dois links entre os circulos).
Um termo de terceira ordem, como a integral
Z Z Z  Z Z Z  Z Z Z  Z 
~ ~
dr1 ... drN f23 f45 f56 = ~
dr1 ~ ~ ~
dr2 dr3 dr2 f23 ~ ~ ~
dr4 dr5 dr6 f45 f56 . . . ~
drN
(13.45)
é representada por

1 2 3 4 5 6 ... N

5
Como último exemplo temos um termo de sétima ordem

Z Z Z Z  Z Z  Z  Z 
~ 1 ...
dr ~ N f12 f39 f67 f68 f6,10 f78 f8,10 =
dr ~1
dr ~ 2 f12
dr ~3
dr ~ 9 f39
dr ~4
dr ~5
dr

Z Z Z Z  Z  (13.46)
~6
dr ~7
dr ~8
dr ~ 9 dr
dr ~ 10 f67 f68 f6,10 f78 f8,10 . . . ~N
dr (13.47)

é representada por

1 3 5 7 9
... N
2 4 6 8 10

e pode ser rearranjada assim

1 3 9 6 8
... N
2 4 5 7 10

Com essa convenção definimos um diagrama ou grafo de N partı́culas como uma coleção de N
cı́rculos (ou pontos) numerados e com um número qualquer de linhas conectando o mesmo número
de pares de partı́culas distintos (note que o número máximo de pares distinto e portando de linhas
é N (N − 1)/2). E assim temos
QN = soma de todos os distintos diagramas de N partı́culas (13.48)
Neste exemplos vemos que podemos agrupar as integrais em conjuntos (cluster) contendo
partı́culas que estão conectadas e cujas as intergrais não podem ser separadas (são irredutı́veis).
Logo o valor da integral é o produto da contribuição de cada cluster.
Como já mencionamos é útı́l reorganizar a expansao juntando ester termos de cluster. Para isso
definimos a grandeza bl como a soma de todas as integrais (diagramas) com grupos de l partı́culas
conectadas entre si: cada partı́cula esta conectada a pelo menos uma linha e também conectada
direta ou indiretamente a todas as outras partı́culas do grupo. Temos então

5 copiado do Huang
13.2. EXPANSÃO EM DENSIDADE 151

~ =V
R
b1 = = dr

~1 ~ 2 f12
R R
b2 = = dr dr

No caso de b3 temos quatro diagramas possı́veis (iremos colocar as partı́culas em um triangulo


e não em uma linha para facilitar a visualização)

i i i i

b3 = j k + j k + j k + j k

que representam as seguintes integrais


Z Z Z  Z Z Z  Z Z Z 
~ i dr
dr ~ j dr
~ k fij fjk + ~ i dr
dr ~ j dr
~ k fik fjk + ~ i dr
dr ~ j dr
~ k fij fik +

Z Z Z  (13.49)
~i
dr ~j
dr ~ k fij fjk fki
dr (13.50)

Note que a diferença entre os três primeiros diagramas é a partı́cula em comum e que interage
com as outras duas. E note também que a última integral tem origem no termo de terceira ordem
da expansão, e não no de segunda como os três primeiros, mas colocamos ele junto por envolver
interações entre grupos de três partı́culas. Estes são as integrais de três partı́culas que não podem
ser separadas em de uma e duas partı́culas e assim são chamadas de irredutı́veis.
152 CHAPTER 13. SISTEMAS INTERAGENTES (GASES REAIS)

13.3 Segundo coeficiente de Virial


Vamos considerar aqui o 2o termo que é de primeira ordem em f e só contém termos de pares de
partı́culas fij Z X
QN = d3N dr(1 + fij + ...) (13.51)
i<j
XZ Z
QN = V N + V N −2 d3 r~i d3 r~j fij + ... (13.52)
i<j
Z
d3 r~j fij → chamada de expansão de Cluster (13.53)

V N −2 → integração sobre todas as coordenadas com exceção de i e j (13.54)


A interação só depende da distância rij = |~
ri − r~j | e para um sistema de partı́cula idênticas
rij = r. Ou seja, todas as partı́culas tem a mesma contribuição.

N −2 N (N − 1)
Z
N
QN = V + V V d3 rf (r) (13.55)
2
~
V → integracaoemR (13.56)
com a(T)= d3 rf (r) = 4π drr2 f (r)
R R

Para N  1 usamos N(N-1)≈ N 2 e temos

N2
QN = V N + V N −1 a(T ) (13.57)
2
Note que não pode-se fazer N-1≈N na potência de V . Isso porque há o termo V N e esse -1
diferencia os 2 termos
Assim
  3N  2

1 2πmKB T 2 n N −1 N
Z≈ V +V a(T ) (13.58)
N! h2 2

N2
V N −1 a(T ) → Correção devido a interação (13.59)
2
 3N
N 2 a(T )
  
1 2πmKB T 2
N
Z≈ V 1+ (13.60)
N! h2 V 2
 
a(T )
Z ≈ ZT OT AL 1 + N ρ (13.61)
2
Note que para potenciais de alcance finito a(T ) não depende de V e é uma quantidade intensiva.
Nossa expansão está em potência de ρ como esperado. No entanto temos o termo N e portanto
a expansão parece ser ruim no limite de N  1. Contudo a grandeza de interesse fı́sico é F e não
Z. E F deve ser uma grandeza extensiva e portanto proporcional a N . Como F = −KB T lnZ, Z
deve depender polinomialmente de N (Z ∝ constN ).
Como esperado ρa(T 2
)
pequeno podemos escrever
   N
a(T ) a(T )
1 + Nρ ≈ 1+ρ (13.62)
2 2

assim "  2 #
a(T )
F = −KB T ln ZIDEAL 1 + ρ (13.63)
2
 
a(T )
F = FIDEAL − N KB T ln 1 + ρ (13.64)
2
13.3. SEGUNDO COEFICIENTE DE VIRIAL 153

a(T )
F ≈ FIDEAL − N KB T ρ (13.65)
2
F
para f ≡ N temos

a(T )
f = fIDEAL − KB T ρ (13.66)
2
1
O termos fIDEIAL leva a equação de estado P V = nKB T usando que ρ = v temos
 
∂f ∂fIDEAL ∂ KB T a(T )
ρ=− =− − (13.67)
∂v ∂v ∂v 2 v
 
1 a(T ) 1
ρ = KB T + (13.68)
v 2 v2
Assim a equação de estado com interação fica

ρ 1 a(T ) 1
= + + ... (13.69)
KB T v 2 v2
Podem aparecer termos de ordem superior se considerarmos fij fke +...
→ Essa expansão em termos de v1 é chamada de expansão do virial(a palavra virial está rela-
cionada a uma palavra em latim para força. Clasius chamou uma função de força partı́culas de
”força virial”). Pode-se achar uma relação entre os coeficientes de virial e os da expansão de
Cluster.
Note que ela se torna boa para baixas densidade v  1(ρ  1)

Uma das primeiras equações de estado para um gás real é a de Van der Waals.
 a
ρ + 2 (v − b) = kB T (13.70)
v
a se deve a interação atrativa e b a repulsiva
Dessa equação temos
a
ρ(v − b) + 2 (v − b) = KB T (13.71)
v
ρ 1 a 1
= − 2 (13.72)
KB T v − b v KB T
"  2 #
1 1 1 b b
= b
= 1+ + + ... (13.73)
v−b v(1 − v
v v v

ρ 1 b a 1 b2
= + 2− 2
+ 2 + ... (13.74)
KB T v v KB T v v
 
ρ 1 a 1
= + b− + ... (13.75)
KB T v KB T v 2
Ou seja, também é uma expansão em potências de v1 .
Assim pode-se conectar os parâmetros a e b que são fenômenos macro com grandezas mi-
croscópicas.
Vamos( considerar agora um potencial Vij
∞ para r < r0
V( r) Potencial de Sutherland
−uo ( rr0 )6 para r > r0
FIGURA

Z ∞
a(T ) = 4π d r2 (e−βV (r) − 1) (13.76)
0
154 CHAPTER 13. SISTEMAS INTERAGENTES (GASES REAIS)

Z r0 Z ∞  
ro 6
a(T ) = 4π dr r2 (−1) + 4π dr r2 eβu0 ( r ) − 1 (13.77)
0 r0

Assumindo βu0  1
ro 6
 r 6
0
eβu0 ( r ) ≈ 1 + βu0 + ... (13.78)
r

−r03
  Z
1
a(T ) = 4π 4πu0 r06 (13.79)
3 r0 r4
 
4π 1
a(T ) = − r03 + 4πβu0 r06 (13.80)
3 3r03
4
a(T ) = − r03 (1 − βuo ) (13.81)
3
A equação de estado fica

1 2πr03
 
ρ u0 1
= + 1− (13.82)
KB T v 3 KB T v2
Os parâmetros fenomenológicos da equição de Van der Walls ficam

2π 3 2π
r a=
b= u0 r03 (13.83)
3 0 3
b → só depende do volume das partı́culas já que o potencial repulsivo é de esfera rı́gida
a → depende do potencial atrativo u0

1
A expansão de virial também é escrita algumas vezes em termos de ρ ao invés de v e fica

Pv
= 1 + ρB2 (T ) + ρ2 B3 (T ) + ... (13.84)
N KB T
Os BN são os coeificientes de virial

Assim vemos que a princı́pio podemos melhorar nossa aproximação o quanto quisermos; só
temos que calcular os termos de ordem superior. E de fato há maneiras mais práticas de obter
estes termos usando diagramas similares aos diagramas de Feymann.(veja 8.4 do Gould ou 10.3 do
Huang)

13.4 Teorem da equipartição da energia


Tal teorema diz que o valor médio de cada termo quadrático é independente da Hamiltoniana é
igual a 21 KB T
Vamos provar tal teorema no caso clássico.
Consideramos um sistema com f graus de liberdade tal que

H = H(q1 , ..., qf , p1 , ..., pf ) (13.85)


Agora iremos assumir duas coisas

a) H = Hi (pi ) + H 0 (q1 , ..., pf ) → energia é aditiva (13.86)


Hi só depende de Pi e H’ não depende de pi

b) Hi (pi ) = bp2i → energia é quadrática em pi (13.87)


Note que pi pode ser uma coordenada espacial também.
13.4. TEOREM DA EQUIPARTIÇÃO DA ENERGIA 155

Queremos obter o valor médio de Hi


0
... dq1 ...dqf hi e−βHi −βH
R R
Hi = (13.88)
... dq1 ...dqf e−βHi −βH 0
R R

Como de costume a integral fatora(usando a hipótese a)


0 R
... dq1 ...dqf e−βH dpi Hi e−βHi
R R
Hi = R R (13.89)
... dq1 ...dqf e−βH 0 dpi e−βHi
R

As integrais nas coordenadas qi e pj com j 6= i se cancelam



dpi e−βHi
R 
dpi Hi e−βHi − ∂β
R
Hi = R = R (13.90)
dpi e−βHi dpi e−βHi
Z 
∂ −βHi
Hi = − ln dpi e (13.91)
∂β
Usando a hipótese b temos uma integral gaussiana
Z   21
2 π
dpi e−βbpi = (13.92)
βb
e "  1 #
∂ π 2 1 ∂
Hi = − ln =− (−lnβ) (13.93)
∂β βb 2 ∂β

1 1
Hi = = KB T (13.94)
2β 2
Assim obtemos o teorema da equipartição da energia. Enfatizamos novamente que ele também
é válido caso pi seja uma coordenada espacial qi . A única restrição é que sua dependência seja
quadrática. Também temos que assumir que cada grau de liberdade é independente e não interage
com os outros: não há termos ”cruzados” tipo pi pj em. Nesse sentido é um pouco óbvio que os
valores médios sejam independentes. Mas note que Hi não dependa da constante b: o grau de
kx2
liberdade de velocidade(b= m k
2 ) tem a mesma energia média que o espacial (b = 2 para H = 2 ).
No entanto o teorema só é válido na mecânica clássica. No caso quântico o sistema só pode
assumir alguns valores discreto de energia. Ou seja, os graus de liberdade não podem ser excitados
livremente. A temperaturas baixas pode ocorrer de não haver energia suficiente para excitar alguns
graus de liberdade: eles ficam ”congelados” e portanto não contribuem para a energia do sistema.
A descrição clássica e portanto o teorema de virial é uma boa aproximação quando KT 
∆E(diferença dos nı́veis de energia em torno de E)
Note também que o teorema da equipartição da energia é um caso especial do teorema do virial
para potenciais quadráticos.
O teorema do virial relaciona médias da energia cinética com médias na energial potencial. Na
mecânica clássica essas médias são no tempo ao longo de uma trajetória no espaço de fases. Porém
pode-se fazer essas médias no ensemble e obter resultados semelhantes.
156 CHAPTER 13. SISTEMAS INTERAGENTES (GASES REAIS)
Chapter 14

Ensemble Grande-canônico

(baseado no capı́tulo 7 do Salinas e notas do professor A. Brum da Unicamp)

Até aqui consideramos duas situações:


• Sistema isolado com E,N ,V fixos. O sistema é descrito pelas gradezas E,V , N e a entropia
é função delas. A descrição é dada pelo ensemble micro-canônico. A condição de equilı́brio
ocorre para entropia máxima. Fazemos a conexão com a termodinâmica usando a fórmula
para entropia proposta por Boltzmann: S = KB ln Ω

• Sistema em contato com um reservatório muito grande e trocando energia com ele, porém a
T é constante e mantida pelo reservatório. Apesar de trocar energia, no equilı́brio o sistema
assume a energia mais provável e as flutuações são pequenas. Isso permite identificar essa
energia mais provável com a energia interna no estado de equilı́brio da termodinâmica. As
grandezas que descrevem o sistema são T ,V ,N e a conexão com a termodinâmica é feita pela
energia livre de Helmotz F = U − T S que é a mı́nima no equilı́brio.
Iremos considerar agora sistemas ”abertos”: que podem trocar energia e também partı́culas com
um reservatório. Uma situação onde este ensemble pode ser aplicado é quando temos um fluido
em equilı́brio com seu vapor a uma certa T e o conjunto fluido+vapor está em contato com um
banho térmico que permite a troca de calor. O sistema fluido+vapor+banho é descrito pelo micro-
canônico. O sistema fluido+vapor é descrito pelo canônico. Agora se estamos interessados em
apenas uma das fases, fluido ou vapor, o seu número de partı́culas não é conservado: há partı́culas
evaporando e se condensando. Além disso em MQ quando consideramos o formalismo de segunda
quantização temos sistemas onde o número de ”partı́culas”(ou melhor, quase partı́culas) não é
constante: podemos criar e destruir ”partı́culas”. Um exemplo são fônons em sólidos.
Nosso procedimento será semelhante ao adotado no canônico1 . Iremos considerar que o sistema
todo é descrito no micro-canônico com todos os micro-estados equiprováveis e determinar a proba-
bilidade de encontrar o sistema no micro-estado i com NS partı́culas. Como o sistema todo S + B
está isolado e a interação entre S e B é fraca temos:

ESB = ES + EB = const. (14.1)

NSB = NS + NB = const. (14.2)


Note que o sistema pode ter energia 0 ≤ ES ≤ ESB e número de partı́culas 0 ≤ NS ≤ NSB
Consideramos que o sistema está em um certo micro-estado caracterizado por um número NS
de partı́culas e um ponto i do espaço de fase com energia ES . O reservatório poderá estar em
um dos ΩB (EB , NB ) micro-estados diferentes com energia EB = ESB − ES e NB = NSB − NS
1 Tal como no canônico pode-se derivar o ensemble grande-canônico considerando um ensemble de sistemas que

compartilham partı́culas e energia, mas cujos valores médios estão fixos. A partir disso pode-se obter a distribuição
de probabilidade de um sistema qualquer do ensemble ter N partı́culas e energia E, maximizando o número de
possı́veis micro-estados, ou a entropia de Gibbs, sujeitos aos vı́nculos sobre os valores médios.

157
158 CHAPTER 14. ENSEMBLE GRANDE-CANÔNICO

partı́culas. Lembrando que Ω cresce rapidamente com a energia e EB  ES , logo há um número
muito grande de micro-estados acessı́veis ao banho quando fixamos o micro-estado do sistema.
Como todos os micro-estados de S +B são equiprováveis a probabilidade de encontrar o sistema
no micro-estado i com NS partı́culas é 2

P (i, NS ) ∝ ΩB (ESB − ES , NSB − NS ) (14.3)

Lembrando que estamos considerando a interação fraca o suficiente para não alterar os micro-
estados e criar correlações fortes entre S e B. Assim a probabilidade do sistema ter energia
ES e o banho ter energia EB é proporcional a ΩS (ES )ΩB (EB ) já que todos micro-estados são
equiprováveis. A probabilidade acima vem de fixarmos o micro-estado do sistema em i, ou seja,
ΩS = 1.
Como no canônico, iremos aproximar essa probabilidade usando o fato que para sistema
macroscópicos e banhos muito maiores que o sistemas

ES  ESB (14.4)

NS  NSB (14.5)
Novamente é mais conveniente expandir o ln ΩB
∂ ln ΩB ∂ ln ΩB (E, N )
ln ΩB (ESB −E, NSB −NS ) = ln ΩB (ESB , NSB )+ (−ES )+ (−NS )+... (14.6)
∂E ∂N
Usando S = KB ln Ω temos
∂ ln ΩB 1 ∂SB 1
= = = βB (14.7)
∂E KB ∂E KB TB
3
com TB a temperatura do banho que é igual a do sistema no equilı́brio e
 
∂ ln ΩB 1 ∂SB 1 −µB
= = (14.8)
∂N KB ∂N KB TB

Aqui temos que fazer uma ”nova” conexão entre a grandeza micro , ∂∂N ln Ω
, e a grandeza macro
potencial quı́mico µ. O potencial quı́mico (é uma força generalizada) é definido na termodinâmica
como4
∂U
µ= (14.9)
∂N

V,S

Mas note que µ também pode ser obtido a partir de S



µ ∂S
− = (14.10)
T ∂N

E,V

onde deve-se ter cuidado com a manipulação das derivadas parciais já que temos

∂S ∂S ∂E
=− (14.11)
∂N ∂E ∂N

E,V N,V S,V

Assim temos um sinal negativo que não seria esperado se consideramos as derivadas como ”frações
usuais” e aplicarmos a regra de cadeia. No final do capı́tulo justifico a expressão acima.
O potencial quı́mico desempenha um papel análogo de T ou p, mas temos mais dificuldade com
ele já que não é tão intuitivo como temperatura e pressão que podemos ”sentir” com nossas mãos.
µ é o custo energético de adicionar uma partı́cula ao sistema (em um processo adiabático que
2 Temos ΩB (ESB −Ei ,NSB −NS )
P (i, NS ) = ΩSB (ESB ,NSB
), mas iremos ignorar o fator de normalização por hora
3 Como ∂
N é discreto pode parecer estranho usar ∂N . No entanto estamos interessados no lim N → ∞ onde tais
derivadas fazem sentido
4 relação facilmente obtida de dE(S, V, N ) = ∂E dS + ∂E dV + ∂E dN = T dS − pdV + µdN
∂S ∂V ∂N
159

mantenha o sistema em equilı́brio5 ). Do mesmo modo pode-se entender T como o custo energético
de se adicionar entropia ao sistema. O potencial quı́mico µ também é o responsável por regular o
equilı́brio entre sistemas que podem trocar partı́culas do mesmo modo que T regula a troca de E
e p a ”troca” de V . Logo dois sistemas com µ diferentes trocam partı́culas (se isso for permitido)
com um fluxo de partı́culas do sistema com maior µ para o de menor até que os potenciais se
igualem. Esse equilı́brio é chamado de equilı́brio quı́mico. Além disso ele é essencial no estudo de
reações quı́micas: se uma reação ocorre ou não depende em parte da relação entre µ dos produtos
e reagentes da reação.
Lembrando que poderı́amos considerar dois sistemas que trocam partı́culas entre si e mostrar
que o estado mais provável ocorre quando
∂ ln Ω1 ∂ ln Ω2
= (14.12)
∂N1 ∂N2
e a partir disso conectar ∂∂N
ln Ω
com µ. Aqui usamos direto a conexão entre Ω e S para obter a
conexão entre Ω e µ.
Voltando a nossa expansão e mantendo só os termos de 1a ordem temos

ln P (i, NS ) ∝ ln ΩB (ESB , NSB ) − βB ES + βB µB NS (14.13)

ou seja,
P (i, NS ) ∝ e−βB ES +βB µB NS (14.14)
e como sempre o fator de proporcionalidade é obtido pela normalização
XX
P (i, NS ) = 1 (14.15)
NS i
P
com a soma sobre todos os micro-estados com NS fixo.
i
Portanto temos
e−βEi +βµNS
P (i, NS ) = (14.16)
ZGC
com XX
ZGC = e−βEi +βµNS (14.17)
NS i

a função partição grande canônico. Note que mudamos a notação e denotamos a energia do sistema
no micro-estado i como Ei e não ES para deixara claro que ela depende do micro-estado em questão.
Note que daqui em diante iremos abolir o sub-ı́ndice B na temperatura e potencial quı́mico já que
estes são iguais ao do sistema no equilı́brio.
Esse ensemble é chamado de grande canônico ou macro-canônico. Ele é caracterizado por
T, V, µ. Assim no grande canônico a energia e o número de partı́culas não é fixo e temos a proba-
bilidade de obter um dado valor. No entanto, como no canônico essa distribuição de probabilidade
se torna concentrada em torno de um valor mais provável com o aumento do sistema. Ou seja, no
limite termodinâmico as flutuações em torno desse valor tendem a zero. Assim pode-se associar o
valor mais provável com o equilı́brio termodinâmico.
Deve-se mencionar que tal como no canônico existem outras maneiras de se derivar a distribuição
grande-canônica. Ela pode ser obtida, por exemplo, a partir da maximização da entropia de Gibbs
sujeito aos vı́nculos de que energia média e número médio de partı́culas são fixos (veja pag. 242
do Greiner).
Para mostrar que as flutuações são pequenas na escala macroscópica devemos proceder como
no ensemble micro-canônico e canônico: expandir ln P (E, NS ) em torno do máximo até segunda
ordem6 . Com isso vemos que a P (E, NS ) se torna uma gaussiana nas variáveis E e NS com a
5 Em geral para sistemas clássicos µ ≤ 0. Pode-se entender isso pelo fato de que adicionar um partı́cula em

geral aumenta o número de micro-estados acessı́veis e portanto a entropia. Assim para manter a entropia e volume
constante durante o processo, precisamos de um decréscimo na energia, ou seja µdN ≤ 0. Isso pode ser provado
rigorosamente para um gás ideal clássico; mas não sei se em geral para sistemas clássicos. Veremos que para um gás
ideal de férmions µ pode ser positivo a baixas temperaturas
6 Note que além das derivadas segundas também devemos obter as derivadas ”cruzadas” ∂ ln P , ou seja o Hessiano
∂E∂N
para garantir que temos um máximo
160 CHAPTER 14. ENSEMBLE GRANDE-CANÔNICO

variâncias relativas proporcionais a √1N . Não iremos fazer estas contas aqui, já que são análogas
ao do canônico. Além disso, na aproximação gaussiana, o valor mais provável é igual ao valor
médio. Então associamos as grandezas macro da termodinâmica no estado de equilı́brio com os
valores médios do ensemble.
Vamos então obter os valores médio para E e NS O número médio de partı́culas fica
X 1 X
N= Ni P (i, NS ) = Ni e−βEi +βµNi (14.18)
i
ZGC i
P
com a soma sobre todas possı́veis micro-estados incluindo diferentes valores de N . Usando que
i

∂ X −βEi +βµNi X
e = βNi e−βEi +βµNi (14.19)
∂µ i i

temos
1 ∂
N= ln ZGC (14.20)
β ∂µ

A energia média é dada por


X 1 X
E= Ei P (i, NS ) = Ei e−βEi +βµNi (14.21)
i
ZGC i

Usando que


e−βEi +βµNi = (−Ei + µNi )e−βEi +βµNi

(14.22)
∂β
µ ∂ −βEi +βµNi
= −Ei e−βEi +βµN + e (14.23)
β ∂µ
temos que  
−βEi +βµNi µ ∂ ∂
Ei e = − e−βEi +βµNi (14.24)
β ∂µ ∂β
e portanto
 X
1 µ ∂ ∂
E= − e−βEi +βµNi (14.25)
ZGC β ∂µ ∂β i
µ ∂ ∂
E= ln ZGC − ln ZGC (14.26)
β ∂µ ∂β

E = µN − ln ZGC (14.27)
∂β

Como esperado tanto E como N podem ser obtidos a partir da função de partição grande-
canônica, que na verdade, como veremos mais uma vez, contém toda a informação sobre o sistema.
A função de partição pode ser escrita de outro modo mais simples se notarmos que
XX X X
ZGC = e−βEi +βµNS = eβµNS e−βEi (14.28)
NS i NS i

e X
e−βEi = ZC (T, V, NS ) (14.29)
i

é a função de partição canônica. Assim


X
ZGC = (eβµ )NS ZC (T, V, NS ) (14.30)
NS
161

Portanto ZGC é a soma ponderada pelo fator eβµ de todas as funções de partição canônicas
para um dado número de partı́culas. O peso da ponderação é chamado de fugacidade z = eβµ . Do
mesmo modo P que a partir da ”função de partição” do micro-canônico, Ω(E) pode ser obter a do
canônico ( Ω(E)e−βE ) pode-se obter a do grande-canônico a partir da do canônico. Ou seja, se
E
resolvemos o problema fı́sico em um dado ensemble, contando os micro-estados, só precisamos de
um pouco mais de matemática para obter a solução nos outros ensembles.
Mais formalmente temos que
X
ZGC = z NS ZC (T, V, NS ), (14.31)
NS

ou seja, ZGC é uma série polinomial em z com o coeficientes dados por ZC .


Além disso, quando usamos a fugacidade ZGC depende das variáveis (z, T, V ). Ou seja, tro-
camos a variável µ por z: ZGC (µ, T, V ) → ZGC (z, T, V ). Escrevemos então
1 X
E= Ei z Ni e−βEi (14.32)
ZGC i
 
Ni −βEi
∂ ∂
z Ni e−βEi . Ou seja, como temos uma
P P
Note que ∂β ZGC (z, β, V ) = ∂β z e = −Ei
i
derivada parcial em relação a β, z é uma constante e não deve ser derivada (mesmo dependendo
de β). Logo

E=− ln ZGC (z, β, V ) (14.33)
∂β
que tem a mesma forma que a fórmula do ensemble canônico mas com ZGC no lugar de ZC . O
número médio de partı́culas fica

N =z ln ZGC (z, β, V ) (14.34)
∂z
Vamos agora agora obter o valor mais provável para E e N . A probabilidade do sistema ter
energia E e N partı́culas é
e−β(E−µN )
P (E, N ) = Ω(E, N ) . (14.35)
ZGC
O valor mais provável, ou máximo, da energia ocorre quando
  −β(E−µN )
∂P (E, N ) ∂Ω(E, N ) e
= − βΩ(E, N ) =0 (14.36)
∂E ∂E ZGC
ou seja
1 ∂Ω(E, N )
= βR (14.37)
Ω(E, N ) ∂E


∂ ln Ω(E, N )

= βR (14.38)
∂E

Note que do lado direito temos uma propriedade do reservatório (por isso deixamos explicito o
sub-ı́ndice R). Do lado esquerdo temos uma propriedade do sistema. E usando mais uma vez que
S = KB ln Ω temos
1 ∂S
= βR (14.39)
KB ∂E


∂S
Identificando ∂E Ẽ
como a temperatura do sistema, temos que a energia mais provável ocorre
quando
TS = TR (14.40)
que é idêntico ao obtido para o canônico. Então a energia mais provável do grande-canônico é
igual a do canônico sendo ambas idênticas a energia fixa do caso micro-canônico.
162 CHAPTER 14. ENSEMBLE GRANDE-CANÔNICO

O número mais provável de partı́culas ocorre quando


  −β(e−µN )
∂P (E, N ) ∂Ω(E, N ) e
= + βµΩ(E, N ) =0 (14.41)
∂N ∂N ZGC
ou seja,
1 ∂Ω(E, N )
= −βR µR (14.42)
Ω(E, N ) ∂N
e novamente do lado esquerdo temos uma propriedade do sistemas, enquanto do lado direito temos
propriedades do banho. De modo análogo ao caso da energia obtemos

∂S µR
=− (14.43)
∂N TR

e identificando o lado esquerdo como o potencial quı́mico do sistema no equilı́brio, obtemos que o
valor mais provável, ou de equilı́brio de N , ocorre quando os potenciais quı́micos são iguais. Lem-
brando que esta condição já foi obtida quando estudamos a interação entre sistemas. A diferença
aqui é que um dos sistemas, R, é muito maior e portanto o seu potencial quı́mico, tal como T ,
não irá ser alterado. É o potencial quı́mico µ e a temperatura T do sistema que se ”ajusta” ao do
reservatório.
Como mencionamos no limite macroscópico podemos expandir P (E, N ) em torno do máximo,
ou valores de equilı́brio, até segunda ordem e obter um gaussiana. Nesse caso, temos uma gaussiana
tanto em E como em N . Pode-se assim mostrar que a aproximação gaussiana é boa no limite de
N  1 e que as flutuações relativas são pequenas na escala macro. E obviamente, na aproximação
gaussiana temos que valor mais provável é igual ao valor médio obtido no ensemble. Não iremos
fazer estas contas aqui, já que são semelhantes ao do canônico. Vamos somente obter as flutuações
ou desvios relativos.
Para o número de partı́culas queremos obter
2 2
σN = N2 − N (14.44)

Como já obtivemos N antes, vamos calcular N 2 usando os mesmos ”truques” de derivar para
escrever as somas em termos da função de partição
X e−βEi +βµNi 1 1 ∂2
N2 = Ni2 = ZGC (14.45)
i
ZGC ZGC β 2 ∂µ2

1 1 ∂ZGC
Como ZGC β ∂µ = N temos
1 1 ∂
N2 = (βZGC N ) (14.46)
ZGC β 2 ∂µ
 
1 1 ∂N ∂ZGC
N2 = βZGC + β N (14.47)
ZGC β 2 ∂µ ∂µ
1 ∂N 2
N2 = +N (14.48)
β ∂µ
e assim
2 1 ∂N
σN = (14.49)
β ∂µ
∂N
Vemos que as flutuações em N dependem de ∂µ que seria o equivalente da capacidade térmica
∂E ∂N
C = no canônico. No entanto, apesar de
∂T ∂µ ser uma ”função resposta”
do sistema ela não
tem um nome; talvez porque historicamente é difı́cil medi-la. Assim iremos tentar escrever ela
em termos de outras quantidades equivalentes. Nesse caso usaremos a compressibilidade,− V1 ∂V ∂p ,
7
que também é uma função resposta . Primeiro iremos identificar N com o número de partı́culas
7 A compressibilidade aparece naturalmente nas flutuações, e como uma função resposta, do ensemble de pressão

onde a pressão p é fixa e o volume V varia.


163

termodinâmico N . Assim escreveremos ∂N ∂µ em termos de outras grandezas. Temos que utilizar a


relação de Gibbs-Duhem (sec 3.4 do Salinas) para as variáveis intensivas

S V
dµ = − dT + dp (14.50)
N N
que leva à
∂µ V ∂p
= (14.51)
∂N N ∂N

T,V T,V
∂µ ∂p
Queremos obter ∂N em termos da compressibilidade que depende de ∂V . Mas da equação acima
∂µ ∂p ∂p ∂p
temos ∂N em função de ∂N . Assim temos que obter uma relação entre ∂N e ∂V . A princı́pio p é
função de T, V, N . Mas p é uma grandeza intensiva e logo não pode depender de N e V de modo
V
independente e deve depender de v = N . Assim
 
∂p ∂p ∂v −V ∂p
= = (14.52)
∂N ∂v ∂N N2 ∂v
e
∂p ∂p ∂v 1 ∂p
= = (14.53)
∂V ∂v ∂V N ∂v
logo
∂p V ∂p
=− (14.54)
∂N N ∂V
e  2
∂µ V ∂p V ∂p V 1
= =− = 2 (14.55)
∂N N ∂N N ∂V N K
com
1 ∂V
K=− (14.56)
V ∂p
a compressibilidade8 . Portanto temos finalmente que

N2
 
2 1 ∂N
σN = = KB T K (14.57)
β ∂µ V

Vemos que K ≥ 0 já que por definição σN 2


≥ 0. Também pode-se mostrar que ∂N ∂µ e logo a
compressibilidade aparecem no cálculo das derivadas segundas de P (E, N ), e logo K ≥ 0 garante
que exista um máximo em P (E, N ) e portanto um valor mais provável para N e um estado de
equilı́brio9 . É um requerimento para a estabilidade mecânica na termodinâmica, tal como ter
capacidade térmica a volume constante CV = ∂U ∂T ≥ 0 no canônico. Estas condições são intuitivas:
K ≥ 0 significa que aplicar uma pressão faz o volume diminuir.
Vamos olhar agora para as flutuações relativas:
p r
2
σN 1 KB T N 2
= K (14.58)
N N V
p r r
σN2
KB T KB T 1
= K= K√ (14.59)
N V v N
Ou seja, as flutuações relativas em N tendem a zero com √1N e tornam-se desprezı́veis para sis-
tema macroscópicos. Novamente deve-se mencionar no entanto que as flutuações podem se tornar
grandes. Isso ocorre perto de transições de fase onde K (ou CV ) podem se tornar muito grande
(na verdade tendem ao infinito no limite de N → ∞) e há duas fases, lı́quido e gás, por exemplo,
8 Na verdade podemos ter a compressibilidade a T ou S constante e a que aparece aqui é a T constante. De

qualquer modo elas estão conectadas e devem ser positivas, tal como CV e CP
9 Aqui também temos um tipo de relação ”flutuação-resposta” (ou flutuações dissipação) semelhante a entre σ
E
e CV
164 CHAPTER 14. ENSEMBLE GRANDE-CANÔNICO

coexistindo. Cada fase espalha a luz um modo distinto e perto do ponto crı́tico a luz será espal-
hada de diferentes maneiras pelas regiões em diferentes fases gerando um brilho intenso, fenômeno
chamado de opalescência: um fluido que era transparente se torna opaco. Esse fenômeno mostra
bem a essência das transições de fase: devido a grandes flutuações pequenas mudanças no sistema
(um pequeno aumento em T , por exemplo) causam grandes mudanças macroscópicas: fluido se
tornar opaco (ou sólido).
2
Também podemos analisar as flutuações na energia, σE , mas não faremos este cálculo explı́cito
aqui. O resultado é
2 2 2
 2
σE σC σN ∂E
= 2+ 2 (14.60)
Ē 2 Ē Ē ∂N
σ2
Vemos que as flutuações tem duas origens: o primeiro termo, ĒC2 , se deve a troca de energia, e o
σ2 ∂E 2

segundo termo, ĒN2 ∂N , é a flutuação na energia devia as flutuações em N ; troca de partı́culas
também gera troca de energia. Apesar da flutuação ser maior que no canônico, ela se torna nula
no limite termodinâmico.
Em resumo, vemos que no limite de N → ∞ todos os ensembles devem fornecer o mesmo
resultado, visto que as flutuações tendem a zero.
Até agora obtivemos a densidade de probabilidade de ensemble e sua função de partição.
Também vimos como obter os valores médios, e de equilı́brio, para E e N a partir de ZGC .
Ficou faltando fazer a conexão com o potencial termodinâmico relevante a partir do qual podemos
obter todas as grandezas termodinâmicas. Ou seja, o análogo de

S(E, N, V ) = KB ln Ω(E, N, V ) (micro-canônico) (14.61)


1
F (T, N, V ) = − ln ZC (T, N, V ) (canônico) (14.62)
β

14.1 Conexão micro macro


Como já mencionada exaustivamente, há diversas maneiras de fazer a conexão com a termodinâmica
e iremos apresentar algumas delas.

14.1.1 Conexão Micro/Macro via Função de Partição


Uma possibilidade é analisar ZGC . Como vimos podemos escrever
X
ZGC = eβµN ZC (β, N ). (14.63)
N

Como argumentamos antes, a densidade de probabilidade de encontrar o sistema com N partı́culas,


eβµN ZC (β, N ), assume um máximo bem estreito e assim pode-se aproximar a soma pelo maior
termo que domina
X
eβµN ZC (β, N ) ≈ max eβµN ZC (β, N )
 
(14.64)
N
N
X
eβµN ZC (β, N ) = max exp [−β (−µN − KB T ln ZC (βµ))] (14.65)
N
N
X
eβµN ZC (β, N ) = exp[−β min(−µN + F )] (14.66)
N
N

Assim
ZGC ≈ e−β minN (F −µN ) (14.67)
Esse mı́nimo ocorre no micro-estado mais provável que associamos ao estado de equilı́brio ter-
modinâmico. Ou seja, o equilı́brio ocorre quando a função F − µN é mı́nima. Por outro lado,
F − µN é uma transformação de Legendre da energia livre de Helmotz em relação a N o que gera
14.2. FORMA GERAL DE ZGC PARA SISTEMAS NÃO INTERAGENTES E O FATOR DE GIBBS165

o grande potencial termodinâmico Φ = F − µN (ou potencial grande-canônico ou potencial de


Landau). A partir de Φ todas as grandezas termodinâmicas podem ser obtidas. Portanto:

ZGC ≈ e−βΦ(T,µ,V ) (14.68)

e
1
Φ(T, µ, V ) = − ln ZGC (14.69)
β
que é análogo a expressão obtida no canônico com a correspondência F → Φ e ZC → ZGC .
Rigorosamente a correspondência deve ser feita no limite termodinâmico utilizando o potencial
Φ/V :
Φ 1 1
φ(µ, T ) = lim (µ, T, V ) = lim − ln ZGC (µ, T, V ) (14.70)
V →∞ V V →∞ βV
Note que temos que dividir por V e não por N como antes, já que N não é uma variável fixa
que controlamos. Lembremos que o potencial φ para um sistema com µ, T, V determinados tem o
mesmo significado que a energia livre F para um sistema com T, V, N fixos ou a entropia quando
E, V, N estão fixos.

14.1.2 Conexão Micro Macro via Entropia de Gibbs


Um outro modo de fazer a conexão com a termodinâmica é usar a definição de entropia de Gibbs

S = −KB ln P (14.71)
XX
S = −KB P (i, N ) ln P (i, N ) (14.72)
N i
XX e−βEi +βµN
S = −KB P (i, N ) ln (14.73)
i
ZGC
N
XX
S = −KB (−βEi + βµN − ln ZGC )P (i, N ) (14.74)
N i
 XX
1 µXX XX
S= Ei P (i, N ) − N P (i, N ) + KB ln ZGC P (i, N ) (14.75)
T i
T i i
N N N
E µ
S= − N + KB ln ZGC (14.76)
T T

Identificando E com energia interna U e N com N temos

U − µN − T S = φ = −KB T ln ZGC (14.77)

Logo
1
Φ(µ, T, V ) − ln ZGC (µ, T, V ) (14.78)
β
Como havı́amos obtido anteriormente.

14.2 Forma Geral de ZGC para Sistemas não Interagentes e


o Fator de Gibbs
Por último devemos mencionar que no grande-canônico também devemos considerar o fator de
Gibbs para partı́culas idênticas não localizadas. E para sistemas de partı́culas não interagentes a
função ZGC também fatora na função de uma única partı́cula. Assim
X ZC (T, V, N )
ZGC (µ, T, V ) = zN (14.79)
N!
N
166 CHAPTER 14. ENSEMBLE GRANDE-CANÔNICO

e como ZC (T, V, N ) = ZC (T, V, 1)N temos


X 1 N
ZGC (µ, T, V ) = [zZC (T, V, 1)] (14.80)
N!
N

e no limite termodinâmico N → ∞ ficamos com

ZGC (µ, T, V ) = ezZC (T,V,1) (14.81)

Assim pode-se obter ZGC ainda mais facilmente a partir de ZC .


No caso de partı́culas que são idênticas mas podem ser distinguidas, por estarem localizadas,
por exemplo, não devemos usar o fator de Gibbs. Assim temos uma PG e

1
ZGC (µ, T, V ) = (14.82)
(1 − zZC )

14.3 Gás Ideal Clássico no Grande-Canônico


Agora iremos tratar o exemplo do gás ideal clássico mais uma vez. Temos:
"  32 #N
2πmKB T
ZC (N, T, V ) = V (14.83)
h2

Logo usando a expressão obtida acima para partı́culas não interagentes e considerando o fator de
Gibbs N1 ! temos:
"  3 #
βµ 2πmKB T 2
ZGC (µ, T, V ) = exp e V (14.84)
h2

e portanto
  32
βµ 2πmkB T
Φ(µ, T, V ) = −KB T ln ZGC = −KB T e V (14.85)
h2
Com Φ podemos obter todas as grandezas termodinâmicas. A entropia fica
  32   
∂Φ 2πmKB5 3 5 −µ
S(µ, T, V ) = − = KB V T2 +T2 eβµ (14.86)
∂T h2 2 KB T 2
 3  
∂Φ 2πmKB T 2 5 µ
S(µ, T, V ) = − = eβµ V K B − . (14.87)
∂T h2 2 KB T

A pressão fica
  32
∂Φ 2πmKB T
P (µ, T, V ) = − = KB T eβµ . (14.88)
∂V h2
E o número médio de partı́culas
  32
∂Φ 2πmKB T
N̄ (µ, T, V ) = − = eβµ V . (14.89)
∂µ h2

As expressões obtidas não se parecem com as obtidas no micro-canônico ou no canônico. Isso


porque elas estão em função de µ e T e não em função de E e N . Uma opção é inverter a função
N̄ (µ, T, V ) para obter µ(N̄ , T, V ) e então recuperar as expressões do canônico. Mas aqui é mais
fácil comparar as expressões para P e N̄ , que associamos com N , e notar que conforme esperado

P V = N KB T. (14.90)
14.4. OUTROS ENSEMBLES 167

Também pode-se obter o valor médio de E



E=− ln ZGC (β, T, V ) (14.91)
∂β
"  3 #
∂ 2πmKB T 2
E == − zV (14.92)
∂β h2
 3  
2πmKB T 2 3 −5
E = −zv 2
− β 2 (14.93)
h 2
  32
3 2πmKB T 1
E(µ, T, V ) = zV (14.94)
2 h2 β
Novamente a expressão não se parece com as obtidas nos outros ensembles. Mas comparando com
expressão para N temos
3
E = N KB T (14.95)
2

14.4 Outros Ensembles


Usando o mesmo ”receituário” do ensemble canônico e grande-canônico podemos construir outros
ensembles. A diferença entre os ensemble é somente a forma como o sistema fı́sico interage com a
vizinhança e as grandezas termodinâmicas que o descrevem. Do ponto de vista da termodinâmica
a relação entre os diferentes conjuntos de grandezas é dado por transformações de Legendre.
Já consideramos os casos onde os conjuntos de parâmetros macro conhecidos são (E, N, V ),
(T, N, V ) e (T, µ, V ). Uma outra possibilidade é (T, p, N ) que leva ao ensemble de pressão. Nesse
ensemble a energia e volume não são fixos mais sim a temperatura T e a pressão p. Para isso
devemos considerar o nosso sistema em contato com um banho (reservatório) de calor (energia)
e trabalho (ou volume). Como anteriormente consideramos o sistema total isolado com energia e
volume total fixos. Nesse caso a pressão desempenha para o volume o mesmo papel que T para
E e µ para N . Não irei apresentar os cálculos que são completamente análogos (ver sec. 7.1 do
Salinas). Os resultados são:
1 −β(Ei +pVi )
P (i, Vi ) = e (14.96)
Zp
com XX
Zp = e−β(Ei +pVi ) (14.97)
V i
e
∂ ln ΩB p
= (14.98)
∂V KB T
O potencial termodinâmico nesse caso é chamado de energia livre de Gibbs e é dado por

G = F + pV = U − T S + pV (14.99)

Ele é mı́nimo no estado de equilı́brio e permite a conexão com a termodinâmica pela relação
1
G(T, p, V ) = − ln Zp (T, p, V ) (14.100)
β
que como de costume é rigorosamente válida somente no limite termodinâmico considerando as
densidades.
Note que não podemos deixar E, N e V todos livres. Por um lado o limite termodinâmico
não é bem definido já que não temos controle sobre nenhuma das variáveis extensivas. Por outro
lado pode-se mostrar que a transformação de Legendre usando E, N e V (ou seja, o potencial
termodinâmico relevante) é 0. Além disso neste ensemble o equilı́brio deve ocorrer quando T1 = T2 ,
µ1 = µ2 e p1 = p2 mas somente duas das três variáveis intensivas (T, µ, p) são independentes e
portanto em geral não é possı́vel satisfazer as três condições ao mesmo tempo. Mas existem
situações onde isso ocorre, como no equilı́brio entre fases: ponto triplo da água por exemplo. Um
168 CHAPTER 14. ENSEMBLE GRANDE-CANÔNICO

outro ensemble que também tem problemas é quando somente a pressão esta livre, ou seja, uma
parede móvel adiabática. Neste caso o estado de equilı́brio também fica mau definido (veja apêndice
C do Callen, por exemplo)

14.5 Conexão formal entre ZC e ZGC


Já vimos que as funções de partição do canônico e micro-canônico estão conectados por uma
transformada de Laplace. Por outro lado vimos que
X
ZGC (β, z) = z N ZC (β, N ) (14.101)
N

Ou seja, ZGC é uma polinomial em z onde os coeficientes são dados por ZC . Novamente a pergunta
é se podemos escrever ZC em termos de ZGC . Para isso temos que considerar β como complexo e
fazer a continuação analı́tica de ZGC no plano complexo. Como ZC não depende de z N podemos
usar o teorema de Cauchy que fornece
I
1 ZGC (β, z)
Z(β, N ) = dz (14.102)
2πi c z N +1
H
sendo que o contorno de c deve incluir a origem.
Lembrando que o teorema de Cauchy diz que uma função (holomórfica, ou seja, complexo-
analı́tica) definida numa região (dentro de um disco) é completamente definida por seus valores na
borda (fronteira) da região (no cı́rculo):
I
1 f (z)
f (a) = dz (14.103)
2πi z−a
1
Como z−a pode ser expandido em potencias de (a − zo ), f é diferenciável e temos
I
n! f (z)
f (n) (a) = dz (14.104)
2πi (z − a)n+1

com f (n) a n-ésima derivada de f no ponto a. Assim o teorema conecta os coeficientes de uma
função quando expandido em série com sua integração na borda. Ou seja, conecta da derivada
com a integral.
Em suma, dado ZGC também pode-se obter ZC e vemos que os ensembles são formalmente
equivalentes no limnite N → ∞

14.6 Derivadas parciais


Aqui quero justificar a relação10

∂S ∂S ∂E
=− (14.105)
∂N ∂E ∂N

E,V N,V S,V

O detalhe aqui é a presença do sinal menos que não aparece se usarmos a regra da cadeia direta-
mente (manipularmos as as derivadas como meras frações).
Um modo de se obter essa relação é considerar que temos cinco variáveis X, Y, Z, U, W e supor
que X(Y, Z) e Y (U, W ) e Z(U, W ). Assim pela regra da cadeia temos
∂X ∂X ∂Y ∂X ∂Z
= + (14.106)
∂U W ∂Y Z ∂U W ∂Z Y ∂U W

No caso onde W = X e U = Y temos


∂X ∂X ∂Z
0= + (14.107)
∂Y Z ∂Z Y ∂Y X

10 Veja exemplo 3.10 do livro do James P. Sethna e sec.5.2 do livro ”Termodinâmica” do Mário J. de Oliveira
14.6. DERIVADAS PARCIAIS 169

Agora aplicamos isso para a função S(N, E) (ignoramos V já que não é variado) com N (S, N )
e N (S, N ) e temos
∂S ∂S ∂E
0= + (14.108)
∂N ∂E ∂N

E N S
que leva a relação desejada.
Um outro modo é considerar a superfı́cie S(E, N ). Podemos agora considerar um caminho
fechado na superfı́cie em três ”passos”
1)N0 → N0 + ∆N com S constante:

∂E
(S0 , N0 , E0 ) → (S0 , N0 + ∆N, E0 + ∆N ) (14.109)
∂N
S

2)Agora volto para E0 com N constante



∂S ∂E
→ (S0 + ∆E, N0 + ∆N, E0 + ∆N − ∆E) (14.110)
∂E ∂N
N S

∂E

∆E = ∆N (14.111)
∂N
S

3)Por último volto para o S0 e N0 com E constante



∂S ∂S
→ (S0 + ∆E + ∆N, N0 , E0 ) (14.112)
∂E ∂N
N E

Como devo voltar ao mesmo ponto e S(E, N ) é uma função e só pode assumir um único valor
tenho

∂S ∂S
∆E + ∆N = 0 (14.113)
∂E ∂N
N E
!
∂S ∂E ∂S
+ ∆N = 0 (14.114)
∂E ∂N ∂N

N S E
170 CHAPTER 14. ENSEMBLE GRANDE-CANÔNICO

Figure 14.1:
Chapter 15

Gás Ideal Quântico

Iremos estudar novamente o gás ideal, mas agora fazendo um tratamento quântico. Assim o micro-
estado não será um ponto no espaço de fases: (q~1 , ..., q~N , p~1 , ..., p~N ).
O micro-estado de uma partı́cula quântica é dado por uma função que chamamos de função de
onda
(~q, p~) → ψσ (~q) (15.1)

Na verdade está é a representação deste vetor no espaço de coordenadas espacial. Do mesmo modo
pode-se obter sua representação no espaço de momentos φσ (~ p). O ı́ndice σ contém informação
sobre qual estado quântico a partı́cula está; no caso do gás de Boltzmann por exemplo n iria dizer
qual a energia da partı́cula. Ele também pode conter informação sobre o spin da partı́cula.
No caso de um sistema de N partı́culas idênticas o micro-estado seria dado por uma função de
onda
ψ = ψσ1 ,...,σN (q~1 , ..., q~N ) (15.2)

A princı́pio qualquer função ψ que seja quadrado integrável é aceitável. No entanto uma análise
mais cuidadosa de sistemas de muitas partı́culas mostra que a MQ impõe outras restrições sobre
ψ. Isso vem do fato de que no MQ as partı́culas são indistinguı́veis. Na verdade essa é uma
caracterı́stica fundamental do MQ: partı́culas idênticas não podem ser distinguidas, não importa
que medidas você faça nem a sua precisão. Pode-se entender essa limitação como tendo origem no
princı́pio de incerteza de Heisenberg: δxδp ≥ h. Ele implica no fato de que não podemos seguir
exatamente uma partı́cula e portanto distinguı́-la de outras idênticas na sua vizinhança. Assim
quando encontramos uma partı́cula em algum ponto do espaço não sabemos de onde ela veio e
qual partı́cula especificamente é !
Logo a função de onda tem que ser tal a não permitir distinguir partı́culas idênticas: quando
trocamos o estado de duas partı́culas não temos um novo micro-estado. Por outro lado a quantidade
real relevante na predição de experimentos não é ψ mas sem seu módulo quadrado |ψ|2 . Logo ao
trocar o micro-estado de duas partı́culas ψ pode mudar, porém |ψ|2 não. Duas possibilidades nesse
caso são: 1
ψ(..., q~i , ..., q~j , ...) = ±ψ(..., q~j , ..., q~i , ...) (15.3)

Assim só as funções de onda com essa propriedade são válidas para descrever sistemas de
partı́culas idênticas. 2
1 Na verdade pode-se definir um operador permutação P que troca as partı́culas. Como após trocar e destrocar

devemos voltar ao estado original devemos ter P 2 = 1 e logo seus autovalores são ±1.
2 na verdade ψ → eiθ ψ também preserva |ψ|2 para qualquer θ e não somente para θ=0 ou φ. Pode-se argumentar

que se trocarmos as partı́culas novamente devemos voltar a mesma função ψ e daı́

e2iθ ψ = ψ → 2θ = 0 ou 2π (15.4)

. No entanto pode ser argumentar que exigir que ψ não mude após ”trocar e destrocar” as partı́culas é muito; mas
não entraremos em detalhes. De fato em 2D θ pode assumir qualquer valor o que da origem a partı́culas chamadas
anyons com estatı́stica fracionária. Elas são previstas como excitações no efeito Hall quântico fracionário.

171
172 CHAPTER 15. GÁS IDEAL QUÂNTICO

Assim temos dois tipos de função de onda:

ψ → +ψ : simétricos (15.5)
ψ → −ψ : anti-simétricos (15.6)

Essas propriedades de simetria de ψ estão relacionadas com o spin das partı́culas. Partı́culas
com spin inteiro (1,2,3,...) tem função de onda simétrica e são chamadas de bósons: fótons,
fónons, He4 , Gluóns, W ± , Z, Gravitons(?). Partı́culas com spin semi-inteiros ( 12 , 23 , 52 , ..., ) tem
função de onda anti-simétrica e são chamadas de férmions: elétrons, prótons, nêutrons, neutrino,
quarks,... Note que partı́culas compostas por um número de par de férmions são bósons. Essa
relação entre simetria sobre troca de partı́culas e o spin das partı́culas é de difı́cil compreensão e
resulta da invariância de Lorentz na teoria de campos quânticos. Ela é estabelecida pela teorema
spin-estatı́stica.
Vamos considerar um exemplo simples de 2 partı́culas não interagentes

H = H1 + H2 (15.7)
com
p~2j
Hj = + V (r~j ) (15.8)
2m
Cada partı́cula pode estar em um dos auto-estados de energia obtidos a partir de Hi ψi (~ ri ) =
ψi (~
ri ) com ψi o auto-estado de uma partı́cula (também chamado de Orbital) e i sua respectiva
energia. Como as partı́culas não interagem

ET otal = 1 + 2 (15.9)

Os auto estados de energia das 2 partı́culas é o produto dos autoestados individuais: ψ1 (r~1 )ψ2 (r~2 ).
Mas os auto estados de H não são as únicas funções de onda possı́veis. Qualquer superposição
de auto estados: X
c1 2 ψ1 (r~1 )ψ2 (r~2 ) (15.10)
1 ,2

também é um estado válido. No entanto só alguns deles respeitam a simetria exigida. No caso de
duas partı́culas as únicas ψ que obedecem a simetria são

1
ψS (r~1 , r~2 ) = √ [ψ1 (r~1 )ψ2 (r~2 ) + ψ1 (r~2 )ψ2 (r~1 )] (15.11)
2

que é simétrica. E
1
ψA (r~1 , r~2 ) = √ [ψ1 (r~1 )ψ2 (r~2 ) − ψ1 (r~2 )ψ2 (r~1 )] (15.12)
2
que é anti-simétrica. É fácil ver que ψS não muda quando trocamos as partı́culas enquanto ψA
ganha um sinal negativo.
Uma consequência importante dessa simetria é que se as duas partı́culas tiverem o mesmo
estado 1 = 2 =  então
ψA = 0 (15.13)
Isso implica que férmions (que obedecem a anti-simetrização) não podem ocupar o mesmo estado
quântico. Isso é o que em geral se conhece como o princı́pio de exclusão de Pauli. Bósons no
entanto podem ocupar o mesmo estado; isso possibilita, como veremos, a conhecida condensação
de Bose-Einsten.
Para um exemplo mais concreto vamos imaginar que cada partı́cula só pode assumir 3 estados:
i com i = 1, 2 ou 3. Denotando as partı́culas por A e B temos as seguintes possibilidades no caso
clássico
No caso quântico de bósons temos (A = B)
No caso de fermions há somente 3 estados possı́veis
173

1 2 3 Função de onda
AB ψ1 (r~A )ψ1 (r~B )
AB ψ2 (r~A )ψ2 (r~B )
AB ψ3 (r~A )ψ3 (r~B )
A B ψ1 (r~A )ψ2 (r~B )
B A ψ2 (r~A )ψ1 (r~B )
A B ψ1 (r~A )ψ3 (r~B )
B A ψ3 (r~A )ψ1 (r~B )
A B ψ2 (r~A )ψ3 (r~B )
B A ψ3 (r~A )ψ2 (r~B )

Table 15.1: Possiveis micro-estados para duas particulas que podem cada uma ocupar tres niveis
no caso onde as particulas sao distinguiveis

1 2 3 Função de onda
AA ψ1 (r~A )ψ1 (r~B )
AA ψ2 (r~A )ψ2 (r~B )
AA ψ3 (r~A )ψ3 (r~B )
A A √1 [ψ1 (r~A )ψ2 (r~B ) + ψ1 (r~B )ψ2 (r~A )]
2
A A √1 [ψ2 (r~A )ψ3 (r~B ) + ψ2 (r~B )ψ3 (r~A )]
2
A A √1 [ψ1 (r~A )ψ3 (r~B ) + ψ1 (~ 2 )ψ3 (r~A )]
2

Table 15.2: Possiveis micro-estados para duas particulas que podem cada uma ocupar tres niveis
no caso onde as particulas sao bosons

No caso clássico o micro-estado é definido por uma lista com o micro-estado de cada partı́cula.
No quântico isso não faz sentido porque não sabemos qual partı́cula está em um dado micro-estado.
No caso do último estado de bosons dado por
1
√ [ψ1 (r~A )ψ3 (r~B ) + ψ3 (r~A )ψ1 (r~B )] (15.14)
2
a única coisa que sabemos é que há uma partı́cula no estado 1 e outra no 3, mas não sabemos
qual está onde! Assim uma lista com os micro-estado de cada uma (como a tabela acima) não é
a melhor descrição. Ao invés disso devemos ter uma lista com o número de partı́culas em cada
estado
(i1 , i2 , ..., ik , ...in ) → (n1 , n2 , ..., nj , ..., nd ) (15.15)
com ik o estado da partı́cula k, nj o número de partı́culas no estado j e d o número total de
possı́veis estados de 1 partı́cula. Note que dado (n1 , ..., n2 ) não podemos obter(i1 , ..., in ): não
temos informação sobre qual partı́cula está em qual estado. Pode-se pensar que ao invés de ir
olhando partı́cula por partı́cula e anotando seus estados, vamos percorrendo cada nı́vel de energia
e anotando quando partı́culas temos. Isso sugere uma mudança das partı́culas e seus estados como
os entes fundamentais para os nı́veis e suas ocupações. nj é chamado de número de ocupação do
estado j.
Como não podem haver dois férmions num mesmo estado temos
(
0 ou 1 para férmions
nj = (15.16)
0, 1, 2, ..., N para bósons

Outro ponto interessante é olhar para


probabilidade de 2 partı́culas ter o mesmo estado
ξ= (15.17)
probabilidade de 2 partı́culas ter estados diferentes
Temos
3 1
ξCLA = = (15.18)
6 2
174 CHAPTER 15. GÁS IDEAL QUÂNTICO

1 2 3 Função de onda
A B √1 [ψ1 (r~A )ψ2 (r~B ) + ψ1 (r~B )ψ2 (r~A )]
2
A B √1 [ψ2 (r~A )ψ3 (r~B ) + ψ2 (r~B )ψ3 (r~A )]
2
A B √1 [ψ1 (r~A )ψ3 (r~B ) + ψ1 (r~B )ψ3 (r~A )]
2

Table 15.3: Possiveis micro-estados para duas particulas que podem cada uma ocupar tres niveis
no caso onde as particulas sao fermions

3
ξBOS =
=1 (15.19)
3
0
ξF ERM = = 0 (15.20)
3
Ou seja, as probabilidade são diferentes e há uma probabilidade maior de encontrar bosons juntos
no mesmo estado: eles tem uma tendência de se juntar no mesmo estado. Já fermions têm uma
tendência a se separar.
Assim dizemos que Partı́culas clássicas obedecem a estatı́stica de Maxwell-Boltzmann. Bosons
obedecem a estatı́stica de Bose-Eistein e Fermions obedecem a estatı́stica de Fermi-Dirac
Como veremos a diferença entre bósons e fermions será mais supreendente no limite de baixas
temperaturas. Para ver isso considere um gás com N partı́culas e cujo menor nı́vel de energia de
1 partı́cula é 1 (partı́cula tem momento zero). No caso de bósons como não há restrição sobre
quantas partı́culas podem estar um único estado, o estado de menor energia é obtido colocando
todas as N partı́culas no nı́vel 1 (todas partı́culas com p=0) e essa será a situação T =0. Mas no
caso de férmions isso não pode ocorrer: após coclocar uma partı́cula no estado 1 a próxima terá
que ocupar o próximo nı́vel de menor energia e assim por diante. Assim, mesmo a T =0 com o gás
no estado de menor energia há partı́culas com energias muito maiores que 1 .
Por fim a estatı́stica parece introduzir uma interação mesmo em partı́culas não interagentes.
No caso de férmions por exemplo, o fato de que uma partı́cula ocupa um certo nı́vel i impede
que outra partı́cula, mesmo sem interagir com ela, ocupe esse mesmo nı́vel: ela tem ”informação”
sobre a presença dessa outra partı́cula.
Note também que os nı́veis i são dados pelo Hamiltoniano e as condições de contorno.

15.1 Particula quântica na caixa


Vamos estudar com mais detalhes os possı́veis estados quânticos para uma partı́cula livre. Isso
irá facilitar a discussão posterior. Consideramos como partı́cula livre, mas confinado numa região
unidimensional de comprimento L: pode estar entre 0 e L
A função de onda ψn (x), o orbital, é obtido pela solução da equação de Schrödinger indepen-
dente do tempo.
Hψn (x) = n ψn (x) (15.21)
com
p2 −k 2 d2
H= = (15.22)
2m 2m dx2
d
e p = −~ dx o operador momento na representação de coordenadas
Assim temos que resolver a equação

~2 d 2
− ψn (x) = n ψn (x) (15.23)
2m dx2
A solução deve ter a seguinte forma:

ψn (x) = ceikx (15.24)

com
~2 k 2
n = (15.25)
2m
15.1. PARTICULA QUÂNTICA NA CAIXA 175

Vemos que o parâmetro k está relacionado com a energia. A princı́pio ele pode assumir qualquer
valor e não há quantização de energia. A quantização só ocorre quando impomos condições de
contorno sobre a partı́cula e portanto sobre ψn (x): a partı́cula está limitada a região L (como se
estivesse numa caixa com paredes) que e dada pelo potencial do poço infinito
(
0 0<x<L
V (x) = (15.26)
∞ caso contrario

Podemos usar duas condições de contorno sobre ψ. A mais direta e usar que a funçao de onda
e nula nas paredes (e fora da caixa):

ψ(0) = ψ(L) = 0 (15.27)

A condiç ao ψ(0) = 0 implica em


ψn (x) = c sin kx (15.28)
E a condiç ao ψ(L) = 0 implica em
sin kL = 0 (15.29)
Logo temos kL = nπ, ou seja,

k= n = 0, 1, ... (15.30)
L
RL
Por outro lado 0
|ψn (x)|2 dx = 1, ou seja,
Z L  nπ 
|c|2 sin2 x dx = 1 (15.31)
o L
nπ nπ
Fazendo a substituição u = L x e du = L x temos
Z nπ  
L
1 = |c|2 sin2 u du (15.32)
0 nπ
L π
1 = |c|2 n (15.33)
r nπ 2
2
c= (15.34)
L
Assim os auto-estados de energia ficam
r
2  nπx 
ψn (x) = sin com n = 1, 2, 3 (15.35)
L L
com as auto energias
~2 π 2 2
n = n (15.36)
2mL2
Note que n = 0 é a solução trivial: ψ(x) = 0 para todo x
Também pode-se usar condições de contorno periódicos ψ(x) = ψ(x + L) que corresponde a
partı́cula confinada num cı́rculo. Neste caso temos

eikx = eikx eikL (15.37)

e logo
eikL = 1 (15.38)
que leva a
2nπ
k= com n = 0, ±1, ±2, ... (15.39)
L
Para L  1 as duas condições são equivalentes. Assim por conveniência iremos utilizar
condições periódicas
176 CHAPTER 15. GÁS IDEAL QUÂNTICO

A soma sobre micro-estados se torna uma soma sobre valores possı́veis de k. O intervalo entre
dois valores consecutivos é 2π
L e portanto vai a zero no limite de L → ∞ e a soma pode ser trocada
por uma integral: Z Z
X dk L
f (k) → 2π f (k) = dkf (k) (15.40)
L

k
Podemos ter que levar em conta também outros graus de liberdade, como o spin. Assim se a
energia não depende do spin temos seu valores possı́veis são

~2 k 2
i ≡ k,σ ≡ (15.41)
2m
Se há um campo magnético externo interagindo com o spin teremos
~2 k 2
k,σ = − µB Hσ (15.42)
2m
Algumas vezes é necessário incluir outros graus de liberdade associados a rotação, vibração, etc.

15.2 O problema estatı́stico


Como já mencionamos no caso de partı́culas idênticas o micro-estado é caracterizado pelos números
de ocupação. Eles caracterizam a função de onda.

{n1 , n2 , ..., nj , ...} ≡ {nj } (15.43)


com nj o número de partı́culas estado, ou orbital, j A energia do sistema fica
X
E({nj }) = j n j (15.44)
j

com j a energia de orbital j. Por fim, o número total de partı́culas é


X
N ({nj }) = nj (15.45)
j

Uma vez mais, o que importa no caso quântico, onde as partı́culas são indistinguı́veis, não é o
estado de cada uma, mas sim quantas ocupam um dado micro-estado. Agora só temos que usar
essas informações nos ensembles já conhecidos
No ensemble canônico temos
X
Z(T, V, N ) = e−βE({nj }) (15.46)
P {nj }
j nj =N

Note que na soma sobre todos os possı́veis micro-estados, há o vı́nculo que o número de partı́culas
P0
N é fixo. Em geral essa some é escrita com um indice superior: {nj }
Devido a este vı́nculo, apesar do exponencial se fatorar, a soma não fatora. Ou seja não é
suficiente conhecer a Zc de 1 partı́cula. O vı́nculo impende fazer a soma sobre cada um dos nj de
forma independente: X P X X
e−β j j nj 6= e−β1 n1 e−β2 n2 ... (15.47)
n1 n2
P {nj }
j nj =N

Ou seja o problema se torna calcular essa soma com o vı́nculo, o que pode ser bem complicado.
Esse problema se torna muito mais simples no grande-canônico já que o vı́nculo sobre o número
de partı́culas não existe. Isto ocorre porque a função de partição fica

X
ZGC (T, V, µ) = eβµN Z(T, V, N ) (15.48)
N =0
X X
ZGC (T, V, µ) = eβµN e−β1 n1 −β2 n2 −... (15.49)
N P {nj }
j nj =N
15.2. O PROBLEMA ESTATÍSTICO 177

e temos duas somas: uma para N e outra sobre {ni } com o vinculo de N fixo. O resultado dessas
duas somas é equivalente a somar sobre cada ni sem a restrição sobre N . Vamos analisar o exemplo
com 3 nı́veis temos
XX N NX−n1 X
(15.50)
N n1 =0 n2 =0 n3=N −n1 −n2

O fato das somas não serem independentes fica claro, já que usamos o vinculo para escrever n2 e
n3 em termos de n1 e N . Outro modo de ver isso é que se n1 = N , por exemplo, todos os outros
ni (i 6= 1) tem que ser nulos. Isso para N fixo. Mas como há a soma sobre N haverá o termo N + 1
e daı́ mesmo com n1 = N algum outro ni poderá ser 1. Na verdade cada um deles poderá ser 1.
Depois temos o termo N + 2 onde cada um dos ni (i 6= 1) poderá ser 2 ou 2 deles poderão ser 1. E
assim por diante. Então cada ni poderá assumir um valor de 0 a N . Em suma faço uma soma com
vı́nculo e depois considero todos os possı́veis valores para o vı́nculo e isso é equivalente a somar
sem o vı́nculo.
Note que no caso de magnetos independentes ou os osciladores no sólidos de Einstein Zc fatoramos
devido ao fato das partı́culas serem independentes. Aqui mesmo tendo partı́culas que não interagem
não há fatoração. Por quê? No caso anterior tı́nhamos
N
X
E= i (15.51)
i=1

que pode ser reescrito em termos dos números de ocupação


d
X
E= n i i (15.52)
i=1

Note que a soma agora é sobre os possı́veis nı́veis e não sobre partı́culas. A função de partição era
X X
Zc = e−βE(1 ,...,N ) = e−β(1 +2 +...+N ) (15.53)
E 1 ,...,N

X X X X
Zc = e−βE(1 ,...,N ) = e−β1 e−β2 ... e−βN (15.54)
E 1 2 N

Como não há restrição na energia e as partı́culas não interagem a soma fatora. Mas note que nessa
soma estamos contando como diferentes micro-estados onde as partı́culas são trocadas de nı́vel.
Mas isso não altera os números de ocupação. Assim se quisermos usar a notação (1 , ..., N ) para o
micro-estado e levar em conta que as partı́culas são indistinguı́veis não podemos contar duas vezes
esses estados. Isso gera um vı́nculo no somatório que impede a sua fatoração. E não podemos
escrever esse vı́nculo de maneira simples. A notação de número de ocupação tem a vantagem de
incorporar esse vı́nculo de modo mais natural.
Voltando a função de partição no grande canônico, temos então
X
ZGC (T, V, µ) = eβµ(n1 +n2 +...) e−β(1 n1 +2 n2 +...) (15.55)
n1 ,n2 ,...
X
ZGC (T, V, µ) = e−β(1 −µ)n1 e−β(2 −µ)n2 ... (15.56)
n1 ,n2 ,...
! !
X X
−β(2 −µ)n1 −β(2 −µ)n2
ZGC (T, V, µ) = e e ... (15.57)
n1 n2
!
Y X
−β(2 −µ)ni
ZGC (T, V, µ) = e (15.58)
i ni

Assim ZGC fatora mas não nos ZGC de 1 partı́cula, mas no ZGC de 1 nı́vel.
Note que no caso de partı́culas distinguı́veis também podemos fazer a soma sobre número de
ocupação. Mas temos que levar em conta de que há mais que um micro-estado para um conjunto
178 CHAPTER 15. GÁS IDEAL QUÂNTICO

{nj }: quando trocamos os estados de duas partı́culas temos um macro-estado, mas os números de
ocupação não mudam. Assim
X X N!
→ (15.59)
n1 !n2 !...
{ni } {ni }

com n1 !n2 !... número de maneiras de trocar as partı́culas dentro dos nı́veis e logo sem alterar os
números de ocupação..
Obtido ZGC podemos obter E e N e escrever Φ do mesmo modo que fizemos anteriormente.
Além das grandezas termodinâmicas usuais também é de interesse o número médio de partı́culas
num dado nı́vel: nj
Outra grandeza de interesse é a probabilidade de um dada configuração dos números de
ocupação, de uma dado micro-estado onde as partı́culas são indistinguı́veis:
Q −β(Ei −µ)ni
e−βE({ni })+βµN e
P ({ni }) = = ni (15.60)
ZGC ZGC
Assim
e−β(i µ)ni
X Q
i
nj = nj (15.61)
ZGC
{ni }

Note que não somei sobre os valores de ni mas sim sobre {ni } e por isso usei P ({ni }) e não P (ni )3
Usando que
∂ Y −β(i −µ)ni
e = −βni πi e−β(i −µ)ni (15.62)
∂j i
temos
1 ∂
nj (β, µ, V ) = − ln ZGC (β, µ, V ) (15.63)
β ∂j
Para obter uma expressão final para ZGC temos que distinguir os dois tipos de estatı́stica:
(
0 ou 1 para fermions
nj = (15.64)
0, 1, 2, ..., N para bosons

Note também que os estados (ou nı́veis) são os estados de uma partı́cula. Assim, quando
dizemos n2 = 2 queremos dizer que há 2 partı́culas no estado 2 que é um estado de 1 partı́cula
Cada partı́cula tem o estado 2 permitido para ela. Note que para fermions isso é proibido. O fato

Figure 15.1:

de 1 partı́cula ocupar seu nı́vel 2 proı́be outro de ocupar seu nı́vel 2 apesar de elas não interagirem.

15.3 Estatı́stica de Bósons


Para bósons temos que realizar a soma

X 1
e−β(j −µ)n = (15.65)
n=0
1 − e−β(j −µ)
" #
3 É
P P P
equivalente já que para duas variáveis aleatórias x e y temos: x = x P (x, y) = x P (x, y) =
xy x y
" #
P P
x P (x) já que P (x, y) = P (x).
x y
15.4. ESTATÍSTICA DE FÉRMIONS 179

Isso é uma progressão geométrica: 1 + a + a2 + a3 + ... cuja soma é (1 − a)−1 . Para a série convergir
devemos ter a = e−β(j µ) < 1 para todo j, ou seja,

e−β(j −µ) < 1 (15.66)


−β(j − µ) < ln 1 = 0 (15.67)
j − µ > 0 (15.68)
j > µ (15.69)

Portanto o potencial quı́mico de bósons tem que ser menor que o menor nı́vel. Considerando o
menor valor de j como 0 temos µ < 0. Assim, mantemos a restrição encontrada para um gás ideal
clássico de que o potencial quı́mico é sempre negativo. Como veremos o caso limite de µ → 0− irá
levar ao fenômeno de condensação de Bose-Einstein.
A função de partição fica
Y 1
ZGZ = −β(
(15.70)
1−e j −µ)
j

e h i
X
ln ZGC = − ln 1 − e−β(j −µ) (15.71)
j

o que leva a
1h i−1
nj = 1 − e−β(j −µ) βe−β(j −µ) (15.72)
β

1
nj = (15.73)
eβ(j −µ) − 1
que é chamada de distribuição de Bose-Einstein. Vemos que a condição e−β(j −µ) < 1 garante
nj ≥ 0 para todo j.

15.4 Estatı́stica de Férmions


Nesse caso nj = 0 ou 1 e temos
X
e−β(j −µ)n = 1 + e−β(j −µ) (15.74)
n

Portanto h i
ZGC = πi 1 + e−β(j −µ) (15.75)

e h i
X
ln ZGC = ln 1 + e−β(j −µ) (15.76)
i

o que leva
1h i−1
nj = − 1 + e−β(j −µ) (−β)e−β(j −µ) (15.77)
β

1
nj = (15.78)
eβ(j −µ) +1
que é chamada de distribuição de Fermi-Dirac. Note que não há restrição sobre o valor de e−β(j −µ)
e portanto µ pode ser positivo ou negativo. Note também que como eβ(j −µ) ≥ 0 temos 0 ≤ nj ≤ 1
Em suma, a expressão para nj é diferente para bósons e férmions. Ou seja, como eles se
distribuem entre os possı́veis micro-estados é diferente e nesse sentido dizemos que eles obedecem
a estatı́sticas distintas.
180 CHAPTER 15. GÁS IDEAL QUÂNTICO

15.5 Bósons e Férmions


As fórmulas acima podem ser escritas de maneira compacta
1X h i
• ln ZGC = ln 1 + ae−β(j −µ) (15.79)
a j
1
• nj = (15.80)
eβ(j −µ) +a
com 
+1
 FD
a= 0 MB (15.81)

−1 BE

O caso de MB (a = 1) deve ser entendido como o limite lima→0 . Expressões similares podem
ser escritas para N e U . Note que para j fixo um aumento de temperatura leva a um aumento
em ni : excitações térmicas populam mais o nı́vel ou o tornam mais acessı́vel.
A conexão com a termodinâmica é a mesma para os três casos: no limite N → ∞ temos
1
Φ(T, V, µ) → − ln ZGZ (15.82)
β
No limite termodinâmico temos um contı́nuo de nı́veis de energia e as somas se tornam uma
integral. Considerando partı́culas livres com massa temos

~2 |~k|2
i = ~k,σ = (15.83)
2m
com k = 2πn/L e n = 1, 2, 3, .. para condições de contorno periódicas. No limite termodinâmico,
N, V → ∞, e a distância entre vetores de onda fica, em 1D,

∆k = →0 (15.84)
L
Z
X L
→ dk (15.85)

k

Em geral o espectro de energia (relação de dispersão) tem simetria esférica: ~kσ só depende
do módulo de ~k. Assim reescrevemos a integral em termos de energia. De modo mais genérico
para uma função qualquer F (k) que só dependa de |~k| podemos fazer a integral em coordenadas
esféricas e temos Z Z
V 3 V
F = d k F (k) = dk 4πk 2 F (k) (15.86)
(2π)3 (2π)3
Escrevendo em termos da energia,

V d|~k|
Z Z
F = d 4πk 2 F () = d D()F () (15.87)
(2π)3 d
com
V d|~k|
D() = γ 4πk 2 (15.88)
(2π)3 d
a densidade de estados de uma partı́cula; colocamos a mão γ como sendo a multiplicidade (de-
generescencia) dos graus de liberdades de spin; para elétrons γ = 2. Para partı́culas livres sem
spin
− 21 r
1 2m √

dk 1 2m 2
= =  (15.89)
d 2 ~2 ~2 2 ~2
e temos   32
V 2m 1 1
D() =  2 = V C 2 (15.90)
4π 2 ~2
15.5. BÓSONS E FÉRMIONS 181

com a constante C dependendo somente da massa da partı́cula. Note que a densidade de estados
depende não somente da relação de dispersão (ou seja da H) mas também da dimensão e das
condições de contorno. A densidade de estados é um conceito de suma importância e já que
apareceu diversas vezes: número de micro-estados acessı́veis para uma dada energia fixa. E na
verdade temos os estados de uma única partı́culas e não de um sistema de N partı́culas como no
micro-canônico. O nome mais correto seria densidade de estados de uma partı́cula (ou densidade
de orbitais). As vezes, é mais conveniente usar a densidade de estados volumétricos g() = D()/V
Assim temos
Z ∞
1 h i
ln ZGC = d D() ln 1 + ae−β(−µ) (15.91)
0 a
1
n() = β(−µ) (15.92)
e +a
Z ∞
N= d D()n() (15.93)
Z0 ∞
U= d D()n() (15.94)
0

Note que o Salinas não inclui o volume na sua definição de D(). O seu D() é nosso g() = D()
V .
Como veremos adiante no caso de bósons temos que tomar um cuidado extra com o termo singular
~k = 0, já que a função n() diverge em  = 0 para bósons e por isso esse termo tem que ser tratado
a parte.
Vamos agora estudar o caso de bósons e férmions, a = ±1, com a relação de dispersão para
partı́culas livres com massa:
Z ∞ h i
ln ZGC = d ± D() ln 1 ± e−β(−µ) (15.95)
0

  32 Z ∞
V 2m 1
h i
ln ZGC = ±γ d  2 ln 1 ± e−β(−µ) (15.96)
(4π)2 ~2 0

Essa integral pode ser simplificada por integração por partes usando as substituições
1 2 3
du =  2 → u = 2 (15.97)
3
h i ∓β
v = ln 1 ± e−β(−µ) → dv = d (15.98)
1 ± e−β(−µ)
Logo
 23 " i ∞ Z ∞ 2 3
 #
V 2m 2 3 h (∓β)
ln ZGC = ±γ  2 ln 1 ± e−β(−µ) − 2 d (15.99)

(4π)2 ~2 3 0 3 1 ± e−β(−µ)
0

e usando que
i ∞

2 3 h
 2 ln 1 ± e−β(−µ) = 0 (15.100)

3
0
temos Z
2 2
ln ZGC = βγ βUd D()n() = (15.101)
3 3
 
A conexão com a termodinâmica é feita usando que Φ = − β1 ln ZGC e que também Φ = −pV .
Assim temos
2
U = −pV (15.102)
3
3
U = pV (15.103)
2
182 CHAPTER 15. GÁS IDEAL QUÂNTICO

que vimos ser satisfeita para o gás clássico monoatomico. Essa eq. de estado é valida então para
os três gases ideais: clássico, bósons e férmions.
Por último, devemos mencionar que como em geral a densidade de estados é um polinômio, as
integrais que aparecem têm a forma geral
xν−1
Z
dx −1 x (15.104)
z e +a
Assim introduzimos as funções de Bose-Einstein
xν−1
Z
1
gν (z) = dx −1 β (15.105)
Γ(ν) z e −1
e de Fermi-Dirac
xν−1
Z
1
fν (z) = dx (15.106)
Γ(ν) z −1 eβ + 1
Mais adiante iremos analisar com cuidado o comportamento destas funções e veremos que a maior
parte das grandezes de interesse pode ser escrita em termos delas.
FALAR UM POUCO MAIS SOBRE AS FUNÇÕES G E F

15.6 Potencial Quı́mico


Vimos então que usar o ensemble grande-canônico simplifica a obtenção da função de partição. No
entanto obtemos as grandezas termodinâmicas, como nj , em função de T, V e µ, mas e em alguns
casos estamos mais interessados no comportamento em função de N e não de µ. Ou só temos
controle sobre N e não sobre µ. Uma solução é inverter a função N (T, µ, V ) e obter µ(T, N, V )
e substituir em todas as grandezas de interesse. No entanto, em geral não é possı́vel fazer tal
inversão, como no caso acima de bósons e férmions onde N fica em função de uma integral que
não tem solução analı́tica. O que se pode fazer é calcular numericamente N para vários valores de
µ e ver para qual µ temos um N próximo do desejado.
No limite clássico podemos obter facilmente µ(T, N, V ), já que vimos que
 23
2π~2
  
µ 1 N 3
= ln + ln − ln T. (15.107)
KB T 8 mKB V 2
Da expressão acima, podemos notar que para N/V fixo e T alta o suficiente µ é negativo devido
ao termo −3/2 ln T . Como dito o caso de bósons e férmions tem que ser obtido numericamente.
µ N
A figura 15.6 mostra um esboço do comportamento tı́pico de KB T como função de T para V fixo.
Vemos que para alta T as três curvas são similares e temos o limite clássico. Conforme T diminui o
µ de férmions e partı́culas clássicas pode se tornar positivo, mas o de bósons livres atinge o limite
µ → 0− , a uma temperatura T0 e se mantém igual a zero para todo T ≤ T0 . É importante notar
que µ se mantém constante e nulo para temperaturas abaixo de T0 . Isso porque frequentemente
iremos variar T com o intuito de variar µ, mas este se tornará constante para T < Tc enquanto T
continuará variando.
Para bósons e férmions podemos mostrar que µ → −∞ em duas situações. Para isso devemos
usar a relação
X 1
N= β( −µ)
= N = constante (15.108)
j
e j ±1
Fixando a temperatura e diminuı́mos o número de partı́culas temos:

• T fixo e N → 0 : e−βµ  1 ⇒ µ → −∞ (15.109)

, ou seja, µ → ∞ para que e−βµ  1 e N → 0. Uma outra situação é aumentar a temperatura


com N fixo, onde temos

• N fixo e T → ∞(β → 0) : e−βµ  1 ⇒ µ → −∞ (15.110)

Neste caso, µ tem que ir a −∞ mais rápido que T vai ∞ para que e−βµ  1.
15.7. NÚMERO DE OCUPAÇÃO 183

Figure 15.2: Esboço do comportamento tı́pico do potencical quı́mico em unidades de KB T em


função da temperatura para bósons e férmions. RETIRADO DO SALINAS

15.7 Número de ocupação


Vamos analisar as diferenças entre as funções nF,Bi . Abaixo temos um gráfico de nF,B
i em função
de β( − µ). Primeiro notamos que para β( − µ)  1 as curvas se tornam idênticas e temos: ni ≈
e−βi  1. Assim, essa é a região do limite clássico, onde não há diferença entre as distribuições
de BE, FD e MB: como cada nı́vel tem em média poucas partı́culas não é possı́vel distinguir entre
férmions e bósons. Este limite parece ocorrer para baixas temperaturas, mas devemos lembrar que
o potencial quı́mico também depende de T e N, V . Veremos com mais cuidado em seguida que tal
limite ocorre a altas temperaturas.
Para β( − µ) → 0 a ocupação média de bósons diverge. Ou seja, quando µ se aproxima do
menor nı́vel, a ocupação deste nı́vel se torna infinitamente grande. Aqui também veremos que isso
ocorre para baixas temperaturas (apesar de parecer que β deve tender a 0 para ter x indo a zero)
e leva ao fenômeno da condensação de Bose-Einstein.

Figure 15.3: nF,B


i em função de x = β( − µ)

Por último, vemos que a ocupação média de férmions está sempre entre 0 e 1, como esperado.
No caso de férmions temos que estudar dois casos  > µ e  < µ. Na figura 15.4 temos o esboço do
comportamento da ocupação média em função de  com µ fixo. Vemos que a T = 0, todos os nı́veis
de uma partı́cula até i = µ estão ocupados por uma partı́cula, e todos os nı́veis com i > µ estão
vazios. Assim, o potencial quı́mico se torna idêntico a energia de Fermi f . Matematicamente
184 CHAPTER 15. GÁS IDEAL QUÂNTICO

temos (
0 i > µ
lim nF
i = (15.111)
β→∞ 1 i < µ
Se aumentamos um pouco T , alguns férmions são excitados para nı́veis mais altos e temos as
curvas mostradas na Fig.15.4. Note que são os férmions perto do nı́vel de Fermi que são inicialmente
excitadas.

Figure 15.4: ni para férmions em função de i para diferentes valores de T . (retirado do greiner)

Vamos agora estudar as flutuações no número de ocupação. Usando a equação ?? para o


número médio em termos de derivadas da função de partição temos que a média do quadrado do
número de partı́culas fica
 2
2 1 1 ∂
ni = − ZGC (15.112)
ZGC β ∂i
e assim o desvio quadrático médio fica
 2
1 ∂
σn2 i = n2i − n2i = − ln ZGC (15.113)
β ∂i

1 ∂ exp[β(i − µ)]
= ni = (15.114)
β ∂i (exp[β(i − µ)] + a)2
A flutuação relativa fica
σn2 i 1
2 = exp[β(i − µ)] = n − a (15.115)
ni i

Vemos que a flutuação relativa é inversamente proporciona ao número médio de partı́culas. No


caso clássico, a = 0 temos as flutuações normais. Para bósons, a = −1, as flutuações são maiores
e para férmions, a = 1, são menores que o caso clássico.
Podemos ainda estudar a probabilidade de ter ni partı́culas no nı́vel i. Como vimos podemos
imaginar que temos um sistema de nı́veis que não interagem e a probabilidade de ter uma dada
distribuição de partı́culas nos nı́veis fatora nas probabilidades de cada nı́vel. Assim temos que

1/n! exp[−βni (i − µ)] 1/n!(z exp[−βi ])ni


pM B (ni ) = P = (15.116)
ni 1/n! exp[−βni (i − µ)] exp[z exp(−βi )]

exp[−βni (i − µ)]


pBE (ni ) = P = (z exp[−βi ])ni (1 − z exp[−βi ]) (15.117)
ni exp[−βn i (i − µ)]
E para férmions só temos duas possibilidades

exp[−β(i − µ)] 1
pF D (1) = = −1 (15.118)
1 + exp[−β(i − µ)] z exp(βi ) + 1
1 1
pF D (0) = = (15.119)
1 + exp[−β(i − µ)] 1 + z exp(−βi )
15.8. LIMITE CLÁSSICO 185

Estas distribuições são melhor entendidas quando escritas em termos de seu valor médio. No caso
clássico temos
(ni )ni −ni
pM B (ni ) = e (15.120)
ni !
que é uma distribuição de Poisson e se deve ao fato das partı́culas serem independentes. Para
bósons temos  n
ni 1
pBE (ni ) = (ze−βi )ni (1 − ze−βi ) = (15.121)
1 + ni i 1 + ni
que é uma distribuição geométrica; ou seja a probabilidade de um nı́vel adquirir mais uma partı́cula
é independente do número de partı́culas que já está naquele nı́vel. Isso pode ser entendido devido
a a correlação positiva entre os bósons. Para férmions temos
(
FD ni para ni = 1
p (ni ) = (15.122)
1 − ni para ni = 0

15.8 Limite clássico


Como vimos anteriormente a expressão de nj para férmions e bósons é bem similar (só muda um
sinal) . Por um lado no limite clássico não devemos mais ser capazes de distinguir entre bósons e
férmions. Assim esse limite ocorre quando a exponencial domina:

eβ(j −µ)  1 ⇒ j − µ  KB T (15.123)

Em geral esperamos que o limite clássico ocorra em altas temperaturas. Mas isso parece em
contradição com j − µ  KB T . No entanto se fixamos N então µ é função de T e acaba tendendo
a -∞ mais rápido que T (discutido acima). Além disso a diferença entre bósons e férmions também
é menor nos nı́veis mais altos com j  µ. Nesse limite temos: nj  1 para qualquer estado j. Ou
seja é muito pouco provável encontrar nı́veis de alta energia com dupla ocupação. E é justamente
isso que diferencia bósons de férmions.
Como queremos eβ(j −µ)  1 para qualquer j, devemos ter

e−βµ  1 ⇒ z = eβµ  1 (15.124)

Assim vamos expandir as novas expressões para ZGC e ni para z  1. No caso de ZGC , como de
costume, expandimos o ln
F,B
X h i
ln ZGD =± ln 1 ± e−β(i −µ) (15.125)
j

x2
Usando que ln(1 ± x) ≈ ±x − 2 + ... temos

X e−2β(j −µ)

F,B
ln ZGC ≈± ±e−β(j −µ) − + ... (15.126)
j
2

F,B
X 1 X −2β(j −µ)
ln ZGC = e−β(j −µ) ∓ e + ... (15.127)
j
2 j

No caso de ni
h i−1 h i−1
nF,B
i = eβ(j −µ) ± 1 = e−β(i µ) 1 ± e−β(j −µ) (15.128)

E usamos (1 ± x)−1 ≡ 1 ∓ x + x2
h i
nF,B
i ≡ e−β(−µ) 1 ∓ e−β(i −µ) + ... (15.129)

nF,B
i ≡ e−β(i −µ) ∓ e−2β(j −µ) + ... (15.130)
186 CHAPTER 15. GÁS IDEAL QUÂNTICO

No limite clássico podemos considerar somente o primeiro termo:


X
Clássico
ln ZGC = e−β(i −µ) (15.131)
j

nClássico
i = e−β(j −µ) (15.132)
Vamos considerar agora o caso do gás ideal para compararmos com os resultados clássicos
obtidos antes. No gás ideal quântico temos

~2 k 2
~k,σ = (15.133)
2m
Assim   2 2 
CL
X ~ k
ln ZGC = exp −β −µ (15.134)
2m
~
k,σ
P
com a soma sobre os nı́veis de momento e spin. No limite N → ∞ podemos trocar as somas
~
k,σ
por um integração Z   2 2 
CL V ~ k
ln ZGC =γ d3 k exp −β −µ (15.135)
(2π)3 2m
com γ a degenerescência dos estados de spin: quantos estados de spin (σ) há para energia fixa.
Fazendo a integral temos
 3
CL V −βµ 2mπ 2
ln ZGC =γ e (15.136)
(2π)3 β~2
Esse resultado é igual ao obtido no caso clássico, a menos do fator γ que não tem análogo clássico
( não consideramos o spin no caso clássico). No entanto no caso clássico havı́amos colocado um
fator de normalização do espaço de fase que chamamos de h = δpδx. Aqui esse fator aparece
naturalmente e seu valor numérico que era arbitrário é dado pela mecânica quântica: é a constante
de Planck. Além disso nosso resultado já contém o fator de contagem N1 ! que no caso clássico foi
introduzido arbitrariamente.
Esses resultados têm grande importância e podem ser vistos como uma forte evidência da
necessidade do M Q. É interessante notar que a necessidade do M Q aparece na análise de um
sistema totalmente clássico. De fato existem algumas discussões sobre a origem do fator N1 ! e sua
necessidade (veja ”The gibbs Paradox and the distinguishability of identical particles”, AJP 79,
741 (2012) )
O grande potencial termodinâmico Φ = − β1 ln ZGC fica
 
2πm 5
Φ = −γV (KB T ) 2 eµ/KB T (15.137)
h2
Vamos voltar a nossa análise e tentar entender o limite clássico em termos do número de
partı́cula. Para isso obtemos N
"  3 #
∂ 2πm 2
N =z γV z (15.138)
∂z βh2
  23
2πm
= γV z (15.139)
βh2
No limite N → ∞ devemos ter N → N e assim
  32
2πm
N = γV z (15.140)
βh2
 32
h2

βµ N1
e = (15.141)
V γ 2πmKB T
15.8. LIMITE CLÁSSICO 187

E no limite clássico então


 32
h2

βµ N1
e 1⇒ 1 (15.142)
V γ 2πmKB T
V 3 1
Escrevendo a = ( N ) , o que representa a distância média entre as partı́culas, temos
  13 s
1 h2
a (15.143)
γ 2πmKB T

O lado direito da equação também é uma unidade de comprimento, e na verdade é a relevante para
o limite clássico. Podemos escrever
h
λT = √ (15.144)
2πmKB T
o comprimento λT é conhecido como o ”comprimento de onda térmico de Broglie”. Ele apareceu
diversas vezes em nosso cálculos para o gás ideal e tem uma interpretação e justificativa
q simples.
Considere partı́culas com energias tı́picas de 32 KB T e portanto velocidades tı́picas de 3KmB T . Por
outro lado já vimos que em M Q o momento linear de uma partı́cula é dada por p = ~k com k um
número de onda. Assim podemos associar um comprimento de onda a partı́cula dado por

2π ~ h
λ= = 2π = (15.145)
k p p

Essa expressão foi proposta para partı́culas pela primeira vez por Louis de Broglie e por isso se
chama de comprimento de onda de de Broglie. Note que para ondas a expressão sai trivialmente
de fato que E = hf , v = λf e p = Ev (radiação também transporta momento)
Portanto para nossas partı́culas de energia 23 KB T temos um comprimento de ondas de de
Broglie r
h h m
λ= = (15.146)
mv m 3KB T
h
λ= √ (15.147)
3mKB T
Vemos que λ é da mesma ordem de magnitude de λT . Assim no limite clássico temos

a  λT (15.148)

Portanto temos dois modos (pelo menos) de entender o limite clássico de baixa concentração
ou temperatura suficientemente alta:

• a  λT : Partı́culas estão distantes o suficiente para não ”notar” o carácter ondulatório

• ni  1 : Há poucas partı́culas por nı́vel e dificilmente ocorre dupla ocupação o que ”reve-
laria” o carácter quântico.

Por último podemos obter a distribuição de Maxwell-Boltzmann. Mas como estamos no ensemble
grande-canônico temos que eliminar a dependência de µ. Temos

nCLAS
i = e−β(j −µ) = eβµ e−βj = ze−βj (15.149)

Assim temos que obter eβµ em termos de N (que é o parâmetro fixo no canônico). Para isso usamos
que X X
CLAS
ln ZGC = e−β(j −µ) = z e−βj (15.150)
j j

∂ CLAS
N =z ln ZGC (15.151)
∂z
188 CHAPTER 15. GÁS IDEAL QUÂNTICO

onde usamos N = N . Isto leva a


X N
N =z e−βj ⇒ z = P (15.152)
j
e−βi )
i

Logo
e−βi
nCLAS
i = N P −βi (15.153)
e
i

Fica claro que nNi obedece a distribuição de Maxwell-Boltzmann para estados discretos. Ela
tinha sido discutida no exemplo do gás de Boltzmann, onde postulamos sem justificar a existência
de nı́veis discretos de energia.
Também podemos estudar o caso do contı́nuo no limite N → ∞
2
V −β mv
ni (2π)3 e
2 d3 k
→ p0 (v)dv = V 2 (15.154)
d3 k exp(−β mv
R
N (2π)3 2 )

O que leva a
  −3
2πKB T 2 −mv 2
p0 (v) = 4π v 2 e 2KB T (15.155)
m
Que é a distribuição de velocidades obtida no caso clássico.
Assim terminamos o estudo dos sistemas quânticos em geral. a seguir iremos estudar com mais
detalhes o caso de férmions e bósons e alguns sistemas de interesse.
Como veremos continuaremos nos concentrando no caso do gás ideal desprezando interações
entre as partı́culas. Não deverı́amos esperar que tal aproximação seja boa para descrever sistemas
fı́sicos reais, em especial lı́quidos e sólidos e baixas temperaturas, onde a energia cinética se torna
pequena e a interação pode ser relevante. No entanto tal aproximação tem uma ampla aplicação
na fı́sica estatı́stica. No caso de bósons a aproximação produz resultados bons em três casos
importantes: fotóns, fônons é o gás de Bose diluı́do. Estes casos explicam a radiação de corpo
negro e a condensação de Bose-Einstein. O comportamento de supercondutores e superflúidos, por
outro lado, tem semelhança com as propriedades de gás de Bose.
O caso de fermions é ainda mais surpreendente, já que em geral as partı́culas(e− , por exemplo)
apresentam forte interação. Mas veremos que metais, isolantes e condutores são bem descritos
por um gás ideal de férmions. Estrelas de neutrons são outro caso. Note que os férmions livres
que descrevem bem o sistema não são as partı́culas originais propriamente mas ”quase-partı́culas”
obtidas por uma aproximação. Essa aproximação é a teoria de lı́quidos de Fermi-Landau (Mais
especificamente a teoria diz que o sistema interagente ainda tem uma superfı́cie de Fermi com
excitações de baixa energia que demoram a ”decair” (tem uma ”vida longa” e são não interagentes.
E por isto estas excitações podem se interpretadas como partı́culas não interagentes).
Chapter 16

Gás Ideal de Férmions

Iremos estudar agora com mais detalhes o caso de férmions não interagentes. Para férmions não
interagentes havı́amos obtido que
X h i
ln ZGC (T, V, µ) = ln 1 + e−β(j −µ) (16.1)
j

1
nj (T, V, µ) = (16.2)
+1 eβ(j −µ)
X X i
E= i n i = β(i −µ) + 1
(16.3)
i i
e
X X 1
N= ni = (16.4)
i i
eβ(i −µ) +1

Como vimos no limite termodinâmico as somas se tornam integrais e em termos da energia


temos Z ∞
d D() ln 1 + ze−β
 
ln ZGC (T, V, z) = (16.5)
0
Z ∞
1
N (T, V, z) = d D() (16.6)
0 z −1 eβ + 1
e fazendo a substituição x = β, podemos escrever em termos das funções de Fermi-Dirac

xn−1
Z
1
fn (z) = dx , 0≤z≤∞ (16.7)
Γ(n) z −1 eβ +1

Para o caso de férmions livres não interagentes em três dimensões temos

γV
ln ZGC (T, V, z) = f5/2 (z) (16.8)
λ3T
γV
N (T, V, z) = 3 f3/2 (z) (16.9)
λT

Também podemos obter a energia interna a partir de



∂ ∂ 3 γV
= KB T 2

E=− ln ZGC ln ZGC = KB T 3 f5/2 (z) (16.10)
∂β z,V ∂β z,V 2 λT

e usando a expressão para N temos

3 f5/2 (z)
E= N KB T (16.11)
2 f3/2 (z)

189
190 CHAPTER 16. GÁS IDEAL DE FÉRMIONS

Note que com comparando esta equação com a de ln ZGC e lembrando que ln ZCG = pV /(KB T )
obtemos p = 2U/(3V ). Esta relação é válida para o gás clássico e como veremos para o de bósons
(na verdade já derivamos ela de forma geral no cap. 15).
Assim temos que conhecer o comportamento das funções de Fermi-Dirac que não podem ser
escritas de uma forma simples. Para z < 1, pode-se fazer uma expansão do integrando usando que
∞ ∞
1 1 X X
−1 x
= ze−x −x
= ze−x (−ze−x )k = (−1)k−1 z k e−kx . (16.12)
z e +1 1 + ze
k=1 k=1

Isso leva a

X zk
fn (z) = (−1)k−1 (16.13)
kn
k=1

A única diferença com as funções de Bose-Einstein é o sinal que se alterna na expansão. A partir
desta expansão, ou mesmo da integral diretamente, pode-se mostrar que

∂fn (z) 1
= fn−1 (z) (16.14)
∂z z
A partir desta propriedade a principio podemo obter as derivadas de ln ZGC e portanto todas as
propriedades termodinâmicas. Mas para obter o calor especı́fico temos que conhecer as derivadas
∂fn (z)/∂T . Mas podemos usar a regra da cadeia, obtendo

∂ ∂z ∂ ∂z 1
f3/2 (z) = f3/2 (z) = f1/2 (z) (16.15)
∂T ∂T ∂z ∂T z
e logo

∂z ∂T f3/2 (z)
= 1 . (16.16)
∂T z f1/2 (z)

Por outro lado usando que da equação para N temos

N λ3T N λ3T
   
∂ ∂ 3 3
f3/2 (z) = =− = − f3/2 (z) (16.17)
∂T ∂T γV 2T γV 2T

onde usamos que λ3T ∼ T −3/2 e logo ∂λ = (−3/2)λ3T /T . Portanto temos

∂z 3z f3/2(z)
=− (16.18)
∂T 2T f1/2 (z)

Com estas relações podemos obter o calor especı́fico, que após algumas manipulações fica
 
∂E 15 f5/2(z) 9 f3/2(z)
CV = = N KB − (16.19)
∂T 4 f3/2 (z) 4 f1/2 (z)

A energia livre de Helmholtz também é obtida usando F = U − T S = N µ − pV e que µ =


−KB T ln z e que ln |GC = pV /(KB T ) e fica
 
f5/2(z)
F = N KB T ln z − (16.20)
f3/2 (z)

enquanto a entropia fica


 
1 5 f5/2(z)
S = (U − F ) = N KB − ln z (16.21)
T 2 f3/2 (z)

Assim temos todas as propriedades termodinâmicas do gás ideal de férmions livres em função
das funções de Fermi-Dirac. Infelizmente não temos expressões simples para as funções de Fermi-
Dirac e temos que estudar casos limites. Para casos intermediários e detalhes deve-se recorrer a
métodos numéricos de integração. Note também que não temos o comportamento em função de
16.1. GÁS DE FERMI A T=0: COMPLETAMENTE DEGENERADO 191

N, V, T , mas sim em função de µ, V, T . Assim devemos inverter a relação N (µ, T, V ) para obter o
que terı́amos no ensemble canônico, mas tampouco é possı́vel fazer isso de forma geral e exata já
que não temos um expressão analı́tica e simples para N (µ, T, V ).
Como já mencionamos antes, o limite clássico ocorre a baixas densidades e/ou altas temperat-
uras que é equivalente a termos
N λ3T
= f3/2 (z)  1, (16.22)
V

ou seja, a distancia média entre as partı́culas é muito maior que seu comprimento de onda de de
Broglie. Nesta situação a expansão para fn (z) em potências de z é útil, já que podemos manter
somente os primeiros termos. Em primeira ordem temos que fn (z) ≈ z e pode-se verificar facilmente
que recuperamos todas as expressões do gás ideal clássico. E mantendo ordem superiores em z
pode-se obter as correções para as grandezas termodinâmicas e a expansão de virial.
Outro caso que pode ser tratado é quando z  1, que é o limite quântico de baixas temperaturas
e altas densidades: V /N  λ3T Neste caso pode se obter uma série em potências de 1/ ln(z) para
fn (z), que é conhecida como expansão de Sommerfeld e que iremos discutir com mais cuidado
adiante.
Para entender um pouco a fı́sica do gás de férmions a baixas temperaturas, vamos primeiro
estudar o caso mais simples de T = 0.

16.1 Gás de Fermi a T=0: completamente degenerado


Como já havı́amos antecipado a função distribuição de Fermi-Dirac a baixas temperaturas se
aproxima de uma função degrau (Heaviside)

n() → θ(µ − ) (16.23)

Figure 16.1: ni para férmions em função de i para diferentes valores de T . (retirado do greiner)

Nesse caso o potencial quı́mico a T = 0 tem um papel relevante separando os nı́veis ocupados
dos desocupados. Assim damos um nome especial para ele: energia de Fermi

µ(T = 0) = F (16.24)

que é o valor da energia da ”última” partı́cula; a de mairo energia. A energia de fermi tem uma
papel de extrema relevância na teoria de estado sólido, por isso estamos interessados em saber
como ela se comporta em função dos outros parâmetros do sistema1 .

1 Na teoria de bandas de sólidos pode ocorrer de o nı́vel de fermi estar num gap entre bandas; isso ocorre em

semi-condutores e isolantes
192 CHAPTER 16. GÁS IDEAL DE FÉRMIONS

Vamos primeiro analisar N , a partir de onde pode se obter depois µ(T, N, V ) temos
Z ∞
N =γ d D()n() (16.25)
Z0 ∞
N =γ d D()θ(µ − ) (16.26)
Z0 F
N =γ d D() (16.27)
0

Ou seja, simplesmente contamos o número de estados até F , que são os estados ocupados.
V
3
2m 2 21
Usando a densidade de estados, D() = γ 4π 2 ~2  , temos
  32 Z F
V 2m 1
N =γ 2 d  2 (16.28)
4π ~2 0
  32
V 2m 2 3 2
N =γ 2 (F ) 2 = γD(F )F (16.29)
4π ~2 3 3

Assim obtemos a energia de fermi (potencial quı́mico a T = 0) em função de N e V .


2/3  2/3
h2 6π 2

N
F = , (16.30)
2m γ V

ou seja, F é inversamente proporcional a massa e aumenta com a densidade com uma potência 32 .
~2 kF
2
Também é útil definir o vetor de onda do nı́vel de Fermi kF como F = 2m , assim

2mF
kF2 = (16.31)
~2
2
kF = 6π 2 n 3 (16.32)
N
com n = V a densidade de férmions. Definimos também a temperatura de Fermi, TF , como
F
KB TF = F =⇒ TF = (16.33)
KB
Vamos agora olhar para a fig. 16.1. O que vemos é que um pequeno aumento na temperatura
só altera a ocupação dos nı́veis que estão num pequeno entorno do nı́vel de Fermi. Ou seja, quando
damos um quantidade de energia para o sistema na forma de calor, esta energia não se distribuı́ de
forma igual entre todos os férmions, como prevê o teorema da equipartição da energia. Somente
os férmions perto do nı́vel de fermi recebem esta energia e são excitados. Isto é consequência da
anti-simetria da função de onda e da distribuição de Fermi-Dirac: os férmions ”longe” do nı́vel
de fermi, com energia   F − KB T , não podem ser excitados pela energia térmica porque o
nı́vel para qual ele iriam ir já está ocupado. Para excitar todos os férmions, devemos ter uma
temperatura da ordem de TF , tal que até férmion no estado fundamental possa ser excitado.
Assim para temperaturas T  TF somente uns poucos férmions são excitados e podem contribuir
para a termodinâmica do sistema: para a energia interna, calor especı́fico, etc. A maior parte dos
férmions fica ”congelada” e não contribui para as propriedades térmicas.
É interessante obter a energia interna do estado fundamental (T = 0).
Z ∞
2 3
U =γ d  D() f () = γD(F )2F = N F (16.34)
0 5 5
Assim, vemos que mesmo para T = 0 o gás de Fermi tem uma energia interna finita é muito maior
do que a no caso de bósons ou partı́culas clássicas onde todas estariam no estado fundamental. E
energia interna por partı́culas é 3/5 da energia de Fermi.
Lembrando que U = 23 pV , temos
3 3
N F = pV (16.35)
5 2
16.2. GÁS IDEAL DE FERMI À 0 < T  TF : DEGENERADO 193

e podemos obter a pressão a temperatura zero:


 32   53
h2 6π 2
  
2 N N
p= F = (16.36)
5 V 5m γ V

O interessante é notar que mesmo a T = 0 o gás tem uma pressão finita e portanto tem que ser
mantido dentro de um recipiente; se não há recipiente ele irá expandir. Isto tem origem no princı́pio
de exclusão de Pauli que só permite que um férmion esteja no estado fundamental. Esta pressão
a temperatura nula é a origem da estabilidade da matéria: explica por exemplo porque um estrela
de nêutrons, ou uma anã branca não colapsa devido a força gravitacional (na verdade isso pode
ocorrer quando a estrela tem massa suficiente para a pressão gravitacional superar a pressão do
gás de férmions). Como veremos essa pressão se torna nula no caso de bósons livres e não podemos
explicar um universo estável composto somente de bósons.
O gás de férmions livres pode parecer um modelo muito simplista, ainda mais a temperatura
zero, mas é útil na explicação de diversos fenômenos. Num sólido, por exemplo, um bom modelo
para explicar propriedades térmicas e de transporte é considerar que os elétrons das camadas
externas do átomo estão livres e se movem livremente sobe ação de um potencial periódico, mas
com uma massa efetiva. Assim o efeito da interação entre os elétrons e os ı́ons do sólido é modelado
por esse potencial periódico cujo efeito é mudar a massa do elétron. Assim podemos usar o modelo
de um gás de elétrons livres. Note que também estamos desprezando a interação entre os elétrons
livres. E para metais tı́picos a densidade, N/V de elétrons livres (os de condução) é da ordem de
1028 − 1029 e− /m3 . Isso leva a F ∼ 1eV e logo a TF ∼ 104 . Assim há temperaturas ambientes
muitos poucos e− de condução estão excitados e a aproximação de temperatura muita baixas é
boa. Note que a energia F ∼ 1eV é da mesma ordem da energia de ionização do átomo de H.
Deve-se mencionar também que no caso de semi-condutores a energia de fermi se encontra num gap
entre as possı́veis nı́veis de energia (bandas) fornecidas pelo potencial cristalino. Logo as bandas
estão todas preenchidas e os elétrons não podem se ”mover” entre os nı́ves e portanto no sólido.
Além dos metais, a matéria nuclear e o gás ionizado no interior de algumas estrelas também
podem ser explicados pelo modelo de gás ideal de Fermi. Anãs brancas tem massas comparáveis a
do Sol, mas raios que são da ordem de centésimos do raio do Sol. Com estas altas densidades os e−
não estão ligados a um único núcleo, mas livres. Com densidades da ordem de 1036 e− /m3 temos
F ∼ 0.1M eV e portanto TF ≡ 109 K; compare com a temperatura da superfı́cie do sol que é da
ordem de 105 K). Num núcleo temos densidades da ordem de 1044 e− /m3 e logo F ∼ 10M eV e
TF ∼ 1011 K.
Vamos considerar agora o caso de temperaturas finitas mas ainda bem menores que TF . Esse é
o caso do gás degenerado onde a pressão tem origem quase que totalmente no princı́pio de exclusão
de Pauli.

16.2 Gás Ideal de Fermi à 0 < T  TF : Degenerado


Vamos primeiro descrever o gás a baixas temperaturas de maneira qualitativa. Depois complicamos
um pouco a matematica introduzindo a série de Sommerfeld.

16.2.1 Argumento Qualitativo


A ideia é obter correções devido a temperatura finita. Como pode ser visto na figura 16.1 a função
n() tem sua forma arredondada para T > 0. Vemos que nı́veis que não eram ocupados ( > F ) se
tornam levemente ocupados e alguns que eram perdem um pouco de sua população. Essa mudança
ocorre nas redondezas de F numa região de largura proporcional a T . O efeito da T é transferir
alguns férmions abaixo do nı́vel de Fermi para estados com energia um pouco maior que a energia
de Fermi. Essa região em torno de F tem largura da ordem de KB T (região onde n() passa
de valores ≈ 1 à valores ≈ 0). Note também que no ”rabo” da curva, ( − F )  KB T , temos
n() ∼ e−β(−µ) , ou seja estes férmions excitados se comportam classicamente.
É interessante olhar também para a ocupação eletrônica dos férmions, D()n(), que é a den-
sidade de férmions em um dado estado; não confundir com a densidade de estados
194 CHAPTER 16. GÁS IDEAL DE FÉRMIONS

Figure 16.2: ocupação eletrônica, g()ni para férmions. (retirado de ...)

Pode-se ver novamente que o efeito da temperatura é excitar alguns férmions abaixo do nı́vel de
Fermi para nı́veis acima de F . Também nota-se que essa mudança ocorre dentro de uma pequena
região na vizinhança de F . Essa região tem largura da ordem KB T . Somente esse férmions são
afetados pela T (os com  − F  KB T ficam ”congelados”; como se tivessem a temperatura nula.
Assim, nosso gás de férmions a baixas temperatura pode ser dividido em duas ”fases”: uma de
férmions com energia  − F  KB T que estão congelados e não sentem o efeito da temperatura
e uma outra fase dos férmions perto do nı́vel de fermi que foram excitados e sentem a temper-
atura, mas se comportam classicamente. Podemos estimar a ordem de grandeza do número desses
férmions excitados. Ele deve ser proporcional ao número de estados perto de F , ou seja a D(F ))
e a largura KB T . Assim
∆N ∼ γD(F )KB T (16.37)
Por outro lado, cada um desses férmions tem uma energia térmica da ordem de KB T (note que
estes férmions ocupam nı́veis com energia em torno da de fermi, e ganham em média uma energia
da ordem de KB T devido a temperatura. É esta energia ”extra” que consideramos) Então a energia
térmica total dos férmions excitados é
2 2
∆U ∼ KB T ∆N = γg(F )V KB T (16.38)

Com isso podemos estimar o calor especı́fico


1 ∂N V 2
CV = ≡ 2γ g(F )KB T (16.39)
N ∂T N
g()
Usando que N = 23 γV g(F )F e logo 2γ V N = 3
F temos
2
KB T T
CV = 3 = 3KB (16.40)
K TF

Vemos que este valor é completamente diferente do valor constante de 3K2 B para um gás de
partı́culas clássicos. Além de depender de T o calor especifı́co é muito menor que o valor clássico
já que em geral Tamb /TF  1. O fato de CV ser muito menor que o esperado classicamente se
deve ao fato de que somente uns poucos férmions perto de F são afetados pela temperatura e
contribuem para CV . De fato podemos estimar CV corretamente com o teorema da equipartição,
mas somen