Você está na página 1de 128

TERMODINÂMICA DE SOLUÇÕES

Yamara Matos Oliveira

Notas de aula.

Professores: Frederico Wanderley Tavares


Papa Matar

Rio de Janeiro
Janeiro de 2021
Sumário

0.1 Aula 1 - 04/11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


0.1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
0.1.2 Hipóteses de Gibbs . . . . . . . . . . . . . . . . . . . . . . . . 2
0.1.3 Conjuntos Estatı́sticos (ensembles) . . . . . . . . . . . . . . . 2
0.1.4 Conjunto Canônico . . . . . . . . . . . . . . . . . . . . . . . 3
0.2 Aula 2 - 09/11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.2.1 Revisando . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.2.2 Máximo termo . . . . . . . . . . . . . . . . . . . . . . . . . . 7
0.2.3 Ensemble Canônico . . . . . . . . . . . . . . . . . . . . . . . . 11
0.3 Aula 3 - 11/11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
0.3.1 Revisando . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
0.3.2 Isotérmico - Isobárico (T,P,N) . . . . . . . . . . . . . . . . . . 22
0.3.3 Ensembles e propriedades termodinâmicas . . . . . . . . . . . 25
0.4 Aula 4 - 16/11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
0.4.1 Flutuações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
0.4.2 Momentos não centrais (mi ) . . . . . . . . . . . . . . . . . . . 32
0.4.3 Flutuações de propriedades termodinâmicas . . . . . . . . . . 33
0.5 Aula 5 - 18/11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
0.5.1 Distribuições de Boltzmann, Fermi-Dirac e Bose-Einstein . . . 36
0.5.2 Estatı́stica de Boltzmann . . . . . . . . . . . . . . . . . . . . . 39
0.5.3 Estatı́sticas de Fermi-Dirac e Bose-Einstein . . . . . . . . . . . 41
0.6 Aula 6 - 23/11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
0.6.1 Função de partição clássica (Canônica) . . . . . . . . . . . . . 45
0.6.2 Função de partição semi-clássica (Canônica) . . . . . . . . . . 48
0.6.3 Hamiltoniano do Sistema . . . . . . . . . . . . . . . . . . . . . 49
0.6.4 Distribuição de Maxwell-Boltzamnn . . . . . . . . . . . . . . . 52
0.7 Aula 7 - 25/11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
0.7.1 Introdução à Estatı́stica de Rede . . . . . . . . . . . . . . . . 56
0.8 Aula 8 - 30/11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
0.8.1 Sólido de Einstein . . . . . . . . . . . . . . . . . . . . . . . . . 57
0.8.2 Erro entrópico . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

a
SUMÁRIO b

0.8.3 Teoria de Célula . . . . . . . . . . . . . . . . . . . . . . . . . 61


0.9 Aula 9 - 02/12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
0.9.1 Estruturas significantes - teoria de cavidade . . . . . . . . . . 64
0.9.2 Teoria de Rede (”lattice”) . . . . . . . . . . . . . . . . . . . . 65
0.9.3 Equação de estado . . . . . . . . . . . . . . . . . . . . . . . . 69
0.10 Aula 10 - 07/12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
0.10.1 Teoria de Soluções ( modelos GE ) . . . . . . . . . . . . . . . . 77
0.11 Aula 11 - 09/12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
0.12 Aula 12 - 14/12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
0.13 Aula 13 - 16/12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
0.13.1 Modelo de Wilson . . . . . . . . . . . . . . . . . . . . . . . . . 93
0.14 Aula 14 - 04/01 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
0.14.1 Teoria da Pertubação . . . . . . . . . . . . . . . . . . . . . . . 93
0.14.2 Correlação de Pares . . . . . . . . . . . . . . . . . . . . . . . . 93
0.15 Aula 15 - 06/01 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
0.15.1 Função de correlação . . . . . . . . . . . . . . . . . . . . . . . 94
0.15.2 Definição de função de correlação . . . . . . . . . . . . . . . . 96
0.15.3 Correlações de Pares . . . . . . . . . . . . . . . . . . . . . . . 96
0.15.4 Relação com a termodinâmica . . . . . . . . . . . . . . . . . . 97
0.16 Aula 16 - 13/01 - Inicio das aulas com Papa . . . . . . . . . . . . . . 99
0.16.1 Função de distribuição radial . . . . . . . . . . . . . . . . . . 102
0.16.2 Teoria de pertubação . . . . . . . . . . . . . . . . . . . . . . . 103
0.17 Aula 17 - 18/01 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
0.18 Aula 18 - 25/01 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
0.18.1 Teoria da pertubação usando esferas moles . . . . . . . . . . . 109
0.19 Aula 19 - 27/01 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
0.19.1 Teoria de pertubação de segunda ordem . . . . . . . . . . . . 114
0.20 Aula 20 - 01/02 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
0.20.1 SAFT → Statistical Associating Fluid Theory . . . . . . . . . 116
0.21 Aula 21- 03/02 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
0.21.1 Extensão para múltiplos sı́tios . . . . . . . . . . . . . . . . . 121
0.21.2 Termo da cadeia . . . . . . . . . . . . . . . . . . . . . . . . . 124
0.1 Aula 1 - 04/11
0.1.1 Introdução
Pensando na regra de fases de Gibbs sabemos que a variância do sistema é igua a:

V =2+c−F (1)

sendo c igual a quantidade de componentes F igual o número de fases. Um


sistema com um componente e uma fase tem 2 graus de liberdade macroscópicos.
Em um sistema com TVN ou TPN, especificados, é possı́vel calcular todas as
propriedade, mas isso em um sistema macroscópico. Mas quando se parte para um
sistema microscópico cada ”fotografia”(microestado) vai ter suas caracterı́sticas.
Cada ”fotografia”pode ser chamado de um estado mecânico do sistema. Um
estado mecânico é único na vida, ele não se repete, então ele não é um estado
termodinâmico.
Se for feito o cálculo da energia de cada estado é possı́vel notar que existe uma
distribuição de energia. Nota-se que quanto maior o sistema, maior a frequência de
uma determinada energia, que é a energia média do conjunto estatı́stico especı́fico.
Quanto maior o tamanho do sistema menor a flutuação em relação a energia média.
Existem dois tipos de propriedades termodinâmicas. Algumas tem origem na
mecânica e outras não.
Propriedades mecânicas → pressão (p), energia (E), volume (V), número de
partı́culas (N) = M (propriedades possı́veis de obter a partir das equações Newton
diretamente)
Propriedades não mecânicas (intrinsecamente termodinâmicas) → temperatura
(T) , potencial quı́mico (µ), entropia (s) (propriedades que só tem sentindo na
população, não são definidos com poucos graus de liberdade)
Propriedades termodinâmicas de origem mecânicas → é possı́vel resolver a equação
de newton para um conjunto de partı́culas e calcular as propriedades.
a propriedade mecânica qualquer < M > (média) vai ser a média temporal da
integral dela no tempo.
Z t
1
< M >= M (t)dt (2)
∆t to

Mas como calcular as propriedades que não são de origem mecânica?


Fazendo algumas hipóteses:

1
0.1.2 Hipóteses de Gibbs
a) Sistemas ergódicos

A média do conjunto estatı́stico é igual a média temporal do sistema.


Z t
1 X
< M >= M (t)dt = Pj Mj (t) (3)
∆t to j

Sendo Pj a probabilidade de um determinado estado quântico j e Mj a proprie-


dade naquele estado quântico.
A dinâmica de Kolmogorov gera ergodicidade do sistema (caos determinı́stico).
Sistemas com altos graus de liberdade rapidamente perdem a reversibilidade do
sistema.

b) ”Igual a priori”

Existe um conjunto estatı́stico NVE muito interessante porque as três propriedades


são propriedades mecânicas. Estados com a mesma energia, mesmo volume e mesmo
número de partı́culas especificados (NVE) tem a mesma probabilidade. Suponto
que se tem 10 estados possı́veis a probabilidade é de 1/10 de estar em um estado
determinado estado.

1
Pj = (4)
ΩE,V,N
ΩE,V,N → degenerecência do sistema = número de microestados possı́veis para
o mesmo NVE
Obs: para o ensemble microcanônico essa é a função de partição do sistema.

0.1.3 Conjuntos Estatı́sticos (ensembles)


a) Microcanônico → NVE

b) Canônico → NVT

c) Grandecanônico → µ VT

d) Isotérmico-isobárico → NpT

e) Osmótico (semi-Grandecanônico) → T,V,N1 ,µ2

O que significa estar em diferentes conjuntos estatı́sticos?


Significa que estão sendo fixadas variáveis independentes diferentes. Cada po-
tencial termodinâmico corresponde a um determinado conjunto estatı́stico diferente.

2
Os conjuntos estatı́sticos diferentes equivalem a fazer transformadas de Legendre
da energia interna, no sentido de trabalhar com variáveis diferentes.
Os ensembles são equivalentes num sistema macroscópico. Em sistemas pequenos
- nos quais as flutuações são muito grandes - eles não são necessariamente equiva-
lentes, mas no limite termodinâmico elas são.

0.1.4 Conjunto Canônico

Cada pequeno sistema tem NVT especificados, os outros pequenos sistemas fun-
cionam como reservatórios térmico para este primeiro. É como se ele estivesse em
um reservatório térmico perfeito porque o número total de pequenos sistemas é A e
A pode tender ao infinito.

V olumetotal = Vt = AV (5)

N úmero de particulastotal = Nt = AN (6)

A é infinitamente grande
nj = número de pequenos sistema com T,V e N especificados e com energia Ej .
Lembrando aqui que fala-se se ”fotografias”que correspondem ao mesmo estado de
energia j.

X
Energiatotal = Et = nj Ej (7)

Então:

X
A= nj (8)

A probabilidade de encontrar um estado j (Pj ) qualquer especificado conside-


rando um A suficientemente grande.

3
Mesmo rearranjando os microssistemas dentro do grande sistema A, a energia
total permanece a mesma, assim como número de partı́culas e o volume total. Dessa
forma, o sistema A como um todo se comporta como um ensemble microcanônico.
Portanto, cada forma dos microssistemas de rearranjarem é igualmente provável.
P
n¯j Ω({n})nj ({n})
{n}
Pj = = P (9)
A A {n} Ω({n})
Sendo n¯j o nj médio.
Em um sistema grande (quando A cresce) ele passa a ser dominado por um
máximo termo

X
Ω({n}) = Ω({n}∗) = distribuição do máximo termo (10)
{n}
P
Dado um conjunto {n} → (n1 , n2 ...) tal que nj = A temos que
P
( nj )!
Ω({n}) = (11)
Πnj !
para demonstrar essa equação pensamos em um sistema de N bolinhas diferentes
e M caixinhas, N é igual M. De quantas formas é possı́vel arrumar as N bolinhas
nessas M caixinhas?
Para a primeira bolinha eu tenho M caixinhas possı́veis. Para a segunda bolinha
eu tenho M-1 caixinhas possı́veis, para a terceira eu tenho M-2 e assim por diante
até que para N eu tenho M - N + 1 caixinhas possı́veis
Então temos que a quantidade de formas de arrumar se dá por:

M (M − 1)(M − 2)...(M − N + 1) (12)

multiplicando e dividindo por (M-N)! temos que:

M (M − 1)(M − 2)...(M − N + 1)(M − N )!


(13)
(M − N )!
Considerando agora que estamos tratando de bolinhas iguais e indistinguı́veis,
na equação acima estamos compultando muito mais formas de distribuir do que a
realidade, engtão divido por N!

M (M − 1)(M − 2)...(M − N + 1)(M − N )! M! M!


= = (14)
(M − N )!N ! (M − N )!N ! N0 !N !

Pensando agora em dois tipos de bolinhas, temos que N1 + N2 = M . Quantas


formas podemos arrumar o sistema?

4
(N1 + N2 )! M!
= (15)
N1 !N2 ! N1 !N2 !
P
Pensando agora em j tipos de bolinhas, temos que N1 + N2 ... = Nj = M .
Quantas formas podemos arrumar o sistema?
P
( Nj )! M!
= (16)
N1 !N2 !... ΠNj !
Provando então a equação proposta. Voltamos agora na tentativa de achar o
máximo termo e dizemos que. A proposta é achar qual o nj que leva ao máximo da
distribuição porque eu sei que o máximo da distribuição é igual ao somatório dela.

n∗j {n} Ω({n∗ })n∗j


Pj = = (17)
A AΩ({n∗ }
Sendo n∗j {n} o nj mais provável dado uma distribuição n.
corta os termos
para achar o máximo termo eu vou aplicar o ln e e utilizar multiplicadores de
Lagrange
também é preciso que a distribuição seja válida e para isso é necessário que
satisfaça que a energia total é a soma da energia nj e o A é o somatório de nj

X X
Φ(n) = ln Ω + λ(A − nj ) + β(Et − nj Ej ) (18)

n ns independentes, pois estamos impondo a função e os multiplicadores de


Lagrange que são as restrições. Para impor o máximo eu derivo em relação a cada
n e igualo a zero. Sendo λ e A constantes.

∂Φ ∂ln Ω
=0= − λ − βEi (19)
∂ni ∂ni
para saber quem é
∂Ω
(20)
∂nj
Sabendo que:

ln x! = xln x − x (21)

temos que:

5
ln Ω = ln A! − ln Πnj !

X X
= Aln A − A − nj ln nj + nj (22)

X X X
= nj ln nj − nj ln nj

Sabendo disso, aplico a derivada

∂ln Ω
= ln A + 1 − ln ni − 1 = ln A − ln ni (23)
∂nj
fazendo a substituição quando igualado a zero, o ni é o ni do máximo termo.

ln A − ln n∗i − λ − βEi = 0 (24)

n∗i = Ae−λ e−βEi (25)

Substituindo da equação da probabilidade:

Pi = e−λ e−βEi (26)

mas eu sei que :

X X
Pi = 1 = e−λ e−βEi (27)
i

1
e−λ = P −βEi
(28)
je

Dessa forma, a probabilidade de se encontrar um determinado estado quântico


em um ensemble canônico é:

e−βEi
Pi = P −βEj (29)
je

Que é a definição do fator de Boltzmann

6
0.2 Aula 2 - 09/11
0.2.1 Revisando
Em um sistema canônico (NVT), a probabilidade de encontrar um estado quântico
j é:

e−βEj
Pj = P −βEi (30)
ie

para provar isso, foi utilizado a ideia do máximo termo. Só que assumimos que
as distribuições do tipo multinomial, dado um conjunto n, são caracterizadas pela
dominância desse máximo termo.
P
( nj )!
Ω({n}) = (31)
Πnj !

Dessa forma, partimos para demonstrar que esse tipo de distribuição é dominada
pelo máximo termo:

0.2.2 Máximo termo


Seguimos então para provar essa dominância do máximo termo nas equações do tipo
31
Supondo que:

M
X
tN = tN ∗ (32)
N =0

sendo:

M !xN y M −N
tN = (33)
(M − N )!N !
Sendo esse tN do tipo binomial. Sendo N um N qualquer. Queremos justamente
provar que a soma está dominada por um único termo

7
sendo:

M !xN y M −N
tN = (34)
(M − N )!N !
Lembrando do teorema binomial:

Teorema binomial

O teorema binomial diz que:

M
X M !xN y M −N
= (x + y)M (35)
N =0
(M − N )!N !

Obviamente aqui não se está fazendo a simplificação do máximo termo, já que
se quer justamente utilizar isso para se mostrar essa simplificação:
Exemplo:
Para M=2:

2
X 2!xN y 2−N
= y 2 + 2xy + x2 = (x + y)2 (36)
N =0
(2 − N )!N !
P
Existe a restrição de M = N só que essa restrição já está imposto em (M −N ).

Teorema multinomial
X X X M !xN1 xN2 xN3 ... X X X M !ΠxNi ... X
1 2 3 i
... = ... =( xi ) M (37)
N N N...
ΠN i!
N N N...
ΠNi!
1 2 1 2

Que é a extensão automática do teorema binomial.


P
Existe a restrição de M = Ni que é uma restrição que temos que ficar atentos.
Não é qualquer somatório que serve. N1 não é independente de N2
Portanto, voltando ao nosso problema que é achar:

M
X
tN = tN ∗ (38)
N =0

Sendo:

M !xN y M −N
tN = (39)
(M − N )!N !
tipo uma distribuição binomial para simplificar, mas poderia ser multinomial
também. Utilizando o teorema binomial tem-se que:

M M
M !xN y M −N
tN ∼
X X
= = (1 + x)M (40)
N =0 N =0
(M − N )!N !

8
M
X
ln tN = M ln (1 + x) (41)
N =0

Quando comparado com a equação do teorema binomial 35 aqui se assumiu y = 1


Utilizamos o ln porque como temos fatoriais, é mais fácil de usar porque podemos
usar a fórmula de Stirling que diz:

ln N ! = N ln N − N (42)

Guardamos essas informações e voltamos ao nosso problema:

M
tN ∼
X
= tN ∗ (43)
N =0

O quanto isso é verdade? Isso é uma aproximação? Qual o erro?

M !xN
tN = (44)
(M − N )!N !
Preciso saber qual o N que leva ao máximo termo. Quem é tN ∗ ? Aplicando o ln
e usando Stirling

ln tN = M ln M − M + N ln x − (M − N ) ln (M − N ) + (M − N ) − N lnN + N

(45)

ln tN = M ln M + N ln x − (M − N ) ln (M − N ) − N ln N (46)

queremos saber o máximo termo, então derivamos e igualamos a 0.

∂ln tN
= 0 = ln x + ln (M − N ) + 1 − ln N − 1 (47)
∂N
Tirando a exponencial:

x(M − N )
=1 (48)
N
Arrumando, temos que.

xM − xN = N (49)

Lembrando que esse N é o que leva ao máximo termo, já poderı́amos colocar que

9
aqui N = N ∗.

xM
N∗ = (50)
1+x
Sabendo que:

M (1 + x) xM M
(M − N ∗) = − = (51)
1+x 1+x 1+x
Para achar tN ∗ substituı́mos essa últimas equações na equação do ln tN ∗ , equação
46

xM M M xM xM
ln tN ∗ = M ln M + ln x − ln − ln (52)
1+x 1+x 1+x 1+x 1+x

M M xM M
ln tN ∗ = M ln M − ln − ln (53)
1+x 1+x 1+x 1+x

M (1 + x) M
ln tN ∗ = M ln M − ln (54)
1+x 1+x

M (1 + x) M
ln tN ∗ = M ln M − ln (55)
1+x 1+x
Sabendo que:

M 1
M ln = −M lnM − M ln (56)
1+x 1+x
então:

ln tN ∗ = M ln (1 + x) (57)

que na verdade é igual ao resultado da equação 41. Dessa forma se prova que:

M
X
tN ∗ = tN (58)
N =0

No entanto, essa verdade é tão válida quanto for válida a fórmula de Stirling e
essa aproximação é pouco válida para Ms pequenos, mas para grandes é válido.
Por exemplo:
para x = 2

ln x! = x ln x − x (59)

ln 2 = 0.69 (60)

10
2 ln 2 − 2 = −0.61 (61)

para x = 5

ln 5 = 4.78 (62)

5 ln 5 − 5 = 3.05 (63)

para x = 100

ln 100 = 363.74 (64)

100 ln 100 − 100 = 360 (65)

para x = 1000

ln 1000 = 5912.13 (66)

1000 ln 1000 − 1000 = 5907.75 (67)

A formula de Stirling é funciona muito bem para número grandes, mas para
números pequenos o somátório não pode ser aproximado pelo máximo termo.

0.2.3 Ensemble Canônico


Já vimos que a probabilidade do estado quântico j de acontecer é:

e−βEj
Pj = P −βEi (68)
ie

a probabilidade de um estado quântico é um informação daquela ”fotografia”. É


a probabilidade de encontrar aquela ”fotografia”do meu conjunto estatı́stico.
A soma sobre todos os possı́veis estados não é mais um propriedade mecânica e
sim uma propriedade do conjunto como um todo. É uma propriedade do conjunto
e não mais de um estado especı́fico.

e−βEj e−βEj
Pj = P −βEi = (69)
ie Q(N, V, T )
sendo:

11
X
Q(N, V, T ) = e−βEi = f unção de partição canônica (70)
i

Q é a soma sobre todos os possı́veis estados de e−βEi .


Antes de entrar na função de partição canônica é preciso fazer uma relação com
a termodinâmica para descobrir quem é o β. E para ver como podemos calcular
propriedades termodinâmicas. Dado que eu sei a probabilidade do estado ou sei
escrever a função de partição, como obtenho propriedades termodinâmicas?
Depois de responder isso, iremos discutir como criar um modelo de Q pro fluido
(vamos chamar isso de equações de estado, modelo G de excesso).
Para comparar com a termodinâmica:
Sei que a termodinâmica clássica (primeira e segunda lei) diz que em um sistema
sem campo gravitacional:

dU = T dS − P dV para N = cte (71)

Sei que pela ergocidicidade, qualquer propriedade de origem mecânica se da por:

X
< M >= Pj Mj (72)

Para energia, tem-se que:

X
< E >= Pj Ej (73)

e:

X X
d < E >= Pj dEj + Ej dPj (74)

Lembrando que Pj é a probabilidade de o sistema se encontrar naquele estado


quântico, Mj é o valor da propriedade naquele estado quântico e < M > é a média
temporal daquela propriedade.
Vamos abrir os termos, e para fazer isso é necessário isolar a energia, para isso,
voltamos para equação da probabilidade aplicando o ln, podemos tirar que:

lnPj = −βEj − lnQ (75)

1 1
Ej = − ln Pj − ln Q (76)
β β
Derivando (considerando que Ej é a energia de um estado mecânico, então ela
só pode ser função de coordenadas mecânicas, ou seja, V e N.

12
∂Ej ∂Ej
dEj = dV + dN (77)
∂V ∂N
No entanto dN = 0 e na mecânica a variação da energia mecânica sobre o volume
é menos a pressão:

∂Ej
= −Pj (78)
∂V
Sendo Pj a pressão mecânica do estado quântico j. Não é uma pressão termo-
dinâmica e sim mecânica.
Então:

dEj = −Pj dV (79)

Voltando para equação da derivada da energia, equação 74

X X
d < E >= Ej dPj − ( Pj Pj )dV (80)

Sendo

X
( Pj Pj ) =< Pj > (81)

Mas ainda falta descobrir quem é:

X
Ej dPj (82)

Já vimos que pela equações 75 e 76:

1 1
Ej = ln Pj − ln Q (83)
β β

X 1X 1 X
Ej dPj = − ln Pj dPj − ln Q dPj (84)
β β
ln Q sai do somatório pois ele não tem relação com o estado quântico j.
Notar que:

X X
dPj = d Pj = 0 (85)

X X X
d( Pj ln Pj ) = ln Pj dPj + dPj (86)

o último termo corta pois vimos que é 0.


Então:

13
X 1X 1 X 1 X
Ej dPj = − ln Pj dPj − ln Q dPj = − d( Pj ln Pj ) (87)
β β β

Agora que achamos os dois termos, voltamos então para a equação da derivada
da energia média com suas devidas substituições

1 X
d < E >= d(− Pj ln Pj )− < P > dV (88)
β
Temos que comparar com a equação da termodinâmica clássica:

dU = T dS − P dV para N = cte (89)

Pela ergodicidade sabemos que a energia mecânica média é a energia interna.

< E >= U e < P >= p (90)

Como qualquer propriedade M de origem mecânica. Então o termo:

1 X
T dS = d(− Pj lnPj ) (91)
β
Mas vimos que a probabilidade de um estado quântico:

e−βEj
Pj = (92)
Q(N, V, T )
Comparando essas duas informações percebe-se que tem que ter unidade de in-
verso da energia e ao mesmo tempo tem que ter relação com o inverso da tempera-
tura. Para conciliar essas duas coisas, define-se uma constante (a chamada constante
de Boltzmann)

1
β= (93)
kB T

X
T dS = T d(−kB Pj lnPj ) (94)

Isso implica que a entropia vai se dar por:

X
S = −kB Pj lnPj (95)

A gente prova a partir da função de partição do ensemble canônico, mas isso é


completamente geral.
Se você sabe a probabilidade de encontrar um elemento naquele conjunto, você
sabe a quantidade de informação daquele conjunto, a entropia daquele conjunto. É

14
chamada a entropia de Shannon, ou entropia de informação.
Então:

−Ej
e kB T
Pj = (96)
Q
Temos um sistema com muitos graus de liberdade e temos pouquı́ssimas in-
formações sobre ele e mesmo assim conseguimos descrever esse sistema.
Substituindo na expressão da entropia o ln Pj

kB X X
S= Pj Ej + kB ln Q Pj (97)
kB T
Sendo

X
Pj = 1 (98)

X
Pj Ej =< E >= que pela ergodicidade = U (99)

Então:

T S = U + kB T ln Q → U − T S = −kB T ln Q = A (Helmholtz) (100)

Que é igual a Helmholtz que tem coordenadas naturais NVT. Lembrando que
Helmholtz é quando se aplica a transformada de Legendre da energia interna quando
queremos transformar da variável independente S para variável independente T.

A(N, V, T ) = −kB T lnQ(N, V, T ) (101)

mostra a equivalência entre as transformadas de Legendre que podemos fazer e


os conjuntos estatı́sticos que podemos trabalhar.
Cada conjunto estatı́stico terá seu potencial termodinâmico natural que é uma
transformada de Legendre ou da entropia ou da energia interna.
Trabalhar em transformadas de Legendre diferentes significa trabalhar em dife-
rentes ensemble. Lembrando que todas são equivalentes no limite termodinâmico
Utilizamos um certo caminho, para mostra a relação da probabilidade do en-
semble com as propriedades termodinâmicas, mas poderı́amos utilizar um caminho
diferente por exemplo:

15
Ej
e kB T
Pj = (102)
Q(N, V, T )
Ao invés de calcular qual a probabilidade de um estado quântico j eu posso
calcular qual probabilidade de ter uma energia E.
Dado uma energia E, eu tenho vários estados quânticos com aquela energia E.
Quantos estado quânticos eu tenho com aquela energia E. A probabilidade de se
ter uma energia E é muito maior do que a probabilidade de se estar em um estado
quântico especı́fico. Porque dado uma energia E eu tenho vários estados quânticos
com aquela energia E.

−E
Ω(N, V, E)e kB T
PE = (103)
Q(N, V, T )
Não se tem mais ı́ndice na energia

Ei E
X X
Q= e kB T = Ω(N, V, E)e kB T (104)
i E

Sei pelo máximo termo que:

−<E>
Q = Ω(N, V, E)e kB T (105)

Colocando em ln:

<E>
lnQ = lnΩ(N, V, E) − (106)
kB T
Sabemos que:

− kB T ln Q = A = −kB T ln Ω+ < E > (107)

A = U − T (kB ln Ω) (108)

Se a aproximação do máximo termo for razoável, o kB lnΩ é a entropia


então:

S(U, V, N ) = kB ln Ω(U, V, N ) (109)

Fórmula de Boltzmann para a entropia (fun fact! é o epitáfio dele!)


Mas para mostra isso, teve que utilizar o máximo termo, para demonstrar que

16
vale sem utilizar o máximo termo, consideramos um ensemble microcanônico (NVE),
a probabilidade do estado quântico é:

1
Pj = (110)
Ω(N, V, E)
sei que:

X X 1
S = −kB Pj ln Pj = −kB Pj ln (111)
i

S = kB lnΩ (112)

A entropia mede o número de maneiras de arrumar o sistema. Ela tem a ver


com a energia pois quanto maior a energia maior o número de maneiras de arrumar
o sistema. Quanto mais você aumenta a energia, você aumenta degenerecência.
Lembrando que:

dU = T dS − P dV (113)

∂U
=T (114)
∂S

∂S 1
= (115)
∂U T

S = kB lnΩ (116)

∂Ω 1
= >0 (117)
∂U kB T
T sendo a temperatura absoluta.
Então quando se aumenta a energia, aumenta a degenerecência.
Os valores de entropia e da degenerecência são muito grandes, mas em termo-
dinâmica normalmente o que nos interessa são relações de valores (∆)

0.3 Aula 3 - 11/11


0.3.1 Revisando
Mostramos que a encontropia de um conjunto estatı́stico é dado por:

X
S = −kB Pj ln Pj (118)

17
Mostramos também que a probabilidade para um sistema com NVE especificados
é o inverso do número de maneiras de arrumar o sistema. Ou seja, estados com
mesma energia, volume e número de partı́culas tem que ter a mesma probabilidade
a priori, isso está consistente com a mecânica. Substituindo, a gente mostra a
equação de Boltzmann que diz que a entropia está diretamente relacionado com o
número de maneiras de arrumar o sistema. São equações gerais apesar de as termos
demonstrado com o conjunto canônico.

1
Pj (E, V, N ) = → S = kB ln Ω (119)
Ω(E, V, N )
Fica a seguinte pergunta: será que a equação 118 mostra a aditividade do sis-
tema? (provar isso - que foi visto no final da aula aterior)
Para provar podemos pensar em um sistema subdividido por uma fronteira que
não pertence a nenhuma das subdivições, a probabilidade de encontrar um estado
no lado 1 e a probabilidade de encontrar um estado no lado 2 são independentes -
já que a fronteira não pertuba nem traz informação sobre o sistema.
Para lado 1 probabilidade Pi e para o lado 2 uma probabilidade Pj que são
independentes
Então a probabilidade de um estado conjunto é:

Pij = Pi Pj (120)

Substituindo na equação da entropia é possivel demostrar que a entropia é adi-


tiva!
Sabemos também que em um sistema isolado, a entropia é o máximo, será que
isso é verdade? Sera que a equação 118 mostra que a entropia é o máximo num
sistema isolado?
Uma forma de provar é impor a condição de máximo e ver que tipo de probabi-
lidade que obtemos, para fazer isso podemos definir um funcional - que é a função
mais as restrições. No caso a restrição aplicada é que o somatório das probabilidade
é igual a 1, ou seja os Pj não são independentes.
Restrição:

X
Pj − 1 = 0 (121)

Funcional:

X
Φ = S + λ( Pj − 1) (122)

Nesse novo espaço expandido, os Pj são todos independentes,


Deriva isso e iguala a zero:

18
∂Φ ∂S
=0→ + λ = 0 → Pi não depende de i (123)
∂Pi ∂Pi
Você acha que o Pi que leva a derivada a zero não depende de i (falta achar o
λ + kB
valor que fica algo do tipo e kB ) ou seja não depende do estado quântico.
Isso significa que todos os estados tem a mesma probabilidade, ou seja, estamos
falando do ensemble microcanônico (NVE) que por definição é um sistema isolado,
por ter N, V e E especificados. Dessa forma se demonstra que a entropia tem o seu
favor máximo num sistema isolado.
Na aula anterior também foi mostrado que dado variáveis independentes de in-
teresse, vimos que podemos trabalhar com potenciais termodinâmicos diferentes, foi
isso que vimos quando aplicamos as transformadas de Legendre.
Partimos da equação da termo clássica:

X
dU = T dS − P dV + µi dNi (124)

O somatório representa que é multicomponente.


U tem coordenadas naturais em S,V,N, mas isso nem sempre é interessante.

U = U (S, V, N ) (125)

Então fazemos uma transformada de Legendre para trabalhar em coordenadas


naturais de T, V e N, que são caracterı́sticas do ensemble canônico e encontramos
a energia livre de Helmholtz.
Relembrando transformada de Legendre:
Se eu tenho:

f (x1 , x2 , x3 ) (126)

E quero:

∂f ∂f
g( , , x3 ) (127)
∂x1 ∂x2
Neste exemplo, eu estaria buscando a dupla transformada de Legendre (observar
que o x3 permanece).
Então:

∂f ∂f
g=f− x1 − x2 (128)
∂x1 ∂x2
Fazendo a transformarda de Legendre em U:

19
∂U
A(T, V, N ) = U − S (129)
∂S

A(T, V, N ) = U − T S (130)

∂U
T = (131)
∂S

X
dA = −SdT − P dV + µi dNi (132)

Agora as coordenadas naturais são T, V e N. Então as equações 132 e 124 são a


mesma equação com coordenadas naturais diferentes.
É possivel fazer outra transformada de Legendre para se trabalhar em coordena-
das naturais do ensemble isotémico-isobárico, eu quero que tenha como coorde-
nadas independentes N, P, T, então a nova função eu chamo de G(T, P, N ), então
eu faço transformada de Legendre de S para T e de V para P, ou seja, é uma dupla
transformada de Legendre da energia interna, que no final fica:

G(T, P, N ) = U + P V − T S (133)

X
dG = −SdT + V dP + µi Ni (134)

É possivel fazer outra transformada de Legendre para se trabalhar em coordena-


das naturais do ensemble Grande Canônico, eu quero que tenha como coordenadas
independentes T, V e µ, então a nova função eu chamo de Φ(T, V, µ)
Ao invés de expressar em variáveis NVE eu quero µV T , partimos do mesmo
inı́cio:

X
dU = T dS − P dV + µi dNi (135)

Estou fazendo transformada de Legendre de S para T e de N para µ (em todas


as composições).

X
Φ = U − TS − µi Ni (136)

Lembrando que:
 
∂U
µi = (137)
∂Ni S,V,Nj =cte

Então:

20
X
dΦ = −SdT − P dV Ni dµi (138)

Pelo teorema de Euler

X
µi Ni = G = U + P V − T S (139)

Substituindo em Φ

X
Φ = U − TS − µi Ni = −P V (140)

E indo para a derivada de novo:

X
dΦ = −SdT − P dV Ni dµi = d(−P V ) (141)

Podemos também fazer outro tipo de transformada.


Semi-grande Canônico (osmótico)
Não se faz transformada para todos os componentes, mas apenas para um. Ele é
grande canônico em relação ao componente um e semi grande canônico para o resto.
ψ(T,V,N1 ,µ).
Pode ser importante para sistemas de eletrólitos, a água é tratada diferente dos
ı́ons.

N
X
ψ(T, V, N1 , µ) = U − T S − µi Ni (142)
i=2

N
X
dψ(T, V, N1 , µ) = −T S − P dV + µ1 dN1 Ni dµi (143)
i=2

Trabalhar com diferentes conjuntos estatı́stico é trabalhar com coordenadas na-


turais diferentes obtidas de transformadas de Legendre diferentes da energia interna
ou da entropia.
Mostramos que para cada conjunto estatı́stico existe um potencial termodinâmico
diferente, mostramos que:

A(N V T ) = −kB T ln Q(N V T ) (144)

S(N V E) = kB lnΩ(N V E) (145)

G(N P T ) = kB T ln∆(N P T ) (146)

21
Φ(µV T ) = kB T lnΞ(µV T ) = −P V (147)

Voltando à revisão, provamos que para um ensemble canônico:

−Ej −Ej
e KT e KT
Pj = = (148)
−Ei Q(T, V, N )
KT
P
ie

Vimos também que podemos observar não em relação a probabilidade de cada


estado quântico, mas em cima de um estado de energia

−E
Ω(N, V, E)e kB T
PE = (149)
Q
Esse último Q sendo:

−E
X
Q= = Ωe KT (150)
E

Não se tem mais ı́ndice na energia, o ı́ndice é o próprio E, a energia é próprio e


não o estado quântico com aquela energia.

0.3.2 Isotérmico - Isobárico (T,P,N)


Para construir esse conjunto estatı́stico, vamos ter que definir A sistemas com NPT
especificados. As paredes são diatérmicas (trocam calor). Para um dado sistema
ele tem um conjunto de A-1 sisteminhas funcionando como reservatório térmico.
Lembrando que A é tão grande quanto queira, então esse reservatório térmico é tão
bom quanto eu queira. Para manter a pressão, o volume de cada sisteminha pode
flutuar. Então o A-1 serve também como um grande reservatório de pressão. As
paredes de cada sisteminha trocam calor e não são rı́gidas. Aqui as paredes não
trocam massa pois N está especificado. Definimos uma fronteira isolada para esse
grande sistema (todo A).O grande sistema não varia de energia total nem de volume
total, nem o N total.
Observação: Se eu estivesse tratando de um sistema grande canônico eu espe-
cificaria o potencial quı́mico, mas não o número de partı́culas, então eu permitiria
que as fronteiras de cada sisteminha trocassem massa também.
niv = número de pequenos sistema com N, P, T especificados e com volume v e
estado quântico i (v agora é ı́ndice).Posso definir, então, diferentes conjuntos {niv }
com algumas restrições

22
XX
Energiatotal = Et = niv Eiv (151)
i v

XX
V olumetotal = Vt = niv Viv (152)
i v

XX
N úmero de sistemastotal = A = niv (153)
i v

A é infinitamente grande, mas finito.


Ao invés de ter duas restrições, que era o que tı́nhamos no canônico, agora temos
três restrições.
Então quem vai ser a probabilidade:
P
< niv > 1 {niv } Ω({niv })niv
Piv = = P (154)
A A {niv } Ω({niv })

O número de maneiras de arrumar o sistema dado uma distribuição {niv } é:


P P
i niv !
v
Ω({niv } = (155)
Πi Πv niv !
Dado que todos tem a mesma probabilidade, dado um conjunto {niv } possı́vel
eu tenho várias formas de arrumar o sistema. Já provei que essas distribuições
multinomiais são dominadas por um máximo termo, então:
P
< niv > 1 {niv } Ω({niv })niv niv ∗
Piv = = P = (156)
A A {niv } Ω({niv }) A
Fazendo o mesmo desenvolvimento que foi feito antes pro canônico, chagamos
em

23
−Ei −P V
e kB T e kB T e−βEi eγV
Piv = = (157)
−Ej −P V ∆(N P T )
P P k T k T
j e B e B
v

Olhando pela termodinâmica que se identifica que:

1
β= (158)
kB T

P
γ= (159)
kB

−Ei −P V
e kB T e kB T
Piv = (160)
∆(T, P, N )
Não só a energia está flutuando mas o volume está flutuando também.
Mostra-se por esse caminho que a entropia é:

XX
S = −kB Piv lnPiv (161)
i v

Que é uma equação absolutamente geral. Dado que se tenha a probabilidade


de um conjunto você sabe que entropia é probabilidade multiplicado pelo ln da
probabilidade.
É possı́vel aplicar ao mesmo raciocı́nio para o grande canônico, mas ao invés do
volume flutuar quem flutua é o número de partı́culas:
Substituindo a equação 192 na equação 161
 
XX Ei PV
S = −kB Piv − − − ln∆ (162)
i v
kB T kB T

Multiplicando tudo por kB T :

!
XX XX XX
TS = Piv Eiv + P Piv V + kB T ln∆ Piv (163)
i v i v i v

Lembrando que:

XX
Piv = 1 (164)
i v

XX
Piv Eiv =< E > (165)
i v

24
e

XX
Piv V =< V > (166)
i v

Então,

T S− < E > −P < V >= kB T ln∆ = −G (167)

G(T, P, N ) = −kB T ln∆(T, P, N ) (168)

Mais uma vez precisamos relacionar com as propriedades termodinâmicas

0.3.3 Ensembles e propriedades termodinâmicas


a) Microcanônico (E, V, N)

Como eu relaciono equação de estado a partir da função de partição?


Sei que:

1
Pi = (169)
Ω(N, V, E)

S = kB lnΩ(N, V, E) (170)

dU = T dS − P dV + µdN (171)

1 P µ
dS = dV + dV − dN (172)
T T T
   
1 ∂S ∂lnΩ
= = kB (173)
T ∂U V,N ∂E V,N

Sendo U=E neste caso


Como a temperatura em termodinâmica é sempre absoluta, esta última deri-
vada é sempre positiva, mostrando que o aumento da energia faz aumentar a de-
generecência do sistema, que culmina no aumento da entropia. Mostra que com o
aumento da temperatura o crescimento vai diminuindo, mas de qualquer forma é
sempre positivo.
   
P ∂S ∂lnΩ
= = kB (174)
T ∂V U,N ∂V U,N
e

25
 
µ ∂Ω
= −kB (175)
T ∂N U,V

b) Canônico (T, V, N)
−Ei
e kB T
Pi = (176)
Q(N, V, T )

−E
Ω(N, V, E)e kB T
PE = (177)
Q(N, V, T )
A função de partição pode ser escrita como:

−Ei −E −E
X X
Q= e kB T = Ω(N, V, E)e kB T = Ω(N, V, < E >)e kB T (178)
i E

Essa última iguadade é feita pela aproximação do máximo termo que é válido
para o limite termodinâmico

A = −kB T ln Q (179)

X
S = −kB Pi lnPi (180)
i

dA = −SdT − P dV + µdN (181)

   
∂A ∂ln Q
P =− = kB T (182)
∂V T,N ∂V T,N
   
∂A ∂ln Q
µ= = −kB T (183)
∂N T,V ∂N T,V

Então se eu souber a afunção de particição eu sei a euqação de estado corres-


pondente.
A partir da última igualdade da equação 178, posso obter a energia média:

< E >= U (184)

Partimos então de:

26
−Ei
X X
Q= e kB T = e−βEi (185)
i i

Derivando e multiplicando dos dois lados por 1/Q

1 ∂Q X eβEi
=− Ei (186)
Q ∂β Q
Lembrando que:

−Ei
e βEi
e kB T
= Pi = (187)
Q Q(N, V, T )
Então:

X
Ei Pi =< E > (188)

Podemos achar por fim que:


 
∂ln Q
< E >= − (189)
∂β N,V

Derivando em relação a V obtenho a pressão novamente.


AULA 16/11/2020

c) Isotérmico - isobárico (T, N, P)

A probabilidade de existir um estado quântico j com volume v no ensemble isotérmico-


isobárico é:

−Ei −P V
e kB T e kB T e−βEi eγV
Piv = = (190)
−Ej −P V ∆(N, P, T )
P P k T k T
j e B e B
v

−Ej −P V
XX
∆(N, P, T ) = e kB T e kB T (191)
j v

Também podemos escrever em relação a energia e todos volume. Então a pro-


babilidade fica:

−E −P V
Ω(E, V, N )e kB T e kB T
PEv = (192)
∆(N, P, T )

27
−E −P V
XX
∆(N, P, T ) = Ω(E, V, N )e kB T e kB T (193)
E v

Vimos que a energia de Gibbs(que tem coordenadas naturais T, P, N) é o po-


tencial termodinâmico ligado a essa função de partição:

G(T, P, N ) = −kB T ln ∆(T, P, N ) (194)

Para mostrar isso, posso partir da entropia sabendo que ela é:

XX
S = −kB Piv lnPiv (195)
j v

Substituindo a equação da probabilidade na equação acima é possı́vel mostrar a


veracidade da equação 194. Sei que:

dG = −SdT + V dP + µdN (196)

Quero saber quem é a entropia a partir disso:


 
∂G
−S = (197)
∂T P,N
 
∂ln∆
S = kB T + kB ln∆ (198)
∂T P,N

Posso extrair potencial quı́mico ou equação tipo equação de estado


 
∂G
V = (199)
∂P T,N
 
∂ln∆
V = −kB (200)
∂P T,N

Isso dá origem a esquação de estado do sistema. Posso também calcular o po-
tencial quı́mico:
 
∂G
µ= (201)
∂N T,P
 
∂ln∆
µ = −kB T (202)
∂N T,P

d) Grande canônico (µ, V, T)

A probabilidade de ter um estado quântico j e N partı́culas é:

28
−Ej µN
e kB T e kB T
PjN = (203)
Ξ(µ, V, T )
Sendo a função de partição grande canônica:

−Ej µN
XX
Ξ(µ, V, T ) = e kB T e kB T (204)
j N

para facilitar a escrita, muita vezes fazemos:

µN
e kB T = λN → potencial quimico absoluto (205)

Então:

−Ej
e kB T λN
PjN = (206)
−Ej
P P k T N
je B λ N

Podemos também escrever em relação ao estado de energia E.

−E
Ω(E, V, N )e kB T λN
PEN = (207)
−E
Ωe kB T λN
P P
E N

Vimos que o potencial termodinâmico é:

φ = −P V = −kB T ln Ξ (208)

Para demonstrar isso, se aplica a equação da probabilidade na equação da en-


tropia.

XX
S = −kB PiN ln PiN (209)
j N

d(+P V ) = SdT + P dV + N dµ (210)

   
∂P V ∂ln Ξ kB T
P = = kB T = ln Ξ (211)
∂V T,µ ∂V T,µ V

29
Podemos observar também que :
     
∂P V lnΞ ∂lnΞ
< N >= = kB T ∂ =λ (212)
∂µ T,V ∂µ T,V ∂λ T,V

lembrando que:

µ
λ = e kB T (213)

∂λ 1 µ λ
= e = (214)
∂µ kB T KT kB T
Observações sobre o grande canônico i - a gente sabe que a função de
partição é:

−Ej
XX X
Ξ(T, V, µ) = e kB T λN = Q(N, V, T )λN (215)
N j N

Essa equação se traduz em número de estados possı́veis com N, V, T especificados


multiplicado pela probabilidade de ter aquele estado com N partı́culas.
Sei que a função de partição canônica é a soma sobre todos os estados de energia
da degenerecência multiplicado por e elevado a energia sobre kB T

−E
X
Q(N, V, T ) = Ω(E, V, N )e kB T (216)
E

Mas o Ω é a função de partição microcanônica. O ensemble microcanônico é o


conjuto com E, V e N especificados, a partir dele se eu flutuar a energia eu tenho o
ensemble canônico e a partir deste se eu flutuar o número de partı́culas eu tenho o
grande canônico, então como se fosse um dentro do outro. Mas também sei que os
ensembles são equivalentes no limite termodinâmico.
Dessa forma, temos que:

−E
XX X
Ξ(T, V, µ) = Ω(E, V, N )e kB T λN = Q(N, V, T )λN =
N E N
(217)
−<E> µ<N >
Ω(< E >, V, < N >)e kB T e kB T

Isso com base no fato que se é possı́vel mostrar a dominância pelo máximo termo
Sei também que a partir da equação acima:

30
P V = kB T ln Ξ = kB T lnΩ− < E > +µ < N > (218)

Sei que:

µ < N >= G (219)

kB T lnΩ = S (220)

kB T lnΩ− < E >= −A (221)

Então

G − A = PV (222)

Observações sobre o grande canônico ii -

X
Ξ(µ, V, T ) = Qn λN = Q(0, V, T ) + Q(1, V, T )λ + Q(2, V, T )λ2 ... (223)
N

O que isso sugere: que podemos dividir o problema de múltiplos corpos em


um problema que podemos tratar os corpo em diferentes problemas. Esse é um
indicativo que existe uma conveniência para gerar a equação de Virial.
Então, para gerar a equação de Virial naturalmente se parte do conjunto grande
canônico porque é possı́vel descrever o sistema em diferentes problemas de corpos
diferentes.
Observações sobre o grande canônico iii - sistemas multicomponentes (T,
V, µ1 , µ2 ...)

−Ej
e kB T λN1 λN2 ...
1 2
PjN (224)
Ξ
Sendo:

−Ei
XXX
Ξ= ...e kB T λN1 λN2
1 2 (225)
j N1 N2

N
XX
Ξ= ...Q(N, V, T )Πλj j (226)
N1 N2

31
Até este ponto do curso já vimos as funções de partição e como obter propriedades
termodinâmicas

0.4 Aula 4 - 16/11


0.4.1 Flutuações

0.4.2 Momentos não centrais (mi )


Z +∞ X
mi = xi f (x) dx = xi f (x) (227)
−∞ x

A depender se é uma variável contı́nua ou discreta.


Sendo f(x) a densidade de probabilidade de encontrar x entre x e x+dx
exemplo:
O momento de ordem zero:
Z +∞ Z +∞
0
m0 = x f (x) dx = f (x) dx (228)
−∞ −∞
se:
Z +∞
f (x) dx = 1 (229)
−∞

então f(x) é normalizada, se não esse momento de ordem 0 serve para normalizar
a função densidade de probabilidade. Inclusive já fizemos isso quando disse que a
soma sobre todos os possı́veis estados quânticos resultava na função de partição que
servia para normalizar a probabilidade.A função de partição sendo o momento de
ordem zero.
Supondo então a igualdade da equação 229, temos que o momento de primeira
ordem:
Z +∞
m1 = xf (x) dx =< x > (média) (230)
−∞

O momento de segunda ordem:


Z +∞
m2 = x2 f (x) dx =< x2 > (231)
−∞

Momentos centrais (n)


Tenho uma distribuição qualquer que tem uma média e quero calcular momentos
em relação a essa média

32
Z +∞
ni = (x− < x >)i f (x) dx (232)
−∞

Z +∞
n0 = m0 = f (x) dx (233)
−∞

Z +∞
n1 = (x− < x >)f (x) dx (234)
−∞

Z +∞ Z +∞
n1 = xf (x) dx− < x > f (x) dx = 0 (235)
−∞ −∞

Que é justamente a definição de momento central. A flutuação de primeira ordem


em relação a média é zero.
Então o primeiro momento central que interessa é o momento central de ordem
2:
Z +∞
n2 = (x− < x >)2 f (x) dx = σx2 (variância de x) (236)
−∞

Z +∞
n2 = (x2 − 2x < x > + < x >2 )f (x) dx =< x2 > −2 < x >2 + < x >2 (237)
−∞

σx2 =< x2 > − < x >2 (238)

0.4.3 Flutuações de propriedades termodinâmicas


Partindo de um sistema no conjunto cânonico, eu tenho interesse em saber a forma
que a energia flutua. Qual a variância do sistema?

σE2 =? (239)

X
< E >= Pj Ej (240)
j

X
Q= e−βEj (241)
i

∂Q X
=− Ej e−βEj (242)
∂β j

Dividindo por Q dos dois lados e lembrando que:

33
e−βEj
Pj = (243)
Q
Então:

1 ∂Q X e−βEj
=− Ej =−<E> (244)
Q ∂β j
Q
 
∂ ln Q
< E >= − (245)
∂β V,N

Lembrando que β = 1/kB T e:

∂β 1
=− (246)
∂T kB T 2
Então:
   
∂ ln Q 2 ∂ ln Q
< E >= − = kB T (247)
∂β V,N ∂T V,N

eu quero calcular a flutuação da energia e eu sei que:

σE2 =< E 2 > − < E >2 (248)

Mas quem é a energia ao quadrado média?

< E 2 >=? (249)

−Ej −Ej
 
X 1 X 2 k T kB T 2 ∂ X
< E 2 >= Ej2 Pj = Ej e B = Ej e kB T  (250)

Q Q ∂T

j j j

Multiplicando e dividindo por Q dentro da derivada


−Ej 
P k T 
 j Ej e B Q  kB T 2 ∂(< E > Q)
kB T 2 ∂ 
= (251)
Q ∂T  Q Q ∂T

   
2 ∂(< E >) 2 ∂ln Q
= kB T + kB T < E > (252)
∂T V,N ∂T V,N

Sendo que

34
 
2 ∂ln Q
kB T < E > =< E >2 (253)
∂T V,N

Então:
 
2 2 ∂(< E >)
< E >= kB T + < E >2 (254)
∂T V,N

Dessa forma:

 
∂(< E >
σE2 2 2
=< E > − < E > = kB T 2
+ < E >2 − < E > 2 (255)
∂T V,N

σE2 = kB T 2 Cv (256)

Sendo Cv
 
∂<E>
CV = (257)
∂T N,V

Ou seja, a flutuação é também uma propriedade termodinâmica do sistema


Podemos também querer estimar a flutuação sobre a energia média:

σE (kB T 2 Cv )1/2
= (258)
<E> <E>
Para saber mais ou menos a ordem de grandeza vamos supor um gás ideal.
Sabemos que a energia média de uma gás ideal é da ordem de N 3/2 kB T ou seja,
da ordem de N kB T e o Cv é da ordem de N 3/2 kB ou seja, da ordem de N kB
Então

σE ∼ (kB T 2 N K)1/2 ∼ kB T N 1/2 ∼ 1


= = =√ (259)
<E> N kB T kB T N N
A flutuação de uma propriedade em relação a média da propriedade flutua na
ordem de 1 sobre raiz de N, no qual N é o número de partı́culas ou número de graus
de liberdade do sistema.
Para sistemas termodinâmicos a flutuação em relação a propriedade média é
pequena, mas quando falamos em sistemas pequenos essas flutuações são maiores.
exercı́cio
Usando o grande canônico, mostrar que:
 
2 ∂<N >
σN = kB T (260)
∂µ T,V

E usando um gás ideal:

35
σN ∼ 1
=√ (261)
<N > N

0.5 Aula 5 - 18/11


0.5.1 Distribuições de Boltzmann, Fermi-Dirac e Bose-Einstein
O que nós utilizamos na maioria das vezes é a distribuição de Boltzmann, no entanto
é importante discutir as outras distribuições. Essas são para partı́culas quantizadas
e as duas tendem à distribuição de Boltzamnn no limite de temperatura alta ou
baixa densidade.

Introdução sobre quântica

Revisão
Função de onda
em um sistema quântico não sabemos posicionar onde está exatamente a partı́cula
e ter a informação de sua velocidade, diferentemente do sistema clássico, no qual
é possı́vel saber as duas informações. Então ao invés de descrever o sistema pelas
posições e velocidades das partı́culas, num sistema quântico se descreve os sistema
pela probabilidade de se encontrar a partı́cula naquela região, sendo descrito então
em termo de função de onda. Então para uma função de onda ψ(q) com coorde-
nadas generalizadas q independentes do tempo (estacionário). Escrevemos então
a probabilidade de encontrar o sistema na posição entre q1 e q1 + dq1 , q2 + dq2 ...
num espaço de coordenadas generalizadas e essa probabilidade é dada pela função
de onda conjugada multiplicada pela própria função de onda:

ψ ∗ (q)ψ(q)dq1 , dq2 ... (262)

Sendo ψ ∗ (q) a função de onda conjugada. Se a integral sobre a probabilidade for


um , dizemos que função de onda é normalizada.
Z Z Z
ψ ∗ (q)ψ(q)dq = 1 (263)

A ideia é justamente usar a função de onda ψ(q) normalizada para que ela seja
diretamente a probabilidade.
Equação de Schrödinger
A equação da mecânica quântica, a equação de Schrödinger diz que o operador
Hamiltoniando aplicado a função de onda é a anergia (E) multiplicado pela função,
ou seja a energia é um autovalor do operador Hamiltoniano

36
Hψ = Eψ (264)

E o operador Hamiltoniano supondo sistema conservativo é:

−~2 2
H= ∇ + U (x, y, z) (265)
2m
Abrangendo a parte da energia cinética com o primeiro termo e energia potencial
com o segundo. Sendo:

h
~= h sendo a cte de P lanck (266)

O que nos interessa nisso e o que vamos estudar agora é a simetria da função de
onda
Simetria da função de onda
Um operador de simetria (um operador que vai mudar a posição entre a partı́cula
um e dois) aplicada a função de onda (que a tem a posição da partı́cula um, dois,
três...)

P12 ψ(1, 2, 3, ...) = ψ(2, 1, 3, ...) (267)

O que sabemos da quântica e não entraremos em detalhes é que:

P12 ψ(1, 2, 3, ...) = ψ(2, 1, 3, ...) = ±ψ(1, 2, 3, ...) (268)

Então, existem partı́culas que a troca das posições entre elas não altera a função
de onda e tem partı́culas que havendo a troca entre elas, o sinal da função de
onda inverte. Isso é definido com spin. Então o + significa partı́culas simétricas
(partı́culas tipo bosons), spin inteiros. Exemplos de partı́culas tipo boson é o núcleo
do Hélio (He−4 ) ou fótons. O - significa partı́culas antissimétricas (partı́culas tipo
fermions), spin múltiplos de 1/2. Exemplos clássicos aqui são os elétrons.
Partı́culas distinguı́veis (sólido - independentes)
Quero de uma alguma forma contabilizar a função de partição do sistema:

−Ej
X
Q(T, V, N ) = e kB T (269)
J

Considerar a separação dos Hamiltonianos da seguinte forma, considerando:

X
Ej = εkj (270)
k

sendo k a k-ésima partı́cula. Posso agora somar sobre i, j e l. Não modifiquei

37
nada, apenas estou somando sobre os estados quânticos das partı́culas ao invés de
estar somando sobre os estados quânticos do sistema como um todo.

(εai + εbj + ...)


XXX −
Q(N, V, T ) = ...e kB T (271)
i j l

Neste caso, como as partı́culas são distinguı́veis e independentes o estado quântico


da partı́cula a é independente do estado quântico da partı́cula b, etc. Então eu posso
separar a soma e escrever a função de partição da seguinte forma:

εai εbj
X − X −
Q(N, V, T ) = e kB T e kB T ...qa (T, V )qb (T, V )... (272)
i j

Sendo qa (T, V ) a função de partição da partı́cula a, ou seja a soma sobre os


estados quânticos das partı́cula a e elevado a energia sobre KB T daquela partı́cula.

εai
X −
qa (T, V ) = e kB T (273)
i

Então:

Q(N, V, T ) = qa (T, V )qb (T, V )... (274)

Se além de distinguı́veis e ide pendentes as partı́culas forem também equivalen-


tes..
Partı́culas distinguı́veis (equivalentes - independentes)
O que significa ser equivalente, para partı́culas diferentes de mesmo tipo a função
de partição será igual. Significa dizer que a função de partição total do sistema é a
função de partição de uma partı́cula elevado ao número de partı́culas total.

Q(N, V, T ) = (q(T, V ))N (275)

Se o sistema tiver mais de um tipo de partı́cula, por exemplo, dois:

Q(N1 , N2 , V, T ) = (q1 (T, V ))N1 (q2 (T, V ))N2 (276)

Partı́culas indistinguı́veis

X
Ej = εkj (277)
k

38
(εi + εj + ...)
XXX −
Q(N, V, T ) = ...e kB T (278)
i j l

A questão agora é que não se separa as somas.


Para entender o melhor vamos fazer uns exemplos.
Exemplo 1:
Supondo que a partı́cula seja do tipo fermion (antissimétricas)

P12 ψ(1, 2, 3, ...) = ψ(2, 1, 3, ...) = −ψ(1, 2, 3, ...) (279)

Isso significa que duas partı́culas não podem ocupar o mesmo estado quântico
da partı́cula. Então quando eu estou somando, se uma partı́cula está num estado
especı́fico a outra necessariamente não pode estar naquele mesmo estado. Então,
εi , εj ,... não são independentes, pois se uma está em um estado quântico, a outra
não pode estar no mesmo estado, então elas podem não ter interação mas não são
independentes. Então a soma tem que ser feito de uma forma particular.
Exemplo 2:
Supondo que a partı́cula seja do tipo boson (simétricas)

P12 ψ(1, 2, 3, ...) = ψ(2, 1, 3, ...) = +ψ(1, 2, 3, ...) (280)

Não existe a limitação do exemplo 1, mas as partı́culas são indistinguı́veis. Su-


pondo que temos um sistema de partı́culas dos seguintes estados εi εj εj εj sendo i 6= j,
então temos a possibilidade de ter:
εi εj εj εj
εj εi εj εj
εj εj εi εj
εj εj εj εi
Temos então N estado iguais
Vamos supor que cada partı́cula esteja num estado quântico diferente: εi εj εk εl .
Eu tenho portanto N! formas de arrumar o sistema, mas são todas iguais. Então na
verdade eu estou contando a mais em N!.
Então o problema vai depender do tipo de partı́cula.
Então, como começar a resolver esses problemas?

0.5.2 Estatı́stica de Boltzmann


Aqui a gente diz que o número de estados quânticos é muito, muito maior que o
número de partı́culas (isso para moléculas com massas razoáveis com temperaturas
razoáveis). O número de graus de liberdade do sistema é muito, muito maior que o

39
número de partı́culas. Dessa forma, podemos supor que cada partı́cula vai estar em
um estado quântico diferente. Não iremos encontra nenhuma partı́cula no mesmo
estado quântico.
Se isso é verdade, posso tratar como o exemplo 2. Partı́culas indistinguı́veis que
obedecem a distribuição de Boltzmann, independentes e equivalentes, posso escrever:

q N (T, N )
Q(N, V, T ) = (281)
N!
Sendo:

−εj
X
q(T, N ) = e kB T (282)
j

Se pudermos separar o Hamiltoniano em:

H = Ht∇a\∫ lacio\al + Helet∇ô\ico + H∇otacio\al + Hvib∇acio\al (283)

podemos dizer que:

q(T, N ) = qtranslacional + qeletrônico + qrotacional + qvibracional (284)

Notar que:

q N (T, N )
Q(N, V, T ) = (285)
N!

−Ej µN
X XX X
Ξ= QλN = e KB T e KB T = Q(N, V, T )λN (286)
N N j N

P V = kB T lnΞ (287)

∞ ∞
X X (qλ)N
Ξ= QλN = = exp[qλ] (288)
0 0
N!

Lembrando que:

X xi
= ex → série exponencial (289)
i!
Então fica:

P V = kB T lnΞ = qλkB T (290)

Mas quem é qλ? Vimos na aula anterior quem era ¡N¿:

40
 
∂ln Ξ
< N >= λ = λq (291)
∂λ T,V

Então fazendo a substituição:

P V =< N > kB T (292)

Isso é a equação do gás ideal, isso aconteceu por causa da suposição das partı́culas
serem independentes.

0.5.3 Estatı́sticas de Fermi-Dirac e Bose-Einstein


Introdução
Sabemos que:
Ej (V, N ) → Energia do estado quântico j com N partı́culas
εk → estado quântico de partı́culas
nk = nk (Ej ) → nº de partı́culas no k-ésimo estado quântico da partı́cula quando
o sistema se encontra em Ej
Restrições:
P
E j = k n k εk
P
N = k nk
Então, queremos escrever a função de partição já impondo uma restrição:

− k n k εk
P
−Ej
X X
Q(N, V, T ) = e kB T = e kB T (293)
j {nk }

Ainda preciso impor a seguinte restrição:


P
N = nk
uma forma de fazer isso é partindo da função de partição grande canônica

µ
X
Ξ(µ, V, T ) = Qλ N
sendoλ = e kB T (294)
N

n k εk
P
∞ X
− k
X
Ξ(µ, V, T ) = λN e kB T (295)
N =0 {nk }

Vamos então impor a última restrição

n k εk
P

− k
nk
X X
kB T
P
Ξ(µ, V, T ) = λ k e (296)
N =0 {nk }

41
Podemos agora identificar a função de partição da seguinte forma:

∞ X
 −εk nk
X
Ξ(µ, V, T ) = Πk λe kB T  (297)
N =0 {nk }

Mas aqui podemos fazer uma observação, mesmo existindo a possibilidade do


primeiro somatório ir para infinito, ele não vai, pois pela restrição do número de
estados quânticos possı́veis, então ele vai até um número máximo. Por exemplo,
no caso de fermions, Eu não posso ter duas partı́culas no mesmo estado quântico.
Então os produtórios podem ser identificados como um produto de somas de nk até
um nk máximo. Podemos escrever da seguinte forma:

nmáx
1 nmáx
2
−εk nk 
X X
Ξ(µ, V, T ) = ...Πk λe kB T  (298)
n1 =0 n2 =0

O segredo aqui é a soma de N=0 até infinito permite que eu amplie para cada
nk ir de 0 até o nk máximo.
Então se eu olha o produtório percebemos que:

 −εk nk  −ε1 n1  −ε2 n2  −ε3 n3


Πk λe kB T  = λe kB T  λe kB T  λe kB T  ... (299)

Escrevendo dessa forma, percebemos que os termos em 1 são independentes dos


termos em 2 e assim por diante. Posso agora escrever a função de partição como
sendo:

nmáx
1
 −ε1 n1 nmáx
2
 −ε n3 máx  −ε n3
2 n3 3
X X X
Ξ(µ, V, T ) = λe kB T  λe kB T  λe kB T  ... (300)
n1 =0 n2 =0 n3 =0

nmáx
1
 −εk nk
X
Ξ(µ, V, T ) = Πk λe kB T  (301)
n1 =0

No entanto o nmáx é diferente a depender se ele for Fermi-Dirac ou Bose-Einstein,


ou seja, depende da partı́cula.

Estatı́stica de Fermi-Dirac

As partı́culas são antissimétricas →nmáx


k = 1 pois não posso ter duas partı́culas no
mesmo estado quântico. Então eu só tenho dois termos do somatório, ou nk = 0 ou

42
nk = 1. A função de partição no caso de Fermi-Dirac (FD)

nmáx
1
 −εk nk  −εk 
X
(Ξ(µ, V, T ))F D = Πk λe kB T  = Πk 1 + λe kB T  (302)
n1 =0

No caso de adsorção, por exemplo, cada sı́tio só pode ser ocupado uma partı́cula,
ou nenhuma - que é uma isoterma do tipo Langmuir.

Estatı́stica de Bose-Einstein

As partı́culas são simétricas →nk = 0, 1, 2, ...∞


Para o caso da adsorção é como se eu pudesse ter mais de uma partı́cula por sı́tio,
como um modelo de multicamadas. A função de partição no caso de Bose-Einstein
(BE)

nmáx
k
 −εk nk ∞
 −ε nk
k
X X
(Ξ(µ, V, T ))BS = Πk λe kB T  = Πk λe kB T  (303)
nk =0 nk =0

Isso é possı́vel ser identificado como uma série geométrica



X 1
série geométrica → xn = para x < 1 (304)
n=0
1−x

Se a série for convergente, a série geométrica é válida


Por exemplo:

X
y= xn = 1 + x + x2 + ... = 1 + x(1 + x + x2 ...) (305)
n=0

Mas se a série for convergente o que tá dentro do parênteses é igual a y, para que
a série seja convergente é preciso que x seja menor que 1

1
y = 1 − xy = (306)
1−x
Voltando para o nosso problema, a função de partição de Bose-Einstein


 −εk nk  −εk −1
X
(Ξ(µ, V, T ))BS = Πk λe kB T  = Πk  1 − λe kB T  (307)
nk =0

−εk
Para λe kB T < 1

43
Então percebemos que as duas funções de partição são bastante parecidas:
 −εk ±1
(Ξ(µ, V, T )),F D,BS = Πk  1 ± λe kB T  (308)

Uma vez tendo a função de partição, é possı́vel calcular as propriedades termo-


dinâmicas. Por exemplo, quem é o ¡N¿?
Podemos fazer como exercı́cio

−εk
 

 λe kB T
  X
∂lnΞ 
< N >= λ = (309)

∂λ

 −εk 

k
1 ± λe kB T
Como:

X
< N >= < nk > (310)
k

Então:

−εk
λe kB T
< nk >= −εk (311)

1 ± λe kB T
É interessante perceber que para:
FD → 0¡< nk >¡1
BE → 0¡< nk >¡∞
Lembramos que λ é o potencial quı́mico absoluto

µ
λ = e kB T (312)

µ tem a ver com a fugacidade (f)

µ0
λ = e kB T f = kf (313)

Que podemos relacionar justamente com a isoterma de Langmuir.


Podemos escrever também escrevr a equação de estado, partindo de:

P V = kB T lnΞ (314)

44
 −εk 
X
P V = ±kB T ln 1 ± λe kB T  (315)
k

Podemos mostrar que essa função tende à Bolztmann quando T tende à infinito
Ou seja
T → ∞ → λ 0 para N/V = cte e:
 −εk 
ln 1 ± λe kB T  = limx→0 ln(1 ± x) = ±x (316)

É possı́vel mostrar por expansão de série de Taylon

−εk
X
lnΞ = P V = e kB T = λqkB T (317)
k

< N >= λq (318)

Mostro que quando T é grande qualquer distribuição vai para Boltzmann.

0.6 Aula 6 - 23/11


Vamos pular a parte de termo clássica e de termodinâmica de gás ideal.

0.6.1 Função de partição clássica (Canônica)


Vimos que a função de partição canônica é:

Ei
X
Q= e kB T (319)
j

Cada sistema com N, V e T especificados se quisermos tratar o sistema como


clássico, o que estaremos descrevendo através das posições e velocidades das partı́culas
em cada estado.
A probabilidade de encontrar o sistema ”clássico”(em função de suas posições e
velocidades) no estado entre P1 e P1 +dP1 , P2 e P2 +dP2 ... q1 e q1 +dq1 , q2 e q2 +dq2 ...
,ou seja, a probabilidade de encontrar um elemento num determinado local do espaço
de fase. Ela é proporcional a

45
−H
e kB T
P α (320)
−H
e kB T dpdq
RRR

Podemos mostrar essa equação através de um estudo de mecânica clássica.


Dado uma configuração podemos ter o Hamiltoniano do sistema, Hamiltoniano
este que dá a energia total do sistema naquele estado e o estado na verdade são
as coordenadas q e p. Então se eu somar em todos os estado quânticos em termos
clássicos é equivalente a somar em todas as posições e velocidades que sejam fisi-
camente razoáveis para o sistema. Posso dizer então que minha função de partição
clássica é proporcional à super integral seguinte:

Z Z Z −H
Qclássico α e kB T ddq (321)

O primeiro questionamento é, quem é essa proporcionalidade e o segundo é


quando é válido assumir o sistema como clássico.
Vimos as distribuições (Boltzmann, Fermi-Dirac..) para sistemas não interativos
e vimos que quando T é muito grande normalmente as distribuições tendem a Boltz-
mann e o número de estados é muito maior que o número de partı́culas, mas isso
significa que na equação acima é uma igualdade? Quem é essa proporcionalidade?
Então, para analisar isso a primeira coisa a se fazer é, se a diferença entre dois
estados quânticos (dois estados de energia da distribuição) é muito menor do que 1:

∆ij E
<<< 1 (322)
kB T
Quer dizer que na verdade eu tenho quase um contı́nuo de estados quânticos
possı́veis, então, isso é verdade normalmente para movimentos translacionais exceto
para massas grandes e altas temperaturas. Normalmente as energias translacionais
podem ser tratadas como clássicas. Por exemplo, elétron é quântico, é um átomo
quantificável hélio, então não podem ser tratados como clássicos, portanto é preciso
analisar o sistema
Tratar o sistema como clássico, normalmente não é válido para:

1. energias vibracionais

2. energias rotacionais

3. energias eletrônicas

Essas últimas tratamos como quântico. No entanto, a depender da temperatura,


podemos tratar os sistemas como clássicos.

46
Em dinâmica molecular a gente acaba aproximando tudo como clássico mas é
preciso entenderas limitações.
Vamos, então, tentar resolver esses últimos problemas classicamente, precisamos
de um fator multiplicativo c e descobrir quem é esse c:

Z Z Z −H
Qclásscio = c e kB T ddq (323)

Mas quem é esse c?


O c seria o limite quando a diferença de energia entre dois estados quânticos
tende à zero
 Ei 
P k T
 e B
j

c = lim ∆E (324)
 
−H
 
→0  
kB T RRR
e kB T ddq
Continuemos a tentar entender esse c.
Primeiro, dizemos que as partı́culas são indistinguı́veis, no entanto, quando se
usa a equação clássica de Newton (ou Lagrange ou Hamilton) trata-se o sistema de
forma determinı́stica e como partı́culas distinguı́veis, mas elas são indistinguı́veis.
Então, se vale a distribuição de boltzmann então (onde contamos muito mais es-
tado que partı́culas), para que elas sejam consideradas indistinguı́veis, o c deve ser
proporcional a:

1
cα (325)
N!
pois estamos contando muitas configurações a mais.
Segundo, precisamos do princı́pio da incerteza de Heinsenberg (quanticamente
você não consegue a informação precisa da posição e velocidade ao mesmo tempo,
mas classicamente sabemos). Então para cada grau de liberdade , para cada par ∆p
∆q existe uma incerteza que está relacionada a constante de Planck (h) (isso porque
estou tratando um sistema quântico como clássico)

1 1
c= 3N
= (326)
N !h N !h3f
o 3 é por estarmos pensando em 3 coordenadas (x, y, z) ou podemos tratar
como f, sendo f o número de graus de liberdade do sistema. Sendo N o número de
partı́culas.
Então a função de partição clássica vai ficar:

47
Z Z Z −H
1
Qclássico = e kB T ddq (327)
N !h3N
Mas eu sei que vários graus de liberdade não podem ser classificado classicamente,
então iremos tratar de outra forma

0.6.2 Função de partição semi-clássica (Canônica)


Aqui utilizaremos uma hipótese importante. Tenho um operador hamiltoniano Hop
que digo que posso dividir em operador de centro de massa mais operador interno.
Estou, dessa forma, separando o sistema em graus de liberdade internos e graus de
liberdade de centro de massa

CM int
Hop = Hop + Hop → operador Hamiltoniano (328)
CM
Hop → centro de massa da molécula.
int
Hop → graus de liberdade internos ou intramoleculares (vibracionais, rotacionais
...)
separando o sistema em graus de liberdade internos (int) e graus de liberdade de
centro de massa (CM). Lembrando que isso é uma aproximação e traz consequências.
Aqui significa que que estamos descorrelacionando as energias vibracionais, rotaci-
onais, das posições e velocidades. Vale para moléculas pequenas então é preciso ter
consciência.
A função de partição que agora é a soma sobre todos os estados quânticos (i em
relação ao centro de massa e j em relação aos graus de liberdade internos):

− EiCM + Ejint

 
X  kB T

Q= e (329)
i,j

O que posso observar aqui é que eles são separáveis é que eles são separáveis, são
independentes, então:


− EiCM + Ejint −Ejint 
  
−EiCM
 
  
kB T kB T
     
Q=
X
e =
X
e kB T +
X
e (330)
i,j i j

O último termo, normalmente é melhor ser tratado como quântico, mas o penúltimo
pode ser tratado como clássico. Então é isso que faremos. Então iremos dividir
função de partição

48
Q(N, V, T ) = Qclássico Qquântico = QCM Qint (331)

Podemos já deduzir pelo o que vimos anteriormente que:

Z Z Z −H
1
QCM = e kB T dpdq (332)
N !h3N

como estou dizendo que o hamiltoniando é separável, os movimentos vibracio-


nais e etc. são independentes posições e dos momento, eles dependem apenas da
temperatura (T) e do número de partı́culas (N) . Então, se eles não dependem das
posições isso significa que uma partı́cula não enxerga o que está acontecendo inter-
namente outra partı́cula, elas são independentes entre si. No fundo estamos dizendo
que o que acontece internamente em uma molécula é independente do que acontece
na outra. Então podemos separar em cada partı́cula:

−Ejint
X
Qint = e kB T ddq = qint
N
(T ) = (qvib qrot qele )N (333)

Nessa última igualdade ainda considero que os graus de liberdade vibracionais


são independentes dos rotacionais e etc.
Então o que estamos chamando de função de partição semi-clássica é:

−H
q N (T )
Z Z Z
Q(T, V, N ) = e kB T dpdq (334)
N !h3N
Temos então uma parte quântica e uma parte clássica.
Mas quem é o Hamiltoniano H do sistema?

0.6.3 Hamiltoniano do Sistema


O Hamiltoniano é a soma da energia cinética mais a potencial:

N
X 1
p2ix + p2iy + p2iz + u(r1 , r2 ...)

HCM = (335)
i=1
2m

Notar que nessa última equação não se tem adicionado um campo externo, no
entanto é possı́vel adicionar essa contribuição na energia potencial da seguinte forma:

X 1 XX 1 XX
u(r) = φi (i ) + φij (rij ) + φij (rij )... (336)
i
2 i j 2 i j

Então a energia potencial sobre todos os rs ela pode ser uma soma sobre todos
os componentes i da energia que só depende da posição do componente i, isso aqui

49
é um campo externo ( exemplo: campo gravitacional - só depende da posição do
componente naquele campo gravitacional). Qualquer campo externo só depende da
posição em relação ao próprio campo.
O segundo termo são as contribuição das interações em pares, depende da distância
relativa entre i e j.
Depois tem os termos de contribuições de trios etc.
A gente supõe que podemos desprezar as contribuições de trios, quartetos, etc.
Isso não quer dizer que consideramos que três, ou quatro partı́culas não interagem,
quer dizer apenas que elas interagem par a par
Mas isso não altera o hamiltoniano, estamos dizendo que o sistema é conservativo.
Qual a diferença entre sistemas conservativos e dissipativos? para ser dissipativo o
termo potencial tem que depender da velocidade e aqui no nosso sistema o termo
potencial depende apenas da posição.
O que iremos fazer é substituir o hamiltoniano na integral da função de partição
do sistema para podermos observar uma consequência da separação do Hamiltoni-
ano:


p2ix + p2iy + p2iz
P
Z Z Z −H Z Z Z − Z Z Z −U (r)
e kB T dqdr = e 2mkB T dp e kB T dr (337)

Mas temos que


 3N
p2ix + p2iy + p2iz
P
− −p2

Z Z Z Z +∞
e 2mkB T dp = 

e 2mkB T dp

(338)
−∞

Para resolver essa integral abrimos mão dos seguintes artifı́cios matemáticos:
Dizemos que:

p2
x2 = → (2mkB T )1/2 x = p → (2mkB T )1/2 dx = dp
2mkB T
(339)

−p2
Z +∞ Z +∞
2
e 2mk T
B dp = (2mkT )
1/2
e−x dx = (2mπkB T )1/2 (340)
−∞ −∞

Então a equação 338 fica:

50
3N
−p2

Z +∞
e 2mkB T dp = (2mπkB T )3N/2 (341)
 

−∞

Mas ainda tem uma parte que não sei trabalhar que chamamos de integral de
configuração Zn

Z Z Z −U (r)
Zn = e kB T dr (342)

Voltamos pra função de partição e rescrevendo e sabendo que para sistemas


conservativos o dp pode ser todo integrado e fica apenas a integração em r que não
sei fazer

−U (r)
q N (T ) −3N
Z Z Z
Q(T, V, N ) = ∆ e hB T dr (343)
N!

q N (T ) −3N
Q(T, V, N ) = ∆ ZN (N, V, T ) (344)
N!
Sendo ZN (N, V, T ) → integral de configuração. Sendo
1/2
h2

∆= (345)
2mπkB T
O comprimento de onda de Broglie.
Por que colocamos capacidade calorı́fera de gás ideal? Porque só depende de T
e não de V.
A grande questão agora é como iremos resolver a integral.
Começamos supondo que estamos falando de gás ideal.
Qual ideia de ser gás ideal, é um gás que não interage. Iremos aqui também
desprezar o campo externo.
Então:

U (r) = 0 (346)

Z Z Z −U (r) Z Z Z Z Z Z N
Z(N, V, T ) = e kB T dr = dr = dxdydz = V N (347)

então a função de partição de gás ideal é:

51
q N (T ) −3N N
Q(N, V, T ) = ∆ V (348)
N!
Podemos agora calcular as propriedades:
 
∂lnQ kB T N
P = kB T = → P V = N kB T (349)
∂V N,T V

0.6.4 Distribuição de Maxwell-Boltzamnn


A probabilidade de encontrar uma molécula entre um momento p e q e p + dp e
q + dq é dado por (sendo tratado classicamente):

−H
f (p, q)dpdq = Ae kB T dpdq (350)

Mas vimos que o hamiltoniano é:



p2ix + p2iy + p2iz
P

H= + U (q) (351)
2m
Uma energia cinética que só depende de momentos mais uma energia potencial
que só depende de posições.

H = K(p) + U (q) (352)

Então a densidade de probabilidade vai ser:

−K(p) −U (q) −K(p) −U (q)


f (p, q)d(p)d(q) = Ae kB T e kB T = A1 e kB T d(p)A2 e kB T d(q) = f (p)d(p)f (q)d(q)
(353)
Sendo A uma constante.
Sendo f (p)d(p) a densidade de probabilidade de ter uma certa quantidade de
momento dp e f (q)d(q) a densidade de probabilidade de ter uma certa posição
dq. Portanto a densidade de probabilidade do sistema ter uma certa posição no
espaço de fase (com coordenadas e momentos) é a densidade de probabilidade de
ter um momento multiplicado pela densidade de probabilidade de ter uma posição.
Significa dizer então que estamos tratando de eventos independentes e existem várias
consequências por causa disso. A possibilidade do estudo separado (podemos estudar
a probabilidade de ter uma certa velocidade independente de como as partı́culas
interagem - consequência natural do sistema ser conservativo)
Estamos dizendo que a probabilidade de ter uma certa velocidade independe da
probabilidade de se estar em uma certa posição.

52
Por que conseguimos calcular propriedades configuracionais por monte carlo e
por dinâmica sendo que um é estocástico e outro é dinâmico? Porque os eventos
podem ser tratados de forma independentes. Então para propriedades que apenas
dependem da posição, eu não preciso ”enxergar”as velocidades necessariamente.

0.7 Aula 7 - 25/11


como podemos tratar independentemente vamos então começar tratando pela dis-
tribuição de velocidade f p. Então, a qual a probabilidade de encontrar um sistema
em p e p+dp independente de como ele interage?
Qual a probabilidade de encontrar uma partı́cula qualquer num escalar (px , py ,
pz ).
Para uma única partı́cula (tira o somatório)

−K(p) − p2x + p2y + p2z
f (p)dp = Ae kB T dp = Ae 2mkB T dpx1 dpy1 dpz1 (354)

Já vimos que:


Z Z Z
f (p)dp = A = (2πmkB T )−3/2 (355)

Voltando:


− p2x + p2y + p2z
f (px , py ,z )dpx dpy dpz = (2πmkB T )−3/2 e 2mkB T dxdydz (356)

Posso então separar para x, y e z:

−p2x
f (px )dpx = (2πmkB T )−1/2 e 2mkB T dpx (357)

−p2y
f (py )dpy = (2πmkB T )−1/2 e 2mkB T dpy (358)

−p2z
f (pz )dpz = (2πmkB T )−1/2 e 2mkB T dpz (359)

O que isso dá é probabilidade de encontrar uma partı́cula qualquer entre px e


dpx entre py e dpy e entre pz e dpz

53
eu posso em escrever em função da velocidade ao invés de momento. Sabendo
que px = mvx
Qual a probabilidade de ter uma velocidade vx ...

2
 1/2 −mvx
m
f (vx )dvx = e 2kB T dvx (360)
2πkB T
2
 1/2 −mvx
m
f (vy )dvy = e 2kB T dvy (361)
2πkB T
2
 1/2 −mvx
m
f (vz )dvz = e 2kB T dvz (362)
2πkB T
então para cada direção eu posso calcular a distribuição de boltzamnn. Mas
muitas vezes eu não quero para uma direção especı́fica, e sim eu quero calcular
para um módulo de velocidade independente da direção (uma certa magnitude de
velocidade) e para isso eu posso fazer uma transformada de coordenadas e calcular
qual a probabilidade de se ter um certo módulo de velocidade independente da
direção. Para isso vou fazer em coordenadas esféricas.

Figura 1: Caption

O módulo de v é:

1/2
v = vx2 + vy2 + vz2 (363)

vx = vsenθ cosϕ (364)

54
vy = vsenθ senϕ (365)

vz = vcosθ (366)

Qual a probabilidade de termos um certo módulo de velocidade vdv. Multiplica


então as três probabilidades

2 2 2

Z Z  3/2 −m vx + vy + v z
m 2kB T
f (v)dv = e v 2 dv senθ dθ dϕ (367)
θ ϕ 2πkB T

Integra sobre os dois ângulos pois quero que independente da direção eu tenha
o módulo de velocidade v.
Integro sobre todos os possı́veis ângulos do sólido que resulta em 4π

2
 3/2 −mv
m
f (v)dv = 4π e 2kB T v 2 dv (368)
2πkB T
Portanto a densidade de probabilidade é (a frequência com que aparece um certo
v):

2
 3/2 −mv
m
f (v) = 4π e 2kB T v 2 (369)
2πkB T
Apesar da maioria dos livros tratarem essa equação como válida apenas para gás
ideal, a única hipótese feita foi que admite a separação do hamiltoniano.
Cálculo de velocidades:

df (v)
v mais provável → = 0 e tirar quem é a velocidade mais provável.
dv 1/2
2kB T
O resultado é vP =
m

R +∞
v médio → −∞
vd(v)dv e tirar quem é a velocidade média.
 1/2
8kB T
O resultado é < v >=
m

R +∞
v quadrático médio → −∞ v 2 d(v)dv e tirar quem é a velocidade média.
1/2


3k B T
O resultado é < v 2 > =
m

55
0.7.1 Introdução à Estatı́stica de Rede
A ideia é montar a função de partição para gás não ideal
Vimos a função de partição que era:

−U (r)
q N ∆−3N
Z Z Z
q= e kB T dr (370)
N!
Se não tem interação nenhum (gás ideal) sem campo externo sabemos descrever
isso.
q N ∆−3N V N
gás ideal → U (r) = 0 → QGI =
N!
Mas para gás não ideal com campo externo, como faço?
Posso começar dizendo que

X 1 XX
U (r) = φ(ri ) + φ(rij ) (371)
i
2 i j

Considerando apenas as contribuições de pares e campo externo.


No entanto,posso ainda simplificar e dizer que não tem efeito de campo externo,
então o primeiro termo à direita da equação desaparece. Posso também simplificar
o termo de interação de pares.
Simplifica a geometria da molécula como partı́culas esféricas e assim as faz depen-
dente apenas da distância escalar. Mas ainda assim não consigo resolver o problema
das integrais. Simplificamos ainda mais, dizemos que as partı́culas não se atraem.
Ou seja, uma partı́cula não enxerga a outra a não ser que se choquem. Mesmo
assim, ainda não consigo resolver a integral.
Temos algumas soluções com aproximações.
Teremos ter dois caminhos, um a gente vai tentar resolver através da teoria de
pertubação - temos uma solução empı́rica para esferas rı́gidas - e faremos pertubações
dessa solução . A outra forma de resolver é impor uma rede sobre fluido, que é o
que chamaremos de teoria de rede (lattice).
Mas tem um problema, ao impor a rede o fluido perde graus de liberdade.
Definiremos algumas coisas:
N → número de partı́culas
M → número de sı́tios( célula)
α → volume da célula
Iremos tentar separar essa teoria de rede em três grupos

1. Teoria de células → N = M e v = αM , então o tamanho da célula está variando,


pois o M está fixo pelo N.

2. Teoria de cavidade (ou estruturas significantes) → trata o fluido como sendo


a multiplicação da função de partição do gás ideal com a função de partição

56
sólida. É como se o fluido tivesse uma parte sólida e uma parte gás ideal não
se consegue estender para mistura.

3. Teorria de rede (lattice) → N ≤ M (ou seja, posso ter células vazias na rede)
e α = cte. v = αM , mas M tem que aumentar.

0.8 Aula 8 - 30/11


Continuando a estatı́stica de rede
Antes de discutir teoria de células vamos conversar sobre o modelo de Einstein
(que serve como base para outros modelos de sólidos) para facilitar a discussão sobre
a rede.

0.8.1 Sólido de Einstein


Irei pensar em um cristal monoatômico e unidimensional
Supondo que tenhamos partı́culas no cristal, iremos olhar o movimento de uma
partı́cula que está no centro que interagem como LJ com as partı́culas à direita e
à esquerda dela, o potencial resultante vai ser a soma. A hipótese é que todas as
partı́culas estão se movendo, mas se olharmos para uma partı́cula especı́fica, ela
enxerga as outras como um potencial (pois ela enxerga as outras em média nos seus
respectivos centros de célula). Estou descorrelacionando a distância dessa partı́cula
ao centro de célula dela mesma com a distância dessa partı́cula ao centro das outras.
Dado uma partı́cula, o potencial que a partı́cula enxerga dado uma distancia r (sendo
r0 o centro de célula da própria partı́cula), chamamos de potencial de campo médio
potencial de campo médio, quando todas as partı́culas estão em média no seu centro
de célula, estamos forçando que em média cada partı́cula enxerga as outras no seu
centro de célula:

∂ 2ϕ
   
∂ϕ 1
ϕ(r) = ϕ(0) + r+ r2 + .... (372)
∂r r=0 2 ∂r2 r=0

Sendo ϕ(r) o potencial da partı́cula dado uma distância r. ϕ(0) o potencial da


partı́cula no seu centro de célula, mais quando ela sai da célula (posso pensar no
sistema como uma série de Taylor)
No entanto:
 
∂ϕ
=0 (373)
∂r r=0

Pois é o mı́nimo potencial da própria célula e olharei apenas para o segundo


termo da série de Taylor e irei desprezar os outros termos. Ficamos então com:

57
∂ 2ϕ
 
1
ϕ(r) = ϕ(0) + r2 (374)
2 ∂r2 r=0

Percebo, então, a forma de um potencial do tipo harmônico,

1
ϕ(r) = ϕ(0) + fr=0 r2 (375)
2
Sendo fr=0 a constante da mola, que vai ser um parâmetro do sólido
cuja solução sei pela quântica e substituo na função de partição
O que estamos tentando fazer é descorrelacionar as células para tentar
conseguir calcular aquela super integral

Potencial de célula

O potencial de célula vamos definir como sendo o potencial que a partı́cula enxerga
menos o potencial de quando ela está no centro, supondo que todos os vizinhos estão
nos seus centros de célula

ψ(r) = ϕ(r) − ϕ(0) (376)

Lembrando o oscilador harmônico:


A energia do oscilador é:
 
1
εn n + νh (377)
2
No qual a frequência de vibração (oscilação) é, para uma partı́cula isolada em
um oscilador harmônico unidimensional :
 1/2
1 f
ν= (378)
2π m
então voltando para termodinâmica e o que eu quero resolver é a equação da
função de partição canônica

−Ei
X
Q= e kB T (379)
i

Supomos que a energia é dada por, o potencial de todas as partı́culas em seus


determinados centros de células mais a soma do potencial sobre todas as células
(pois agora as células tem energias independentes dado uma distância ri

N
X
0
Ej = U + ψj (ri ) (380)
i=0

58
Podemos escrever assim pois cada célula está vibrando mas olhando a outra no
seus centros de célula em média, isso por hipótese e se isso é verdade, as células são
todas independentes e equivalentes. Sendo:

N ε(0)
U0 = (381)
2
Substituindo na função de partição:

−N ϕ(0) ∞  !N −N ϕ(0)


X −ψj
Q = e 2kB T exp = e 2kB T q N
3 (382)
j=0
kB T

Sendo:

q3 = q13 (383)

O q3 é o q de uma direção elevado às 3 dimensões. Estou dizendo que os oscila-


dores são independentes em cada direção, eu não tenho acoplamento de osciladores.
Sendo a função de partição da célula unidimensional dada por:
∞  
X −j
q1 = exp (384)
j=0
kB T

j → energia do oscilador harmônico.


 
1
n = + n νh (385)
2
 1/2
1 f
ν= (386)
2π m
Então:

−hν ∞ −nhν −hν ∞ −hν n


 
X X
q1 = e 2kB T exp kB T = e 2kB T exp kB T  (387)

n=0 n=0

Lembrando que já vimos que:



X 1
an = , se a < 1 (serie geometrica) (388)
n=0
1−a

Então

59
−hν
−hν ∞ −hν n
 
X e 2kB T
q1 = e 2kB T exp kB T  = (389)

−hν
n=0
1 − e kB T

Multiplicando e dividindo por e kB T

hν θ
e 2kB T e 2T
q1 = = (390)
−hν θ
e kB T − 1 eT − 1
Sendo:


θ= (391)
kB
Um parâmetro do sólido, como se fosse uma temperatura caracterı́stica do sólido.
substituı́mos então na função de partição total do sistema, temos que energia
livre de helmholtz com a função de partição do cristal de Einstein fica então:

−θ 

N ϕ(0)  e 2T 
A= − 3N kB T ln 
 −θ
 (392)
2 
e T −1
Daı́ podemos tirar propriedades.
O cristal de Einstein dá para a gente um base de ideia para teoria de célula.
Mas antes de passar para teoria, vamos observar um erro que estamos cometendo
em relação à entropia:

0.8.2 Erro entrópico


Estamos pegando um fluido e impondo uma rede sobre esse fluido (quando elas
estão sem a rede elas são indistinguı́veis, mas quando coloquei a rede eu localizei as
partı́culas no estado, então elas passaram a ser distinguı́veis). Ao impor a rede eu
estou perdendo informação e perdendo muito graus de liberdade entrópicos. Quanto
mais me aproximo do sólido, menor é o erro. Quando mais me aproximo para gás
ideal, mais o erro é maior, pois impor uma rede e impor que as partı́culas são
distinguı́veis é mais longe da realidade do gás ideal. Então esse erro entrópico deve
depender da densidade das interações intermoleculares. Qual a grandeza desse erro
entrópico?
Para gás ideal (que eu sei integrar a integral de configuração - o único sistema

60
que sei integrar tudo by the way) que deve ser o maior erro que eu posso ter. Para
um sistema de gás ideal sem a rede (I) temos que:

VN
 
I N −3N
Q = qint λ (393)
N!
Sendo:

h2
λ2 = (394)
2πmkB T
Para um sistema de gás ideal co a rede (II) temos que:
N
λ−3 V

II N
Q = qint (395)
N
Se eu fizer a razão desses dois estados, a variação da entropia do sistema fica

∆S = S I − S II (396)

Lembrando que a entropia do sistema é:

S = kB lnQ (397)

o erro entrópico então fica na ordem de

∆S = kB T ln(QI /QII = N kB (398)

Então é um erro muito considerável no limite de gás ideal.


Para usar a teoria de rede tem que ter cuidado, essa teoria vai ter problema a
depender do sistema (para gases não é bom).
Vamos agora efetivamente começar com a teoria de célula:

0.8.3 Teoria de Célula


N = M , V = αM
ψ(r) → potencial de célula = ϕ(r) − ϕ(0)
ϕ(0) → potencial de interação para as moléculas nos centros das células.
ϕ(r) → potencial de interação para a molécula na célula central, na posição r (em
relação ao centro), dado que todos as outras (em média) se encontram nos centros
das células
O problema não é a definição do potencial de célula mas forçar que todo o resto
é enxergado no seu centro de célula. Sabemos que a função de partição do fluido é
dado por:

61
−U
q N ∆−3N
Z Z Z
Q = int e kB T dr (399)
N!
Sendo:

−U
Z(N, V, T ) = e kB T dr (400)

A interação é:

X
U = U0 + ψ(ri ) (401)
i

Sendo:

N ϕ(0)
U0 = (402)
2
Então:
P
−N ϕ(0) Z Z Z − ri ψ(ri )
Z(N, V, T ) = e 2kB T e kB T dr (403)

Percebo que posso integrar cada potencial independente do outro (dr1 , dr2 ...)
mas como eles são equivalentes vai ficar uma integral elevada a N.
N
−N ϕ(0) Z Z Z −ψ(r)

Z(N, V, T ) = e 2kB T
 kB T
e dr (404)

Sendo:

Z = zN (405)

Sendo:

−ϕ(0) Z Z Z −ψ(r)
z = e 2kB T e kB T dr (406)

Isso em uma célula. Então isso é geral, se eu souber o potencial de célula eu


tenho o modelo do meu fluido. Então a função de partição fica:
 N
N
qint ∆−3N  −ϕ(0) Z Z Z −ψ(r) 
 
Q= 2k
e B T k T
e B dr (407)
N! 
 

Sendo que o volume livre é dado por:

62
Z Z Z −ψ(r)
vf = e kB T dr (408)

Por que é chamado de volume livre (na teoria de rede)? Porque esse potencial
de célula na integral limita onde a partı́cula pode passear.
Então:
 N
−ϕ(0)
N
∆−3N
 
qint 
2k T

Q= vf e B (409)
N! 
 

Essa função de partição dará origem a várias equações de estado, vamos então
mostrar uma delas como exemplo.
O ϕ(0) vai dar origem a parte atrativa da equação e estado e o volume livre
pode ter uma parte atrativa e uma parte repulsiva, mas vai ser dominado pela parte
repulsiva da equação de estado.
Exemplo - Modelo Smoothed - cell - potential - model (S.C.P.M)
Vou forçar que o potencial de célula seja o mais simples possı́vel.

0 para 0 ≤ r ≤ ∆
ψ(r) = (410)
∞ para r > 0

O volume livre será dado por ( considerando esférico):

−ψ(r) −ψ
Z Z Z Z ∆
vf = e kB T dr = 4π e kB T r2 dr (411)
0

Agora iremos supor o potencial 0 para r entre 0 e um determinado delta ( a


superfı́cie é definida supondo que cada um está em seu centro de célula, mas estou
olhando a célula central e a partı́cula pode estar a uma distância r do centro da
célula). A distância da partı́cula até a superfı́cie da célula é dado por:

∆=a−d (412)

a, o raio da célula, r sendo a distância do centro da partı́cula até o centro da


célula, d o diâmetro da partı́cula. O volume livre então fica:


vf = (a − d)3 (413)
3

A função de fica:

63
−ϕ(0) N
 
N
qint ∆−3N  4π
 (a − d) e 2kB T 
3
Q= (414)

N! 3

Exemplo - Teoria de Lennard-Jones- Devonshire


A ideia é parecida. Quero calcular o volume livre e irei supor novamente o
potencial esférico.

−ψ
Z ∆
vf = 4π e kB T r2 dr (415)
0

Como calcular o potencial de célula?

ψ(r) = ϕ(r) − ϕ(o) (416)

Qual é a área e qual o número de partı́culas presentes nessa área que estão
interagindo com a partı́cula central. Quantas partı́culas vão interagir com minha
partı́cula central. No final, temos que:
12  2   ∗ 6  2 
r∗

r r r
ψ(r) = cε l 2
−2 m (417)
a a a a2
12 6
r∗ r∗
 
ϕ(0) = cε −2 (418)
a a

l(x) = (1 + 12x + 25, 2x2 + 12x3 + x4 )(1 − x)−10 − 1 (419)

m(x) = (1 + x)(1 − x)−4 − 1 (420)

vf = 2πa3 g (421)

0.9 Aula 9 - 02/12


0.9.1 Estruturas significantes - teoria de cavidade
Proposta por Eyring. A função de partição canônica fica (não desenvolvemos em
sala de aula):

64
  N Vs
V
 Es −ε  N (V − Vs )
   −1
 e kB T (1 + N he kB T )   3/2
(2πmkB T ) (V − Vs )
 
(N (V − Vs )
V
Q= !
 
3 h3 V
−θ
 
 
 
 1 − e T  

(422)
Então a função de partição representa como se existisse uma rede, na qual exis-
tisse uma fração de partı́culas sólidas e outra fração de partı́culas que fossem gás
ideal (way way way weird).

N (V − V s)
Ngas ideal = (423)
V

NV
Nsolido = (424)
V
O último termo da equação 422 é a degenerecência das partı́culas gasosas, ele
mais o penúltimo são responsáveis pela parte ideal da função de partição. E o
primeiro termo é justamente a dedução pro sólido de Einstein com uma parte a
mais que descreve a probabilidade de uma partı́cula sólida se tornar gás ideal.

0.9.2 Teoria de Rede (”lattice”)


Introdução

Essa é a teoria que iremos mais trabalhar.


Imponho uma rede no sistema e fazemos algumas considerações:

1. Cada sı́tio é ocupado por no máximo por uma partı́cula ou um segmento

2. A energia configuracional é contabilizada apenas com as primeiras partı́culas


vizinhas (aqui eu já elimino interações de longo alcance, interações eletrostáticas
já não consigo contabilizar). Vizinhas mais longas não contribuem para a ener-
gia configuracional.

3. Sı́tios do mesmo tipo são equivalentes e independentes (cada partı́cula no seu


sı́tio está olhando para as outras nos seus centros de sı́tios)

Então:
M → sı́tios
α → volume dos sı́tios, cte.

65
N → nº de partı́culas.
Z → nº de coordenação
EC → energia configuracional
EI → energia interna dos sı́tios (dos sı́tios ocupados, daqueles que não são ocu-
pados tem energia zero porque a energia é associada às partı́culas).
Sendo que V = M
Como podemos começar a fazer a função de partição da rede?

Função de partição da rede

Lembrando que α é contante então podemos escrever a função de partição em função


de T,M e N ao invés de N, V, T.

−Ei EQI −EIj EQC −ECi


X X X
Q(N, V, T ) = e kB T = e kB T e kB T (425)
i j i

Sendo
EQI → estados quânticos internos
EQC → estados quânticos configuracionais
O que estamos fazendo aqui é separando entre estados quânticos internos e con-
figuracionais (pois são independentes) (intra-sı́tios e entre-sı́tios):

H = HI + Hconf (426)

A hipótese é que um sı́tio não enxerga o outro em termo de graus de liberdades


internos. Posso dizer que a parte interna:

EQI −EIj
X
e kB T = q N (T, α)q0M −N (T, α) = q N (T, α) (427)
j

Isso significa que é igual o produto da função de partição de um sı́tio especı́fico


ocupado, multiplicado pela função de partição de um sı́tio vazio. Mas dizemos que,
como o sı́tio está vazio a sua energia interna é igual zero, dessa forma, o segundo q
vale 1:

q M −N (T, α) = 1 (428)

A princı́pio mão faz muito sentido pensar em graus de liberdade de uma célula
vazia.
a função de partição fica então:

66
EQC −Ei
X
Q(N, V, T ) = q N E kB T (429)
i

Mas ao invés de somar sobre os estados quânticos, eu posso escrever em função


de todos os estados de energia

−Ec
X
N
Q(N, V, T ) = q (t, α) g(Ec , M, N )e kB T (430)
Ec

como calculamos? vou somar sobre energias configuracionas, tenho que cal-
cular a degenerecência. Como as energias configuracionais dependem dos pares a
Energia configuracional depende do número de pares ocupados multiplicado pelo ω
(interação) dos pares ocupados, mais o número de pares um ocupado um vazio mul-
tiplicado pelo seu ω, mais o número de vizinhos vazios multiplicado pela interação
de vizinhos vazios.

Ec = N11 ω11 + N10 ω10 + N00 ω00 (431)

A princı́pio uma célula vazia com uma célula com partı́cula não interage, então
os dois últimos termos zeram:

Ec = N11 ω11 (432)

No caso de ser mistura eu teria N11 , N22 , N22 ...


Então em uma rede eu tenho vários pares diferentes (figura abaixo), Eu tenho
sı́tios cheios e sı́tios vazios, então eu tenho possibilidades de pares N11 , N10 , N00 . A
energia configuracional (antes da simplificação depender dos 3). Obs: No fundo, ter
uma energia configuracional diferente é ter número de pares diferentes Quero saber
então quantas são as possibilidades de energia de pares diferentes para fazer a soma

67
Uma energia configuracional diferente no fundo são energia de pares diferentes.
A primeira pergunta é, esses pares de energia são independente?
Dado que eu tenha M e N. N11 , N10 e N00 são independente? Não, pois a
conectividade da rede está limitado pelo número de coordenação (Z) fixa da rede.
Como podemos achar a dependência desses pares?
Para tı́tulo de explicação com a figura. Onde tiver o sı́tio cheio eu irei dar z
traços (no caso da figura estamos fazendo 4, mas basicamente é um traço para cada
conexão lateral, se fosse 3D, seriam 6 traços). Noto que algumas conectividades
estão com dois traços e outras com um traço só. Vamos fazer um balando de traços.
Então para cada N eu fiz z traços:

ZN = 2N11 + N10 (433)

Para cada par 11 eu tenho 2 traços e para cada par 10 eu tenho 1 traço. Mas
agora, ao invés de contar z traços para cada sı́tio cheio irei contar z traços para cada
sı́tio vazio, como na figura abaixo. Fazendo novamente o balanço temos que (z vezes
o número de sı́tios vazios (M - N):

Z(M − N ) = 2N00 + N10 (434)

Dado M e N, temos duas equações de restrição correlacionando esses pares, então


N11 , N10 e N00 não são independentes, pois existe esses balanços de traços que mos-
tram a dependência. Dessa forma, posso escolher escrever a energia configuracional
em função de apenas um deles. Lembrando que a energia configuracional é:

Ec = N11 ω11 + N10 ω10 + N00 ω00 (435)

68
Em função de N10 :

ZN N10 Z(M − N ) N10


Ec = ω11 − ω11 + N10 ω10 + ω00 − ω00 (436)
2 2 2 2

ZN Z(M − N ) N10 )
Ec = ω11 + ω00 + (2ω10 − ω11 − ω00 ) (437)
2 2 2
Aqui não estamos cancelando nada para ficar uma forma geral.
Então, finalmente, função de partição fica:

−Ec −Ec
X X
Q(N, V, T ) = q1N q0M −N g(M, N, Ec )e kB T = q1 q0
N M −N
g(M, N, N10 )e kB T
Ec N10
(438)
Ao invés de somar sobre as energias configuracionais posso somar sobre N10 , pois
dado um eu tenho o outro. Substituindo quem é Ec :

−Zω11 N −Zω00 M −N −N10 ω̄


   
X
Q(T, V, N ) = q1 e 2B T  q0 e 2B T  g(M, N, N10 )e 2kB T (439)
   
N10

Sendo:

ω̄ = 2ω10 − ω11 − ω00 (440)

O ω00 pode ser vazio ou pode ser outra partı́cula, aqui estamos trabalhando no
geral. Lembrando que a partir da função de partição calculamos as propriedades.

0.9.3 Equação de estado


Faremos equações de estado a partir da teoria de rede. Lembrando que na teoria de
rede, a forma de variar o volume é variar M. Na nossa rede teremos células cheias
e células vazia (o erro entrópico será atenuado pelas células vazias pois elas vão
aumentar os graus de liberdade).
Pegamos a função de partição geral:

−Zω11 N −Zω00 M −N −N10 ω̄


   
X
Q(T, V, N ) = q1 e 2B T  q0 e 2B T  g(M, N, N10 )e 2kB T (441)
   
N10

No caso da equação de estado, voltamos à simplificação do ω:

69
ω00 = ω10 = 0 (442)

Pois o 0 é um vazio, é não ter partı́cula naquela rede. E a função de partição de


0 vai ser 1 pois é função de partição do sı́tio vazio.

q0 = 1 (443)

Então:

ω1 = ω (444)

ω̄ = 2ω10 − ω11 − ω00 = −ω (445)

A função de partição fica mais simplificada:

−Zω N
 
N10 ω
 2B T  X
Q(N, M, T ) = qe  g(M, N, N10 )e 2kB T (446)
N10

Eu ainda não sei fazer a soma de estados, preciso fazer mais simplificações.

Supor que ω = 0 (Langmuir)

Ou seja, as partı́culas não interagem, não tem interação entre vizinhos, mas não
chega a ser gás ideal pois estamos impondo uma rede e célula tem um certo volume
α e eu nunca vou poder compactar completamente a rede. Então é um modelo de
rede com partı́culas finitas mas sem parte atrativa. Como se fosse esferas rı́gidas
com uma rede que chamamos de teoria de Langmuir. Dizendo que cada um cabe no
seu sı́tio mas os sı́tios não interagem.
Então a função de partição sem a interação fica:

X
Q(N, M, T ) = q N g(M, N, N10 ) (447)
N10

mas quem é :

X
g(M, N, N10 ) (448)
N10

Isso é equivalente a calcular quantas formas eu posso colocar N partı́culas em M


caixinhas (sendo N indistinguı́veis), isso a gente já fez:

X M!
g(M, N, N10 ) = (449)
N10
(M − N )!N !

70
Então a função de partição fica:

X M!
Q(N, M, T ) = q N (T, α) g(M, N, N10 ) = q N (T, α) (450)
N10
(M − N )!N !

Tendo a função de partição sei calcular as propriedades. Manipulando:

ln Q = N ln q +M ln M −M −(M −N ) ln (M −N )+M −N − N ln N +N (451)

ln Q = N ln q + M ln M (M − N ) ln (M − N ) − N ln N (452)

Podemos então escrever a equação de estado:


Lembrando que:

A = −kB T ln Q (453)

Uma equação de estado é:


   
∂lnQ ∂lnQ
P = kB T → P α = kB T (454)
∂V T,N ∂M T,N
 
M
P α = kB T ln (455)
M −N
Dentro do ln vou multiplicar e dividir por α/N :
 
αM/N
P α = kB T ln (456)
(αM )/N − α
Lembrando que αM é o volume e dividindo por N vai dar o volume por partı́cula
 

P α = kB T ln (457)
(v̄ − α
Essa é a chamada equação de Langmuir. Que é tipo uma equação de forças
repulsivas, observar que o α é semelhante ao b da equação de VDW (volume de
compactação).
Como podemos calcular a isoterma? Derivamos a função de partição em relação
a N e não a M para calcular o potencial quı́mico:

   
∂A ∂ln Q
µ= = −kB T = −kB T ln q + kB T ln N − kB T ln (M − N )
∂N T,V ∂N T,M
(458)

71
Manipulando:

µ  
k T −1 N
λ=e B =q (459)
M −N

N N/M
qλ = = (460)
M −N 1 − N/M
e

N
θ= (461)
M
θ é a fração de cobertura.

θ
qλ = (462)
1−θ
Lembrando que p potencial quı́mico é o potencial quı́mico do estado de referência
mais RT ln da atividade:

µ = µ0 + RT ln a (463)

Mas o potencial quı́mico na fase adsorvida tem que ser igual ao potencial quı́mico
da fase bulk. Então:

µ µ0
qe kB T = qe kB T a (464)

sendo:

µ0
qe kB T = K = cte de langmuir (465)

supondo que a fase bulk é gás e além disso é gás ideal, encontramos a equação
mais usual da equação de Langmuir. Nesse caso

qλ = KP (466)

0.10 Aula 10 - 07/12


Aproximação de Bragg - William

Partimos da função de partição:

72
−Zω N
 
N10 ω
 2B T  X
Q(N, M, T ) = qe  g(M, N, N10 )e 2kB T (467)
N10

Quero calcular o termo do somatório, (sei calcular para uma dimensão, mas
multidimensional eu não sei). Vou fazer uma aproximação bastante grosseira, vou
dizer que:

N10 ω N10 ω
X X
g(M, N, N10 )e 2kB T ' e 2kB T g(M, N, N10 ) (468)
N10 N10

Vão existir N10 com maior probabilidade de acontecer do q outros, mas como
calculo isso? Eu não sei, então vou fazer essa aproximação que supõe distribuição
aleatória e ao mesmo tempo eu digo que tem um máximo termo diferente do
aleatório. Vejamos bem que não estamos assumindo um máximo termo com da
forma tradicional da forma de :

M
X
tN ∗ = tN (469)
N =0

No nosso caso, o g continua no somatório, eu não estou escrevendo o g do máximo


termo e é essa a aproximação. Eu estou assumindo uma distribuição aleatória e ao
mesmo tempo eu digo que tem um máximo termo diferente do aleatório. Se existe
um interação, a distribuição não é aleatória, vão ter pares mais prováveis que outro.
Mas vou fazer essa suposição de aleatoriedade. Vou assumir que a distribuição é
aleatória mas ao mesmo tempo existe uma certa probabilidade de acontecer e existe
um máximo termo por cauda disso. É contraditório mas funciona para omega
pequenos.

∗ ∗
N10 ω N10 ω ZN (M − N )ω
X M! M!
e 2kB T g(M, N, N10 ) = e 2kB T = e 2M kB T
N10
(M − N )!N ! (M − N )!N !
(470)
Sendo
∗ N Z(M − N )
N10 =
M
Que é a probabilidade de se encontrar um sı́tio cheio Z multiplicado pela pro-
babilidade de se encontrar um sı́tio vazio (ou seja, é só a frequência de sı́tios vazios
Z(M − N )/M ).
Então:

73
−Zω

 
 2B T  M! ZN (M − N )ω
ln Q = N ln qe  + ln + (471)
(M − N )!N ! 2M kB T

A primeira parte vimos muito parecido em langmuir.


Podemos derivar em relação a N para achar o potencial quı́mico:

  −Zω
−µ ∂ ln Q Zω(M − 2N )
= = qe 2kB T + − ln(M − N ) − ln N (472)
kB T ∂N T,M 2M kB T

Lembrando que:

µ −µ0
e kB T = e kB T f (473)

Sendo µ0 o µ do estado de referência.


 
θ Zω(1 − 2θ)
PK = exp (474)
1−θ 2kB T
Escrevi em função da pressão mas poderia ser fugacidade.
Passando para as equações de estado, sabemos que:
   
∂ln Q kB T ∂ln Q
P = kB T = (475)
∂V T,N α ∂M T,N

   2
Pα M Zω N
= ln + (476)
kB T M −N 2kB T M
Mas sabemos que:

=V (477)

e volume molar é dado por:


αM
v̄ = (478)
N
Então:

Zωα2 1
 
Pα v̄
= ln + (479)
kB T v̄ − α 2kB T v̄ 2
Equação de VdW para uma rede.
Mas é uma aproximação ruim, vamos tentar melhorar

74
Aproximação de Guggenheim (teoria quase quı́mica)

De novo partimos da equação de partição da rede:

−Zω N
 
N10 ω
 2B T  X
Q(N, M, T ) = qe  g(M, N, N10 )e 2kB T (480)
N10

Lembrando que tenho pares do tipo 11, 10 e 00. Qual o número de pares 11, 00,
01 e 10?

ZN N10
N11 = − (481)
2 2

Z(M − N ) N10
N00 = − (482)
2 2

N10
N10 = (483)
2

N10
N01 = (484)
2
número total de pares (somando tudo)

ZM
Nt = (485)
2
(o dois é para não contar duas vezes) Qual a probabilidade de ter um estado e
como eu conto isso?
Vamos então supor que os pares são independentes (eu sei que não é verdade pois
tenho uma rede e eles dependem um do outro), de quantas formas posso arrumar o
sistema?
Se eu tenho 4 tipos de pares (que é o caso aqui, N11 , N00 , N10 e N01 ), sendo eles
independentes, quero calcular o número de formas de arrumar o sistema em ZM/2
caixinhas.
Definindo ω(M, N, N10 → como número de formas de arrumar o sistema supondo
os pares 11,00,10,01 como pares independentes na rede.

(ZM/2)!
ω(M, N, N10 ) = (486)
N10 ! N10 !
N11 !N00 !
2 2

(ZM/2)!
ω(M, N, N10 ) = (487)
(ZN/2 − N10 /2)!(Z(M − N )/2 − N10 /2)!((N10 /2)!)2

Mas tem um erro grande aqui. Estamos contando muito mais pares do que são

75
permitidos pois essa distribuição na verdade não é aleatória.
O que ele vai propor é uma normalização pois esse ω é muito maior do que
deveria. Então vou pegar um limite no qual eu sei fazer a conta de ω e normalizar.
Ele vai calcular uma constante (fator de normalização) c(M,N) para uma distribuição
aleatória (que eu sei calcular) e usar para a distribuição que não é aleatória. Vou
dizer que:

g(M, N, N10 ) = c(M, N )ω(M, N, N10 ) (488)

como calculamos esse c? Pensamos em uma situação então que sabemos calcular
esse g que é quando a distribuição é aleatória. Então irei impor uma distribuição
aleatória, na qual sei calcular o g e consigo calcular o c e uso depois para quando for
distribuição não aleatória porque pelo menos eu vou ter normalizado um erro que
sei que cometi. Então para calcular o c:
Cálculo de c
Sei que:

X M! X
g(M, N, N10 ) = = c(M, N ) ω(M, N, N10 ) (489)
N10
(M − N )!N ! N 10

Então:

X

c(M, N ) ω(M, N, N10 ) = c(M, N )ω(M, N, N10 ) (490)
N10

Distribuição aleatória:

∗ Z(M − N )
N10 =N (491)
M
 
M!
ln
(M − N )!N !
ln c(M, N ) = ∗
(492)
ln ω(M, N, N10 )
Fazendo as devidas distribuições achamos o c:
 1−Z
M!
c(M, N ) = (493)
N !(M − N )!
Sabendo o fator de normalização eu volto para calcular o g na equação 480.

 1−Z
M! (ZM/2)!
g(M, N, N10 ) =
N !(M − N )! (ZN/2 − N10 /2)!(Z(M − N )/2 − N10 /2)!((N10 /2)!)2
(494)
Então a função de partição fica:

76
−Zω N
 
N10 ω
 2B T  X
Q(N, M, T ) = qe  g(M, N, N10 )e 2kB T
N10

(495)

Com o g sendo devidamente substituı́do ( A equação ficou maior que meu medo
dessa disciplina, então não deu para escrever em uma linha).
A equação de estado fica:
" #
Pα 1 (β + 1)(1 − θ) Z/2
ln { } (496)
kB T 1−θ β + 1 − 2θ

A isoterma vai ficar:

2θ(1 − θ
fK = (497)
β+1

ω
Esse β sendo β = ((1 − 4θ(1 − θ)(1 − e kB T )−1

0.10.1 Teoria de Soluções ( modelos GE )


Introdução

O que vai variar aqui? Vou ter todos os meus sı́tios ocupados agora ou por um
componente 1 ou por um componente 2. E como α é constante e como não ter
células vazias, o volume é contante.
V = αM , e α é uma constante
como M = N1 + N2 . Então o volume é contante então há uma independência da
função de partição do volume.

Q = Q(T, N1 , N2 ) (498)

Há um erro entropico muito grande aqui. Mas o que eu vou fazer á achar a pro-
priedade da diferença de dois estados então o erro entrópico acaba sendo cancelado.
Mas vamos prestar atenção que:
V = V1 + V2
mas eles são igual, então a variação é 0, então o volume de excesso é zero (V̄ E =
0).

77
∆Amist = A(T, N1 , N2 ) − A(T, N1 ) − A(T, N2 ) (499)

V̄ E = 0 (500)

A = −kB T ln Q (501)

∆Amist = −kB T [ ln Q(T, N1 , N2 ) − ln Q(T, N1 ) − ln Q(T, N2 )] (502)

 
−∆Amist Q(T, N1 , N2 )
= (503)
kB T Q(T, N1 )Q(T, N2 )
Mas quem é Q(T, N1 , N2 )?
a gente fez a equação geral anteriormente só que ao invés de ter um novo com-
ponente a gente tinha espaços vazios, a gente não simplificou antes justamente para
chegar nesse momento e não precisar fazer de novo:

78
−Ec
X
Q(N, M, T ) = q1N q0M −N g(M, N, Ec )e kB T (504)

−Ec
X
Q(T, N1 , N2 ) = q1N1 q2N2 g(N1 , N2 , Ec )e kB T (505)

sendo que:

Ec = N11 ω11 + N12 ω12 + N22 ω22 (506)

ZN1 N12
ZN1 = 2N11 + N12 → N11 = − (507)
2 2

ZN2 N12
ZN2 = 2N22 + N12 → N22 = − (508)
2 2

−Zω11 N1 −Zω22 N2 −ω̄N12


   
X
Q(T, N1 , N2 ) = q1 e 2kB T  q2 e 2kB T  g(N1 , N2 , N12 )e kB T (509)
   
N12

Sendo:

ω̄ = 2ω12 − ω12 − ω22 (510)

Mas temos que:

−Zω11 N1
 

Q(T, N1 ) = q1 e 2kB T  (511)


 

−Zω22 N2
 

Q(T, N2 ) = q2 e 2kB T  (512)


 

Substituindo na equação 503

−ω̄N12
−∆Amist X
= ln g(N1 , N2 , N12 )e kB T (513)
kB T N 12

Sei que ele está dominado pelo um máximo termo e posso dizer que:

79

−∆Amist ∗ −ω̄N12
= ln g(N1 , N2 , N12 )− (514)
kB T kB T
O primeiro termo é um termo de mistura entrópico e o segundo um termo de
mistura entálpico, eles não são independentes e estão correlacionados.
A primeira simplificação que iremos fazer:

Supor ω̄ = 0

Estou dizendo que a interação cruzada é igual a interação deles puros. tomar cuidado
que eu não estou dizendo que não tem interação como fiz quando assumir ω = 0.

 
∆ − Amist X M!
= ln g(N1 , N2 , N12 ) = ln = ln M ! − ln N1 ! − ln N2 (515)
kB T N
N1 !N2 !
12

Sendo M = N1 + N2

= M ln M − M − N1 ln N1 + N1 − N2 ln N2 + N2 = (516)

= N1 ln(N1 + N2 ) + N2 ln(N1 + N2 ) − N1 lnN1 − N2 lnN2 = (517)

= −N1 ln(N1 /(N1 + N2 )) − N2 ln(N2 /(N1 + N2 )) = −N1 ln x1 − N2 ln x2 (518)

Substituindo:

− ∆Amist = kB T (N1 ln x1 + N2 ln x2 (519)

Por partı́cula então fica:

− ∆Āmist = kB T (x1 ln x1 + x2 ln x2 ) (520)

Esse é o ∆Ā para mistura ideal que é só a parte entrópica da distribuição ideal.
Se ω̄ = 0 a distribuição é aleatória e fica dominado pela entropia e a entropia
sempre vai fazer misturar.
Podemos pensar em fazer modelos a partir dessa mistura ideal para definir o que
iremos chamar da propriedade em excesso.

ĀE = Ā(T, N1 , N2 ) − Āid (T, N1 , N2 ) = ∆Ā − ∆Āid (521)

Mas por que falamos de GE ao invés de AE ?

80
ḠE = ĀE + P V̄ E (522)

Mas aqui V̄ E = 0 então:

ḠE = ĀE (523)

Fluidos incompressı́veis que também não tem efeito do volume em excesso. Não
temos como colocar nesse modelo efeitos de expansão e contração (efeitos de pressão).

0.11 Aula 11 - 09/12


Aula do Iuri sobre hidratos

Hidratos - compostos por água mais gás inflamável.

0.12 Aula 12 - 14/12


Supondo aproximação de Bragg-William

Temos propriedades de mistura:

−ω̄N12
−∆Amist X
= ln g(N1 , N2 , N12 )e 2kB T (524)
kB T N 12

aproximando pro um máximo termo



−∆Amist ∗ −ω̄N12
= ln g(N1 , N2 , N12 )− (525)
kB T kB T
Mas quem é N12 ? Ele supôs que vai ser o da distribuição aleatória, o que é
contraditório, o aleatório seria se o ω̄ = 0 (só faz sentido ser aleatório se não tiver
interação), mas ele supõe isso por que não sabe fazer direito. Então, se existe um ω̄ é

porque estou considerando que existe interação. Suponto então o N12 da distribuição
aleatória.

∗ ZN2 ZN1 N2
N12 = N1 = (526)
M M
Lembrando que isso só é verdade quando não tem interação entre as partı́culas.
Então iremos tentar resolver a equação 525 lembrando que a primeira parte dela
a gente resolveu no item anterior quando consideramos ω̄ = 0.
 
−∆Amist M! Z ω̄N1 N2
= ln − (527)
kB T N1 !N2 ! 2kB T M

81
Lembrando que:

−∆Amist id
 
M!
= ln (528)
kB T N1 !N2 !
e

AE ω̄N12 ω̄ ZN1 N2 × M ZM ω̄x1 x2
= = = (529)
kB T kB T kB T M × M 2kB T

AE
= Ax1 x2 (530)
kB T
Sendo:

ZM ω̄
A= (531)
2kB T
Então:

GE
= Ax1 x2 → M argulis (532)
kB T
Que é o modelo de Margulis. Então o modelo de margulis é a teoria de rede com
a aproximação de bragg willians. Ele simplifica e supõe que a entropia de excesso
seja zero, (ou seja, igual a mistura ideal) e também, com o volume de excesso igual
a zero fica:

G¯E = U¯E + P V E − T S E (533)

Os últimos dois termos são zero, então:

G¯E = U¯E (534)

Esse modelo só é razoável quando o ω̄ é muito pequeno, mas a gente usa para
muitas coisa.
Para tentar melhorar, uma possibilidade é usar a teoria quase-quı́mica
Teoria quase-quı́mica
Partindo do mesmo lugar:

−ω̄N12
−∆Amist X
= ln g(N1 , N2 , N12 )e 2kB T (535)
kB T N 12

aproximando pro um máximo termo



−∆Amist ∗ −ω̄N12
= ln g(N1 , N2 , N12 )− (536)
kB T kB T

82
O que iremos fazer é supor tipo de partes e contar como pares independentes e
criar um fator de normalização (no entanto, sabemos que os pares não são indepen-
dentes)
Guggenheim → g(N1 , N2 , N12 ) = C(N1 , N2 )ω(N1 , N2 , N12 )
Temos os seguintes tipos de pares:
pares 11 → N11 = ZN1 /2 − N12 /2
pares 22 → N22 = ZN2 /2 − N12 /2
pares 12 → N12 = N12 /2
pares 21 → N12 = N12 /2
Número total de pares:
Z(Z1 + Z2 )/2

Então ω(N1 , N2 , N12 ) supondo a distribuição aleatória vai ser:


 
Z(Z1 + Z2 )
!
2
ω(N1 , N2 , N12 ) =   2 (537)
N12
N11 !N22 ! !
2
Sabemos calcular esse ω o problema é que ele não condiz com a realidade. Ele
acaba computando muitas configurações a mais. Como corrigir? A ideia é corrigir
no limite que sabemos calcular o g, que é quando a distribuição é aleatória. Iremos
usar isso para calcular o fator de normalização e depois iremos voltar e calcular a
energia livre.
Vamos achar o fator de normalização e aplicar para esse caso:

 
X M! X
ln g(N1 , N2 , N12 ) = ln = ln C(N1 , N2 )ln ω(N1 , N2 , N12 ) (538)
12
N1 !N2 ! N 12


Distribuição aleatória para calcular N12

∗ ZN1 N2
N12 = (539)
M
Acha C e substitui.

 Z
∗ M!
ω(N1 , N2 , N12 ) =
N1 !N2 !
(540)

83
 1−Z
(N1 + N2 )!
C(N1 , N2 ) =
N1 !N2 !
(541)

então:
 
Z(Z1 + Z2 )
 1−Z !
∗ (N1 + N2 )! 2
g(N1 , N2 , N12 ) =  2 (542)
N1 !N2 !

N12
N11 !N22 ! !
2
Essa correção é certa quando se tem ω̄? a resposta é que não, mas já está melhor
que antes.
Voltamos então agora para o problema original substituindo o g que calculamos.
Vamos achar de novo o máximo termo ( que agora não é mais o aleatório, agora
ω̄ não é zero):

−∆Amist ∗ −ω̄N12
= ln g(N1 , N2 , N12 )− (543)
kB T kB T

Ainda queremos saber quem é o N12 sem ser distribuição aleatória mas agora

sabemos expressar quem é o g(N1 , N2 , N12 )

 
ZM
 1−Z !
∗ M! 2
g(N1 , N2 , N12 ) =  2 (544)
N1 N2
    
ZN1 N12 ZN2 N12 N12
− ! − ! !
2 2 2 2 2

Pelo máximo termo


 
∗ ZN1 N2 2
N12 = (545)
M β+1
Sendo:
s
−ω̄
β= 1 − 4x1 x2 (1 − e kB T (546)

Observar que se ω̄ = 0 recuperamos a distribuição aleatória. Aqui observamos


um efeito quase quı́mico que é como se fosse uma associação entre 1 e 2. Calculamos

84
a probabilidade de existir a associação entre 1 e 2. Colocando isso na equação de
GE

G¯E AE
    
Z β − 1 + 2x1 β − 1 + 2x2
= = x1 ln + + x2 ln + (547)
kB T kB T 2 x1 (β + 1) x2 (β + 1)

Isso a gente usa pouco na engenharia pois quando estendemos para mistura fica
bastante complexo.

Sistema multicomponente

A função de partição fica (serve para equação de estado ou para modelo de GE mas
fazendo para equação de estado:

nº de componentes pares de sı́tios


0 N {00}
1 + N {01}, N {11}
2 + N {02}, N {12}, N {22}
3 + N {03}, N {13}, N {23}, N {33}
... ...
c + N {0c}, N {1c}, N {2c}, N {3c}, ..., N {cc}

Nem todos esses pares são independentes, a gente pode escrever tudo em termos
apenas dos termos da diagonal principal N00 , N11 , N22 , N33 , ..., Ncc . E eu posso es-
crever essa diagonal em função dos outros termos (que não os da diagonal-variáveis
independentes). Exemplo, no caso de eu ter 3 componentes eu tenho 6 variáveis in-
dependentes. No caso de eu ter 2 componentes, eu tenho 3 variáveis independentes.
Podemos escrever então:
c
Z(M − N ) 1 X
N00 = − N0k (548)
2 2 k=1
c
ZNi 1 X
Nii = − Nik (549)
2 2 k=0,k6=i

O número de pares independentes cresce bastante rápido com o número de


componentes, isso gera complicação, acabo ficando com um conjunto de equações
quadráticas e não lineares para resolver.
O único momento que essa equação do quase quı́mico é realmente correta para
Z = 2, fluido unidimensional. Utilizamos a teoria quase quı́mica para situações mais
especı́ficas.
De qualquer forma, iremos substituir os N00 e o Nii na função de partição geral:

85
−Zωii Ni
 
" #
X Ni0 ωii
X Nij ω̄ij
Q(M, N , T ) = Πci=1 qi (T )e 2kB T  g((M, N , {Nij }i<j )Πi exp +
 
2kB T j>i
2kB T
{Nij }i<j

(550)
sendo :

ω̄ij = ωii + ωjj − 2ωij (551)

0.13 Aula 13 - 16/12


Flory-Huggins

A macromolécula (polisegmentado) ocupa r sı́tios (no caso do desenho, ocupa 5


sı́tios) e cada molécula de solvente ocupa um sı́tio e não tem sı́tios vazios, a fração
de sı́tios que a molécula de solvente ocupa é definida como:

N1
ϕ1 = (552)
N1 + rN2
fração de sı́tios que a macro molécula ocupa é definida como:

rN2
ϕ2 = (553)
N1 + rN2

α = cte M = N1 + rN2

86
a hipótese aqui é fazer bragg willian para sı́tios. Em bragg willian dizemos que a
distribuição é aleatória (para calcular a contante) então a parte entrópica e a parte
entalpica estão separadas. Então aqui iremos fazer parecido, essa macromolécula
vai se distribuir de forma aleatória dentro da rede.
Essa macro molécula se distribui aleatoriamente no solvente, não existem estados
mais prováveis por causa de interação, então eu posso pensar só na parte entrópica.
A questão é, como calcular o número de configurações possı́veis? Lembrando que
já não sabı́amos fazer isso quando cada molécula ocupava um sı́tio e já tı́nhamos
problema de como calcular a configuração mais provável. Nesse caso a gente também
não sabe calcular.
Qual foi a proposta de Flory-Huggins? Foi novamente utilizar a aproximação
de Bragg-Willians, que diz o seguinte: a energia é muito baixa, a princı́pio, e a
distribuição das moléculas dentro da rede é aleatória. Dessa forma, posso separar as
contribuições entrópicas das entalpicas. Só que agora eu tenho um polisegmentado
e não mais sı́tios vazios ou sı́tios ocupados por uma molécula diferente. O que eu
tenho que saber aqui é de quantas formas eu posso arrumar essa macromolécula
dentro dessa rede, mas lembrando que eu já to assumindo distribuição aleatória
(Bragg-willian), então eu já to começando errado.
Então a variação da entropia sei que é a constante multiplicado pelo número de
maneiras de arrumar o sistema quando se tem partı́culas do tipo um e a macro-
molécula, em relação ao número de maneiras de arrumar as partı́culas do tipo um
multiplicado pelo número de maneiras de arrumar a macromoléculas.
 
Ω(N1 , N2 )
∆Smist = kB ln (554)
Ω(N1 , 0)Ω(0, N2 )
Lembrando que:

S = kB ln Ω (555)

Então eu quero saber de quantas formas posso arrumar na rede.


Ω(N1 , N2 ) → o número de maneiras de arrumar N2 moléculas de polı́mero.
Prestar atenção que N1 ocupa apenas um sı́tio, então se eu achar o número
de maneiras de arrumar as moléculas de polı́mero, a forma de arrumar o solvente
é preencher o sı́tios que sobraram considerando que não temos sı́tios vazios nesse
modelo.

1 N2 −1
Ω(N1 , N2 ) = Π ωi+1 (556)
N2 ! i=0
Sendo ωi+1 → o número de maneiras de arrumar a i mais uma-ésima molécula
de polı́mero tendo i moléculas na rede.

87
É como se eu pegasse uma macro molécula e colocasse na rede e calculasse
quantas formas eu tenho de colocar ela na rede, depois eu pelo uma macro molécula
e calculo quantas formas eu tenho de colocar ela na rede ... mas eu tenho que dividir
pelo fatorial porque elas são indistinguı́veis. Vamos ver então ver como contabilizar
o ωi+1 . Então eu já tenho i moléculas na rede e vou tentar calcular de quantas
formas eu posso colocar a próxima molécula (i+1).
A fração de sı́tios ocupados (fi ) é o número de sı́tios ocupados pelo número total
de sı́tios (M)

ri
fi = (557)
M
Então vou começar a colocar a molécula i+1, vamos considerar o j o j-ésimo seg-
mento da molécula. Então, se j for igual a 1 , qual o número de maneiras de arrumar
o primeiro segmento (quantos sı́tios vazios eu tenho para poder colocar o primeiro
segmento)? M − r i. E r é o número máximo de segmentos da macromolécula.
Se j for igual a 2 (eu já tava ocupando um e agora vou ocupar mais um) eu tenho
Z(1 − fi ), aqui eu já tenho uma simplificação
Obs: qual a probabilidade de encontrar um segmento em um sı́tio ou em outro
dado distribuição aleatória? um menos a fração de sı́tios ocupados que é a fração
de sı́tios vazios (1 − fi ). Z é o número de vizinhos ao sı́tio.
Qual a simplificação? Quando eu tenho uma molécula polisegmentada eu tenho
uma correlação de sı́tios, se eu tenho um sı́tio ocupado em um determinado lugar
é provável que eu vou ter um outro sı́tio ocupado vizinho ao primeiro. Então a
distribuição de sı́tios vazios não é aleatória mesmo sem considerar a energia. Nessa
parte então eu estou quebrando as conexão do polı́mero pois estou dizendo que é
aleatório. Então esse modelo vai dar muito problema quando estiver em um sistema
bastante diluı́do, pois neste caso o número de sı́tios vazios longe de um segmento é
muito maior do que em torno de um segmento já ocupado, ou pelo menos deveria
ser.
Se j for igual a 3 (eu já tava ocupando duas e agora vou ocupar mais um) eu
tenho (Z − 1)(1 − fi ).
Se j for igual a 4 (eu já tava ocupando três e agora vou ocupar mais um) eu
tenho (Z − 1)(1 − fi ). Lembrando que Z é o número de vizinhos ao sı́tio. Só iria
deixar de ser Z-1 se ele voltasse a ver o próprio segmento e aqui
Na figura abaixo (assumindo uma rede com condições de contorno periódicas),
em (a), eu tenho um segmento e Z vizinhos desocupados.
Em (b) eu tenho 2 segmentos e Z-1 vizinhos pois um sı́tio vizinho já estava
ocupado.
Em (c) eu tenho 3 segmentos e novamente Z-1 sı́tios vizinhos desocupados.

88
Em (d) o segmento volta a se ver e eu teria Z-2 sı́tios vizinhos desocupados e
aqui entra a hipótese de que ele não se enxerga então volta a ser Z-1.
Então, resumindo:
Lembrando que r é o número máximo de segmentos da macromolécula.
Foi fazer algumas simplificações, vou dizer que o Z solitário que está na equação

89
j nº de maneiras de arrumar
1 M −r i
2 Z(1-fi )
3 (Z-1)(1-fi )
4 (Z-1)(1-fi )
... ...
r (Z-1)(1-f1 )
multiplicando para achar o número total
ωi+1 = (M − r i)Z(Z − 1)r−2 (1 − fi )r−1

final é igual a Z-1 e aı́ eu junto com os outros. Mas esse não é o grande problema, o
problema mesmo é considerar quebrar os segmentos que estão na rede. Além, claro,
de Bragg-Willian. Então:

ωi+1 = (M − r i)(Z − 1)r−1 (M − ri)r−1 M r−1 (558)

 r−1
r Z −1
ωi+1 = (M − r i) (559)
M
Então o número de maneiras de arrumar o sistema:

1 N2 −1
Ω(N1 , N2 ) = Π ωi+1 (560)
N2 ! i=0
aplicando o ln (onde tem o produtório vira somatório) e substituindo:

N2 −1   NX2 −1
X Z −1
lnΩ(N1 , N2 ) = (r − 1)ln + (r ln(M − r i)) − N2 ln N2 + N2 (561)
i=0
M i=0

  N 2 −1
Z −1 X
lnΩ(N1 , N2 ) = N2 (r − 1)ln +r ( ln(M − r i)) − N2 ln N2 + N2 (562)
M i=0

Vamos concentrar em como calcular o somatório dessa última equação.


Notar que:

N
X2 −1 Z N2
ln(M − r i) = ln(M − r i)di (563)
i=0 0

To assumindo que o número de segmentos é grande o suficiente para se fazer


uma integral.
Vou dizer que:

90
x=M −r i (564)

dx = −r di (565)

Então:

limi→0 x = M (566)

limi→N2 x = N1 (567)

Voltando para a integral:


Z N2 Z M
1
ln(M − r i)di = ln xdr (568)
0 r N1

Obs: Os limites de integração foram invertidos para eu poder inverter o sinal de


negativo pois do dx.
Z M
1 1
ln xdr = [x ln x − x]M
N1 (569)
r N1 r
Olhando para a equação do Ω(N1 , N2 ) vemos que existe um r multiplicando com
o somatório, então o 1/r vai cortar. Então:

N
X 2 −1

r ln(M − r i) = [x ln x − x]M
N1 = M ln M − M − N1 ln N1 + N1 (570)
i=0

Voltando então para a equação do Ω(N1 , N2 ).

 
Z −1
lnΩ(N1 , N2 ) = N2 (r −1)ln +M ln M −M −N1 ln N1 +N1 −N2 ln N2 +N2
M
(571)
Vamos observar então como fica esse ln quando eu não tenho solvente e só tenho
soluto, ou seja N1 = 0. A entropia quando só se tem solvente é 1 pois só existe uma
forma de arrumar o sistema, ou seja Ω(N1 , 0) = 1 . Pois cada um cabe em um sı́tios
e se estão todos ocupados e as partı́culas são indistinguı́veis, então só existe uma
forma de arrumar, então não tem degenerescência.

91
lnΩ(N1 , 0) = M ln M − M − N1 ln N1 + N1 (572)

Nesse caso M = N1

lnΩ(N1 , 0) = 0 (573)

então:

Ω(N1 , 0) = 1 (574)

No entanto, existe degenerescência quando só tem polı́metros, pois existem várias
formas de arrumar o polı́mero.
Nesse caso M = r N2

 
Z −1
lnΩ(0, N2 ) = N2 (r − 1)ln + r N2 ln (r N2 ) − r N2 − N2 ln N2 + N2 (575)
r N2

Com esses resultados, voltamos para a equação da variação da entropia:


 
∆Smist Ω(N1 , N2 )
= ln (576)
kB Ω(N1 , 0)Ω(0, N2 )
Substituindo os resultados que achamos:

       
∆Smist Ω(N1 , N2 ) r N2 r N2 N1
= ln = N2 (r−1) ln −r N2 ln −N1 ln
kB Ω(N1 , 0)Ω(0, N2 ) M M M
(577)
Lembrando que aqui M = N1 + r N2
   
∆Smist r N2 N1
== −N2 ln − N1 ln (578)
kB M M

∆Smist
== −N2 ln ϕ1 − N1 ln ϕ2 (579)
kB
Na forma intensiva:

X
¯ == −kB
∆Smist xi ln ϕi (580)

Esse é o modelo de Flory- Huggins.


Observar que a entropia de mistura se fosse ideal:

¯ id == −kB
X
∆Smist xi ln xi (581)

92
então, a entropia de excesso no modelo de Flory-Huggins é:
 
E
X ϕi
S = −kB xi ln (582)
xi
O que podemos fazer para melhorar o modelo de Flory- Huggins é contabilizar
a parte atrativa:

U E = χϕ1 ϕ2 (583)

sendo χ um parâmetro de interação de Flory Huggins.


então:

G¯E A¯E
 
X ϕi 1 XX
= = xi ln + χϕ1 ϕ2 (584)
kB T kB T xi 2 i j

Lembrando que existem as simplificações

1. Bragg-Willian

2. o polı́mero pode ser segmentado

0.13.1 Modelo de Wilson


Usa o conceito de composição local. Temos, por exemplo, moléculas tipo 1 e tipo 2

G¯E
 
X ϕi
= xi ln (585)
kB T xi

0.14 Aula 14 - 04/01


0.14.1 Teoria da Pertubação
Pata falar de teoria da pertubação é preciso falar de correlação de pares.

0.14.2 Correlação de Pares


Queremos resolver a integral de configuração da função de partição canônica:

−U (r)
q N (T ) −3N
Z Z Z
Q(T, V, N ) = ∆ e hB T dr (586)
N!

q N (T ) −3N
Q(T, V, N ) = ∆ ZN (N, V, T ) (587)
N!
Sendo ZN (N, V, T ) → integral de configuração. Sendo

93
1/2
h2

∆= (588)
2mπkB T
O comprimento de onda de Broglie.
Antes nossos artifı́cios foram utilizar a teoria de rede, mas agora iremos usar a
teoria da pertubação que precisa das correlações de pares, a primeira correlação que
iremos analisar é a função de distribuição radial

Função de distribuição Radial g(r, T, ρ)

Dado que eu tenho uma partı́cula central (supondo geometria esféria), qual a pro-
babilidade de encontrar uma outra partı́cula a uma determinada distância r? Qual
a probabilidade de encontrar uma partı́cula qualquer no espaço do raio? É algo re-
lacionado à densidade. É possı́vel fazer essa medida experimentalmente facilmente.

0.15 Aula 15 - 06/01


Como podemos definir correlações e como relacionamos essas correlações com as
propriedades termodinâmicas, é essa discussão da aula dessa aula. O objetivo final
vai ser resolver melhor a integral de configuração da função de partição que até agora
utilizamos teoria de rede e várias simplificações para tentar resolver.

0.15.1 Função de correlação


A probabilidade de encontrar a molécula 1 entre r1 e r1 + dr1 , e a molécula 2 entre
r2 e r2 + dr2 , ... e a molécula n entre rn e rn + drn é, ou seja, a probabilidade de
uma configuração especı́fica:

−U
e kB T
℘N (r1 , r2 , ..., rN ) = dr1 , ..., drN (589)
ZN
mas não é isso que eu quero, quero calcular qual a probabilidade de encontrar,
a partı́cula 1 em torno de r1 , partı́cula 2 em torno de r2 ....até um certo h, ou seja,
correlação de h partı́culas independente de todas as outras (lembrando que estou
pensando radialmente ), ou seja uma média canônica.
Vamos pegar o exemplo h=3. Quero então saber qual a probabilidade de en-
contrar a partı́cula 1 em torno de r1 , a partı́cula 2 em torno de r2 e a partı́cula 3
em torno de r3 independente de todas as outras partı́culas. Então como posso fa-
zer? Posso usar a equação da probabilidade anterior e integrar para todas as outra
posições que não r1 , r2 e r3 fazendo então uma média canônica.

94
Posso pensar então, qual a probabilidade de h partı́culas que dependem de
r1 , r2 ..., rh

−U
e kB T
RRR
℘(h) (r1 , r2 , ..., rh ) = drh+1 ...drN (590)
ZN
Isso é a probabilidade de encontrar, a partı́cula 1 em torno de r1 , partı́cula 2
em torno de r2 .... até um certo h em tordo de rh , independente de todas as outras
partı́cula (rh+1 até rN )
Obs: São dois ı́ndices, h → as partı́culas que eu estou interessado, h+1 até N
→ partı́culas que não estou interessado (como se fosse a média canônica de todas
as outras partı́culas). (ver exemplo anterior logo acima).
então como estou fazendo uma média canônica de todas as outras partı́culas, essa
é uma propriedade macroscópica (pois estou integrando sobre todas as posições de
todas as outras partı́culas rh+1 até N (de 1 até h eu não integro), ou seja, depende da
temperatura e da densidade), ao mesmo tempo que é microscópica porque depende
de r1 , r2 , ..., rh
Mas dessa forma, eu to dizendo que as partı́culas são distinguı́veis, quando na
verdade elas não são, então acrescentamos o nosso famigerado fatorial para tornar as
partı́culas indistinguı́veis (não quero que a partı́cula 1 esteja em torno de r1 , quero
que qualquer partı́culas esteja em torno de r1 ), (a probabilidade na verdade se torna
muito maior):

−U
e kB T
RRR
N!
ρ(h) (r1 , r2 , ..., rh ) = drh+1 ...drN (591)
(N − h)! ZN
Essa é a densidade de probabilidade de encontrar uma partı́cula qualquer entre
r1 + dr1 , outra entre r2 + dr2 , ..., rh + drh .
Notar que se h=1:

−U
e kB T
RRR
N (N − 1)!
ρ(1) (r1 ) = dr2 ...drN (592)
(N − 1)! ZN

Z Z Z −U
N
(1)
ρ (r1 ) = e kB T dr2 ...drN (593)
ZN
Então:
Z Z Z
ρ(1) (r1 )dr1 = N (594)

95
Mas o que significa integrar a densidade de probabilidade de uma única partı́cula?
Ou seja integrar, a probabilidade de encontrar uma partı́cula em torno de r1 ? Se eu
integrar sobre todo o espaço vai dar o número total de partı́culas N.
Se o fluido for homogêneo (a probabilidade de encontrar um partı́cula vai ser a
mesma independente se foi em r1 ou r2 ... ou rh , a probabilidade de encontrar uma
partı́cula em qualquer ponto vai ser a mesma)
Z Z Z Z Z Z
(1) (1)
ρ (r1 )dr1 = ρ dr1 (595)

Pois se o fluido é homogêneo a densidade de 1 não depende de r1


Observar que:
Z Z Z
(1)
ρ dr1 = ρ(1) V = N (596)

Ou seja:

N
ρ(1) = (597)
V
Então, se o fluido é homogêneo a densidade de probabilidade de encontrar uma
partı́cula em qualquer ponto é a própria densidade bulk (densidade média).
Se o fluido for heterogêneo a densidade de probabilidade de encontrar uma
partı́cula vai ser a densidade local (ρ então é função de r).

0.15.2 Definição de função de correlação


Numa distribuição não correlacionada, a gente esperaria que a probabilidade fosse
a própria densidade, mas se ele não está

ρ(h)
g (h) (r1 , r2 , ..., rh ) = (598)
ρh

−U
e kB T drn+1 ...drN
RRR
Vh N!
g (h) (r1 , r2 , ..., rh ) = (599)
N h (N − h)! ZN

0.15.3 Correlações de Pares


−U
e kB T dr2 ...drN
RRR
V 2 N (N1 )(N − 2)!
g (2) (r1 , r2 , T, ρ) = (600)
N 2 (N − 2)! ZN
Como a gente só fala de correlações de parte omitimos 2 do g (2) :

g (2) (r1 , r2 , T, ρ) = g(r1 , r3 , T, ρ) (601)

96
Aproximando (N-1) para N:

−U
V2
Z Z Z
g(r1 , r2 ) = e kB T dr3 ...drN (602)
ZN
Notar que:
Z Z
... ρ2 g(r1 , r2 )dr1 dr2 = N (N − 1) ∼
= N2 (603)

Essa equação acima vai descrever qual a densidade de probabilidade de encontrar


uma partı́cula em torno e r1 e uma partı́cula em torno de r2 , se eu integrar sobre
todo o espaço r1 e r2 isso vai mostrar o número de partı́culas em torno ao quadrado.

0.15.4 Relação com a termodinâmica


Energia Interna configuracional
Z ∞
conf N
U = 4πρg(r)φ(r)r2 dr (604)
2 0

Essa última equação descreve a energia configuracional através do potencial


esférico de interação entre de uma partı́cula central com uma partı́cula que está a
uma distância r. Mas como estou integrando de zero até infinito (todas as distâncias)
eu tenho então a interação dessa partı́cula com todas as outras partı́culas que estão
no fluido. O 1/2 é porque estou contando 2 vezes as interações.
sendo φ(r) o potencial de pares.
Então todo aquele problema que tivemos com a integral de configuração na teoria
de rede estamos resolvendo por essas relações de pares.
Partindo agora da função de partição canônica:

ln Q = N ln q∆−3 − ln N ! + ln ZN (605)

Já mostrando que:


 
3 2 ∂ln ZN
< E >= N kB T + kB T (606)
2 ∂T V,N

  −U
N (N − 1)
Z Z
∂ln ZN
kB T 2 =< E conf ig >= u(r, 2)e kB T dr, dr2 , ..., drN
∂T V,N 2ZN
(607)

−U
N (N − 1)
Z Z Z Z
= u(r12 )dr, dr2 e kB T dr, dr3 , ..., drN (608)
2ZN

97
Como:

−U
N (N − 1)
Z Z
(2)
ρ (r1 , r2 ) = g(r1 , r2 )ρ = 2
e kB T dr, dr3 , ..., drN (609)
ZN

ρ2
Z
conf ig
<E >= inf u(r12 )g(r1 , r2 )dr1 dr2 (610)
2

ρ2
Z
conf ig
<E >= inf u(r12 )g(r12 , r2 )dr12 dr2 (611)
2
Sendo esse fluido homogênio o g não depende mais de r2 , se eu integrar em r2
vai aparecer o volume. Então a energia configuracional para um fluido homogêneo
vai ficar:
Z
conf ig N
<E >= inf rhou(r12 )g(r12 )dr12 (612)
2
Potencial esférico:
Z ∞
conf ig 4πN
<E >= φ(r)ρg(r)r2 dr (613)
2 0

Pressão
   
∂ln Q ∂ln ZN
P = kB T = kB T (614)
∂V T,N ∂V T,N
 
1 ∂ZN
= kB T (615)
ZN ∂V T,N

Sendo:

Z Z Z −U
ZN = e kB T dr1 dr2 , ..., drN (616)

Z Z Z −U
ZN = V N
e kB T dr1 0 dr2 0 , ..., drN 0 (617)

r0 é uma distância normalizada e não depende de V.


Então:

−U −U
N Z Z Z
−∂U
Z Z Z
∂ZN V
= NV N − 1 e kB T dr0 + e kB T dr0 (618)
∂V kB T ∂V

98
Multiplica e divide por V:

Z Z Z   −U
∂ZN 1 ∂U
= ρZN − e kB T dr (619)
∂V kB T ∂V
Mas quem é ∂U/∂V ?
Lembrando que U é a energia total do sistema:

X XX XXX
U= u(ri ) + u(rij ) + u(rijk .... (620)
i i j i j k

u=φ (621)

Voltando:

∂U 1 X X ∂u(rij )
= rij (622)
∂V 3V i<j ∂rij

Então:

Z Z −U
 
N (N − 1) (r12 ) 
Z Z Z
∂ZN
= ρZN − r1 2 e kB T dr2 drN  dr1 dr2 (623)

∂V 6kB T ∂r12

Fazendo umas 500 gambiarras matemáticas que estou com preguiça de digitar
chegamos a:
2 Z Z
∂u(r12 )
∂ ln ZN P
=− r12 g(r12 )dr12 = (624)
∂V 6kB T ∂r12 kB T

0.16 Aula 16 - 13/01 - Inicio das aulas com Papa


Resumo dessa aula: voltamos a introduzir a função de partição canônica e a partir
daı́ utilizamos a mecânica clássica para dividir a função de partição em uma parte
envolvendo o centro de massa e uma parte interna. A parte do centro de massa rela-
cionamos com a configuração (ou seja, como as moléculas estão distribuı́das dentro
do sistema) que obviamente envolve o potencial de interação entre as moléculas daı́
nasceu a integral de configuração. Com essa integral, é possı́vel calcular as propri-
edades configuracionais. Mas essa integral não é fácil de determinar, dessa forma
introduzimos a probabilidade de achar uma molécula 1 na posição 1, a molécula 2
na posição 2. Tentamos achar a função de distribuição simplificada que resultou a
função de distribuição radial. Isso necessita que se tenha o potencial de interação
intramolecular e para calcular o g(r) existem algumas teorias.

99
Partindo da função de partição canônica é possı́vel derivar qualquer propriedade
termodinâmica.
Se a diferença de energia entre estados quânticos adjacentes (∆E) for menor de
que kB T posso dividir a função de partição em duas parte, uma ligada ao centro de
massa e outra ligado as forças intramoleculares. Se isso for válido, continua válido
a hipótese da mecânica clássica.

Q = QCM (N, V, T )Qintra (N, T ) (625)

CM Λ−3N
Q (N, V, T ) = Z (626)
N!
1/2
h2

Λ= (627)
2πmkB T
Z é a integral de configuração. Essa integral representa como as moléculas estão
posicionadas em um sistema interagindo uma com as outras através de um potencial
especı́fico. É justamente a incógnita que estamos interessados.

ln Q = ln Qk + ln Qinterno + ln Z (628)

Sendo o K se referindo a uma parte cinética

Qk = (N !Λ3N )−1 (629)

Lembrando que vamos dividir a integral de configuração em 3 partes, uma parte


cinética, uma parte intramolecular (vibração, rotação..) e uma parte ligado à posição
das moléculas do sistema (integral configuracional)
A partir dessa ultima equação podemos determinar a pressão configuracional.
Assim como a energia interna configuracionall:
 
C kB T ∂ ln Z
P = → pressao conf iguracional (630)
N ∂V T,N
 
kB T
C ∂ ln Z
U = → energia conf iguracional (631)
N ∂V T,N

AC = −kB T ln Z → energia livre de Helmholtz (632)

A questão é a seguinte: Qual a probabilidade de encontrar N moléculas numa


dada configuração a T e V constante sendo as moléculas distinguı́veis?
Essa probabilidade vou chamar de ℘(N )
A molécula 1 está na posição r1 a molécula 2 está na posição r2 ..

100
−U
e kB T dr1 , ...drN
℘(N )(r1 , r2 , ..., rN ) = (633)
Z
Z Z
... ℘(N )(r1 , ...rN )dr1 , ..., drN = 1 (634)

Sendo as moléculas destingı́veis vai aparecer um fatorial multiplicando.

fN = N !℘ (635)

fN → função de distribuição proporcional à probabilidade de encontra N moléculas


indistinguı́veis numa dada configuração.
Definimos a integral de configuração no ensemble canônico, a questão agora é
achar a probabilidade de achar moléculas indistinguı́veis numa dada configuração
dado uma temperatura e um volume. Estando a molécula 1 na posição r1 , etc. Se
eu souber o f eu posso calcular qualquer outras propriedade termodinâmica. O que
podemos tentar fazer então é calcular essas propriedades a partir de f(N). Posso
achar a energia configuracional:
R R
C... Ef (N )dr1 ...drN
E = R R (636)
... f (N )dr1 ...drN
Isso eu posso calcular desde que eu saiba quem é f(N), no entanto, f(N) é desco-
nhecido. O que se é possı́vel fazer para resolver esse problema? Nesse caso, utiliza-se
uma função de distribuição ordem menor:

N!
f (h)(r1 , r2 ..., rN ) = ℘(N ) (637)
(N − h)!
Z Z
1
f (h) = ... f (N )drh+1 ...drN (638)
(N − h)!
Po exemplo, se eu quiser achar f(1):
Z Z
1
f (1) = ... f (N )dr2 ...drN (639)
(N − 1)!

Z Z −U
N
f (1) = ... e kB T dr1 ...drN (640)
Z
Mas:

Z −U
e kB T dr1 ...drN = Z/V (641)

101
Então:

f (1) = N/V = ρ (642)

Admitindo aditividade entre pares:

X
U= uij (643)
ij

tem como mostrar que apenas f1 e f2 são necessário para calcular as propriedades
termodinâmicas.

0.16.1 Função de distribuição radial


ρ(r)
g(r) = (644)
ρ
Para relacionar f1 e f2 não vamos precisar da função de distribuição radial. Essa
função descreve o modo como as outras moléculas estão distribuı́das em torno de
uma molécula central.
Sendo ρ(r) densidade média no tempo uma distância r qualquer
ρ densidade bulk.
Se g(r) independe de T é possı́vel mostrar que g(r) vai ser:

f (2) f (2)
g(r) = 2
= 2 (645)
f1 ρ
O objetivo é achar g(r) e relacionar com as propriedades termodinâmicas.
Primeiramente iremos observar a energia interna de configuração:
Z ∞
c
E = 2πN ρ φ(r)g(r)r2 dr (646)
0

φ(r) → é o potencial de interação.


Essa equação está me dizendo que se eu sei calcular g(r) eu sei calcular a energia
interna configuracional.
De forma semelhante podemos observar a pressão:

2πρ2
Z
C ρkB T ∂φ(r)
P = − g(r)r3 dr (647)
N 3N 0 ∂r
A questão toda passa a ser achar φ(r) e g(r), o φ é a energia potencial entre 2
moléculas, podemos usar lennard-jonnes, potencial de poço quadrado, esferas rı́gidas,
potencial wca etc.
Mas como achar g(r)?
Existem 4 teorias bem reconhecidas.

102
1. YBG → Yvon, Born, Green

2. Cadeia hiperpenetrada

3. Percus Yevic

4. Rowlinson SC (self-consistent)

Na YBG, vai dizer que dado uma configuração qualquer

Z
∂g(r12 ) ∂φ(r12 )g(r12 ) ∂φ
kB T + +ρ (r13 )g(r12 )g(r23 )g(r13 )dr3 = 0 (648)
∂r1 ∂r1 ∂r1

Ele vai imaginar duas moléculas 1 e 2 e uma terceira molécula presente no sis-
tema. A função de distribuição radial aqui vai ser calculada entre 3 moléculas. Isso
tudo é definido de forma que o resultado zere.
Aqui é valido:

g(r12 , r23 , r13 ) = g(r12 )g(r23 )g(r23 ) (649)

Essa teoria não é verdade para altas densidades.

0.16.2 Teoria de pertubação


Essa teoria começou com o trabalho de Zwanzig e o objetivo é relacionar proprie-
dades termodinâmicas de um sistema real àquelas de um sistema de esferas duras
através de uma expansão em série da integral de configuração. Quando melhor você
definir seu sistema de referência, menor vai ser o esforço para achar um termo de
pertubação adequado. Apesar da ideia ser muito boa, Zwanzig não obteve bons
resultados pois ele utilizou sistemas de referência, por exemplo, com potenciais com
raios de corte e quando se faz isso, se tem limitações para calcular propriedades que
dependem da temperatura. Então quando se escolhe um sistema de referência, é
preciso que a escolha permita uma rápida convergência.
Seja um sistema hipotético que vale a aditividade de pares. Posso dizer que o
potencial de interação intramolecular:

X
U= u(rij, α) (650)
ij

u(r, α) = φref (r) + αφP (r) (651)

φref (r) → potencial de estado não perturbado.


φp (r) → potencial de pertubação.

103
Essa basicamente é a teoria da pertubação. O potencial que eu tenho, vai ser
um potencial de referência mais alfa multiplicao pelo potencial de pertubação.

0.17 Aula 17 - 18/01


Na aula passada introduzimos a função de partição canônica e a integral de confi-
guração que foi relacionada a uma função de distribuição radial e um potencial de
interação. A partir daı́ poderı́amos calcular todas a propriedades termodinâmicas.
Nesta aula iremos introduzir efetivamente e a teoria de pertubação.
Teremos um fluido de referência e observaremos a pertubação em relação a re-
ferência. Isso a partir da energia livre de Helmholtz.
A teoria iniciou com os trabalhos de Zwanzig. Ele relacionou propriedades ter-
modinâmicas de uma sistema real àquelas de um sistema de referência.
Seja um fluido hipotético qualquer e digo que vale a regra da aditividade aos
pares (o potencial de interação do sistema é a soma dos potenciais binários) se isso
for verdade eu posso dizer que:

X
u= u(rij , α) (652)

u(rij , α) = φref (r) + αφP (r) (653)

φref (r) → par potencial do estado não perturbado


φP (r) = φ(r) − φref (r) → potencial de perturbação
φ(r) → potencial do fluido real
α → parâmetro de pertubação.
Se α = 0 terei um estado não perturbado (estado de referência) e se α = 1 vou
ter o fluido real.
Na teoria da pertubação, a expansão é geralmente feita em torno da energia livre
de Helmholtz:

α2 ∂ 2A
   
ref ∂A
A=A +α + + ... (654)
∂α α=0 2 ∂α2 α=0

O sistema de referência usado por Zwanzig não proporcionou bons resultados de-
vido ao potencial cut-off e outros esquemas de pertubação sucedidos foram propostos

1. Rowlinson

2. Mc Quarrie

3. Barker -Henderson

104
Até agora utilizamos a função de partição canônica, mas quando utilizamos a
teoria da pertubação a melhor função de partição é a grande canônica e por con-
sequência uma integral de configuração grande canônica.
Premissa: a estrutura de lı́quidos é essencialmente dominada pelas forças inter-
moleculares repulsivas. Como provar isso? Usa um potencial Lennard Jones total,
ou usa um potencial com cut off de Lennard-Jones para r = 21/6 σ. Sendo σ o
diâmetro de contato. As forças repulsivas ”vão mais longe”que as atrativas.
Voltando a expansão em que vou ter a energia livre de Helmholtz:

α2 ∂ 2A
   
ref ∂A
A=A +α + (655)
∂α α=0 2 ∂α2 α=0
  Z
∂A 1 XX
= ρi ρj gijref (1, 2)φPi,j (1, 2)dr1 dr2 (656)
∂α α=0 2 i j

∂ 2A
  Z Z
1 XX
=− jρi ρj [φPij (1, 2)]2 gijref (1, 2)dr1 dr2
∂α2 α=0 2kB T i

Z Z Z
1 XXX  P
φij (1, 3) + φP (2, 3)jk φPij (1, 2)gijk dr1 dr2 dr3

− ρi ρj ρk
2kB T i j k

Z Z Z Z
1 XXXX  P  ref
− ρi ρj ρk ρl φkl (3, 4) + φPij (1, 2) [gijkl (1, 2, 3, 4)
4kB T i j k l

(2)ref
− gijkl (1, 2)g ref (3, 4)]dr1 dr2 dr3 dr4

ref ( P P RR P ref
)2
∂( j k j ρk φij (1, 2)gjk (1, 2)dr1 dr2 )

1 X ∂ρi
+ ρi
4V i ∂P ∂ρi
(657)

Observação:
Z → integral de configuração canônica.
Ξ = Ξ(µ, V, T ) → é função de partição grande canônica

Ni µi
−U

e kB T
Z Z Z
Ξ= ΠN c
i=1 ... e kB T dr...drN (658)
0 Ni !
Queremos achar os parâmetros de pertubação através da primeira e da segunda
derivada de A em relação a α A partir daı́ podemos calcular as propriedades termo-

105
dinâmicas.
Por exemplo, a pressão será:

∂A
P = (659)
∂V
Sendo:

Nc
X
A= Ni µi − kB T lnΞ (660)
i

PV
= lnΞ (661)
kB T
Para achar a primeira e a segunda derivada precisamos então de um g de re-
ferência. A partir daı́ achamos a integral de configuração grande canônica, a energia
livre de Helmholtz, derivo em relação a α e acho as propriedades.
então, tentaremos achar o g ref
gijref → função de distribuição radial do par ij.
g (3)ref → função de distribuição radial do trio ijk.
g (4)ref → função de distribuição radial do quarteto ijkl.
A pergunta é, como achar g ref ?
Caminho mais simples: considerar que o fluido de referência é formado por esferas
duras. Algumas simplificações são permitidas.

1. a função de partição depende somente de N e V (independe de T). Então g(r)


e P/ρkB T são também independentes de T

2. Devido a inexistência de forças atrativas, a única transição de fase possı́vel é


do tipo fluido-sólido

3. As propriedades termodinâmicas e de transporte dependem de g(r) no ponto


de contato r = σ. (ou seja, as moléculas só vão interagir, quando em con-
tato, quando estão separadas por uma distância mı́nima que seja, não haverá
interação). Posso dizer que achar g(r) é o mesmo que achar o g no ponto de
contato, ou seja g(r) = g(σ)

4. Existem várias expressões para calcular g(σ) de esferas duras

5. Existem cálculos computacionais para g(σ) em um grande intervalo de condições

6. Quando se trabalha com esferas duras aplica-se considerações de aditividade


aos pares exatas

Isso tudo para esferas rı́gidas (duras), mas o que é um fluido constituı́do por
esferas rı́gidas?

106
Vamos responder isso em função do potencial.

0 para r > σ
ij
φij (r) = (662)
∞ para r ≤ σ
ij

Em que:

σi + σj
σij = (663)
2
Para mostrar a independência do potencial de esferas duras com a temperatura,
basta derivar Z em relação a T tanto igualando u a zero ou a infinito, o resultado
será o mesmo: zero.
Também é possı́vel mostrar que a anergia configuracional é zero. Já a pressão
será:
Z ∞
X 2 XX ∂φij
P = kB T ρi − π gij(r,ρ1 ,...ρN )r3 dr (664)
3 i j 0 ∂r

Mas: Z ∞
∂φij
gij(r,ρ1 ,...ρN )r3 dr = kB T f (σij ) (665)
0 ∂r
Então a pressão para um conjunto de esferas duras fica:

X 2 X X 3 ed
P ed = kB T ρi − π σ g (σij , ρ1 , ...ρN ) (666)
3 i j ij

Todo meu foco será agora então em como calcular a função de distribuição radial
de esferas duras g ed (σij , ρ1 , ...ρN )
Partiremos da energia livre de Helmholtz de esferas duras:

Z V
ρi Λ3i
 
ed
X 2 XX 3 1 ed
A = kB T Ni ln int
−N kB T − π Ni Nj σij g (σij , ρ1 , ...ρN )dr dv
2 ij
i
qi 3 i j ∞ r
(667)
Posso calcular o potencial quı́mico de esferas duras também, basta derivar A em
relação a Ni .
Mas como vamos achar a função de distribuição radial de esferas duras?
Tem várias teorias para isso.
Tem a teoria de Percus-Yevick. Ele propõe um modelo que diz que:

1 3σi σj ξ2
g ed (σij ) = + (668)
1 − ξ3 σi + σj (1 − ξ3 )2

107
πX
ξl = ρi σil (669)
6 i

esse ξ é como se fosse uma densidade reduzida.


A equação de pressão para esferas duras utilizando o modelo de Percus-Yevick
fica:
 
6kB T ξ0 3ξ1 ξ2 3ξ3 3ξ3 ξ2
PPedY = + 2
+ 3
− (670)
π 1 − ξ3 (1 − ξ3 ) (1 − ξ3 ) (1 − ξ3 )3
Existe também o modelo de Carnahan-Starling que diz:
2
ξ22

1 3σi σj ξ2 σi σj
gijed (σij ) = + +2 (671)
1 − ξ3 σi + σj (1 − ξ3 )2 σi + σj (1 − ξ3 )2
A partir dela também posso achar a pressão:

3ξ23 ξ3 ξ23
 
ed 6kB T ξ0 3ξ1 ξ2
PCS = + + + (672)
π 1 − ξ3 (1 − ξ3 )2 (1 − ξ3 )3 (1 − ξ3 )3
É possı́vel observar que:

ed 1 1
PCS = PPedYpressao + PPedYcompressibilidade (673)
3 3

3ξ23
 
6kB T ξ0 3ξ1 ξ2
PPedYcompressibilidade = + + (674)
π 1 − ξ3 (1 − ξ3 )2 (1 − ξ3 )3

0.18 Aula 18 - 25/01


Qual a ideia geral que temos? Basicamente é definir um fluido de referência e ob-
servar a pertubação a partir desse ponto de referência. Na última aula, utilizamos
as esferas rı́gidas como fluido de referência, naturalmente, surgiu a função de distri-
buição radial de esferas rı́gidas. Algumas aproximações foram feitas, a primeira e
a mais importante é que a função é avaliada no ponto de contato e não em toda a
região. Ela é avaliada então em g(r) = g(σ). Alguns modelos foram propostos. O
primeiro foi o de Percus- Yevick em que temos uma função de distribuição radial a
partir do qual conseguimos calcular qualquer propriedade termodinâmica, mas ele
tem suas limitações. Vimos também o modelo de Carnahan-Starling que também é
simplificado mas trabalho com um potencial mais realı́stico e funciona melhor para
várias situações.
Vimos que :

A = Aref + Apertu (675)

108
A partir daı́ definimos algumas coisas. A primeira é que se eu tenho a função de
partição grande canônica eu posso calcular A, a outra coisa é que de algum modo se
eu tiver a função de distribuição eu posso dizer dizer que o A de pertubação vai ser:

α2 ∂ 2A
   
pert ∂A
A =α + (676)
∂α α=0 2 ∂α2 α=0

Na aula passada definimos as duas derivadas e observamos que as duas dependem


da função de distribuição radial.

0.18.1 Teoria da pertubação usando esferas moles


Vimos diversos modelos na aula de hoje iremos ver o modelo de Barker Henderson
que vai dizer que o potencial vai ser diferente.
Quais as condições que governam a escolha do sistema de referência? Primeiro,
o sistema de referência tem que ser o mais próximo do sistema a se estudar. Se-
gundo, eu tenho como calcular as propriedades do sistema de referência com precisão.
Isso acontece quando escolhemos como sistema de referência as esferas rı́gidas, no
entanto, exitem alguns inconvenientes, o diâmetro da esfera, o problema da tempe-
ratura.
A partir daı́, surgiram outras teorias como a de Barker Henderson. Partindo da
mesma premissa.

α2 ∂ 2A
   
pert ∂A
A =α + (677)
∂α α=0 2 ∂α2 α=0

A partir daı́ eles introduzem algumas modificações. Primeiro eles vão avaliar
separadamente as derivadas. As expressões são bastante grandes e podem ser vistas
nas devidas referências.
Barker Henderson vai dizer que o potencial de referência vai ser:

φ − φ (R ) para r ≤ R
ij ij ij ij
φref
ij (r) = (678)
0 para r > R
ij

Rij → parâmetro de distância a ser escolhido. Rij deve ser escolhido de forma
que a série convirja rapidamente. O modo mais simples de se fazer isso é fazer uma
dupla expansão do paramento α da energia livre de Helmholtz.
Seja um potencial qualquer φ(r)
Posso definir um potencial modificado qualquer que vai ser:

r − dij
uij = uij (dij , Rij , r, [α]) = φ[dij + ] para r < α1 (679)
α1
Sendo dij o diâmetro. Aqui não estamos nos referindo a portanto de esferas

109
rı́gidas.
Barker Henderson relacionou:

       
−βuij (r) r−d r−d r−d
e = 1−H d+ − Rij exp −βφij d + +H d + − Rij
α1 α1 α1

+ H [( r − Rij )e−α2 βφij ]c (680)

Sendo:

0 para x < 0
H(x) = (681)
1 para x > 0

Posso calcular uij da seguinte forma:

  
r − d ij
φ d + para x < α1 (Rij − dij ) + dij

 ij ij

α1


uij (dij , Rij , r, [α]) = 0 para r > α1 (Rij − dij ) + dij (682)



α φP para r > R

2 ij ij


φ (R ) para r ≤ R
P ij ij ij
φij (r) = (683)
φ (r) para r > R
ij ij

Tudo passa a depender de como será feito a escolha do parâmetro Rij .


Uma outra forma de demarcação foi proposta por Weeks, Chandler e Andersen
(WCA).
Nesse caso:

Rij = rmin ij = 21/6 σij (684)


φ(r) +  para r ≤ r
min
φref = (685)
0 para r > r
min

Também:

− para r < r
P min
φ = (686)
0 para r > r
min

Como escolher Rij ?

110
Ele depende das condições do sistema. Para o estado lı́quido, posso dizer que:

σij < Rij < 21/6 σij (687)

Em geral:

∂A
=0 (688)
∂Rij
Ou seja A deve ser insensı́vel a pequenas variações de Rij e:

∂A
=0 (689)
∂Rij
quando Rij = σij .
ou seja, o que o trabalho de Barker Henderson fez foi mostrar que para kB T / =
T ∗ = 100. A não depende de Rij
Vamos ver como fazer a dupla expansão em torno da energia livre de Helmholtz.

α2 ∂ 2A
     
∂A ∂A
0
A = A + α1 + α2 + 2 (690)
∂α1 [α]=0 ∂α2 [α]=0 2 ∂α22 [α]=0

O principal resultado dessa teoria é essa dupla expansão do segundo termo.


A0 → Energia livre de Helmholtz para um sistema de referência para um sistema
multicomponente de esferas duras.
 
∂A
A0 = (691)
∂α1 [α]=0

Não confundir A0 = Aref com A0


 
∂A
A1 = (692)
∂α2 [α]=0

∂ 2A
 
A2 = (693)
∂α22 [α]=0

Para Rij = σij

d2 ed
 
∂A X
A0 = = −2πρ g (dij )[dij − xi xj δij ] (694)
∂α1 [α]=0 β ij
  Z ∞
∂A X
A1 = = 2πρ xi xj φij (r)gijed r2 dr (695)
∂α2 [α]=0 ij 0

Z σij
δij = [1 − exp(−βφij (r))]dr (696)
0

Se os diâmetros de esferas duras forem escolhidos como dii = δii

111
Para i = j Ao = 0, para i 6= j Ao 6= 0 e dij 6= δij
Para anular o termo α1 (A0 ) Mansoori propôs que

XX
dij = xi xj δij (697)
i j

Mas em um caso mais genérico ele não será anulado.


Mas como calcular A1 ?
  Z
∂A 1 XX
A1 = = ρi ρj gijref (1, 2)φPi,j (1, 2)dr1 dr2 (698)
∂α α=0 2 i j

Essa última expressão de A1 (que vimos a aula passada) é equivalente ao poten-


cial A1 escrito logo antes na equação 695.

∂ 2A
  Z Z
1 XX
A2 = =− ρi ρj [φPij (1, 2)]2 gijref (1, 2)dr1 dr2
∂α2 α=0 2kB T i j

Z Z Z
1 XXX  P
φij (1, 3) + φP (2, 3)jk φPij (1, 2)gijk dr1 dr2 dr3

− ρi ρj ρk
2kB T i j k

Z Z Z Z
1 XXXX  P  ref
− ρi ρj ρk ρl φkl (3, 4) + φPij (1, 2) [gijkl (1, 2, 3, 4)
4kB T i j k l

(2)ref
− gijkl (1, 2)g ref (3, 4)]dr1 dr2 dr3 dr4

ref ( P P RR P ref
)2
∂( j k j ρk φij (1, 2)gjk (1, 2)dr1 dr2 )

1 X ∂ρi
+ ρi
4V i ∂P ∂ρi
(699)

0.19 Aula 19 - 27/01


Para trabalhar com o A0 , A1 e A2 iremos fazer algumas aproximações. Uma das
aproximações mais simples seria desprezar o termo de segunda ordem. Ou seja,
significa dizer que A2 = 0.
ed
Outra simplificação seria dizer que gid = cte = c.
Substituindo na equação de A podemos achar a pressão

amist
P = P ed − (700)
V2

112
sendo:

XX
amist = x‘i xj aij (701)
i j

e
Z ∞
2
aij = −2πN C φPij (1, 2)r2 dr (702)
0
e
a pressão de esferas duras (Van der Waals)

RT
P ed = (703)
V −b
a pressão será:

RT amist
P = − (704)
V −b V2
ed
Usando Lennard-Jones e fazendo A2 = 0 e gid (r) = 1.
a pressão será:

P = Ped + 2πkB T ρi ρj d2ij gij (dij )[δij − dij ]


P P
i j

P P 2
∂gijed 16π P P 3
− 2πkB T V i j ρi ρj dij [δij − dij ] − i j ρi ρj ij σij c (705)
∂V 9

Considerando as considerações acima da equação acima (pleonasmo até não po-


der mais)

16π P P
P = Ped + 2πkB T ρi ρj d2ij gij (dij )[δij − dij ] − 3
P P
i j i j ρi ρj ij σij
9
(706)

Lembrando que no geral:


 
∂A
P =− (707)
∂V N,T
e

113
∂A0
 
ed
P =− (708)
∂V N,T

Da mesma forma, posso encontrar a fórmula do potencial quı́mico:

X 32π X
µk = µed
k + 4πkB T ρj φkj 2 [δkj − dkj ] + 3
ρj kj σkj (709)
j
9 j

Agora se eu quiser considerar o termo de segunda ordem A2 (teoria de pertubação


de segunda ordem) veremos que será mais complicado mais iremos fazer algumas
aproximações.

0.19.1 Teoria de pertubação de segunda ordem


Barker Henderson propuseram duas aproximações.

Aproximação de compressibilidade macroscópica

O A2 será reduzido a:

XX X  ∂ρk ed Z ∞
A2 = −πV ρi ρj φ2ij (r)gijed (r)r2 dr (710)
i j k
∂P 0

Aproximação de compressibilidade local

O A2 será reduzido a:

XX X ∂ρk ∂ Z ∞
A2 = −πV ρi ρj φ2ij (r)gijed (r)r2 dr (711)
i j k
∂P ∂ρk 0

Se compararmos o termo do A2 original, a aproximação macroscópica é como se


minhas moléculas sentissem o efeito de apenas uma única outra molécula e não de
todas as moléculas ao mesmo tempo. Então o A2 vai se resumir ao primeiro termo
da equação geral do A2 .
Já quando se usa a aproximação local, a gente diz que A2 será igual ao último
termo da equação de A2 original. É local porque aparece a derivada em relação ao
componente k qualquer.
Como podemos perceber, essa simplificação não computa as interações com a
terceira e com a quarta moléculas, enxerga apenas o par de moléculas.
Mas qual potencial vai governar um sistema que tem moléculas 1 e 2 sabendo
que ter uma terceira do lado?
Vamos tentar outra alternativa, e usar a proposta de Tiepel. Ele diz que:

ed
gid (r) = 1 para r > σij

114
(712)

Aproximação chamada de distribuição uniforme ou teoria de van der Waals


de segunda ordem. Isso vai resultar que:
Z ∞
πV X X  P 2 2
A2 = − ρi ρj σij φij (r) r dr (713)
kB T i j 0

Se eu tiver o potencial de interação intermolecular posso facilmente calcular A2 .


Se, por exemplo, for admitido um potencial Lennard-Jones (6, 12). Posso escrever
a expressão da pressão:

P unif orm distribuition


= P UD (714)

PU D = P ed +2πkB T ρi ρj d2ij gijed (dij )[δij −dij ]+2πkB T V ρi ρj d2ij (δij −


P P P P
" # i j i j
∂gijed (dij )
dij )
∂V
T,N
16π P P 3 128π P P
− i j ρ i ρ j ij σ ij − ρi ρj 2ij σij3 c (715)
9 315kB T i j

Posso também escrever o potencial quı́mico:

P unif orm distribuition


= P UD (716)

µU D = µed ρj d2kj gkj


ed
ρi ρj d2ij (δij −
P P P
k #+ 4πkB T j (dkj )[δkj − dkj ] + 2πkB T V i j
"
∂gijed (dij )
dij )
∂Nk
V,T,Nj6=k
32π P 3 256π P 2 3
− j ρj kj σkj − j ρj kj σkj (717)
9 315kB T

Observação:
Para achar A1 podemos utilizar a aproximação de primeira ordem de distri-

115
buição uniforme que quer dizer que utilizamos um potencial Lennard jones (12, 6)
e utilizamos Percus Yervick para cálculo da função de distribuição radial de esferas
duras.

0.20 Aula 20 - 01/02


Introdução à equação Saft. Quando falamos de saft Iremos falar do que está por
trás da ideia da tese do Chapman.
Lembrando que a principal ideia da teoria da pertubação é calcular propriedades
de lı́quidos.
Para fase gasosas existem equações de estado simples e mais complexas que
calculam muito bem as propriedades.
Para lı́quidos, já foi observado que as forças repulsivas dominam muito mais que
as forças atrativas, então a ideia é definir um fluido de referência conhecido, o termo
de pertubação vai ser algo menor que vai convergir rapidamente.

0.20.1 SAFT → Statistical Associating Fluid Theory


A base foi trabalho foi de Wertheim (1984) e Champman (1988).
Trabalho de Huang e Radozs foi a proposta inicial da saft
A equação foi feita para essencialmente representar macromoléculas e sistemas
dissociativos.
Vamos imaginar um sistema formado por um conjunto de esferas duras.
As esferas duras podem interagir segundo um dado potencial e a interação vai
gerar uma dispersão.
Ele vai relacionar o fluido de referencia a parte relacionada a esferas duras,
formação de cadeia e associação.
O termo de dispersão ele vai chamar do termo de pertubação.
O grande contribuição de Chapman foi como obter o termo de associação.
Futuramente veremos a PC-SAFT que vai falar da cadeia perturbada e não mais
do seguimento perturbado.
A parte da pertubação da dispersão pode usar Backer H.
Mansoori para esferas duras
e Boublik para a parte da formação da cadeia.
Como a equação é feita então? O que SAFT vai fazer vai levar em conta a
forma molecular (termo de cadeia), as interações intermoleculares de longo alcance,
associações intermoleculares de curto alcance (ligações de hidrogênio ). Base da
equação é a Teoria de Wertheim.
Exemplo: Dimerização de ácio carboxı́lico.

116
Consideração → densidade baixa.
Fazendo essa consideração logo se chega a conclusão que a não idealidade do
fluido é devido à associação.
A questão sempre é: como calcular as propriedades termodinâmicas do sistema?
(tendo em mente que o que queremos é calcular a parte associativa)
Consideramos um sistema com N, V e T especificados
Para relação de Euler sei que:

A = Nµ − P V (718)

Como determinar A levando em conta a associação?


Vamos calcular primeiro o termo P V .
Seja N̄ → número de partı́culas livres (pode ser na forma de monômero ou pode
ser na forma de dı́mero)
Se fosse um caso de gás ideal, o meu PV:

P V = N̄ kB T (719)

Quando eu tenho fluido associativos (no nosso caso uma dimerização) eu vou ter
uma mistura de monômeros e de dı́meros.

Vou chamar de X0 → a fração de partı́culas que existem como monômeros.


1 − X0 → fração de partı́culas dimerizadas:

N (1 − X0 )
→ numero de dimeros (720)
2

117
X0 → numero de monomeros (721)

Número total de partı́culas livres:


 
N 1
N̄ = N X0 + (1 − X0 ) = N X0 + (1 − X0 ) (722)
2 2
Para fluidos não associativos:
X0 = 1
N̄ = N
Terei a equação do gás ideal

P V = N RT (723)

Posso dizer então que:

 
N 1
P V = N̄ RT == N X0 + (1 − X0 ) = N X0 + (1 − X0 ) RT (724)
2 2

Vamos voltar as nossas atenções para o termo de potencial quı́mico. Como achá-
lo.
O que eu sei usando da teoria do equilı́brio quı́mico é que:

µmonomero = µdimero = µ (725)

Da mecânica estatı́stica sei que:

µgas ideal
= kB T ln(ρi λ3 ) (726)

Sendo Λ → o comprimento de onda de De Broglie e ρi a densidade.


Posso dizer que
µmonomero = µdimero = kB T ln(ρ0 λ3 ) (727)

ρ0 → a densidade do monômero.
posso dizer que:

ρ0
X0 = (728)
ρ

N µ = kB T ln(βΛ3 ) (729)

N kB T
Aassociacao = N µ − P V = kB T ln(βΛ3 ) − [1 + X0 ] (730)
2

118
Aassociacao 1
= ln(βΛ3 ) − [1 + X0 ] (731)
N kB T 2
Temos que para gás ideal (X0 = 1)

AGI
= ln(ρΛ3 ) − 1(f luido n associativo) (732)
N kB T
Então se eu quiser a diferença:

Aassociacao − AGI X0 1
= ln(X0 ) − + (733)
N kB T 2 2
A questão é: como calcular X0 (fração de partı́culas que existem como monômeros)?
O que foi feito foi utilizar um potencial de poço quadrado:

Vai dizer que a variação da energia interna é devido à associação é proporcional


ao número de partı́culas na distância de associação, vai ser igual a o número de
moléculas multiplicado por menos epsilon dividido por dois.
Mas como achar esse número de moléculas a uma distância de associação?
Vamos dizer que tudo que está entre sigma e epsilon vai ser essa distância de
associação.
Se eu chamar :
N’ → o número de moléculas na distância de associação:
Z
0
N = N (1 − X0 ) + N X0 ρ0 g(1, 2)d(1, 2) (734)
V

o primeiro termo do lado direito é associado às moléculas associadas, já segundo
termo é associado aso numero de monômeros na distancia de associação.
g(1, 2) → f unçãodecorrelação
R
ρ0 V g(1, 2)d(1, 2) → probabilidade de achar monômeros na distância de asso-
ciação
N X0 → número de monômeros no fluido.
R
N X0 ρ0 V g(1, 2)d(1, 2) → número de monômeros na distância de associação.
Wertheim vai dizer que g0 (1, 2) = g0 (1, 2)) do fluido não associativo.
e mais, que:

119
g0 (1, 2) = g ED
e:
 Z 
associativo  2 ED
∆U = − N (1 − X0 ) + N ρX0 g (1, 2)d(1, 2) (735)
2 V
mas:

∂((Aassociacao − AGI )/T )


 
associativo 2 − X0 ∂X0
∆U = = N kB (736)
∂ (1/T ) 2X0 ∂ (1/T )

   
2 − X0
Z
∂X0  2 ED
N kB = − N (1 − X0 ) + N ρX0 g (1, 2)d(1, 2) (737)
2X0 ∂ (1/T ) 2 V

 (1 − X0 )2X0 + ρX03
 Z 
∂X0 ED
=− g (1, 2)d(1, 2) (738)
∂ (1/T ) 2k 2 − X0 V

Fazendo X0 →∞ quando T →∞

−e
 
Z
2  kB T
X0 + ρX0 e − 1 g ED (1, 2)d(1, 2) = 1 (739)

V

Introduzimos a saft para associar a contribuição associativa da equação, para isso


consideramos um fluido associativo dı́mero e relacionamos a fração de monômetro
no fluido com a distância de associação no poço quadrado e com isso conseguimos
definir duas coisas, uma coisa é o gás ideal com associação e outra é o sem associação.
partimos p calcular o fração de monômeros (e também dessa forma o número de
dı́meros) a partir daı́ é possı́vel calcular todas as propriedades.

0.21 Aula 21- 03/02


o que fizemos na aula passada foi como achar uma fração de monômeros no sistema.
X0 → fração de partı́culas que existem como monômeros.
1 − X0 → fração de partı́culas dimerizadas
Na aula passada colocamos a dimerização em um único sı́tio.
Como iremos estender isso para quando o monômero que tenho tem mais de um
sı́tio.

120
0.21.1 Extensão para múltiplos sı́tios
Como calcular a contribuição associativa quando o monômero tem mais de um sı́tio
associativo.
Vamos imaginar o seguinte sistema com os monômeros posicionados da seguinte
forma:
As bolinhas menores são os sı́tios de associação

Consideração: apenas estruturas lineares ou ramificadas são formadas, não há


formação de anéis.
XA → fração de moléculas não conectadas ao sı́tio A
N̄ → número de moléculas livres
" #
1X
N̄ = N 1 − (1 − XA ) (740)
2 A

O A nessa última equação é um ı́ndice e não necessariamente relacionado ao sı́tio


de associação A. Pode, então está relacionado ao A, B, C ...
O que eu sei usando da teoria do equilı́brio quı́mico é que:

µmonomero = µdimero = µ (741)

Da mecânica estatı́stica sei que:

µgas ideal
= kB T ln(ρi λ3 ) (742)

Posso dizer que


µmonomero = µdimero = kB T ln(ρ0 λ3 ) (743)

Aassociacao − AGI X0 1 X
= ln(X0 ) − + (XA − 1) (744)
N kB T 2 2 A

Consideração: a ligação em um sı́tio qualquer independe da ligação em outro


sı́tio. Isso me permite fazer:

X0 = ΠA XA (745)

121
A probabilidade de uma molécula está em um sı́tio é independente da probabi-
lidade de uma outra molécula estar em outro sı́tio.
Sendo:
M → o número de sı́tios de associação na molécula observo que:

Aassociacao − AGI X XA M
= ln(XA ) − + (746)
N kB T A
2 2

Utilizando Wertheim posso achar a seguinte relação:


 −e 
AB Z
X
XA + ρXA k
XB e B
 T −1 g ED (1, 2)d(1, 2) = 1 (747)
B V

Lembrando que
XA → fração de moléculas não conectadas ao sı́tio A.
Todo o segundo termo vai significar a fração de moléculas ligadas ao sı́tio A B
de uma outra molécula
então:

1
XA =  −e  (748)
AB

1 + ρ B XB e kB T − 1 V g ED (1, 2)d(1, 2)
P R

Para uma mistura de fluidos associativos:


( )
Aassociacao − AGI X X X Xi Mi
= xi xi ln(XAi ) − A + (749)
N kB T i i Ai
2 2

sendo:

−eij


AB Z
X X
i i
XA + XA ρxj XB e kB T − 1
i 
g ED (1, 2)d(1, 2) = 1 (750)

j Bi V

Então:

1
XAi = (751)
−eij
 
AB

1 + j ρxj Bi XBi e kB T − 1 V g ED (1, 2)d(1, 2)


P P  R

O objetivo é obter para obter a associação e resolver a equação 749. Mas para
obter essa equação eu preciso desse XAi que depende do potencial entre os sı́tios

122
A e B das moléculas i e j. Ao mesmo tempo que também depende da função de
distribuição radial entre as moléculas.
Até aqui não falamos em nenhum momento de regras de misturas, a mistura
pode ser calculada utilizando as propriedades individuais.

Equação SAFT

Essa equação diz que a energia residual é uma soma de contribuições:

aresidual a − aGI aseguimentos acadeia aassociacao


= = + + (752)
RT RT RT RT RT
Posso dizer que:

aresidual aref erencia apertubacao


= + (753)
RT RT RT

aref erencia aED acadeia aassociacao


= + + (754)
RT RT RT RT

apertubacao adispersao
= (755)
RT RT

Termo de associação
aassociacao X
 
XA M
= lnXA − + → componente puro (756)
RT A
2 2

1
XA = P (757)
1 + Na B ρX B ∆AB
∆AB → força de associação
Z re
AB AB
∆ = 4πF r2 g seg (r)dr (758)
0

AB
F AB =e T −1 (759)

Chapman vai aproximar da seguinte forma


" AB #
∆AB = d3 g seg (d)κAB e T − 1 (760)

Para o g seg (d) o chapman utilizou Carnahan Starlin

1
1− ν
g seg (d) = 2 (761)
(1 − ν)3

123
Sendo:

πN a 3
ν= ρd (762)
6
sendo:
AB → energia de associação
κAB → volume de associação.
Para misturas:
!
aassociacao X X XA i Mi
= xi lnXAi − + → mistura (763)
RT i Ai
2 2

1
XAi = (764)
ρj XBj ∆Ai Bj
P P
1 + Na j Bi

Sendo:

ρj = xj ρmistura (765)

e:
  
Ai Bj

∆Ai Bj = d3ij gijseg (d)κAi Bj e T − 1 (766)

e:

κAi Aj κBj Bj
κAi Bj = (767)
2


Ai Bj = Ai Ai Bj Bj (768)

O que vamos tentar fazer agora é se concentrar no termo de formação de cadeia

0.21.2 Termo da cadeia


Vamos supor que eu tenha uma quantidade de seguimentos que irão formar uma
cadeia.
Quero, dessa forma, forma uma conexão entre o seguimentos 1 e 2.
Posso dizer que a energia livre necessária para formar essa ligação é correspon-
dente ao trabalho (força vezes deslocamento) (lembrando que consideramos como se
o seguimento saı́sse do infinito para se conectar com o outro até uma distância de
conexão σ).
Z
Amono
lig =− σf (r)dr (769)

124
Mas quem é essa força? É uma força relacionada aos potenciais intermoleculares,
então depende de r.

∂u
.. e−βu −
R R
∂W dr3 dr1
f (r) = − = R R ∂r (770)
∂r .. e−βu dr3 dr1
Ao invés de contabilizar os pares dois a dois definimos um potencial de campo
médio.

W (r) = −kT lng(r) (771)

A energia para formar uma ligação será igual a:

Amono
lig = −kT lng(r) (772)

Essa foi a grande contribuição feita.

acadeia X
= xi (1 − mi )lngedii (dii ) (773)
RT i

mi → número de segmentos

125

Você também pode gostar