Você está na página 1de 98

FIS2101

Uma introdução à Termodinâmica


Estocástica: clássica e quântica

PUC-Rio - 2024.1

Welles A. M. Morgado
Contents
1. Ementa e Programa de Aulas 5
1.1. Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Avaliações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Ementa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Programa de aulas da disciplina . . . . . . . . . . . . . . . . . . . . . . . . 6

2. Fundamentos 9
2.1. O que é termodinâmica estocástica . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Porque isso funciona? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Termodinâmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1. Lei Zero da Termodinâmica . . . . . . . . . . . . . . . . . . . . . . 12
2.3.2. Primeira Lei da Termodinâmica . . . . . . . . . . . . . . . . . . . . 12
2.3.3. Segunda Lei da Termodinâmica . . . . . . . . . . . . . . . . . . . . 13
2.3.4. Propriedades da Entropia . . . . . . . . . . . . . . . . . . . . . . . 13
2.4. Eficiência Termodinâmica . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Energia-Livre e Energia-Livre de não-Equilı́brio . . . . . . . . . . . . . . . 20
2.6. Mecânica Estatı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.1. Gás ideal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7. Dinâmica Estocástica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.8. Equação Mestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.8.1. Corrente de probabilidade . . . . . . . . . . . . . . . . . . . . . . . 34
2.8.2. Balanço detalhado . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.8.3. Trajetórias de equações mestras: Integração de caminho . . . . . . 35
2.9. Equação de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.10. Equação de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.10.1. Integrais estocásticas . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.11. Informação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.11.1. Entropia: forma de Shannon . . . . . . . . . . . . . . . . . . . . . . 45
2.11.2. Interpretation of the Entropy formula . . . . . . . . . . . . . . . . 46
2.11.3. Conditional Entropy . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.11.4. Exemple: Monty Hall problem . . . . . . . . . . . . . . . . . . . . 49
2.11.5. Relative Entropy: Kullback-Leibler . . . . . . . . . . . . . . . . . . 51

3. Termodinâmica Estocástica 55
3.1. Sistemas isolados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2. Apenas o sistema de trabalho . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3. Trabalho e Calor em termodinâmica estocástica . . . . . . . . . . . . . . . 58

3
Contents

3.4. Calor mesoscópico e calor calorimétrico . . . . . . . . . . . . . . . . . . . . 60


3.5. Hidrólise de ATP por Miosina . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.6. Reservatórios Gerais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.7. Entropia estocástica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.8. Entropia estocástica e produção de entropia em sistema manipulado de
dois nı́veis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.9. Taxa de produção média de entropia . . . . . . . . . . . . . . . . . . . . . 69
3.10. Teoria de rede de Estados de não-equilı́brio estacionários (NESS) . . . . . 71
3.11. Reações quı́micas estocásticas . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.12. Teoria da Resposta Linear (LRT) . . . . . . . . . . . . . . . . . . . . . . . 76

A. Propriedades ergódicas de processos Markovianos com número finito de


estados 83
A.1. Equação Mestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
A.2. Positividade do estado estacionário . . . . . . . . . . . . . . . . . . . . . . 84
A.3. Desigualdade de Jensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

B. Dices and Entropies 87


B.1. Honest &independent dice . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
B.2. Tricked (completely correlated) dice: . . . . . . . . . . . . . . . . . . . . . 88
B.3. Partially tricked (partially correlated) dice: . . . . . . . . . . . . . . . . . 88

C. Formula de Itô e mapeamento Itô-Stratonovich 91


C.1. EL em Stratonovich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

About the Author 95

Bibliography 97

4
1. Ementa e Programa de Aulas

1.1. Bibliografia
Bibliografia Principal:
•Stochastic Thermodynamics, an introduction, Luca Peliti & Simone Pigolotti (Princeton
University Press) [Peliti and Pigolotti (2021)];
•Stochastic Energetics, Ken Sekimoto (Springer) [Sekimoto (2010a)].
•Quantum Open Systems, Breuer & Petruccione (Springer) [Breuer and Petruccione
(2002)].
Notas de aula e artigos de referência serão providenciados.

1.2. Avaliações
A avaliação do curso será baseada em 1 lista de exercı́cios (L1), 1 prova curta (P1), e um
trabalho (M1), e sua apresentação (que poderá ser online, por conveniência). A média
final para o curso será GF onde:

G1 = L1; G2 = P 1; G3 = M 1;
GF = 0.20 ∗ G1 + 0.40 ∗ G2 + 0.40 ∗ G3.

Critério de aprovação
Se GF ≥ 6.0 → passou.
Se GF < 6.0 → reprovado.

1.3. Ementa
Ementa – FIS2107 – Tópicos de fı́sica Teórica – Termodinâmica Estocástica - 2022.1 (18
aulas)

1. Fundamentos.

2. Termodinâmica Estocástica.

3. Teoremas de Flutuação.

4. Termodinâmica de Informação.

5. Teoria de Grandes Desvios (LDT).

5
1. Ementa e Programa de Aulas

6. Sistemas quânticos abertos

7. Equação de Lindblad

8. Aplicações Experimentais.

9. Novos Desenvolvimentos.

1.4. Programa de aulas da disciplina


A escala de aulas está dada na figura 1.4.

6
1.4. Programa de aulas da disciplina

Cronograma de Termodinâmica Estocástica (FIS2101) para 2024.1

segundas terças quartas quintas sextas

25/fev-1/mar MEU 1o DIA NA PUC

1 4-8/mar Inicio das Aulas 1 Fundamentos 1 Fundamentos

2 11-15/mar 1 Fundamentos 1 Fundamentos

3 18-22/mar 1 Fundamentos 1 Fundamentos

4 25-29/mar 1 Fundamentos FERIADO FERIADO

5 1-5/abr 2 Termodinâmica estocástica 2 Termodinâmica estocástica

6 8-12/abr 2 Termodinâmica estocástica 2 Termodinâmica estocástica

7 15-19/abr 2 Termodinâmica estocástica 3 Teoremas de Flutuação

8 22-26/abr RECESSO FERIADO 3 Teoremas de Flutuação

9 29/abr-3/mai 3 Teoremas de Flutuação FERIADO 3 Teoremas de Flutuação

10 6-10/mai 4 Termodinâmica da Informação 4 Termodinâmica da Informação

11 13-17/mai 4 Termodinâmica da Informação 4 Termodinâmica da Informação

12 20-24/mai 5 Grandes Desvios: Teoria e Prática 5 Grandes Desvios: Teoria e Prática

13 27-31/mai 6. Sistemas quânticos abertos FERIADO RECESSO

14 3-7/jun 6. Sistemas quânticos abertos 6. Sistemas quânticos abertos

15 10-14/jun 7. Equação de Lindblad 7. Equação de Lindblad

16 17-21/jun 7. Equação de Lindblad 7. Equação de Lindblad

17 24-28/jun L1 (24/06) P1 (25/06) 9 Aplicações Experimentais

18 1-5/jul 9 Aplicações Experimentais M1 (04/07) Término das atividades acadêmicas (6/6)

Figure 1.1.: Distribuições de aulas, datas de entrega das listas e prova.


7
2. Fundamentos

2.1. O que é termodinâmica estocástica

•Termodinâmica Estocástica se tornou um ramo bem estabelecido da fı́sica de não-


equilı́brio.
•O comportamento de sistemas mesoscópicos é, surpreendentemente, controlado por
relações muito gerais: teoremas de flutuação [Gallavotti and Cohen (1995)], Igualdade
de Jarzynski [Jarzynski (1997)], etc.
•Na sua forma mais simples Termodinâmica Estocástica (TE) é uma teoria termodinâmica
para sistemas mesoscópicos fora do equilı́brio, interagindo com reservatórios térmicos de
equilı́brio (e fontes de trabalho).
•Uma definição parecida feita por Sekimoto [Sekimoto (2010b)] fala da trı́ade: sistema
de interesse (S), reservatório térmico (Q) e sistema externo (W ).
•Vamos examinar com detalhe os termos acima:
i) Teoria termodinâmica: teoria que faz a correspondência entre termodinâmica mesoscópica
e termodinâmica macroscópica, como podemos ver na figura 2.1;
ii) Sistema fı́sico mesoscópico de não-equilı́brio: sistemas mesoscópicos serão definidos
como sistemas tais que a diferença tı́pica entre seus nı́veis de energia é da ordem de
kB T , ou seja, flutuações térmicas governam o comportamento dinâmico desses sistemas.
Por exemplo, partı́culas coloidais, macromoléculas, nanodispositivos, etc. Estes sistemas
podem ser levados para longe do equilı́brio por manipulação externa, como variações de
temperatura (aqui é mais Q) ou uso de pinças óticas (aqui é mais W). Em geral estes
são sistemas que podem ser descritos por equações de evolução estocásticas onde o ruı́do
modela as interações com o banho térmico;
iii) Interagindo: A estocasticidade dos sistemas mesoscópicos vem da interação com os
banhos térmicos. Mas a energia de interação vai sempre ser desprezada. Por exemplo:
seja uma partı́cula Browniana interagindo com um fluido, onde as colisões (tempo entre
colisões ∼ 10−10 s) modificam a velocidade da partı́cula. Mas a energia de interação é
importante (ordem de kB T ) apenas durante a colisão (duração da ordem de 10−12 s);
iv) Reservatórios térmicos de equilı́brio: Vamos assumir que os reservatórios de equilı́brio
relaxam rapidamente para o equilı́brio, mais rápido do que o sistema. Outra propriedade
importante é que quando um reservatório em equilı́brio interage com um sistema temos
ρeq
R → ρR (t) mas a distância de Kullback-Leibler destas distribuições é desprezı́vel
D ρR (t)||ρeq
R ≈ 0 [Esposito et al. (2010)]. Este aumento da distância de Kullback-
Leibler é uma quantificação do ganho de informação do reservatório (R) em relação ao
sistema (S).

9
2. Fundamentos

Figure 2.1.: Relações Micro-Meso-Macro.


10
2.2. Porque isso funciona?

2.2. Porque isso funciona?


•A evolução temporal de sistemas descritos por equações estocásticas é simplificada a
ponto de que alguns problemas fundamentais da fı́sica de não equilı́brio não se manifestam
nessa abordagem.
•Um exemplo é a emergência da natureza macroscópica irreversı́vel em um sistema de
muitos graus de liberdade governado por equações microscópicas reversı́veis.
•Observe que para a manifestação da irreversibilidade em um sistema não apenas a
dinâmica microscópica (reversı́vel) deve ser estabelecida, mas também a condição inicial
deve ser dada. É a partir desse ponto que a irreversibilidade aparece.
•Como as equações estocásticas já são irreversı́veis, este problema não existe ao lidarmos
com equações estocásticas.
•Evidências experimentais apontam na direção de que equações estocásticas, apesar de
seu caráter simplista reproduzem muitas das propriedades fı́sicas relevantes de sistemas
mesoscópicos.
•Na sequência vamos relembrar fundamentos básicos da termodinâmica macroscópica e
suas extensões para sistemas mesoscópicos.

2.3. Termodinâmica
•A termodinâmica estuda sistemas grandes (no limite eles tem um número infinito de
graus de liberdade) em contato com reservatórios térmicos e de trabalho.
•Os sistemas que a termodinâmica macroscópica estuda são sistemas de muitas partı́culas
em equilı́brio, ou seja, sistemas cujas variáveis termodinâmicas (pressão, temperatura,
volume, etc.) não variam no tempo. Isto mostra que as flutuações desses valores são
desprezı́veis.
•Mesmo que um sistema termodinâmico tenha começado um processo em um estado de
não-equilı́brio, ao atingir o equilı́brio o efeito da memória da condição inicial é totalmente
perdido.
•Isso é consistente com o fato de que o estado de equilı́brio é o de menor informação
possı́vel, dados os vı́nculos termodinâmicos. Ou seja, é o estado de maior entropia.
•Em alguns casos, como vidros estruturais, tem um tempo muito grande de decaimento
ao equilı́brio, mas não trataremos destes casos.
•A termodinâmica lida com dois tipos essenciais de trocas:
a) Transformações adiabáticas: neste tipo de troca de energia o sistema está isolado
termicamente (ou simplesmente não tem tempo suficiente para trocar calor) de modo que
Q = 0 e apenas trabalho (energia em transito em forma ordenada) é trocado. Mesmo que
o sistema seja colocado em um estado de não equilı́brio o trabalho total trocado ainda
pode ser bem definido.
b) Trocas de calor: estas são trocas de energia microscópicas, sem possibilidade de con-
trole (trabalho microscópico realizado de forma desordenada), que ocorrem entre sistema
e banho térmico.

11
2. Fundamentos

•Mais a frente veremos que adiabático (Q = 0) e isentrópico (∆S = 0) são processos


distintos: apenas no caso reversı́vel quase-estático eles correspondem ao mesmo caso.
•Toda transformação pode ser decomposta em uma série de transformações adiabáticas
e trocas de calor.

2.3.1. Lei Zero da Termodinâmica


•Sejam dois sistemas T e S1 grandes o suficiente para que ao serem colocados em contato
um com o outro entrem em equilı́brio. Se um terceiro sistema S2 também está em
equilı́brio com T , popdemos dizer:
“Se T está simultaneamente em equilı́brio com S1 e com S2 , então S1 e S2 estão em
equilı́brio entre si (LEI ZERO)”.
•Ao sistema de referência T podemos chamar de termostato. Suporemos que esse sistema
seja pequeno o suficiente (apesar de possuir muitos graus de liberdade) de modo a não
perturbar os sistemas com os quais entra em contato. Se selecionarmos uma variável
de T (como por exemplo o volume de uma certa quantidade de mercúrio, sendo este o
sistema T ) e calibrarmos os valores desta variável, teremos então um termômetro.
•Se o sistema S0 ≫ S1 , S2 ele será um reservatório térmico.

2.3.2. Primeira Lei da Termodinâmica


•Durante uma transformação adiabática a conservação da energia impõe que a variação
da energia interna do sistema tem que ser igual ao trabalho externo realizado sobre o
sistema:
∆E = Ef − Ei = W = Wad .
•Quando a transformação não é adiabática, ou seja, quando existe troca de calor entre
sistema e reservatório, a diferença entre a variação da energia interna do sistema e do
trabalho corresponde ao calor trocado

Q = ∆E − W.

•A 1a LEI DA TERMODINÂMICA (ou seja, a lei da conservação da energia) é dada


por
∆E = W + Q. (2.1)
•Vamos aqui seguir a convenção usual de que trabalho e calor correspondem a trabalho
e calor realizados sobre o sistema.
•Seja um estado de equilı́brio do sistema E0 . Existem outros estados de equlı́brio E que
não podem ser alcançados a partir de E0 por uma transformação adiabática mas existem
transformações adiabáticas que fazem E → E0 . Este é um exemplo de irreversibilidade
na termodinâmica clássica.
•Como um exemplo, seja um gás ideal em equilı́brio em um volume V , com energia interna
E (estado E). Esse mesmo gás pode estar em equilı́brio com volume V0 = 2V e energia
interna também igual a E (estado E0 ). Observe que uma transformação adiabática que
levasse o gás de V0 = 2V → V realizaria trabalho sobre o sistema alterando sua energia

12
2.3. Termodinâmica

interna. Porém existe uma transformação adiabática, a expansão livre (processo irre-
versı́vel), que leva o gás de V → V0 = 2V sem alterar sua energia interna (Q = W = 0),
e a transição E → E0 é possı́vel!

2.3.3. Segunda Lei da Termodinâmica


•O conceito de entropia vai nos ajudar a caracterizar a irreversibilidade do processo.
Em processos irreversı́veis a entropia total de sistema e banho térmico aumenta. Em
processos reversı́veis essa mesma entropia total fica constante.
•A entropia é definida como uma função de estado de um sistema termodinâmico em
equilı́brio.
•A segunda lei da termodinâmica lida com a irreversibilidade das transformações ter-
modinâmicas.
•Portanto, a 2a LEI DA TERMODINÂMICA pode ser especificada por: “dado um sis-
tema completamente isolado, sua entropia não pode decrescer.”
•Mencionando (só de passagem): a 3a Lei da Termodinâmica é uma consequência do
estado fundamental do sistema ter uma degenerescência finita.

2.3.4. Propriedades da Entropia


•Devemos lembrar que a entropia é função de estado das variáveis extensivas do sistema

S ≡ S(E, V, N, . . .).

Aditividade
•Se um sistema S é constituı́do por vários subsistemas em equilı́brio
[
S= Sn , onde Sn ∩ Sm̸=n = ∅,
n

a entropia termodinâmica total é a soma das entropias das partes


X
S (S) = S (Sn ) .
n

•Observe que acima supomos que os subsistemas são descorrelacionados, ou seja não
teremos informação mútua entre eles. Esta hipótese dificilmente será completamente
válida para sistemas meso- ou microscópicos.
•Portanto para sistemas termodinâmicos sem complicações tradicionais (tais como in-
terações de longo alcance, estruturas fractais ou porosidade interna importante) a adi-
tividade leva à extensividade da entropia do sistema, ou seja, a entropia é proporcional
ao tamanho do sistema (N , V , etc.).
•Escalando as variáveis extensivas do sistema por um fator λ, a entropia escala pelo
mesmo fator:
S(λ E, λ V, λ N, . . .) = λ S(E, V, N, . . .),
ou seja, a entropia é uma função homogênea de grau 1.

13
2. Fundamentos

Monotonicidade
•Mantendo todas as outras variáveis constantes, a entropia S = S(E) cresce com a
energia interna E
∂E S > 0.
•Esta hipótese falha quando os nı́veis de energia do sistema são limitados por cima.

Concavidade
•A entropia é uma função côncava, ou seja, dados dois estados de equilı́brio, E0 (N, V0 , E0 )
e E1 (N, V1 , E1 ), se definimos um estado intermediário Eα com 0 ≤ α ≤ 1 dado por

Eα (N, α V0 + (1 − α) V1 , α E0 + (1 − α) E1 ),

temos que
S (Eα ) ≥ α S (E0 ) + (1 − α) S (Eα ) .

Figure 2.2.: figura côncava.

•A figura 2.2 mostra uma figura côncava.

14
2.3. Termodinâmica

Temperatura
•A temperatura é a quantidade térmica que caracteriza o equilı́brio térmico: dois sistemas
estão em equilı́brio térmico se estão na mesma temperatura.
•Dado um sistema, mantendo todas as variáveis extensivas, exceto a energia interna
constante, definimos a temperatura T do sistema via

1 ∂S
= .
T ∂E
•Se dois sistemas S1 e S2 estão em equilı́brio térmico, a energia interna total é constante
e a entropia total em equilı́brio é dada pela soma das entropias de cada subsistema:

E = E1 + E2 ,
S(E) = S(E1 ) + S(E2 ).

•No equilı́brio a entropia total será máxima. Assim uma variação δE1 = −δE2 não leva
a nenhuma modificação da entropia total
 
∂S1 ∂S2 δE1 δE2 1 1
δS(E) = δE1 + δE2 = + = δE1 − = 0 ⇒ T1 = T2 .
∂E1 ∂E2 T1 T2 T1 T2

Troca de calor
•Se dois sistemas em contato um com o outro não trocam trabalho, o sistema de maior
temperatura fornecerá calor espontaneamente para o sistema de menor temperatura.
Após um certo tempo, que pode ser longo, eles atingirão a mesma temperatura e estarão
em equilı́brio sem mais transferências de calor.
•Podemos representar o parágrafo acima (os argumentos com linha são o equilı́brio fi-
nal) usando algumas propriedades de concavidade, ilustradas na figura 2.3. Vemos na
figura 2.3(b) que, após voltar a equilibrar, a entropia final do sistema é dada por (lem-
brando que E1f − E1i = −(E2f − E2i ))

S ′ = S1 (E1f ) + S2 (E2f )
E1f − E1i E f − E2i
≤ S1 (E1i ) ++ S2 (E2i ) + 2
T1 T2
 
1 1
≤ S1 (E1i ) + S2 (E2i ) + (E1f − E1i ) −
T1 T2
 
1 1
⇒ (S1 (E1f ) + S2 (E2f )) − (S1 (E1i ) + S2 (E2i )) ≤ (E1f − E1i ) − .
T1 T2

Como devido à segunda lei da termodinâmica temos


 
1 1
(S1 (E1f ) + S2 (E2f )) − (S1 (E1i ) + S2 (E2i )) ≥0⇒ (E1f − E1i ) − ≥ 0.
T1 T2

15
2. Fundamentos

Figure 2.3.: a) Entropia total côncava. b) curva de entropia côncava ao longo de E1 +


E2 = E.

•Portanto, se T1 > T2 ⇒ E1f − E1i < 0, ou seja, o subsistema S1 perde energia para o
subsistema S2 , e vice versa. Se T1 = T2 ⇒ E1f = E1i , e nada acontece.
•A constatação acima é representada pelo enunciado de Clausius da segunda lei da ter-
modinâmica:
“Calor não pode passar de um corpo mais frio para um corpo mais quente, sem alguma
outra troca (W) acontecendo simultaneamente.”

Exemplo
•Seja um cilindro contendo n moles de um gás ideal que satisfaz

P V = n R T.

•O trabalho (sobre o sistema, que não produz entropia por ser quase-estático) é dado

16
2.3. Termodinâmica

por
dW = −p dV.

•Se o sistema está termicamente isolado temos então dE = dW.


•Como a energia interna de um gás ideal só depende da temperatura (não há interação en-
tre as moléculas de um gás ideal) temos para E ≡ E(S, V ) & S ≡ S(T, V ) ⇒ E(S(T, V ), V ) ≡
E(T, V ):
   
∂E ∂E ∂E ∂S
0= = +
∂V T ∂V S ∂S V ∂V T

•De acima vemos que


 
∂E ∂E
dE = dW = −p dV = dV ⇒ = −p,
∂V S ∂V S

e como 
∂E
= T,
∂S V

temos então  
∂S ∂S p
0 = −p + T ⇒ = .
∂V T ∂V T T

•A variação isotérmica da entropia é dada então por


Z Vf  Z Vf Z Vf  
∂S p nR Vf
∆S = dV = dV = dV = n R ln .
Vi ∂V T Vi T Vi V Vi

•Portanto, apenas se Vf > Vi o processo pode ocorrer espontaneamente (pois assim


∆S > 0). Este é o caso da expansão livre.
•Um outro postulado importante da segunda lei é o postulado de Kevin-Planck
“ É impossı́vel criar uma máquina térmica operado em ciclos cujo único efeito seja absorver
energia, na forma de calor, de um único reservatório e realizar uma quantidade igual de
trabalho.”
•Operando a máquina térmica reversivelmente, ao final do ciclo a mesma, e sua entropia
estão de volta ao estado inicial. O reservatório perdeu calor, ou seja, entropia, por uma
quantidade
Wrealizado
∆SR = − < 0,
T
e portanto a entropia de sistema e reservatório, que estão termicamente isolados do resto
Universo, diminuiu! Isto é impossı́vel.
•Por isso uma máquina térmica necessita, além de um reservatório térmico (quente) de
onde receber a energia térmica (source), de um outro reservatório térmico (dito frio) que
aja como um sumidouro para a entropia absorvida do reservatório quente e/ou produzida
pelo funcionamento da máquina.

17
2. Fundamentos

2.4. Eficiência Termodinâmica


•Como vimos uma máquina térmica necessita (pelo menos um) reservatório quente que
fornecerá a quantidade de energia Ehot para o sistema, (pelo menos) um reservatório frio
que receberá a entropia gerada pelo funcionamento da máquina na forma de calor (Ecold ).
A máquina receberá, em um ciclo, uma quantidade de trabalho igual a W = Ecold − Ehot
(lembrando aqui nossas convenções de sinais para calor e trabalho).
•A mudança total de entropia que acontece em uma máquina térmica é dada pela soma

∆Stot = ∆Ssys + Sres ,

onde ∆Ssys é a variação da entropia da máquina, e Sres é a troca de entropia dos


reservatórios.
•Considerando que em um ciclo temos ∆Ssys = 0, e que a variação da entropia dos
reservatórios é
Ehot Ecold
Sres = Shot + Scold = − + = ∆Stot ≥ 0.
Thot Tcold
•Se os processos da máquina são reversı́veis, então a entropia total se mantêm constante
e ∆Stot = 0. Neste caso temos que
Shot Ehot Tcold
− = = 1.
Scold Ecold Thot
•No caso geral
Ecold Ehot
≥ ,
Tcold Thot
a desigualdade sendo válida quando processos irreversı́veis acontecem durante o ciclo.
•Podemos escrever o trabalho realizado pela máquina (Wmaq = −W ) então como
 
Tcold
−W = Ehot − Ecold ≤ Ehot 1 − ,
Thot

onde a igualdade vale para máquinas reversı́veis e a desigualdade para máquinas irre-
versı́veis.
•A maneira tradicional como a eficiência de uma máquina térmica ηth é definida é a razão
entre o trabalho e o calor absorvido
W
ηth = − . (2.2)
Ehot
•Portanto vemos que  
W Tcold
ηth = − ≤ 1− = ηC ,
Ehot Thot
onde definimos a eficiência de Carnot ηC por
Tcold
ηC = 1 − .
Thot

18
2.4. Eficiência Termodinâmica

•Contudo, recentemente o papel da informação tem sido cada vez maior nos estudos
termodinâmicos de sistemas mesoscópicos. Assim, uma nova definição de eficiência se
torna mais interessante: apenas usando conceitos informacionais.
•Durante a operação da máquina térmica uma quantidade de entropia Sin = Shot é
absorvida do reservatório quente. Um quantidade de entropia ∆Ssys,antes pode ser
produzida durante o ciclo (se os processos forem irreversı́veis) e deve ser rejeitada no
reservatório junto com a entropia recebida do reservatório quente Sout = −Scold =
−Shot − ∆Ssys,antes .
•Assim, definimos a eficiência entropica ηS como

Sin
ηS = − ≤ 1. (2.3)
Sout

•Em um processo de Carnot temos

Sin
ηSC = − = 1,
Sout
e portanto ηS ≤ ηSC .
•Algumas observações sobre esta nova definição de eficiência.

1. Podemos calcular
Sin
ηS = −
Sout
Ehot
TH
= − Ehot +W
− TC
TC
= .
TH (1 − ηth )

2. Observe que se ηth = ηC = 1 − TC /TH temos

TC
ηS = = 1.
TH (1 − 1 + TC /TH )

3. Por outro lado, se ηth = 0 temos

TC
ηS = ̸= 0,
TH

apesar de que a máquina é completamente ineficiente. Se ηS < TC /TH ⇔ ηth < 0


e a máquina é um “dud”.

4. O caso de múltiplos reservatórios é mais interessante. Seja um ciclo de Otto


(reversı́vel) onde: (p1 , V1 ) → (p2 , V1 ) isocórico; (p2 , V1 ) → (p3 , V3 ) isentrópico;
(p3 , V3 ) → (p4 , V3 ) isocórico; (p4 , V3 ) → (p1 , V1 ) isentrópico. Vemos que a entropia

19
2. Fundamentos

Sin entra de 1→2 e Sout sai de 3→4. A substância de trabalho é um gás ideal que
obedece p V = n R T . Temos ainda as relações dos ramos adiabáticos

p1 V1γ = p4 V3γ ,
p2 V1γ = p3 V3γ .

Para calcular Sin no ramo isocórico temos


n CV dT
dSin =
T
n CV Vn dp
R
= pV
nR
dp
= n CV
p
p2
⇒ Sin = n CV ln .
p1
Do mesmo modo temos
p4
Sout = n CV ln .
p3
Como das relações adiabáticas é fácil verificar que
p1 p4 Sin
= ⇒ Sin = −Sout ⇒ ηS = − = 1.
p2 p3 Sout

5. O caso anterior é geral. Todo ciclo reversı́vel pode ser subdividido em processos de
Carnot microscópicos e a entropia total que entra nesses processos é exatamente
igual a entropia total que sai, e portanto ηS = 1. Isso mostra que a nova eficiência
ηS é, na verdade, uma medida da irreversibilidade do processo.

2.5. Energia-Livre e Energia-Livre de não-Equilı́brio


•Nesta seção introduziremos uma nova quantidade, algo que não tem uma definição na
termodinâmica clássica: a energia-livre de não-equilı́brio.
•Primeiramente, iremos desenvolver as ideias da energia-livre (ou seja, energia útil)
clássica.
•Por simplicidade trabalharemos com uma energia função de poucas variáveis extensivas
(a generalização deve ser direta): (S, N, V, . . .).
•Quando um sistema é colocado em contato com um reservatório térmico (T ), sua energia
interna E e sua entropia S ficam determinadas pela interação com o reservatório.
•Para expressar as propriedades do sistema em função de T ao invés de S podemos fazer
uma mudança de variáveis via uma transformação de Legendre. Como

∂E
T = ,
∂S N,V

20
2.5. Energia-Livre e Energia-Livre de não-Equilı́brio

podemos definir a energia-livre pela transformação

F (T, N, V ) = MinS {E(S, N, V ) − T S} ,

onde o máximo será dado quando


(E(S, N, V ) − T S) = 0.
∂S S=S ∗

Ou seja:
F (T, N, V ) = E(S ∗ (T, V, N ), N, V ) − T S ∗ (T, V, N ).
•Temos 
∂E
T = = T (S ∗ , N, V ) ⇒ S ∗ ≡ S ∗ (T, V, N ).
∂S N,V

•Portanto
∂S ∗ ∂E ∂S ∗

∗ ∗ ∂F ∗
F (T, N, V ) = E(S (T, V, N ), N, V )−T S (T, V, N ) ⇒ = −S −T = −S ∗ .
∂T N,V ∂T ∂S ∗ ∂T

•Do mesmo modo temos 


∂F
= −p.
∂V T,V

Relações de Maxwell
•Da comutatividade das derivadas do potencial termodinâmico podemos escrever:

∂2F ∂2F
   
∂S ∂p
− = = =− . (2.4)
∂V T,N ∂V ∂T ∂T ∂V ∂T V,N

Este é um exemplo de uma relação de Maxwell.

Energia livre de não-equilı́brio


•No equilı́brio a energia-livre de Helmholtz é o valor extremizado (minimizado), com
relação a S de E(S, N, V ) − T S.
•Esse conceito pode ser estendido para situações fora do equilı́brio quando deixamos de
lado a necessidade da extremização. Mas qual é a razão para estender esse conceito?
•Devido à 2a lei, a entropia total do sistema e reservatório térmico não pode decrescer

Stot = ∆Ssys + Sres ≥ 0 ⇒ Sres ≥ −∆Ssys .

•Como consideramos o reservatório sempre em equilı́brio, podemos escrever a variação


da energia interna do sistema como

∆E = W + Q = W − T Sres .

21
2. Fundamentos

•Uma pequena manipulação:

W = ∆E + T Sres ≥ ∆E − T ∆Ssys .

•Se o sistema passa por um processo reversı́vel, não há produção de entropia e E −
T ∆Ssys = ∆F (a variação da energia-livre de equilı́brio).
•O valor da energia-livre de equilı́brio é atingido quando a expressão E − T ∆Ssys atinge
seu valor mı́nimo. Isso justifica a definição da Energia-Livre de Não-Equilı́brio (ELNEQ)

Fneq (T, S, N, V ) = E(S, N, V ) − T S. (2.5)

•A relação entre a energia-livre de não equilı́brio, Eq. 2.5, e a energia livre de equilı́brio
é dada pela minimização

F (T, V, N ) = MinS Fneq (T, S, V, N ).

•Claramente, a ELNEQ não pode ser um potencial termodinâmico pois depende ao


mesmo tempo de variáveis termodinâmicas conjugadas (T, S).
•A ELNEQ pode ser considerada como um limite (bound) para o trabalho extraı́vel do
sistema.

Alguns potenciais termodinâmicos


•Esses potenciais diferem com relação a quais potenciais são mais apropriados para quais
aplicações.
•Para processos isotérmicos, observe que a energia-livre de Helmholtz, que varia como

dF = −S dT − p dV + µ dN,

é muito apropriada pois dT = 0.


•Para processos isobáricos (dp = 0) a entalpia H = E + p V é mais apropriada pois

dH = T dS + V dp + µ dN.

•Para um sistema em contato com reservatório térmico e mantido em pressão constante


(dT = dp = 0), a energia-livre de Gibbs é a mais apropriada. A energia-livre de Gibbs é
dada por
G(T, p, N ) = E − T S + p V.
•O potencial quı́mico µ é dado por

∂F
µ= .
∂N T,V

•Dado que a entropia é homogênea de ordem 1

λ S(E, V, N ) = S(λ E, λ V, λ N ),

22
2.6. Mecânica Estatı́stica

derivando por λ temos (em λ = 1)


  
∂S(λ E, λ V, λ N ) ∂S(λ E, λ V, λ N ) ∂S(λ E, λ V, λ N )
S(E, V, N ) = E+ V + N
∂E λ=1 ∂V λ=1 ∂N λ=1
1 p µ
= E + V − N,
T T T

e de onde
E = T S − p V + µ N.

•Assim, a energia-livre de Gibbs é

G = E − T S + p V = µ N.

•Portanto:
G(T, p, N )
µ(T, p) = .
N
•Quando o trabalho quı́mico é devido a múltiplas espécies que podem estar realizando
reações
X
dEQ = µi dNi ,
i

o potencial fora do equilı́brio apropriado para o caso onde muitos reservatórios de partı́culas
estão presentes (que mantêm os µi cosntantes) é então
X
Φ(E, T, V, µ1 , N1 , . . . , µm , Nm ) = E − T S − µi dNi .
i

•O potencial em equilı́brio é obtido extremizando Φ em (S, {Ni }).

2.6. Mecânica Estatı́stica


•A mecânica estatı́stica liga a descrição microscópica de um sistema macroscópico em
equilı́brio ao seu comportamento termodinâmico.
•Um estado macroscópico do sistema é determinado por suas variáveis termodinâmicas:
(E, V, N, T, p, . . .).
•Vamos supor que os estados microscópicos ξ do sistema são discretos (enumeráveis),
ξ ∈ {1, 2, . . .}.
•Para um sistema clássico esses estados microscópicos representam as posições e momen-
tos das moléculas do sistema.
•Para um estado de não equilı́brio a distribuição de probabilidades é pξ . para equilı́brio
usaremos peq ξ .

23
2. Fundamentos

Postulado Fundamental da Mecânica Estatı́stica


•Se W microestados são compatı́veis com os valores dos observáveis termodinâmicos, no
equilı́brio todos os estados microscópicos são equiprováveis e iguais a
1
pξ = .
W
•A distribuição acima se chama distribuição microcanônica.
•A entropia é dada então por
S = kB ln W,
onde a constante de Boltzmann é kB ≈ 1.384 × 10−23 J/K.
•A idéia de distribuição microcanônica, ou ensemble (quer dizer conjunto em francês)
microcanônico, é que podemos substituir uma evolução temporal do sistema ( ou seja pξ
corresponde à fração do tempo tı́pica em que o sistema passa no microstado ξ) por um
conjunto de W cópias do sistema onde todos os estados de equilı́brio estão representados.
A primeira interpretação é devida a Boltzmann e a segunda a Gibbs.
•Observe que, em termos qualitativos, para um sistema de N partı́culas microscópicas,
o valor do número de estados microscópicos do ensemble pode ser representado por
(lembre-se que a entropia é extensiva)

W ∼ 10N .

•O limite termodinâmico (LT) é obtido quando N → ∞ e

V /N ∼ E/N ∼ constante.

•No LT as flutuações das variáveis termodinâmicas de um sistema são completamente


desprezı́veis. Isso não será o caso de sistemas mesoscópicos para os quais N não é tão
grande.
•No equilı́brio, em contato apenas com um reservatório térmico na temperatura T ,
onde usaremos β = 1/(kB T ), a distribuição canônica de equilı́brio é a distribuição de
Boltzmann-Gibbs
e−β ϵξ
peq
ξ = ,
Z
onde a função de partição é dada por
X
Z= e−β ϵξ .
ξ

Observe que a função de partição é uma contagem especial de estados com peso, o dito
peso de Boltzmann e−β ϵξ .
•A energia-livre de Helmholtz é

F = −kB T ln Z.

A probabilidade do microstado pode então ser expressa como

peq
ξ =e
β (F −ϵξ )
.

24
2.6. Mecânica Estatı́stica

2.6.1. Gás ideal


•Um gás ideal é um sistema formado por N partı́culas pontuais, que não interagem entre
si, mas podem interagir mecânica e termicamente com as paredes do sistema.
•Devemos dividir por N ! (eliminar sobrecontagem) e h3N (conexão com a fı́sica quântica
microscópica).
•Podemos escrever a energia livre então
N  3
d ri d3 pi p2i
Z Y  
1
F = −kB T ln Z = F = −kB T ln exp −
N! h3N 2 kB T
i=1

•Usando Stirling
ln N ! ≈ N ln N − N,
temos (e = 2, 718281828 . . .)
" 3/2 #
h2 N λ3th
  
N
F = N kB T ln = N kB T ln ,
eV 2 π m kB T eV

onde usamos o comprimento de de Broglie térmico


h
λth = √ .
2 π m kB T
•Quando a fração de volume ocupada pelas funções de onda é da ordem de 1,

N λ3th
∼ 1,
V
efeitos quânticos serão importantes. Para temperaturas altas N λ3th /V ≪ 1 e a descrição
clássica dá bons resultados.

Potencial quı́mico
•O potencial quı́mico é dado por

N λ3th

∂F N
µ= = kB T ln = kB T ln + µ0 (T, N ),
∂N T,V V V

onde µ0 (T, N ) = kB T ln λ3th , não depende da concentração.

Pressão
•A pressão é dada por 
∂F N kB T
p=− = ,
∂V T,N V
que é a equação de estado do gás ideal.

25
2. Fundamentos

Relação de Flutuação-Dissipação

•Observe que
ϵ
∂ 1 X − ξ
− ln Z = ϵξ e kB T = ⟨ϵ⟩eq .
∂β β=1/kB T Z
ξ

•A média, ⟨⟨ϵ⟩⟩eq = ⟨ϵ⟩eq , é o primeiro cumulante da distribuição de equilı́brio do sistema.


•O segundo cumulante é obtido de maneira análoga
 ϵξ
2
ϵξ P −
ξ ϵξ e kB T
2 2 −
P
ξ ϵξ e
kB T


− ln Z = − = ϵ2 eq
− ⟨ϵ⟩2eq .
∂β Z Z2

•O segundo cumulante da energia acima, ϵ2 eq = ϵ2 eq − ⟨ϵ⟩2eq , se chama variância.


•A função ln Z se comporta como uma espécie de função geradora de cumulantes. No
caso da energia podemos escrever então que o n-ésimo cumulante é dado por
 n
n ∂
⟨⟨ϵ ⟩⟩eq = − ln Z .
∂β β=1/kB T

•Observe que cada cumulante é uma variável extensiva pois é proporcional a ln Z ∼ N.


•Veja que
  ϵξ
2 
ϵξ P −
ξ ϵξ e kB T
∂ 1  P ϵ2 e− kB T  ϵ2 eq
 ξ ξ
⟨ϵ⟩eq = − = ,

∂T kB T 2 Z Z2 kB T 2

 

e portanto

ϵ2 eq
= kB T 2 ⟨ϵ⟩eq = kB T 2 C, (2.6)
∂T
onde C é o calor especı́fico do sistema.
•A equação 2.6 é um exemplo de uma relação de flutuação-dissipação.
•A flutuação relativa da energia é dada por


q
⟨⟨ϵ2 ⟩⟩eq N 1
∼ =√ .
⟨⟨ϵ⟩⟩eq N N

Para sistemas da ordem de N ∼ 1024 , a flutuação da energia é da ordem de uma parte


em um trilhão. Para sistemas macroscópicos, podemos considerar que a termodinâmica
é basicamente determinı́stica em suas predições.

26
2.6. Mecânica Estatı́stica

Ensemble grão-canônico
•Neste caso o sistema está em contato com um reservatório de partı́culas além do reser-
vatório térmico. Em equilı́brio teremos

dT = dµ = 0.

•A distribuição de probabilidades de equilı́brio para o microestado ξ do sistema, em


contato apenas com um reservatório térmico na temperatura T e um reservatório de
partı́culas com potencial quı́mico µ, onde usaremos β = 1/(kB T ) e α = µ/(kB T ) = βµ,
a distribuição grão-canônica de equilı́brio é

e−β (ϵξ −µ Nξ )
peq
ξ = ,
Zgc

onde a função grão-canônica de partição é dada por


X
Zgc = eα Nξ −β ϵξ .
ξ

Observe que a função grão-canônica de partição também é uma contagem especial de


estados com peso.
•Podemos observar também que ln Zgc é uma função geradora de cumulantes para N e
ϵ.
•Assim  m 
∂ n


− ln Zgc = ⟨⟨N m ϵn ⟩⟩eq .
∂α ∂β
•Exemplos:
 

⟨⟨ϵ⟩⟩eq = − ln Zgc ,
∂β
= ⟨ϵ⟩eq ,
 

⟨⟨N ⟩⟩eq = ln Zgc ,
∂α
= ⟨N ⟩eq ,
  
∂ ∂
⟨⟨N ϵ⟩⟩eq = − ln Zgc ,
∂α ∂β
= ⟨N ϵ⟩eq − ⟨N ⟩eq ⟨ϵ⟩eq ,
 2

N2 eq
= ln Zgc ,
∂α
= N2 eq
− ⟨N ⟩2eq ,

etc.

27
2. Fundamentos

Flutuações de energia e entropia


•No ensemble canônico a energia é uma quantidade flutuante (e não fixa como é no caso
microcanônico).
•Para calcular a distribuição da energia vamos usar o princı́pio de Boltzmann-Einstein:
X
S(E) = kB ln W(E) = kB ln δ(ϵξ − E),
ξ

que relaciona entropia e o número de estados com energia determinada.


•Usando o ensemble canônico temos a distribuição da energia:
X eq
peq (E) = pξ δ(ϵξ − E)
ξ
X
= eβ (F −ϵξ ) δ(ϵξ − E)
ξ
X
β (F −E)
= e δ(ϵξ − E)
ξ
S(E)
= eβ (F −E) e kB
E−T S(E)−F

= e kB T
. (2.7)

•Observe que o termo do numerador do argumento da Eq. 2.7 corresponde à diferença


entre a energia-livre de não equilı́brio F neq (T, S) = E − T S(E) e a energia-livre de
equilı́brio F = F (T ).
•Esse raciocı́nio pode ser estendido a outros observáveis. Para
X
S(E, A) = kB ln δ(ϵξ − E) δ(aξ − A),
ξ

temos
E−T S(E,A)−F

peq (E, A) = e kB T
.

2.7. Dinâmica Estocástica


•Devido à interação com o banho térmico, se representarmos o estado discreto do sistema
por x, no tempo t, a probabilidade de que o sistema esteja nesse estado é px (t) (p(x, t)
se o sistema for contı́nuo).
•Outra maneira de abordar o problema é estudar a “trajetória” do sistema

x ≡ (x(t)), (2.8)

onde a trajetória é definida sobre um intervalo de tempo.


•As trajetórias do sistema apresentam aleatoriedade, e sua representação por uma variável
estocástica dependente do tempo é dito um processo estocástico.

28
2.7. Dinâmica Estocástica

•Uma hipótese simplificadora acontece quando as variáveis escolhidas para representar


a evolução temporal de um sistema tem uma duração da memória curta em comparação
com a escala de medida do sistema. Isto determina o grau de precisão da escala temporal
para a evolução do sistema: tem que ser mais impreciso do que o tempo de decaimento
da memória.
•Mais especificamente, quando apenas necessitamos da informação presente para poder-
mos determinar as probabilidades futuras para o sistema [Feller (1950)]. Quando isso
acontece dizemos que o sistema tem uma evolução Markoviana.
•Para um sistema Markoviano, a probabilidade condicional é definida como 1

px,t|xn ,tn ;xn−1 ,tn−1 ;...;x1 ,t1 ;x0 ,t0 = px,t|xn ,tn .

•Por exemplo, uma partı́cula Browniana descrita apenas por sua posição não é um pro-
cesso Markoviano. Contudo se descrevemos a dinâmica da partı́cula Browniana por sua
posição e velocidade o processo passa a ser Markoviano [van Kampen (1992)].

Equações de Chapman-Kolmogorov
•Todo processo Markoviano a 1-pulo, tal como px,t|xn ,tn pode ser escrito como a soma de
processoa a dois pulos, passando por uma posição intermediária.
•Seja px,t;xj ,tj ;x0 ,t0 :
X
px,t;x0 ,t0 = px,t;xj ,tj ;x0 ,t0
xj
X px,t;xj ,tj ;x0 ,t0 pxj ,tj ;x0 ,t0
= px0 ,t0
xj
pxj ,tj ;x0 ,t0 px0 ,t0
px,t;x0 ,t0 X px,t;xj ,tj ;x0 ,t0 pxj ,tj ;x0 ,t0
⇒ =
px0 ,t0 xj
pxj ,tj ;x0 ,t0 px0 ,t0
X
⇒ px,t|x0 ,t0 = px,t|xj ,tj ;x0 ,t0 pxj ,tj |x0 ,t0
xj
X
⇒ px,t|x0 ,t0 = px,t|xj ,tj pxj ,tj |x0 ,t0 , (2.9)
xj

onde a Eq. 2.9 é a Equação de Chapman-Kolmogorov.


•A probabilidade condicional (ou de 1-pulo) é a probabilidade de transição para o prob-
lema.
•A probabilidade condicional px,t|x0 ,t0 também é chamada de propagador ou Função de
Green para o processo.
•Observe que X px,t;x ,t
X
0 0 px ,t
px,t|x0 ,t0 = = 0 0 = 1.
x x
px0 ,t0 px0 ,t0
1
A probabilidade que o evento A aconteça, dado que o evento B é verdadeiro é P (A|B) =
P (A, B)/P (B), conhecida como a regra de Bayes.

29
2. Fundamentos

•Observe também que podemos relacionar as probabilidades em tempos diferentes:


px,t;x0 ,t0 X pxj ,tj ;x0 ,t0
= px,t|xj ,tj
px0 ,t0 xj
px0 ,t0
X
⇒ px,t;x0 ,t0 = px,t|xj ,tj pxj ,tj ;x0 ,t0
xj
X X X
⇒ px,t;x0 ,t0 = px,t|xj ,tj pxj ,tj ;x0 ,t0
x0 xj x0
X
⇒ px,t = px,t|xj ,tj pxj ,tj . (2.10)
xj

Tempo contı́nuo
•Aplicando a Eq. 2.9 a um processo de tempo contı́nuo t → t + dt temos da Eq. 2.10
X
px,t+dt = px,t+dt|x′ ,t px′ ,t
x′

•Podemos escrever px,t+dt|x′ ,t como

px,t+dt|x′ ,t = δx,x′ + dt Lx,x′ (t).

A matriz Lx,x′ (t) satisfaz

Lx,x′ (t) ≥ 0 se x ̸= x′ ,
X
Lx,x (t) = − Lx,x′ (t), ∀x.
x′ (̸=x)

•Temos então 2

X 
px,t+dt = δx,x′ + dt Lx,x′ (t) px′ ,t
x′
X
⇒ px,t+dt − px,t = dt Lx,x′ (t) px′ ,t
x′
X
⇒ ∂t px,t = Lx,x′ (t) px′ ,t . (2.11)
x′

•A Eq. 2.11 é o operador, ou a Equação de Liouville para o sistema.


•A matriz Lx,x′ (t) é chamada de operador de Liouville, ou Liouvilliano.
•A solução da Eq. 2.11 é dada pela integral da função de Green:
X
px,t = Gx,x′ (t, t′ ) px′ ,t′ (2.12)
x′
2 ∂
A notação ∂u representa ∂u
de maneira abreviada.

30
2.8. Equação Mestra

onde a função de Green tem que obedecer

Gx,x′ (t′ , t′ ) = δx,x′ .

•A função de Green se escreve então


 R t ′′ ′′ 
Gx,x′ (t, t′ ) = px,t|x′ ,t′ = T e t′ dt L(t ) ,
x,x′

onde L(t) é o operador de Liouville na forma matricial e T é o operador de ordenamento


temporal (t > t′ )
T (A(t) B(t′ )) = T (B(t′ ) A(t)) = A(t) B(t′ ).
•A função de Green pode ser expandida na forma
Z t Z t Z t X

Gx,x′ (t, t ) = δx,x′ + dt0 L(t0 ) + dt1 Lx,x′ (t1 ) dt0 Lx,x1 (t1 ) Lx1 ,x′ (t0 ) + . . .
t′ t0 t′ x1
(2.13)

Caso contı́nuo
•Neste caso a Equação de Chapman-Kolmogorov se torna
Z
p(x, t|x0 , t0 ) = dx′ p(x, t|x′ , t′ ) p(x′ , t′ |x0 , t0 ), (2.14)

e o operador de Liouville, que agora inclui derivadas com relação a x, se escreve

∂t p = L p.

2.8. Equação Mestra


•Equações Mestras descrevem a evolução de processos Markovianos com estados discretos
e tempo contı́nuo.
•Uma Equação Mestra é caracterizada pelas taxas de pulo (jump rate) kx,x′ para transições
entre os estados discretos x′ → x:

px,t+dt|x′ ,t = kx,x′ dt, para x ̸= x′ .

•A taxa de escape do estado x é definida então por kxout


X
kxout = kx′ ,x .
x′

•A probabilidade que o sistema tem de permanecer em um estado x em um intervalo


infinitesimal de tempo dt é então
X
1 − dt kxout = 1 − dt kx′ ,x .
x′

31
2. Fundamentos

Trocas de probabilidades: inflow e outflow


•Dado um estado x uma quantidade de probabilidade kxout px (t) sai desse estado por
unidade de tempo. Isso é o outflow de probabilidades que é dado pela taxa de outflow
X
To = kx′ ,x px (t). (2.15)
x′ ̸=x

•Dado um estado x, uma quantidade de probabilidade vai da vizinhança para esse estado
por unidade de tempo. Isso é o inflow de probabilidades que é dado pela taxa de inflow
X
Ti = kx,x′ px′ (t). (2.16)
x′ ̸=x

•A Equação Mestra (EM) é a diferença entre o inflow e o outflow:


d px (t) X
(2.17)

= Ti − To = kx,x′ px′ (t) − kx′ ,x px (t) .
dt ′ x

•Caso estacionário: X
kx,x′ pst st

x′ − kx′ ,x px = 0
x′ ̸=x

•Se os estados são discretos podemos representar o espaço amostral por um Jump Net-
work, como na figura 2.4.
•O gerador dessa transformação leva a uma função de Green, Eq 2.12, com entradas
positivas.
•Para o caso em que o número de estados é finito, o Teorema de Perron-Frobenius nos
diz que nesse caso o maior autovalor é real e o autovetor correspondente tem entradas
positivas, que pode ser normalizado e assim constituir uma distribuição de probabilidades,
comme il faut. Esse autovalor deve ser nulo pois caso contrário a normalização não se
manteria.
•Obs: a normalização é mantida pois
!
d X X d px (t) X X X
px (t) = = kx,x′ px′ (t) − kx′ ,x px (t) = 0.
dt x x
dt x ′ x
x ̸=x

Assim X
px (t) = constante.
x
Essa constante será escolhida igual a 1.
•Portanto nesse caso vai existir uma distribuição estacionária para o sistema

lim px (t) = pst .


t→∞

•Quando o número de estados é infinito o estado estacionário pode não existir. Esse é o
caso de difusão no plano infinito.

32
2.8. Equação Mestra

Figure 2.4.: Jump Network.

Matriz-W

•No Apêndice A veremos um tratamento mais cuidadoso da Matriz-W van Kampen


(2007).
•Podemos colocar a EM, Eq. 2.17, no seguinte forma

d px (t) X 
= kx,x′ px′ (t) − kx′ ,x px (t)
dt
x′
X X X
= kx,x′ px′ (t) − δx′ ,x kx′′ ,x px′ (t)
x′ x′ x′′
X
= Wx,x′ px′ (t),
x′

33
2. Fundamentos

onde a Matriz-W é dada por


X
Wx,x′ = kx,x′ − δx′ ,x kx′′ ,x , (2.18)
x′′

onde reconhecemos que essa matriz é o Liouvilliano do problema.


•Observe que
!
X X X
Wx,x′ = kx,x′ − δx′ ,x kx′′ ,x
x x x′′
X X
= kx,x′ − kx′′ ,x′
x x′′
= 0.
•Observe que se usamos η = (1, 1, . . . , 1, . . .) temos que
X
0= ηx Wx,x′ = η W,
x

ou seja, η é um autovetor a esquerda de W com autovalor 0. Isto implica na existência de


um autovetor à direita com autovalor nulo, que é pst (supondo que exista esta distribuição
normalizável), pois
d
W pst = 0 ⇒ pst = 0.
dt
•Esta análise complementa o comentário anterior em que o autovalor nulo havia sido
estabelecido.
•Dado que os outros autovetores terão partes reais negativas, temos
lim px (t) = px,st , ∀x. (2.19)
t→∞

2.8.1. Corrente de probabilidade


•Definimos a corrente de probabilidade Jx,x′ a partir da equação mestra
d X
px (t) = − Jx,x′ ,
dt ′ x ̸=x

que nos dá


Jx,x′ = −kx,x′ px′ (t) + kx′ ,x px (t). (2.20)
•A corrente de probabilidade para o caso estacionário é então:
X X
st

Jx,x ′ = − kx,x′ px′ ,st − kx′ ,x px,st = 0.
x′ ̸=x x′ ̸=x

•Se para todo pulo x → x′ , o pulo reverso, x′ → x, é permitido (ou seja, se kx′ ,x ̸= 0 ⇒
kx,x′ ̸= 0), o sistema possui reversibilidade microscópica (ou mesoscópica, dependendo
do caso).

34
2.8. Equação Mestra

2.8.2. Balanço detalhado


•Em alguns casos uma forma mais forte da estacionaridade da corrente de probabilidades
é o balanço detalhado
st
Jx,x ′ = 0 ⇒ kx,x′ px′ ,st = kx′ ,x px,st . (2.21)
•Para um sistema Hamiltoniano o balanço detalhado necessita da reversibilidade tempo-
ral e que o Hamiltoniano seja quadrático nos momentos.
•Se para todo x e x′ temos kx,x′ = kx′ ,x então px′ ,st = px,st , ∀x′ , x. Ou seja, o sistema
estacionário se torna equiprovável para todo x.
•Quando o balanço detalhado vale, dizemos que o sistema alcançou a distribuição de
equilı́brio:
px,st → px,eq .

•Uma condição suficiente para o balanço detalhado ocorrer é que para toda sequência de
estados (x0 , x1 , x2 , . . . , xn ) tenhamos

kx0 ,x1 kx1 ,x2 kx2 ,x3 , . . . , kxn−1 ,xn kxn ,x0 = kx0 ,xn kxn ,xn−1 , . . . , kx3 ,x2 kx2 ,x1 kx1 ,x0 . (2.22)

Isto significa que no caso estacionário a corrente de probabilidades fluindo de cada estado
(nó) se anule. Assim a corrente só pode se estabelecer em loops. Para o equilı́brio
acontecer as “forças” fazendo o loop ser percorrido em uma direção, e sua oposta, se
cancelem. Isso é o que diz a equação 2.22.
•Quando a condição 2.22 não é satisfeita dizemos que o sistema está em um estado
estacionário de não-equilı́brio (NESS).
•Quando o sistema em equilı́brio é um sistema termodinâmico, a distribuição é de
Boltzmann-Gibbs
e−β ϵx
px,eq = ,
Z
onde ϵx é a energia correspondente ao estado x. Temos então
kx,x′ px,eq
= = e−β(ϵx −ϵx′ ) .
kx′ ,x px′ ,eq

•Se apenas estados de mesma energia estão disponı́veis (ensemble microcanônico) temos
necessariamente que ter kx,x′ = kx′ ,x , o que implica a equiprobabilidade prevista pelo
teorema fundamental da mecânica estatı́stica.

2.8.3. Trajetórias de equações mestras: Integração de caminho


•Uma trajetória governada por uma equação mestra pode ser vista na figura 2.5. A
sequência de estados é (aqui usamos xf ≡ xn )

(x0 , x1 , . . . , xn−1 , xf ).

•O tempo tk é o instante em que o sistema transiciona de xk−1 → xk (suporemos a


transição instantânea). Nos instantes tk ≤ t ≤ tk+1 o sistema reside no estado xk . Nos

35
2. Fundamentos

instantes tk o sistema pula durante as transições. A trajetória completa é codificada na


trajetória x
x = {(x0 , t0 ), (x1 , t1 ), . . . , (xf , tn ), tf } , (2.23)
onde observe que entre tn (último pulo) e tf (instante final) o sistema reside no estado
xf .

Figure 2.5.: Trajetória governada por equação mestra.

•Queremos encontrar a probabilidade Px para a trajetória x. Para isso dividimos o


intervalo T = tf − t0 em N intervalos pequenos (tomaremos N → ∞ em breve) ∆t =
T /N . Observe que N ≫ n.
•Aproximamos a trajetória por
xdiscreta = (x0 , x1 , . . . , xN ) ,
nos tempos tl = t0 + l ∆t. Em cada pequeno intervalo (tl , tl + ∆t), a probalidade condi-
cional de que x(tl + ∆t) = x dado que x(tl ) = x′ é dada por
px,tl +∆t|x′ ,tl .

36
2.8. Equação Mestra

•Então, a probabilidade da trajetória discreta aproximada é então (lembre do caráter


Markoviano do processo)
N
Y
Pxdisc |x0 = pxl ,tl−1 +∆t|xl−1 ,tl−1 . (2.24)
l=1

•A probabilidade condicional pode ser aproximada como

px,t+∆t|x′ ,t ≈ δx,x′ + ∆t Lx,x′ (t),

onde Lx,x′ (t) é o gerador.


•A probabilidade da trajetória é aproximadamente
N
Y 
Px|x0 ≈ Pxdisc |x0 ≈ δxl ,xl−1 + ∆t Lxl ,xl−1 (tl−1 )
l=1

•No intervalo (tl−1 , tl ) o sistema pode estar em residência, ou pular. Para todos os
intervalos que estão em residência temos:
out
Y   R

− l ∆t klout (t) reside dt kx(t) (t) .
Y P
pxl ,tl−1 +∆t|xl−1 ,tl−1 = 1 − ∆t kxout
l−1
≈ e ≈ e
l∈reside l∈reside

•A probabilidade de um pulo é dada por

∆t kxout
l ,xl−1
.

•Assim, a probabilidade da trajetória pode ser escrita (da direita pra esquerda é claro)
em forma final
R tf R tn
dt′ kxout (t′ ) − dt′ kxout (t′ )
Dx Px = e− tn n dtn kxf =xn ,xn−1 (tn ) e tn−1 n−1 dtn−1 kxn−1 ,xn−2 (tn−1 ) . . .
R t2 R t1
dt′ kxout (t′ ) dt′ kxout (t′ )
... e− t1 1 dt1 kx1 ,x0 (t1 ) e− t0 0 px0 (t0 ). (2.25)

Fator de integração sobre as trajetórias Dx


•A
P integral sobre o fator de integração sobre as trajetórias x é dada por (aqui usamos
x0 ,x1 ,...,xf mas se as variáveis forem contı́nuas a integração é necessária)
Z ∞
X X Z tf Z tf Z tf
Dx . . . ≡ dt1 dt2 . . . dtn . . .
n=0 x0 ,x1 ,...,xf t0 t1 tn−1

•Com esta definição temos Z


Dx Px = 1.

•Podemos usar
Z X  R tf dt′′ L(t′′ )  X
Dx Px = T e t0 px0 (t0 ) = pxf ,tf |x0 ,t0 px0 (t0 ) = 1.
xf ,x0 xf ,x0 xf ,x0

37
2. Fundamentos

2.9. Equação de Fokker-Planck


•A equação de Fokker-Planck é uma equação de segunda ordem nas derivadas das
variáveis e em primeira ordem no tempo.

Caso de uma variável

•No caso do movimento de uma partı́cula Browniana, a inércia da partı́cula leva a uma
dependência não-Markoviana na velocidade. Mas se a escala de tempo das medidas ∆t
é pequena o suficiente, para a posição do sistema evoluir pouco com relação ao tamanho
do sistema, mas grande o suficiente para que a memória da condição inicial se perca,
podemos expandir a equação mestra em uma equação diferencial de segunda ordem.
•Esperamos que a probabilidade de transição seja então independente do tempo e da
posição. Podemos representar a distribuição de probabilidades do pulo por ψ(∆x).
Temos é claro Z
d∆x ψ(∆x) = 1.

•Temos então:
Z
p(x, t + ∆t) = d∆x ψ(∆x) p(x − ∆x, t),

onde podemos expandir p(x − ∆x, t) em ordens de ∆x.


•Podemos escrever

X (−1)n ∆xn ∂ n
p(x − ∆x, t) = p(x, t).
n! ∂xn
n=0

•Portanto:

!
(−1)n ∆xn ∂ n
Z X
p(x, t + ∆t) = d∆x ψ(∆x) p(x, t)
n! ∂xn
n=0

(−1)n ∂n
X Z 
n
= d∆x ψ(∆x) (∆x ) n p(x, t)
n! ∂x
n=0

X (−1)n ∂n
= ⟨∆xn ⟩ p(x, t)
n! ∂xn
n=0

X (−1)n ∂n
= p(x, t) + ⟨∆xn ⟩ p(x, t)
n! ∂xn
n=1

∂ X (−1)n ⟨∆xn ⟩ ∂ n
⇒ p(x, t) = lim p(x, t), (2.26)
∂t ∆t→0 n! ∆t ∂xn
n=1

38
2.9. Equação de Fokker-Planck

onde observamos a Equação de Kramers-Moyal3 (EKM).


•Depois comentaremos sobre as propriedades da Equação de Kramers-Moyal.
•Os coeficientes de pulo são
⟨∆xn ⟩
αn = lim .
∆t→0 ∆t

•Os dois primeiros são o coeficiente de “drift” v (veremos que está ligado à presença de
forças desbalanceadas agindo sobre a partı́cula)

⟨∆x⟩
v = α1 = lim ,
∆t→0 ∆t

e de difusão D
2 ∆x2
D = 2 α2 = lim .
∆t→0 ∆t
•A Equação de Fokker-Planck (EFP) é a forma truncada da Equação 2.26 em segunda
ordem das derivadas

∂ ∂ ∂2
p(x, t) = −v p(x, t) + D 2 p(x, t). (2.27)
∂t ∂x ∂x
•A EFP também é chamada de Equação de Kolmogorov progressiva.
•Caso drift e difusão sejam funções da posição temos

∂ ∂ ∂2
p(x, t) = − [v(x) p(x, t)] + [D(x) p(x, t)].
∂t ∂x ∂x2
•A equação de Forkker-Planck apenas para a variável de posição também é conhecida
como Equação de Smoluchowski.
•Se por acaso algum αm≥3 = 0, entao todos αm≥3 = 0, pelo teorema de Pawula, e a
equacao EKM se reduz aa EFP.
•Um exemplo simples e interessante acontece quando a probabilidade de pulo é simétrica
(assim o drift é nulo) e a difusão é uniforme:

∂ ∂2
p(x, t) = D 2 p(x, t),
∂t ∂x
cuja solução, dada a condição inicial p(x, t0 ) = δ(x − x0 ), é

(x−x0 )2

e 4 D (tf −t0 )
p(xf , tf ) = p .
4π D (tf − t0 )
3
Se a probabilidade de pulo depende da posição, ψ(∆x) → ψ(x, ∆x), a Equação de Kramers-Moyal é
então:

(−1)n ∂ n ⟨∆xn ⟩
 
∂ X
p(x, t) = lim p(x, t) .
∂t ∆t→0
n=1
n! ∂xn ∆t

39
2. Fundamentos

•A Corrente de probabilidade, no caso mais geral, será


∂ ∂ ∂
p(x, t) = − J(x, t) ⇒ J(x, t) = v(x, t) p(x, t) − [D(x, t) p(x, t)] .
∂t ∂x ∂x
Observe que o termo de drift é um transporte convectivo de probabilidade enquanto que
o outro termo é transporte difusivo.
•A solução da EFP 2.27, com condição inicial p(x, t0 ) = δ(x − x0 ), é o propagador
px,t|x0 ,t0 , onde t > t0 . A equação de Kologorov regressiva permite encontrar a condição
inicial a partir de p(x, t):
∂ ∂ ∂2
− px,t|x0 ,t0 = v(x0 , t0 ) px,t|x0 ,t0 + D(x0 , t0 ) 2 px,t|x0 ,t0 .
∂t0 ∂x ∂x

Caso estacionário
•Caso estacionário é quando nada depende do tempo:
∂ st
J (x) = 0,
∂x
onde a corrente estacionária é

J st (x) = v(x) pst (x) − [D(x) pst (x)] .
∂x
A solução estacionária seria J st = constante.
•Nem sempre o caso estacionário existe. Por exemplo, a solução para a difusão sobre um
eixo infinito não tem um limite finito ela mesma.
•Quando Além de uma forma estacionária finita para pst temos J st = 0, ∀x, isto equivale
ao balanço detalhado (lembrem que os loops opostos se cancelam). Assim temos

[D(x) pst (x)] = v(x) pst (x),
∂x
que tem a solução
v(x′ )
R 
x
dx′ D(x′ )
e x0
pst (x) ∝ .
D(x)
A constante de proporcionalidade deve ser eliminada pela normalização da distribuição
Z
dx pst (x) = 1.

Várias variáveis
•Quando temos várias variáveis a equação de Kramers-Moyal se torna (aqui para 2
variáveis)

∂ X (−1)n+m ∂ n ∂ m
p(x, y, t) = [αn,m (x, y) p(x, y, t)] .
∂t n! m! ∂xn ∂y m
n,m(n+m≥1)

40
2.10. Equação de Langevin

•A EFP fica então


∂ ∂ ∂
p(x, y, t) = − [α1,0 (x, y) p(x, y, t)] − [α0,1 (x, y) p(x, y, t)] +
∂t ∂x ∂y
1 ∂2 ∂ ∂
+ 2
[α2,0 (x, y) p(x, y, t)] + [α1,1 (x, y) p(x, y, t)] +
2 ∂x ∂x ∂y
1 ∂2
+ [α0,2 (x, y) p(x, y, t)] .
2 ∂y 2

•Escolhendo (x, y) = (x, v), e sabendo que

α1,0 (x, v) = v,
γ v − U ′ (x)
α0,1 (x, v) = − ,
m
α2,0 (x, v) = 0,
α1,1 (x, v) = 0,
2γ T
α0,2 (x, v) = ,
m2
temos a EFP para as variáveis (x, v), também conhecida como a Equação de Kramers
(EK) (onde U (x) é o potencial externo a que a partı́cula está submetida)

∂ γ v − U ′ (x) γ T ∂2
 
∂ ∂
p(x, v, t) = −v p(x, v, t) + p(x, v, t) + 2 2 p(x, v, t).
∂t ∂x ∂v m m ∂v
(2.28)

A generalização para mais dimensões é imediata.

2.10. Equação de Langevin


•Trajetórias (clássicas é claro) são soluções da Equação de Langevin superamortecida4
(exemplo superamortecido abaixo, com m = 0)

dx
= v(x, t) + σ(x, t) ξ(t), (2.29)
dt
onde v(x, t) é a velocidade de drift, σ(x, t) é relacionada a D(x, t), e ξ(t) é um processo estocástico
(função do tempo aleatória), que suporemos sem viés

⟨ξ(t)⟩ = 0,

onde a média é tomada sobre todas as realizações do processo.


4
A fı́sica tı́pica dos problemas abordados neste curso pode ser razoavelmente bem descrita por modelos
superamortecidos, onde o número de Reynolds Re é pequeno.

41
2. Fundamentos

•Assumindo que esse processo estocástico é rápido (pense por exemplo na duração de
uma colisão de uma partı́cula do banho térmico com uma partı́cula Browniana) podemos
supor que exceto para t = t′ temos também
ξ(t) ξ(t′ ) ∝ δ(t − t′ ).
√ √
Se a variável ξ satisfaz as condições acima (observe que aqui [σ] = m/ s e [ξ] = 1/ s),
dizemos que é um Ruı́do Branco (todas as frequências tem o mesmo peso, parecido com
o caso da luz branca).
•A Equação de Langevin é um exemplo de uma equação diferencial estocástica (EDE).
•Para lidarmos com EDE necessitamos dos métodos do Cálculo Estocástico [Sekimoto
(2010b)] (CE). Mostraremos algumas propriedades importantes a seguir. No Apêndice ??
listamos algumas dessas propriedades.

Processo de Wiener
•O processo de Wiener é definido pela integral
Z t Z t
W (t) = dt′ ξ(t′ ) = dW. (2.30)
t0 t0
•Vamos calcular a média e a variância de processo de Wiener:
Z t 
′ ′
⟨W (t)⟩ = dt ξ(t )
t0
Z t
= dt′ ξ(t′ )
t0
= 0;
e
Z t Z t 
2 ′ ′ ′′ ′′
W (t) = dt ξ(t ) dt ξ(t )
t0 t0
Z t Z t
= dt′ dt′′ ξ(t′ ) ξ(t′′ )
t0 t0
Z t Z t
= dt′ dt′′ δ(t′′ − t′ )
t0 t0
Z t
= dt′
t0
= T = t − t0 ,
onde usamos que
ξ(t) ξ(t′ ) = δ(t − t′ ).
•O processo de Wiener é Gaussiano, ou seja, todos os outros cumulantes de W (t) são
nulos. Assim podemos escrever
w2
e− 2 T
p(W (t) = w) = √ .
2π T

42
2.10. Equação de Langevin

EL x EFP
•Por simplicidade vamos considerar a EL superamortecida, sem drift e com σ = cons-
tante:
dx
= σ ξ(t).
dt
Observe que as dimensões de σ e ξ podem ser ajustadas de modo que [σ] [ξ] = m/s.
•Integrando obtemos:
x(t) = x0 + σ W (t),
o que mostra que a variável x(t) é distribuı́da Gaussianamente, com média x0 e variância
σ2 T .
•Qual é a equação que p(x, t|x0 , t0 ) ≡ px,t|x0 ,t0 obedece?
•Como
Z Z
x (t) = dx x p(x, t|x0 , t0 ) ⇒ ∂t σ (t − t0 ) = σ = dx x2 ∂t p(x, t|x0 , t0 ).
2 2 2 2


•A partir da EFP temos para este caso

∂ ∂2
p(x, t) = D 2 p(x, t),
∂t ∂x
o que nos dá
∂2
Z
2 2
∂t x (t) = σ = dx x2 D p(x, t|x0 , t0 ) =
∂x2
Z Z

= −2 D dx x p(x, t|x0 , t0 ) = 2 D dx p(x, t|x0 , t0 ) = 2 D,
∂x
e portanto o coeficiente de difusão é

σ2
D= .
2
•A distribuição de probabilidades para a variável de posição obedece uma EFP com o
coeficiente de difusão acima.
•Se σ é constante, dizemos que o ruı́do é aditivo. Se σ ≡ σ(x) depende de x, dizemos
que o ruı́do é multiplicativo.
•O caso geral da Equação de Langevin (EL)

d2 x dx
m = −γ + v(x, t) + σ(x, t) ξ(t). (2.31)
dt2 dt
Agora temos [σ] [ξ] = N.
•Observe que se escolhemos [ξ] = N, com [σ] = 1, a forma de ruı́do branco de ξ leva a
mudanças grandes na velocidade e a forma σ ξ necessita de uma melhora na interpretação,
que veremos a seguir.

43
2. Fundamentos

2.10.1. Integrais estocásticas


•Seja a integral estocástica da forma
Z tf Z tf
dt ξ(t) f (x(t), t) = dW (t) f (x(t), t),
t0 t0

onde f (x, t) é uma função dada.


•Como podemos interpretar a forma dW f ? A forma ξ não é uma derivada de verdade
e W é um processo estocástico. Mesmo para pequenos intervalos ∆t → 0 qual seria a
forma correta para escrever o produto dW f ?
•Existem duas interpretações principais, Itô e Stratonovich, que podem ser generalizadas
continuamente [Vera Moreno et al. (2015)].

Convenção de Itô
•A convenção de Itô para a integral é
Z N =(tf −t0 )/dt
X
dW f = lim [W (tk + dt) − Wtk ] f (x(tk ), tk ), (2.32)
dt→0
k=0

que podemos ver é não antecipante (só usa f (x(tk ), tk )).


•A notação para a convenção de Itô para o produto é
Z tf
dW (t) · f (x(t), t). (2.33)
t0

•Uma das vantagens do cálculo de Itô é ser não antecipante, pois


Z tf  Z tf
dW (t) · f (x(t), t) = ⟨dW (t)⟩ · f (x(t), t)
t0 t0
= 0,

onde f (x(tk ), tk ) → f (x(t), t) é constante em cada intervalo dt.

Convenção de Stratonovich
•A convenção de Stratonovich para a integral é
Z N =(tf −t0 )/dt  
X x(tk ) + x(tk + dt) dt
dW f = lim [W (tk + dt) − Wtk ] f , tk + ,
dt→0 2 2
k=0
(2.34)
que podemos ver é antecipante pois necessitamos saber x(tk + dt).
•A notação para a convenção de Stratonovich para o produto é
Z tf
dW (t) ◦ f (x(t), t). (2.35)
t0

44
2.11. Informação

EFP e as convenções de Itô e Stratonovich


•Veremos como as convenções I & S afetam a forma das EL e EFP.
•Veremos no Apêndice C que a EFP para a convenção de Stratonovich para a EFP nos
dá
∂ ∂ 1 ∂2 2
p(x, t) = − [v(x) p(x, t)] + [σ (x) p(x, t)],
∂t ∂x 2 ∂x2
e para Itô vale
 
∂ ∂ 1 ∂ ∂
p(x, t) = − [v(x) p(x, t)] + σ(x) (σ(x) p(x, t)) .
∂t ∂x 2 ∂x ∂x

•É claro que se σ for constante, as duas convenções dão resultados idênticos.
•Na interpretação de Stratonovich acima, a corrente de probabilidades é dada por
∂ σ 2 (x, t) ∂
J(x, t) = w(x, t) p(x, t) − D(x, t) p(x, t) = w(x, t) p(x, t) − p(x, t),
∂x 2 ∂x
onde
σ(x, t) ∂ 1 ∂
w(x, t) = v(x, t) − σ(x, t) = w(x, t) p(x, t) − D(x, t).
2 ∂x 2 ∂x
Observe que se σ é constante, temos w = v.
•O termo
σ(x, t) ∂
σ(x, t),
2 ∂x
necessário para a mudança de convenção é muitas vezes chamado de “drift” induzido por
ruı́do.
•Qual das prescrições escolher? Em sistemas com inércia (m ̸= 0), ou seja memória,
Stratonovich é uma escolha natural.
•O fato de que a prescrição de Stratonovich equivale ao caso do cálculo tradicional
também é um ponto importante.
•A grande vantagem de Itô é ser não antecipante, ou seja ⟨W · F (x, t)⟩ = 0. É mais
simples do ponto de vista matemático.
•A fórmula de Itô é importante e podemos escrever (veja C.5) então para o caso da
Formula de Itô
df 1
= v(x, t) f ′ (x(t)) + f ′′ (x(t)) σ 2 (x(t)) + f ′ (x(t)) σ(x) · ξ(t). (2.36)
dt 2

2.11. Informação
2.11.1. Entropia: forma de Shannon
•The entropy is related to the amount of information contained in a probability distri-
bution. Physically speaking, the entropy of a system corresponds to the logarithm of the
available volume of phase space. 5
5
By taking the base-2 logarithm, we see that S = log2 W is the number of bits necessary to describe
which point in phase-space represents the instantaneous microscopic state of the system.

45
2. Fundamentos

•In other words, the Entropy measures the lack of information about a system: at zero
entropy one has complete knowledge about the system. The form of the entropy that is
most used is the Shannon form [Shannon (1948)]. Here we assume a discrete number of
states for simplicity sake. We have then
N
X
H(X) = − p(x) log2 p(x), (2.37)
x=1

where X represents the random variable, and x its realization.


•Observe that the case where all N states have the same probability p(x) = 1/N gives
the highest entropy value (highest entropy, highest ignorance)
N
X 1 1
H(X) = − log2 = log2 N,
N N
x=1

•On the other hand, perfect knowledge about the system, say p1 = 1 & px̸=1 = 0 gives
null entropy
H(X) = −(N − 1) × 0 log2 0 + 1 log2 1 = 0.

2.11.2. Interpretation of the Entropy formula


•We can understand Eq. 2.37 if we assume that the probability of a state x corresponds
to the reason of the number of elements of a hidden set Wx = 2nx , which corresponds to
the possible microscopic states contributing to the probability of x, and the total number
of microscopic states of the model W = 2n : p(x) = Wx /W.
•The number nx is the number of bits that we need to characterize the internal coordinate
of the representative point Γx ∈ Sx , whenever the corresponding macrostate is x. Thus,
the entropy H(X) can be expressed as (in base 2)
N
X
H(X) = − p(x) log2 (Wx /W )
x=1
N
X
= p(x) log2 2n−nx
x=1
XN
= p(x) (n − nx )
x=1
= n − ⟨nX ⟩ . (2.38)

•From Eq. 2.38 we see that the entropy represents the average number of bits that we
need to learn in order to have the complete information about the actual state of the
system.
•Observe that for the highest ignorance, all px = 1/N we have H(X) = n, i..e., we do
not have any information at all about the system. in the other hand, if all px̸=x0 = 0 &
p(x0 ) = 1, we get H(X) = 0, since we have all the information about the system.

46
2.11. Informação

•The perfect knowledge about the system implies that we only have a single state (that
might evolve in time in a completely predictable way) to deal with, and so, we need no
extra information.

2.11.3. Conditional Entropy


•Given the variable X, assume that we know the outcome of a measurement of the
variable Y that is related to X by the joint distribution p(x, y). The uncertainty on
the measurement of X is well defined by the entropy H(X). The Conditional Entropy
H(X|Y ) gives us an estimation of the uncertainty of X given that we know the outcome
of Y :
X p(x, y) X p(y)
H(X|Y ) = − p(x, y) log2 = p(x, y) log2 . (2.39)
x,y
p(y) x,y
p(x, y)
p(y)
•Since p(y) = x p(x, y) ⇒ p(x,y) ≥ 1, we see that H(X|Y ) ≥ 0.
P

•If we define H(X|Y = y) = − x (p(x, y)/p(y)) log2 (p(x, y)/p(y)), we see that
P

X X p(x, y) p(x, y)
H(X|Y ) = − p(y) log2
y x
p(y) p(y)
X X
= − p(y) p(x|y) log2 p(x|y)
y x
X
= p(y) H(X|Y = y).
y

•Observe that both

H(X|Y ) ≥ 0, (2.40)
H(X|Y = y) ≥ 0. (2.41)

•However, for a quantum system H(X|Y ) < 0 becomes possible [Schumacher and Nielsen
(1996); Cerf and Adami (1997); Horodecki et al. (2005)]. In the quantum case, the entropy
is no longer Shannon’s, but von Neumann’s, which presents diagonal (probabilities) and
non-diagonal (amplitude) terms.
•A special case is worth mentioning: if Y = X ⇒ p(x, y) = p(x, x) = p(x) ⇒ H(X|Y ) =
P p(x)
x p(x) log2 p(x) = 0.
•What if x = g(y)? In this case, we still have p(x, y) = p(x) ⇒ H(X|Y ) = x p(x) log2 p(x)
P
p(x) =
0. Thus, we have Y = f (X) ⇒ H(X|Y ) = 0.
•It is easy to check that the so called Chain-Rule applies 6

H(X, Y ) = H(Y ) + H(X|Y ), (2.42)

leading to
H(X|Y ) = H(X, Y ) − H(Y ), (2.43)
6
Observe that the relative entropy is the information that one still needs to know, after knowing Y, in
order to know all about X. Thus, it is an ENTROPY.

47
2. Fundamentos

where X
H(X, Y ) = − p(x, y) log2 p(x, y), (2.44)
x,y

which implies that


H(X, Y ) ≥ H(Y ). (2.45)
•Eq. 2.45 above implies that the uncertainty of the whole is greater than the uncertainty
of a part.

Derivation of the conditional entropy


•We can understand the definition of the conditional entropy in terms of transmitted
information [Johnson (2010)]. Assume that Alice sends a message to Bob constituted
of N letters, which for Alice are outcomes of the random variable X ({x1 , x2 , . . . , xk })
but Bob reads them as the outcomes of Y ({y1 , y2 , . . . , yr }). The trick is to think that a
message arrives in a garbled state, letters are misinterpreted, etc.
•The probability that Alice sends xi and P Bob reads yj is PX,Y (xi , yj ). In fact, the
probability that Bob reads yj is PY (yj ) = i PX,Y (xi , yj ). From Bob’s point of view,
the probability that Alice has sent xi when Bob has read yj is the conditional probability

PX,Y (xi , yj )
PX|Y (xi |yj ) = .
PY (yj )

•Once Bob reads yj , his estimate of the remaining entropy in Alice’s signal is
X
SX|Y =yj = − PX|Y (xi |yj ) ln PX|Y (xi |yj ).
i

•Taking the average over all symbols received


X X X
PY (yj ) SX|Y =yj = − PY (yj ) PX|Y (xi |yj ) ln PX|Y (xi |yj )
j j i
X
=− PX,Y (xi , yj ) ln PX|Y (xi |yj ) = H(X|Y ) = HX,Y − HY ,
i,j

which describes the average lack of information left in Alice’s message once Bob reads it.
•A simple Venn diagram scheme is represented in Fig. 2.6, where the region α represents
what still needs to be known about X when one knows Y (≡ β + γ), which is the same
as knowing β (which is what can be known simultaneously about X and Y ).

•The complement for the conditional entropy is the Mutual Entropy I(A : B) ≡ H(A : B)
(a.k.a. the Mutual Information) 7 :

I(X : Y ) = I(Y : X) = H(X) + H(Y ) − H(X, Y ). (2.46)


7
The mutual entropy is the common knowledge part about X and Y (which is β in Fig. 2.6), so it can
be considered an INFORMATION.

48
2.11. Informação

X Y
α β γ
α = H(X|Y) = H(X,Y)-H(Y)
β = H(X:Y) = H(X)+H(Y)-H(X,Y)
γ = H(Y|X) = H(X,Y)-H(X)

Figure 2.6.: Venn Diagram for Entropy & Information: α = H(X|Y ) = H(X, Y ) −
H(Y ); γ = H(Y |X) = H(X, Y ) − H(X); β = H(X : Y ) = H(X) + H(Y ) −
H(X, Y ). Observe that by getting to know α + β + γ = H(X, Y ), which is
the info lacking to us about X and Y , we can know everything about them,
as it should!

•The following identity holds (since H(X) = β + α)

H(X) = I(X : Y ) + H(X|Y ). (2.47)

•We shall present a few simple examples based on the probability of outcomes by two
dice, a blue and a red one, which may be honest or tricked. In Appendix B, we can find
the theory above applied to dice problems.

2.11.4. Exemple: Monty Hall problem


•In the famous Monty Hall problem, a presenter shows 3 doors to a candidate. Behind
these 3 doors are 2 goats and a car. The goal for the candidate is to win a car.
•Initially, the candidate chooses one of the doors, lets say A, B, or C. The probability
the car is behind any of the doors, from the point of view of the candidate, is always 1/3.
•From the point of view of the presenter, there is no uncertainty since he or she knows
behind which door the car is. For simplicity sake, let us assume the car is behind door
A.
•Entropy for the candidate:

Hc = −1/3 log2 1/3 − 1/3 log2 1/3 − 1/3 log2 1/3 = − log2 1/3 = log2 3 = 1.585 bits.

•Entropy for the presenter:

Hp = −1 log2 1 − 0 log2 0 − 0 log2 0 = 0 bits.

49
2. Fundamentos

•Once the candidate has chosen a door, the presenter opens another, distinct, door, with
a goat behind it. Then the candidate is asked whether he or she keeps the initial choice
of door, or if he or she switches to the only remaining door left. Which choice is more
advantageous? What would you do?
•Short answer: do switch the choices! Your probability of winning with the initial door
is always 1/3, and 2/3 of losing. If you switch, the probability of winning is now 2/3!
•Let us break down the actions, so we can understand what happens.
If the candidate chooses A, p(A) = 1/3, and the presenter opens either B or C, we assume
withe the same probability (it does not matter at all). Hence 2 cases:
α) candidate = A, presenter opens B, prob = 1/3 × 1/2 = 1/6, C is the other option
(switch and loses).
β) candidate = A, presenter opens C, prob = 1/3 × 1/2 = 1/6, B is the other option
(switch and loses).
Remaining 2 cases:
γ) candidate = B, presenter opens C, prob = 1/3 × 1 = 1/3, A is the other option
(switch and wins).
δ) candidate = C, presenter opens B, prob = 1/3 × 1 = 1/3, A is the other option (switch
and wins).
Hence, the probability of switching and losing is (α + β) 1/6+1/6 = 1/3, and the
probability of switching and winning is (γ + δ) 1/3+1/3 = 2/3.
•From a more mathematical point of view, let us study the conditional entropy for the
Monty Hall problem.
•Let us assume that X = car’s position, and Y = goats’ positions. If the doors are
numbered 1, 2, and 3, we have (X, Y ) ∈ {(1, {2, 3}) ; (2, {1, 3}) ; (3, {1, 2})}.
•The joint entropy is then
X
H(X, Y ) = − p(x, y) log2 p(x, y)
x,y
= −p (1, {2, 3}) log2 p (1, {2, 3}) − p (2, {1, 3}) log2 p (2, {1, 3}) − p (3, {1, 2}) log2 p (3, {1,

•When we do not where the car is, we have necessarily

1
p (1, {2, 3}) = p (2, {1, 3}) = p (3, {1, 2}) = ,
3
hence
X 1 1
H(X, Y ) = − p(x, y) log2 p(x, y) = −3 log2 = log2 3 = 1.5849625.
x,y
3 3

•Since
X X 1 1
H(X) = − p(x) log2 p(x) = − p(x, y) log2 p(x, y) = −3 log2 = log2 3 = 1.5849625,
x,y
3 3
x=1,2,3

50
2.11. Informação

the conditional entropy reflects that knowing where the goats are determines the car’s
position
H(X|Y ) = H(X, Y ) − H(Y ) = log2 3 − log2 3 = 0.

•An interesting question is how much information the presenter gives the candidate by
opening the goat door. If that opening was done prior to the candidate choice, that
choice would be 1/2 & 1/2, so

Hcprior = −1/2 log2 1/2 − 1/2 log2 1/2 − 0 log2 0 = − log2 1/2 = log2 2 = 1 bit,

hence the information given a priori would be

Iprior = 1.585 − 1 = 0.585 bits.

•However, if that opening was done after the candidate’s choice, then

Hcpost = −1/3 log2 1/3−2/3 log2 2/3−0 log2 0 = + log2 3−2/3 log2 2 = 1.585−0.667 = 0.918 bits,

hence the information given a posteriori would be

Ipost = 1.585 − 0.918 = 0.667 bits,

which is clearly larger.

2.11.5. Relative Entropy: Kullback-Leibler


•The relative entropy, or the Kullback-Leibler divergence (KLD) [Kullback and Leibler
(1951)], D [ρ1 (x)||ρ2 (x)] is the measure of the information that one needs to acquire in
order to switch from distribution ρ2 (x) to distribution ρ1 (x). it is defined as

DKL [ρ1 (x) || ρ2 (x)] = Trx (ρ1 (x) log2 ρ1 (x)) − Trx (ρ1 (x) log2 ρ2 (x)) . (2.48)

•Observe that in general

DKL [ρ1 (x) || ρ2 (x)] ̸= DKL [ρ2 (x) || ρ1 (x)] .

•The KLD is always non-negative:

DKL [ρ1 (x) || ρ2 (x)] ≥ 0. (2.49)

•We can prove that quite easily. Assume that we never have ρ2 (x) = 0 if ρ1 (x) ̸= 0.
Using the inequality (for x ≥ 0)
ln x ≤ x − 1,

51
2. Fundamentos

we have
X ρ1 (x)
DKL [ρ1 (x) || ρ2 (x)] = ρ1 (x) log2
x
ρ2 (x)
1 X ρ1 (x)
= ρ1 (x) ln
ln 2 x ρ2 (x)
1 X ρ2 (x)
= − ρ1 (x) ln
ln 2 x ρ1 (x)
 
1 X ρ2 (x)
≥ − ρ1 (x) −1
ln 2 x ρ1 (x)
1 X
= − (ρ2 (x) − ρ1 (x))
ln 2 x
1−1
= − =0
ln 2
⇒ DKL [ρ1 (x) || ρ2 (x)] ≥ 0.
Equality is obtained whenever ρ1 = ρ2 .
•An interesting comparison is the KL distance between a distribution ρ(x) and the
equiprobable distribution (the no-information distribution) where we have N = 2n :
X ρ1 (x)
DKL [ρ1 (x) || 1/N ] = ρ1 (x) log2
x
1/N
X
= log2 2n + ρ1 (x) log2 ρ1 (x)
x
= n − H(X)
= n − (n − ⟨nX ⟩)
= ⟨nX ⟩ ,
which shows us that the KL distance measures the amount of info (bits) one has to obtain
to go from the amount of knowledge about the original state (in the example above, that
amount is 0) to the amount necessary in order to completely know the new distribution
(which is given by the average amount of bits one knows about the distribution, i.e.,
⟨nX ⟩).

Derivation of KLD
•Assume that a message contains N letters {x} and we believe that we know the correct
probability distribution for these symbols Q(x). However, the correct distribution is
P (x). For large N the typical distribution of symbols will be Ni = pi N . We assume,
based on our belief in Q(x) that the drawn distribution should have a probability (Show
it!) !
Y qipi N
P = N! .
(pi N )!
i

52
2.11. Informação

•That probability should be written as P ∼ 2−N S(Px ||Qx ) , which gives us (Show it!)
X qi X qi
−N S(Px ||Qx ) = −N pi log2 ⇒ S(Px ||Qx ) = pi log2 .
pi pi
i i

Relação de Gibbs da entropia


•No equilı́brio térmico, a Entropia Termodinâmica do sistema S é proporcional à entropia
de Shannon de sua distribuição de equilı́brio sobre seus microestados ξ (não confundir
com o ruı́do de Langevin!)
X eq
S = kB H(S) = −kB pξ ln peq
ξ . (2.50)
ξ

•Isto pode ser rapidamente checado pois

F − ϵξ ⟨ϵξ ⟩ − F S
peq
X
H(S) = − ξ = = .
kB T kB T kB
ξ

Regra da cadeia para a informação


•Sejam 3 sistemas (S1 , S2 , S3 ), cujos estados são dados por (x, y, z) respectivamente.
•A Informação Mútua Condicional (IMC) entre S1 e S2 , dado S3 é definida por
X pxy|z
I(S1 : S2 |S3 ) = px,y,z ln . (2.51)
x,y,z
px|z py|z

•A IMC é não negativa e desaparece apenas se

pxy|z = px|z py|z .

Isso pode acontecer se S1 depende de S2 apenas via S3 .


•A IMC também obedece uma regra da cadeia:

I(S1 , S2 : S3 ) = I(S1 : S3 ) + I(S2 : S3 |S1 ), (2.52)

onde I(S1 , S2 : S3 ) é a informação mútua entre S1 S2 e S3 .


S

53
3. Termodinâmica Estocástica

3.1. Sistemas isolados


•Um sistema isolado possui um Hamiltoniano independente do tempo, seja clássico ou
quântico. Podemos pensar na dinâmica do sistema, dada pelas equações de Hamilton,
como transições entre estados do sistema (seja no espaço de fases ou Hilbert), a partir
das condições iniciais do sistema.
•Para o sistema isolado, dado um certo intervalo de tempo τ , o sistema tem uma certa
probabilidade de passar do estado x′ para o estado x. Escrevemos essa probabilidade
condicional de transição como
P (x, t + τ |x′ , t).
•Para um sistema que possui uma solução analı́tica x(t; x0 , t0 ), como, por exemplo, um
sistema governado pelas equações de Hamilton, podemos escrever

P (x, t + τ |x′ , t) = δ(x − x(t + τ ; x′ , t)).

•Portanto, dado que não existe dependência temporal do Hamiltoniano (sistema isolado),
as probabilidades condicionais de transição são constantes. Os estados do sistema isolado
serão denotados por c.
•Suponhamos agora que nosso sistema isolado seja constituı́do por um sistema de tra-
balho e seu meio ambiente (reservatório, etc.). Os estados puramente do sistema de
trabalho serão denotados por s.
•Fixando τ , e definindo wab = P (a, t + τ |b, t), temos que wc,c′ não depende do tempo,
enquanto que [Ziener et al. (2015)] ws,s′ ≡ ws,s′ (t).
•A medida que o sistema de trabalho tende a alcançar um estado estacionário (que pode
ser de equilı́brio ou não), as probabilidades de transição tendem a se tornarem constantes.

3.2. Apenas o sistema de trabalho


•Consideraremos que os sistemas estudados em Termodinâmica Estocástica são sis-
temas mesoscópicos, ou seja de tamanho intermediário, constituı́dos por um número
muito grande de componentes microscópicos, mas pequenos se comparados com a escala
macroscópicos. Aqui nos referiremos a estados mesoscópicos apenas como estados.
•Um estado mesoscópico é uma coleção de estados microscópicos, como por exemplo, uma
proteı́na em uma certa configuração, não necessariamente a mais estável. A configuração
da proteı́na pode ser definida como um estado após um processo de coarse-graining (agru-
pamento em escala grossa, que será explicado em mais detalhe ao longo deste capı́tulo).

55
3. Termodinâmica Estocástica

•O sistema mesoscópico interage com um reservatório térmico, o que torna a evolução


temporal do sistema intrinsicamente estocástica. Ou seja, repetindo a evolução do sis-
tema, com as mesmas condições iniciais, leva a resultados diferentes.
•Suporemos que o reservatório permanece em equilı́brio. Isto equivale a assumir que para
eq 
o reservatório temos DKL ρR (t)||ρR ≈ 0 [Esposito et al. (2010)].
•A distribuição de probabilidades evolui de acordo com a EM
d X
(3.1)

px (t) = kx,x′ (t) px′ − kx′ ,x (t) px .
dt ′
x ̸=x

•Os detalhes fı́sicos do sistema, e a natureza das interações com o banho térmico, estão
codificados nas taxas de pulo kx,x′ (t). O primeiro passo para estabelecer a conexão com
a termodinâmica é determinar a natureza dessa codificação.
•Na ausência de forçagem externa, e com o reservatório sempre em equilı́brio, o balanço
detalhado é obedecido:  
kx,x′ ϵx′ − ϵx
= exp , (3.2)
kx′ ,x kB T
onde ϵx é a energia do estado x. Com isso a distribuição de equilı́brio é única e dada por
F −ϵx
peq
x =e B .
k T

Taxas de Pulo e representação


•A taxa intrı́nseca ωx,x′ corresponde à taxa de transição quando não há diferença de
energia.
•Algumas representações possı́veis para as taxas de pulo são então:
 ϵx′ −ϵx   ϵx′ −ϵx

− 2k
ωx,x′ e 2kB T
 ωx′ ,x e ϵ ′  B T
− kϵxT 
 
kx,x′ ≡  ω ′ e
 x,x ϵ −ϵ  B & kx ′ ,x ≡ 
 ωx′ ,x e− kB T  .
x 
x′ x
ωx,x′ e kB T ωx′ ,x
•Podemos perturbar o sistema para fora de duas maneiras diferentes, mas não mutua-
mente exclusivas: por manipulação & driving.
•Importante: seguiremos a convenção de sinal, para calor e trabalho, do livro de Peliti
and Pigolotti (2021).

Manipulação
•Manipulação é uma maneira (lenta) de realizar trabalho externo alterando um parâmetro
externo no tempo, λ(t). The energy of the state changes as
ϵx ≡ ϵx (λ(t)) ≡ ϵx (t).
•Um exemplo de manipulação é o uso de pinças óticas: ajustando os lasers se cria um
potencial variável que prende a partı́cula, seja coloidal, esférica (acrı́lico), etc. A mani-
pulação altera a “dureza de mola” do potencial (veja o uso para criar uma máquina de
Carnot a uma partı́cula [Roßnagel et al. (2016)]), ou a posição do mı́nimo.

56
3.2. Apenas o sistema de trabalho

Driving
•Driving é o acoplamento do sistema a um agente externo que troca (rapidamente)
uma certa quantidade de energia com o sistema quando esse realiza pulos especı́ficos
(transições entre estados).
•Nesse caso a energia cedida pelo agente externo é dada por δx,x′ . Essa energia é imedi-
atamente repassada ao reservatório térmico.
•Um exemplo de driving acontece no caso de enzimas biológicas (tipo kinesina) alimen-
tadas por energia quı́mica: o driving representa a contribuição devido à hidrólise de ATP
(ATP + H2 O → ADP + PO4 ), pois uma parte dessa energia é perdida na forma de calor.
Essa reação é reversı́vel. Os link1 e link2 são interessantes.
•Uma parte da energia (trabalho) transmitida por driving (δx,x′ ), como a energia liberada
pela hidrólise do ATP, é usada para realizar a mudança de estado do sistema (ϵx′ → ϵx )
e o resto é liberado como calor diretamente para o reservatório.

Balanço detalhado generalizado


•Como o balanço detalhado, Eqs. 2.21 e 3.2, se modifica sob a influência do driving?
•Considerando a relaxação rápida, quando o sistema transiciona do estado x′ para o
estado x, o reservatório recebe uma quantidade de calor igual a
qx,x′ = ϵx′ − ϵx + δx,x′ , (3.3)
onde ϵx′ − ϵx representa a energia liberada pela mudança de estado de energia do sistema
(que é um tipo de troca sistema-reservatório) (ϵx′ → ϵx ), e δx,x′ é a energia fornecida
pelo driving (que é um tipo de troca sistema externo-reservatório).
•Em sistemas mesoscópicos os pulos ocorrem devido à interação com o banho térmico,
a temperatura T . Nesta escala de tempo rápida parâmetro de manipulação λ(t) pode
ser considerado constante. Nesta escala de tempo rápida, o efeito do driving pode ser
incluı́do no balanço de calor do sistema, Eq. 3.3.
•Na escala de tempo de um pulo, o reservatório não pode diferenciar entre um sistema em
equilı́brio e um sistema fora de equilı́brio quando ambos fornecem a mesma quantidade
de calor ao reservatório.
•O argumento acima implica que a razão entre as taxas de pulo reversa/forward deve ser
então igual a exp(−qx,x′ /kB T ):
  
ϵx′ − ϵx + δx,x′

kx,x′ qx,x′
= exp = exp , (3.4)
kx′ ,x kB T kB T
que é o balanço detalhado generalizado.
•Se o pulo x′ → x é permitido, então x → x′ também é.
•Se por exemplo o driving só ocorre em uma direção, podemos escrever as taxas como:
ϵx′ −ϵx +2δx,x′ ϵx′ −ϵx

kx,x′ = ωx,x′ e 2kB T
& kx′ ,x = ωx′ ,x e 2kB T
.
•Quando as taxas de pulo satisfazem a Eq. 3.4 o sistema é dito termodinamicamente
consistente.

57
3. Termodinâmica Estocástica

•Em geral, a energia de um sistema apresenta modulações lentas, devido à manipulação


dependente do tempo, e mudanças abruptas devido aos pulos causados pelo driving.

3.3. Trabalho e Calor em termodinâmica estocástica


•Na figura 3.1 podemos ver em azul as energias de cada estado que mudam no tempo
devido à manipulação. A trajetória do sistema é dada em vermelho, onde podemos ver
as transições (setas verticais pois a duração dessas transições é desprezı́vel) devido ao
driving.
•Calor e trabalho dependem da trajetória e são, portanto, variáveis intrinsicamente es-
tocásticas.
•Ao se mover ao longo do nı́vel de energia (que pode variar devido à manipulação)
o sistema não troca calor com o reservatório. Apenas nos pulos (que são devidos ao
driving) acontece essa troca de calor (veja equação 3.3).

Figure 3.1.: Trajetória da energia de um sistema devido à manipulação e driving.

58
3.3. Trabalho e Calor em termodinâmica estocástica

•No tempo tk o sistema pula do estado xk−1 para o estado xk , com k = 1, 2, . . . , n, e


xn = xf . Esse pulo é “driven” pela vizinhança, daı́ que vem a razão para chamar de
driving, que fornece a energia para o pulo.
•Ao longo da trajetória, a energia é trocada entre o sistema, a fonte das forças externas
e o reservatório.
•O trabalho estocástico w é a energia fornecida ao sistema pelas fontes das forças ex-
ternas. O trabalho estocástico é a soma de um termo de manipulação e um termo de
driving.
•O calor estocástico q é a energia trocada pelo sistema com o reservatório (aqui usarei a
convenção de reservatório ganhando energia na forma de calor corresponde a q > 0).
•Neste curso usaremos a convenção de que letras minúsculas como w, q, ϵ, s são usadas
para observáveis termodinâmicas que dependem da trajetória (e são estocásticas) en-
quanto que para as médias das mesmas variáveis sobre as trajetórias usaremos variáveis
maiúsculas como W (trabalho), Q (calor), E (energia), e S (entropia).
•Nós vimos como um sistema pode ser perturbado para fora do equilı́brio pela ação de
uma manipulação dependente do tempo ou por driving externo. Como vimos, esses dois
fatores contribuem para o trabalho estocástico w.
•O efeito combinado desses dois fatores pode ser escrito como
n Z tk+1 n
X dλ dϵxk X
w(x) = dt + δxk ,xk−1 . (3.5)
tk dt dλ
k=0 k=1
•O primeiro termo representa o trabalho externo realizado entre os pulos enquanto que
o segundo termo representa o trabalho realizado nos pulos.
•Integrando obtemos
n
X n
X
w(x) = (ϵxk (λ(tk+1 )) − ϵxk (λ(tk ))) + δxk ,xk−1
k=0 k=1
n
X  
= ϵxf (λ(tf )) − ϵx0 (λ(t0 )) + −ϵxk (λ(tk )) + ϵxk−1 (λ(tk )) + δxk ,xk−1
k=1
n
X
= ϵxf (λ(tf )) − ϵx0 (λ(t0 )) + qtk
k=1
= ϵxf (λ(tf )) − ϵx0 (λ(t0 )) + q(x), (3.6)
onde o calor estocástico é dado por
n
X n
X
(3.7)
 
q(x) = qtk = −ϵxk (λ(tk )) + ϵxk−1 (λ(tk )) + δxk ,xk−1 .
k=1 k=1

•Podemos escrever a (pseudo-)primeira lei como


w(x) − q(x) = ϵxf (λ(tf )) − ϵx0 (λ(t0 )). (3.8)
•Essa lei será conhecida como a Primeira Lei da Termodinâmica Estocástica. Na verdade,
veremos a seguir a razão dessa lei poder não ser exatamente equivalente a uma verdadeira
primeira lei.

59
3. Termodinâmica Estocástica

3.4. Calor mesoscópico e calor calorimétrico


•Devemos nos perguntar inicialmente o que é a energia de um mesoestado ϵx .
•Se o sistema não possui estrutura interna (como um coloide rı́gido) não existe ambigu-
idade sobre o significado de ϵx .
•Contudo, para o caso de um sistema com estrutura interna, como uma macromolécula,
um mesoestado x corresponde a uma coleção de microestados ξ, cada um caracterizado
por uma energia ϵξ .
•Para podermos entender o que acontece é importante assumir que a escala de tempo
microscópica (rápida) é bem separada da escala de tempo da dinâmica mesoscópica
(lenta).
•Quando a dinâmica mesoscópica é lenta o suficiente, pulos entre os estados microscópicos
pertencentes ao mesoestado obedecerão ao balanço detalhado.
•As ocupações dos microestados serão proporcionais aos seus pesos de Boltzmann e−ϵξ /kB T
m equilı́brio. Mesmo assim as probabilidades relativas de ocupação dos mesoestados po-
dem ser diferentes daquela de equilı́brio.
•A probabilidade de um mesoestado em equilı́brio peq x é dada por
X eq X
peqx = pξ ∝ e−ϵξ /kB T ,
ξ∈x ξ∈x

Onde a soma é sobre todos os microestados contidos no mesoestado x.


•Escrevendo X
e−ϵx /kB T = e−ϵξ /kB T ,
ξ∈x

podemos obter a probabilidade de equilı́brio do mesoestado x como


−ϵξ /kB T
P
ξ∈x e e−ϵx /kB T
eq
px = P P −ϵξ /kB T
= P −ϵx /kB T
, (3.9)
x ξ∈x e xe

que mostra que o equilı́brio é parte da teoria. Isso mostra as definições que levam à
equação 3.9 são as definições corretas para o fator de energia do peso de Boltzmann para
os estados mesoscópicos.
•Vemos então que a energia do mesoestado, que é dada por
 
X
ϵx = −kB T ln  e−ϵξ /kB T  , (3.10)
ξ∈x

na realidade é uma energia livre.


•Portanto a Eq. 3.8 não representa uma forma real da primeira lei, pois mesmo para
sistemas onde as energias microscópicas de dois estados mesoscópicos sejam iguais, suas
energias mesoscópicas, dadas pela equação 3.10 podem ser diferentes devido às diferentes
entropias de ambos os estados (devido às diferentes densidades de estado).
•A energia proporcionada por driving é energia provida por um agente externo, e não
tem ambiguidades.

60
3.4. Calor mesoscópico e calor calorimétrico

•O trabalho via manipulação é


n Z tk+1
X dλ ∂ϵxk
wm (x) = dt
dt ∂λ
k=0 tk
n Z tk+1 P ∂ϵξ −ϵ /k T
X dλ ξ∈xk ∂λ e ξ B
= dt P −ϵξ /kB T
dt ξ∈xk e
k=0 tk
n Z tk+1
dλ ∂ϵξ eq
X  
= dt ,
tk dt ∂λ ξ∈xk
k=0
o que mostra que a definição do trabalho de manipulação na termodinâmica estocástica
é consistente com a versão microscópica.
•Para podermos salvar o balanço de energia, devemos reconsiderar a interpretação fı́sica
do calor estocástico, Eq. 3.7. Será necessário distinguir entre duas formas de calor: o
calor mesoscópico e o calor calorimétrico.

Calor mesoscópico
•O calor mesoscópico é definido pela diferença de energias livres, dada pela Eq. 3.7. Eh
a definição natural de calor na termodinâmica estocástica. Mas não leva em conta as
trocas de calor necessárias para alterar as entropias dos mesoestados. Essa é a definição
natural para o calor na termodinâmica estocástica, apesar de que não leva em conta as
trocas de calor necessárias para alterar as entropias dos mesoestados.

Calor calorimétrico
•O calor calorimétrico é definido como o calor trocado com o reservatório, que poderia
ser medido por um calorı́metro infinitamente sensı́vel.
•Esse calorı́metro conseguiria levar em conta a quantidade de calor necessária rearranjar
as distribuições dos estados microscópicos dentro de cada mesoestado.
•A partir da primeira lei da termodinâmica estocástica 3.8, temos (onde ϵk é uma energia
livre e εk é uma energia interna)
n
X  
q(x) = −ϵxk (λ(tk )) + ϵxk−1 (λ(tk )) + δxk ,xk−1
k=1
n
X  
= −(εxk (λ(tk )) − T Sxk (tk )) + (εxk−1 (λ(tk )) − T Sxk−1 (tk )) + δxk ,xk−1
k=1
Xn n
X
   
= −εxk (λ(tk )) + εxk−1 (λ(tk )) + δxk ,xk−1 + T Sxk (tk )) − Sxk−1 (tk ))
k=1 k=1

O calor calorimétrico pode ser definido pelas trocas reais de energia de driving e
q cal
energia interna do sistema com o reservatório
Xn
cal
(3.11)
 
q = −εxk (λ(tk )) + εxk−1 (λ(tk )) + δxk ,xk−1 .
k=1

61
3. Termodinâmica Estocástica

•Assim, o calor calorimétrico q cal é dado então pela subtração da contribuição entrópica
do calor mesoscópico
n
X
q cal = q(x) − T (3.12)

Sxk (tk ) − Sxk−1 (tk ) ,
k=1

onde X
Sx = −kB pξ ln pξ ,
ξ∈x

é a entropia dos estados internos de um mesoestado.

Em resumo:
•Na termodinâmica estocástica energia quer dizer energia-livre, quando levamos em conta
a estrutura interna de cada mesoestado.
•A definição de calor mesoscópico também despreza a quantidade de calor liberado pro
reservatório devido à mudança da entropia interna do mesoestado.
•Como essas duas contribuições se cancelam no orçamento de energia do sistema, a
Eq. 3.8 parece formalmente com a primeira lei da termodinâmica.
•A Eq. 3.8 é uma forma coarse grained da primeira lei que despreza o que não afeta a
probabilidade dos mesoestados. Por isso a separação de escalas é tão importante.

3.5. Hidrólise de ATP por Miosina


•Moléculas como a miosina consomem energia na forma de ATP para gerar forças em
filamentos orgânicos de Actina. Na figura 3.2 vemos a ação de miosina dos músculos do
esqueleto de coelhos. Abaixo repassamos os dados energéticos e de trabalho da mesma.

•Miosina consome ATP tanto quando ligada à actina ou quando livre. Vamos focar no
caso livre, com dinâmica de reação mais lenta.
•Quando a molécula de ATP é ligada à miosina, ela é hidrolisada, ou seja, convertida
em ADP mais um grupo de fosfato (P). Essa reação fornece aa proteı́na motora uma
quantidade de energia livre de aproximadamente 25.5 kB T .
•Após esta reação o ADP e o grupo fosfato são eliminados o que permite à miosina se
ligar a uma nova molécula de ATP.
•Os estados de Miosina e ATP são os seguintes
i) Miosina livre (∅): energia (livre) ϵ∅ = 0;
ii) Miosina ligada ao ATP (AT P ): energia ϵAT P = −19 kB T ;
iii) Miosina ligada ao ADP e grupo fosfato (ADP + P ): energia ϵADP +P = 4 kB T ;
iv) Miosina ligada ao ADP (ADP ): energia ϵADP = −2 kB T.
•As taxas de reação são dadas por
i) kAT P,∅ = 2 × 104 s−1 & k∅,AT P = 10−4 s−1 ;
ii) kADP +P,AT P = 102 s−1 & kAT P,ADP +P = 10 s−1 ;

62
3.5. Hidrólise de ATP por Miosina

Figure 3.2.: Ciclo do ATP + Miosina. Observe que não tem trabalho de manipulação.
Observe que 25.5 kB T ≈ 0.61 eV.

iii) kADP,ADP +P = 10−1 s−1 & kADP +P,ADP = 2 × 10−4 s−1 ;


iv) k∅,ADP = 2 s−1 & kADP,∅ = 15 s−1 .
•A hidrolise da Miosina é bem caracterizada e nos dá o driving de não-equilı́brio

δADP +P,AT P = −δAT P,ADP +P = ∆µ = 25.5 kB T.

•O ciclo tı́pico é então

∅ → AT P → ADP + P → AT P → umas 100 vezes → ADP + P → ADP → ∅.

Trabalho e calor no ciclo


•Observe que não existe trabalho de manipulação neste ciclo. Todo o trabalho é devido
ao driving nas reações AT P ↔ ADP + P .
•Etapa ∅ → AT P :
Temos δ = 0; trabalho w = 0; ϵf − ϵi = −19 kB T ; calor rejeitado no reservatório
q = 19 kB T .
•Observe que a interação da Miosina e do ATP é atrativa pois a energia cai.
•Etapa AT P → ADP + P :
Temos δ = 25.5 kB T ; trabalho w = 25.5 kB T ; ϵf − ϵi = 23 kB T ; calor rejeitado no
reservatório q = 2.5 kB T .

63
3. Termodinâmica Estocástica

•Etapa inversa ADP + P → AT P :


Temos δ = −25.5 kB T ; trabalho w = −25.5 kB T ; ϵf − ϵi = −23 kB T ; calor rejeitado no
reservatório q = −2.5 kB T .
•Etapa ADP + P → ADP :
Temos δ = 0; trabalho w = 0; ϵf −ϵi = −6 kB T ; calor rejeitado no reservatório q = 6 kB T .
•Etapa ADP → ∅:
Temos δ = 0; trabalho w = 0; ϵf −ϵi = 2 kB T ; calor rejeitado no reservatório q = −2 kB T .
•O calor total rejeitado no reservatório, em 1 ciclo, será (por simplicidade considere 0
etapas inversas)
qciclo = +19 + 2.5 + 6 − 2 = 25.5 kB T.

•Assim, o trabalho (driving) sobre o sistema por ciclo será:

wciclo = 0 + 25.5 + 0 + 0 = 25.5 kB T.

•Observe que durante as oscilações AT P ↔ ADP +P , o trabalho oscila como ±25.5 kB T ,


enquanto que o calor rejeitado oscila como ±2.5 kB T (como pode ser visto na figura 3.2).
A razão é que o sistema está bem próximo do equilı́brio durante essas transições e assim
o calor trocado (e o valor da entropia trocada) com o reservatório é pequeno.

3.6. Reservatórios Gerais


•Em reservatórios mais gerais a relação do balanço detalhado se modifica.
•Um reservatório particularmente interessante é o quimiostato (onde meio novo é contin-
uamente adicionado, e a cultura residual é removida, de modo que o meio fique sempre em
um estado de concentração quı́mica constante). Esse reservatório troca calor e partı́culas
com o sistema.
•Na sequência veremos reações quı́micas e poderemos entender melhor a relação abaixo,
onde o balanço detalhado se torna
!
i i
P
kx,x′ ϵx′ (λ) − ϵx (λ) + i µ (λ) ∆nx,x′ + δx,x′
= exp , (3.13)
kx′ ,x kB T

onde o trabalho quı́mico foi incluı́do no denominador da equação 3.13. Nessa expressão,
µi (λ) é o potencial quı́mico da espécie i e ∆nix,x′ é o número de moléculas da espécie i
trocadas com o reservatório (quimiostato) no pulo x′ → x.
•A expressão
X
Gx,x′ = ϵx′ (λ) − ϵx (λ) + µi (λ) ∆nix,x′ ,
i

no numerador da exponencial da equação 3.13 é a diferença da Energia-Livre de Gibbs


entre os estados x′ e x.

64
3.6. Reservatórios Gerais

Múltiplos Reservatórios
•Supondo que existam R reservatórios, r = 1, . . . , R, cada reservatório representa uma
possibilidade de transição. Temos então (observe que cada reação possı́vel pode ser
intermediada por reservatórios diferentes)
R
(r)
X
kx,x′ = kx,x′ , (3.14)
r=1

cada um dos caminhos alternativos sendo causado por um dos reservatórios.


•A equação 3.13 se aplica a cada reservatório individualmente:
(r) P i,(r) (λ) ∆ni
!
kx,x′ ϵx′ (λ) − ϵx (λ) + iµ x,x′ + δx,x′
(r)
= exp .
kx′ ,x kB T (r)

•Em alguns casos o driving pode estar relacionado a reservatórios especı́ficos

Entendendo a relação entre taxas


•Para podermos entender as relações acima, podemos considerar um sistema S e dois
reservatorios R1 e R2 na mesma temperatura, mas com potenciais quı́micos distintos
µ1 ̸= µ2 .
•Devido a essa diferença de potenciais quı́micos o sistema total, S + R1 + R2 , está fora
de equilı́brio.
•Seja o pulo x′ → x que é sempre acompanhado da transferência de uma partı́cula de
R1 para R2 . A mudança total de energia devido a esse pulo é

∆ϵtot
x,x′ = −ϵx′ (λ) + ϵx (λ) − µ1 + µ2 .

•O balanço detalhado generalizado deve ser obedecido pelas taxas de pulo a nı́vel do
sistema completo S + R1 + R2 :
!
∆ϵtot
 
kx,x′ x,x′ ϵx′ (λ) − ϵx (λ) − µ1 + µ2
= exp − = exp − .
kx′ ,x kB T kB T

•A equação acima pode ser colocada na forma da equação 3.4 assumindo um driving
efetivo de
δx,x′ = ∆µ = µ1 − µ2 .
•O raciocı́nio acima ilustra como o driving pode ser pensado como uma forma de uma
força generalizada externa que facilita o pulo. Ou, equivalentemente, o desbalanço de
potencial quı́mico associado à transferência de partı́culas de um reservatório para o outro.
•Essas equações também se aplicam se manipulamos a temperatura, T (λ), onde interpre-
tamos a mudança como muitos reservatórios em equilı́brio que conectamos e desconecta-
mos ao sistema.

65
3. Termodinâmica Estocástica

3.7. Entropia estocástica


•A ignorância sobre a distribuição px (t), para o sistema S(t) no instante t, é quantificada
pela entropia de Shannon:
X
H[S(t)] = − px (t) ln px (t). (3.15)
x

•A Entropia de Não-Equilı́brio (NEE) de um sistema é então definida por


S sys (t) = kB H[S(t)]. (3.16)
•Observe que a equação 3.15 é uma média sobre possı́veis estados, ou seja, se o sistema
começa em um estado determinado, as equações 3.15-3.16 são somas sobre todas as
trajetórias. Ou seja, são somas sobre o ensemble de sistemas seguindo suas trajetórias.
•A Entropia Estocástica, para um sistema no estado x, é definida como
ssys
x (t) = −kB ln px (t). (3.17)
•Para uma trajetória individual x = (x(t)) 0 valor da entropia estocástica no tempo t é
dada por
sx(t) (t) = −kB ln px(t) (t).
•Observe que apesar de que a entropia estocástica pode ser computada para uma tra-
jetória individual, necessitamos px(t) (t) que implica o conhecimento do ensemble de tra-
jetórias que caracteriza o sistema. Em especial, necessitamos saber a distribuição de
probabilidades instantânea do sistema. Na figura 3.3 vemos uma representação de uma
dessas trajetórias.
•Não confunda com o caso em que você sabe exatamente cada x(t) da trajetória, que
neste caso teria entropia estocástica nula (um x(t) tem probabilidade 1 e os outros 0).
Imagine uma trajetória possı́vel, começando na condição inicial apropriada, e a partir
daı́ vá calculando sx(t) (t).
•Vemos então que a média da entropia estocástica é a entropia instantânea do sistema
S sys (t) = ⟨ssys
x (t)⟩t ,

onde ⟨. . .⟩t = x . . . px (t).


P
•A mudança de entropia do sistema entre os instantes inicial e final da trajetória é dada
por
∆ssys = ssys sys
xf (tf ) − sx0 (t0 ). (3.18)
•Podemos calcular a variação da entropia total de sistema e reservatório:
stot (x) = ∆ssys + sres (x), (3.19)
onde sres (x) é a contraparte estocástica da entropia do reservatório.
•Como o reservatório está sempre em equilı́brio, temos
q(x)
sres (x) = , (3.20)
T
onde o calor estocástico é dado pela equação 3.7.

66
3.8. Entropia estocástica e produção de entropia em sistema manipulado de dois nı́veis

3.8. Entropia estocástica e produção de entropia em


sistema manipulado de dois nı́veis
•Uma das maneiras mais eficientes e versáteis, apesar de não ser a única (veja Paul Trap),
de realizar trabalho de manipulação sobre um sistema.
•Consideraremos um sistema que consiste de um único centro de defeito, que aparece
iluminado ou escuro, em um diamante tipo-IIa.Ele aparece iluminado quando emite flu-
orescência induzida por um laser vermelho, e escuro quando está no estado excitado pelo
laser verde.
•Esse defeito é excitado simultaneamente por um laser vermelho de λ = 680 nm, e um
laser verde de λ = 514 nm.
•O laser vermelho leva o sistema (diamante com defeito estrutural) para um estado
excitado que decai via emissão de radiação para outro estado (+), que decai rapidamente
para o estado fundamental (0).
•O laser verde leva o sistema do estado 1 para um estado excitado (também marcado
+, mas mais energético do que aquele atingido pelo sistema excitado de 0 pelo laser
vermelho) do qual pode decair rapidamente para o estado fundamental (1).
•Os processos acima são rápidos, entre os estados 0, 1, e seus estados + correspondentes,
com taxas de transição da ordem de GHz. Esses pulos estão mostrados na figura 3.4.
Esses processos são rápidos demasiado para as taxas individuais serem determinadas com
precisão.
•Ainda na figura 3.4 podemos ver duas reações que levam o sistema a transicionar entre
os estados 0 e 1: k10 ≡ k ↑ e k01 ≡ k ↓ . Essas taxas são muito lentas comparativamente,
da ordem de kHz.

•Assim o sistema total pode ser pensado como um sistema de apenas dois nı́veis (0,
diamante claro, e 1, diamante escuro). As taxas de transição entre esses estados, k ↑ e
k ↓ , podem ser manipuladas variando a potência dos lasers aplicados.
•Observando que as transições são dos estados + para os estados fundamentais 0 e 1,
para uma transição efetiva 0 ↔ 1 acontecer, é necessário que os lasers estejam ativos. Por
exemplo, se o laser verde está desligado e apenas o laser vermelho funciona, rapidamente
(na ordem de ms) o sistema vai pular para 1 e ficar indeterminadamente nesse estado.
•A relação efetiva do balanço detalhado fica (como não podemos resolver as taxas internas
de pulo, usamos a população estacionária de um estado, 0 e 1, e seu +, como se fosse um
único estado)
k ↑ p0st = k ↓ p1st . (3.21)
•As taxas de pulo são dadas por

k ↑ = a0 [1 + λ(t)], k ↓ = b0 , (3.22)

onde a−1 −1
0 = 26 ms, b0 = 31 ms,
 
2πt
λ(t) = γ sin ,
tm

67
3. Termodinâmica Estocástica

com γ = 0,16, e tm = 50 ms. O parâmetro experimental de controle é o γ, que é


manipulado pela intensidade do laser.
•É importante esclarecer que as transições aqui não são térmicas, e sim devidas a efeitos
quânticos.
•Na figura 3.5 vemos a representação desse modelo.
•Veremos agora como tratar o sistema usando termodinâmica estocástica.
•Seja então a trajetória
x = ((x0 , t0 ), (x1 , t1 ), . . . , (xn , tn ), tf ),
de tal modo que
x = xk , para tk ≤ t ≤ tk+1 ,
onde o último pulo acontece em tn < tf = tn+1 (não tem pulo em tf = tn+1 , nem em t0
é claro).
•Podemos pensar na utilidade da termodinâmica estocástica em conexão com a entropia
do sistema e do reservatório. Observe que não há driving neste modelo.
•A variação da entropia do sistema é dada por
∆ssys = ssys sys
xf (tf ) − sx0 (t0 ).

•Como não há necessariamente interação entre o sistema e um reservatório térmico,


não podemos falar de calor como a fonte da entropia trocada com o reservatório. Mas
podemos usar as taxas de pulo, tal como seriam para o caso de um sistema onde as trocas
de calor com o reservatório fossem reais.
•Para o caso de interação térmica, a variação da entropia do reservatório é dada pela
equação do balanço detalhado generalizado, que ligas as taxas de pulo com as energias
(livres) do sistema, equação 3.4
  
ϵx′ − ϵx + δx,x′
  
kx,x′ qx,x′ kx,x′ qx,x′
= exp = exp ⇒ kB ln = .
kx′ ,x kB T kB T kx′ ,x T
•Em cada pulo podemos então escrever
 
kxk ,xk−1 (λ(tk )) qx,x′ (λ(tk ))
kB ln = = ∆sres (tk ),
kxk−1 ,xk (λ(tk )) T
e assim temos
n n  
X X kxk ,xk−1 (λ(tk ))
s res
(x) = ∆s res
(tk ) = kB ln . (3.23)
kxk−1 ,xk (λ(tk ))
k=1 k=1

A equação acima se aplica caso o sistema interaja, ou não, com reservatórios térmicos ao
longo de sua trajetória.
•Na equação 3.24 vemos a variação (produção) da entropia total expressa como uma
função das taxas de pulo e probabilidades.
•As trocas de calor e trabalho também não tem uma interpretação fı́sica clara neste
caso. Mas a produção de entropia ainda continua sendo uma maneira útil de medir a
irreversibilidade da dinâmica (Taniguchi and Cohen (2007)).

68
3.9. Taxa de produção média de entropia

3.9. Taxa de produção média de entropia


•Aqui é interessante separar a contribuição da produção de entropia durante pulos e
durante estadias nos estados mesoscópicos.
•Portanto temos

stot (x) = ∆ssys + sres (x)


n  
X kxk ,xk−1 (λ(tk ))
= ssys−
xf (tf ) ssys
x0 (t0 )
+ kB ln
kxk−1 ,xk (λ(tk ))
k=1
n
(  )
X kxk ,xk−1 (λ(tk ))
= kB − ln pxf (tf ) + ln px0 (t0 ) + ln
kxk−1 ,xk (λ(tk ))
k=1
Qn   !
kx ,x (λ(tk )) px0 (t0 )
= kB ln Qnk=1  k k−1  , (3.24)
k=1 kxk−1 ,xk (λ(tk )) pxf (tf )

onde observamos que a entropia total produzida corresponde ao logaritmo da razão entre
a probabilidade da trajetória direta e aquela da trajetória inversa (a penalidade entrópica
acima foi ilustrada, de maneira bastante completa, em Taniguchi and Cohen (2007)).Va-
mos fazer o breakdown da Equação 3.24 abaixo.

Pulos

•Durante cada pulo, de um estado x′ para um estado x, o reservatório absorve uma


quantidade de calor qx,x′ , e a variação de sua entropia é dada por

qx,x′ kx,x′
sres = = kB ln .
T kx′ ,x

•Durante esse mesmo pulo, a entropia estocástica do sistema varia por


p x′
∆ssys = kB ln .
px

•Portanto, a variação total da entropia do sistema durante um pulo é dada por

kx,x′ px′
stot = sres + ∆ssys = kB ln .
kx′ ,x px

Observe que se o balanço detalhado se aplicasse, terı́amos o sistema em equilı́brio com


produção nula de entropia
kx,x′ px′
= 1 ⇒ stot = 0,
kx′ ,x px
como esperado.

69
3. Termodinâmica Estocástica

Estadias
•Durante a estadia, ou seja, entre dois pulos, não tem troca de calor com o reservatório
e, portanto, a entropia do reservatório não muda.
•Quando o sistema está no estado x, sua entropia muda na taxa

dssys
x dλ ∂ kB dλ ∂px
= −kB ln px = −
dt dt ∂λ px dt ∂λ

•Pela conservação das probabilidades essa mudança de entropia desaparece na média:


 sys  X
ds dssys dλ X ∂px dλ ∂ X
= px = −kB = −kB px = 0.
dt x
dt dt x
∂λ dt ∂λ x

•Portanto, na média, e durante estadias, a entropia do reservatório mais sistema não


muda. Isso pode acontecer apenas durante os pulos.
•Assim, como a mudança na média da entropia só ocorre nos pulos podemos, toda vez
que uma transição x′ → x acontece, a entropia total aumenta por

kx,x′ px′
stot = kB ln .
kx′ ,x px

A taxa dessas reações, ou seja, o número médio de pulos x′ → x, é dada por Jx,x′ (veja
a equação 2.20)
Jx,x′ = kx,x′ px′ − kx′ ,x px .
Assim, a taxa de aumento da entropia total corresponde a somar, para todas as transições
x′ → x, o produto do número médio de pulos correspondentes pelo valor do aumento da
entropia para cada pulo:

kB X kx,x′ (t) px′ (t)


Ṡ tot = Jx,x′ (t) ln , (3.25)
2 ′
kx′ ,x (t) px (t)
x,x

onde o fator 2 é para evitar a supercontagem dos pares. A equação 3.25 é a Fórmula de
Schnakenberg.
•A derivada da entropia total é marcada por um ponto, pois reservamos a notação da
derivada total no tempo para funções de estado.
•Como o sinal de
kx,x′ (t) px′ (t)
ln ,
kx′ ,x (t) px (t)
é o mesmo de
Jx,x′ (t) = kx,x′ (t) px′ (t) − kx′ ,x (t) px (t),
cada termo da equação 3.25 é não negativo e só é nulo se cada par se anula entre si,
ou seja, se o balanço detalhado é respeitado, que é o mesmo de que o sistema esteja em
equilı́brio.

70
3.10. Teoria de rede de Estados de não-equilı́brio estacionários (NESS)

•Vemos então que a produção de entropia média do reservatório e do sistema são dadas
por
dS sys
Ṡ tot = Ṡ res + ,
dt
onde
kB X kx,x′ (t)
Ṡ res = Jx,x′ (t) ln , (3.26)
2 ′
kx′ ,x (t)
x,x
e
dS sys kB X px′ (t)
= Jx,x′ (t) ln . (3.27)
dt 2 ′
px (t)
x,x

•No caso particular do estado estacionário, a entropia interna é constante e temos

dS sys
= 0,
dt

e Ṡ tot = Ṡ res .

3.10. Teoria de rede de Estados de não-equilı́brio


estacionários (NESS)
•Podemos analisar estados estacionários de não-equilı́brio (NESS) baseando-nos em uma
analogia com o método de Kirchoff.
•Considere uma equação mestra que satisfaça a reversibilidade microscópica (ou seja,
respeita o balanço detalhado).
•Vamos pensar em termos de nós (nodes) e conexões (edges). Uma conexão conecta os
nós x e x′ se ambos os pulos x′ → x e seu reverso tem fluxos de probabilidades não-nulos.
•Em um NESS a corrente de probabilidade

Jx,x′ = kx,x′ px′ − kx′ ,x px ,

satisfaz X
Jx,x′ = 0. (3.28)
x′

•A equação 3.28 é equivalente às leis de Kirchoff para as correntes, com a corrente de
probabilidades Jx,x′ fazendo o papel da corrente elétrica.
•Vamos definir um ciclo C como sendo uma sequência de estados (nodes) distintos conec-
tados consecutivamente por ligações (edges), de modo que o último estado do ciclo e o
primeiro estado do ciclo são o mesmo estado, e apenas o primeiro e o último.
•Se o edge entre x e x′ não pertencer a nenhum ciclo, então Jx,x′ = Jx′ ,x = 0 (no estado
estacionário, é claro). Imagine um “rabicho” formado por nodes e edges (que assim não faz
parte de nenhum ciclo): no estado estacionário as probabilidades devem ser constantes,
e, portanto, a ponta do rabicho deve ter fluxo zero, e assim por diante. Ao longo de todo
o rabicho temos que ter Jx,x′ = Jx′ ,x = 0.

71
3. Termodinâmica Estocástica

•Se toda a rede de pulo (jump network) é formada por apenas 1 ciclo, então a corrente
(no estado estacionário) deve ser constante, independente do nó (nodo, node).
•A idéia básica da teoria de Kirchoff é decompor o network em um conjunto de ciclos
com a ajuda de conceitos de teoria de grafos.
•Vamos desprezar os casos em que um nodo está conectado com outro nodo por mais de
uma ligação (edge), como é o caso quando dois ou mais reservatórios estão conectados
ao sistema.
•A rede núcleo (core network - CN) é formada retirando da rede todos as ligações que
não fazem parte de nenhum ciclo no estado estacionário.
•Podemos agora decompor o CN em ciclos fundamentais.
•Podemos construir a árvore de abrangência (spanning tree - ST) do network (veja Schnaken-
berg (1976)) removendo edges do mesmo de modo que cada remoção termina com algum
ciclo, até o momento em que não restem mais ciclos. Na figura 3.6 vemos um exemplo
do processo para obter a arvore de abrangência do network.
•A ST é conectada por construção (pode ter mais de uma possı́vel, portanto não é única),
não contém nenhum ciclo (por construção) e contém todos os nodos do CN. Se o CN tem
N estados (nodos) a ST tem N − 1 ligações (edges).
•Os ν edges removidos para criar a ST são chamados cordas. Elas podem ser etiquetadas
por um ı́ndice α ∈ {1, 2, . . . , ν}. Adicionando uma corda α obtemos um network com ex-
atamente 1 ciclo. Chamaremos esse ciclo de ciclo Cα . O conjunto dos ciclos fundamentais
{Cα } é o conjunto dos ciclos fundamentais. do network.
•Esses ciclos são chamados de fundamentais, dado que são independentes. Sua união
reproduz o CN, e qualquer função linear definida nos ciclos do network original pode ser
representada como uma combinação de funções no conjunto {Cα }.
•Assim, podemos escrever o fluxo de probabilidade passando por qualquer edge, no estado
estacionário, como a soma de correntes fluindo nos ciclos fundamentais.

Corrente de probabilidades
•Podemos expressar a corrente de probabilidade em cada edge se primeiro orientamos
cada edge (tipo positivo se x′ → x e negativo se x → x′ ). Definimos a variável sx,x′ (α) de
modo que sx,x′ (α) = +1 se o edge x′ → x tem a mesma orientação de Cα , e sx,x′ (α) = −1
se o edge x′ → x tiver a orientação contrária a Cα .
•Escrevemos então:
X ν
Jx,x′ = sx,x′ (α) Jα , (3.29)
α=1
onde Jα é o fluxo do ciclo fundamental Cα .

Produção de entropia
•A produção de entropia é também uma função linear dos ciclos do network dos pulos
entre estados.
•A equação 3.25 mostra que a entropia produzida é uma função linear das correntes de
probabilidade e não recebem contribuições de pulos que não fazem parte dos ciclo.

72
3.11. Reações quı́micas estocásticas

•Portanto, a teoria de Kirchoff nos diz que podemos decompor linearmente a média das
taxas de produção de entropia em contribuições do conjunto de ciclos fundamentais.
•Podemos definir a afinidade Aα , do ciclo fundamental Cα , como (ciclo com n-nodos)
n n
!
Y kxi+1 ,xi X
Aα = kB T ln = qxi+1 ,xi , (3.30)
kxi ,xi+1
i=1 i=1

onde xn+1 = x1 , e a equação do balanço detalhado, equação 3.4, foi usada.


•Portanto, no estado estacionário, podemos escrever
ν
1 X
Ṡ tot = Ṡ res = Aα Jα , (3.31)
T
α=1

3.11. Reações quı́micas estocásticas


•Reações quı́micas estocásticas ganharam importância com o avanço da biologia celular.
•Esses avanços revelaram que muitas proteı́nas estão presentes em concentrações de
apenas algumas proteı́nas por célula. Nessas baixas concentrações os números dessas
proteı́nas são naturalmente quantidades intrinsicamente estocásticas e podem ser tratadas
com as ferramentas da termodinâmica estocástica.
•Em reações quı́micas estocásticas o estado do sistema é representado pelo vetor

(nA , nB , nC , . . .),

cujas componentes são os números de moléculas de cada espécie quı́mica A, B, C, . . . ,


presentes em um dado tempo.
•Por espécies entendemos moléculas individuais ou estados ligados de mais moléculas.
Por exemplo, na reação de dimerização A + A ⇌ AA, o estado do sistema é identificado
pelo vetor bidimensional (nA , nAA ), onde nA é o número de monômeros e nAA é o número
de dı́meros.
•Se o container for bem agitado, a lei da ação das massas estipula que a taxa de cada
reação é proporcional à concentração de cada reagente, elevada à potência de fator este-
quiométrico correspondente (a taxa A + A → AA depende de pares de A’s, o que leva à
necessidade de ser o quadrado de [A].
•É conveniente classificar as possı́veis reações como abaixo.

Reações a 1 corpo
•Em reações a um corpo o reagente é uma única molécula. Por exemplo: uma reação
de decaimento A → ∅. Como uma partı́cula participa individualmente da reação, a taxa
total é proporcional à quantidade total de moléculas presentes:

knA −1,nA = k nA ,

onde k é a taxa individual.

73
3. Termodinâmica Estocástica

Reações binárias
•Em reações binárias duas moléculas reagem em conjunto. Por exemplo

A + B ⇀ AB,

é uma reação binária, mas a reação inversa

AB ↽ A + B,

é uma reação a um corpo.


•A taxa de reação de uma reação binária é proporcional ao número de pares de moléculas
reagentes que podem ser formadas. Veja os exemplos abaixo:
Ex 1) A + B ⇀ AB com taxa k nA nB ;
Ex 2) A + A ⇀ AA com taxa k nA (nA − 1), onde a proporcionalidade ao número de
pares fica clara.
•Reações de ordens mais altas podem ser definidas, mas são relativamente de baixa prob-
abilidades. As reações quı́micas podem ser vistas como uma colisão especial inelástica.
As probabilidades pnA ,nB ,nC ,... (t) do número de espécies evolui via uma equação mestra.
•A ligação com a termodinâmica estocástica pode ser obtida ao expressarmos as taxas
de pulo em função das energias dos estados via as condições de balanço detalhado 2.21
ou 3.4.

Ilustração: reação de isomerização


•Essa é uma reação em que um reagente A é transformado em um produto B
+
A ⇌kk− B.

•Denotamos por
⟨nA ⟩ ⟨nB ⟩
[A] = , & [B] = ,
V V
as concentrações médias por volume das moléculas A e B.
•Usando as taxas de reação escritas acima podemos escrever a equação mestra para
pnA ,nB (t):
d
pn ,n (t) = k + (nA + 1) pnA +1,nB −1 (t) + k − (nB + 1) pnA −1,nB +1 (t)
dt A B
− (k + nA + k − nB ) pnA ,nB (t). (3.32)

•Se o sistema não está em contato com um reservatório, o número total de partı́culas é
fixo
N = nA + nB .
Assim podemos expressar a equação mestra 3.32 em função apenas de nA . Nessa repre-
sentação, a taxa de pulo se escreve

kn′A ,nA = k + nA δn′A ,nA −1 + k − (N − nA ) δn′A ,nA +1 , (3.33)

74
3.11. Reações quı́micas estocásticas

com a equação mestra agora escrita


d
pn (t) = knA ,nA +1 pnA +1 (t) + knA ,nA −1 pnA −1 (t)
dt A
− (knA −1,nA + knA +1,nA ) pnA (t)
= k + (nA + 1) pnA +1 (t) + k − (N − nA + 1) pnA −1 (t)
− (k + nA + k − (N − nA )) pnA (t).

•Podemos agora estudar a variação das médias do número de partı́culas fazendo


N N
d d X X d
⟨nA ⟩ = nA pnA (t) = nA pnA (t).
dt dt dt
nA =0 nA =0

•Temos então
N
d X
nA k + (nA + 1) pnA +1 (t) + k − (N − nA + 1) pnA −1 (t)

⟨nA ⟩ =
dt
nA =0
(k nA + k − (N − nA )) pnA (t)
+


= k + ⟨nA (nA − 1)⟩ + k − ⟨(N − nA )(nA + 1)⟩
− k + n2A − k − ⟨(N − nA )nA ⟩
= −k + ⟨nA ⟩ + k − ⟨(N − nA )⟩ .

Observe que [A] = ⟨nA ⟩ /V e [B] = ⟨(N − nA )⟩ /V , e portanto podemos escrever

d
[A] = −k + [A] + k − [B].
dt
•No equilı́brio temos
[B]eq k+
k + [A]eq = k − [B]eq ⇒ = −.
[A]eq k
•Se a diferença de energia entre uma molécula B e uma molécula A é ∆ϵ = ϵB − ϵA ,
temos no equilı́brio:
[B]eq − ∆ϵ k+ − ∆ϵ
= e kB T ⇒ − = e kB T . (3.34)
[A]eq k
A relação acima, equação 3.34, é chamada de relação de de Donder. Essa relação provê
uma conexão entre os termos diretos e inversos da reação e sua afinidade, ou seja, a
diferença de energia-livre associada à reação.
•Da equação 3.33, dado que nA , N − nA ≫ 1, temos

knA ,nA +1 k + (nA + 1) k + nA −


∆ϵn
A
= − = − ≈ e kB T , (3.35)
knA +1,nA k (N − nA ) k (N − nA − 1)

onde
∆ϵnA = ϵnA +1 − ϵnA ,

75
3. Termodinâmica Estocástica

e
ϵnA = (N − nA ) ∆ϵ + kB T [nA ln nA + (N − nA ) ln(N − nA )] ,
onde a energia-livre, do estado com nA partı́culas A e (N − nA ) partı́culas B, leva em
conta a entropia de mistura.
•A equação 3.35 conecta as taxas macro com as micro da equação 3.34.

3.12. Teoria da Resposta Linear (LRT)


•Vamos considerar um sistema que pode ser levado até fora do equilı́brio por uma ma-
nipulação dependente do tempo fraca.
•Como consequência dessa manipulação, os valores médios podem divergir dos valores
de equilı́brio, e depender do tempo.
•É conveniente avaliar esses desvios em primeira ordem na intensidade da manipulação,
medida pelo parâmetro λ(t).
•Essa abordagem é conhecida como a Teoria da Resposta Linear (LRT).
•Apesar de ser aqui introduzida no contexto da termodinâmica estocástica, LRT se aplica
a uma gama mais larga de sistemas termodinâmicos perto do equilı́brio.
•Se a energia do estado x pode ser manipulada em r maneiras diferentes, e os parâmetros
de controle são
λ = (λα ), & α = 1, 2, . . . , r.

•As energias variam em primeira ordem em λ, de modo que


r
X
ϵx (λ) = ϵ(0)
x − λα Xα,x , (3.36)
α=1

onde os observáveis Xα,x , α = 1, 2, . . . , r, são funções de x.


•Para valores fixos dos parâmetros de controle, as taxas kx,x′ obedecem as condições do
(0)
balanço detalhado, equação 3.4. O valor ϵx é obtido no caso não-perturbado, λ = 0.
•No equilı́brio a dinâmica é invariante sob translações temporais.
•Queremos calcular a média ⟨Xβ (t)⟩ como função do protocolo de manipulação λ =
(λα (t)):
X
⟨Xβ (t)⟩λ = Xβ,x px (t; λ),
x

onde px (t; λ) é a distribuição de probabilidades na presença de manipulação λ.


•As observáveis são definidas de modo que ⟨Xα ⟩λ=0 = 0 para todo α. Podemos então
expandir ⟨Xβ (t)⟩λ em uma série de potências funcionais:
Z ∞ X
⟨Xβ (t)⟩λ = dt′ Kβ,α (t, t′ ) λα (t′ ) + O(λ2 ), (3.37)
−∞ α

onde introduzimos a função de resposta linear (LRF) Kβ,α (t, t′ ).

76
3.12. Teoria da Resposta Linear (LRT)

•Devido à causalidade temos que ter Kβ,α (t, t′ > t) = 0. Além disso, os efeitos da
manipulação devem ser invariantes sob translação temporal:
Kβ,α (t, t′ ) = Kβ,α (t − t′ ), ∀α, β. (3.38)
•Vamos considerar uma manipulação do tipo
λ(t) = λ(0) θ(−t) eϵ t , (3.39)
onde θ(−t) é a função de Heaviside, e ϵ > 0 é arbitrariamente pequeno.
•Essa manipulação cresce gradualmente de 0, quando t = −∞, até um valor constante e
pequeno λ(0) , quando é desligada em t = 0.
•Como ϵ é pequeno, em t = 0 a distribuição de probabilidades do sistema é a probabili-
dade de equilı́brio peq (λ(0) ), na presença de λ(0) constante:
px (0; λ) = peq
x (λ)
(0) P (0)
F (λ(0) )−ϵx + α λα Xα,x
= e kB T

(0) (0)
F (λ(0) )−ϵx
P
α λα Xα,x
= e kB T
e kB T

(0) P (0)
F (0)−ϵx α λα Xα,x
≈ e kB T
e kB T
!
P (0)
α λα Xα,x
≈ peq
x (0) 1+ (3.40)
kB T

onde usamos a expansão linear em λ(0) , com (lembre que λα e Xα são conjugados)

∂F (λ)
= ⟨Xα ⟩λ=0 = 0, ∀α.
∂λα λ=0
•A média ⟨Xβ (t)⟩λ para t > 0 é igual a média de Xβ sobre a distribuição de probabilidades
px (t) que satisfaz a EM, mas com a distribuição inicial peq x (λ).
•Dada a condição inicial acima, a solução dessa equação é dada por

Gx,x′ (t) peq


X
(0)
px (t) = x′ (0; λ ),
x′

onde a matriz Gx,x′ (t) é a função de Green da equação 2.12, e

Gx,x′ (t) peq


X
peq
x (0) = x′ (0),
x′

é claro.
•Em primeira ordem em λ temos
P (0)
!
α λα Xα,x′
Gx,x′ (t) peq
X
px (t) = x′ (0) 1+
kB T
x′
1 X X eq
= peq
x (0) + Gx,x′ (t) λ(0)
α Xα,x′ px′ (0).
kB T ′ α
x

77
3. Termodinâmica Estocástica

•A média se escreve então, de maneira geral, como (⟨Xβ ⟩0 = 0)


X
⟨Xβ (t)⟩λ = px (t) Xβ,x
x
X 1 X X eq
= Xβ,x Gx,x′ (t) λ(0)
α Xα,x′ px′ (0)
kB T
x x′ α
1 X (0) X
= λ Xβ,x Gx,x′ (t) Xα,x′ peq
x′ (0)
kB T α α ′ x,x
1 X (0)
= λ ⟨Xβ (t) Xα ⟩0 ,
kB T α α

onde definimos
Xx,β Gx,x′ (t) Xα,x′ peq
X
⟨Xβ (t) Xα ⟩0 = x′ (0).
x,x′

•Comparando com a equação 3.37, temos (lembrando que o propagador é causal, e o


segue a equação 3.39, temos
Z 0
1 1
dt′ Kβ,α (t − t′ ) = ⟨Xβ (t) Xα ⟩0 = Cβ,α (t), (3.41)
−∞ kB T kB T

onde
Cβ,α (t) = ⟨Xβ (t) Xα ⟩0 .
•Como Z 0 Z ∞
′ ′
dt Kβ,α (t − t ) = dt′ Kβ,α (t′ ),
−∞ t
podemos tomar a derivada do RHS e obter

θ(t) d θ(t) d
Kβ,α (t) = − ⟨Xβ (t) Xα ⟩0 = − Cβ,α (t). (3.42)
kB T dt kB T dt
•A equação 3.42 é uma forma de teorema de flutuação-dissipação dependente do tempo.
•Relações de Flutuação-Dissipação conectam flutuações de equilı́brio de observáveis,
dadas pelo lado direito da equação 3.42, com a resposta a pequenas perturbações ex-
ternas, dadas pelo coeficiente Kβ,α do lado esquerdo dessa mesma equação.

78
3.12. Teoria da Resposta Linear (LRT)

epsilon

Uma trajetoria eh mostrada em verde. No instante "t" o estado associado a trajetoria, x(t)
estah mostrado no estado epsilon. A entropia instantanea eh dada a partir da distribuicao
de probabilidades completa para o instante "t".

Figure 3.3.: Um detalhe importante é que a entropia estocástica só depende do ponto
especı́fico da trajetória, x(t), mas deve ser calculada levando em conta a
distribuição completa de probabilidades px(t) (t).

79
3. Termodinâmica Estocástica

fluorescência

verde

vermelho

0 1
Diamante Claro Diamante Escuro

As taxas marcadas em verde, vermelho e azul são da ordem de GHz

As taxas de pulo em laranja e rosa são da ordem de kHz

Figure 3.4.: Ciclo de estados do diamante tipo-IIa (0 claro, 1 escuro) com taxas de
transição 0 ↔ 1 que podem ser manipuladas.

80
3.12. Teoria da Resposta Linear (LRT)

Figure 3.5.: Evolução da entropia do sistema de diamante-defeito.

Figure 3.6.: Decomposição do network em ciclos e obtenção da arvore de abrangência -


ST.

81
A. Propriedades ergódicas de processos
Markovianos com número finito de
estados
A.1. Equação Mestra
•Vamos discutir propriedades ergódicas de equações mestras com número finito N de
estados.
•Vamos assumir que as taxas de pulo são independentes do tempo e que o sistema é
conexo, ou seja, sempre podemos transicionar de qualqer um a qualquer outro estado do
sistema. Neste caso a equação mestra possui uma solução estacionária única pst que é
atingida em t → ∞, independentemente da distribuição inicial.
•O operador de Liouville pode ser definido usando a extensão
X
kx,x = −kout = − kx′ ,x .
x′

•Assim definido, podemos escrever a equação mestra como


d px (t) X
= kx,x′ px′ (t) = (L p)x .
dt ′ x

•A solução formal é dada por (escolhemos P = P (∆t), e aı́ a matriz P se chama uma
cadeia de Markov, um processo de Markov para tempos discretos)

p(t + ∆t) = P p(t) = e∆t L p(t),

de onde concluı́mos que Px,x′ > 0.


•Observe que o propagador Px′ ,x é dado por

Px′ ,x = px′ ,t+∆t|x,t .

•Propriedade de normalização de P :
X X X px′ ,t+∆t;x,t px,t
Px′ ,x = px′ ,t+∆t|x,t = = = 1. (A.1)
′ ′ ′
px,t px,t
x x x

•Seja o vetor Ix = 1, ∀x. A equação A.1 pode ser escrita como


X
Ix′ Px′ ,x = Ix ,
x′

83
A. Propriedades ergódicas de processos Markovianos com número finito de estados

e vemos que o vetor I é um autovetor de P à esquerda com autovalor 1.


•Existe portanto um autovetor à direita u, com autovalor 1. O autovetor u será a
distribuição estacionária pst .
•Como L comuta com P , pst será um autovetor de L também.
•É fácil verificar que se
ln λ
P f = e∆t L f = λ f & L f = θ f ⇒ e∆t L f = e∆t θ f = λ f ⇒ θ = = 0,
∆t
pois λ = 1.
•Assim
ṗst = L pst = 0,
e pst é estacionário.

A.2. Positividade do estado estacionário


•Seja
δ = Minx′ ,x (Px′ ,x ) > 0,
o menor dos elementos da matriz (positiva) P .
•A norma do vetor u vai ser definida como

||u|| = Maxx |ux |.

•Um vetor pode ser separado em sua parte positiva (u)+ e negativa −(u)− . Assim um
vetor pode ser escrito
u = (u)+ − (u)− .
•Definimos então
α = Min ||(u)+ ||, ||(u)− || .


•Portanto
P (u)+

x
≥ δα, ∀x,
e
P (u)−

x
≥ δα, ∀x.
É só ver que a norma da parte positiva (negativa) vai ser multiplicada por termos iguais
ou maiores que δ, e ainda somada a outros termos, todos positivos.
•Portanto, podemos limitar o valor de P (u) como abaixo:

||P (u)|| = ||P (u)+ − P (u)− ||


≤ ||P (u)+ − δαI|| + ||P (u)− − δαI||

Para entender acima veja que ||P (u)+ − P (u)− || envolve uma diferença. Supondo que α
seja da parte negativa, temos que ||P (u)+ − δαI|| > ||P (u)+ − P (u)− || pois P (u)− > αδ.
O mesmo acontece se α pertencer à parte positiva.

84
A.3. Desigualdade de Jensen

Se todos os termos de P fossem iguais terı́amos a igualdade, como não são iguais em
geral temos ||P (u)+ || ≤ ||(u)+ || e podemos então concluir (P (u)):

||P (u)|| ≤ ||P (u)+ − δαI|| + ||P (u)− − δαI||


⇒ ||(u)|| ≤ ||(u)+ || + ||(u)− || − 2δα.

Podemos então escolher α = 0 e (u)− = 0, e as equações acima estão satisfeitas.

A.3. Desigualdade de Jensen


•Dado que a exponencial é uma função convexa, como fica a relação entre ⟨e−x ⟩ e e−⟨x⟩ ?
•A Desigualdade de Jensen nos dá ⟨e−x ⟩ ≥ e−⟨x⟩ pois para uma função convexa f (x)
temos que a Desigualdade de Jensen é

f (t α1 + (1 − t) α2 ) ≥ t f (α1 ) + (1 − t) f (α2 ). (A.2)

•Podemos generalizar a equação A.2 da seguinte forma: considere N pontos (αi , f (αi ))
cada um com massa mi . Se f (x) for côncavo ou convexo, o CM desses ponto sempre
estará de um lado da curva f (x). Se é concava, a função estará acima do CM. Se convexa,
o CM estará acima da função.
•para o caso de uma função f (x) convexa, o CM tem por coordenadas
P
i m i αi
xCM = P
mi
P i
iPmi f (αi )
yCM =
i mi
≥ f (xCM ),

devido à convexidade da função.


•Se tomamos todos os pesos (massas mi ) iguais, temos que xCM → ⟨x⟩, e

yCM → ⟨f (x)⟩ ≥ f (⟨x⟩). (A.3)

•Para o caso côncavo terı́amos

yCM → ⟨f (x)⟩ ≤ f (⟨x⟩). (A.4)

•Então temos para f (x) ≡ e−x


e−x ≥ e−⟨x⟩ . (A.5)

85
B. Dices and Entropies

B.1. Honest & independent dice


•The outcomes are given by the probability table below:
1 2 3 4 5 6
1 1/36 1/36 1/36 1/36 1/36 1/36
2 1/36 1/36 1/36 1/36 1/36 1/36
3 1/36 1/36 1/36 1/36 1/36 1/36
4 1/36 1/36 1/36 1/36 1/36 1/36
5 1/36 1/36 1/36 1/36 1/36 1/36
6 1/36 1/36 1/36 1/36 1/36 1/36
•The marginal probabilities are easy to obtain:
1 2 3 4 5 6
1/6 1/6 1/6 1/6 1/6 1/6
and
1 1/6
2 1/6
3 1/6
4 1/6
5 1/6
6 1/6
•We can calculate the entropies:

1 1
H(X) = −6 × log2 = log2 6;
6 6

1 1
H(Y ) = −6 × log2 = log2 6;
6 6
1 1
H(X, Y ) = −36 × log2 = log2 36 = 2 log2 6;
36 36
•Finally we have:

H(X|Y ) = 2 log2 6 − log2 6 = log2 6 = 2.58 = H(X);

I(X : Y ) = 2 log2 6 − 2 log2 6 = 0;

•There is no knowledge gained about X by getting knowledge about Y .

87
B. Dices and Entropies

B.2. Tricked (completely correlated) dice:


•The outcomes are now given by the probability table below:
1 2 3 4 5 6
1 0 0 0 0 0 1/6
2 0 0 0 0 1/6 0
3 0 0 0 1/6 0 0
4 0 0 1/6 0 0 0
5 0 1/6 0 0 0 0
6 1/6 0 0 0 0 0
•The marginal probabilities are still the same:
1 2 3 4 5 6
1/6 1/6 1/6 1/6 1/6 1/6
and
1 1/6
2 1/6
3 1/6
4 1/6
5 1/6
6 1/6
•We can calculate the new entropies:

1 1
H(X) = −6 × log2 = log2 6;
6 6

1 1
H(Y ) = −6 × log2 = log2 6;
6 6
1 1
H(X, Y ) = −30 × 0 log2 0 − 6 × log2 = log2 6;
6 6
•Finally we have:
H(X|Y ) = log2 6 − log2 6 = 0;

•That means there is nothing left to know about X once you know Y . Also:

I(X : Y ) = 2 log2 6 − log2 6 = log2 6 = H(X);

•The mutual information between X and Y corresponds to all the information necessary
to know X.

B.3. Partially tricked (partially correlated) dice:


•The outcomes are now given by the probability table below:

88
B.3. Partially tricked (partially correlated) dice:

1 2 3 4 5 6
1 1/18 1/18 1/18 0 0 0
2 1/18 1/18 1/18 0 0 0
3 1/18 1/18 1/18 0 0 0
4 0 0 0 1/6 0 0
5 0 0 0 0 1/6 0
6 0 0 0 0 0 1/6
•The marginal probabilities are still the same:
1 2 3 4 5 6
1/6 1/6 1/6 1/6 1/6 1/6
and
1 1/6
2 1/6
3 1/6
4 1/6
5 1/6
6 1/6
•The entropies for the dices are still the same
1 1
H(X) = −6 × log2 = log2 6;
6 6
1 1
H(Y ) = −6 × log2 = log2 6.
6 6
•The total entropy is more interesting now:
1 1 1 1
H(X, Y ) = −24×0 log2 0−3× log2 −9× log2 = 0.5 log2 6+0.5 log2 18 = log2 6+0.5 log2 3.
6 6 18 18
•Finally we have:

H(X|Y ) = log2 6 + 0.5 log2 3 − log2 6 = 0.5 log2 3 = 0.79;

•That means there is somewhat less left to know about X than in the case of the uncor-
related dices, but more than in the completely correlated case, if you know Y . Also:

I(X : Y ) = 2 log2 6 − log2 6 − 0.5 log2 3 = log2 6 − 0.5 log2 3 = 1.79;

•For the cases 1, 2, and 3, respectively, the breakdown of the entropy H(X) in terms
of its conditional + mutual entropy parts are 2.58+0 (we know nothing about X if we
know Y ), 0 + 2.58 (we know everything about X if we know Y ), and 0.79 + 1.79 (we
know something about X if we know Y ).

89
C. Formula de Itô e mapeamento
Itô-Stratonovich
C.1. EL em Stratonovich
•Seja a EL abaixo na interpretação de Stratonovich
dx
= σ(x) ◦ ξ(t), (C.1)
dt
cuja solução é Z t
x(t) = x(t0 ) + dW (t′ ) ◦ σ(x(t′ )). (C.2)
t0
•Em forma discretizada temos
 
xi+1 + xi
xi+1 = xi + σ (Wi+1 − Wi ),
2

onde xi = x(ti ), etc.


•Queremos entender a EL satisfeita por f (x(t)) onde f(x) é uma função dada.
•Vamos expandir a função ao redor do ponto médio de um intervalo

a3 ′′′
f (x + a) − f (x − a) = 2 a f ′ (x) + f (x) + . . .
3
•Desprezando o termo de ordem O(a3 ) acima temos
 
′ xi+1 + xi
f (xi+1 ) = f (xi ) + f (xi+1 − xi )
2
   
′ xi+1 + xi xi+1 + xi
= f (xi ) + f σ (Wi+1 − Wi )
2 2
•Podemos reescrever a equação acima em forma estocástica como
df
= f ′ (x) σ(x) ◦ ξ(t). (C.3)

dt
•Observe que a Equação C.3 mostra que a prescrição de Stratonovich pode ser trabalhada
como o cálculo normal (não estocástico).
•Para o caso com drift temos
df
= f ′ (x) v(x, t) + f ′ (x) σ(x) ◦ ξ(t).

dt

91
C. Formula de Itô e mapeamento Itô-Stratonovich

Comparando Itô e Stratonovich


•Agora vamos supor que a Equação C.1 obedece a prescrição de Itô

dx
= σ(x) · ξ(t), (C.4)
dt
•Este caso é mais simples e temos

df (x) = f (x + dx) − f (x)


1
≈ f ′ (x(t)) dx + f ′′ (x(t)) dx2
2
1
= f (x(t)) σ(x(t)) dW + f ′′ (x(t)) σ 2 (x(t)) dW 2 .

2

•Podemos provar que quase sempre dW 2 = dt, assim

1 ′′
df = f ′ (x(t)) σ(x(t)) dW + f (x(t)) σ 2 (x(t)) dt,
2
que também pode ser escrito como

1 ′′
df = f ′ (x(t)) dx + f (x(t)) σ 2 (x(t)) dt,
2
ou então
df dx 1 ′′
= f ′ (x(t)) + f (x(t)) σ 2 (x(t))
dt dt 2
1 ′′
= f (x(t)) σ 2 (x(t)) + f ′ (x(t)) σ(x) · ξ(t). (C.5)
2

Observe a diferença para a forma usual do cálculo devido ao termo proporcional a σ 2 .


•Para isso tomamos a versão da solução da EFP para Stratonovich e expandimos σ(x):
 
xi+1 + xi
xi+1 = xi + σ (Wi+1 − Wi )
2
   
xi + σ xi+12+xi (Wi+1 − Wi ) + xi
= xi + σ   (Wi+1 − Wi )
2
   
σ xi+12+xi (Wi+1 − Wi )
= xi + σ xi +  (Wi+1 − Wi )
2
 
σ xi+12+xi (Wi+1 − Wi )
= xi + σ (xi ) (Wi+1 − Wi ) + σ ′ (xi ) (Wi+1 − Wi )
2
1
≈ xi + σ (xi ) (Wi+1 − Wi ) + σ (xi ) σ ′ (xi ) (Wi+1 − Wi )2
2

92
C.1. EL em Stratonovich

•Usando novamente dW 2 = (Wi+1 − Wi )2 = dt temos


1
xi+1 ≈ xi + σ (xi ) σ ′ (xi ) dt + σ (xi ) (Wi+1 − Wi ),
2
que é a solução discretizada da EL, que deve ser interpretada usando a prescrição de Itô:
dx 1
= σ (x) σ ′ (x) + σ(x) · ξ(t). (C.6)
dt 2
•Isso equivale à EFP com “drift” efetivo
1
vef f (x) = σ (x) σ ′ (x) .
2
•A EFP correspondente é então:

∂2
    2  
∂ ∂ 1 ′ σ (x)
p(x, t) = − σ(x)σ (x) p(x, t) + p(x, t)
∂t ∂x 2 ∂x2 2
∂ σ 2 (x)
    
∂ 1
= − σ(x)σ ′ (x) p(x, t) + p(x, t)
∂x 2 ∂x 2
      
∂ 1 ′ ′ σ(x) ∂ σ(x)
= − σ(x)σ (x) p(x, t) + σ (x) p(x, t) + σ(x) p(x, t)
∂x 2 2 ∂x 2
 
1 ∂ ∂
= σ(x) (σ(x) p(x, t))
2 ∂x ∂x

93
About the Author
W.A.M. Morgado é professor do Departamento de Fı́sica da PUC-Rio.

95
Bibliography
Breuer, H.-P. and Petruccione, F. (2002). The Theory of Open Quantum Systems. Oxford
University Press, 3 edition.

Cerf, N. J. and Adami, C. (1997). Entropic Bell inequalities N. Physical Review A,


55(5):3371–3374.

Esposito, M., Lindenberg, K., and den Broeck, C. V. (2010). Entropy production as
correlation between system and reservoir. New Journal of Physics, 12:013013.

Feller, W. (1950). An Introduction to Probability Theory and Its Applications, vol. 1.


Wiley, New York.

Gallavotti, G. and Cohen, E. G. D. (1995). Dynamical Ensembles in Stationary States.


Physical Review Letters, 80:931–970.

Horodecki, M., Oppenheim, J., and Winter, A. (2005). Partial quantum information.
Nature, 436(7051):673–676.

Jarzynski, C. (1997). Equilibrium free-energy differences from nonequilibrium measure-


ments: A master-equation approach. Physical Review E, 56(5):5018–5035.

Johnson, O. (2010). Introduction to Information Theory. Information Theory and the


Central Limit Theorem, pages 1–32.

Kullback, S. and Leibler, R. A. (1951). On information and sufficiency. Ann. Math.


Stat., 22:79–86.

Peliti, L. and Pigolotti, S. (2021). Stochastic Thermodynamics. Princeton University


Press, Princeton, Oxford.

Roßnagel, J., Dawkins, S. T., Tolazzi, K. N., Abah, O., Lutz, E., Schmidt-Kaler, F., and
Singer, K. (2016). A single-atom heat engine. Science, 352:325–330.

Schnakenberg, J. (1976). Network theory of microscopic and macroscopic behavior of


master equation systems. Reviews of Modern Physics, 48:571–585.

Schumacher, B. and Nielsen, M. A. (1996). Quantum data processing and error correc-
tion. Physical Review A, 54(4):2629.

Sekimoto, K. (2010a). Stochastic Energetics, volume 799 of Lecture Notes in Physics.


Springer Berlin Heidelberg, Berlin, Heidelberg.

97
C. Bibliography

Sekimoto, K. (2010b). Stochastic Energetics. Springer, Berlin,Heidelberg.

Shannon, C. E. (1948). A Mathematical Theory of Communication. The Bell System


Technical Journal, 27(october):379–423,623–656.

Taniguchi, T. and Cohen, E. G. D. (2007). Onsager-Machlup Theory for Nonequilibrium


Steady States and Fluctuation Theorems. 126(1).

van Kampen, N. G. (1992). Stochastic Processes in Physics and Chemistry. North-


Holland, Amsterdam.

van Kampen, N. G. (2007). Stochastic Processes in Physics and Chemistry. Elsevier, 3


edition.

Vera Moreno, M., Gonzalez Arenas, Z., and Barci, D. G. (2015). Langevin dynamics for
vector variables driven by multiplicative white noise:A functional formalism. Physical
Review E, 91:042103.

Ziener, R., Maritan, A., and Hinrichsen, H. (2015). On entropy production in nonequi-
librium systems.

98

Você também pode gostar