Escolar Documentos
Profissional Documentos
Cultura Documentos
PUC-Rio - 2024.1
Welles A. M. Morgado
Contents
1. Ementa e Programa de Aulas 5
1.1. Bibliografia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Avaliações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Ementa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4. Programa de aulas da disciplina . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Fundamentos 9
2.1. O que é termodinâmica estocástica . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Porque isso funciona? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Termodinâmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3.1. Lei Zero da Termodinâmica . . . . . . . . . . . . . . . . . . . . . . 12
2.3.2. Primeira Lei da Termodinâmica . . . . . . . . . . . . . . . . . . . . 12
2.3.3. Segunda Lei da Termodinâmica . . . . . . . . . . . . . . . . . . . . 13
2.3.4. Propriedades da Entropia . . . . . . . . . . . . . . . . . . . . . . . 13
2.4. Eficiência Termodinâmica . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Energia-Livre e Energia-Livre de não-Equilı́brio . . . . . . . . . . . . . . . 20
2.6. Mecânica Estatı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.6.1. Gás ideal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7. Dinâmica Estocástica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.8. Equação Mestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.8.1. Corrente de probabilidade . . . . . . . . . . . . . . . . . . . . . . . 34
2.8.2. Balanço detalhado . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.8.3. Trajetórias de equações mestras: Integração de caminho . . . . . . 35
2.9. Equação de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.10. Equação de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.10.1. Integrais estocásticas . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.11. Informação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.11.1. Entropia: forma de Shannon . . . . . . . . . . . . . . . . . . . . . . 45
2.11.2. Interpretation of the Entropy formula . . . . . . . . . . . . . . . . 46
2.11.3. Conditional Entropy . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.11.4. Exemple: Monty Hall problem . . . . . . . . . . . . . . . . . . . . 49
2.11.5. Relative Entropy: Kullback-Leibler . . . . . . . . . . . . . . . . . . 51
3. Termodinâmica Estocástica 55
3.1. Sistemas isolados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2. Apenas o sistema de trabalho . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.3. Trabalho e Calor em termodinâmica estocástica . . . . . . . . . . . . . . . 58
3
Contents
Bibliography 97
4
1. Ementa e Programa de Aulas
1.1. Bibliografia
Bibliografia Principal:
•Stochastic Thermodynamics, an introduction, Luca Peliti & Simone Pigolotti (Princeton
University Press) [Peliti and Pigolotti (2021)];
•Stochastic Energetics, Ken Sekimoto (Springer) [Sekimoto (2010a)].
•Quantum Open Systems, Breuer & Petruccione (Springer) [Breuer and Petruccione
(2002)].
Notas de aula e artigos de referência serão providenciados.
1.2. Avaliações
A avaliação do curso será baseada em 1 lista de exercı́cios (L1), 1 prova curta (P1), e um
trabalho (M1), e sua apresentação (que poderá ser online, por conveniência). A média
final para o curso será GF onde:
G1 = L1; G2 = P 1; G3 = M 1;
GF = 0.20 ∗ G1 + 0.40 ∗ G2 + 0.40 ∗ G3.
Critério de aprovação
Se GF ≥ 6.0 → passou.
Se GF < 6.0 → reprovado.
1.3. Ementa
Ementa – FIS2107 – Tópicos de fı́sica Teórica – Termodinâmica Estocástica - 2022.1 (18
aulas)
1. Fundamentos.
2. Termodinâmica Estocástica.
3. Teoremas de Flutuação.
4. Termodinâmica de Informação.
5
1. Ementa e Programa de Aulas
7. Equação de Lindblad
8. Aplicações Experimentais.
9. Novos Desenvolvimentos.
6
1.4. Programa de aulas da disciplina
9
2. Fundamentos
2.3. Termodinâmica
•A termodinâmica estuda sistemas grandes (no limite eles tem um número infinito de
graus de liberdade) em contato com reservatórios térmicos e de trabalho.
•Os sistemas que a termodinâmica macroscópica estuda são sistemas de muitas partı́culas
em equilı́brio, ou seja, sistemas cujas variáveis termodinâmicas (pressão, temperatura,
volume, etc.) não variam no tempo. Isto mostra que as flutuações desses valores são
desprezı́veis.
•Mesmo que um sistema termodinâmico tenha começado um processo em um estado de
não-equilı́brio, ao atingir o equilı́brio o efeito da memória da condição inicial é totalmente
perdido.
•Isso é consistente com o fato de que o estado de equilı́brio é o de menor informação
possı́vel, dados os vı́nculos termodinâmicos. Ou seja, é o estado de maior entropia.
•Em alguns casos, como vidros estruturais, tem um tempo muito grande de decaimento
ao equilı́brio, mas não trataremos destes casos.
•A termodinâmica lida com dois tipos essenciais de trocas:
a) Transformações adiabáticas: neste tipo de troca de energia o sistema está isolado
termicamente (ou simplesmente não tem tempo suficiente para trocar calor) de modo que
Q = 0 e apenas trabalho (energia em transito em forma ordenada) é trocado. Mesmo que
o sistema seja colocado em um estado de não equilı́brio o trabalho total trocado ainda
pode ser bem definido.
b) Trocas de calor: estas são trocas de energia microscópicas, sem possibilidade de con-
trole (trabalho microscópico realizado de forma desordenada), que ocorrem entre sistema
e banho térmico.
11
2. Fundamentos
Q = ∆E − W.
12
2.3. Termodinâmica
interna. Porém existe uma transformação adiabática, a expansão livre (processo irre-
versı́vel), que leva o gás de V → V0 = 2V sem alterar sua energia interna (Q = W = 0),
e a transição E → E0 é possı́vel!
S ≡ S(E, V, N, . . .).
Aditividade
•Se um sistema S é constituı́do por vários subsistemas em equilı́brio
[
S= Sn , onde Sn ∩ Sm̸=n = ∅,
n
•Observe que acima supomos que os subsistemas são descorrelacionados, ou seja não
teremos informação mútua entre eles. Esta hipótese dificilmente será completamente
válida para sistemas meso- ou microscópicos.
•Portanto para sistemas termodinâmicos sem complicações tradicionais (tais como in-
terações de longo alcance, estruturas fractais ou porosidade interna importante) a adi-
tividade leva à extensividade da entropia do sistema, ou seja, a entropia é proporcional
ao tamanho do sistema (N , V , etc.).
•Escalando as variáveis extensivas do sistema por um fator λ, a entropia escala pelo
mesmo fator:
S(λ E, λ V, λ N, . . .) = λ S(E, V, N, . . .),
ou seja, a entropia é uma função homogênea de grau 1.
13
2. Fundamentos
Monotonicidade
•Mantendo todas as outras variáveis constantes, a entropia S = S(E) cresce com a
energia interna E
∂E S > 0.
•Esta hipótese falha quando os nı́veis de energia do sistema são limitados por cima.
Concavidade
•A entropia é uma função côncava, ou seja, dados dois estados de equilı́brio, E0 (N, V0 , E0 )
e E1 (N, V1 , E1 ), se definimos um estado intermediário Eα com 0 ≤ α ≤ 1 dado por
Eα (N, α V0 + (1 − α) V1 , α E0 + (1 − α) E1 ),
temos que
S (Eα ) ≥ α S (E0 ) + (1 − α) S (Eα ) .
14
2.3. Termodinâmica
Temperatura
•A temperatura é a quantidade térmica que caracteriza o equilı́brio térmico: dois sistemas
estão em equilı́brio térmico se estão na mesma temperatura.
•Dado um sistema, mantendo todas as variáveis extensivas, exceto a energia interna
constante, definimos a temperatura T do sistema via
1 ∂S
= .
T ∂E
•Se dois sistemas S1 e S2 estão em equilı́brio térmico, a energia interna total é constante
e a entropia total em equilı́brio é dada pela soma das entropias de cada subsistema:
E = E1 + E2 ,
S(E) = S(E1 ) + S(E2 ).
•No equilı́brio a entropia total será máxima. Assim uma variação δE1 = −δE2 não leva
a nenhuma modificação da entropia total
∂S1 ∂S2 δE1 δE2 1 1
δS(E) = δE1 + δE2 = + = δE1 − = 0 ⇒ T1 = T2 .
∂E1 ∂E2 T1 T2 T1 T2
Troca de calor
•Se dois sistemas em contato um com o outro não trocam trabalho, o sistema de maior
temperatura fornecerá calor espontaneamente para o sistema de menor temperatura.
Após um certo tempo, que pode ser longo, eles atingirão a mesma temperatura e estarão
em equilı́brio sem mais transferências de calor.
•Podemos representar o parágrafo acima (os argumentos com linha são o equilı́brio fi-
nal) usando algumas propriedades de concavidade, ilustradas na figura 2.3. Vemos na
figura 2.3(b) que, após voltar a equilibrar, a entropia final do sistema é dada por (lem-
brando que E1f − E1i = −(E2f − E2i ))
S ′ = S1 (E1f ) + S2 (E2f )
E1f − E1i E f − E2i
≤ S1 (E1i ) ++ S2 (E2i ) + 2
T1 T2
1 1
≤ S1 (E1i ) + S2 (E2i ) + (E1f − E1i ) −
T1 T2
1 1
⇒ (S1 (E1f ) + S2 (E2f )) − (S1 (E1i ) + S2 (E2i )) ≤ (E1f − E1i ) − .
T1 T2
15
2. Fundamentos
•Portanto, se T1 > T2 ⇒ E1f − E1i < 0, ou seja, o subsistema S1 perde energia para o
subsistema S2 , e vice versa. Se T1 = T2 ⇒ E1f = E1i , e nada acontece.
•A constatação acima é representada pelo enunciado de Clausius da segunda lei da ter-
modinâmica:
“Calor não pode passar de um corpo mais frio para um corpo mais quente, sem alguma
outra troca (W) acontecendo simultaneamente.”
Exemplo
•Seja um cilindro contendo n moles de um gás ideal que satisfaz
P V = n R T.
•O trabalho (sobre o sistema, que não produz entropia por ser quase-estático) é dado
16
2.3. Termodinâmica
por
dW = −p dV.
e como
∂E
= T,
∂S V
temos então
∂S ∂S p
0 = −p + T ⇒ = .
∂V T ∂V T T
17
2. Fundamentos
onde a igualdade vale para máquinas reversı́veis e a desigualdade para máquinas irre-
versı́veis.
•A maneira tradicional como a eficiência de uma máquina térmica ηth é definida é a razão
entre o trabalho e o calor absorvido
W
ηth = − . (2.2)
Ehot
•Portanto vemos que
W Tcold
ηth = − ≤ 1− = ηC ,
Ehot Thot
onde definimos a eficiência de Carnot ηC por
Tcold
ηC = 1 − .
Thot
18
2.4. Eficiência Termodinâmica
•Contudo, recentemente o papel da informação tem sido cada vez maior nos estudos
termodinâmicos de sistemas mesoscópicos. Assim, uma nova definição de eficiência se
torna mais interessante: apenas usando conceitos informacionais.
•Durante a operação da máquina térmica uma quantidade de entropia Sin = Shot é
absorvida do reservatório quente. Um quantidade de entropia ∆Ssys,antes pode ser
produzida durante o ciclo (se os processos forem irreversı́veis) e deve ser rejeitada no
reservatório junto com a entropia recebida do reservatório quente Sout = −Scold =
−Shot − ∆Ssys,antes .
•Assim, definimos a eficiência entropica ηS como
Sin
ηS = − ≤ 1. (2.3)
Sout
Sin
ηSC = − = 1,
Sout
e portanto ηS ≤ ηSC .
•Algumas observações sobre esta nova definição de eficiência.
1. Podemos calcular
Sin
ηS = −
Sout
Ehot
TH
= − Ehot +W
− TC
TC
= .
TH (1 − ηth )
TC
ηS = = 1.
TH (1 − 1 + TC /TH )
TC
ηS = ̸= 0,
TH
19
2. Fundamentos
Sin entra de 1→2 e Sout sai de 3→4. A substância de trabalho é um gás ideal que
obedece p V = n R T . Temos ainda as relações dos ramos adiabáticos
p1 V1γ = p4 V3γ ,
p2 V1γ = p3 V3γ .
5. O caso anterior é geral. Todo ciclo reversı́vel pode ser subdividido em processos de
Carnot microscópicos e a entropia total que entra nesses processos é exatamente
igual a entropia total que sai, e portanto ηS = 1. Isso mostra que a nova eficiência
ηS é, na verdade, uma medida da irreversibilidade do processo.
20
2.5. Energia-Livre e Energia-Livre de não-Equilı́brio
∂
(E(S, N, V ) − T S) = 0.
∂S S=S ∗
Ou seja:
F (T, N, V ) = E(S ∗ (T, V, N ), N, V ) − T S ∗ (T, V, N ).
•Temos
∂E
T = = T (S ∗ , N, V ) ⇒ S ∗ ≡ S ∗ (T, V, N ).
∂S N,V
•Portanto
∂S ∗ ∂E ∂S ∗
∗ ∗ ∂F ∗
F (T, N, V ) = E(S (T, V, N ), N, V )−T S (T, V, N ) ⇒ = −S −T = −S ∗ .
∂T N,V ∂T ∂S ∗ ∂T
Relações de Maxwell
•Da comutatividade das derivadas do potencial termodinâmico podemos escrever:
∂2F ∂2F
∂S ∂p
− = = =− . (2.4)
∂V T,N ∂V ∂T ∂T ∂V ∂T V,N
∆E = W + Q = W − T Sres .
21
2. Fundamentos
W = ∆E + T Sres ≥ ∆E − T ∆Ssys .
•Se o sistema passa por um processo reversı́vel, não há produção de entropia e E −
T ∆Ssys = ∆F (a variação da energia-livre de equilı́brio).
•O valor da energia-livre de equilı́brio é atingido quando a expressão E − T ∆Ssys atinge
seu valor mı́nimo. Isso justifica a definição da Energia-Livre de Não-Equilı́brio (ELNEQ)
•A relação entre a energia-livre de não equilı́brio, Eq. 2.5, e a energia livre de equilı́brio
é dada pela minimização
dF = −S dT − p dV + µ dN,
dH = T dS + V dp + µ dN.
λ S(E, V, N ) = S(λ E, λ V, λ N ),
22
2.6. Mecânica Estatı́stica
e de onde
E = T S − p V + µ N.
G = E − T S + p V = µ N.
•Portanto:
G(T, p, N )
µ(T, p) = .
N
•Quando o trabalho quı́mico é devido a múltiplas espécies que podem estar realizando
reações
X
dEQ = µi dNi ,
i
o potencial fora do equilı́brio apropriado para o caso onde muitos reservatórios de partı́culas
estão presentes (que mantêm os µi cosntantes) é então
X
Φ(E, T, V, µ1 , N1 , . . . , µm , Nm ) = E − T S − µi dNi .
i
23
2. Fundamentos
W ∼ 10N .
V /N ∼ E/N ∼ constante.
Observe que a função de partição é uma contagem especial de estados com peso, o dito
peso de Boltzmann e−β ϵξ .
•A energia-livre de Helmholtz é
F = −kB T ln Z.
peq
ξ =e
β (F −ϵξ )
.
24
2.6. Mecânica Estatı́stica
•Usando Stirling
ln N ! ≈ N ln N − N,
temos (e = 2, 718281828 . . .)
" 3/2 #
h2 N λ3th
N
F = N kB T ln = N kB T ln ,
eV 2 π m kB T eV
N λ3th
∼ 1,
V
efeitos quânticos serão importantes. Para temperaturas altas N λ3th /V ≪ 1 e a descrição
clássica dá bons resultados.
Potencial quı́mico
•O potencial quı́mico é dado por
N λ3th
∂F N
µ= = kB T ln = kB T ln + µ0 (T, N ),
∂N T,V V V
Pressão
•A pressão é dada por
∂F N kB T
p=− = ,
∂V T,N V
que é a equação de estado do gás ideal.
25
2. Fundamentos
Relação de Flutuação-Dissipação
•Observe que
ϵ
∂ 1 X − ξ
− ln Z = ϵξ e kB T = ⟨ϵ⟩eq .
∂β β=1/kB T Z
ξ
e portanto
∂
ϵ2 eq
= kB T 2 ⟨ϵ⟩eq = kB T 2 C, (2.6)
∂T
onde C é o calor especı́fico do sistema.
•A equação 2.6 é um exemplo de uma relação de flutuação-dissipação.
•A flutuação relativa da energia é dada por
√
q
⟨⟨ϵ2 ⟩⟩eq N 1
∼ =√ .
⟨⟨ϵ⟩⟩eq N N
26
2.6. Mecânica Estatı́stica
Ensemble grão-canônico
•Neste caso o sistema está em contato com um reservatório de partı́culas além do reser-
vatório térmico. Em equilı́brio teremos
dT = dµ = 0.
e−β (ϵξ −µ Nξ )
peq
ξ = ,
Zgc
etc.
27
2. Fundamentos
temos
E−T S(E,A)−F
−
peq (E, A) = e kB T
.
x ≡ (x(t)), (2.8)
28
2.7. Dinâmica Estocástica
px,t|xn ,tn ;xn−1 ,tn−1 ;...;x1 ,t1 ;x0 ,t0 = px,t|xn ,tn .
•Por exemplo, uma partı́cula Browniana descrita apenas por sua posição não é um pro-
cesso Markoviano. Contudo se descrevemos a dinâmica da partı́cula Browniana por sua
posição e velocidade o processo passa a ser Markoviano [van Kampen (1992)].
Equações de Chapman-Kolmogorov
•Todo processo Markoviano a 1-pulo, tal como px,t|xn ,tn pode ser escrito como a soma de
processoa a dois pulos, passando por uma posição intermediária.
•Seja px,t;xj ,tj ;x0 ,t0 :
X
px,t;x0 ,t0 = px,t;xj ,tj ;x0 ,t0
xj
X px,t;xj ,tj ;x0 ,t0 pxj ,tj ;x0 ,t0
= px0 ,t0
xj
pxj ,tj ;x0 ,t0 px0 ,t0
px,t;x0 ,t0 X px,t;xj ,tj ;x0 ,t0 pxj ,tj ;x0 ,t0
⇒ =
px0 ,t0 xj
pxj ,tj ;x0 ,t0 px0 ,t0
X
⇒ px,t|x0 ,t0 = px,t|xj ,tj ;x0 ,t0 pxj ,tj |x0 ,t0
xj
X
⇒ px,t|x0 ,t0 = px,t|xj ,tj pxj ,tj |x0 ,t0 , (2.9)
xj
29
2. Fundamentos
Tempo contı́nuo
•Aplicando a Eq. 2.9 a um processo de tempo contı́nuo t → t + dt temos da Eq. 2.10
X
px,t+dt = px,t+dt|x′ ,t px′ ,t
x′
Lx,x′ (t) ≥ 0 se x ̸= x′ ,
X
Lx,x (t) = − Lx,x′ (t), ∀x.
x′ (̸=x)
•Temos então 2
X
px,t+dt = δx,x′ + dt Lx,x′ (t) px′ ,t
x′
X
⇒ px,t+dt − px,t = dt Lx,x′ (t) px′ ,t
x′
X
⇒ ∂t px,t = Lx,x′ (t) px′ ,t . (2.11)
x′
30
2.8. Equação Mestra
Caso contı́nuo
•Neste caso a Equação de Chapman-Kolmogorov se torna
Z
p(x, t|x0 , t0 ) = dx′ p(x, t|x′ , t′ ) p(x′ , t′ |x0 , t0 ), (2.14)
∂t p = L p.
31
2. Fundamentos
•Dado um estado x, uma quantidade de probabilidade vai da vizinhança para esse estado
por unidade de tempo. Isso é o inflow de probabilidades que é dado pela taxa de inflow
X
Ti = kx,x′ px′ (t). (2.16)
x′ ̸=x
•Caso estacionário: X
kx,x′ pst st
x′ − kx′ ,x px = 0
x′ ̸=x
•Se os estados são discretos podemos representar o espaço amostral por um Jump Net-
work, como na figura 2.4.
•O gerador dessa transformação leva a uma função de Green, Eq 2.12, com entradas
positivas.
•Para o caso em que o número de estados é finito, o Teorema de Perron-Frobenius nos
diz que nesse caso o maior autovalor é real e o autovetor correspondente tem entradas
positivas, que pode ser normalizado e assim constituir uma distribuição de probabilidades,
comme il faut. Esse autovalor deve ser nulo pois caso contrário a normalização não se
manteria.
•Obs: a normalização é mantida pois
!
d X X d px (t) X X X
px (t) = = kx,x′ px′ (t) − kx′ ,x px (t) = 0.
dt x x
dt x ′ x
x ̸=x
Assim X
px (t) = constante.
x
Essa constante será escolhida igual a 1.
•Portanto nesse caso vai existir uma distribuição estacionária para o sistema
•Quando o número de estados é infinito o estado estacionário pode não existir. Esse é o
caso de difusão no plano infinito.
32
2.8. Equação Mestra
Matriz-W
d px (t) X
= kx,x′ px′ (t) − kx′ ,x px (t)
dt
x′
X X X
= kx,x′ px′ (t) − δx′ ,x kx′′ ,x px′ (t)
x′ x′ x′′
X
= Wx,x′ px′ (t),
x′
33
2. Fundamentos
•Se para todo pulo x → x′ , o pulo reverso, x′ → x, é permitido (ou seja, se kx′ ,x ̸= 0 ⇒
kx,x′ ̸= 0), o sistema possui reversibilidade microscópica (ou mesoscópica, dependendo
do caso).
34
2.8. Equação Mestra
•Uma condição suficiente para o balanço detalhado ocorrer é que para toda sequência de
estados (x0 , x1 , x2 , . . . , xn ) tenhamos
kx0 ,x1 kx1 ,x2 kx2 ,x3 , . . . , kxn−1 ,xn kxn ,x0 = kx0 ,xn kxn ,xn−1 , . . . , kx3 ,x2 kx2 ,x1 kx1 ,x0 . (2.22)
Isto significa que no caso estacionário a corrente de probabilidades fluindo de cada estado
(nó) se anule. Assim a corrente só pode se estabelecer em loops. Para o equilı́brio
acontecer as “forças” fazendo o loop ser percorrido em uma direção, e sua oposta, se
cancelem. Isso é o que diz a equação 2.22.
•Quando a condição 2.22 não é satisfeita dizemos que o sistema está em um estado
estacionário de não-equilı́brio (NESS).
•Quando o sistema em equilı́brio é um sistema termodinâmico, a distribuição é de
Boltzmann-Gibbs
e−β ϵx
px,eq = ,
Z
onde ϵx é a energia correspondente ao estado x. Temos então
kx,x′ px,eq
= = e−β(ϵx −ϵx′ ) .
kx′ ,x px′ ,eq
•Se apenas estados de mesma energia estão disponı́veis (ensemble microcanônico) temos
necessariamente que ter kx,x′ = kx′ ,x , o que implica a equiprobabilidade prevista pelo
teorema fundamental da mecânica estatı́stica.
(x0 , x1 , . . . , xn−1 , xf ).
35
2. Fundamentos
36
2.8. Equação Mestra
•No intervalo (tl−1 , tl ) o sistema pode estar em residência, ou pular. Para todos os
intervalos que estão em residência temos:
out
Y R
−
− l ∆t klout (t) reside dt kx(t) (t) .
Y P
pxl ,tl−1 +∆t|xl−1 ,tl−1 = 1 − ∆t kxout
l−1
≈ e ≈ e
l∈reside l∈reside
∆t kxout
l ,xl−1
.
•Assim, a probabilidade da trajetória pode ser escrita (da direita pra esquerda é claro)
em forma final
R tf R tn
dt′ kxout (t′ ) − dt′ kxout (t′ )
Dx Px = e− tn n dtn kxf =xn ,xn−1 (tn ) e tn−1 n−1 dtn−1 kxn−1 ,xn−2 (tn−1 ) . . .
R t2 R t1
dt′ kxout (t′ ) dt′ kxout (t′ )
... e− t1 1 dt1 kx1 ,x0 (t1 ) e− t0 0 px0 (t0 ). (2.25)
•Podemos usar
Z X R tf dt′′ L(t′′ ) X
Dx Px = T e t0 px0 (t0 ) = pxf ,tf |x0 ,t0 px0 (t0 ) = 1.
xf ,x0 xf ,x0 xf ,x0
37
2. Fundamentos
•No caso do movimento de uma partı́cula Browniana, a inércia da partı́cula leva a uma
dependência não-Markoviana na velocidade. Mas se a escala de tempo das medidas ∆t
é pequena o suficiente, para a posição do sistema evoluir pouco com relação ao tamanho
do sistema, mas grande o suficiente para que a memória da condição inicial se perca,
podemos expandir a equação mestra em uma equação diferencial de segunda ordem.
•Esperamos que a probabilidade de transição seja então independente do tempo e da
posição. Podemos representar a distribuição de probabilidades do pulo por ψ(∆x).
Temos é claro Z
d∆x ψ(∆x) = 1.
•Temos então:
Z
p(x, t + ∆t) = d∆x ψ(∆x) p(x − ∆x, t),
•Portanto:
∞
!
(−1)n ∆xn ∂ n
Z X
p(x, t + ∆t) = d∆x ψ(∆x) p(x, t)
n! ∂xn
n=0
∞
(−1)n ∂n
X Z
n
= d∆x ψ(∆x) (∆x ) n p(x, t)
n! ∂x
n=0
∞
X (−1)n ∂n
= ⟨∆xn ⟩ p(x, t)
n! ∂xn
n=0
∞
X (−1)n ∂n
= p(x, t) + ⟨∆xn ⟩ p(x, t)
n! ∂xn
n=1
∞
∂ X (−1)n ⟨∆xn ⟩ ∂ n
⇒ p(x, t) = lim p(x, t), (2.26)
∂t ∆t→0 n! ∆t ∂xn
n=1
38
2.9. Equação de Fokker-Planck
•Os dois primeiros são o coeficiente de “drift” v (veremos que está ligado à presença de
forças desbalanceadas agindo sobre a partı́cula)
⟨∆x⟩
v = α1 = lim ,
∆t→0 ∆t
e de difusão D
2 ∆x2
D = 2 α2 = lim .
∆t→0 ∆t
•A Equação de Fokker-Planck (EFP) é a forma truncada da Equação 2.26 em segunda
ordem das derivadas
∂ ∂ ∂2
p(x, t) = −v p(x, t) + D 2 p(x, t). (2.27)
∂t ∂x ∂x
•A EFP também é chamada de Equação de Kolmogorov progressiva.
•Caso drift e difusão sejam funções da posição temos
∂ ∂ ∂2
p(x, t) = − [v(x) p(x, t)] + [D(x) p(x, t)].
∂t ∂x ∂x2
•A equação de Forkker-Planck apenas para a variável de posição também é conhecida
como Equação de Smoluchowski.
•Se por acaso algum αm≥3 = 0, entao todos αm≥3 = 0, pelo teorema de Pawula, e a
equacao EKM se reduz aa EFP.
•Um exemplo simples e interessante acontece quando a probabilidade de pulo é simétrica
(assim o drift é nulo) e a difusão é uniforme:
∂ ∂2
p(x, t) = D 2 p(x, t),
∂t ∂x
cuja solução, dada a condição inicial p(x, t0 ) = δ(x − x0 ), é
(x−x0 )2
−
e 4 D (tf −t0 )
p(xf , tf ) = p .
4π D (tf − t0 )
3
Se a probabilidade de pulo depende da posição, ψ(∆x) → ψ(x, ∆x), a Equação de Kramers-Moyal é
então:
∞
(−1)n ∂ n ⟨∆xn ⟩
∂ X
p(x, t) = lim p(x, t) .
∂t ∆t→0
n=1
n! ∂xn ∆t
39
2. Fundamentos
Caso estacionário
•Caso estacionário é quando nada depende do tempo:
∂ st
J (x) = 0,
∂x
onde a corrente estacionária é
∂
J st (x) = v(x) pst (x) − [D(x) pst (x)] .
∂x
A solução estacionária seria J st = constante.
•Nem sempre o caso estacionário existe. Por exemplo, a solução para a difusão sobre um
eixo infinito não tem um limite finito ela mesma.
•Quando Além de uma forma estacionária finita para pst temos J st = 0, ∀x, isto equivale
ao balanço detalhado (lembrem que os loops opostos se cancelam). Assim temos
∂
[D(x) pst (x)] = v(x) pst (x),
∂x
que tem a solução
v(x′ )
R
x
dx′ D(x′ )
e x0
pst (x) ∝ .
D(x)
A constante de proporcionalidade deve ser eliminada pela normalização da distribuição
Z
dx pst (x) = 1.
Várias variáveis
•Quando temos várias variáveis a equação de Kramers-Moyal se torna (aqui para 2
variáveis)
∞
∂ X (−1)n+m ∂ n ∂ m
p(x, y, t) = [αn,m (x, y) p(x, y, t)] .
∂t n! m! ∂xn ∂y m
n,m(n+m≥1)
40
2.10. Equação de Langevin
α1,0 (x, v) = v,
γ v − U ′ (x)
α0,1 (x, v) = − ,
m
α2,0 (x, v) = 0,
α1,1 (x, v) = 0,
2γ T
α0,2 (x, v) = ,
m2
temos a EFP para as variáveis (x, v), também conhecida como a Equação de Kramers
(EK) (onde U (x) é o potencial externo a que a partı́cula está submetida)
∂ γ v − U ′ (x) γ T ∂2
∂ ∂
p(x, v, t) = −v p(x, v, t) + p(x, v, t) + 2 2 p(x, v, t).
∂t ∂x ∂v m m ∂v
(2.28)
dx
= v(x, t) + σ(x, t) ξ(t), (2.29)
dt
onde v(x, t) é a velocidade de drift, σ(x, t) é relacionada a D(x, t), e ξ(t) é um processo estocástico
(função do tempo aleatória), que suporemos sem viés
⟨ξ(t)⟩ = 0,
41
2. Fundamentos
•Assumindo que esse processo estocástico é rápido (pense por exemplo na duração de
uma colisão de uma partı́cula do banho térmico com uma partı́cula Browniana) podemos
supor que exceto para t = t′ temos também
ξ(t) ξ(t′ ) ∝ δ(t − t′ ).
√ √
Se a variável ξ satisfaz as condições acima (observe que aqui [σ] = m/ s e [ξ] = 1/ s),
dizemos que é um Ruı́do Branco (todas as frequências tem o mesmo peso, parecido com
o caso da luz branca).
•A Equação de Langevin é um exemplo de uma equação diferencial estocástica (EDE).
•Para lidarmos com EDE necessitamos dos métodos do Cálculo Estocástico [Sekimoto
(2010b)] (CE). Mostraremos algumas propriedades importantes a seguir. No Apêndice ??
listamos algumas dessas propriedades.
Processo de Wiener
•O processo de Wiener é definido pela integral
Z t Z t
W (t) = dt′ ξ(t′ ) = dW. (2.30)
t0 t0
•Vamos calcular a média e a variância de processo de Wiener:
Z t
′ ′
⟨W (t)⟩ = dt ξ(t )
t0
Z t
= dt′ ξ(t′ )
t0
= 0;
e
Z t Z t
2 ′ ′ ′′ ′′
W (t) = dt ξ(t ) dt ξ(t )
t0 t0
Z t Z t
= dt′ dt′′ ξ(t′ ) ξ(t′′ )
t0 t0
Z t Z t
= dt′ dt′′ δ(t′′ − t′ )
t0 t0
Z t
= dt′
t0
= T = t − t0 ,
onde usamos que
ξ(t) ξ(t′ ) = δ(t − t′ ).
•O processo de Wiener é Gaussiano, ou seja, todos os outros cumulantes de W (t) são
nulos. Assim podemos escrever
w2
e− 2 T
p(W (t) = w) = √ .
2π T
42
2.10. Equação de Langevin
EL x EFP
•Por simplicidade vamos considerar a EL superamortecida, sem drift e com σ = cons-
tante:
dx
= σ ξ(t).
dt
Observe que as dimensões de σ e ξ podem ser ajustadas de modo que [σ] [ξ] = m/s.
•Integrando obtemos:
x(t) = x0 + σ W (t),
o que mostra que a variável x(t) é distribuı́da Gaussianamente, com média x0 e variância
σ2 T .
•Qual é a equação que p(x, t|x0 , t0 ) ≡ px,t|x0 ,t0 obedece?
•Como
Z Z
x (t) = dx x p(x, t|x0 , t0 ) ⇒ ∂t σ (t − t0 ) = σ = dx x2 ∂t p(x, t|x0 , t0 ).
2 2 2 2
∂ ∂2
p(x, t) = D 2 p(x, t),
∂t ∂x
o que nos dá
∂2
Z
2 2
∂t x (t) = σ = dx x2 D p(x, t|x0 , t0 ) =
∂x2
Z Z
∂
= −2 D dx x p(x, t|x0 , t0 ) = 2 D dx p(x, t|x0 , t0 ) = 2 D,
∂x
e portanto o coeficiente de difusão é
σ2
D= .
2
•A distribuição de probabilidades para a variável de posição obedece uma EFP com o
coeficiente de difusão acima.
•Se σ é constante, dizemos que o ruı́do é aditivo. Se σ ≡ σ(x) depende de x, dizemos
que o ruı́do é multiplicativo.
•O caso geral da Equação de Langevin (EL)
d2 x dx
m = −γ + v(x, t) + σ(x, t) ξ(t). (2.31)
dt2 dt
Agora temos [σ] [ξ] = N.
•Observe que se escolhemos [ξ] = N, com [σ] = 1, a forma de ruı́do branco de ξ leva a
mudanças grandes na velocidade e a forma σ ξ necessita de uma melhora na interpretação,
que veremos a seguir.
43
2. Fundamentos
Convenção de Itô
•A convenção de Itô para a integral é
Z N =(tf −t0 )/dt
X
dW f = lim [W (tk + dt) − Wtk ] f (x(tk ), tk ), (2.32)
dt→0
k=0
Convenção de Stratonovich
•A convenção de Stratonovich para a integral é
Z N =(tf −t0 )/dt
X x(tk ) + x(tk + dt) dt
dW f = lim [W (tk + dt) − Wtk ] f , tk + ,
dt→0 2 2
k=0
(2.34)
que podemos ver é antecipante pois necessitamos saber x(tk + dt).
•A notação para a convenção de Stratonovich para o produto é
Z tf
dW (t) ◦ f (x(t), t). (2.35)
t0
44
2.11. Informação
•É claro que se σ for constante, as duas convenções dão resultados idênticos.
•Na interpretação de Stratonovich acima, a corrente de probabilidades é dada por
∂ σ 2 (x, t) ∂
J(x, t) = w(x, t) p(x, t) − D(x, t) p(x, t) = w(x, t) p(x, t) − p(x, t),
∂x 2 ∂x
onde
σ(x, t) ∂ 1 ∂
w(x, t) = v(x, t) − σ(x, t) = w(x, t) p(x, t) − D(x, t).
2 ∂x 2 ∂x
Observe que se σ é constante, temos w = v.
•O termo
σ(x, t) ∂
σ(x, t),
2 ∂x
necessário para a mudança de convenção é muitas vezes chamado de “drift” induzido por
ruı́do.
•Qual das prescrições escolher? Em sistemas com inércia (m ̸= 0), ou seja memória,
Stratonovich é uma escolha natural.
•O fato de que a prescrição de Stratonovich equivale ao caso do cálculo tradicional
também é um ponto importante.
•A grande vantagem de Itô é ser não antecipante, ou seja ⟨W · F (x, t)⟩ = 0. É mais
simples do ponto de vista matemático.
•A fórmula de Itô é importante e podemos escrever (veja C.5) então para o caso da
Formula de Itô
df 1
= v(x, t) f ′ (x(t)) + f ′′ (x(t)) σ 2 (x(t)) + f ′ (x(t)) σ(x) · ξ(t). (2.36)
dt 2
2.11. Informação
2.11.1. Entropia: forma de Shannon
•The entropy is related to the amount of information contained in a probability distri-
bution. Physically speaking, the entropy of a system corresponds to the logarithm of the
available volume of phase space. 5
5
By taking the base-2 logarithm, we see that S = log2 W is the number of bits necessary to describe
which point in phase-space represents the instantaneous microscopic state of the system.
45
2. Fundamentos
•In other words, the Entropy measures the lack of information about a system: at zero
entropy one has complete knowledge about the system. The form of the entropy that is
most used is the Shannon form [Shannon (1948)]. Here we assume a discrete number of
states for simplicity sake. We have then
N
X
H(X) = − p(x) log2 p(x), (2.37)
x=1
•On the other hand, perfect knowledge about the system, say p1 = 1 & px̸=1 = 0 gives
null entropy
H(X) = −(N − 1) × 0 log2 0 + 1 log2 1 = 0.
•From Eq. 2.38 we see that the entropy represents the average number of bits that we
need to learn in order to have the complete information about the actual state of the
system.
•Observe that for the highest ignorance, all px = 1/N we have H(X) = n, i..e., we do
not have any information at all about the system. in the other hand, if all px̸=x0 = 0 &
p(x0 ) = 1, we get H(X) = 0, since we have all the information about the system.
46
2.11. Informação
•The perfect knowledge about the system implies that we only have a single state (that
might evolve in time in a completely predictable way) to deal with, and so, we need no
extra information.
•If we define H(X|Y = y) = − x (p(x, y)/p(y)) log2 (p(x, y)/p(y)), we see that
P
X X p(x, y) p(x, y)
H(X|Y ) = − p(y) log2
y x
p(y) p(y)
X X
= − p(y) p(x|y) log2 p(x|y)
y x
X
= p(y) H(X|Y = y).
y
H(X|Y ) ≥ 0, (2.40)
H(X|Y = y) ≥ 0. (2.41)
•However, for a quantum system H(X|Y ) < 0 becomes possible [Schumacher and Nielsen
(1996); Cerf and Adami (1997); Horodecki et al. (2005)]. In the quantum case, the entropy
is no longer Shannon’s, but von Neumann’s, which presents diagonal (probabilities) and
non-diagonal (amplitude) terms.
•A special case is worth mentioning: if Y = X ⇒ p(x, y) = p(x, x) = p(x) ⇒ H(X|Y ) =
P p(x)
x p(x) log2 p(x) = 0.
•What if x = g(y)? In this case, we still have p(x, y) = p(x) ⇒ H(X|Y ) = x p(x) log2 p(x)
P
p(x) =
0. Thus, we have Y = f (X) ⇒ H(X|Y ) = 0.
•It is easy to check that the so called Chain-Rule applies 6
leading to
H(X|Y ) = H(X, Y ) − H(Y ), (2.43)
6
Observe that the relative entropy is the information that one still needs to know, after knowing Y, in
order to know all about X. Thus, it is an ENTROPY.
47
2. Fundamentos
where X
H(X, Y ) = − p(x, y) log2 p(x, y), (2.44)
x,y
PX,Y (xi , yj )
PX|Y (xi |yj ) = .
PY (yj )
•Once Bob reads yj , his estimate of the remaining entropy in Alice’s signal is
X
SX|Y =yj = − PX|Y (xi |yj ) ln PX|Y (xi |yj ).
i
which describes the average lack of information left in Alice’s message once Bob reads it.
•A simple Venn diagram scheme is represented in Fig. 2.6, where the region α represents
what still needs to be known about X when one knows Y (≡ β + γ), which is the same
as knowing β (which is what can be known simultaneously about X and Y ).
•The complement for the conditional entropy is the Mutual Entropy I(A : B) ≡ H(A : B)
(a.k.a. the Mutual Information) 7 :
48
2.11. Informação
X Y
α β γ
α = H(X|Y) = H(X,Y)-H(Y)
β = H(X:Y) = H(X)+H(Y)-H(X,Y)
γ = H(Y|X) = H(X,Y)-H(X)
Figure 2.6.: Venn Diagram for Entropy & Information: α = H(X|Y ) = H(X, Y ) −
H(Y ); γ = H(Y |X) = H(X, Y ) − H(X); β = H(X : Y ) = H(X) + H(Y ) −
H(X, Y ). Observe that by getting to know α + β + γ = H(X, Y ), which is
the info lacking to us about X and Y , we can know everything about them,
as it should!
•We shall present a few simple examples based on the probability of outcomes by two
dice, a blue and a red one, which may be honest or tricked. In Appendix B, we can find
the theory above applied to dice problems.
Hc = −1/3 log2 1/3 − 1/3 log2 1/3 − 1/3 log2 1/3 = − log2 1/3 = log2 3 = 1.585 bits.
49
2. Fundamentos
•Once the candidate has chosen a door, the presenter opens another, distinct, door, with
a goat behind it. Then the candidate is asked whether he or she keeps the initial choice
of door, or if he or she switches to the only remaining door left. Which choice is more
advantageous? What would you do?
•Short answer: do switch the choices! Your probability of winning with the initial door
is always 1/3, and 2/3 of losing. If you switch, the probability of winning is now 2/3!
•Let us break down the actions, so we can understand what happens.
If the candidate chooses A, p(A) = 1/3, and the presenter opens either B or C, we assume
withe the same probability (it does not matter at all). Hence 2 cases:
α) candidate = A, presenter opens B, prob = 1/3 × 1/2 = 1/6, C is the other option
(switch and loses).
β) candidate = A, presenter opens C, prob = 1/3 × 1/2 = 1/6, B is the other option
(switch and loses).
Remaining 2 cases:
γ) candidate = B, presenter opens C, prob = 1/3 × 1 = 1/3, A is the other option
(switch and wins).
δ) candidate = C, presenter opens B, prob = 1/3 × 1 = 1/3, A is the other option (switch
and wins).
Hence, the probability of switching and losing is (α + β) 1/6+1/6 = 1/3, and the
probability of switching and winning is (γ + δ) 1/3+1/3 = 2/3.
•From a more mathematical point of view, let us study the conditional entropy for the
Monty Hall problem.
•Let us assume that X = car’s position, and Y = goats’ positions. If the doors are
numbered 1, 2, and 3, we have (X, Y ) ∈ {(1, {2, 3}) ; (2, {1, 3}) ; (3, {1, 2})}.
•The joint entropy is then
X
H(X, Y ) = − p(x, y) log2 p(x, y)
x,y
= −p (1, {2, 3}) log2 p (1, {2, 3}) − p (2, {1, 3}) log2 p (2, {1, 3}) − p (3, {1, 2}) log2 p (3, {1,
1
p (1, {2, 3}) = p (2, {1, 3}) = p (3, {1, 2}) = ,
3
hence
X 1 1
H(X, Y ) = − p(x, y) log2 p(x, y) = −3 log2 = log2 3 = 1.5849625.
x,y
3 3
•Since
X X 1 1
H(X) = − p(x) log2 p(x) = − p(x, y) log2 p(x, y) = −3 log2 = log2 3 = 1.5849625,
x,y
3 3
x=1,2,3
50
2.11. Informação
the conditional entropy reflects that knowing where the goats are determines the car’s
position
H(X|Y ) = H(X, Y ) − H(Y ) = log2 3 − log2 3 = 0.
•An interesting question is how much information the presenter gives the candidate by
opening the goat door. If that opening was done prior to the candidate choice, that
choice would be 1/2 & 1/2, so
Hcprior = −1/2 log2 1/2 − 1/2 log2 1/2 − 0 log2 0 = − log2 1/2 = log2 2 = 1 bit,
•However, if that opening was done after the candidate’s choice, then
Hcpost = −1/3 log2 1/3−2/3 log2 2/3−0 log2 0 = + log2 3−2/3 log2 2 = 1.585−0.667 = 0.918 bits,
DKL [ρ1 (x) || ρ2 (x)] = Trx (ρ1 (x) log2 ρ1 (x)) − Trx (ρ1 (x) log2 ρ2 (x)) . (2.48)
•We can prove that quite easily. Assume that we never have ρ2 (x) = 0 if ρ1 (x) ̸= 0.
Using the inequality (for x ≥ 0)
ln x ≤ x − 1,
51
2. Fundamentos
we have
X ρ1 (x)
DKL [ρ1 (x) || ρ2 (x)] = ρ1 (x) log2
x
ρ2 (x)
1 X ρ1 (x)
= ρ1 (x) ln
ln 2 x ρ2 (x)
1 X ρ2 (x)
= − ρ1 (x) ln
ln 2 x ρ1 (x)
1 X ρ2 (x)
≥ − ρ1 (x) −1
ln 2 x ρ1 (x)
1 X
= − (ρ2 (x) − ρ1 (x))
ln 2 x
1−1
= − =0
ln 2
⇒ DKL [ρ1 (x) || ρ2 (x)] ≥ 0.
Equality is obtained whenever ρ1 = ρ2 .
•An interesting comparison is the KL distance between a distribution ρ(x) and the
equiprobable distribution (the no-information distribution) where we have N = 2n :
X ρ1 (x)
DKL [ρ1 (x) || 1/N ] = ρ1 (x) log2
x
1/N
X
= log2 2n + ρ1 (x) log2 ρ1 (x)
x
= n − H(X)
= n − (n − ⟨nX ⟩)
= ⟨nX ⟩ ,
which shows us that the KL distance measures the amount of info (bits) one has to obtain
to go from the amount of knowledge about the original state (in the example above, that
amount is 0) to the amount necessary in order to completely know the new distribution
(which is given by the average amount of bits one knows about the distribution, i.e.,
⟨nX ⟩).
Derivation of KLD
•Assume that a message contains N letters {x} and we believe that we know the correct
probability distribution for these symbols Q(x). However, the correct distribution is
P (x). For large N the typical distribution of symbols will be Ni = pi N . We assume,
based on our belief in Q(x) that the drawn distribution should have a probability (Show
it!) !
Y qipi N
P = N! .
(pi N )!
i
52
2.11. Informação
•That probability should be written as P ∼ 2−N S(Px ||Qx ) , which gives us (Show it!)
X qi X qi
−N S(Px ||Qx ) = −N pi log2 ⇒ S(Px ||Qx ) = pi log2 .
pi pi
i i
F − ϵξ ⟨ϵξ ⟩ − F S
peq
X
H(S) = − ξ = = .
kB T kB T kB
ξ
53
3. Termodinâmica Estocástica
•Portanto, dado que não existe dependência temporal do Hamiltoniano (sistema isolado),
as probabilidades condicionais de transição são constantes. Os estados do sistema isolado
serão denotados por c.
•Suponhamos agora que nosso sistema isolado seja constituı́do por um sistema de tra-
balho e seu meio ambiente (reservatório, etc.). Os estados puramente do sistema de
trabalho serão denotados por s.
•Fixando τ , e definindo wab = P (a, t + τ |b, t), temos que wc,c′ não depende do tempo,
enquanto que [Ziener et al. (2015)] ws,s′ ≡ ws,s′ (t).
•A medida que o sistema de trabalho tende a alcançar um estado estacionário (que pode
ser de equilı́brio ou não), as probabilidades de transição tendem a se tornarem constantes.
55
3. Termodinâmica Estocástica
•Os detalhes fı́sicos do sistema, e a natureza das interações com o banho térmico, estão
codificados nas taxas de pulo kx,x′ (t). O primeiro passo para estabelecer a conexão com
a termodinâmica é determinar a natureza dessa codificação.
•Na ausência de forçagem externa, e com o reservatório sempre em equilı́brio, o balanço
detalhado é obedecido:
kx,x′ ϵx′ − ϵx
= exp , (3.2)
kx′ ,x kB T
onde ϵx é a energia do estado x. Com isso a distribuição de equilı́brio é única e dada por
F −ϵx
peq
x =e B .
k T
Manipulação
•Manipulação é uma maneira (lenta) de realizar trabalho externo alterando um parâmetro
externo no tempo, λ(t). The energy of the state changes as
ϵx ≡ ϵx (λ(t)) ≡ ϵx (t).
•Um exemplo de manipulação é o uso de pinças óticas: ajustando os lasers se cria um
potencial variável que prende a partı́cula, seja coloidal, esférica (acrı́lico), etc. A mani-
pulação altera a “dureza de mola” do potencial (veja o uso para criar uma máquina de
Carnot a uma partı́cula [Roßnagel et al. (2016)]), ou a posição do mı́nimo.
56
3.2. Apenas o sistema de trabalho
Driving
•Driving é o acoplamento do sistema a um agente externo que troca (rapidamente)
uma certa quantidade de energia com o sistema quando esse realiza pulos especı́ficos
(transições entre estados).
•Nesse caso a energia cedida pelo agente externo é dada por δx,x′ . Essa energia é imedi-
atamente repassada ao reservatório térmico.
•Um exemplo de driving acontece no caso de enzimas biológicas (tipo kinesina) alimen-
tadas por energia quı́mica: o driving representa a contribuição devido à hidrólise de ATP
(ATP + H2 O → ADP + PO4 ), pois uma parte dessa energia é perdida na forma de calor.
Essa reação é reversı́vel. Os link1 e link2 são interessantes.
•Uma parte da energia (trabalho) transmitida por driving (δx,x′ ), como a energia liberada
pela hidrólise do ATP, é usada para realizar a mudança de estado do sistema (ϵx′ → ϵx )
e o resto é liberado como calor diretamente para o reservatório.
57
3. Termodinâmica Estocástica
58
3.3. Trabalho e Calor em termodinâmica estocástica
59
3. Termodinâmica Estocástica
que mostra que o equilı́brio é parte da teoria. Isso mostra as definições que levam à
equação 3.9 são as definições corretas para o fator de energia do peso de Boltzmann para
os estados mesoscópicos.
•Vemos então que a energia do mesoestado, que é dada por
X
ϵx = −kB T ln e−ϵξ /kB T , (3.10)
ξ∈x
60
3.4. Calor mesoscópico e calor calorimétrico
Calor mesoscópico
•O calor mesoscópico é definido pela diferença de energias livres, dada pela Eq. 3.7. Eh
a definição natural de calor na termodinâmica estocástica. Mas não leva em conta as
trocas de calor necessárias para alterar as entropias dos mesoestados. Essa é a definição
natural para o calor na termodinâmica estocástica, apesar de que não leva em conta as
trocas de calor necessárias para alterar as entropias dos mesoestados.
Calor calorimétrico
•O calor calorimétrico é definido como o calor trocado com o reservatório, que poderia
ser medido por um calorı́metro infinitamente sensı́vel.
•Esse calorı́metro conseguiria levar em conta a quantidade de calor necessária rearranjar
as distribuições dos estados microscópicos dentro de cada mesoestado.
•A partir da primeira lei da termodinâmica estocástica 3.8, temos (onde ϵk é uma energia
livre e εk é uma energia interna)
n
X
q(x) = −ϵxk (λ(tk )) + ϵxk−1 (λ(tk )) + δxk ,xk−1
k=1
n
X
= −(εxk (λ(tk )) − T Sxk (tk )) + (εxk−1 (λ(tk )) − T Sxk−1 (tk )) + δxk ,xk−1
k=1
Xn n
X
= −εxk (λ(tk )) + εxk−1 (λ(tk )) + δxk ,xk−1 + T Sxk (tk )) − Sxk−1 (tk ))
k=1 k=1
O calor calorimétrico pode ser definido pelas trocas reais de energia de driving e
q cal
energia interna do sistema com o reservatório
Xn
cal
(3.11)
q = −εxk (λ(tk )) + εxk−1 (λ(tk )) + δxk ,xk−1 .
k=1
61
3. Termodinâmica Estocástica
•Assim, o calor calorimétrico q cal é dado então pela subtração da contribuição entrópica
do calor mesoscópico
n
X
q cal = q(x) − T (3.12)
Sxk (tk ) − Sxk−1 (tk ) ,
k=1
onde X
Sx = −kB pξ ln pξ ,
ξ∈x
Em resumo:
•Na termodinâmica estocástica energia quer dizer energia-livre, quando levamos em conta
a estrutura interna de cada mesoestado.
•A definição de calor mesoscópico também despreza a quantidade de calor liberado pro
reservatório devido à mudança da entropia interna do mesoestado.
•Como essas duas contribuições se cancelam no orçamento de energia do sistema, a
Eq. 3.8 parece formalmente com a primeira lei da termodinâmica.
•A Eq. 3.8 é uma forma coarse grained da primeira lei que despreza o que não afeta a
probabilidade dos mesoestados. Por isso a separação de escalas é tão importante.
•Miosina consome ATP tanto quando ligada à actina ou quando livre. Vamos focar no
caso livre, com dinâmica de reação mais lenta.
•Quando a molécula de ATP é ligada à miosina, ela é hidrolisada, ou seja, convertida
em ADP mais um grupo de fosfato (P). Essa reação fornece aa proteı́na motora uma
quantidade de energia livre de aproximadamente 25.5 kB T .
•Após esta reação o ADP e o grupo fosfato são eliminados o que permite à miosina se
ligar a uma nova molécula de ATP.
•Os estados de Miosina e ATP são os seguintes
i) Miosina livre (∅): energia (livre) ϵ∅ = 0;
ii) Miosina ligada ao ATP (AT P ): energia ϵAT P = −19 kB T ;
iii) Miosina ligada ao ADP e grupo fosfato (ADP + P ): energia ϵADP +P = 4 kB T ;
iv) Miosina ligada ao ADP (ADP ): energia ϵADP = −2 kB T.
•As taxas de reação são dadas por
i) kAT P,∅ = 2 × 104 s−1 & k∅,AT P = 10−4 s−1 ;
ii) kADP +P,AT P = 102 s−1 & kAT P,ADP +P = 10 s−1 ;
62
3.5. Hidrólise de ATP por Miosina
Figure 3.2.: Ciclo do ATP + Miosina. Observe que não tem trabalho de manipulação.
Observe que 25.5 kB T ≈ 0.61 eV.
63
3. Termodinâmica Estocástica
onde o trabalho quı́mico foi incluı́do no denominador da equação 3.13. Nessa expressão,
µi (λ) é o potencial quı́mico da espécie i e ∆nix,x′ é o número de moléculas da espécie i
trocadas com o reservatório (quimiostato) no pulo x′ → x.
•A expressão
X
Gx,x′ = ϵx′ (λ) − ϵx (λ) + µi (λ) ∆nix,x′ ,
i
64
3.6. Reservatórios Gerais
Múltiplos Reservatórios
•Supondo que existam R reservatórios, r = 1, . . . , R, cada reservatório representa uma
possibilidade de transição. Temos então (observe que cada reação possı́vel pode ser
intermediada por reservatórios diferentes)
R
(r)
X
kx,x′ = kx,x′ , (3.14)
r=1
∆ϵtot
x,x′ = −ϵx′ (λ) + ϵx (λ) − µ1 + µ2 .
•O balanço detalhado generalizado deve ser obedecido pelas taxas de pulo a nı́vel do
sistema completo S + R1 + R2 :
!
∆ϵtot
kx,x′ x,x′ ϵx′ (λ) − ϵx (λ) − µ1 + µ2
= exp − = exp − .
kx′ ,x kB T kB T
•A equação acima pode ser colocada na forma da equação 3.4 assumindo um driving
efetivo de
δx,x′ = ∆µ = µ1 − µ2 .
•O raciocı́nio acima ilustra como o driving pode ser pensado como uma forma de uma
força generalizada externa que facilita o pulo. Ou, equivalentemente, o desbalanço de
potencial quı́mico associado à transferência de partı́culas de um reservatório para o outro.
•Essas equações também se aplicam se manipulamos a temperatura, T (λ), onde interpre-
tamos a mudança como muitos reservatórios em equilı́brio que conectamos e desconecta-
mos ao sistema.
65
3. Termodinâmica Estocástica
66
3.8. Entropia estocástica e produção de entropia em sistema manipulado de dois nı́veis
•Assim o sistema total pode ser pensado como um sistema de apenas dois nı́veis (0,
diamante claro, e 1, diamante escuro). As taxas de transição entre esses estados, k ↑ e
k ↓ , podem ser manipuladas variando a potência dos lasers aplicados.
•Observando que as transições são dos estados + para os estados fundamentais 0 e 1,
para uma transição efetiva 0 ↔ 1 acontecer, é necessário que os lasers estejam ativos. Por
exemplo, se o laser verde está desligado e apenas o laser vermelho funciona, rapidamente
(na ordem de ms) o sistema vai pular para 1 e ficar indeterminadamente nesse estado.
•A relação efetiva do balanço detalhado fica (como não podemos resolver as taxas internas
de pulo, usamos a população estacionária de um estado, 0 e 1, e seu +, como se fosse um
único estado)
k ↑ p0st = k ↓ p1st . (3.21)
•As taxas de pulo são dadas por
k ↑ = a0 [1 + λ(t)], k ↓ = b0 , (3.22)
onde a−1 −1
0 = 26 ms, b0 = 31 ms,
2πt
λ(t) = γ sin ,
tm
67
3. Termodinâmica Estocástica
A equação acima se aplica caso o sistema interaja, ou não, com reservatórios térmicos ao
longo de sua trajetória.
•Na equação 3.24 vemos a variação (produção) da entropia total expressa como uma
função das taxas de pulo e probabilidades.
•As trocas de calor e trabalho também não tem uma interpretação fı́sica clara neste
caso. Mas a produção de entropia ainda continua sendo uma maneira útil de medir a
irreversibilidade da dinâmica (Taniguchi and Cohen (2007)).
68
3.9. Taxa de produção média de entropia
onde observamos que a entropia total produzida corresponde ao logaritmo da razão entre
a probabilidade da trajetória direta e aquela da trajetória inversa (a penalidade entrópica
acima foi ilustrada, de maneira bastante completa, em Taniguchi and Cohen (2007)).Va-
mos fazer o breakdown da Equação 3.24 abaixo.
Pulos
qx,x′ kx,x′
sres = = kB ln .
T kx′ ,x
kx,x′ px′
stot = sres + ∆ssys = kB ln .
kx′ ,x px
69
3. Termodinâmica Estocástica
Estadias
•Durante a estadia, ou seja, entre dois pulos, não tem troca de calor com o reservatório
e, portanto, a entropia do reservatório não muda.
•Quando o sistema está no estado x, sua entropia muda na taxa
dssys
x dλ ∂ kB dλ ∂px
= −kB ln px = −
dt dt ∂λ px dt ∂λ
kx,x′ px′
stot = kB ln .
kx′ ,x px
A taxa dessas reações, ou seja, o número médio de pulos x′ → x, é dada por Jx,x′ (veja
a equação 2.20)
Jx,x′ = kx,x′ px′ − kx′ ,x px .
Assim, a taxa de aumento da entropia total corresponde a somar, para todas as transições
x′ → x, o produto do número médio de pulos correspondentes pelo valor do aumento da
entropia para cada pulo:
onde o fator 2 é para evitar a supercontagem dos pares. A equação 3.25 é a Fórmula de
Schnakenberg.
•A derivada da entropia total é marcada por um ponto, pois reservamos a notação da
derivada total no tempo para funções de estado.
•Como o sinal de
kx,x′ (t) px′ (t)
ln ,
kx′ ,x (t) px (t)
é o mesmo de
Jx,x′ (t) = kx,x′ (t) px′ (t) − kx′ ,x (t) px (t),
cada termo da equação 3.25 é não negativo e só é nulo se cada par se anula entre si,
ou seja, se o balanço detalhado é respeitado, que é o mesmo de que o sistema esteja em
equilı́brio.
70
3.10. Teoria de rede de Estados de não-equilı́brio estacionários (NESS)
•Vemos então que a produção de entropia média do reservatório e do sistema são dadas
por
dS sys
Ṡ tot = Ṡ res + ,
dt
onde
kB X kx,x′ (t)
Ṡ res = Jx,x′ (t) ln , (3.26)
2 ′
kx′ ,x (t)
x,x
e
dS sys kB X px′ (t)
= Jx,x′ (t) ln . (3.27)
dt 2 ′
px (t)
x,x
dS sys
= 0,
dt
e Ṡ tot = Ṡ res .
satisfaz X
Jx,x′ = 0. (3.28)
x′
•A equação 3.28 é equivalente às leis de Kirchoff para as correntes, com a corrente de
probabilidades Jx,x′ fazendo o papel da corrente elétrica.
•Vamos definir um ciclo C como sendo uma sequência de estados (nodes) distintos conec-
tados consecutivamente por ligações (edges), de modo que o último estado do ciclo e o
primeiro estado do ciclo são o mesmo estado, e apenas o primeiro e o último.
•Se o edge entre x e x′ não pertencer a nenhum ciclo, então Jx,x′ = Jx′ ,x = 0 (no estado
estacionário, é claro). Imagine um “rabicho” formado por nodes e edges (que assim não faz
parte de nenhum ciclo): no estado estacionário as probabilidades devem ser constantes,
e, portanto, a ponta do rabicho deve ter fluxo zero, e assim por diante. Ao longo de todo
o rabicho temos que ter Jx,x′ = Jx′ ,x = 0.
71
3. Termodinâmica Estocástica
•Se toda a rede de pulo (jump network) é formada por apenas 1 ciclo, então a corrente
(no estado estacionário) deve ser constante, independente do nó (nodo, node).
•A idéia básica da teoria de Kirchoff é decompor o network em um conjunto de ciclos
com a ajuda de conceitos de teoria de grafos.
•Vamos desprezar os casos em que um nodo está conectado com outro nodo por mais de
uma ligação (edge), como é o caso quando dois ou mais reservatórios estão conectados
ao sistema.
•A rede núcleo (core network - CN) é formada retirando da rede todos as ligações que
não fazem parte de nenhum ciclo no estado estacionário.
•Podemos agora decompor o CN em ciclos fundamentais.
•Podemos construir a árvore de abrangência (spanning tree - ST) do network (veja Schnaken-
berg (1976)) removendo edges do mesmo de modo que cada remoção termina com algum
ciclo, até o momento em que não restem mais ciclos. Na figura 3.6 vemos um exemplo
do processo para obter a arvore de abrangência do network.
•A ST é conectada por construção (pode ter mais de uma possı́vel, portanto não é única),
não contém nenhum ciclo (por construção) e contém todos os nodos do CN. Se o CN tem
N estados (nodos) a ST tem N − 1 ligações (edges).
•Os ν edges removidos para criar a ST são chamados cordas. Elas podem ser etiquetadas
por um ı́ndice α ∈ {1, 2, . . . , ν}. Adicionando uma corda α obtemos um network com ex-
atamente 1 ciclo. Chamaremos esse ciclo de ciclo Cα . O conjunto dos ciclos fundamentais
{Cα } é o conjunto dos ciclos fundamentais. do network.
•Esses ciclos são chamados de fundamentais, dado que são independentes. Sua união
reproduz o CN, e qualquer função linear definida nos ciclos do network original pode ser
representada como uma combinação de funções no conjunto {Cα }.
•Assim, podemos escrever o fluxo de probabilidade passando por qualquer edge, no estado
estacionário, como a soma de correntes fluindo nos ciclos fundamentais.
Corrente de probabilidades
•Podemos expressar a corrente de probabilidade em cada edge se primeiro orientamos
cada edge (tipo positivo se x′ → x e negativo se x → x′ ). Definimos a variável sx,x′ (α) de
modo que sx,x′ (α) = +1 se o edge x′ → x tem a mesma orientação de Cα , e sx,x′ (α) = −1
se o edge x′ → x tiver a orientação contrária a Cα .
•Escrevemos então:
X ν
Jx,x′ = sx,x′ (α) Jα , (3.29)
α=1
onde Jα é o fluxo do ciclo fundamental Cα .
Produção de entropia
•A produção de entropia é também uma função linear dos ciclos do network dos pulos
entre estados.
•A equação 3.25 mostra que a entropia produzida é uma função linear das correntes de
probabilidade e não recebem contribuições de pulos que não fazem parte dos ciclo.
72
3.11. Reações quı́micas estocásticas
•Portanto, a teoria de Kirchoff nos diz que podemos decompor linearmente a média das
taxas de produção de entropia em contribuições do conjunto de ciclos fundamentais.
•Podemos definir a afinidade Aα , do ciclo fundamental Cα , como (ciclo com n-nodos)
n n
!
Y kxi+1 ,xi X
Aα = kB T ln = qxi+1 ,xi , (3.30)
kxi ,xi+1
i=1 i=1
(nA , nB , nC , . . .),
Reações a 1 corpo
•Em reações a um corpo o reagente é uma única molécula. Por exemplo: uma reação
de decaimento A → ∅. Como uma partı́cula participa individualmente da reação, a taxa
total é proporcional à quantidade total de moléculas presentes:
knA −1,nA = k nA ,
73
3. Termodinâmica Estocástica
Reações binárias
•Em reações binárias duas moléculas reagem em conjunto. Por exemplo
A + B ⇀ AB,
AB ↽ A + B,
•Denotamos por
⟨nA ⟩ ⟨nB ⟩
[A] = , & [B] = ,
V V
as concentrações médias por volume das moléculas A e B.
•Usando as taxas de reação escritas acima podemos escrever a equação mestra para
pnA ,nB (t):
d
pn ,n (t) = k + (nA + 1) pnA +1,nB −1 (t) + k − (nB + 1) pnA −1,nB +1 (t)
dt A B
− (k + nA + k − nB ) pnA ,nB (t). (3.32)
•Se o sistema não está em contato com um reservatório, o número total de partı́culas é
fixo
N = nA + nB .
Assim podemos expressar a equação mestra 3.32 em função apenas de nA . Nessa repre-
sentação, a taxa de pulo se escreve
74
3.11. Reações quı́micas estocásticas
•Temos então
N
d X
nA k + (nA + 1) pnA +1 (t) + k − (N − nA + 1) pnA −1 (t)
⟨nA ⟩ =
dt
nA =0
(k nA + k − (N − nA )) pnA (t)
+
−
= k + ⟨nA (nA − 1)⟩ + k − ⟨(N − nA )(nA + 1)⟩
− k + n2A − k − ⟨(N − nA )nA ⟩
= −k + ⟨nA ⟩ + k − ⟨(N − nA )⟩ .
d
[A] = −k + [A] + k − [B].
dt
•No equilı́brio temos
[B]eq k+
k + [A]eq = k − [B]eq ⇒ = −.
[A]eq k
•Se a diferença de energia entre uma molécula B e uma molécula A é ∆ϵ = ϵB − ϵA ,
temos no equilı́brio:
[B]eq − ∆ϵ k+ − ∆ϵ
= e kB T ⇒ − = e kB T . (3.34)
[A]eq k
A relação acima, equação 3.34, é chamada de relação de de Donder. Essa relação provê
uma conexão entre os termos diretos e inversos da reação e sua afinidade, ou seja, a
diferença de energia-livre associada à reação.
•Da equação 3.33, dado que nA , N − nA ≫ 1, temos
onde
∆ϵnA = ϵnA +1 − ϵnA ,
75
3. Termodinâmica Estocástica
e
ϵnA = (N − nA ) ∆ϵ + kB T [nA ln nA + (N − nA ) ln(N − nA )] ,
onde a energia-livre, do estado com nA partı́culas A e (N − nA ) partı́culas B, leva em
conta a entropia de mistura.
•A equação 3.35 conecta as taxas macro com as micro da equação 3.34.
76
3.12. Teoria da Resposta Linear (LRT)
•Devido à causalidade temos que ter Kβ,α (t, t′ > t) = 0. Além disso, os efeitos da
manipulação devem ser invariantes sob translação temporal:
Kβ,α (t, t′ ) = Kβ,α (t − t′ ), ∀α, β. (3.38)
•Vamos considerar uma manipulação do tipo
λ(t) = λ(0) θ(−t) eϵ t , (3.39)
onde θ(−t) é a função de Heaviside, e ϵ > 0 é arbitrariamente pequeno.
•Essa manipulação cresce gradualmente de 0, quando t = −∞, até um valor constante e
pequeno λ(0) , quando é desligada em t = 0.
•Como ϵ é pequeno, em t = 0 a distribuição de probabilidades do sistema é a probabili-
dade de equilı́brio peq (λ(0) ), na presença de λ(0) constante:
px (0; λ) = peq
x (λ)
(0) P (0)
F (λ(0) )−ϵx + α λα Xα,x
= e kB T
(0) (0)
F (λ(0) )−ϵx
P
α λα Xα,x
= e kB T
e kB T
(0) P (0)
F (0)−ϵx α λα Xα,x
≈ e kB T
e kB T
!
P (0)
α λα Xα,x
≈ peq
x (0) 1+ (3.40)
kB T
onde usamos a expansão linear em λ(0) , com (lembre que λα e Xα são conjugados)
∂F (λ)
= ⟨Xα ⟩λ=0 = 0, ∀α.
∂λα λ=0
•A média ⟨Xβ (t)⟩λ para t > 0 é igual a média de Xβ sobre a distribuição de probabilidades
px (t) que satisfaz a EM, mas com a distribuição inicial peq x (λ).
•Dada a condição inicial acima, a solução dessa equação é dada por
é claro.
•Em primeira ordem em λ temos
P (0)
!
α λα Xα,x′
Gx,x′ (t) peq
X
px (t) = x′ (0) 1+
kB T
x′
1 X X eq
= peq
x (0) + Gx,x′ (t) λ(0)
α Xα,x′ px′ (0).
kB T ′ α
x
77
3. Termodinâmica Estocástica
onde definimos
Xx,β Gx,x′ (t) Xα,x′ peq
X
⟨Xβ (t) Xα ⟩0 = x′ (0).
x,x′
onde
Cβ,α (t) = ⟨Xβ (t) Xα ⟩0 .
•Como Z 0 Z ∞
′ ′
dt Kβ,α (t − t ) = dt′ Kβ,α (t′ ),
−∞ t
podemos tomar a derivada do RHS e obter
θ(t) d θ(t) d
Kβ,α (t) = − ⟨Xβ (t) Xα ⟩0 = − Cβ,α (t). (3.42)
kB T dt kB T dt
•A equação 3.42 é uma forma de teorema de flutuação-dissipação dependente do tempo.
•Relações de Flutuação-Dissipação conectam flutuações de equilı́brio de observáveis,
dadas pelo lado direito da equação 3.42, com a resposta a pequenas perturbações ex-
ternas, dadas pelo coeficiente Kβ,α do lado esquerdo dessa mesma equação.
78
3.12. Teoria da Resposta Linear (LRT)
epsilon
Uma trajetoria eh mostrada em verde. No instante "t" o estado associado a trajetoria, x(t)
estah mostrado no estado epsilon. A entropia instantanea eh dada a partir da distribuicao
de probabilidades completa para o instante "t".
Figure 3.3.: Um detalhe importante é que a entropia estocástica só depende do ponto
especı́fico da trajetória, x(t), mas deve ser calculada levando em conta a
distribuição completa de probabilidades px(t) (t).
79
3. Termodinâmica Estocástica
fluorescência
verde
vermelho
0 1
Diamante Claro Diamante Escuro
Figure 3.4.: Ciclo de estados do diamante tipo-IIa (0 claro, 1 escuro) com taxas de
transição 0 ↔ 1 que podem ser manipuladas.
80
3.12. Teoria da Resposta Linear (LRT)
81
A. Propriedades ergódicas de processos
Markovianos com número finito de
estados
A.1. Equação Mestra
•Vamos discutir propriedades ergódicas de equações mestras com número finito N de
estados.
•Vamos assumir que as taxas de pulo são independentes do tempo e que o sistema é
conexo, ou seja, sempre podemos transicionar de qualqer um a qualquer outro estado do
sistema. Neste caso a equação mestra possui uma solução estacionária única pst que é
atingida em t → ∞, independentemente da distribuição inicial.
•O operador de Liouville pode ser definido usando a extensão
X
kx,x = −kout = − kx′ ,x .
x′
•A solução formal é dada por (escolhemos P = P (∆t), e aı́ a matriz P se chama uma
cadeia de Markov, um processo de Markov para tempos discretos)
•Propriedade de normalização de P :
X X X px′ ,t+∆t;x,t px,t
Px′ ,x = px′ ,t+∆t|x,t = = = 1. (A.1)
′ ′ ′
px,t px,t
x x x
83
A. Propriedades ergódicas de processos Markovianos com número finito de estados
•Um vetor pode ser separado em sua parte positiva (u)+ e negativa −(u)− . Assim um
vetor pode ser escrito
u = (u)+ − (u)− .
•Definimos então
α = Min ||(u)+ ||, ||(u)− || .
•Portanto
P (u)+
x
≥ δα, ∀x,
e
P (u)−
x
≥ δα, ∀x.
É só ver que a norma da parte positiva (negativa) vai ser multiplicada por termos iguais
ou maiores que δ, e ainda somada a outros termos, todos positivos.
•Portanto, podemos limitar o valor de P (u) como abaixo:
Para entender acima veja que ||P (u)+ − P (u)− || envolve uma diferença. Supondo que α
seja da parte negativa, temos que ||P (u)+ − δαI|| > ||P (u)+ − P (u)− || pois P (u)− > αδ.
O mesmo acontece se α pertencer à parte positiva.
84
A.3. Desigualdade de Jensen
Se todos os termos de P fossem iguais terı́amos a igualdade, como não são iguais em
geral temos ||P (u)+ || ≤ ||(u)+ || e podemos então concluir (P (u)):
•Podemos generalizar a equação A.2 da seguinte forma: considere N pontos (αi , f (αi ))
cada um com massa mi . Se f (x) for côncavo ou convexo, o CM desses ponto sempre
estará de um lado da curva f (x). Se é concava, a função estará acima do CM. Se convexa,
o CM estará acima da função.
•para o caso de uma função f (x) convexa, o CM tem por coordenadas
P
i m i αi
xCM = P
mi
P i
iPmi f (αi )
yCM =
i mi
≥ f (xCM ),
85
B. Dices and Entropies
1 1
H(X) = −6 × log2 = log2 6;
6 6
1 1
H(Y ) = −6 × log2 = log2 6;
6 6
1 1
H(X, Y ) = −36 × log2 = log2 36 = 2 log2 6;
36 36
•Finally we have:
87
B. Dices and Entropies
1 1
H(X) = −6 × log2 = log2 6;
6 6
1 1
H(Y ) = −6 × log2 = log2 6;
6 6
1 1
H(X, Y ) = −30 × 0 log2 0 − 6 × log2 = log2 6;
6 6
•Finally we have:
H(X|Y ) = log2 6 − log2 6 = 0;
•That means there is nothing left to know about X once you know Y . Also:
•The mutual information between X and Y corresponds to all the information necessary
to know X.
88
B.3. Partially tricked (partially correlated) dice:
1 2 3 4 5 6
1 1/18 1/18 1/18 0 0 0
2 1/18 1/18 1/18 0 0 0
3 1/18 1/18 1/18 0 0 0
4 0 0 0 1/6 0 0
5 0 0 0 0 1/6 0
6 0 0 0 0 0 1/6
•The marginal probabilities are still the same:
1 2 3 4 5 6
1/6 1/6 1/6 1/6 1/6 1/6
and
1 1/6
2 1/6
3 1/6
4 1/6
5 1/6
6 1/6
•The entropies for the dices are still the same
1 1
H(X) = −6 × log2 = log2 6;
6 6
1 1
H(Y ) = −6 × log2 = log2 6.
6 6
•The total entropy is more interesting now:
1 1 1 1
H(X, Y ) = −24×0 log2 0−3× log2 −9× log2 = 0.5 log2 6+0.5 log2 18 = log2 6+0.5 log2 3.
6 6 18 18
•Finally we have:
•That means there is somewhat less left to know about X than in the case of the uncor-
related dices, but more than in the completely correlated case, if you know Y . Also:
•For the cases 1, 2, and 3, respectively, the breakdown of the entropy H(X) in terms
of its conditional + mutual entropy parts are 2.58+0 (we know nothing about X if we
know Y ), 0 + 2.58 (we know everything about X if we know Y ), and 0.79 + 1.79 (we
know something about X if we know Y ).
89
C. Formula de Itô e mapeamento
Itô-Stratonovich
C.1. EL em Stratonovich
•Seja a EL abaixo na interpretação de Stratonovich
dx
= σ(x) ◦ ξ(t), (C.1)
dt
cuja solução é Z t
x(t) = x(t0 ) + dW (t′ ) ◦ σ(x(t′ )). (C.2)
t0
•Em forma discretizada temos
xi+1 + xi
xi+1 = xi + σ (Wi+1 − Wi ),
2
a3 ′′′
f (x + a) − f (x − a) = 2 a f ′ (x) + f (x) + . . .
3
•Desprezando o termo de ordem O(a3 ) acima temos
′ xi+1 + xi
f (xi+1 ) = f (xi ) + f (xi+1 − xi )
2
′ xi+1 + xi xi+1 + xi
= f (xi ) + f σ (Wi+1 − Wi )
2 2
•Podemos reescrever a equação acima em forma estocástica como
df
= f ′ (x) σ(x) ◦ ξ(t). (C.3)
dt
•Observe que a Equação C.3 mostra que a prescrição de Stratonovich pode ser trabalhada
como o cálculo normal (não estocástico).
•Para o caso com drift temos
df
= f ′ (x) v(x, t) + f ′ (x) σ(x) ◦ ξ(t).
dt
91
C. Formula de Itô e mapeamento Itô-Stratonovich
dx
= σ(x) · ξ(t), (C.4)
dt
•Este caso é mais simples e temos
1 ′′
df = f ′ (x(t)) σ(x(t)) dW + f (x(t)) σ 2 (x(t)) dt,
2
que também pode ser escrito como
1 ′′
df = f ′ (x(t)) dx + f (x(t)) σ 2 (x(t)) dt,
2
ou então
df dx 1 ′′
= f ′ (x(t)) + f (x(t)) σ 2 (x(t))
dt dt 2
1 ′′
= f (x(t)) σ 2 (x(t)) + f ′ (x(t)) σ(x) · ξ(t). (C.5)
2
92
C.1. EL em Stratonovich
∂2
2
∂ ∂ 1 ′ σ (x)
p(x, t) = − σ(x)σ (x) p(x, t) + p(x, t)
∂t ∂x 2 ∂x2 2
∂ σ 2 (x)
∂ 1
= − σ(x)σ ′ (x) p(x, t) + p(x, t)
∂x 2 ∂x 2
∂ 1 ′ ′ σ(x) ∂ σ(x)
= − σ(x)σ (x) p(x, t) + σ (x) p(x, t) + σ(x) p(x, t)
∂x 2 2 ∂x 2
1 ∂ ∂
= σ(x) (σ(x) p(x, t))
2 ∂x ∂x
93
About the Author
W.A.M. Morgado é professor do Departamento de Fı́sica da PUC-Rio.
95
Bibliography
Breuer, H.-P. and Petruccione, F. (2002). The Theory of Open Quantum Systems. Oxford
University Press, 3 edition.
Esposito, M., Lindenberg, K., and den Broeck, C. V. (2010). Entropy production as
correlation between system and reservoir. New Journal of Physics, 12:013013.
Horodecki, M., Oppenheim, J., and Winter, A. (2005). Partial quantum information.
Nature, 436(7051):673–676.
Roßnagel, J., Dawkins, S. T., Tolazzi, K. N., Abah, O., Lutz, E., Schmidt-Kaler, F., and
Singer, K. (2016). A single-atom heat engine. Science, 352:325–330.
Schumacher, B. and Nielsen, M. A. (1996). Quantum data processing and error correc-
tion. Physical Review A, 54(4):2629.
97
C. Bibliography
Vera Moreno, M., Gonzalez Arenas, Z., and Barci, D. G. (2015). Langevin dynamics for
vector variables driven by multiplicative white noise:A functional formalism. Physical
Review E, 91:042103.
Ziener, R., Maritan, A., and Hinrichsen, H. (2015). On entropy production in nonequi-
librium systems.
98