Escolar Documentos
Profissional Documentos
Cultura Documentos
BLOCO
II
Formalismo
104
II1.
Os
Postulados
da
Mecânica
Quântica
Os
fundamentos
da
Mecânica
Quântica
foram
introduzidos
na
Parte
I
deste
curso,
incluindo
alguns
aspectos
históricos.
Nesta
segunda
parte
veremos
o
seu
formalismo
matemático
e
diversas
aplicações.
Destacam-‐se
as
técnicas
de
segunda
quantização,
e
o
conceito
de
matriz
densidade,
além
da
própria
estrutura
formal
da
teoria.
A
primeira
permite
não
apenas
a
diagonalização
de
hamiltonianos
de
problemas
com
muitos
componentes,
mas
também
uma
descrição
unificada
baseada
na
natureza
quântica
das
partículas
(bósons
ou
férmions).
A
segunda
é
uma
ferramenta
poderosa
para
o
cálculo
de
observáveis
termodinâmicos
a
partir
do
conhecimento
do
hamiltoniano
do
sistema,
o
que
permite
uma
comparação
direta
com
dados
experimentais.
O
formalismo
da
mecânica
quântica
é
construído
sobre
quatro
postulados:
Postulado
1:
Espaço
de
estados
–
A
qualquer
sistema
físico
isolado
existe
associado
um
espaço
vetorial
complexo,
chamado
de
espaço
de
estados,
também
conhecido
como
espaço
de
Hilbert.
A
cada
estado
físico
do
sistema
corresponde
um
vetor
no
espaço
de
Hilbert,
chamado
de
ket,
ou
vetor
de
estado,
representado
por1:
Ψ
(II1.1)
O
vetor
complexo
conjugado
de
um
ket
é
chamado
de
bra,
e
representado
por2:
(II1.2)
Ψ
1
Esta
notação
foi
introduzida
por
Paul
A.M.
Dirac
em
1939
no
artigo:
A
new
notation
for
quantum
mechanics,
Math.
Proc.
Cambridge
Philos.
Soc.,
35
(1939)
416.
2
Em
matemática,
todo
espaço
vetorial
tem
um
espaço
dual
correspondente.
Os
elementos
do
espaço
dual
dos
kets
são
os
bras.
O
produto
escalar,
resultado
da
ação
de
um
bra
sobre
um
ket,
é
uma
operação
linear
que
associa
um
número
complexo
a
cada
vetor
de
estado.
105
Os
vetores
de
estado
no
espaço
de
Hilbert
são
normalizados,
condição
representada
pelo
produto
escalar:
Ψ Ψ = 1
(II1.4)
Como
ocorre
em
qualquer
espaço
vetorial,
os
vetores
de
estado
no
espaço
de
Hilbert
podem
ser
expandidos
em
diferentes
bases.
A
título
de
comparação,
no
ℜ!
um
vetor
A
qualquer
pode
ser
expandido
na
base
de
coordenadas
retangulares:
𝑨 = 𝐴! 𝒊 + 𝐴! 𝒋 + 𝐴! 𝒌,
ou
na
base
de
coordenadas
esféricas:
𝑨 = 𝐴! 𝒓 + 𝐴! 𝜽 + 𝐴! 𝝓,
106
ou
em
qualquer
outra
base.
O
vetor
A
permanece
o
mesmo,
tendo
mudado
apenas
a
sua
representação.
Os
elementos
da
base
são
em
geral
ortonormais
entre
si,
embora
isto
não
seja
estritamente
necessário.
Figura
II1.1
–
No
espaço
R3
um
vetor
qualquer
é
escrito
como
uma
combinação
linear
de
três
componentes
mutuamente
ortogonais.
No
espaço
de
Hilbert
um
vetor
de
estado
(ket)
é
escrito
como
uma
combinação
linear
de
vetores
mutuamente
ortogonais,
e
pode
ter
dimensão
infinita.
No
espaço
de
Hilbert,
as
bases
vetoriais
podem
ser
discretas
ou
contínuas,
finitas
ou
Ψ = ∑ cn n
(II1.6)
n
onde
os
coeficientes
da
expansão,
cn
,
são
números
complexos
chamados
de
amplitudes
de
probabilidade.
A
normalização
do
vetor
de
estado
implica
em:
107
2
Ψ Ψ = ∑ cm* cn m n = ∑ cn = 1 (II1.7)
n,m n
Repare
que
a
igualdade
mais
a
direita
tem
a
propriedade
de
uma
soma
de
probabilidades.
Voltaremos
a
isto
mais
adiante.
Usando
a
propriedade
do
produto
escalar,
o
vetor
de
estado
pode
ser
projetado
em
qualquer
“direção”
no
espaço
de
Hilbert:
m Ψ = ∑ cn m n = cm (II1.8)
n
Deste
resultado
deduz-‐se
que:
cm* = Ψ m .
Um
outro
tipo
de
produto
que
pode
ser
construído
com
vetores
de
estado
é
o
análogo
ao
produto
tensorial
de
vetores
no
ℜ! 3,
representado
por:
Ψ Φ (II1.9)
Mais
adiante
veremos
que
o
resultado
deste
produto
não
é
outro
vetor,
mas
uma
matriz.
Usando
os
resultados
acima,
podemos
deduzir
uma
importante
propriedade
da
base.
Primeiro
vamos
construir
o
operador
m m
e
aplica-‐lo
a
um
estado:
m m Ψ = ∑ cn m m n = cm m (II1.10)
n
3
O
produto
tensorial
entre
dois
vetores,
também
chamado
de
produto
diático,
𝒖 = 𝑢 , 𝑢 , 𝑢
e
! ! !
𝑢! 𝑣! 𝑢! 𝑣! 𝑢! 𝑣!
𝒗 = 𝑣! , 𝑣! , 𝑣! ,
é
denotado
por
𝒖⨂𝒗,
e
dado
por:
𝑢! 𝑣! 𝑢! 𝑣! 𝑢! 𝑣! .
𝑢! 𝑣! 𝑢! 𝑣! 𝑢! 𝑣!
108
Ou
seja,
o
operador
|𝑚 𝑚|
projeta
o
vetor
de
estado
|Ψ
sobre
uma
“direção”
particular
no
espaço
de
Hilbert.
Por
esta
razão
operadores
com
esta
propriedade
são
chamados
de
projetores.
Projetores
possuem
uma
importante
propriedade,
que
pode
ser
deduzida
da
forma
a
seguir.
Seja
a
expansão
de
um
vetor
de
estado
em
uma
base
{|𝑛 }:
Ψ = ∑ cn n = ∑ n Ψ n (II1.11)
n n
A
quantidade
n Ψ
é
um
número
puro
e
portanto
podemos
escrever:
# &
Ψ = ∑ n n Ψ = $∑ n n ' Ψ ⇒ ∑ n n = I
(II1.12)
n %n ( n
onde
I
é
a
matriz
identidade.
Esta
propriedade
deve
ser
satisfeita
para
qualquer
base,
e
é
conhecida
como4
completividade.
Da
mesma
forma
que
vetores
no
ℜ!
podem
ser
escritos
como
matrizes
linha
ou
coluna,
vetores
de
estado
são
representados
da
mesma
forma.
Um
estado
como
o
da
Eq.
(II1.11)
pode
ser
escrito
como:
𝑐!
𝑐!
|Ψ = 𝑐! e Ψ| = (𝑐!∗ 𝑐!∗ 𝑐!∗ … 𝑐!∗ )
(II1.13)
⋮
𝑐!
Vamos
olhar
para
o
caso
específico
de
um
spin
½
.
Uma
base
possível
para
tal
sistema
é
o
par
de
autoestados:
(II1.14)
4
Em
ingles,
o
termo
usado
é
completeness,
que
siginifica
plenitude.
109
1 0
|↑ = e |↓ =
0 1
Qualquer
estado
de
1
spin
pode
ser
escrito
nesta
base
como:
𝑎
Ψ = 𝑎 ↑ + 𝑏|↓ =
(II1.15)
𝑏
A
normalização
do
estado
requer
que:
2 2
Ψ Ψ =1⇒ a + b =1 (II1.16)
Esta
propriedade
é
a
mesma
que
a
das
funções
seno
e
cosseno,
o
que
permite
parametrizar
o
estado
de
1
spin
½
utilizando
ângulos
θ
e
φ,
da
seguinte
forma:
"θ % "θ %
Ψ = cos $ ' ↑ + eiφ sin $ ' ↓ (II1.17)
#2& # 2 &
A
vantagem
desta
representação
é
que
ela
oferece
um
quadro
geométrico
simples
do
espaço
de
Hilbert
de
1
spin
como
sendo
uma
esfera,
a
qual
é
conhecida
como
Esfera
de
Bloch.
Qualquer
estado
pode
ser
mapeado
em
um
par
de
ângulos
θ
e
φ
sobre
esta
esfera.
Em
particular,
os
autoestados
da
base
são
os
polos
opostos
da
esfera,
como
mostra
a
Figura
II1.2.
110
Figura
II1.2
–
A
Esfera
de
Bloch
representa
o
espaço
de
Hilbert
de
1
spin
1/2
.
Qualquer
estado
pode
ser
mapeado
em
apenas
dois
ângulos;
os
estados
que
formam
a
base
ficando
nos
polos
da
esfera.
Uma
outra
base
interessante
para
representar
os
estados
de
1
spin
½
é
a
seguinte,
formada
pelos
vetores
+
e
− definidos
por:
↑ +↓
+ =
2 (II1.16)
↑ −↓
− =
2
Repare
que
estes
vetores
satisfazem
os
requisitos
para
compor
uma
base:
são
ortonormais
e
atendem
à
condição
de
completividade.
Na
Esfera
de
Bloch
eles
se
encontram
em
pontos
opostos
sobre
o
eixo
X.
Postulado
2:
Evolução
de
estados
–
A
evolução
de
um
sistema
físico
isolado
é
representada
por
uma
transformação
unitária,
U,
atuando
sobre
o
estado
no
espaço
de
Hilbert,
representada
por:
Φ =U Ψ
(II1.17)
UU + = I
A
propriedade
de
unitariedade
implica
na
conservação
da
norma
do
estado,
111
Φ Φ = Ψ U +U Ψ = Ψ Ψ = 1 ,
(II1.18)
e
também
na
reversibilidade
da
transformação:
Ψ = U −1 Φ (II1.19)
Evolução
Temporal
de
estados
–
Um
tipo
particularmente
importante
de
transformação
é
a
evolução
temporal
de
vetores
de
estado
de
um
sistema
isolado.
Tal
evolução
é
descrita
pela
equação
de
Schroedinger:
∂
i! Ψ = H Ψ ,
(II1.20)
∂t
onde
H
é
o
hamiltoniano
do
sistema.
Se
H
não
depender
do
tempo,
a
solução
desta
equação
é
dada
por:
# Ht &
Ψ(t) = exp % −i ( Ψ(0) (II1.21)
$ ! '
Vemos
portanto
que
para
evoluções
temporais
o
operador
unitário
U
é
dado
por,
" Ht %
U(t) = exp $ −i ' ,
(II1.22)
# ! &
o
que
garante
a
conservação
da
norma
e
reversibilidade
temporal.
Se
durante
um
intervalo
de
tempo
t1
o
sistema
é
atuado
por
um
hamiltoniano
H1,
durante
t2
por
H2,
etc.,
tn
por
Hn,
a
evolução
temporal
total
do
estado,
de
t1
até
tn
é:
112
# Ht & # H t & # Ht & # Ht &
Ψ(tn ) = exp % −i n n ( exp % −i n−1 n−1 ("exp % −i 2 2 ( exp % −i 1 1 ( Ψ(0) (II1.23)
$ ! ' $ ! ' $ ! ' $ ! '
Note
que
em
uma
sequência
como
esta,
os
hamiltonianos
podem
conter
operadores
que
não
comutam
entre
si,
e
portanto
o
produto
dos
operadores
de
evolução
não
pode
ser
substituído
por
um
único
operador
com
uma
soma
de
hamiltonianos.
Como
exemplo
de
evolução
temporal
de
estado
em
um
espaço
discreto,
considere
um
spin
½
em
um
campo
magnético
uniforme
na
direção
Z.
O
hamiltoniano
para
este
sistema
é:
𝐻 = − 𝝁 ∙ 𝑩 = −2𝜇! 𝐵! 𝑆! = − 𝜇! 𝐵! 𝜎!
(II1.24)
onde
𝜎! = 2𝑆! .
Como
este
hamiltoniano
independe
de
t,
o
vetor
de
estado
em
um
instante
qualquer
será:
) #µ B & # µ B &,
Ψ(t) = e−iHt/! Ψ(0) = e+i( µB B0t/!)σ z Ψ(0) = * I cos % B 0 t ( + iσ z sin % B 0 t (- Ψ(0)
+ $ ! ' $ ! '.
(II1.25)
Supondo
que
em
t
=
0
o
estado
era
Ψ(0) = + ,
e
tendo
em
conta
que
↑ +↓ ↑ −↓
σ z + = σ z = = − ,
2 2
ficamos
com:
"µ B % "µ B %
Ψ(t) = cos $ B 0 t ' + + isin $ B 0 t ' −
(II1.26)
# ! & # ! &
113
Este
resultado
representa
um
vetor
que
gira
no
plano
X-‐Y
da
Esfera
de
Bloch,
com
frequência
angular
𝜔! = 𝜇! 𝐵! /ℏ.
Note
que
para
𝜔! 𝑡 = 𝑛𝜋,
com
n
inteiro,
o
estado
Ψ(t) será
autoestado
de
𝜎! ,
e
para
𝜔! 𝑡 = 𝑛𝜋/2
autoestado
de
𝜎! .
Postulado
3:
Composição
de
estados
–
O
espaço
de
Hilbert
de
sistemas
físicos
compostos
é
formado
pelo
produto
tensorial
dos
espaços
individuais.
Por
exemplo,
os
elementos
da
base
de
um
sistema
de
dois
spins
½
são
dados
por:
{ ↑ , ↓ } ⊗ { ↑ , ↓ } = { ↑↑ , ↑↓ , ↓↑ , ↓↓ }
(II1.27)
O
espaço
de
Hilbert
corresponde
a
todas
as
combinações
de
bras
e
kets
desta
base,
ou
seja,
2! = 16
combinações.
De
um
modo
geral,
para
N
spins
½
o
número
de
elementos
da
base
é
2! ,
igual
a
dimensão
do
espaço
de
Hilbert
com
igual
a
2! × 2!
elementos.
Note
que,
para
cada
spin
adicionado
o
espaço
dobra
de
tamanho.
Este
crescimento
exponencial
com
o
número
de
componentes
do
sistema
é
a
principal
dificuldade
para
se
fazer
cálculos
numéricos
em
sistemas
com
um
grande
número
de
componentes.
Por
exemplo,
um
sistema
com
apenas
100
spins
tem
um
espaço
de
Hilbert
com
2!"" × 2!"" ~ 10!" × 10!" elementos,
cada
um
representado
por
um
número
complexo!
Postulado
4:
Medidas
–
Os
possíveis
resultados
de
uma
medida
feita
sobre
um
estado
quântico
são
descritos
por
um
conjunto
de
operadores
projetores
que
atuam
sobre
o
estado.
Usando
novamente
o
exemplo
de
1
spin
½,
os
dois
operadores
M↑ = ↑ ↑
e
M↓ = ↓ ↓
são
projetores
de
medidas.
De
fato,
considere
um
estado
genérico:
Ψ = a ↑ +b ↓
Atuando
com
M↑
sobre
este
estado
resulta:
114
↑ ↑Ψ =a↑ (II1.28)
2
Ou
seja,
o
estado
Ψ foi
projetado
sobre
a
“direção”
↑ .
Porém,
sabemos
que
a
é
2
a
probabilidade
do
estado
“spin-‐up”
ser
encontrado
na
medida
(assim
como
b é
a
Podemos
generalizar
dizendo
o
seguinte:
se
𝑀!
representa
um
conjunto
de
projetores
de
medidas
sobre
o
estado
Ψ ,
a
probabilidade,
𝑝(𝑘) ,
de
que
o
Ψ = ∑ ck k
k
5
É
possível
ir
mais
adiante
nesta
definição
e
incluir
operadores
de
medidas
que
115
Uma
medida
feita
sobre
este
estado
projeta
o
vetor
instantaneamente
sobre
um
dos
autoestados
da
base.
Embora
não
seja
definido
(e
longe
de
ser
claro)
tal
processo
envolve
algum
tipo
de
evolução
temporal
que
não
está
contemplada
no
Postulado
2.
Este
é
o
chamado
problema
do
colapso
da
função
de
onda.
O
problema
fica
ainda
mais
complicado
quando
se
consideram
medidas
sobre
estados
de
mais
de
um
componente,
tais
como
estados
emaranhados,
como
se
verá
adiante.
II2.
Representação
matricial
de
operadores
As
transformações
de
vetores
no
ℜ!
(por
exemplo
rotações)
podem
ser
descritas
pela
atuação
de
matrizes
3×3.
O
similar
ocorre
com
transformações
de
estados
no
espaço
de
Hilbert.
Dado
um
operador
O
e
uma
base
{ n } qualquer,
chamamos
de
ℏ
𝑆! |↑ = + |↑
2
(II2.2)
ℏ
𝑆! |↓ = − |↓
2
Os
elementos
de
matriz
deste
operador
nesta
base
são:
ℏ
𝑆!!! = ↑ 𝑆! ↑ = + ,
2
ℏ (II2.3)
𝑆!!" = ↑ 𝑆! ↓ = 0, 𝑆!!" = ↓ 𝑆! ↑ = 0, 𝑆!!! = ↓ 𝑆! ↓ = −
2
Logo,
a
matriz
de
𝑆!
nesta
base
é:
(II2.4)
116
ℏ 1 0
𝑆! = +
2 0 −1
Repare
que
se
a
base
for
outra,
a
representação
matricial
do
operador
muda.
Por
exemplo,
considere
a
base
descrita
pela
Eq.
(II1.16).
A
atuação
de
𝑆!
naquela
base
resulta
em:
ℏ
𝑆! |+ = + |−
2 (II2.5)
ℏ
𝑆! |− = + |+
2
Logo,
nesta
base,
a
representação
matricial
de
𝑆!
é:
ℏ 0 1 (II2.6)
𝑆! = +
2 1 0
Neste
ponto
é
interessante
introduzir
as
matrizes
de
Pauli,
definidas
por:
1 1 1 (II2.6)
𝜎! = 𝑆! , 𝜎! = 𝑆! , 𝜎! = 𝑆!
2 2 2
Na
base
{ ↑ , ↓ }
são
representadas
por:
$ 0 1 '
↑ σ x ↑ = 0; ↑ σ x ↓ = 1; ↓ σ x ↑ = 1; ↓ σ x ↓ = 0 ⇒ σ x = & )
% 1 0 (
$ 0 −i '
↑ σ y ↑ = 0; ↑ σ y ↓ = −i; ↓ σ y ↑ = i; ↓ σ y ↓ = 0 ⇒ σ x = & )
% i 0 (
$ 1 0 '
↑ σ z ↑ = 1; ↑ σ z ↓ = 0; ↓ σ z ↑ = o; ↓ σ z ↓ = −1 ⇒ σ x = & ) (II2.7)
% 0 −1 (
Tomemos
novamente
o
estado
genérico:
117
Ψ = ∑ cn n
n
Vamos
construir
com
este
estado
a
seguinte
operação,
semelhante
ao
elemento
de
matriz
de
um
observável
O:
Ψ O Ψ = ∑ cm* cn m O n = ∑ cm* cnOm,n
m,n m,n (II2.8)
Agora,
se
os
elementos
da
base
{ n }
forem
autoestados
de
O,
ou
seja,
se
O n = λn n , obtemos:
2
Ψ O Ψ = ∑ cn λn
(II2.9)
n
Porém,
do
Postulado
4
sabemos
que
𝑐! !
é
a
probabilidade
de
se
encontrar
o
autovalor
𝜆!
em
uma
medida
de
O.
Portanto,
a
expressão
acima
representa
o
valor
médio
dos
autovalores
do
operador
O.
Esta
quantidade
é
chamada
de
valor
esperado
de
O,
e
usa-‐se
o
símbolo
𝑂
para
representa-‐la.
As
propriedades
físicas
de
um
sistema
(como
posição,
momento,
energia,
etc.)
são
representadas
por
operadores
quânticos
que
são
chamados
de
observáveis.
A
matriz
de
um
observável
necessariamente
deve
ter
autovalores
reais,
bem
como
o
seu
valor
esperado,
pois
são
estes
os
valores
que
se
obtém
de
medidas
em
experimentos.
Matematicamente
isto
é
garantido
impondo-‐se
que
os
observáveis
sejam
operadores
hermitianos6.
Como
exemplo
de
aplicação
destes
conceitos,
vamos
estudar
o
problema
de
dois
spins
½
acoplados,
segundo
o
hamiltoniano
abaixo:
(II2.10)
6
Uma
matriz
A
é
hermitiana
se
ela
é
igual
à
sua
transposta
conjugada,
A+
,
que
é
obtida
trocando-‐se
linhas
por
colunas,
ao
mesmo
tempo
em
que
se
toma
o
complexo
conjugado
dos
seus
elementos.
118
H = E1σ 1z + E2σ 2 z − E12σ 1xσ 2 x
A
representação
matricial
deste
hamiltoniano
na
base
{ ↑↑ , ↑↓ , ↓↑ , ↓↓ } é:
" E +E 0 0 −E12 %
$ 1 2
'
$ 0 E1 − E2 −E12 0 ' (II2.11)
H =$ '
$ 0 −E12 −E1 + E2 0 '
$ −E12 0 0 −E1 − E2 '&
#
As
autoenergias
deste
sistema
devem
ser
obtidas
diagonalizando-‐se
H.
São
elas7:
2
ε1 = − E122 + E22 − 2E1E2 + E12 = − E122 + ( E1 − E2 )
2
ε 2 = + E122 + E22 − 2E1E2 + E12 = + E122 + ( E1 − E2 )
2 (II2.12)
ε3 = − E122 + E22 + 2E1E2 + E12 = − E122 + ( E1 + E2 )
2
ε 4 = + E122 + E22 + 2E1E2 + E12 = + E122 + ( E1 + E2 )
Vemos,
portanto,
que
se
todas
as
energias
forem
positivas,
teremos
ε3 < ε1 < ε 2 < ε 4 .
Ou
seja,
neste
caso,
o
estado
fundamental
será
𝜀! .
II3.
Emaranhamento
de
spins
Considere
os
seguintes
estados
de
dois
spins:
↑↑ + ↑↓
Ψ1 =
2 (II3.1)
↑↑ + ↓↓
Ψ2 =
2
Seja
agora
o
operador
de
medida
do
spin
1
(primeiro
símbolo
do
par):
M1↑ = ↑ ↑ .
Aplicando
este
operador
sobre
Ψ1
resulta:
7
Não
é
tarefa
simples
diagonalizar
uma
matriz
como
esta.
Felizmente
existem
programas
gratuitos
na
Internet
que
fazem
isto.
Veja,
por
exemplo,
o
site:
http://wims.unice.fr/~wims/wims.cgi
.
119
↑ ↑↑↑ + ↑ ↑↑↓
↑ ↑ Ψ1 = = Ψ1 (II3.2)
2
Ou
seja,
após
a
medida
o
spin
1
permanece
no
autoestado
“up”
e
o
spin
2
na
superposição
original.
Agora
repita
o
procedimento
para
o
segundo
estado:
↑ ↑↑↑ + ↑ ↑↓↓ 1 (II3.3)
↑ ↑ Ψ2 = = ↑↑
2 2
De
acordo
com
o
Postulado
4,
a
probabilidade
de
encontrarmos
o
spin
1
em
“up”
após
a
medida
é:
p(↑) = Ψ 2 ↑ ↑ Ψ 2 = 50%
(II3.4)
Porém,
uma
vez
feita
a
medida,
e
encontrado
“up”,
o
estado
posterior
será
(ainda
Postulado
4):
1 ↑↑
Φ = 2 = ↑↑
1 (II3.5)
2
Ou
seja,
após
a
medida,
não
só
o
spin
1
estará
em
“up”,
como
o
spin
2
também,
ainda
que
nenhuma
medida
tenha
sido
feita
sobre
ele!
E
o
mais
estranho
ainda,
este
resultado
independe
da
distância
entre
os
dois
spins:
na
medida
em
que
o
estado
é
mantido,
independentemente
da
separação
entre
os
spins,
o
resultado
será
sempre
o
mesmo:
todas
as
vezes
que
uma
medida
sobre
o
spin
1
resultar
em
“up”,
o
spin
2
também
irá
para
“up”.
E
todas
as
vezes
que
o
resultado
da
medida
sobre
1
for
“down”
o
segundo
também
será
encontrado
em
“down”.
Ou
seja,
neste
estado
emaranhado
os
dois
spins
estão
perfeitamente
correlacionados.
Como
foi
mencionado
no
Bloco
I,
esta
correlação
já
foi
testada
experimentalmente
inúmeras
vezes,
com
as
partículas
a
dezenas
de
quilômetros
de
separação.
Estados
emaranhados
são
um
ingrediente
essencial
em
várias
aplicações
em
computação
e
comunicação
quânticas,
como
se
verá
no
Bloco
III.
120
Lá
também
veremos
como
estes
estados
podem
ser
produzidos
de
forma
controlada
em
laboratório.
No
entanto,
para
que
as
correlações
quânticas
de
estados
emaranhados
sejam
observadas,
é
preciso
que
as
medidas
nos
dois
spins
sejam
feitas
na
mesma
base.
Se
um
observador
fizer
a
sua
medida
na
base
{ ↑ , ↓ }
e
o
outro
na
base
{ + , − } ,
a
correlação
não
será
observada8.
No
entanto,
qualquer
que
seja
a
base
comum
escolhida
pelos
dois
observadores,
a
correlação
será
a
mesma.
Para
ver
isso,
suponha
que
se
faça
uma
mudança
de
base,
de
{ ↑ , ↓ }
para
{ + , − } :
↑↑ + ↓↓ 1 $+ +− + +− + − − + − − ' ++ + −− (II3.6)
= % • + • (=
2 2& 2 2 2 2 ) 2
Ou
seja,
na
nova
base,
todas
as
vezes
em
o
resultado
“+”
for
encontrado
em
um
dos
spins,
o
outro
também
será.
O
mesmo
ocorre
para
o
resultado
“-‐”.
Fisicamente
estados
de
spins
são
medidos
aplicando-‐se
campos
magnéticos
na
direção
da
componente
que
se
deseja
medir,
como
em
um
aparelho
de
Stern-‐
Gerlach.
Por
construção,
os
estados
“up”
e
“down”
devem
ser
medidos
ao
longo
de
Z,
enquanto
os
estados
“+”
e
“-‐
“
ao
longo
de
X.
Finalmente,
vale
mencionar
que
estados
emaranhados
como
o
estado
acima
não
podem
ser
fatorados
em
nenhum
produto
de
estados
individuais
de
spin.
Ou
seja,
um
estado
emaranhado
não
é
um
estado
composto,
no
sentido
do
Postulado
3;
diz-‐se
que
o
estado
é
não-‐separável.
Para
ver
isto,
tome
dois
estados
de
1
spin
e
faça
o
produto
tensorial
entre
eles:
8
No
exemplo
anterior,
suponha
que
o
primeiro
observador
obtenha
o
estado
“up”
medindo
na
baze
de
Z.
Se
o
Segundo
observador
também
medir
em
Z
encontrará
“up”
com
100%
de
chance.
Mas
se
medir
na
base
de
X,
encontrará
“up”
com
apenas
50%
de
chance
e
“down”
também
com
50%.
121
Ψ = a ↑ +b ↓
Φ =c↑ +d ↓
(II3.7)
Ψ ⊗ Φ = ac ↑↑ + ad ↑↓ + bc ↓↑ + bd ↓↓
As
condições
para
que
este
estado
seja
emaranhado,
como
o
estado
|Ψ!
em
(II3.1),
exigem
que:
1
ac = bd = ;ad = bc = 0 ,
2
que
são
obviamente
incompatíveis
entre
si.
Portanto,
não
existem
estados
de
1
spin
cujo
produto
resulte
em
um
estado
emaranhado.
O
estado
|Ψ! é
um
exemplo
de
estado
que
possui
grau
máximo
de
emaranhamento
entre
dois
spins.
Ele
é
conhecido
como
o
estado
do
gato,
uma
referência
ao
famoso
problema
do
gato
de
Schroedinger,
e
representado9
por
Ψ +
.
Existem
outros
três
estados
de
dois
spins
com
emaranhamento
máximo:
↑↑ − ↓↓
Ψ− =
2
↑↓ + ↓↑ (II3.8)
Φ+ =
2
↑↓ − ↓↑
Φ− =
2
Juntos,
estes
quatro
estados
formam
uma
base
de
estados
de
dois
spins,
chamada
Base
de
Bell.
II4.
Violação
da
desigualdade
de
Bell
Vimos
no
Bloco
I
que,
dadas
quatro
variáveis
aleatórias
dicotômicas
clássicas,
Q,
R,
S
e
T,
o
Teorema
de
Bell
afirma
que
existe
um
limite
máximo
para
as
9
Daqui
para
frente
usaremos
a
notação
↑↑ + ↓↓
Ψ+ =
para
o
estado
do
gato.
2
122
correlações
estatísticas
que
podem
existir
entre
elas.
O
teorema
é
expresso
na
desigualdade:
−2 ≤ (Q + R)S + (R − Q)T ≤ +2
(II4.1)
Vamos
agora
considerar
variáveis
aleatórias
dicotômicas
quânticas:
spins.
Imagine
que
dois
observadores
estejam,
cada
um,
com
um
spin
de
um
par
emaranhado.
O
observador
1
faz
uma
medida
do
seu
spin
ao
longo
de
X
ou
Z,
após
escolhida
aleatoriamente
uma
dessas
duas
direções.
Da
mesma
forma,
o
observador
2
escolhe
aleatoriamente
medir
ao
longo
de
outras
duas
direções,
u
ou
v,
dadas
por:
−i − k −i + k
u= ;v =
2 2
A
Figura
II4.1
mostra
estas
direções.
Figura
II4.1
–
Em
um
teste
de
violação
da
desigualdade
de
Bell,
cada
observador
recebe
um
spin
de
um
par
emaranhado,
e
escolhe
aleatoriamente
uma
dentre
duas
direções
dadas
para
fazer
a
sua
medida.
Note
que
as
componentes
do
spin
ao
longo
de
u
e
v
podem
ser
escritas
como
combinações
das
matrizes
de
Pauli:
123
!" −σ − σ z
σu = σ •u = x
2
!"
−σ x + σ z (II4.2)
σv =σ •v =
2
A
medida
de
qualquer
componente
do
spin
ao
longo
de
qualquer
direção
sempre
retornará
+1
ou
−1.
Portanto,
podemos
fazer
a
seguinte
identificação
entre
as
componentes
de
spin
e
as
variáveis
aleatórias
do
Teorema
de
Bell:
Q ↔σ z
R ↔σ x (II4.3)
S ↔σu
T ↔σv
Substituindo
na
desigualdade,
obtemos:
{
−2 ≤ − 2 σ x(1)σ x(2) + σ z(1)σ z(2) } ≤ +2 ,
(II4.4)
O
termo
entre
chaves
pode
ser
facilmente
calculado
para
qualquer
estado.
Por
exemplo,
para
o
estado
separável,
↑↑ + ↑↓ (II4.5)
Ψ =
2
o
resultado
é
zero,
e
portanto
satisfaz
à
desigualdade
de
Bell.
Porém
para
o
estado
Φ−
da
Base
de
Bell
o
resultado
é:
↑↓ − ↓↑ − ↑↓ + ↓↑
Φ− σ z(1)σ z(2) Φ− = σ z(1)σ z(2) = • = −1
2 2
↑↓ − ↓↑ − ↑↓ + ↓↑
Φ− σ x(1)σ x(2) Φ− = σ x(1)σ x(2) = • = −1
2 2
{
⇒ − 2 σ x(1)σ x(2) + σ z(1)σ z(2) } = +2 2 (II4.6)
124
Ou
seja,
viola
o
limite
superior
imposto
pelo
teorema.
Isto
significa
que
as
correlações
existentes
neste
(e
nos
outros)
estados
da
Base
de
Bell
não
podem
ser
explicadas
pelas
premissas
clássicas
assumidas
no
Teorema
de
Bell.
Finalmente,
cabe
enfatizar
que
nem
todo
estado
emaranhado
viola
a
mesma
desigualdade
de
Bell.
De
fato,
dado
um
estado
emaranhado,
é
preciso
construir
uma
desigualdade
específica
para
ele.
Por
isso
existem
muitas
desigualdades
do
tipo
Bell,
com
nomes
diversos.
É
sempre
importante
lembrar
que
estas
correlações
quânticas
já
foram
testadas
diversas
vezes
por
diferentes
grupos
experimentais
ao
redor
do
mundo.
No
entanto,
por
muitos
anos
os
experimentos
apresentaram
“brechas”
que
ficaram
conhecidas
na
literatura
como
loopholes.
Um
exemplo
de
brecha
experimental
é
a
eficiência
de
um
contador
de
fótons.
Se
a
eficiência
for
baixa,
nada
garante
que
a
estatística
da
medida
é
representativa
da
totalidade
de
pares
(problema
da
amostragem,
discutido
na
Sec.
I20).
Um
outro
exemplo
é
a
proximidade
entre
a
fonte
dos
pares
emaranhados
e
os
locais
de
detecção
das
partículas.
Se
houver
proximidade,
o
critério
de
não-‐localidade
fica
comprometido.
E
assim
por
diante.
Apenas
em
outubro
de
2015
foi
publicado
na
revista
Nature
resultados
experimentais
que
pela
primeira
vez
testaram
as
“ações
fantasmas”
de
estados
emaranhados
livres
de
brechas.
125
II5
Espaços
contínuos
Naturalmente
que
espaços
de
Hilbert
não
são
apenas
discretos,
mas
podem
ser
contínuos
também.
As
bases
contínuas
são
representadas
de
forma
semelhante
às
discretas:
Base
de
posição:
{ r } (II5.1)
{ p }
(II5.2)
Ortonormalidade:
r r' = δ (r − r')
(II5.3)
p p' = δ (p − p')
Completividade:
∫ r r d 3r = I
(II5.4)
∫ p p d 3r = I
A
função
de
onda
de
um
sistema
de
variáveis
contínuas
é
a
representação
obtida
pela
projeção
do
vetor
de
estado
sobre
uma
base
contínua:
ψ (r) = r Ψ
ψ (p) = p Ψ (II5.5)
A
primeira
é
a
representação
de
posição
e
a
segunda
de
momento.
Um
resultado
particularmente
interessante
é
obtido
da
projeção
de
um
autoestado
de
momento
sobre
a
base
de
posições:
1 !i $
rp = 3/2
exp # p • r &
( 2π !) "! % (II5.6)
Este
resultado
pode
ser
obtido
da
seguinte
forma:
tome
o
elemento
de
matriz
entre
r
e
r'
da
relação
de
competividade
para
o
momento:
126
127
Substituindo
na
equação
de
Schroedinger
acima,
vemos
que
o
hamiltoniano
é:
p2 a 2
H= + r
2m ! 2
Ou
seja,
𝑉 𝒓 = 𝑎𝑟 ! /ℏ! .
Consequentemente:
𝑭 𝒓 = − 2𝑎/ℏ! 𝒓.
Como
outro
exemplo,
vamos
considerar
uma
versão
simplificada
do
famoso
problema
da
fenda
dupla,
introduzido
na
Sec.
I13.
O
esquema
é
mostrado
na
Figura
II5.1.
Figura
II5.1
–
Em
um
experimento
quântico
de
dupla
fenda
partículas
incidem
individualmente
sobre
o
aparato
e
a
interferência
das
funções
de
onda
que
se
originam
de
cada
fenda
produz
o
padrão
observado
no
anteparo.
Cada
fenda
define
um
autoestado
de
posição
no
espaço
de
Hilbert.
A
onda
do
lado
esquerdo
representa
partículas
quânticas
que
incidem
no
aparato
o
qual
contém
duas
fendas
nas
posições
y1
e
y2,
separadas
de
y1
–
y2
=
d.
Se
uma
partícula
emerge
na
fenda
1,
por
exemplo,
significa
que
o
seu
autoestado
de
posição
será
y1 .
O
análogo
vale
para
a
fenda
2.
128
Com
as
duas
fendas
abertas,
as
partículas
sairão
em
uma
superposição
de
autoestados
de
posição,
com
50%
de
chance
para
cada
fenda:
y1 + y2
Ψ =
2
(II5.12)
A
probabilidade
de
uma
partícula
ser
encontrada
com
momento
py
após
atravessar
o
aparato,
é:
py y1 + py y2
py Ψ =
(II5.13)
2
Mas
sabemos
que:
i( py /!) y
e
y py =
2π
(II5.14)
Logo:
1 iky y1 iky y2 −iky y1 −iky y2
2
py Ψ
4π
e +e
= ( e +e )( )
1+ cos#$k y (y1 − y2 )%& 1+ cos ( k y d )
2
py Ψ = = (II5.15)
2π 2π
Podemos
portanto
ver
a
dupla
fenda
como
um
aparato
que
cria
superposições
de
autoestados
de
posição.
O
padrão
de
interferência
observado
decorre
da
distribuição
de
probabilidades
dos
autoestados
de
momento.
O
resultado
para
uma
única
fenda
é
obtido
fazendo-‐se
d
=
0.
Neste
caso,
a
distribuição
fica
uniforme
e
igual
a
1/2π.
II.6
Momento
angular
Os
operadores
de
momento
angular
foram
introduzidos
na
Sec.
I14.
Seguindo
a
notação
de
bra-‐kets,
os
autoestados
de
momento
angular
(Eq.
(I14.6))
são
escritos
como:
129
L2 Ψ l,m = l(l +1)! 2 Ψ l,m
Lz Ψ l,m = m! Ψ l,m ,
(II6.1)
m = −l, −l +1,"+ l −1, +l
e
naturalmente
obedecem
às
mesmas
regras
de
comutação
que
as
componentes
de
spin:
!" Lx , Ly #$ = i!Lz
!" Ly , Lz #$ = i!Lx
(II6.2)
[ Lz , Lx ] = i!Ly
!" L2 , Lk #$ = 0;k = x, y, z
Note
que
para
qualquer
autoestado
de
Lz
teremos:
1" 1 m
Lx = Ψ l.m # Ly , Lz $% Ψ l,m = Ψ l.m Ly Lz − Lz Ly Ψ l,m = Ψ l.m Ly − Ly Ψ l,m = 0
i! i! i
Ou
seja,
para
qualquer
autoestado
de
momento
angular
da
base
{ Ψ l,m } ,
se
medirmos
um
número
grande
de
vezes
a
componente
X
(ou
Y)
do
momento
a
média
será
zero.
Por
outro
lado:
L2x = L2 − L2y − L2z = L2 − L2y − L2z
Porém,
tendo
em
vista
que
L2x = L2y ,
obtemos:
L2 − L2z l(l +1) − m 2 2 (II6.3)
2
L =
x = !
2 2
Repare
que
o
estado
com
a
menor
dispersão
ocorre
para
𝑚 = 𝑙:
1
L2x = l! 2
2
130
A
Figura
II6.1
mostra
esquematicamente
o
significado
destas
quantidades
no
que
seria
uma
distribuição
de
probabilidades
após
um
número
grande
de
medidas
do
momento
angular.
esperado)
e
mediana
(largura)
de
Figura
II6.1
–
Significado
da
média
(valor
uma
distribuição
esquemática
resultado
de
um
número
muito
grande
de
medidas
da
componente
X
do
momento
angular
de
uma
partícula
em
um
autoestado
arbitrário
de
LZ.
Embora
o
v
alor
médio
de
Lx
seja
igual
a
zero,
resultados
individuais
de
medidas
podem
ser
diferentes
de
zero.
Considere
agora
um
sistema
composto
por
duas
partículas
com
momentos
angulares
𝑙! = 1 𝑒 𝑙! = 2 .
Se
representarmos
por
{ m1, m2 }
a
base
de
10
O
número
de
elementos
da
base
de
um
sistema
composto
por
𝑁
partículas
com
131
O
último
termo
possui
componentes
que
não
comutam
entre
si.
Podemos
escrever
este
termo
em
função
dos
operadores
de
levantamento
e
abaixamento
de
momento
angular,
definidos
por:
L+ ≡ Lx + iLy
(II6.6)
L− ≡ Lx − iLy
( L L − L L ) l, m
z
+ +
z = L+ l.m
Lz L+ l, m − mL+ l, m = L+ l, m (II6.8)
Lz {L l, m } = (m +1){L l, m
+ +
}
Ou
seja,
o
estado
L+ l, m
é
autoestado
de
Lz,
com
autovalor
correspondente
igual
132
L− L+ = (Lx + iLy )(Lx − iLy ) = L2 − L2z − Lz (II6.12)
A
partir
daí
se
obtém:
2
γ = l(l +1) − m(m +1)
⇒ L+ l, m = l(l +1) − m(m +1) l, m +1 (II6.13)
De
forma
análoga,
se
obtém:
L− l, m = l(l +1) − m(m −1) l, m −1 (II6.14)
Podemos
agora
retornar
ao
problema
do
cálculo
de
L2
do
sistema
composto,
e
escrever:
L2 = L12 + L22 + L+1 L−2 + L−1 L+2 + 2L1z L2 z
(II6.15)
O
elemento
de
matriz
deste
operador
na
base
{ l1, l2 , m1, m2 }
é:
l1, l2 , m1, m2 L2 l1, l2 , m1' , m '2 = l1 (l1 +1) + l2 (l2 +1) + 2m1m2 +
+ l1 (l1 +1) − m1' (m1' +1) × l2 (l2 +1) − m '2 (m '2 −1)δm1+1,m1δm2 −1,m2 +
(II6.16)
+ l1 (l1 +1) − m1' (m1' −1) × l2 (l2 +1) − m '2 (m '2 +1)δm1−1,m1δm2 +1,m2
Um
sistema
composto
por
duas
partículas,
uma
com
𝑙! = 1
e
outra
com
𝑙! = 2
tem
15 × 15 = 225
elementos
de
matriz
que
podem
ser
calculados
com
a
fórmula
acima!
Obviamente
é
impossível
fazer
contas
analíticas
com
matrizes
deste
tamanho.
O
menor
sistema
que
podemos
lidar
analiticamente
(mas
que
serve
para
o
nosso
propósito
nesta
Seção)
é
um
sistema
com
𝑙! = 𝑙! = 1/2,
cuja
base
é:
−1 / 2, −1 / 2 , −1 / 2, +1 / 2 , +1 / 2, −1 / 2 , +1 / 2, +1 / 2
133
Aplicando
a
fórmula
acima,
obtemos
para
tal
caso:
! 2 0 0 0 $
# &
0 1 1 0
L =#
2 & (II6.17)
# 0 1 1 0 &
# 0 0 0 2 &
" %
cujos
autovalores
são
0
e
2
(3
vezes
degenerado).
Tendo
em
conta
que
os
autovalores
de
L2
são
da
forma
𝑙 (𝑙 + 1),
obtemos
𝑙 = 0 e 𝑙 = 1.
Os
autovetores,
por
outro
lado,
são:
" 0 %
$ '
1 $ −1 ' − +1 / 2, −1 / 2 + −1 / 2, +1 / 2
ψ1 = =
2$ 1 ' 2
$ 0 '
# &
" 0 %
$ ' (II6.18)
1 $ 1 ' +1 / 2, −1 / 2 + +1 / 2, −1 / 2
ψ2 = =
2$ 1 ' 2
$ 0 '
# &
" 1 % " 0 %
$ ' $ '
$ 0 ' $ 0 '
ψ3 = = +1 / 2, +1 / 2 ; ψ 4 = = −1 / 2, −1 / 2
$ 0 ' $ 0 '
$ 0 ' $ 1 '
# & # &
Vemos
que
ψ1
e
ψ 2
são
estados
emaranhados
de
momento
angular
orbital.
Os
135
Ou
seja,
o
átomo
é
formado
por
um
“caroço
completo”
com
a
mesma
distribuição
do
átomo
de
argônio,
uma
camada
s
externa
completa,
e
uma
camada
d
interna
incompleta.
Camadas
atômicas
totalmente
cheias
ou
totalmente
vazias
não
possuem
momento
angular,
nem
orbital,
e
nem
de
spin.
Camadas
semi-‐cheias
possuem
momento
angular
total
igual
a
zero,
e
spin
máximo.
As
duas
primeiras
regras
nos
dizem
que
devemos
distribuir
os
elétrons
entre
os
estados
de
momento
angular
de
forma
a
maximizar
s
e
l.
No
orbital
d
cabem
10
elétrons
em
5
estados
de
momento
angular:
𝑙 = −2, −1, 0, +1, +2 ,
cada
um
desses
podendo
comportar
2
elétrons.
Delas
obtemos
𝑙 = 3 e 𝑠 = 3/2
para
este
caso.
Isto
significa
! ! ! !
que
os
valores
possíveis
de
momento
angular
são:
𝑗 = ! , ! , ! , !.
Mas,
como
o
orbital
está
mais
da
metade
cheio,
a
terceira
regra
de
Hund
diz
que
o
momento
total
é
𝑙 = 9/2.
II7
Momento
magnético,
interação
spin-‐órbita
e
interação
de
Heisenberg
Uma
das
propriedades
físicas
mais
importantes
para
o
estudo
da
matéria,
seja
microscópica
ou
macroscópica,
é
o
momento
magnético
das
partículas.
O
momento
magnético
está
associado
ao
momento
angular,
seja
ele
orbital
ou
de
spin.
Como
vimos
no
Bloco
I,
a
descoberta
do
spin
por
Stern
e
Gerlach
foi
feita
durante
um
estudo
experimental
do
momento
magnético
de
átomos
neutros,
em
estados
de
momento
angular
igual
a
zero.
O
momento
magnético
total
de
um
átomo
pode
ser
escrito
como11:
𝝁 = 𝝁! + 𝝁𝑺 ,
(II7.1)
onde
𝝁! = 𝜇! 𝑳 e 𝝁! = −2𝜇! 𝑺,
onde
𝜇!
é
o
magneton
de
Bohr.
O
fator
“2”
que
aparece
na
expressão
do
momento
magnético
de
spin
é
uma
aproximação
do
chamado
fator-‐g
de
spin,
que
vale
exatamente 12
2,002 319 304 361 82 ±
11
Aqui
nos
referimos
apenas
aos
elétrons
do
átomo.
Em
muitas
situações
é
necessário
considerer
também
o
momento
magnético
dos
núcleos,
mas
isto
não
sera
tratado.
12
De
fato,
o
sinal
negativo
é
parte
do
fator-‐g
de
spin.
Ver
o
site
do
NIST:
http://physics.nist.gov/cgi-‐
bin/cuu/Category?view=html&All+values.x=80&All+values.y=11
136
0,000 000 000 000 52.
O
sinal
negativo
no
fator
de
proporcionalidade
significa
que
o
momento
magnético
de
spin
é
antiparalelo
ao
momento
angular
de
spin,
ao
contrário
do
momento
magnético
orbital,
o
qual
é
paralelo
a
L.
Por
outro
lado,
dados
os
momentos
orbital,
L,
e
de
spin,
S,
podemos
definir
o
momento
angular
total
J:
J
=
L
+
S
(II7.2)
O
momento
angular
total
obedece
às
mesmas
regras
de
comutação
de
L
e
S,
e
atua
de
forma
semelhante
nos
seus
autoestados:
J 2 J, M = j( j +1)! 2 J, M
J Z J, M = M ! J, M (II7.3)
M = −J,", +J
Em
algumas
situações,
como
na
presença
de
um
forte
acoplamento
spin-‐órbita,
torna-‐se
mais
adequado
utilizamos
a
representação
de
momento
angular
total,
em
vez
das
componentes
orbital
e
de
spin.
Uma
vez
definido
o
valor
do
momento,
podemos
calcular,
dentre
outras
quantidades,
o
momento
magnético
total,
𝝁! = 𝑔! 𝜇! 𝑱.
O
fator
gJ
é
chamado
de
fator
de
Landé,
dado
por13:
gJ ≅
3 s(s +1) − l(l +1)
+ (II7.4)
2 2 j( j +1)
Estas
relações
fornecem
uma
forma
adequada
de
representarmos
a
interação
spin-‐órbita
em
termos
dos
valores
de
momento
angular
do
átomo:
13
O
sinal
de
aproximado
vem
do
fato
de
que
se
tomou
igual
a
2
o
fator-‐g
de
spin.
137
J 2 = L2 + S 2 + 2L ⋅ S
J 2 − L2 − S 2
L⋅S =
2 (II7.5)
J 2 − L2 − S 2
H SO = λ L ⋅ S = λ
2
λ
ESO ( j, l, s) = { j( j +1) − l(l +1) − s(s +1)}
2
Um
dos
aspectos
mais
interessantes
(e
surpreendentes)
envolvendo
hamiltonianos
de
spin
é
a
chamada
interação
de
Heisenberg,
base
dos
modelos
de
ordem
magnética
em
materiais.
A
natureza
da
interação,
de
fato,
nada
tem
a
ver
com
spins,
mas
com
interação
coulombiana
e
com
o
princípio
de
exclusão
de
Pauli.
Considere
o
hamiltoniano
de
dois
elétrons
em
repouso,
que
interagem
via
interação
eletrostática:
e2 1
H= (II7.6)
4πε 0 r1 − r2
Vamos
calcular
o
valor
esperado
deste
hamiltoniano.
Como
ele
não
depende
do
spin
dos
elétrons,
temos
que
usar
funções
espaciais
devidamente
simetrizadas.
Tomemos
as
funções
simétrica
(sinal
positivo)
e
antissimétrica
(sinal
negativo):
1
ψ± (r1, r2 ) = {φα (r1 )φβ (r2 ) ± φα (r2 )φβ (r1 )} (II7.7)
2
Nesta
expressão,
∅! e ∅!
são
dois
autoestados
normalizados,
por
exemplo,
duas
funções
atômicas.
Vamos
supor
que
a
função
seja
simétrica,
tomando
o
sinal
positivo
da
soma.
Daí
obtemos
para
o
valor
esperado
do
hamiltoniano:
138
*
∫ ψ (r , r )Hψ (r , r )dr dr
± 1 2 ± 1 2 1 2 = H =
e2 * 1
8πε 0
∫ {φ α (r1 )φ β (r2 ) + φα (r2 )φ β (r1 )}
r1 − r2
{φα (r1 )φβ (r2 ) + φα (r2 )φβ (r1 )} dr1dr2
e2 * 1
H =
8πε 0
∫ {φ α (r1 )φ β (r2 )}
r1 − r2
{φα (r1 )φβ (r2 )} dr1dr2 +
e2 * 1
8πε 0
∫ {φ α (r2 )φ β (r1 )}
r1 − r2
{φα (r2 )φβ (r1 )} dr1dr2 +
e2 * 1
8πε 0
∫ {φ α (r1 )φ β (r2 )}
r1 − r2
{φα (r2 )φβ (r1 )} dr1dr2 +
e2 * 1
8πε 0
∫ {φ α (r2 )φ β (r1 )}
r1 − r2
{φα (r1 )φβ (r2 )} dr1dr2
(II7.8)
Vemos
que
os
dois
primeiros
termos
representam
os
valores
esperados
da
interação
coulombiana
com
o
elétron
de
coordenada
r1
(r2)
no
estado
α
(β)
.
Estes
termos
reproduzem
o
valor
clássico
da
interação
coulombiana.
Ao
contrário,
os
dois
últimos
termos
há
uma
troca
entre
estados
e
coordenadas.
Estes
termos
podem
ser
vistos
como
medidas
da
região
em
que
as
funções
de
onda
se
superpõem
no
espaço;
não
existe
análogo
clássico
para
esta
forma
de
energia,
que
é
chamada
de
energia
de
troca.
Sem
perda
de
generalidade,
podemos
supor
que
os
dois
primeiros
termos
são
iguais,
assim
como
os
dois
últimos.
Com
isso,
chegamos
a:
H = 2EC + 2J
e2 * 1
EC =
8πε 0
∫ {φ α (r1 )φ β (r2 )}
r1 − r2
{φα (r1 )φβ (r2 )} dr1dr2
,
(II7.9)
e2 * 1
J=
8πε 0
∫ {φα (r1 )φβ (r2 )} r1 − r2
{φα (r2 )φ β (r1 )} dr1dr2
onde
𝐸!
é
a
energia
coulombiana
clássica,
e
J
é
a
energia
de
troca.
É
fácil
ver
que
se
tivéssemos
tomado
o
sinal
negativo
na
função
de
onda,
ou
seja,
o
estado
antissimétrico,
teríamos
chegado
a:
139
H = 2EC − 2J (II7.10)
Com
isso,
juntando
os
dois
resultados,
teremos:
H = 2EC ± 2J ,
(II7.11)
onde
o
sinal
positivo
deve
ser
tomado
se
o
estado
for
simétrico,
e
o
negativo
se
for
antissimétrico.
Aqui
emerge
um
fato
interessante.
Repare
que,
embora
a
interação
original
não
contenha
operadores
de
spins
dos
elétrons,
o
resultado
final
depende
do
spin,
por
conta
do
princípio
de
exclusão.
Se
a
função
for
simétrica,
os
spins
estarão
no
estado
singleto,
que
é
antissimétrico.
Mas
se
a
parte
espacial
for
antissimétrica,
a
parte
de
spin
será
o
tripleto
de
spins,
que
é
simétrico.
Este
é
um
exemplo
de
como
as
correlações
quânticas
afetam
o
estado
final
de
um
sistema.
No
caso
acima,
vemos
que
a
energia
coulombiana
pode
aumentar
ou
diminuir,
dependendo
do
estado
de
spin.
No
final
dos
anos
1920
Werner
Heisenberg
notou
que
o
termo
da
energia
de
troca
poderia
ser
escrita
como
um
hamiltoniano
de
spins,
o
qual
se
convencionou
a
escrever
como:
H = −2JS1 ⋅ S2
(II7.12)
Se
ao
invés
de
apenas
dois,
tivermos
uma
cadeia
com
N
spins,
este
hamiltoniano
se
generaliza
para:
N
H TROCA = −2J ∑ Si ⋅ Si+1
(II7.13)
i=1
Este
hamiltoniano,
chamado
de
hamiltoniano
de
troca
ou
hamiltoniano
de
Heisenberg,
é
a
base
para
os
modelos
de
acoplamento
entre
spins
para
explicar
a
ordem
magnética
na
matéria.
Por
exemplo,
note
que
se
𝐽 > 0,
a
configuração
que
minimiza
a
energia
é
a
dos
spins
se
alinharem
paralelamente
uns
aos
outros.
140
Dizemos
que
o
acoplamento
é
ferromagnético.
Ao
contrário,
se
𝐽 < 0
os
spins
devem
se
ordenar
de
forma
antiparalela,
e
a
isto
se
dá
o
nome
de
acoplamento
antiferromagnético.
Figura
II7.1
–
Spins
de
átomos
vizinhos
em
uma
cadeia
podem
se
acoplar
ferromagneticamente,
J
>
0
(esquerda),
ou
antiferromagneticamente,
J
<
0
(direita).
Outras
formas
de
acoplamento
são
possíveis,
dependendo
da
distância
entre
os
átomos
e
das
funções
de
onda
envolvidas.
Embora
o
acoplamento
defina
as
propriedades
magnéticas
do
material,
a
interação
de
troca
tem
origem
no
Princípio
de
Exclusão
e
na
interação
eletrostática
entre
átomos.
É
um
dos
melhores
exemplos
de
correção
quântica
entre
variáveis
espaciais
e
de
spin.
II8
Segunda
quantização:
fótons
Vimos
no
Bloco
I
que
a
quantização
do
campo
eletromagnético
em
uma
cavidade
foi
postulada
por
Planck
no
seu
trabalho
de
1900.
Vamos
agora
indicar
os
detalhes
de
como
o
procedimento
de
quantização
pode
ser
feita
formalmente.
O
ponto
de
partida
são
as
equações
de
Maxwell
no
vácuo:
∇⋅E = 0
∇⋅B = 0
(II8.1)
1 ∂B
∇×E+ =0
c ∂t ,
1 ∂E
∇×B− =0
c ∂t
141
onde
c
é
a
velocidade
da
luz
no
vácuo.
Os
campos
elétrico
e
magnético
podem
ambos
ser
derivados
do
mesmo
potencial
vetor,
considerando-‐se
o
chamado
calibre
de
Coulomb,
∇ ∙ 𝑨 = 0:
B = ∇×A
1 ∂A (II8.2)
E=−
c ∂t
Estas
relações,
junto
com
as
equações
de
Maxwell,
levam
a
uma
equação
de
onda
para
o
potencial
vetor:
1 ∂2
∇ 2 A(r, t) = A(r, t)
(II8.3)
c 2 ∂t 2
cujas
soluções
são
superposições
de
ondas
planas
do
tipo:
A(r, t) = A k e±ik⋅r e±iωt
(II8.4)
onde
Ak
é
a
amplitude
da
componente
k
e
𝜔 = 𝜔! = 𝑐𝑘
é
a
relação
de
dispersão
para
fótons.
O
gauge
de
Coulomb
implica
na
condição:
k ⋅ A k = 0 ,
o
que
significa
que
a
direção
de
propagação
da
onda
é
perpendicular
à
direção
do
vetor
A.
Por
outro
lado,
qualquer
direção
perpendicular
a
k
pode
ser
decomposta
em
duas
direções
de
polarização,
rotuladas
abaixo
por
𝑗 = ±1.
Logo,
devemos
adicionar
este
índice
à
amplitude
de
A:
A k → A k, j
142
A
solução
geral
para
A(r, t) será
uma
superposição
para
todos
os
valores14
de
k
e
j:
A(r, t) = ∑{A k, j e−i(ωt−k⋅r) + A*k, j e+i(ωt−k⋅r) }
(II8.5)
k, j
Com
esta
expressão
para
A,
podemos
calcular
os
campos
E
e
B,
e
substituir
na
expressão
para
a
energia
do
campo
eletromagnético:
!
𝐻 = !! 𝑬 ! + 𝑐! 𝑩 !
𝑑 ! 𝑟
(II8.6)
Agora
precisamos
impor
condições
de
contorno
sobre
a
solução.
Como
no
problema
da
radiação
do
corpo
negro,
vamos
considerar
uma
cavidade
cúbica
com
volume
𝑉 = 𝐿! .
Esta
condição,
como
vimos
anteriormente,
leva
a
uma
restrição
nos
valores
das
componentes
do
vetor
de
onda:
!! !! !!
𝑘! = !
𝑛! , 𝑘! = !
𝑛! , 𝑘! = !
𝑛! ,
(II8.7)
onde
os
n’s
são
inteiros.
Estas
condições
são
importantes
para
o
cálculo
dos
campos
E
e
B,
a
partir
da
expressão
de
A.
A
expressão
final
para
a
energia
do
campo
é15
V
H= ∑ω k2 { Akj* Akj + Akj Akj* }
4π c 2 k, j
(II8.8)
Classicamente
os
dois
termos
entre
chaves
se
somam.
Porém,
eles
foram
escritos
assim
porque
o
próximo
passo
é
associa-‐los
aos
operadores
de
criação
e
aniquilação
de
bósons:
14
Vê-‐se
que
esta
expressão
é
uma
expansão
em
série
de
Fourier
do
campo
A,
em
(2014).
143
4π !c 2
Akj → akj
2Vω k (II8.9)
4π !c 2 +
Akj* → akj
2Vω k
Após
a
substituição
destas
expressões,
observando-‐se
as
regras
de
comutação16:
!"akj , ak+' j ' #$ = δk,k 'δ j, j ' ,
chega-‐se
ao
resultado:
! 1$
H = ∑ !ω k # ak,+ j ak, j + &
(II8.10)
k, j
" 2%
!! !
Os
autovalores
de
𝑎! 𝑎!
representam
os
números
de
fótons
em
cada
modo
k,
com
polarização
j.
Podemos
agora
explorar
este
resultado
para
calcularmos
um
observável
termodinâmico
do
sistema.
A
contribuição
por
modo
para
a
densidade
de
energia
interna
deste
“gás
de
fótons”
foi
calculada
no
Bloco
I,
e
é
dada
pela
Equação
(I2.5):
!ω 3 1
u(ω,T ) = 2 3
(II8.11)
π c exp(!ω / kBT ) −1
A
densidade
de
energia
interna
total
em
uma
dada
temperatura
é
obtida
integrando-‐se
para
todas
as
frequências
e
resulta
na
Lei
de
Stefan:
𝑢 𝜔, 𝑇 𝑑𝜔 → 𝑢(𝑇) = 𝜎𝑇 ! ,
(II8.12)
o
que
significa
que
o
calor
específico
é
proporcional
à
terceira
potência
da
temperatura:
𝑐! ~ 𝑇 ! .
Ao
interpretar
este
resultado,
devemos
lembrar
que
o
16
Note
que
as
regras
de
comutação
se
impõem
tanto
o
modo
k,
quanto
a
polarização j.
144
cálculo
é
feito
para
ondas
eletromagnéticas
aprisionadas
em
uma
cavidade.
A
mudança
na
temperatura
do
gás
de
fótons
se
dá
através
das
interações
entre
os
modos
de
vibração
e
as
paredes
da
cavidade:
esta
recebe
calor
externo
e
“repassa”
ao
campo
eletromagnético,
cuja
frequência
é
aumentada,
como
pode
ser
visto
na
Figura
II8.1,
uma
reprodução
da
Figura
I1.3.
Figura
II8.1
–
Distribuições
de
energia
radiante
do
chamado
corpo
negro
para
diversas
temperaturas.
Na
medida
em
que
a
temperatura
diminui
o
máximo
da
distribuição
também
diminui
e
se
afasta
da
faixa
do
visível
(daí
a
denominação
corpo
negro).
A
figura
mostra
a
previsão
do
eletromagnetismo
clássico
em
franco
desacordo
com
a
previsão
quântica
obtida
por
Planck
para
pequenos
comprimentos
de
onda.
Para
grandes
comprimentos
de
onda
as
previsões
quântica
e
a
clássica
coincidem.
Como
veremos
a
seguir,
esta
mesma
dependência
com
a
temperatura
ocorre
para
fônons
acústicos
em
uma
cadeia
atômica.
A
razão
fundamental
para
isto
são
as
relações
de
dispersão,
𝜔! = 𝑐𝑘
para
fótons,
e
𝜔! = 𝑣! 𝑘,
onde
𝑣!
é
a
velocidade
de
grupo,
para
fônons
acústicos.
145
II9
Segunda
quantização:
fônons
Vimos
na
Sessão
I18
que
o
hamiltoniano
do
oscilador
harmônico
simples
pode
ser
escrito
em
termos
dos
operadores
de
criação
e
aniquilação:
! 2 d 2 mω 2 2 # 1& (II9.1)
H =− 2
+ x ⇒ !ω % a + a + (
2m dx 2 $ 2 '
Esta
forma
do
hamiltoniano
permite
reinterpretarmos
os
estados
excitados
do
oscilador
simples
como
a
criação
de
partículas:
os
autovalores
de
𝑎! 𝑎
são
números
inteiros
que
representam
o
número
de
partículas
com
energia
ℏ𝜔.
A
aplicação
de
𝑎!
cria
uma
partícula
com
esta
energia,
e
de
𝑎
destrói
uma.
A
verdadeira
utilidade
desta
linguagem
de
segunda
quantização
aparece
quando
tratamos
sistemas
contendo
um
número
muito
grande
de
partículas.
Dois
exemplos
de
sistemas
são
particularmente
paradigmáticos
na
física:
a
cadeia
monoatômica
linear,
e
a
cadeia
de
spins
acoplados.
Nesta
Sessão
vamos
estudar
a
cadeia
monoatômica
linear
e
os
fônons
acústicos.
Considere
uma
cadeia
atômica
linear
muito
grande
com
N
átomos,
acoplados
entre
si
através
de
forças
restauradoras.
O
hamiltoniano
da
cadeia
pode
ser
escrito
como:
$" p 2 mω 2 &
2$
H = ∑# q + ( xq+a − xq ) ' ,
(II9.2)
q %$ 2m 2 ($
no
qual
𝑥!
é
a
posição
do
q-‐ésimo
átomo
e
𝑥!!!
a
de
seu
vizinho17.
Vamos
definir
novos
operadores,
𝑋!
e
𝑃!
através
das
séries
de
Fourier:
17
Note
que
𝑥
é
uma
função
discreta
da
posição
q
do
átomo,
especificamente,
seu
!
deslocamento.
Se
a
cadeia
de
átomos
fosse
estática,
a
posição
de
qualquer
átomo
seria
dada
por
um
número
inteiro
da
distância
entre
vizinhos,
a.
146
1
xq = ∑
N k
X k eikq
1 (II9.3)
pq = ∑ Pk e−ikq
N k
Destas
definições,
dado
que
o
deslocamento
é
necessariamente
um
operador
hermitiano,
notamos
que:
1
xq+ = ∑X e + −ikq
k
N k
(II9.4)
+ +
x = xq ⇒ X = X−k
q k
Da
mesma
forma:
1
pq+ = ∑P e k
+ ikq
N k
+ +
(II9.5)
p = pq ⇒ P = P−k
q k
A
relação
de
comutação,
𝑥! , 𝑝! = 𝑖ℏ
implica
em
𝑋! , 𝑃! = 𝑖ℏ.
Vamos
agora
calcular
o
hamiltoniano
em
termos
dos
novos
operadores.
Primeiro
o
termo
de
energia
cinética:
1
pq2 = ∑ Pk Pk 'e−ikqe−ik 'q
N k,k '
(II9.6)
1 #% '%
∑p ∑ Pk Pk ' $∑ e−i(k+k ')q ( (II9.7)
2
q =
N k,k ' %& q %)
q
A
soma
mais
à
direita,
destacada
entre
chaves,
se
assemelha
à
representação
integral
da
função
delta:
+∞
−i(k+k ')q
∫e dq = δ (k + k ') (II9.8)
−∞
147
Para
o
caso
de
uma
cadeia
discreta
com
N
átomos,
sendo
N
muito
grande,
esta
relação
se
torna18
N
∑e −i(k+k ')q
= Nδk+k ',0
(II9.9)
q=1
Logo:
pq2 Pk P−k
∑ 2m = ∑ 2m (II9.10)
q k
Agora
vamos
calcular
o
termo
de
energia
potencial:
1
xq+a =
N
∑X k eika eikq
k
1
xq+a − xq =
N k
∑ X k eikq (eika −1)
2 1
( xq+a − xq ) = N ∑ Xk Xk 'ei(k+k ')q (eika −1)(eik 'a −1)
k,k '
2 1
X k X k 'e ( ) (e ( ) − eika − eik 'a +1)
i k+k ' q i k+k ' a
(x q+a − xq ) = ∑
N k,k '
#% ' i k+k ' a
2 1 i( k+k ')q % ( )
∑( x q+a − xq ) = ∑ X k X k ' $∑ e
N k,k ' %& q
( (e
%)
ika ik 'a
− e − e +1)
q
2
∑( x q+a − xq ) = ∑ X k X−k (−1)(eika + e−ika −1)
q k
2 * ka -
∑( x q+a − xq ) = ∑ X k X−k 2sin 2 , /
+2.
q k (II9.11)
mω 2 2 m * ka -
∑ 2
( xq+a − xq ) = ∑ X k X−k 4ω 2 sin 2 , /
2 +2.
q k
Definindo:
!"
𝜔!! = 4𝜔! sin! !
(II9.12)
Chegamos
a:
18
Veja,
por
exemplo,
Apêndice
F
de
N.W.
Ashcroft
e
N.D.
Mermin,
Solid
State
148
"P P mω k %
H = ∑ # k −k + X k X−k & (II9.13)
k
$ 2m 2 '
Este
hamiltoniano
nada
mais
é
do
que
o
hamiltoniano
original
escrito
em
termos
das
amplitudes
de
Fourier
das
expansões
dos
operadores
de
momento
e
posição.
Para
passarmos
para
a
representação
de
modo
coletivo,
precisamos
introduzir
as
seguintes
transformações19:
m 1
!ω k ak = ω k Xk + i P−k
2 2m
m 1
!ω k ak+ = ω k X−k − i Pk
2 2m
mω k X P PX 1
⇒ !ω k ak+ ak = X−k X k + iω k −k −k − iω k k k + Pk P−k
2 2 2 2m
mω k XP P X 1
⇒ !ω k ak ak+ = X k X−k − iω k k k + iω k −k −k + P−k Pk
2 2 2 2m
i i
⇒ !ω k #$ak , ak+ %& = −ω k [ X−k , P−k ] − ω k [ X k , Pk ]
2 2
# +%
⇒ $ak , ak & = 1 (II9.14)
Os
operadores
assim
definidos
são
chamados
de
operadores
de
bósons.
Fazendo
a
soma
em
k
da
terceira
expressão
em
(II9.14),
obtemos:
" mω k 1 % " ω %
∑ !ω a a = ∑#$ +
k k k
2
X−k X k +
2m
Pk P−k & + ∑ #i k ( X−k P−k − Pk X k )&
' k $ 2 '
(II9.15)
k k
Agora,
tendo
em
vista
que
a
soma
sobre
k
corre
sobre
todos
os
valores
possíveis,
positivos
e
negativos,
podemos
escrever
a
última
parcela
à
direita
como:
ω " % 1 " ω %
∑#$i 2 ( X k
−k −kP − Pk X k )& = ∑ #i k ( X−k P−k + X k Pk − Pk X k − P−k X−k )&
' 2 k $ 2 '
k
" ω % 1 ω !ω
∑#$i 2k ( X−k P−k − Pk Xk )&' = 2 ∑i 2k {[ X−k , P−k ] + [ Xk Pk ]} = −∑ 2 k (II9.16)
k k k
19
Estas
transformações
são
generalizações
daquelas
utilizadas
na
segunda
quantização do oscilador harmônico simples, como abordado no Bloco I.
149
Com
isso,
obtemos
finalmente:
! 1$
H = ∑ !ω k # ak+ ak + & (II9.17)
k
" 2 %
Este
hamiltoniano
tem
obviamente
o
formato
daquele
de
um
oscilador
harmônico
simples.
Ou
seja,
o
procedimento
matemático
utilizado
permitiu
transformarmos
um
problema
de
N
osciladores
acoplados
em
uma
soma
de
osciladores
simples,
desacoplados.
Estes
“novos
osciladores”
são
os
modos
normais
de
vibração
da
cadeia,
e
o
hamiltoniano
acima
representa
a
sua
quantização.
Da
mesma
forma
que
a
quantização
dos
modos
normais
do
campo
eletromagnético
são
as
partículas
que
chamamos
de
fótons,
a
quantização
dos
modos
normais
dos
osciladores
mecânicos
são
chamados
de
fônons.
No
hamiltoniano
acima,
o
operador
𝑎!! 𝑎!
tem
autovalores
inteiros,
𝑛! = 0, 1, 2, 3, ⋯,
e
representa
o
número
de
fônons
com
energia
ℏ𝜔! .
Note
que
para
k
pequeno,
!!!
𝜔! ∝ 𝑘 ! → !"
= 𝑣! ~ 𝑘 ,
o
que
é
característico
de
ondas
sonoras
(longos
comprimentos
de
onda).
Por
esta
razão,
fônons
nestes
modos
são
chamados
de
acústicos.
De
posse
deste
hamiltoniano
podemos
agora
calcular
o
calor
específico
de
fônons
de
um
sólido,
como
obtido
por
P.
Debye 20
em
1912.
Para
isto
precisamos
primeiro
calcular
a
energia
interna
do
sistema
de
fônons
dada
por:
!ω
U =∑ !ω k /kBT
k
,
(II9.18)
k e −1
com
𝜔!
dado
pela
Eq.
(II9.12).
Debye
assumiu
fônons
acústicos
escrevendo
𝜔! = 𝑣𝑘,
que
é
característico
de
propagação
de
ondas
sonoras.
Além
disso,
ele
20
Debye,
Peter
(1912).
"Zur
Theorie
der
spezifischen
Waerme".
Annalen
der
Physik
39 (4): 789–839.
150
postulou
que
existe
uma
frequência
máxima
de
oscilação
para
os
modos
normais,
a
qual
se
passou
a
chamar
frequência
de
Debye,
𝜔! .
A
existência
de
tal
frequência
decorre
do
fato
de
que
os
átomos
de
uma
cadeia
cristalina
se
encontram
separados
por
uma
distância
mínima,
o
que
define
um
comprimento
de
onda
mínimo
para
os
fônons.
A
energia
de
um
fônon
com
a
frequência
de
Debye
é
chamada
energia
de
Debye:
𝐸! = ℏ𝜔! .
Finalmente,
a
partir
da
energia
de
Debye,
podemos
definir
a
temperatura
de
Debye,
um
importante
parâmetro
experimental:
𝜃! = 𝐸! /𝑘! .
Fazendo
a
transformação
de
soma
para
integral:
V
∑→ 8π ∫ d k ,
3
3
obtemos
para
a
energia
interna
dos
fônons:
kD
U 1 !vk
=u= 3 ∫e !vk/kBT
d 3k
V 8π 0 −1
Fazendo
a
substituição
de
variáveis:
!vk
x= ,
k BT
obtemos:
4 θ D /T
3!v ! kBT $ x3
u= # & ∫ dx
(II9.19)
2π 2 " !v % 0 e x −1
Desta
expressão
vemos
que
a
dependência
com
a
temperatura
do
calor
específico,
𝑐! = 𝜕𝑢/𝜕𝑇,
é
bem
complexa,
e
depende
da
temperatura
de
Debye,
no
caso
geral.
No
entanto,
para
baixas
temperaturas,
𝑇 → 0,
o
limite
superior
da
integral
se
torna
𝜃! /𝑘! 𝑇 → ∞,
e
a
integral
fica
independente
da
temperatura.
Neste
limite,
𝑢 ~ 𝑇 ! e 𝑐! ~ 𝑇 ! ,
como
observado
experimentalmente.
Para
temperaturas
intermediárias,
o
calor
específico
é
ajustado
usando
(II9.19),
tendo
como
único
parâmetro
de
ajuste
a
temperatura
de
Debye.
151
II10
Segunda
quantização:
mágnons
Um
outro
sistema
no
qual
a
aplicação
do
formalismo
de
segunda
quantização
é
importante
é
aquele
de
uma
cadeia
de
spins
acoplados.
Este
sistema
tem
algumas
semelhanças
com
o
tratado
na
sessão
anterior,
porém
com
uma
relação
de
dispersão
diferente
daquela
para
fônons.
Considere
uma
cadeia
de
spins
separados
entre
si
por
uma
distância
𝒅
acoplados
entre
si
através
da
interação
de
Heisenberg,
e
submetidos
a
um
campo
magnético
estático
𝑩!
aplicado
ao
longo
da
direção
Z:
H = −J 0 ∑ SR •SR+d − gµ B B0 ∑ SRZ (II10.1)
R,d R
O
símbolo
𝑺𝑹
representa
o
spin
na
posição
R
da
cadeia,
e
𝑺𝑹!𝒅
o
seu
vizinho.
Em
termos
dos
operadores
de
“levantamento”
e
“abaixamento”
de
spins,
temos:
1 + −
SR • SR+d =
2
( SR SR+d + SR− SR+d
+
) + SRZ SR+dZ
(II10.2)
E
também:
1 + −
SRZ =
2
(SR SR − SR+ SR− ) (II10.3)
Agora,
de
forma
semelhante
ao
que
foi
feito
na
seção
anterior,
realizamos
uma
transformação
para
a
representação
de
movimento
coletivo,
através
da
expansão
de
Fourier
dos
operadores
de
spin:
2S
SR− =
N k
∑ eik•R bk
(II10.4)
2S
SR+ =
N k
∑ e−ik•Rbk+
152
É
fácil
ver
que:
!"bk , bk+ #$ = 1 .
Substituindo
estes
operadores
no
hamiltoniano,
e
# 1 & (II10.5)
!ω k = 2J 0 zS %1− ∑ cos(k • d)( + gµ B B0
$ z d '
21
Supõe-‐se
que
cada
spin
na
posição
R
é
cercado
por
z
outros
spins,
distantes
d,
de R.
153
1 ∞
A!k 2
u= 3 ∫e A!k 2 /kBT
4 π k 2 dk
8π −1
0 (II10.6)
A! ∞
k 4 dk
u= ∫e A!k 2 /kBT
2π 2 0 −1
5/2
A! 2 1& k ) ∞
x 3/2 dx
x≡ k ⇒ k 4 dk = ( B + T 5/2 ∫ x
k BT 2 ' A! * 0 e −1
No
limite
de
baixas
temperaturas
a
integral
independe
de
T
e
vale
!
aproximadamente
1,78.
Vemos
portanto
que
𝑢 ∝ 𝑇 ! → 𝑐! ∝ 𝑇 !/! .
Portanto,
a
observação
desta
dependência
com
a
temperatura
no
calor
específico
de
um
material
magnético
é
uma
assinatura
da
presença
de
mágnons
no
sistema.
Figura
II10.1
–
Uma
onda
de
spins
é
um
movimento
coerente
dos
spins
de
átomos
vizinhos
que
se
acoplam
via
interação
de
Heisenberg.
A
quantização
dessas
ondas
são
os
mágnons.
Estas
partículas
(ou
excitações
elementares)
estão
para
o
movimento
de
spins
assim
como
os
fônons
estão
para
as
ondas
sonoras
ou
os
fótons
para
o
movimento
do
campo
eletromagnético.
II11.
Matriz
densidade
Em
geral,
os
textos
clássicos
de
Mecânica
Quântica
não
enfatizam
o
caráter
inevitavelmente
probabilístico
dos
experimentos
feitos
em
sistemas
com
propriedades
quânticas.
Ao
lidarmos
com
sistemas
quânticos,
nos
deparamos
com
dois
tipos
de
indeterminismo.
Um
deles
é
intrínseco
à
natureza,
e
para
exemplificá-‐lo,
vamos
considerar
os
dois
estados
abaixo:
154
ψ1 = ↑
↑ +↓
ψ2 =
2
Suponha
que
uma
partícula
seja
preparada
em
um
destes
estados,
e
que
um
observador
queira
determinar
em
qual
dos
dois
ela
está
fazendo
apenas
1
medida.
É
obviamente
impossível
distinguir
estes
dois
estados
com
apenas
uma
medida,
pois
o
autoestado
up
ocorre
nos
dois
casos.
A
única
forma
de
distingui-‐
los
é
realizar
um
grande
número
de
medidas
e
fazer
a
média
ao
final:
se
aproximadamente
metade
das
vezes
for
encontrado
o
estado
down,
significa
que
o
estado
preparado
é
ψ 2 ;
caso
contrário,
a
resposta
será
ψ1 .
Este
caráter
estatístico
é
intrínseco
à
Mecânica
Quântica,
e
não
pode
ser
eliminado,
ainda
que
tenhamos
certeza
sobre
os
estados.
A
outra
indeterminação
ocorre
porque,
em
geral,
não
se
pode
ter
certeza
sobre
o
estado
quântico
em
si,
mas
apenas
sobre
a
probabilidade
com
que
ele
é
produzido.
No
exemplo
acima,
seria
como
se
o
estado
ψ1
é
produzido
com
distinguirmos
os
dois
estados,
temos
que
levar
em
conta
este
segundo
tipo
de
indeterminação,
que
é
de
natureza
clássica,
e
não
tem
nada
a
ver
com
a
natureza
quântica
do
problema.
Suponha,
por
exemplo,
que
se
queira
obter
o
valor
esperado
da
energia.
Após
um
número
muito
grande
de
medidas,
se
tivéssemos
certeza
que
o
estado
preparado
foi
ψ1 ,
o
valor
médio
será
E1 = ψ1 H ψ1 .
Mas
certeza
da
preparação,
o
valor
médio
final
obtido
no
experimento
será:
E = E1 p1 + E2 p2
(II11.1)
Esta
expressão
final,
claramente,
inclui
os
dois
tipos
de
indeterminação,
a
quântica
(através
dos
valores
esperados)
e
a
clássica
(através
das
probabilidades
clássicas).
A
formalização
deste
procedimento
para
qualquer
estado
é
feita
através
de
uma
ferramenta
da
Física
Estatística
chamada
matriz
densidade.
155
Denomina-‐se
mistura
estatística
um
sistema
quântico
sobre
o
qual
não
se
conhece
o
estado
quântico,
mas
apenas
um
conjunto
de
estados
ψ k
que
{ ψk , pk , k = 1, 2, 3,!}
(II11.2)
Para
cada
estado
k,
define-‐se
o
seu
projetor:
Pk = ψ k ψ k ,
(II11.3)
e
o
operador
“médio”
a
seguir:
Pk ≡ ρ = ∑ pk ψ k ψ k (II11.4)
k
Este
operador
médio
é
chamado
de
operador
densidade,
ou
matriz
densidade.
Para
entendermos
o
significado
da
matriz
densidade,
considere
o
produto
de
um
observável
qualquer
Ô,
pelo
operador
densidade:
Ôρ = ∑ pkÔ ψ k ψ k
(II11.5)
k
Expanda
os
estados
ψ k
na
base
de
autovetores
de
Ô:
ψ k = ∑ cnk n
n
Ô n = λn n
(II11.6)
⇒ Ôρ = ∑∑∑ pk λn cnk ckm
*
n m
k n m
Finalmente
tomemos
o
traço
para
obter:
156
{ }
Tr Ôρ = ∑∑∑∑ pk λn cnk ckm
*
jn m j
k n m j
{ }
Tr Ôρ = ∑∑∑∑ pk λn cnk ckm
*
δ j,nδm, j
k n m j
(II11.7)
2
{ }
Tr Ôρ = ∑∑ pk λn cnk
k n
2
{ }
Tr Ôρ = ∑ pk ∑ λn cnk = ∑ pk ψ k Ô ψ k =∑ pk Ô
k
k n k k
Ou
seja,
a
operação
de
traço
do
produto
do
observável
pelo
operador
densidade
fornece
o
valor
médio
do
observável,
o
qual
inclui
ambas
as
estatísticas,
a
quântica
e
a
clássica.
Portanto,
a
determinação
do
operador
densidade
de
uma
mistura
estatística
é
tão
importante
quanto
a
determinação
do
vetor
de
estado
de
uma
sistema
puro.
Vamos
agora
derivar
uma
equação
diferencial
para
a
evolução
do
operador
densidade
em
relação
ao
tempo,
a
partir
da
sua
definição:
∂ρ " ∂ ψk ∂ ψk %
= ∑ pk # ψk + ψk &
∂t k $ ∂t ∂t '
∂ρ 1
= ∑ pk {i!H ψ k ψ k − i! ψ k ψ k H }
∂t i! k
∂ρ 1* -
= , H, ∑ pk ψ k ψ k /
∂t i! + .
k
(II11.8)
∂ρ i
= [ ρ, H ]
∂t !
Ou
seja,
conhecendo-‐se
o
hamiltoniano
do
sistema,
tem-‐se
uma
equação
diferencial
cuja
solução
é
o
operador
densidade22.
Conhecendo-‐se
o
operador
densidade,
pode-‐se
calcular
os
observáveis
termodinâmicos
do
sistema.
Esta
22
Repare
que
esta
equação
é
semelhante
na
forma,
mas
não
igual
à
equação
de
Heisenberg
para
um
operador
dependente
do
tempo
(veja
Problema
6):
dÔ(t) i ! ∂Ô(t)
= " H,Ô(t)#$ +
dt ! ∂t
157
equação
está
para
misturas
estatísticas
assim
como
a
equação
de
Schroedinger
está
para
sistemas
puros
isolados.
Um
caso
particularmente
importante
de
evolução
temporal
é
aquele
em
que
o
hamiltoniano
não
depende
do
tempo.
Neste
caso
a
evolução
temporal
do
operador
densidade
é:
ρ (t) = e−(i/!)Ht ρ (0)e+(i/!)Ht
(II11.9)
Com
esta
expressão
podemos
calcular
o
valor
médio
de
um
observável
em
qualquer
instante
de
tempo:
158
ρ 2 = ∑∑ pk pn ψ k ψ k ψ n ψ n
k n
ρ = ∑∑ pk pn ck,n ψ k ψ n
2
k n
Tr {ρ 2
} = ∑∑ p p c k n k,n m ψk ψn m
k,n m
Tr {ρ 2 } = ∑∑ pk pn ck,n ψ n m m ψ k
k,n m
Tr {ρ 2
}=∑p p c k n k,n ψ n ψ k = ∑ pk pn ck,n ck,n
*
k,n k,n
2
Tr {ρ 2 } = ∑ pk pn ck,n
k,n (II11.12)
Vemos
portanto
que
o
traço
do
quadrado
de
ρ
será
necessariamente
menor
ou
igual
a
1,
já
que
é
o
produto
de
três
probabilidades.
Esta
quantidade
será
igual
a
1
apenas
para
um
estado
puro,
ou
seja,
um
estado
para
o
qual
𝑝! = 𝑝! = 1,
e
todos
as
outras
probabilidades
iguais
a
zero.
Assim,
esta
operação
pode
ser
utilizada
como
critério
para
se
avaliar
se
uma
dada
matriz
densidade
representa
um
estado
puro
ou
uma
mistura
estatística.
Vale
a
pena
enfatizar
que
estas
propriedades
devem
ser
observadas
em
qualquer
instante,
tanto
para
matrizes
estáticas,
ou
que
evoluam
no
tempo:
Tr {ρ } = 1
Tr {ρ 2 } ≤ 1 (II11.13)
Os
elementos
da
diagonal
principal
de
uma
matriz
densidade
são
chamados
de
populações,
e
são
dados
por:
2
pn = n ρ n = ∑ pk n ψ k ψ k n = ∑ pk cnk
(II11.14)
k k
Este
número
representa
a
probabilidade
do
autoestado
n
ser
obtido
em
uma
23
Podemos
pensar
nos
elementos
da
diagonal
de
𝜌
como
as
medias
estatísticas
159
Os
elementos
fora
da
diagonal
principal
de
uma
matriz
densidade
são
chamados
de
coerências:
As
coerências
são
de
primeira
ordem,
segunda
ordem,
etc.,
dependendo
da
posição
da
linha
e
que
se
encontram,
em
relação
à
diagonal
principal
da
matriz.
Coerências
estão
ligadas
a
alguns
observáveis
importantes,
e
também
às
correlações
do
sistema.
Como
exemplo
de
aplicação
do
formalismo,
vamos
calcular
as
componentes
da
magnetização
de
um
sistema
de
N
spins
½
em
equilíbrio.
A
matriz
densidade
expandida
na
base
de
autoestados
de
1
spin
pode
ser
escrita
como:
ρ = p↑ ↑ ↑ + p↓ ↓ ↓
(II11.16)
E
as
médias
das
componentes
da
magnetização:
2µ B Sz = M z = 2µ BTr {Sz ρ } = 2µ B { ↑ Sz ρ ↑ + ↓ Sz ρ ↓ }
M z = µ B ( p↑ − p↓ )
Mx = My = 0 (II11.16)
As
componentes
X
e
Y
são
zero,
pois
a
matriz
densidade
é
diagonal
na
base
da
componente
Z
do
spin.
Considere,
no
entanto
o
caso
geral
para
1
spin:
# p c1 &
ρ = p1 ↑ ↑ + p2 ↓ ↓ + c1 ↑ ↓ + c2 ↓ ↑ = % 1 (
% c2 p2 ('
$
(II11.17)
Neste
caso,
a
componente
Z
será
dada
como
anteriormente,
porém:
160
1 1
Sx = ↑ ↓+ ↓ ↑
2 2
c +c (II11.18)
⇒ Tr {Sx ρ } = 1 2
2
Com
expressão
semelhante
para
a
componente
Y.
No
Bloco
III,
voltaremos
a
abordar
o
papel
das
coerências
da
matriz
densidade
para
as
aplicações
no
processamento
da
informação
quântica
(Seção
III8).
Um
outro
aspecto
importante
diz
respeito
à
matrizes
densidade
de
sistemas
compostos.
Se
dois
sistemas
A
e
B
possuem
matrizes
densidade
𝜌! e 𝜌! ,
a
matriz
do
sistema
composto
é
formada
pelo
produto
tensorial:
ρ A+B = ρ A ⊗ ρ B
(II11.19)
Por
exemplo:
! $ 1 2
ρA = # 1 / 3 0 &= ↑ ↑ + ↓ ↓
" 0 2/3 % 3 3
! $ 3 5
ρB = # 3 / 8 0 &= ↑ ↑ + ↓ ↓
" 0 5/8 % 8 8
! 1/8 0 0 0 $
! $ ! $ # &
ρ A ⊗ ρB = # 1 / 3 0 & ⊗ # 3/8 0
&=#
0 5 / 24 0 0 &
" 0 2/3 % " 0 5/8 % # 0 0 1/ 4 0 &
# 0 0 0 5 /12 &
" %
1 5 1 5
ρ A ⊗ ρ B = ↑↑ ↑↑ + ↑↓ ↑↓ + ↓↑ ↓↑ + ↓↓ ↓↓ (II11.20)
8 24 4 12
Neste
exemplo
utilizamos
matrizes
diagonais,
mas
naturalmente
que
o
procedimento
é
válido
para
quaisquer
matrizes.
Para
adicionar
mais
subcomponentes
ao
sistema,
basta
proceder
com
o
produto
tensorial.
Note
que,
no
caso
de
spins
1/2,
o
tamanho
do
espaço
de
Hilbert
(número
de
elementos
da
matriz
densidade)
dobra
para
cada
spin
adicionado
ao
sistema!
161
Vamos
agora
olhar
um
exemplo
de
evolução
temporal.
Suponha
que
em
𝑡 = 0
a
matriz
densidade
de
um
sistema
de
1
spin
½
seja,
na
base
de
Z24:
1 3/2 0 (II11.21)
𝜚 0 =
2 0 1/2
Um
campo
magnético
é
aplicado
ao
longo
de
+X.
Vamos
calcular
as
componentes
da
magnetização
em
um
tempo
t
posterior.
Primeiro,
notemos
que
o
hamiltoniano
é:
H = −2µ B BSx = −µ B Bσ x
(II11.22)
Como
este
hamiltoniano
não
depende
de
t,
a
matriz
densidade
será:
ρ (t) = e ( B ) x ρ (0)e ( B ) x
i µ Bt/! σ −i µ Bt/! σ
ρ (t) = $ '
2 isin ( 2µ B Bt / !) cos (µ B Bt / !) + 3sin (µ B Bt / !) '
2 2
# &
(II11.23)
Podemos
agora
calcular
as
componentes
da
magnetização:
24
Esta
matriz
densidade
representa
um
sistema
que
a
probabilidade
de
ocupação
do
estado
de
spin
up
é
em
média
2/3,
e
a
de
ocupação
do
estado
down
é
em
media
1/3.
162
µ B " 2µ B Bt % µ B " 2µ B Bt %
M x (t) = µ BTr {ρ (t)σ x } = −i sin $ ' + i sin $ '=0
2 # ! & 2 # ! &
µ " 2µ Bt % µ " 2µ Bt % " 2µ Bt %
M y (t) = µ BTr {ρ (t)σ y } = − B sin $ B ' − B sin $ B ' = −µ B sin $ B '
2 # ! & 2 # ! & # ! &
" 2µ Bt %
M z (t) = µ BTr {ρ (t)σ z } = +µ B cos $ B '
# ! &
(II11.24)
Vemos
portanto
que
as
componentes
X
e
Y
oscilam
com
frequência
𝜔 = 2𝜇! 𝐵/ℏ.
Estas
soluções
reproduzem
corretamente
o
que
é
previsto
classicamente
pela
Segunda
Lei
de
Newton
para
torques
externos:
dM (II11.25)
= M × γ B ,
dt
onde
γ
é
o
fator
de
proporcionalidade
entre
o
momento
angular
e
a
magnetização25.
A
operação
inversa
ao
produto
tensorial
entre
matrizes
densidade
é
a
de
traço
parcial.
Esta
operação
permite
que,
dada
uma
matriz
de
um
sistema
composto,
se
obtenha
as
matrizes
marginais
dos
subsistemas
individuais.
O
traço
parcial,
como
sugere
o
nome,
é
uma
operação
de
traço
sobre
os
estados
de
um
dos
subsistemas
que
compõe
o
sistema
total.
Por
exemplo,
considere
a
matriz
densidade
de
dois
spins26:
ρ = α ↑↑ ↑↑ + β ↑↓ ↑↓ + γ ↓↑ ↓↑ + δ ↓↓ ↓↓
(II11.26)
25
A
Segunda
Lei
de
Newton
diz
que
a
taxa
de
variação
do
momento
angular
é
163
O
estado
do
primeiro
spin
é
obtido
fazendo
o
traço
parcial
sobre
os
estados
do
segundo
spin,
e
o
estado
do
segundo
é
obtido
somando-‐se
sobre
os
estados
do
primeiro:
ρ A = TrB {ρ } = ↑ ρ ↑ + ↓ ρ ↓ = (α + β ) ↑ ↑ + (γ + δ ) ↓ ↓
ρ B = TrA {ρ } = ↑ ρ ↑ + ↓ ρ ↓ = (α + γ ) ↑ ↑ + ( β + δ ) ↓ ↓ (II11.27)
Em
notação
matricial
estas
matrizes
são:
𝛼+𝛽 0 𝛼+𝛾 0
𝜌! = e 𝜌! =
0 𝛾+𝛿 0 𝛽+𝛿
Como
veremos
no
Bloco
III
deste
Curso,
o
conhecimento
das
matrizes
parciais
através
da
operação
de
traço
parcial
é
essencial
para
os
protocolos
de
transmissão
de
informação
quântica.
Finalmente,
vale
observar
que
os
postulados
da
mecânica
quântica,
enunciados
inicialmente
em
termos
de
vetores
de
estado
podem
ser
reformulados
em
termos
de
operadores
densidade:
Postulado
1:
A
todo
sistema
físico
existe
um
espaço
vetorial
complexo
chamado
de
espaço
de
Hilbert.
O
sistema
é
completamente
caracterizado
por
um
operador
densidade,
hermitiano,
positivo
e
com
traço
igual
a
1,
que
atua
nos
elementos
deste
espaço.
Postulado
2:
Transformações
de
um
sistema
quântico
fechado
é
descrita
por
operações
unitárias
que
atuam
sobre
o
operador
densidade:
ρ ' = U ρU +
(II11.28)
A
evolução
temporal
é
dada
por:
164
∂ρ i (II11.29)
= [ ρ, H ] ,
∂t !
onde
H
é
o
hamiltoniano
do
sistema.
Postulado
3:
Operadores
densidade
de
sistemas
compostos
atuam
no
espaço
de
estados
daqueles
sistemas
(veja
Eq.
(II1.27)),
e
são
construídos
pelo
produto
tensorial
dos
operadores
densidade
dos
sistemas
individuais:
ρ = ρ1 ⊗ ρ2 ⊗!⊗ ρ N
(II11.30)
Postulado
4:
Medidas
são
descritas
por
um
conjunto
de
operadores
de
medidas,
Mm.
A
probabilidade
de
um
resultado
m
ser
obtido
após
uma
medida
sobre
um
sistema
com
operador
densidade
ρ é:
p(m) = Tr {M m ρ }
(II11.31)
O
estado
do
sistema
após
a
medida
é:
M m ρ M m+
ρ final =
Tr {M m ρ } (II11.32)
E,
em
qualquer
instante
de
tempo,
o
valor
médio
de
um
observável
O
é:
O = Tr {Oρ }
(II11.33)
Para
concluirmos
esta
Sessão
sobre
matriz
densidade,
precisamos
especificar
como
obter
ρ(0)
para
um
dado
sistema
físico.
Vimos
que
se
o
hamiltoniano
não
depende
do
tempo,
podemos
determinar
a
matriz
densidade
em
qualquer
instante
de
tempo,
usando
o
resultado
(II11.9).
No
entanto,
para
isso
precisamos
conhecer
ρ(0).
Em
geral
ρ(0)
representa
um
sistema
em
equilíbrio
termodinâmico.
Para
sistemas
compostos
por
um
número
muito
grande
de
165
partículas,
a
uma
temperatura
fixa,
ρ(0)
é
obtida
a
partir
do
princípio
de
maximização
da
entropia27,
e
o
resultado
é:
e−H /kBT e−H /kBT
ρ (0) = ρeq = = ,
Tr {e−H /kBT } Z (II11.34)
onde
H
é
o
hamiltoniano,
e
Z
a
função
de
partição.
Vemos
portanto
que,
conhecendo-‐se
o
hamiltoniano,
temos
um
procedimento
bastante
genérico
para
calcularmos
a
matriz
densidade
do
sistema
e
qualquer
observável
termodinâmico
em
qualquer
instante
de
tempo.
Como
exemplo,
considere
o
hamiltoniano
de
uma
partícula
livre
com
energia
ℏ𝜔:
H = !ω a + a
(II11.35)
n = Tr {ρ a + a} =
Tr a + ae { }
+ (II11.36)
Tr e { −( !ω /kBT )a a
}
Agora,
para
calcularmos
os
traços,
precisamos
conhecer
a
natureza
quântica
das
partículas:
se
forem
bósons,
a
soma
vai
de
zero
até
infinito,
e
o
resultado
é:
∞
−!ω /kBT n
∑ n (e )
n = n=0
=
1 (II11.37)
∞ +!ω /kBT
−!ω /kBT n e −1
∑(e )
n=0
27
Ver,
por
exemplo,
Ivan
S.
Oliveira
e
Vitor
L.B.
de
Jesus,
Introdução
à
Física
do
Estado Sólido, 3a. Edição, Complemento C1, Livraria da Física (São Paulo, 2017).
166
que
é
a
própria
distribuição
de
Planck
para
a
radiação
de
corpo
negro.
Por
outro
lado,
se
os
operadores
forem
de
férmions,
o
princípio
de
Pauli
deve
ser
observado,
e
as
somas
só
possuem
dois
termos,
para
n
=
0
e
para
n
=
1:
1
−!ω /kBT n
∑ n (e ) 1
n=0
n = =
(II11.38)
1 +!ω /kBT
−!ω /kBT n e +1
∑(e )
n=0
que
é
a
distribuição
de
Fermi-‐Dirac.
Para
apreciarmos
como
a
natureza
quântica
das
partículas
afeta
as
propriedades
físicas
dos
objetos
macroscópicos,
vamos
calcular
o
calor
específico
de
um
gás
de
férmions
usando
(II11.32).
O
primeiro
passo
é
calcular
a
energia
interna
do
gás
para
uma
temperatura
de
equilíbrio.
Lembremos
que
na
Sessão
I17
a
energia
total
do
gás
(no
caso,
elétrons)
foi
calculada
para
T
=
0
(Eq.
I17.9).
De
forma
semelhante
ao
que
foi
feito
para
o
caso
dos
fótons,
é
conveniente
fazermos
o
cálculo
usando
a
densidade
de
estados
para
um
gás
de
elétrons
livres.
A
integral
que
temos
de
calcular
é:
∞
!2k 2 (II11.39)
u= ∫ n[E(k)] d 3k
0 2m
onde
o
número
médio
é
dado
por
(II11.38).
É
mais
conveniente
expressarmos
a
integral
em
termos
da
energia
do
elétron:
167
∞
!2k 2
u= ∫ n d 3k
0 2m
∞
!2k 2 (II11.40)
u= ∫ n 4π k 2 dk
2m
,
0
−1/2
m # 2mE &
dk = 2 % 2 ( dE
! $ ! '
∞
Eg(E)
u= ∫e E/kBT
+1
dE
0
onde
𝑔(𝐸)
é
a
densidade
de
estados.
Nesta
expressão,
𝑔 𝐸 𝑑𝐸
é
igual
ao
número
de
estados
eletrônicos
entre
𝐸 e 𝐸 + 𝑑𝐸.
Multiplicado
por
E
resulta
na
energia
total
no
intervalo.
O
fator
estatístico
representa
a
probabilidade
do
estado
com
energia
E
estar
ocupado.
Fazendo
a
transformação:
E
x= ,
k BT
vemos
que
𝑢 ~ 𝑇 ! ,
e
portanto28
𝑐 ~ 𝑇.
Este
resultado
difere
dramaticamente
do
resultado
clássico,
para
o
qual
o
calor
específico
independe
da
temperatura.
Juntando
tudo
o
que
foi
dito
aqui
sobre
calor
específico,
ao
analisarmos
medidas
desta
grandeza
em
um
metal
magnético
a
baixas
temperaturas,
temos
que
considerar
três
tipos
de
contribuição:
a
dos
fônons,
inerente
à
vibração
dos
átomos
que
formam
o
sólido,
a
dos
mágnons,
devida
às
oscilações
magnéticas,
e
a
dos
elétrons,
responsáveis
pela
condução
de
corrente.
Portanto,
medidas
de
calor
específico
nestes
materiais
são
ajustadas
com
curvas
contendo
estas
três
contribuições:
c = γ T + αT 3 + β T 3/2 ,
(II11.41)
28
Um
tratamento
completo
deste
problema
deve
considerar
o
chamado
168
!
onde
α,
β
e
γ
são
parâmetros
de
ajustes.
Fazendo-‐se
um
gráfico
de
! vs. 𝑇 !
é
onde
𝑛! = 0 ou 1.
Representamos
o
operador
que
cria
um
férmion
no
estado
k
por
𝑐!! ,
e
o
que
destrói
por
𝑐! .
Estes
operadores
satisfazem
a
uma
regra
de
anticomutação:
{c , c } ≡ c c
k
+
n
+
k n + cn+ck = δk,n
(II12.2)
O
operador
𝑐!! 𝑐!
tem
autovalores
0
ou
1,
o
número
de
férmions
no
estado
k.
Nesta
linguagem,
o
princípio
de
exclusão
é
expresso
como:
+ 2
(c ) k nk = 0
(II12.3)
que
meramente
expressa
o
fato
de
que
dois
elétrons
não
podem
estar
no
mesmo
estado
k29.
29
Em
problemas
em
que
o
spin
deve
ser
explicitamente
levado
em
conta,
os
!
operadores
são
escritos
como
𝑐!" e 𝑐!" ,
significando
a
destruição
(criação)
de
uma
particular
no
estado
k,
com
spin
σ.
169
As
representações
matriciais
destes
operadores
podem
ser
obtidas
facilmente
das
suas
definições
para
1
férmion:
c 0 =0
c1 = 0
0 c 0 = 0; 1 c 0 = 0
0 c 1 = 1; 1 c 1 = 0
" 0 1 %
⇒ c =$ '
# 0 0 &
(II12.4)
c+ 0 = 1 1
c+ 1 = 0
0 c + 0 = 0; 1 c + 0 = 1
0 c + 1 = 0; 1 c + 1 = 0
" 0 0 %
⇒ c+ = $ '
# 1 0 &
onde
os
autovetores
são:
! 1 $
0 =# &
" 0 % (II12.5)
! 0 $
1 =# &
" 1 %
É
interessante
notar
que
estes
operadores
podem
ser
representados
como
combinações
das
matrizes
de
Pauli:
1
c=
2
(σ x − iσ y )
1 (II12.6)
c = (σ x + iσ y )
+
2
Nesta
representação,
o
hamiltoniano
representando
a
energia
cinética
de
um
conjunto
de
férmions
sem
interação
é
escrito
como:
170
!2k 2 +
H =∑ ck ck
(II12.7)
k 2m
Existe
um
procedimento
simples,
porém
genérico,
para
representarmos
qualquer
hamiltoniano
de
1
partícula
em
linguagem
de
segunda
quantização.
Dado
um
hamiltoniano
escrito
em
primeira
quantização,
𝐻(𝐫, 𝐩) ,
para
transformá-‐lo
para
a
segunda
quantização
calculamos
a
expressão:
H= ∫Ψ +
(r)H Ψ(r)d 3r
(II12.8)
onde:
Ψ(r) = ∑ϕ k (r)ck
k
Ψ (r) = ∑ϕ k* (r)ck+
+
(II12.9)
k
Vemos que se ϕ k forem autofunções de H, esta expressão se reduz a (II12.7). Se
Seguindo
o
procedimento
descrito
para
segunda
quantização
obtemos:
1 e2 1
H= ∫Ψ +
(r1 )Ψ + (r2 ) Ψ(r1 )Ψ(r2 )d 3r1d 3r2
2 4πε 0 r1 − r2
1 e2 1
H= ∑ ∑ ∑ ∑
2 4πε 0 k1 k2 k3 k4
ck+1 ck+2 ck3 ck4 ∫ ϕ k*1 (r1 )ϕ k*2 (r2 )
r1 − r2
ϕ k1 (r1 )ϕ k 2 (r1 )d 3r1d 3r2
(II12.11)
Escrevendo
ϕ k (r) = eik⋅r ,
e
tendo
em
conta
a
expressão:
171
1 4π
= ∑ 2 eiq⋅(r1−r2 )
(II12.12)
r1 − r2 q q
e
a
representação
integral
da
função
delta,
obtém-‐se:
e2
H=∑ ∑ ck+ +qck+ −qck ck
2ε 0 q 2 k1,k2 1 2 1 2 (II12.13)
q
Este
é
o
hamiltoniano
da
interação
coulombiana
entre
dois
elétrons,
escrito
na
linguagem
de
segunda
quantização.
Repare
que
ele
representa
um
processo
no
qual
dois
elétrons,
inicialmente
nos
estados
k1
e
k2
são
aniquilados,
para
ressurgirem
nos
estados
k1
+
q
e
k2
–
q.
O
vetor
q
representa
o
momento
do
fóton
(quantum
da
interação
eletromagnética)
que
é
trocado
entre
os
elétrons
durante
o
processo
de
interação.
O
processo
pode
ser
representado
graficamente
através
dos
chamados
diagramas
de
Feynman,
como
mostrado
na
Figura
II12.1.
Figura
II12.1
–
Representação
da
interação
entre
dois
elétrons
através
da
troca
de
um
fóton,
usando
um
diagrama
de
Feynman.
Dois
elétrons
são
aniquilados
nos
estados
iniciais
|k1>
e
|k2>
e
recriados
nos
estados
|k1+q>
e
|k2-‐q>.
172
II13.
Interação
elétron-‐fônon:
pares
de
Cooper
Nas
Seções
anteriores
vimos
como
os
diversos
tipos
de
“ondas”
podem
ser
quantizadas
e
descritas
em
termos
das
chamadas
excitações
elementares:
um
fóton
é
uma
excitação
elementar
de
uma
onda
eletromagnética,
um
fônon
é
uma
excitação
elementar
de
uma
onda
elástica
e
um
mágnon
é
uma
excitação
elementar
de
uma
onda
de
spins.
As
excitações
elementares
têm
propriedades
corpusculares,
são
bósons,
e
podem
interagir
com
férmions.
De
fato,
estas
partículas
de
campo
operam
como
os
mediadores
das
interações
entre
férmions.
Por
exemplo,
duas
cargas
elétricas
interagem
entre
si
através
da
intermediação
de
fótons.
Um
dos
casos
mais
importantes
de
interação
entre
dois
férmions
através
de
um
bóson
é
o
de
dois
elétrons
dentro
da
matéria
interagindo
através
de
um
fônon.
Esta
interação
dá
origem
a
uma
nova
partícula
composta
(2
elétrons
+
1
fônon)
chamada
par
de
Cooper30.
A
descoberta
dos
pares
de
Cooper
levou
à
formulação,
por
John
Bardeen
e
John
Schrieffer,
além
do
próprio
Cooper,
da
famosa
Teoria
BCS
da
supercondutividade,
um
dos
grandes
triunfos
da
Mecânica
Quântica31.
Uma
peculiaridade
dos
pares
de
Cooper
é
o
fato
de
que
a
interação
elétron-‐
elétron
via
fônon
se
dá
entre
elétrons
separados
por
milhares
de
distâncias
atômicas.
Vamos
fazer
uma
descrição
desta
interação
no
caso
simples
de
uma
cadeia
atômica
unidimensional,
semelhante
ao
que
foi
tratado
na
Seção
II9.
Considere
uma
cadeia
atômica
linear,
com
os
íons
localizados
pela
coordenada
𝑋,
com
um
elétron
localizado
pela
coordenada
𝑥 .
A
interação
entre
o
elétron
e
um
determinado
íon
só
depende
da
distância
entre
eles,
e
é
genericamente
descrita
pelo
potencial:
(II13.1)
𝑉!!! = 𝑉(𝑥 − 𝑋)
30
Em
homenagem
a
Leon
Cooper,
o
descobridor
do
fenômeno.
Veja:
Cooper,
Leon
N.,
Bound
electron
pairs
in
degenerate
Fermi
gas,
Phys.
Rev.,
104
(1956)
1189.
31
Bardeen,
J.
Cooper,
L.N.
e
Schrieffer,
J.R.,
Microscopic
theory
of
173
A
coordenada
𝑋
pode
ser
decomposta
como
uma
soma
entre
a
posição
de
equilíbrio
𝑋!
e
o
deslocamento
causado
pela
vibração
da
cadeia,
𝑢:
(II13.2)
𝑋 = 𝑋! + 𝑢
Substituindo
na
expressão
do
potencial,
para
deslocamentos
pequenos,
obtemos
a
expansão:
𝑑𝑉 (II13.3)
𝑉!!! ≈ 𝑉 𝑥 − 𝑋! − 𝑢
𝑑𝑥
Nesta
expressão,
o
primeiro
termo
representa
a
interação
do
elétron
com
a
cadeia
estática.
É
esta
interação
que
dá
origem
à
estrutura
de
energias
eletrônicas
sob
a
forma
de
bandas
de
energia
nos
metais,
por
exemplo32.
O
segundo
termo
representa
as
interações
do
elétron
com
as
vibrações
da
rede,
ou
seja,
os
fônons.
É
nele
que
estamos
interessados.
Vamos
escrever
esta
interação
como:
ℋ!!! = −𝐷𝑢(x)
(II13.4)
Onde
deixamos
explícito
o
fato
de
que
a
proximidade
do
elétron
de
um
íon,
naturalmente
afeta
o
seu
deslocamento.
Como
na
Sessão
anterior,
para
transformar
este
hamiltoniano
para
a
linguagem
de
segunda
quantização,
devemos
usar
a
fórmula:
(II13.5)
32
Veja,
por
exemplo,
Ivan
S.
Oliveira
e
Vitor
L.
de
Jesus,
Introdução
à
Física
do
Estado
Sólido,
3a
Ed.,
Livraria
da
Física
(São
Paulo,
2017).
174
Agora,
o
deslocamento
𝑢(𝑥)
deve
também
ser
escrito
em
termos
dos
operadores
de
criação
e
aniquilação
para
fônons.
No
limite
do
contínuo,
a
expressão
se
torna33:
ℏ
ℋ!!! = 𝑖𝐷 𝑞 𝑎! 𝑒 !"# − 𝑎!! 𝑒 !!"#
2𝜌𝜔!
!
(II13.6)
Inserindo
este
hamiltoniano
na
expressão
(II13.5)
acima,
obtemos:
!
ℏ
𝐻!!! = 𝑖𝐷 𝑐!! 𝑐! 𝑞 𝑎! 𝑒 !(!!!!!!)! 𝑑𝑥 − 𝑎!! 𝑒 !(!!!!!!)! 𝑑𝑥
2𝜌𝜔!
!,!! !
(II13.7)
Finalmente,
usando
a
representação
integral
da
função
delta
de
Dirac,
chegamos
a
:
! !
ℏ
𝐻!!! = 𝑖 𝐷(𝑞) 𝑐!!! 𝑐! 𝑎! − 𝑐!!! 𝑐! 𝑎!! , com 𝐷 𝑞 = 𝐷 𝑞
2𝜌𝜔!
!,!
(II13.8)
Este
hamiltoniano
se
assemelha
àquele
de
(II12.13),
e
a
sua
interpretação
é
quase
idêntica:
o
primeiro
termo
representa
um
processo
em
que
um
elétron
inicialmente
com
momento
𝑘
interage
com
um
fônon
com
momento
𝑞,
o
fônon
é
aniquilado
e
o
elétron
passa
do
estado
𝑘
para
o
estado
𝑘 + 𝑞.
O
segundo
termo
é
a
situação
em
que
o
fônon
é
criado
na
interação.
Quando
um
segundo
elétron
é
considerado,
este
tipo
de
processo
resulta
em
uma
ligação
efetiva
entre
os
dois
33
Veja,
por
exemplo,
C.
Kittel,
Quantum
Theory
of
Solids,
2a.
Ed.,
John
Wiley
&
Sons
(New
York
1987).
Também
no
Apêndice
A9
de
Veja,
por
exemplo,
Ivan
S.
Oliveira
e
Vitor
L.
de
Jesus,
Introdução
à
Física
do
Estado
Sólido,
3a
Ed.,
Livraria
da
Física
(São
Paulo,
2017).
175
elétrons,
intermediada
por
um
fônon:
são
os
pares
de
Cooper34.
O
hamiltoniano
final
é:
ℏ𝜔! ! !
𝐻 = 𝐷! ! 𝑐!!!! 𝑐!! 𝑐!!!! 𝑐!!
! !! !! 𝜀!! − 𝜀!!!! − ℏ! 𝜔!!
Figura
II13.1
–
Dois
elétrons
se
correlacionam
em
uma
rede
atômica
a
deformando
localmente
e
produzindo
um
fônon.
A
partícula
composta
pelos
dois
elétrons
e
o
fônon
é
um
par
de
Cooper.
Este
é
o
mecanismo
da
supercondutividade
nos
materiais,
e
a
teoria
que
a
formaliza
é
chamada
de
Teoria
BCS.
II14.
Entropia,
informação
e
emaranhamento
Entropia
é
um
conceito
que
aparece
em
diferentes
áreas
da
Física.
Historicamente,
foi
Rudolf
Clausius
(182-‐1888)
quem
propôs
a
nova
quantidade,
inicialmente
como
uma
tentativa
de
quantificar
a
parcela
da
“energia
perdida”
de
um
sistema,
ou
seja,
não
disponível
para
a
realização
de
trabalho.
34
Veja,
por
exemplo,
Complemento
A9,
de
Ivan
S.
Oliveira
e
Vitor
L.B.
de
Jesus,
Introdução
à
Física
do
Estado
Sólido,
3a
Ed.,
Livraria
da
Física
(São
Paulo
2017).
176
Em
Termodinâmica
o
conceito
de
entropia
está
ligado
aos
chamados
processos
não
adiabáticos.
Isto
pode
ser
discutido
a
partir
da
Primeira
Lei
da
Termodinâmica,
que
é
uma
lei
de
conservação
de
energia
que
relaciona
a
variação
da
energia
interna
e
um
sistema,
∆𝑈,
o
fluxo
calor,
∆𝑄,
e
o
trabalho
realizado,
∆𝑊:
∆𝑈 = ∆𝑄 + ∆𝑊
(II14.1)
Estas
três
quantidades
podem
variar
positiva
ou
negativamente.
Fluxo
de
calor
ocorre
para
dentro
ou
fora
do
sistema
quando,
por
exemplo,
este
é
colocado
em
contato
com
um
reservatório
térmico
a
uma
temperatura
fixa.
Por
outro
lado,
trabalho
é
realizado
sobre
ou
pelo
sistema
quando
um
parâmetro
do
hamiltoniano
é
modificado.
A
experiência
mostra
que
se
o
trabalho
for
realizado
muito
vagarosamente
sobre
um
sistema
com
temperatura
fixa,
no
chamado
regime
quase
estático,
estará
sempre
próximo
ao
equilíbrio
e
não
haverá
variação
de
entropia.
Por
outro
lado,
se
o
trabalho
for
realizado
abruptamente,
uma
parte
dele
“se
perde”
sob
a
forma
de
calor.
Esta
variação
de
calor,
dividida
pela
temperatura
do
reservatório35
é
o
que
se
chama
entropia
termodinâmica:
ΔQ (II14.2)
ΔS ~
T
Note
que
a
entropia
assim
definida
tem
a
mesma
unidade
que
a
constante
de
Boltzmann:
cal/K,
J/K,
etc.
Apesar
de
depender
da
forma
como
a
transformação
é
realizada,
a
entropia
termodinâmica
é
um
exemplo
do
que
se
chama
função
de
estado,
cuja
variação
só
depende
dos
seus
valores
nos
estados
inicial
e
final36.
Na
sua
tentativa
de
dar
uma
fundamentação
microscópica
para
a
Termodinâmica,
ao
lado
de
Ludwig
Boltzmann
(1844-‐1906)
e
James
Clerk
35
É
importante
fazer
esta
distinção,
pois
durante
uma
transformação
termodinâmica
sobre
um
sistema,
este
pode
não
ter
uma
temperatura
definida.
36
Para
uma
interessante
discussão
sobre
Termodinâmica
em
Ressonância
Magnética
Nuclear,
veja
Quantum
thermodynamics
and
work
fluctuation
with
applications
to
magnetic
resonance,
W.L.
Ribeiro,
G.T.
Landi
e
F.L.
Semião,
Am.
J.
Phys.,
84
(2016)
948.
177
Maxwell
(1831-‐1879),
Josiah
Willard
Gibbs
(1839-‐1903)
chegou
ao
conceito
de
entropia
estatística,
definida
como:
S = −kB ∑ pn ln pn (II14.3)
n
Nesta
expressão,
𝑝!
são
as
probabilidades
de
ocorrência
dos
chamados
microestados
de
um
sistema.
Repare
que
a
única
conexão
com
a
Termodinâmica
que
aparece
nesta
expressão
é
a
constante
de
Boltzmann.
A
entropia
de
Boltzmann
assim
definida
permite,
com
algumas
hipóteses
adicionais,
o
cálculo
das
funções
termodinâmicas
clássicas.
No
entanto
não
existe
até
o
momento
uma
teoria
baseada
em
primeiros
princípios
da
qual
a
Termodinâmica
seja
obtida
como
caso
limite.
Um
microestado
é
uma
configuração
microscópica
que
resulta
em
um
estado
macroscópico.
Para
exemplificar
a
ideia
de
microestado
e
a
aplicação
da
entropia
estatística,
suponha
que
se
jogue
para
o
alto
quatro
moedas.
Vamos
chamar
de
CA
o
resultado
“cara”
e
CO
o
resultado
“coroa”.
Existem
16
configurações
possíveis
de
um
resultado
qualquer:
CA
CA
CA
CA
CA
CA
CA
CO
CA
CA
CO
CA
CA
CO
CA
CA
CO
CA
CA
CA
CA
CA
CO
CO
CA
CO
CA
CO
CO
CA
CA
CO
CO
CA
CO
CA
CA
CO
CO
CA
CO
CO
CA
CA
178
CO
CO
CO
CA
CO
CO
CA
CO
CO
CA
CO
CO
CA
CO
CO
CO
CO
CO
CO
CO
Cada
uma
dessas
configurações
é
o
que
se
chama
microestado37.
Vemos
que
existem
04
configurações
em
que
ocorre
apenas
uma
CO
e
três
CA.
Logo,
a
!
probabilidade
desta
configuração
ocorrer
em
uma
jogada
é
𝑝! = !" = 1/4.
O
mesmo
vale
para
uma
CA
e
três
CO.
A
configuração
mais
provável
é
aquela
em
!
que
ocorrem
duas
CA
e
duas
CO:
𝑝! = !" = 3/8.
Finalmente,
a
probabilidade
de
se
obter
apenas
CA
ou
apenas
CO
é
𝑝! = 1/16.
Assim,
a
entropia
estatística
deste
sistema
é:
) 1 # 1 & 3 # 3& 1 # 1 &,
S = −kB *2 × ln % ( + ln % ( + 2 × ln % (- = 0, 97kB
+ 4 $ 4' 8 $8' 16 $ 16 '.
Qual
o
significado
deste
número?
Ele
quantifica
o
grau
de
conhecimento
(ou
de
desconhecimento)
que
temos
sobre
o
sistema.
Quanto
mais
próximo
de
1
for
a
entropia
menor
é
o
conhecimento
que
temos
sobre
o
sistema.
Naturalmente
que
neste
exemplo
com
apenas
quatro
moedas
a
constante
de
Boltzmann
não
tem
muito
sentido
no
resultado
final,
já
que
tal
número
de
moedas
está
longe
de
ser
um
sistema
termodinâmico.
Mas
a
entropia
calculada
desta
forma
para,
por
exemplo,
um
conjunto
muito
grande
de
spins 38
permite
se
obter
todas
as
funções
termodinâmicas
do
sistema,
meramente
a
partir
de
um
cálculo
de
probabilidades!
Vê-‐se
que
a
entropia
estatística
também
tem
a
mesma
unidade
que
kB.
37
Em
um
sistema
físico
contendo
um
número
muito
grande
de
componentes,
como
por
exemplo
10!"
spins
nucleares
do
hidrogênio
em
um
copo
com
água,
o
número
de
microestados
é
infinitamente
maior.
38
Por
exemplo,
para
100
spins
existem
1030
microestados!
179
Uma
terceira
definição
de
entropia
apareceu
em
1948
quando
o
jovem
engenheiro
Claude
E.
Shannon
(1916-‐2001),
trabalhando
no
MIT,
formulou
a
sua
revolucionária
Teoria
Matemática
da
Comunicação 39 .
Shannon
estava
interessado
em
uma
quantidade
que
pudesse
medir
o
grau
de
certeza
que
se
pode
recuperar
uma
mensagem
enviada
através
de
um
cabo
elétrico
(na
época
o
telégrafo,
atualmente
a
Internet)
sob
a
forma
de
pulsos
de
elétricos.
A
entropia
de
Shannon
é
semelhante
à
entropia
estatística,
mas
não
contém
a
constante
de
Boltzmann,
e
o
logaritmo
é
tomado
na
base
dois,
e
não
na
base
natural:
S = −∑ pn log 2 pn
(II14.4)
n
A
razão
para
isto
está
na
definição
da
unidade
de
informação,
o
dígito
binário,
ou
bit40.
Um
sistema
que
tem
uma
única
unidade
informação,
com
probabilidade
½
de
ser
0
e
½
de
ser
1
tem
entropia
de
Shannon
igual
a
1:
1 #1&
S = −2 × log 2 % ( = 1
2 $ 2 '
A
unidade
desta
entropia
é
justamente
o
que
chamamos
atualmente
de
bit.
A
entropia
de
Shannon
representa
o
número
mínimo
de
bits
necessários
para
que
uma
mensagem
seja
enviada
através
de
um
canal
de
comunicação
sem
que
haja
perda
essencial
de
conteúdo.
A
teoria
de
Shannon
forma
a
base
matemática
de
toda
a
tecnologia
de
comunicação
da
atualidade,
baseada
em
processos
físicos
clássicos
envolvendo
39
A
Mathematical
Theory
of
Communication,
C.E.
Shannon,
The
Bell
System
artigo
revolucionário
publicado
em
1936
por
Alan
Turing,
no
qual
propõe
a
ideia
de
uma
máquina
operando
apenas
com
zeros
e
uns.
Porém,
o
termo
“bit”
aparece
pela
primeira
vez
no
artigo
de
Shannon,
de
1948.
180
processamento
de
sinais
na
presença
de
ruído.
No
entanto,
a
compreensão
de
que
em
sistemas
quânticos
possuem
correlações
que
não
existem
classicamente,
levou
à
definição
de
uma
quarta
forma
de
entropia
por
John
von
Neumann
no
início
dos
anos
1930:
𝑆 = −Tr 𝜌ln𝜌
(II14.5)
onde
𝜌
é
a
matriz
densidade
do
sistema.
Repare
que,
apesar
da
definição
utilizar
logaritmo
natural,
se
o
traço
for
tomado
na
base
de
autovetores
de
ρ,
a
entropia
de
von
Neumann
fica
com
a
mesma
forma
que
a
de
Shannon.
Porém,
isto
não
significa
que
a
entropia
de
Shannon
tenha
a
mesma
abrangência
que
a
de
von
Neumann.
Para
termos
uma
noção
disto,
vamos
escrever
a
entropia
de
von
Neumann
como
a
de
Shannon:
𝑆=− 𝑝! ln𝑝!
!
Suponha
que
tenhamos
um
único
estado
quântico,
ou
seja,
um
estado
puro:
↑ +↓
ψ =
2
↑ ↑+↑ ↓+↓ ↑+↓ ↓
⇒ρ= ψ ψ =
2
⇒ p =1
Portanto,
esta
distribuição
com
apenas
um
estado
tem
𝑝 = 1,
e
a
entropia
do
sistema
é
zero.
Entropia
zero
significa
que
temos
certeza
do
estado.
O
fato
de
ser
uma
superposição
de
autestados
implica
em
uma
indeterminação
quântica
que
nada
tem
a
ver
com
a
entropia,
mas
com
o
fato
de
que
a
base
que
expande
o
estado
não
ser
aquela
que
diagonaliza
ρ.
De
fato,
se
notarmos
que
ψ = + ,
a
181
Existe
um
caso
que
torna
evidente
a
diferença
entre
estados
quânticos
e
clássicos,
que
é
o
da
matriz
densidade
que
representa
um
estado
emaranhado
puro.
Tomemos
o
estado
do
gato:
↑↑ + ↓↓ ↑↑ + ↓↓ ↑↑ ↑↑ + ↑↑ ↓↓ + ↓↓ ↑↑ + ↓↓ ↓↓
ρ= • =
2 2 2
# 1 0 0 1 &
% (
1% 0 0 0 0 (
ρ=
2% 0 0 0 0 (
% 1 0 0 1 ('
$
(II14.6)
Por
ser
um
estado
puro,
a
entropia
é
zero,
como
no
exemplo
anterior.
No
entanto,
como
temos
dois
spins,
podemos
usar
o
conceito
de
traço
parcial
para
obtermos
as
matrizes
individuais:
1! $
ρ A = ρB = # 1 0 & (II14.7)
2 " 0 1 %
182
Problemas
1. Encontre
as
condições
para
que
a
equação
de
Schroedinger
seja
invariante
sob
transformações
galileanas
do
sistema
de
coordenadas,
supondo
que
o
potencial
seja
invariante
sob
tal
transformação.
2. Seja
o
hamiltoniano
abaixo:
! !
𝐻= 𝐸! 𝑛 𝑛 + 𝑊 {|𝑛 𝑛 + 1| + |𝑛 + 1 𝑛|},
!!! !!!
onde
{|𝑛 }
forma
uma
base
ortonormal.
Considerando
condições
de
contorno
periódicas,
|𝑁 + 𝑘 = |𝑘 ,
calcule
as
autoenergias
e
autoestados
deste
hamiltoniano.
3. Seja
a
definição
do
operador
de
translação,
Γ(𝑎):
Γ 𝑎 𝜓 𝑥 = 𝜓(𝑥 + 𝑎)
Mostre
que
Γ
é
unitário
e
que
pode
ser
expresso
em
termos
do
operador
𝑝 = −𝑖ℏ𝑑/𝑑𝑥.
4. Sejam
os
operadores
𝐴, 𝐵 e 𝐶, tal que 𝐴, 𝐵 = 𝐶, e 𝐴, 𝐶 = 𝐵, 𝐶 = 0 .
Mostre
que
𝑒 !!! = 𝑒 ! 𝑒 ! 𝑒 !!/!
5. Mostre
que
para
quaisquer
dois
operadores
A
e
B,
1 1
𝑒 ! 𝐴𝑒 !! = 𝐴 + 𝐵, 𝐴 + 𝐵, 𝐵, 𝐴 + 𝐵, 𝐵, 𝐵, 𝐴 + ⋯
2! 3!
6. Seja
𝐴(𝑡)
um
operador
que
depende
explicitamente
do
tempo,
em
um
sistema
com
hamiltoniano
𝐻.
Mostre
que:
183
𝑑𝐴 𝑖 𝜕𝐴
= 𝐻, 𝐴 +
𝑑𝑡 ℏ 𝜕𝑡
Esta
é
a
chamada
equação
de
Heisenberg.
7. Uma
partícula
com
spin
S
e
momento
magnético
𝝁 = 𝑔𝜇! 𝑺
é
submetida
a
um
campo
magnético
com
a
seguinte
forma:
𝑩 𝑡 = 𝐵! 𝒌 + 𝐵! [𝒊𝑐𝑜𝑠 𝜔𝑡 + 𝒋𝑠𝑒𝑛 𝜔𝑡 ]
a)
Faça
uma
mudança
para
um
sistema
de
coordenadas
no
qual
este
campo
não
depende
mais
do
tempo.
b)
Usando
a
equação
de
Heisenberg
do
problema
anterior,
deduza
as
equações
de
movimento
para
as
componentes
do
momento
magnético.
Interprete
o
resultado.
8. Resolva
o
problema
do
oscilador
harmônico
na
representação
de
momento.
9. Seja
o
hamiltoniano
de
uma
partícula
com
massa
𝑚
em
um
potencial
𝑉 𝒓 :
𝑝!
𝐻= + 𝑉(𝒓)
2𝜇
!
Mostre
que:
! 𝐸! − 𝐸! 𝑋!" = ℏ! /2𝜇,
onde
𝐸!
são
os
autoestados
de
energia,
e
𝑋!"
é
o
elemento
de
matriz
da
componente
X
de
r.
10. Encontre
as
regras
de
comutação
para
as
componentes
do
operador
velocidade
de
uma
partícula
carregada
sem
spin
em
um
campo
magnético
estático
e
homogêneo
aplicado
ao
longo
da
direção
Z.
11. Seja
o
hamiltoniano
representando
a
interação
entre
dois
spins:
𝐻 = 𝛼𝑰 + 𝛽𝝈𝟏 ∙ 𝝈𝟐
ℏ
com
spin
total
𝑺 = 𝒔𝟏 + 𝒔𝟐 = ! (𝝈𝟏 + 𝝈𝟐 ).
a)
Mostre
que
𝐻, 𝑺! e 𝑆!
podem
184
12. Duas
partículas
de
spin
½
,
A
e
B,
estão
nos
seguintes
autoestados:
|↑ ! e |+ ! .
Calcule
a
probabilidade
de
uma
medida
do
spin
total
resultar
no
valor
zero.
13. O
spin
de
um
elétron
é
medido
e
encontrado
no
autoestado
+1/2
da
direção
Z.
Qual
a
probabilidade
de,
em
uma
segunda
medida,
o
spin
ser
encontrado
em
uma
direção
no
plano
X-‐Z
formando
um
ângulo
𝜃
com
o
eixo
Z?
14. Mostre
que
a
medida
de
qualquer
componente
de
um
spin
½
sempre
retornará
±ℏ/2
como
resultado,
qualquer
que
seja
a
direção.
15. Um
átomo
de
hidrogênio
no
estado
com
número
quântico
principal
𝑛 = 2,
está
sob
a
ação
de
um
campo
elétrico
ℰ
na
direção
Z
e
um
campo
magnético
ℬ
na
direção
X,
de
magnitudes
comparáveis.
Desconsiderando
o
spin
e
efeitos
diamagnéticos,
calcule
a
correção
em
primeira
ordem
na
energia
do
estado.
16. Sejam
os
operadores
de
campo:
1 1
Ψ 𝒓 = 𝑎𝒌 𝑒 !!𝒌∙𝒓 e Ψ ! 𝒓 = 𝑎!! 𝑒 !!𝒌∙𝒓
𝑉 𝒌
𝑉 𝒌
Onde
V
é
o
volume
do
sistema,
e
𝑎!! 𝑒 𝑎!
operadores
de
criação
e
aniquilação
de
bósons.
Mostre
que:
a)
Ψ 𝒓 , Ψ ! 𝒓′ = 𝛿(𝒓 − 𝒓′)
e
b)
Ψ 𝒓 , Ψ 𝒓′ = Ψ ! 𝒓 , Ψ ! 𝒓′ = 0.
17. Seja
o
hamiltoniano
de
interação
de
spins
entre
um
elétron
com
coordenada
𝑥
e
um
íon
em
repouso:
𝐻 = −2𝐽 𝑥 𝑺 ∙ 𝒔
onde
S
é
o
spin
do
íon
e
s
o
spin
do
elétron.
a)
Escreva
este
hamiltoniano
em
termos
dos
operadores
de
levantamento
e
abaixamento
de
spins.
b)
A
partir
dos
operadores
de
campo
para
os
estados
eletrônicos:
!
Ψ 𝑥 = 𝑒 !"# |𝑠 𝑐!" e 𝑒 !!"# 𝑠|𝑐!"
!,! !,!
185
escreva
o
hamiltoniano
na
linguagem
de
segunda
quantização
para
os
estados
eletrônicos.
c)
Realize
explicitamente
as
somas
sobre
os
estados
de
spin
eletrônicos,
e
mostre
que:
! ! ! !
ℋ=− 𝐽 𝑘, 𝑘′ [𝑆 ! 𝑐!!↓ 𝑐!↑ + 𝑆 ! 𝑐!!↑ 𝑘!↓ + 𝑆! 𝑐!!↑ 𝑐!↑ − 𝑐!!↓ 𝑐!↓ ]
!,!
onde
𝐽(𝑘, 𝑙)
é
a
transformada
de
Fourier
de
𝐽(𝑥).
Interprete
os
termos
deste
hamiltoniano.
18.
Mostre
que
se
o
hamiltoniano,
H,
de
um
sistema
não
depende
do
tempo,
a
solução
da
Eq.(II11.29)
é:
!" !"
𝜌 𝑡 = 𝑒 !! ℏ 𝜌(0)𝑒 !! ℏ
19.
Considere
a
matriz
densidade
de
um
sistema
de
spins
½
em
equilíbrio
térmico
com
um
campo
magnético
estático
na
direção
Z:
𝑒 !!/!! !
𝜌! = ! onde 𝐻 = −𝜀! 𝜎!
!
𝑇𝑟{𝑒 !! ! }
Suponha
que
em
𝑡 = 0 um
outro
campo
magnético
é
aplicado
na
direção
X
(hamiltoniano
𝐻! = 𝜀! 𝜎! ).
Usando
o
resultado
do
problema
anterior,
calcule:
a)
𝜌(𝑡),
a
matriz
densidade
em
um
instante
posterior.
b)
As
componentes
da
magnetização
em
função
de
t,
𝑀! 𝑡 , 𝑀! 𝑡 e 𝑀! (𝑡)
no
limite
de
altas
temperaturas.
20. Considere
uma
matriz
densidade
com
a
seguinte
forma:
1−𝜀
𝜌= 𝐼 + 𝜀|𝜓 𝜓|
4
onde
|𝜓
é
o
estado
emaranhado:
|↑↑ + |↓↓
|𝜓 =
2
186
O
chamado
critério
de
Peres
afirma
que
𝜌
será
emaranhada
se
a
sua
chamada
matriz
transposta
parcial 41
tiver
algum
autovalor
negativo.
Mostre
que
a
condição
sobre
𝜀
para
que
a
matriz
densidade
acima
seja
emaranhada
é
𝜀 > 1/3.
41
A
matriz
transposta
parcial
é
obtida
trocando-‐se
os
rótulos
das
linhas
pelos
de
187