Você está na página 1de 84

 

 
 
BLOCO  II    
Formalismo  
 
   

  104  
II1.  Os  Postulados  da  Mecânica  Quântica  
Os   fundamentos   da   Mecânica   Quântica   foram   introduzidos   na   Parte   I   deste   curso,  
incluindo  alguns  aspectos  históricos.  Nesta  segunda  parte  veremos  o  seu  formalismo  
matemático  e  diversas  aplicações.  Destacam-­‐se  as  técnicas  de  segunda  quantização,  
e   o   conceito   de   matriz   densidade,   além   da   própria   estrutura   formal   da   teoria.   A  
primeira  permite  não  apenas  a  diagonalização  de  hamiltonianos  de    problemas  com  
muitos   componentes,   mas   também   uma   descrição   unificada   baseada   na   natureza  
quântica  das  partículas  (bósons  ou  férmions).  A  segunda  é  uma  ferramenta  poderosa  
para   o   cálculo   de   observáveis   termodinâmicos   a   partir   do   conhecimento   do  
hamiltoniano   do   sistema,   o   que   permite   uma   comparação   direta   com   dados  
experimentais.    
 
O  formalismo  da  mecânica  quântica  é  construído  sobre  quatro  postulados:  
Postulado   1:   Espaço   de   estados   –   A   qualquer   sistema   físico   isolado   existe  
associado   um   espaço   vetorial   complexo,   chamado   de   espaço   de   estados,   também  
conhecido  como  espaço  de  Hilbert.  A  cada  estado  físico  do  sistema  corresponde  um  
vetor  no  espaço  de  Hilbert,  chamado  de  ket,  ou  vetor  de  estado,  representado  por1:  
 
Ψ   (II1.1)  

O  vetor  complexo  conjugado  de  um  ket  é  chamado  de  bra,  e  representado  por2:  
 
(II1.2)  
Ψ  

O   produto   escalar   entre   dois   vetores   de   estado,   é   chamado   de   braket   e  


representado  por:  
 
Ψ Φ   (II1.3)  
 

                                                                                                               
1  Esta  notação  foi  introduzida  por  Paul  A.M.  Dirac  em  1939  no  artigo:  A  new  notation  for  
quantum  mechanics,  Math.  Proc.  Cambridge  Philos.  Soc.,  35  (1939)  416.    
2  Em  matemática,  todo  espaço  vetorial  tem  um  espaço  dual  correspondente.  Os  elementos  do  

espaço  dual  dos  kets  são  os  bras.  O  produto  escalar,    resultado  da  ação  de  um  bra  sobre  um  ket,  é  
uma  operação  linear  que  associa  um  número  complexo  a  cada  vetor  de  estado.    

  105  
Os  vetores  de  estado  no  espaço  de  Hilbert  são  normalizados,  condição  representada  
pelo  produto  escalar:  
Ψ Ψ = 1   (II1.4)  
 
 

 
 
Como  ocorre  em  qualquer  espaço  vetorial,  os  vetores  de  estado  no  espaço  de  Hilbert  
podem  ser  expandidos  em  diferentes  bases.  A  título  de  comparação,  no  ℜ!  um  vetor  
A  qualquer  pode  ser  expandido  na  base  de  coordenadas  retangulares:  
 
𝑨 = 𝐴! 𝒊 +   𝐴! 𝒋 +   𝐴! 𝒌,  
 
ou  na  base  de  coordenadas  esféricas:  
 
𝑨 =   𝐴! 𝒓 +   𝐴! 𝜽 +   𝐴! 𝝓,  
 

  106  
ou  em  qualquer  outra  base.  O  vetor  A  permanece  o  mesmo,  tendo  mudado  apenas  a  
sua  representação.  Os  elementos  da  base  são  em  geral  ortonormais  entre  si,  embora  
isto  não  seja  estritamente  necessário.  
 

 
  Figura  II1.1  –  No  espaço  R3  um  vetor  qualquer  é  escrito  como  uma  
combinação  linear  de  três  componentes  mutuamente  ortogonais.  No  espaço  
  de  Hilbert  um  vetor  de  estado  (ket)  é  escrito  como  uma  combinação  linear  de  
vetores  mutuamente  ortogonais,  e  pode  ter  dimensão  infinita.    
 
 
No   espaço   de   Hilbert,   as   bases   vetoriais   podem   ser   discretas   ou   contínuas,   finitas   ou  

infinitas.   Representamos   por   { n }  uma   base   no   espaço   de   Hilbert.   A   condição   de  


ortonormalidade  sobre  a  base  é  dada  por:  
 
n m = δn,m   (II1.5)  
 
Em  um  espaço  discreto,  um  vetor  de  estado  escrito  nesta  base  é  representado  por:  
 

Ψ = ∑ cn n   (II1.6)  
n

 
onde   os   coeficientes   da   expansão,   cn   ,   são   números   complexos   chamados   de  
amplitudes  de  probabilidade.  A  normalização  do  vetor  de  estado  implica  em:  

  107  
 
2
Ψ Ψ = ∑ cm* cn m n = ∑ cn = 1 (II1.7)  
n,m n  
 
Repare   que   a   igualdade   mais   a   direita   tem   a   propriedade   de   uma   soma   de  
probabilidades.  Voltaremos  a  isto  mais  adiante.    
 
Usando   a   propriedade   do   produto   escalar,   o   vetor   de   estado   pode   ser   projetado   em  
qualquer  “direção”  no  espaço  de  Hilbert:  
 

m Ψ = ∑ cn m n = cm (II1.8)  
n          
 
Deste  resultado  deduz-­‐se  que:   cm* = Ψ m .  

 
Um   outro   tipo   de   produto   que   pode   ser   construído   com   vetores   de   estado   é   o  
análogo  ao  produto  tensorial  de  vetores  no  ℜ! 3,  representado  por:  
 
Ψ Φ (II1.9)  
 
 
Mais   adiante   veremos   que   o   resultado   deste   produto   não   é   outro   vetor,   mas   uma  
matriz.    
 
Usando  os  resultados  acima,  podemos  deduzir  uma  importante  propriedade  da  base.  
Primeiro  vamos  construir  o  operador   m m  e  aplica-­‐lo  a  um  estado:  

m m Ψ = ∑ cn m m n = cm m (II1.10)  
n  
 

                                                                                                               
3  O  produto  tensorial  entre  dois  vetores,  também  chamado  de  produto  diático,  𝒖 = 𝑢 , 𝑢 , 𝑢  e  
! ! !
𝑢! 𝑣! 𝑢! 𝑣! 𝑢! 𝑣!
𝒗 = 𝑣! , 𝑣! , 𝑣! ,  é  denotado  por  𝒖⨂𝒗,  e  dado  por:   𝑢! 𝑣! 𝑢! 𝑣! 𝑢! 𝑣! .  
𝑢! 𝑣! 𝑢! 𝑣! 𝑢! 𝑣!

  108  
Ou   seja,   o   operador   |𝑚 𝑚|  projeta   o   vetor   de   estado   |Ψ  sobre   uma   “direção”  
particular  no  espaço  de  Hilbert.  Por  esta  razão  operadores  com  esta  propriedade  são  
chamados  de  projetores.    
 
Projetores  possuem  uma  importante  propriedade,  que  pode  ser  deduzida  da  forma  a  
seguir.  Seja  a  expansão  de  um  vetor  de  estado  em  uma  base  {|𝑛 }:    
 

  Ψ = ∑ cn n = ∑ n Ψ n (II1.11)  
n n  
   
A  quantidade   n Ψ  é  um  número  puro  e  portanto  podemos  escrever:  

 
# &
Ψ = ∑ n n Ψ = $∑ n n ' Ψ ⇒ ∑ n n = I   (II1.12)  
n %n ( n

 
onde   I   é   a   matriz   identidade.   Esta   propriedade   deve   ser   satisfeita   para   qualquer  
base,  e  é  conhecida  como4  completividade.    
 
Da   mesma   forma   que   vetores   no  ℜ!  podem   ser   escritos   como   matrizes   linha   ou  
coluna,  vetores  de  estado  são  representados  da  mesma  forma.  Um  estado  como  o  
da  Eq.  (II1.11)  pode  ser  escrito  como:  
 
𝑐!
𝑐!
|Ψ = 𝑐!    e     Ψ| = (𝑐!∗ 𝑐!∗ 𝑐!∗ … 𝑐!∗ )             (II1.13)  

𝑐!
 
Vamos   olhar   para   o   caso   específico   de   um   spin   ½   .   Uma   base   possível   para   tal  
sistema  é  o  par  de  autoestados:    
 
(II1.14)  

                                                                                                               
4  Em  ingles,  o  termo  usado  é  completeness,  que  siginifica  plenitude.    

  109  
1 0
|↑ =    e    |↓ =                                      
0 1
 
Qualquer  estado  de  1  spin  pode  ser  escrito  nesta  base  como:  
 
𝑎
Ψ = 𝑎 ↑ + 𝑏|↓ =   (II1.15)  
𝑏
 
 
A  normalização  do  estado  requer  que:  
 
2 2
Ψ Ψ =1⇒ a + b =1 (II1.16)  
 
 
Esta   propriedade   é   a   mesma   que   a   das   funções   seno   e   cosseno,   o   que   permite  
parametrizar  o  estado  de  1  spin  ½  utilizando  ângulos  θ  e  φ,  da  seguinte  forma:  
 
"θ % "θ %
Ψ = cos $ ' ↑ + eiφ sin $ ' ↓ (II1.17)  
#2& # 2 &  
 
A  vantagem  desta  representação  é  que  ela  oferece  um  quadro  geométrico  simples  
do   espaço   de   Hilbert   de   1   spin   como   sendo   uma   esfera,   a   qual   é   conhecida   como  
Esfera   de   Bloch.   Qualquer   estado   pode   ser   mapeado   em   um   par   de   ângulos   θ   e   φ  
sobre   esta   esfera.   Em   particular,   os   autoestados   da   base   são   os   polos   opostos   da  
esfera,  como  mostra  a  Figura  II1.2.    
 

  110  
Figura  II1.2  –  A  Esfera  de  Bloch  representa  o  espaço  de  Hilbert  de  1  spin  1/2  .  
Qualquer  estado  pode  ser  mapeado  em  apenas  dois  ângulos;  os  estados  que  
formam  a  base  ficando  nos  polos  da  esfera.      
 
 
Uma  outra  base  interessante  para  representar  os  estados  de  1  spin  ½  é  a  seguinte,  
formada  pelos  vetores   +  e   − definidos  por:  

 
↑ +↓
+ =
2 (II1.16)  
↑ −↓
− =
2  
 
Repare   que   estes   vetores   satisfazem   os   requisitos   para   compor   uma   base:   são  
ortonormais   e   atendem   à   condição   de   completividade.   Na   Esfera   de   Bloch   eles   se  
encontram  em  pontos  opostos  sobre  o  eixo  X.    
 
Postulado  2:  Evolução  de  estados  –  A  evolução  de  um  sistema  físico  isolado  é  
representada  por  uma  transformação  unitária,  U,  atuando  sobre  o  estado  no  espaço  
de  Hilbert,  representada  por:  
 
Φ =U Ψ
  (II1.17)  
UU + = I
 
A  propriedade  de  unitariedade  implica  na  conservação  da  norma  do  estado,    

  111  
 
Φ Φ = Ψ U +U Ψ = Ψ Ψ = 1 ,   (II1.18)  
 
e  também  na  reversibilidade  da  transformação:  
 
Ψ = U −1 Φ (II1.19)  
 
 
Evolução   Temporal   de   estados   –   Um   tipo   particularmente   importante   de  
transformação  é  a  evolução  temporal  de  vetores  de  estado  de  um  sistema  isolado.  
Tal  evolução  é  descrita  pela  equação  de  Schroedinger:  
 

i! Ψ = H Ψ ,   (II1.20)  
∂t
 
onde  H  é  o  hamiltoniano  do  sistema.  Se  H  não  depender  do  tempo,  a  solução  desta  
equação  é  dada  por:  
 
# Ht &
Ψ(t) = exp % −i ( Ψ(0) (II1.21)  
$ ! '  
 
Vemos  portanto  que  para  evoluções  temporais  o  operador  unitário  U  é  dado  por,  
 
" Ht %
U(t) = exp $ −i ' ,   (II1.22)  
# ! &
 
o   que   garante   a   conservação   da   norma   e   reversibilidade   temporal.   Se   durante   um  
intervalo  de  tempo  t1  o  sistema  é  atuado  por  um  hamiltoniano  H1,  durante  t2  por  H2,  
etc.,  tn  por  Hn,  a  evolução  temporal  total  do  estado,  de  t1  até  tn  é:  
 
 

  112  
# Ht & # H t & # Ht & # Ht &
Ψ(tn ) = exp % −i n n ( exp % −i n−1 n−1 ("exp % −i 2 2 ( exp % −i 1 1 ( Ψ(0) (II1.23)  
$ ! ' $ ! ' $ ! ' $ ! '  
 
 
Note  que  em  uma  sequência  como  esta,  os  hamiltonianos  podem  conter  operadores  
que   não   comutam   entre   si,   e   portanto   o   produto   dos   operadores   de   evolução   não  
pode  ser  substituído  por  um  único  operador  com  uma  soma  de  hamiltonianos.      
 
Como  exemplo  de  evolução  temporal  de  estado  em  um  espaço  discreto,  considere  
um   spin   ½   em   um   campo   magnético   uniforme   na   direção   Z.   O   hamiltoniano   para  
este  sistema  é:  
 
𝐻 =   −  𝝁 ∙ 𝑩 =   −2𝜇! 𝐵! 𝑆! =   −  𝜇! 𝐵! 𝜎!   (II1.24)  
 
onde  𝜎! = 2𝑆! .  Como  este  hamiltoniano  independe  de  t,  o  vetor  de  estado  em  um  
instante  qualquer  será:  
 
) #µ B & # µ B &,
Ψ(t) = e−iHt/! Ψ(0) = e+i( µB B0t/!)σ z Ψ(0) = * I cos % B 0 t ( + iσ z sin % B 0 t (- Ψ(0)  
+ $ ! ' $ ! '.

  (II1.25)  
Supondo  que  em  t  =  0  o  estado  era   Ψ(0) = + ,  e  tendo  em  conta  que        

 
↑ +↓ ↑ −↓
    σ z + = σ z = = − ,  
2 2
ficamos  com:  
 
"µ B % "µ B %
Ψ(t) = cos $ B 0 t ' + + isin $ B 0 t ' −   (II1.26)  
# ! & # ! &
 

  113  
Este   resultado   representa   um   vetor   que   gira   no   plano   X-­‐Y   da   Esfera   de   Bloch,   com  
frequência  angular  𝜔! =  𝜇! 𝐵! /ℏ.  Note  que  para  𝜔! 𝑡 = 𝑛𝜋,  com  n  inteiro,  o  estado  
Ψ(t) será  autoestado  de  𝜎! ,  e  para  𝜔! 𝑡 = 𝑛𝜋/2  autoestado  de  𝜎! .  

 
Postulado   3:  Composição  de  estados  –  O  espaço  de  Hilbert  de  sistemas  físicos  
compostos  é  formado  pelo  produto  tensorial  dos  espaços  individuais.    
Por  exemplo,  os  elementos  da  base  de  um  sistema  de  dois  spins  ½  são  dados  por:  
 

{ ↑ , ↓ } ⊗ { ↑ , ↓ } = { ↑↑ , ↑↓ , ↓↑ , ↓↓ }   (II1.27)  
 
O  espaço  de  Hilbert  corresponde  a  todas  as  combinações  de  bras  e  kets  desta  base,  
ou   seja,  2! = 16  combinações.   De   um   modo   geral,   para   N   spins   ½   o   número   de  
elementos  da  base  é  2! ,  igual  a  dimensão  do  espaço  de  Hilbert  com  igual  a  2! ×  2!  
elementos.   Note   que,   para   cada   spin   adicionado   o   espaço   dobra   de   tamanho.   Este  
crescimento   exponencial   com   o   número   de   componentes   do   sistema   é   a   principal  
dificuldade   para   se   fazer   cálculos   numéricos   em   sistemas     com   um   grande   número  
de  componentes.  Por  exemplo,  um  sistema  com  apenas  100  spins  tem  um  espaço  de  
Hilbert   com  2!""  ×  2!"" ~  10!"  ×  10!"  elementos,   cada   um   representado   por   um  
número  complexo!    
 
Postulado   4:   Medidas   –   Os   possíveis   resultados   de   uma   medida   feita   sobre  
um   estado   quântico   são   descritos   por   um   conjunto   de   operadores   projetores   que  
atuam   sobre   o   estado.   Usando   novamente   o   exemplo   de   1   spin   ½,   os   dois  
operadores   M↑ = ↑ ↑  e   M↓ = ↓ ↓  são   projetores   de   medidas.   De   fato,   considere  

um  estado  genérico:    
 
Ψ = a ↑ +b ↓
 
 
Atuando  com   M↑  sobre  este  estado  resulta:  

  114  
↑ ↑Ψ =a↑ (II1.28)  
 
 
2
Ou  seja,  o  estado   Ψ foi  projetado  sobre  a  “direção”   ↑ .  Porém,  sabemos  que   a  é  
2
a  probabilidade  do  estado  “spin-­‐up”  ser  encontrado  na  medida  (assim  como   b é  a  

probabilidade  de  encontrar  “spin-­‐down”).  Portanto  podemos  escrever  o  seguinte:  


 
2
a = ↑ Ψ ⇒ aa* = a = Ψ ↑ ↑ Ψ = Ψ M↑ Ψ   (II1.29)  

 
Podemos   generalizar   dizendo   o   seguinte:   se   𝑀!  representa   um   conjunto   de  
projetores   de   medidas   sobre   o   estado   Ψ ,   a   probabilidade,   𝑝(𝑘) ,   de   que   o  

resultado  “k”  seja  encontrado  é5:  


 
p(k) = Ψ M k Ψ (II1.30)  
 
 
O  estado  projetado  logo  após  a  medida  é  dado  por:  
 
Mk Ψ Mk Ψ (II1.31)  
Φk = =
p(k) Ψ Mk Ψ
 
 
Em   Mecânica   Quântica,   a   medida   de   um   estado   é   um   dos   problemas   mais  
controversos,   não   pelo   formalismo   matemático,   o   qual   reproduz   perfeitamente   os  
resultados   experimentais.   O   problema   é   o   quadro   físico   que   emerge   do   ato   da  
medida.  Considere  um  estado  genérico  expandido  em  uma  base   |𝑘 :  
 

Ψ = ∑ ck k
k  
 

                                                                                                               
5  É  possível  ir  mais  adiante  nesta  definição  e  incluir  operadores  de  medidas  que  

não  são  projetores.  Neste  caso,   p(k) = Ψ M k+ M k Ψ .  Ver  M.Nielsen  e  I.Chuang,  


Computação  Quântica  e  Informação  Quântica,  Bookman  (São  Paulo,  2003).  

  115  
Uma  medida  feita  sobre  este  estado  projeta  o  vetor  instantaneamente  sobre  um  dos  
autoestados   da   base.   Embora   não   seja   definido   (e   longe   de   ser   claro)   tal   processo  
envolve  algum  tipo  de  evolução  temporal  que  não  está  contemplada  no  Postulado  2.  
Este   é   o   chamado   problema   do   colapso   da   função   de   onda.   O   problema   fica   ainda  
mais   complicado   quando   se   consideram   medidas   sobre   estados   de   mais   de   um  
componente,  tais  como  estados  emaranhados,  como  se  verá  adiante.    
 
II2.  Representação  matricial  de  operadores  
As   transformações   de   vetores   no    ℜ!  (por   exemplo   rotações)   podem   ser   descritas  
pela  atuação  de  matrizes  3×3.  O  similar  ocorre  com  transformações  de  estados  no  
espaço   de   Hilbert.   Dado   um   operador   O   e   uma   base   { n } qualquer,   chamamos   de  

elementos  de  matriz  do  operador  os  objetos:  


 
Om,n = m O n (II2.1)  
 
 
Os  objetos  assim  construídos  permitem  que  o  operador  O  seja  representado  como  
uma   matriz,   cujas   linhas   são   indexadas   pelos   “bras”   e   as   colunas   pelos   “kets”.   Por  
exemplo,   considere   o   operador   de   spin   do   elétron,  𝑆! ,   atuando   nos   elementos   da  
base   { ↑ , ↓ } :  


𝑆! |↑ = + |↑    
2
(II2.2)  

𝑆! |↓ = − |↓  
2
 
Os  elementos  de  matriz  deste  operador  nesta  base  são:    
 

𝑆!!! = ↑ 𝑆! ↑ = + ,
2
ℏ (II2.3)  
𝑆!!" = ↑ 𝑆! ↓ = 0, 𝑆!!" = ↓ 𝑆! ↑ = 0, 𝑆!!! = ↓ 𝑆! ↓ =   −      
2
 
Logo,  a  matriz  de  𝑆!  nesta  base  é:  
 

(II2.4)  
  116  
ℏ 1 0
𝑆! = +  
2 0 −1
   
Repare   que   se   a   base   for   outra,   a   representação   matricial   do   operador   muda.   Por  
exemplo,   considere   a   base   descrita   pela   Eq.   (II1.16).   A   atuação   de  𝑆!  naquela   base  
resulta  em:  

𝑆! |+ = + |−    
2 (II2.5)  

𝑆! |− = + |+  
2
 
Logo,  nesta  base,  a  representação  matricial  de  𝑆!  é:    
 
ℏ 0 1 (II2.6)  
𝑆! = +  
2 1 0
 
Neste  ponto  é  interessante  introduzir  as  matrizes  de  Pauli,  definidas  por:    
 
1 1 1 (II2.6)  
𝜎! = 𝑆! , 𝜎! = 𝑆! , 𝜎! = 𝑆!    
2 2 2
 
Na  base   { ↑ , ↓ }  são  representadas  por:  

 
$ 0 1 '
↑ σ x ↑ = 0; ↑ σ x ↓ = 1; ↓ σ x ↑ = 1; ↓ σ x ↓ = 0 ⇒ σ x = & )
% 1 0 (
$ 0 −i '  
↑ σ y ↑ = 0; ↑ σ y ↓ = −i; ↓ σ y ↑ = i; ↓ σ y ↓ = 0 ⇒ σ x = & )
% i 0 (
$ 1 0 '
↑ σ z ↑ = 1; ↑ σ z ↓ = 0; ↓ σ z ↑ = o; ↓ σ z ↓ = −1 ⇒ σ x = & ) (II2.7)  
% 0 −1 (

 
 
Tomemos  novamente  o  estado  genérico:  
 

  117  
Ψ = ∑ cn n  
n

 
Vamos  construir  com  este  estado  a  seguinte  operação,  semelhante  ao  elemento  
de  matriz  de  um  observável  O:  
 
Ψ O Ψ = ∑ cm* cn m O n = ∑ cm* cnOm,n  
m,n m,n (II2.8)  

 
Agora,  se  os  elementos  da  base   { n }  forem  autoestados  de  O,  ou  seja,  se

O n = λn n ,  obtemos:  

 
2
Ψ O Ψ = ∑ cn λn   (II2.9)  
n

 
Porém,   do   Postulado   4   sabemos   que   𝑐! !  é   a   probabilidade   de   se   encontrar   o  
autovalor  𝜆!  em   uma   medida   de   O.   Portanto,   a   expressão   acima   representa   o  
valor   médio   dos   autovalores   do   operador   O.   Esta   quantidade   é   chamada   de   valor  
esperado  de  O,  e  usa-­‐se  o  símbolo   𝑂  para  representa-­‐la.    
 
As   propriedades   físicas   de   um   sistema   (como   posição,   momento,   energia,   etc.)  
são  representadas  por  operadores  quânticos  que  são  chamados  de  observáveis.  A  
matriz  de  um  observável  necessariamente  deve  ter  autovalores  reais,  bem  como  
o   seu   valor   esperado,   pois   são   estes   os   valores   que   se   obtém   de   medidas   em  
experimentos.  Matematicamente  isto  é  garantido  impondo-­‐se  que  os  observáveis  
sejam  operadores  hermitianos6.  
 
Como  exemplo  de  aplicação  destes  conceitos,  vamos  estudar  o  problema  de  dois  
spins  ½  acoplados,  segundo  o  hamiltoniano  abaixo:  
 
(II2.10)  
                                                                                                               
6  Uma  matriz  A  é  hermitiana  se  ela  é  igual  à  sua  transposta  conjugada,  A+  ,  que  é  

obtida  trocando-­‐se  linhas  por  colunas,  ao  mesmo  tempo  em  que  se  toma  o  
complexo  conjugado  dos  seus  elementos.  

  118  
H = E1σ 1z + E2σ 2 z − E12σ 1xσ 2 x  

 
A  representação  matricial  deste  hamiltoniano  na  base   { ↑↑ , ↑↓ , ↓↑ , ↓↓ } é:  

 
" E +E 0 0 −E12 %
$ 1 2
'
$ 0 E1 − E2 −E12 0 ' (II2.11)  
H =$ '  
$ 0 −E12 −E1 + E2 0 '
$ −E12 0 0 −E1 − E2 '&
#

As  autoenergias  deste  sistema  devem  ser  obtidas  diagonalizando-­‐se  H.  São  elas7:  
 
2
ε1 = − E122 + E22 − 2E1E2 + E12 = − E122 + ( E1 − E2 )
2
ε 2 = + E122 + E22 − 2E1E2 + E12 = + E122 + ( E1 − E2 )
 
2 (II2.12)  
ε3 = − E122 + E22 + 2E1E2 + E12 = − E122 + ( E1 + E2 )
2
ε 4 = + E122 + E22 + 2E1E2 + E12 = + E122 + ( E1 + E2 )

 
Vemos,   portanto,   que   se   todas   as   energias   forem   positivas,   teremos  
ε3 < ε1 < ε 2 < ε 4 .  Ou  seja,  neste  caso,  o  estado  fundamental  será  𝜀! .  
 
II3.  Emaranhamento  de  spins  
Considere  os  seguintes  estados  de  dois  spins:  
 
↑↑ + ↑↓
Ψ1 =
2 (II3.1)  
 
↑↑ + ↓↓
Ψ2 =
2
 
Seja   agora   o   operador   de   medida   do   spin   1   (primeiro   símbolo   do   par):  
M1↑ = ↑ ↑ .  Aplicando  este  operador  sobre     Ψ1    resulta:  
                                                                                                               
7  Não  é  tarefa  simples  diagonalizar  uma  matriz  como  esta.  Felizmente  existem  

programas  gratuitos  na  Internet  que  fazem  isto.  Veja,  por  exemplo,  o  site:  
http://wims.unice.fr/~wims/wims.cgi  .  

  119  
 
↑ ↑↑↑ + ↑ ↑↑↓
↑ ↑ Ψ1 = = Ψ1 (II3.2)  
2  
 
Ou   seja,   após   a   medida   o   spin   1   permanece   no   autoestado   “up”   e   o   spin   2   na  
superposição  original.  Agora  repita  o  procedimento  para  o  segundo  estado:  
 
↑ ↑↑↑ + ↑ ↑↓↓ 1 (II3.3)  
↑ ↑ Ψ2 = = ↑↑  
2 2
 
De   acordo   com   o   Postulado   4,   a   probabilidade   de   encontrarmos   o   spin   1   em   “up”  
após  a  medida  é:  
p(↑) = Ψ 2 ↑ ↑ Ψ 2 = 50%   (II3.4)  
 
Porém,  uma  vez  feita  a  medida,  e  encontrado  “up”,  o  estado  posterior  será  (ainda  
Postulado  4):  
1 ↑↑
Φ = 2 = ↑↑  
1 (II3.5)  
2
 
Ou  seja,  após  a  medida,  não  só  o  spin  1  estará  em  “up”,  como  o  spin  2  também,  
ainda  que  nenhuma  medida  tenha  sido  feita  sobre  ele!  E  o  mais  estranho  ainda,  
este  resultado  independe  da  distância  entre  os  dois  spins:  na  medida  em  que  o  
estado   é   mantido,   independentemente   da   separação   entre   os   spins,   o   resultado  
será  sempre  o  mesmo:  todas  as  vezes  que  uma  medida  sobre  o  spin  1  resultar  em  
“up”,  o  spin  2  também  irá  para  “up”.  E  todas  as  vezes  que  o  resultado  da  medida  
sobre   1   for   “down”   o   segundo   também   será   encontrado   em   “down”.   Ou   seja,  
neste  estado  emaranhado  os  dois  spins  estão  perfeitamente  correlacionados.      
 
Como   foi   mencionado   no   Bloco   I,   esta   correlação   já   foi   testada  
experimentalmente  inúmeras  vezes,  com  as  partículas  a  dezenas  de  quilômetros  
de   separação.   Estados   emaranhados   são   um   ingrediente   essencial   em   várias  
aplicações  em  computação  e  comunicação  quânticas,  como  se  verá  no  Bloco  III.  

  120  
Lá   também   veremos   como   estes   estados   podem   ser   produzidos   de   forma  
controlada  em  laboratório.    
 
No   entanto,   para   que   as   correlações   quânticas   de   estados   emaranhados   sejam  
observadas,  é  preciso  que  as  medidas  nos  dois  spins  sejam  feitas  na  mesma  base.  
Se  um  observador  fizer  a  sua  medida  na  base   { ↑ , ↓ }  e  o  outro  na  base   { + , − } ,  

a  correlação  não  será  observada8.  No  entanto,  qualquer  que  seja  a  base  comum  
escolhida   pelos   dois   observadores,   a   correlação   será   a   mesma.   Para   ver   isso,  
suponha  que  se  faça  uma  mudança  de  base,  de   { ↑ , ↓ }  para   { + , − } :  

 
↑↑ + ↓↓ 1 $+ +− + +− + − − + − − ' ++ + −− (II3.6)  
= % • + • (=
2 2& 2 2 2 2 ) 2  
 
 
   
Ou  seja,  na  nova  base,  todas  as  vezes  em  o  resultado  “+”  for  encontrado  em  um  
dos   spins,   o   outro   também   será.   O   mesmo   ocorre   para   o   resultado   “-­‐”.  
Fisicamente   estados   de   spins   são   medidos   aplicando-­‐se   campos   magnéticos   na  
direção   da   componente   que   se   deseja   medir,   como   em   um   aparelho   de   Stern-­‐
Gerlach.  Por  construção,  os  estados  “up”  e  “down”  devem  ser  medidos  ao  longo  
de  Z,  enquanto  os  estados  “+”  e  “-­‐  “  ao  longo  de  X.  
 
Finalmente,  vale  mencionar  que  estados  emaranhados  como  o  estado  acima  não  
podem  ser  fatorados  em  nenhum  produto  de  estados  individuais  de  spin.  Ou  seja,  
um   estado   emaranhado   não   é   um   estado   composto,   no   sentido   do   Postulado   3;  
diz-­‐se  que  o  estado  é   não-­‐separável.    Para  ver  isto,  tome  dois  estados  de  1  spin  e  
faça  o  produto  tensorial  entre  eles:  
 

                                                                                                               
8  No  exemplo  anterior,  suponha  que  o  primeiro  observador  obtenha  o  estado  

“up”  medindo  na  baze  de  Z.  Se  o  Segundo  observador  também  medir  em  Z  
encontrará  “up”  com  100%  de  chance.  Mas  se  medir  na  base  de  X,  encontrará  
“up”  com  apenas  50%  de  chance  e  “down”  também  com  50%.  

  121  
Ψ = a ↑ +b ↓
Φ =c↑ +d ↓   (II3.7)  
Ψ ⊗ Φ = ac ↑↑ + ad ↑↓ + bc ↓↑ + bd ↓↓

 
As   condições   para   que   este   estado   seja   emaranhado,   como   o   estado  |Ψ!  em  
(II3.1),  exigem  que:    
1
ac = bd = ;ad = bc = 0 ,  
2
que   são   obviamente   incompatíveis   entre   si.   Portanto,   não   existem   estados   de   1  
spin  cujo  produto  resulte  em  um  estado  emaranhado.    
 
O   estado   |Ψ!   é   um   exemplo   de   estado   que   possui   grau   máximo   de  
emaranhamento   entre   dois   spins.   Ele   é   conhecido   como   o   estado   do   gato,   uma  
referência   ao   famoso   problema   do   gato   de   Schroedinger,   e   representado9  por  
Ψ +  .  Existem  outros  três  estados  de  dois  spins  com  emaranhamento  máximo:  

 
↑↑ − ↓↓
Ψ− =
2
↑↓ + ↓↑ (II3.8)  
Φ+ =  
2
↑↓ − ↓↑
Φ− =
2
 
Juntos,  estes  quatro  estados  formam  uma  base  de  estados  de  dois  spins,  chamada    
Base  de  Bell.  
 
II4.  Violação  da  desigualdade  de  Bell  
Vimos  no  Bloco  I  que,  dadas  quatro  variáveis  aleatórias  dicotômicas  clássicas,  Q,  
R,   S   e   T,   o   Teorema   de   Bell   afirma   que   existe   um   limite   máximo   para   as  

                                                                                                               
9  Daqui  para  frente  usaremos  a  notação  
↑↑ + ↓↓
Ψ+ =  para  o  estado  do  gato.    
2
 

  122  
correlações   estatísticas   que   podem   existir   entre   elas.   O   teorema   é   expresso   na  
desigualdade:  
 
−2 ≤ (Q + R)S + (R − Q)T ≤ +2   (II4.1)  
 
Vamos   agora   considerar   variáveis   aleatórias   dicotômicas   quânticas:   spins.  
Imagine   que   dois   observadores   estejam,   cada   um,   com   um   spin   de   um   par  
emaranhado.   O   observador   1   faz   uma   medida   do   seu   spin   ao   longo   de   X   ou   Z,  
após   escolhida   aleatoriamente   uma   dessas   duas   direções.   Da   mesma   forma,   o  
observador  2  escolhe  aleatoriamente  medir  ao  longo  de  outras  duas  direções,  u  
ou  v,  dadas  por:  
−i − k −i + k
u= ;v =  
2 2
A  Figura  II4.1  mostra  estas  direções.    
 

Figura  II4.1  –  Em  um  teste  de  violação  da  desigualdade  de  Bell,  cada  
observador  recebe  um  spin  de  um  par  emaranhado,  e  escolhe  aleatoriamente  
uma  dentre  duas  direções  dadas  para  fazer  a  sua  medida.  
 
 
Note   que   as   componentes   do   spin   ao   longo   de   u   e   v   podem   ser   escritas   como  
combinações  das  matrizes  de  Pauli:  
 

  123  
!" −σ − σ z
σu = σ •u = x
2
!"  
−σ x + σ z (II4.2)  
σv =σ •v =
2
 
A  medida  de  qualquer  componente  do  spin  ao  longo  de  qualquer  direção  sempre  
retornará  +1  ou  −1.   Portanto,   podemos   fazer   a   seguinte   identificação   entre   as  
componentes  de  spin  e  as  variáveis  aleatórias  do  Teorema  de  Bell:  
 
Q ↔σ z
R ↔σ x (II4.3)  
 
S ↔σu
T ↔σv
 
Substituindo  na  desigualdade,  obtemos:  
 

{
−2 ≤ − 2 σ x(1)σ x(2) + σ z(1)σ z(2) } ≤ +2 ,   (II4.4)  

 
O   termo   entre   chaves   pode   ser   facilmente   calculado   para   qualquer   estado.   Por  
exemplo,  para  o  estado  separável,  
 
↑↑ + ↑↓ (II4.5)  
Ψ =  
2
 
o   resultado   é   zero,   e   portanto   satisfaz   à   desigualdade   de   Bell.   Porém   para   o  
estado   Φ−  da  Base  de  Bell  o  resultado  é:  

 
↑↓ − ↓↑ − ↑↓ + ↓↑
Φ− σ z(1)σ z(2) Φ− = σ z(1)σ z(2) = • = −1
2 2
↑↓ − ↓↑ − ↑↓ + ↓↑
Φ− σ x(1)σ x(2) Φ− = σ x(1)σ x(2) = • = −1
2 2
{
⇒ − 2 σ x(1)σ x(2) + σ z(1)σ z(2) } = +2 2 (II4.6)  
 
 

  124  
Ou   seja,   viola   o   limite   superior   imposto   pelo   teorema.   Isto   significa   que   as  
correlações   existentes   neste   (e   nos   outros)   estados   da   Base   de   Bell   não   podem  
ser  explicadas  pelas  premissas  clássicas  assumidas  no  Teorema  de  Bell.    
 
Finalmente,   cabe   enfatizar   que   nem   todo   estado   emaranhado   viola   a   mesma  
desigualdade   de   Bell.   De   fato,   dado   um   estado   emaranhado,   é   preciso   construir  
uma  desigualdade  específica  para  ele.  Por  isso  existem  muitas  desigualdades  do  
tipo   Bell,   com   nomes   diversos.   É   sempre   importante   lembrar   que   estas  
correlações   quânticas   já   foram   testadas   diversas     vezes   por   diferentes   grupos  
experimentais  ao  redor  do  mundo.  No  entanto,  por  muitos  anos  os  experimentos  
apresentaram   “brechas”   que   ficaram   conhecidas   na   literatura   como   loopholes.  
Um  exemplo  de  brecha  experimental  é  a  eficiência  de  um  contador  de  fótons.  Se  a  
eficiência   for   baixa,   nada   garante   que   a   estatística   da   medida   é   representativa   da  
totalidade  de  pares  (problema  da  amostragem,  discutido  na  Sec.  I20).  Um  outro  
exemplo   é   a   proximidade   entre   a   fonte   dos   pares   emaranhados   e   os   locais   de  
detecção  das  partículas.  Se  houver  proximidade,  o  critério  de  não-­‐localidade  fica  
comprometido.  E  assim  por  diante.    Apenas  em  outubro  de  2015  foi  publicado  na  
revista   Nature   resultados   experimentais   que   pela   primeira   vez   testaram   as  
“ações  fantasmas”  de  estados  emaranhados  livres  de  brechas.    
 
 

 
 

  125  
II5  Espaços  contínuos  
Naturalmente  que  espaços  de  Hilbert  não  são  apenas  discretos,  mas  podem  ser  
contínuos   também.   As   bases   contínuas   são   representadas   de   forma   semelhante  
às  discretas:  
 
Base  de  posição:  

{ r }   (II5.1)  

Base  de  momento:  

{ p }   (II5.2)  
Ortonormalidade:  
r r' = δ (r − r')
  (II5.3)  
p p' = δ (p − p')

Completividade:  

∫ r r d 3r = I
(II5.4)  
∫ p p d 3r = I
 
 
A   função   de   onda   de   um   sistema   de   variáveis   contínuas   é   a   representação   obtida  
pela  projeção  do  vetor  de  estado  sobre  uma  base  contínua:  
 
ψ (r) = r Ψ
ψ (p) = p Ψ (II5.5)  
 
 
A   primeira   é   a   representação   de   posição   e   a   segunda   de   momento.   Um   resultado  
particularmente   interessante   é   obtido   da   projeção   de   um   autoestado   de  
momento  sobre  a  base  de  posições:  
 
1 !i $
rp = 3/2
exp # p • r &  
( 2π !) "! % (II5.6)  

 
Este   resultado   pode   ser   obtido   da   seguinte   forma:   tome   o   elemento   de   matriz  
entre   r  e   r'  da  relação  de  competividade  para  o  momento:  

  126  
 

∫ r p p r' d 3 p = r r' = δ (r − r') (II5.7)  


 
 
Mas,  por  outro  lado,  sabemos  que  a  função  delta  pode  ser  representada  por:  
 
+∞
1
∫ e−ip⋅(r−r')/! d 3 p = δ (r − r')
(2π !)3/2 −∞ (II5.8)  
 
 
Donde   se   segue   a  relação   desejada.   A   partir   deste   resultado   se   pode   obter   uma  
relação  entre  as  representações  de  posição  e  momento  da  função  de  onda:  
 
p Ψ = ψ (p) = p ∫ r r d 3r Ψ = ∫ p r r Ψ d 3r
1 ip•r/!
ψ (p) = ∫ ψ (r)e d 3r
( 2π !)
3/2
(II5.9)  
 
 
Ou  seja,  uma  representação  é  a  transformada  de  Fourier  da  outra.    
 
Como   exemplo   de   aplicação   de   um   problema   de   espaço   contínuo,   considere   uma  
partícula  sujeita  a  uma  força     F(r) = −∇V (r)  tal  que  a  sua  função  de  onda  satisfaz  
à  equação  de  Schroedinger  na  representação  de  momento:  
 
# p2 & ∂
% − a∇ 2p (ψ (p, t) = i! ψ (p, t)
$ 2m ' ∂t
∂2 ∂2 ∂2 (II5.10)  
∇ 2p = + +
∂px2 ∂py2 ∂pz2
 
 
Pergunta-­‐se:   qual   é   a   expressão   da  força   atuando   sobre   o   sistema?   Aplicando   o  
laplaciano   na   expressão   da   representação   de   momento   da   função   de   onda,  
obtemos:  
 
1 r2
∇ 2pψ (p) = − ∫ ! ψ (r)e ip•r/!
d 3r
( 2π !)
3/2 2
(II5.11)  
 

  127  
 
Substituindo  na  equação  de  Schroedinger  acima,  vemos  que  o  hamiltoniano  é:  
 
p2 a 2
H= + r
2m ! 2  
 
Ou  seja,  𝑉 𝒓 =  𝑎𝑟 ! /ℏ! .  Consequentemente:  𝑭 𝒓 =   − 2𝑎/ℏ! 𝒓.  
 
Como   outro   exemplo,   vamos   considerar   uma   versão   simplificada   do   famoso  
problema   da   fenda   dupla,   introduzido   na   Sec.   I13.   O   esquema   é   mostrado   na  
Figura  II5.1.    
 

 
 
Figura  II5.1  –  Em  um  experimento  quântico   de  dupla  fenda  partículas  incidem  
  individualmente  sobre  o  aparato  e  a  interferência  das  funções  de  onda  que  se  
originam  de  cada  fenda  produz  o  padrão  observado  no  anteparo.  Cada  fenda  
  define  um  autoestado  de  posição  no  espaço  de  Hilbert.    
 
 
A  onda  do  lado  esquerdo  representa  partículas  quânticas  que  incidem  no  aparato  
o  qual  contém  duas  fendas  nas  posições  y1  e  y2,  separadas  de  y1   –   y2   =   d.  Se  uma  
partícula   emerge   na   fenda   1,   por   exemplo,   significa   que   o   seu   autoestado   de  
posição  será   y1 .  O  análogo  vale  para  a  fenda  2.    

  128  
 
Com   as   duas   fendas   abertas,   as   partículas   sairão   em   uma   superposição   de  
autoestados  de  posição,  com  50%  de  chance  para  cada  fenda:  
 
y1 + y2
Ψ =
2   (II5.12)  
 
A   probabilidade   de   uma   partícula   ser   encontrada   com   momento   py   após  
atravessar  o  aparato,  é:  
py y1 + py y2
py Ψ =   (II5.13)  
2
Mas  sabemos  que:  
i( py /!) y
e
y py =  

(II5.14)  
Logo:  
1 iky y1 iky y2 −iky y1 −iky y2
2
py Ψ

e +e
= ( e +e )( )
1+ cos#$k y (y1 − y2 )%& 1+ cos ( k y d )
2
py Ψ = = (II5.15)  
2π 2π  
 
Podemos  portanto  ver  a  dupla  fenda  como  um  aparato  que  cria  superposições  de  
autoestados   de   posição.   O   padrão   de   interferência   observado   decorre   da  
distribuição   de   probabilidades   dos   autoestados   de   momento.   O   resultado   para  
uma   única   fenda   é   obtido   fazendo-­‐se   d   =   0.   Neste   caso,   a   distribuição   fica  
uniforme  e  igual  a  1/2π.  
 
II.6  Momento  angular  
Os  operadores  de  momento  angular  foram  introduzidos  na  Sec.  I14.  Seguindo  a    
notação   de   bra-­‐kets,   os   autoestados   de   momento   angular   (Eq.   (I14.6))   são  
escritos  como:  
 

  129  
L2 Ψ l,m = l(l +1)! 2 Ψ l,m
Lz Ψ l,m = m! Ψ l,m ,   (II6.1)  
m = −l, −l +1,"+ l −1, +l
 
e  naturalmente  obedecem  às  mesmas  regras  de  comutação  que  as  componentes  
de  spin:  
!" Lx , Ly #$ = i!Lz
!" Ly , Lz #$ = i!Lx
  (II6.2)  
[ Lz , Lx ] = i!Ly
!" L2 , Lk #$ = 0;k = x, y, z

 
Note  que  para  qualquer  autoestado  de  Lz  teremos:  
 
1" 1 m
Lx = Ψ l.m # Ly , Lz $% Ψ l,m = Ψ l.m Ly Lz − Lz Ly Ψ l,m = Ψ l.m Ly − Ly Ψ l,m = 0
i! i! i  
 
Ou   seja,   para   qualquer   autoestado   de   momento   angular   da   base   { Ψ l,m } ,   se  
medirmos     um   número   grande   de   vezes   a   componente   X   (ou   Y)   do   momento   a  
média  será  zero.      Por  outro  lado:  
 
L2x = L2 − L2y − L2z = L2 − L2y − L2z
 
 
Porém,  tendo  em  vista  que   L2x = L2y ,  obtemos:  

 
L2 − L2z l(l +1) − m 2 2 (II6.3)  
2
L =
x = !
2 2  
 
Repare  que  o  estado  com  a  menor  dispersão  ocorre  para  𝑚 = 𝑙:  
 
1
L2x = l! 2
2  
 

  130  
A  Figura  II6.1  mostra  esquematicamente  o  significado  destas  quantidades  no  que  
seria  uma  distribuição  de  probabilidades  após  um  número  grande  de  medidas  do  
momento  angular.    
 

 
  esperado)  e  mediana  (largura)  de  
Figura  II6.1  –  Significado  da  média  (valor  
uma  distribuição    esquemática  resultado     de  um  número  muito  grande  de  
medidas  da  componente  X  do  momento  angular  de  uma  partícula  em  um  
autoestado  arbitrário  de  LZ.  Embora  o  v  alor  médio  de  Lx  seja  igual  a  zero,  
  resultados  individuais  de  medidas  podem  ser  diferentes  de  zero.  
 
Considere  agora  um  sistema  composto  por  duas  partículas  com  momentos    
angulares   𝑙! = 1    𝑒    𝑙! = 2 .   Se   representarmos   por   { m1, m2 }  a   base   de  

autoestados  do  sistema  composto,  teremos  15  autovetores10:  


 

{ m1, m2 } = −1, −2 , −1, −1 , −1, 0 , −1, +1 , −1, +2 ,


0, −2 , 0, −1 , 0, 0 , 0, +1 , 0, +2 ,
+1, −2 , +1, −1 , +1, 0 , +1, +1 , +1, +2 (II6.4)  
 
 
Vamos  agora  calcular  o  momento  angular  total  do  sistema  nesta  representação:  
 
L2 = (L1 + L 2 )2 = L12 + L22 + 2L1 • L 2   (II6.5)  
 

                                                                                                               
10  O  número  de  elementos  da  base  de  um  sistema  composto  por  𝑁  partículas  com  

momentos  𝑙! , 𝑙! , ⋯ 𝑙!  é  dado  por:  (2𝑙! + 1)×(2𝑙! + 1) ⋯ (2𝑙! + 1).  

  131  
O   último   termo   possui   componentes   que   não   comutam   entre   si.   Podemos  
escrever   este   termo   em   função   dos   operadores   de   levantamento   e   abaixamento  
de  momento  angular,  definidos  por:  
L+ ≡ Lx + iLy
  (II6.6)  
L− ≡ Lx − iLy

Para   deduzirmos   as   propriedades   desses   operadores,   considere   o   seguinte  


comutador:  
(II6.7)  
𝐿! , 𝐿! = 𝐿! , 𝐿! + 𝑖𝐿! = ℏ𝐿!  
 
Agora   (para   simplificar,   omitindo   o   ℏ )   vamos   aplicar   o   comutador   a   um  
autoestado  da  base  de  Lz:
 
 

( L L − L L ) l, m
z
+ +
z = L+ l.m
Lz L+ l, m − mL+ l, m = L+ l, m (II6.8)  
Lz {L l, m } = (m +1){L l, m
+ +
}  
 
Ou  seja,  o  estado   L+ l, m  é  autoestado  de  Lz,  com  autovalor  correspondente  igual  

a    𝑚 + 1.  Portanto,  podemos  escrever:  


 
L+ l, m = γ l, m +1
  (II6.9)  
 
Tomando  o  complexo  conjugado:  
 
l, m L− = γ * l, m +1  
(II6.10)  
 
E  fazendo  o  produto  escalar  entre  os  dois  estados:  
 
2
l, m L− L+ l, m = γ (II6.11)  
 
 
Por  outro  lado,  sabemos  que:  
 

  132  
L− L+ = (Lx + iLy )(Lx − iLy ) = L2 − L2z − Lz (II6.12)  
 
 
A  partir  daí  se  obtém:  
 
2
γ = l(l +1) − m(m +1)
⇒ L+ l, m = l(l +1) − m(m +1) l, m +1 (II6.13)  
 
 
De  forma  análoga,  se  obtém:  
 
L− l, m = l(l +1) − m(m −1) l, m −1 (II6.14)  
 
 
Podemos   agora   retornar   ao   problema   do   cálculo   de   L2   do   sistema   composto,   e  
escrever:  
L2 = L12 + L22 + L+1 L−2 + L−1 L+2 + 2L1z L2 z
  (II6.15)  
 
O  elemento  de  matriz  deste  operador  na  base   { l1, l2 , m1, m2 }  é:  
 
l1, l2 , m1, m2 L2 l1, l2 , m1' , m '2 = l1 (l1 +1) + l2 (l2 +1) + 2m1m2 +

+ l1 (l1 +1) − m1' (m1' +1) × l2 (l2 +1) − m '2 (m '2 −1)δm1+1,m1δm2 −1,m2 +   (II6.16)  
+ l1 (l1 +1) − m1' (m1' −1) × l2 (l2 +1) − m '2 (m '2 +1)δm1−1,m1δm2 +1,m2

 
Um   sistema   composto   por   duas   partículas,   uma   com  𝑙! = 1  e   outra   com  𝑙! = 2  
tem   15  ×  15 = 225  elementos   de   matriz   que   podem   ser   calculados   com   a  
fórmula   acima!   Obviamente   é   impossível   fazer   contas   analíticas   com   matrizes  
deste   tamanho.   O   menor   sistema   que   podemos   lidar   analiticamente   (mas   que  
serve  para  o  nosso  propósito  nesta  Seção)  é  um  sistema  com  𝑙! = 𝑙! = 1/2,  cuja  
base  é:  
 
−1 / 2, −1 / 2 , −1 / 2, +1 / 2 , +1 / 2, −1 / 2 , +1 / 2, +1 / 2  

  133  
   Aplicando  a  fórmula  acima,  obtemos  para  tal  caso:  
 
! 2 0 0 0 $
# &
0 1 1 0
L =#
2 & (II6.17)  
# 0 1 1 0 &
# 0 0 0 2 &
" %  
 
cujos   autovalores   são   0   e   2   (3   vezes   degenerado).   Tendo   em   conta   que   os  
autovalores   de   L2   são   da   forma  𝑙 (𝑙 + 1),   obtemos  𝑙 = 0    e    𝑙 = 1.   Os   autovetores,  
por  outro  lado,  são:  
 
" 0 %
$ '
1 $ −1 ' − +1 / 2, −1 / 2 + −1 / 2, +1 / 2
ψ1 = =
2$ 1 ' 2
$ 0 '
# &
" 0 %
$ ' (II6.18)  
1 $ 1 ' +1 / 2, −1 / 2 + +1 / 2, −1 / 2
ψ2 = =  
2$ 1 ' 2
$ 0 '
# &
" 1 % " 0 %
$ ' $ '
$ 0 ' $ 0 '
ψ3 = = +1 / 2, +1 / 2 ; ψ 4 = = −1 / 2, −1 / 2
$ 0 ' $ 0 '
$ 0 ' $ 1 '
# & # &
 
Vemos  que   ψ1  e   ψ 2  são  estados  emaranhados  de  momento  angular  orbital.  Os  

estados   ψ 2 ,   ψ3  e   ψ 4  correspondem   ao   autovalor   𝑙 = 1, com  𝑚 = 0, 1, −1 ,  

respectivamente.   Estes   estados   são   chamados   de   tripleto.   O   estado   ψ1  

corresponde  a  𝑙 = 0,  e  é  chamado  de  singleto.  


 
O   uso   da   base   { l1, l2 , m1, m2 }  não   é,   contudo,   a   melhor   escolha   para   representar  
os   estados   de   momentos   angulares   acoplados.   A   melhor   representação   é   a   do  
momento   total.   Por   exemplo,   se   duas   partículas   possuem   momentos   angulares  
𝑙!  e  𝑙! ,  os  valores  possíveis  para  o  momento  total  serão:  
 
(II6.19)  
  134  
𝑙 = 𝑙! + 𝑙! , 𝑙! + 𝑙! − 1, ⋯ , 𝑙! − 𝑙!    
 
Dado   um   valor   de  𝑙 ,   os   autovalores   da   componente   Z   do   momento   serão:  
𝑚! = −𝑙, −𝑙 + 1, ⋯ , +𝑙.  Nesta  representação:  
 
L2 l, ml = l(l +1)! 2 l, ml
Lz l, ml = m! l, ml (II6.20)  
 
 
No  exemplo  analisado  anteriormente,  teremos:  
 
l1 = l2 = 1 / 2
l = l1 − l2 , l1 + l2 = 0,1
l = 0 ⇒ ml = 0
l = 1 ⇒ ml = −1, 0,1  
 
As   regras   acima   nos   dizem   como   os   momentos   angulares   se   acoplam,   mas   elas  
não   estabelecem   nenhum   critério   que   determine   qual   será   o   momento   angular  
de  um  certo  sistema  composto.  Para  isto  é  preciso  utilizar  um  outro  conjunto  de  
regras,  conhecidas  como  regras  de  Hund.  As  regras  de  Hund  se  aplicam  ao  cálculo  
do  momento  angular  total  (orbital  e  spin)  de  átomos  isolados.  São  elas:  
 
1. Para   uma   dada   configuração   eletrônica,   maximize   o   valor   do   spin  
obedecendo   ao   Princípio   de   Exclusão   de   Pauli.   Isso   resultará   na   menor  
energia  possível  do  sistema;  
2. Observada  a  regra  número  (1),  distribua  os  elétrons  de  modo  a  maximizar  
o  momento  angular  orbital;  
3. Se  a  camada  estiver  menos  que  a  metade  cheia,  o  momento  angular  total  
será  𝑗 =   𝑙 − 𝑠 ,  e  se  estiver  mais  da  metade  cheia,  𝑗 =  𝑙 + 𝑠.  
 
Considere,  por  exemplo,  o  átomo  neutro  de  cobalto,  cuja  distribuição  eletrônica  
para  o  estado  fundamental  é:  
 
𝐴𝑟 3𝑑 ! 4𝑠 !  

  135  
 
Ou  seja,  o  átomo  é  formado  por  um  “caroço  completo”  com  a  mesma  distribuição  
do  átomo  de  argônio,  uma  camada  s  externa  completa,  e  uma  camada  d  interna  
incompleta.   Camadas   atômicas   totalmente   cheias   ou   totalmente   vazias   não  
possuem   momento   angular,   nem   orbital,   e   nem   de   spin.   Camadas   semi-­‐cheias  
possuem  momento  angular  total  igual  a  zero,  e  spin  máximo.  As  duas  primeiras  
regras   nos   dizem   que   devemos   distribuir   os   elétrons   entre   os   estados   de  
momento  angular  de  forma  a  maximizar  s  e  l.    No  orbital  d  cabem  10  elétrons  em  
5   estados   de   momento   angular:  𝑙 = −2, −1, 0, +1, +2  ,   cada   um   desses   podendo  
comportar  2  elétrons.  Delas  obtemos  𝑙 = 3  e  𝑠 = 3/2  para  este  caso.  Isto  significa  
! ! ! !
que   os   valores   possíveis   de   momento   angular   são:  𝑗 = ! , ! , ! , !.   Mas,   como   o  

orbital  está  mais  da  metade  cheio,  a  terceira  regra  de  Hund  diz  que  o  momento  
total  é  𝑙 = 9/2.      
 
II7  Momento  magnético,  interação  spin-­‐órbita  e  interação  de  Heisenberg  
Uma   das   propriedades   físicas   mais   importantes   para   o   estudo   da   matéria,   seja  
microscópica   ou   macroscópica,   é   o   momento   magnético   das   partículas.   O  
momento   magnético   está   associado   ao   momento   angular,   seja   ele   orbital   ou   de  
spin.   Como   vimos   no   Bloco   I,   a   descoberta   do   spin   por   Stern   e   Gerlach   foi   feita  
durante   um   estudo   experimental   do   momento   magnético   de   átomos   neutros,   em  
estados   de   momento   angular   igual   a   zero.   O   momento   magnético   total   de   um  
átomo  pode  ser  escrito  como11:  
 
𝝁 =   𝝁! +   𝝁𝑺 ,  
(II7.1)  
 
onde  𝝁! = 𝜇! 𝑳    e  𝝁! = −2𝜇! 𝑺,   onde  𝜇!  é   o   magneton   de   Bohr.   O   fator   “2”   que  
aparece   na   expressão   do   momento   magnético   de   spin   é   uma   aproximação   do  
chamado   fator-­‐g   de   spin,   que   vale   exatamente 12   2,002  319  304  361  82   ±
                                                                                                               
11  Aqui  nos  referimos  apenas  aos  elétrons  do  átomo.  Em  muitas  situações  é  

necessário  considerer  também  o  momento  magnético  dos  núcleos,  mas  isto  não  
sera  tratado.  
12  De  fato,  o  sinal  negativo  é  parte  do  fator-­‐g  de  spin.  Ver  o  site  do  NIST:  

http://physics.nist.gov/cgi-­‐
bin/cuu/Category?view=html&All+values.x=80&All+values.y=11  

  136  
0,000  000  000  000  52.   O   sinal   negativo   no   fator   de   proporcionalidade   significa  
que  o  momento  magnético  de  spin  é  antiparalelo  ao  momento  angular  de  spin,  ao  
contrário  do  momento  magnético  orbital,  o  qual  é  paralelo  a  L.    
 
Por   outro   lado,   dados   os   momentos   orbital,   L,   e   de   spin,   S,   podemos   definir   o  
momento  angular  total  J:  
J  =  L  +  S   (II7.2)  
 
O   momento   angular   total   obedece   às   mesmas   regras   de   comutação   de   L   e   S,   e  
atua  de  forma  semelhante  nos  seus  autoestados:  
 
J 2 J, M = j( j +1)! 2 J, M
J Z J, M = M ! J, M (II7.3)  
M = −J,", +J  
 
Em   algumas   situações,   como   na   presença   de   um   forte   acoplamento   spin-­‐órbita,  
torna-­‐se   mais   adequado   utilizamos   a   representação   de   momento   angular   total,  
em  vez  das  componentes  orbital  e  de  spin.  Uma  vez  definido  o  valor  do  momento,  
podemos   calcular,   dentre   outras   quantidades,   o   momento   magnético   total,  
𝝁! = 𝑔! 𝜇! 𝑱.  O  fator  gJ  é  chamado  de  fator  de  Landé,  dado  por13:  
 

gJ ≅
3 s(s +1) − l(l +1)
+ (II7.4)  
2 2 j( j +1)  
 
Estas   relações   fornecem   uma   forma   adequada   de   representarmos   a   interação  
spin-­‐órbita  em  termos  dos  valores  de  momento  angular  do  átomo:  
 

                                                                                                               
13  O  sinal  de  aproximado  vem  do  fato  de  que  se  tomou  igual  a  2  o  fator-­‐g  de  spin.  

  137  
J 2 = L2 + S 2 + 2L ⋅ S
J 2 − L2 − S 2
L⋅S =
2 (II7.5)  
J 2 − L2 − S 2  
H SO = λ L ⋅ S = λ
2
λ
ESO ( j, l, s) = { j( j +1) − l(l +1) − s(s +1)}
2
 
Um   dos   aspectos   mais   interessantes   (e   surpreendentes)   envolvendo  
hamiltonianos   de   spin   é   a   chamada   interação   de   Heisenberg,   base   dos   modelos  
de  ordem  magnética  em  materiais.  A  natureza  da  interação,  de  fato,  nada  tem  a  
ver   com   spins,   mas   com   interação   coulombiana   e   com   o   princípio   de   exclusão   de  
Pauli.    
 
Considere   o   hamiltoniano   de   dois   elétrons   em   repouso,   que   interagem   via  
interação  eletrostática:  
e2 1
H= (II7.6)  
4πε 0 r1 − r2
 
 
Vamos  calcular  o  valor  esperado  deste  hamiltoniano.  Como  ele  não  depende  do  
spin   dos   elétrons,   temos   que   usar   funções   espaciais   devidamente   simetrizadas.  
Tomemos  as  funções  simétrica  (sinal  positivo)  e  antissimétrica  (sinal  negativo):  
 
1
ψ± (r1, r2 ) = {φα (r1 )φβ (r2 ) ± φα (r2 )φβ (r1 )} (II7.7)  
2  
 
Nesta  expressão,  ∅!  e  ∅!  são  dois  autoestados  normalizados,  por  exemplo,  duas  
funções   atômicas.   Vamos   supor   que   a   função   seja   simétrica,   tomando   o   sinal  
positivo  da  soma.  Daí  obtemos  para  o  valor  esperado  do  hamiltoniano:  
 

  138  
*
∫ ψ (r , r )Hψ (r , r )dr dr
± 1 2 ± 1 2 1 2 = H =
e2 * 1
8πε 0
∫ {φ α (r1 )φ β (r2 ) + φα (r2 )φ β (r1 )}
r1 − r2
{φα (r1 )φβ (r2 ) + φα (r2 )φβ (r1 )} dr1dr2
e2 * 1
H =
8πε 0
∫ {φ α (r1 )φ β (r2 )}
r1 − r2
{φα (r1 )φβ (r2 )} dr1dr2 +
e2 * 1
8πε 0
∫ {φ α (r2 )φ β (r1 )}
r1 − r2
{φα (r2 )φβ (r1 )} dr1dr2 +
e2 * 1
8πε 0
∫ {φ α (r1 )φ β (r2 )}
r1 − r2
{φα (r2 )φβ (r1 )} dr1dr2 +
e2 * 1
8πε 0
∫ {φ α (r2 )φ β (r1 )}
r1 − r2
{φα (r1 )φβ (r2 )} dr1dr2
 
  (II7.8)  
 
Vemos   que   os   dois   primeiros   termos   representam   os   valores   esperados   da  
interação   coulombiana   com   o   elétron   de   coordenada   r1   (r2)   no   estado   α   (β)   .  
Estes   termos   reproduzem   o   valor   clássico   da   interação   coulombiana.   Ao  
contrário,   os   dois   últimos   termos   há   uma   troca   entre   estados   e   coordenadas.  
Estes   termos   podem   ser   vistos   como   medidas   da   região   em   que   as   funções   de  
onda   se   superpõem   no   espaço;   não   existe   análogo   clássico   para   esta   forma   de  
energia,   que   é   chamada   de   energia   de   troca.   Sem   perda   de   generalidade,  
podemos   supor   que   os   dois   primeiros   termos   são   iguais,   assim   como   os   dois  
últimos.  Com  isso,  chegamos  a:  
 
H = 2EC + 2J
e2 * 1
EC =
8πε 0
∫ {φ α (r1 )φ β (r2 )}
r1 − r2
{φα (r1 )φβ (r2 )} dr1dr2
,   (II7.9)  
e2 * 1
J=
8πε 0
∫ {φα (r1 )φβ (r2 )} r1 − r2
{φα (r2 )φ β (r1 )} dr1dr2

onde  𝐸!  é  a  energia  coulombiana  clássica,  e  J  é  a  energia  de  troca.  É  fácil  ver  que  
se   tivéssemos   tomado   o   sinal   negativo   na   função   de   onda,   ou   seja,   o   estado  
antissimétrico,  teríamos  chegado  a:  
 

  139  
H = 2EC − 2J (II7.10)  
 
 
Com  isso,  juntando  os  dois  resultados,  teremos:  
 
H = 2EC ± 2J ,   (II7.11)  
 
onde  o  sinal  positivo  deve  ser  tomado  se  o  estado  for  simétrico,  e  o  negativo  se  
for  antissimétrico.    
 
Aqui  emerge  um  fato  interessante.  Repare  que,  embora  a  interação  original  não  
contenha   operadores   de   spins   dos   elétrons,   o   resultado   final   depende   do   spin,  
por   conta   do   princípio   de   exclusão.   Se   a   função   for   simétrica,   os   spins   estarão   no  
estado  singleto,  que  é  antissimétrico.  Mas  se  a  parte  espacial  for  antissimétrica,  a  
parte   de   spin   será   o   tripleto   de   spins,   que   é   simétrico.   Este   é   um   exemplo   de  
como   as   correlações   quânticas   afetam   o   estado   final   de   um   sistema.   No   caso  
acima,   vemos   que   a   energia   coulombiana   pode   aumentar   ou   diminuir,  
dependendo  do  estado  de  spin.  No  final  dos  anos  1920  Werner  Heisenberg  notou  
que  o  termo    da  energia  de  troca  poderia  ser  escrita  como  um  hamiltoniano  de  
spins,  o  qual  se  convencionou  a  escrever  como:    
 
H = −2JS1 ⋅ S2  
(II7.12)  
 
Se  ao  invés  de  apenas  dois,  tivermos  uma  cadeia  com  N  spins,  este  hamiltoniano  
se  generaliza  para:  
 
N
H TROCA = −2J ∑ Si ⋅ Si+1   (II7.13)  
i=1

 
Este   hamiltoniano,   chamado   de   hamiltoniano   de   troca   ou   hamiltoniano   de  
Heisenberg,    é  a  base  para  os  modelos  de  acoplamento  entre  spins  para  explicar  a  
ordem  magnética  na  matéria.  Por  exemplo,  note  que  se  𝐽   > 0,  a  configuração  que  
minimiza   a   energia   é   a   dos   spins   se   alinharem   paralelamente   uns   aos   outros.  

  140  
Dizemos   que   o   acoplamento   é   ferromagnético.   Ao   contrário,   se  𝐽   < 0  os   spins  
devem  se  ordenar  de  forma  antiparalela,  e  a  isto  se  dá  o  nome  de  acoplamento  
antiferromagnético.  
 

 
  Figura  II7.1  –  Spins  de  átomos  vizinhos  em  uma  cadeia  podem  se  acoplar  
ferromagneticamente,  J  >  0  (esquerda),  ou  antiferromagneticamente,  J  <  0  
  (direita).  Outras  formas  de  acoplamento  são  possíveis,  dependendo  da  
  distância  entre  os  átomos  e  das  funções  de  onda  envolvidas.  Embora  o  
acoplamento  defina  as  propriedades  magnéticas  do  material,  a  interação  de  
  troca  tem  origem  no  Princípio  de  Exclusão  e  na  interação  eletrostática  entre  
  átomos.  É  um  dos  melhores  exemplos  de  correção  quântica  entre  variáveis  
espaciais  e  de  spin.  
 
 
II8  Segunda  quantização:  fótons  
Vimos  no   Bloco   I  que  a  quantização  do  campo  eletromagnético  em  uma  cavidade  
foi   postulada   por   Planck   no   seu   trabalho   de   1900.   Vamos   agora   indicar   os  
detalhes  de  como  o  procedimento  de  quantização  pode  ser  feita  formalmente.    
 
O  ponto  de  partida  são  as  equações  de  Maxwell  no  vácuo:  
 
∇⋅E = 0
∇⋅B = 0
(II8.1)  
1 ∂B
∇×E+ =0
c ∂t ,  
1 ∂E
∇×B− =0
c ∂t

  141  
onde   c   é   a   velocidade   da   luz   no   vácuo.     Os   campos   elétrico   e   magnético   podem  
ambos   ser   derivados   do   mesmo   potencial   vetor,   considerando-­‐se   o   chamado  
calibre  de  Coulomb,    ∇ ∙ 𝑨 = 0:    
 
B = ∇×A
1 ∂A (II8.2)  
E=−
c ∂t  
 
Estas  relações,  junto  com  as  equações  de  Maxwell,  levam  a  uma  equação  de  onda  
para  o  potencial  vetor:  
1 ∂2
∇ 2 A(r, t) = A(r, t)   (II8.3)  
c 2 ∂t 2
 
cujas  soluções  são  superposições  de  ondas  planas  do  tipo:  
 
A(r, t) = A k e±ik⋅r e±iωt   (II8.4)  
 
onde   Ak   é   a   amplitude   da   componente   k   e  𝜔 =   𝜔! = 𝑐𝑘  é   a   relação   de   dispersão  
para  fótons.    O  gauge  de  Coulomb  implica  na  condição:    
 
k ⋅ A k = 0 ,  

 
o  que  significa  que  a  direção  de  propagação  da  onda  é  perpendicular  à  direção  do  
vetor  A.  Por  outro  lado,  qualquer  direção  perpendicular  a  k  pode  ser  decomposta  
em   duas   direções   de   polarização,   rotuladas   abaixo   por  𝑗 =   ±1.   Logo,   devemos  
adicionar  este  índice  à  amplitude  de  A:  
   
A k → A k, j
 
 

  142  
A  solução  geral  para     A(r, t) será  uma  superposição  para  todos  os  valores14  de  k  e  
j:  
 
A(r, t) = ∑{A k, j e−i(ωt−k⋅r) + A*k, j e+i(ωt−k⋅r) }   (II8.5)  
k, j

 
Com   esta   expressão   para   A,   podemos   calcular   os   campos   E   e   B,   e   substituir   na  
expressão  para  a  energia  do  campo  eletromagnético:  
 
!
𝐻 =   !! 𝑬 ! + 𝑐! 𝑩 !
𝑑 ! 𝑟   (II8.6)  
 
Agora   precisamos   impor   condições   de   contorno   sobre   a   solução.   Como   no  
problema   da   radiação   do   corpo   negro,   vamos   considerar   uma   cavidade   cúbica  
com   volume  𝑉 = 𝐿! .     Esta   condição,   como   vimos   anteriormente,   leva   a   uma  
restrição  nos  valores  das  componentes  do  vetor  de  onda:  
 
!! !! !!
𝑘! = !
𝑛! ,    𝑘! = !
𝑛! , 𝑘! = !
𝑛!  ,   (II8.7)  
 
onde   os   n’s   são   inteiros.       Estas   condições   são   importantes   para   o   cálculo   dos  
campos   E   e   B,   a   partir   da   expressão   de   A.   A   expressão   final   para   a   energia   do  
campo  é15  
 
V
H= ∑ω k2 { Akj* Akj + Akj Akj* }  
4π c 2 k, j
(II8.8)  

 
Classicamente  os  dois  termos  entre  chaves  se  somam.  Porém,  eles  foram  escritos  
assim   porque   o   próximo   passo   é   associa-­‐los   aos   operadores   de   criação   e  
aniquilação  de  bósons:  
 

                                                                                                               
14  Vê-­‐se  que  esta  expressão  é  uma  expansão  em  série  de  Fourier  do  campo  A,  em  

termos  de  ondas  planas.  


15  Veja  J.J.  Sakurai  e  Jim  J.  Napolitano,  Modern  Quantum  Mechanics,  Person  

(2014).  

  143  
4π !c 2
Akj → akj
2Vω k (II8.9)  
 
4π !c 2 +
Akj* → akj
2Vω k

 
Após  a  substituição  destas  expressões,  observando-­‐se  as  regras  de  comutação16:  
 
!"akj , ak+' j ' #$ = δk,k 'δ j, j ' ,  

 
chega-­‐se  ao  resultado:  
! 1$
H = ∑ !ω k # ak,+ j ak, j + &   (II8.10)  
k, j
" 2%
!! !
Os   autovalores   de  𝑎! 𝑎!  representam   os   números   de   fótons   em   cada   modo   k,  
com  polarização  j.      
 
Podemos   agora   explorar   este   resultado   para   calcularmos   um   observável  
termodinâmico  do  sistema.  A  contribuição  por  modo  para  a  densidade  de  energia  
interna   deste   “gás   de   fótons”   foi   calculada   no   Bloco   I,   e   é   dada   pela   Equação    
(I2.5):  
 
!ω 3 1
u(ω,T ) = 2 3   (II8.11)  
π c exp(!ω / kBT ) −1
 
A   densidade   de   energia   interna   total   em   uma   dada   temperatura   é   obtida  
integrando-­‐se  para  todas  as  frequências  e  resulta  na  Lei  de  Stefan:  
 
𝑢 𝜔, 𝑇 𝑑𝜔   → 𝑢(𝑇) =  𝜎𝑇 ! ,   (II8.12)  
 
 o   que   significa   que   o   calor   específico   é   proporcional   à   terceira   potência   da  
temperatura:    𝑐!  ~  𝑇 ! .     Ao   interpretar   este   resultado,   devemos   lembrar   que   o  

                                                                                                               
16  Note  que  as  regras  de  comutação  se  impõem  tanto  o  modo  k,  quanto  a  

polarização  j.  

  144  
cálculo   é   feito   para   ondas   eletromagnéticas   aprisionadas   em   uma   cavidade.   A  
mudança  na  temperatura  do  gás  de  fótons  se  dá  através  das  interações  entre  os  
modos   de   vibração   e   as   paredes   da   cavidade:   esta   recebe   calor   externo   e  
“repassa”   ao   campo   eletromagnético,   cuja   frequência   é   aumentada,   como   pode  
ser  visto  na  Figura  II8.1,  uma  reprodução  da  Figura  I1.3.  
 
 

Figura  II8.1  –  Distribuições  de  energia  radiante  do  chamado  corpo  negro  para  diversas  
temperaturas.  Na  medida  em  que  a  temperatura  diminui  o  máximo  da  distribuição  também  
diminui  e  se  afasta  da  faixa  do  visível  (daí  a  denominação  corpo  negro).  A  figura  mostra  a  
previsão  do    eletromagnetismo  clássico  em  franco  desacordo  com  a  previsão  quântica  
obtida  por  Planck  para  pequenos  comprimentos  de  onda.  Para  grandes  comprimentos  de  
onda  as  previsões  quântica  e  a  clássica  coincidem.  
 
 
 
Como   veremos   a   seguir,   esta   mesma   dependência   com   a   temperatura   ocorre  
para  fônons  acústicos  em  uma  cadeia  atômica.  A  razão  fundamental  para  isto  são  
as  relações  de  dispersão,  𝜔! = 𝑐𝑘  para  fótons,  e  𝜔! = 𝑣! 𝑘,  onde  𝑣!  é  a  velocidade  
de  grupo,  para  fônons  acústicos.    
 
 
 

  145  
II9  Segunda  quantização:  fônons  
Vimos   na   Sessão   I18   que   o   hamiltoniano   do   oscilador   harmônico   simples   pode  
ser  escrito  em  termos  dos  operadores  de  criação  e  aniquilação:  
 
! 2 d 2 mω 2 2 # 1& (II9.1)  
H =− 2
+ x ⇒ !ω % a + a + (
2m dx 2 $ 2 '  
 
Esta   forma   do   hamiltoniano   permite   reinterpretarmos   os   estados   excitados   do  
oscilador   simples   como   a   criação   de   partículas:   os   autovalores   de  𝑎! 𝑎  são  
números   inteiros   que   representam   o   número   de   partículas   com   energia  ℏ𝜔.   A  
aplicação  de  𝑎!  cria  uma  partícula  com  esta  energia,  e  de  𝑎  destrói  uma.    
 
A  verdadeira  utilidade  desta  linguagem  de  segunda  quantização  aparece  quando  
tratamos   sistemas   contendo   um   número   muito   grande   de   partículas.   Dois  
exemplos   de   sistemas   são   particularmente   paradigmáticos   na   física:   a   cadeia  
monoatômica  linear,  e  a  cadeia  de  spins  acoplados.  Nesta  Sessão  vamos  estudar  a  
cadeia  monoatômica  linear  e  os  fônons  acústicos.    
 
Considere   uma   cadeia   atômica   linear   muito   grande   com   N   átomos,   acoplados  
entre   si   através   de   forças   restauradoras.   O   hamiltoniano   da   cadeia   pode   ser  
escrito  como:  
$" p 2 mω 2 &
2$
H = ∑# q + ( xq+a − xq ) ' ,   (II9.2)  
q %$ 2m 2 ($
 
no   qual  𝑥!  é   a   posição   do   q-­‐ésimo   átomo   e  𝑥!!!  a   de   seu   vizinho17.   Vamos   definir  
novos  operadores,  𝑋!  e  𝑃!  através  das  séries  de  Fourier:  
 

                                                                                                               
17  Note  que  𝑥  é  uma  função  discreta  da  posição  q  do  átomo,  especificamente,  seu  
!
deslocamento.  Se  a  cadeia  de  átomos  fosse  estática,  a  posição  de  qualquer  átomo  
seria  dada  por  um  número  inteiro  da  distância  entre  vizinhos,  a.    

  146  
1
xq = ∑
N k
X k eikq

1 (II9.3)  
pq = ∑ Pk e−ikq
N k  
 
Destas   definições,   dado   que   o   deslocamento   é   necessariamente   um   operador  
hermitiano,  notamos  que:  
1
xq+ = ∑X e + −ikq
k
N k   (II9.4)  
+ +
x = xq ⇒ X = X−k
q k

Da  mesma  forma:  
1
pq+ = ∑P e k
+ ikq

N k  
+ +
(II9.5)  
p = pq ⇒ P = P−k
q k

 
A   relação   de   comutação,   𝑥! , 𝑝! = 𝑖ℏ  implica   em   𝑋! , 𝑃! = 𝑖ℏ.     Vamos   agora  
calcular  o  hamiltoniano  em  termos  dos  novos  operadores.  Primeiro  o  termo  de  
energia  cinética:    
1
pq2 = ∑ Pk Pk 'e−ikqe−ik 'q  
N k,k '
(II9.6)  

Somando  em  q:  

1 #% '%
∑p ∑ Pk Pk ' $∑ e−i(k+k ')q ( (II9.7)  
2
q =
N k,k ' %& q %)
q
 
 
A   soma   mais   à   direita,   destacada   entre   chaves,   se   assemelha   à   representação  
integral  da  função  delta:  
 
+∞
−i(k+k ')q
∫e dq = δ (k + k ') (II9.8)  
−∞  
 

  147  
Para   o   caso   de   uma   cadeia   discreta   com   N   átomos,   sendo   N   muito   grande,   esta  
relação  se  torna18  
 
N

∑e −i(k+k ')q
= Nδk+k ',0   (II9.9)  
q=1

Logo:  
pq2 Pk P−k
∑ 2m = ∑ 2m (II9.10)  
q k
 
 
Agora  vamos  calcular  o  termo  de  energia  potencial:  
 
1
xq+a =
N
∑X k eika eikq
k

1
xq+a − xq =
N k
∑ X k eikq (eika −1)

2 1
( xq+a − xq ) = N ∑ Xk Xk 'ei(k+k ')q (eika −1)(eik 'a −1)
k,k '

2 1
X k X k 'e ( ) (e ( ) − eika − eik 'a +1)
i k+k ' q i k+k ' a
(x q+a − xq ) = ∑
N k,k '
#% ' i k+k ' a  
2 1 i( k+k ')q % ( )
∑( x q+a − xq ) = ∑ X k X k ' $∑ e
N k,k ' %& q
( (e
%)
ika ik 'a
− e − e +1)
q
2
∑( x q+a − xq ) = ∑ X k X−k (−1)(eika + e−ika −1)
q k

2 * ka -
∑( x q+a − xq ) = ∑ X k X−k 2sin 2 , /
+2.
q k (II9.11)  
mω 2 2 m * ka -
∑ 2
( xq+a − xq ) = ∑ X k X−k 4ω 2 sin 2 , /
2 +2.
q k

 
Definindo:  
!"
𝜔!! = 4𝜔! sin! !
  (II9.12)  
Chegamos  a:  

                                                                                                               
18  Veja,  por  exemplo,  Apêndice  F  de  N.W.  Ashcroft  e  N.D.  Mermin,  Solid  State  

Physics,  CBS  Publishing  (Filadelfia  1976).    

  148  
"P P mω k %
H = ∑ # k −k + X k X−k & (II9.13)  
k
$ 2m 2 '  

 
Este  hamiltoniano  nada  mais  é  do  que  o  hamiltoniano  original  escrito  em  termos  
das  amplitudes  de  Fourier  das  expansões  dos  operadores  de  momento  e  posição.  
Para  passarmos  para  a  representação  de  modo  coletivo,  precisamos  introduzir  as  
seguintes  transformações19:  
 

m 1
!ω k ak = ω k Xk + i P−k
2 2m
m 1
!ω k ak+ = ω k X−k − i Pk
2 2m
mω k X P PX 1
⇒ !ω k ak+ ak = X−k X k + iω k −k −k − iω k k k + Pk P−k
2 2 2 2m
mω k XP P X 1
⇒ !ω k ak ak+ = X k X−k − iω k k k + iω k −k −k + P−k Pk
2 2 2 2m
i i
⇒ !ω k #$ak , ak+ %& = −ω k [ X−k , P−k ] − ω k [ X k , Pk ]
2 2
# +%
⇒ $ak , ak & = 1 (II9.14)  
 
 
Os  operadores  assim  definidos  são  chamados  de  operadores  de  bósons.  Fazendo  a  
soma  em  k  da  terceira  expressão  em  (II9.14),  obtemos:  
 
" mω k 1 % " ω %
∑ !ω a a = ∑#$ +
k k k
2
X−k X k +
2m
Pk P−k & + ∑ #i k ( X−k P−k − Pk X k )&
' k $ 2 '  
(II9.15)  
k k

 
Agora,  tendo  em  vista  que  a  soma  sobre  k  corre  sobre  todos  os  valores  possíveis,  
positivos  e  negativos,  podemos  escrever  a  última  parcela  à  direita  como:  
 
ω " % 1 " ω %
∑#$i 2 ( X k
−k −kP − Pk X k )& = ∑ #i k ( X−k P−k + X k Pk − Pk X k − P−k X−k )&
' 2 k $ 2 '
k
 
" ω % 1 ω !ω
∑#$i 2k ( X−k P−k − Pk Xk )&' = 2 ∑i 2k {[ X−k , P−k ] + [ Xk Pk ]} = −∑ 2 k (II9.16)  
k k k

                                                                                                               
19  Estas  transformações  são  generalizações  daquelas  utilizadas  na  segunda  

quantização  do  oscilador  harmônico  simples,  como  abordado  no  Bloco  I.    

  149  
 
Com  isso,  obtemos  finalmente:  
 
! 1$
H = ∑ !ω k # ak+ ak + & (II9.17)  
k
" 2 %  
 
Este   hamiltoniano   tem   obviamente   o   formato   daquele   de   um   oscilador  
harmônico   simples.   Ou   seja,   o   procedimento   matemático   utilizado   permitiu  
transformarmos   um   problema   de   N   osciladores   acoplados   em   uma   soma   de  
osciladores   simples,   desacoplados.   Estes   “novos   osciladores”   são   os   modos  
normais   de   vibração   da   cadeia,   e   o   hamiltoniano   acima   representa   a   sua  
quantização.    
 
Da   mesma   forma   que   a   quantização   dos   modos   normais   do   campo  
eletromagnético   são   as   partículas   que   chamamos   de   fótons,   a   quantização   dos  
modos   normais   dos   osciladores   mecânicos   são   chamados   de   fônons.     No  
hamiltoniano  acima,  o  operador  𝑎!! 𝑎!  tem  autovalores  inteiros,  𝑛! = 0, 1, 2, 3, ⋯,  
e   representa   o   número   de   fônons   com   energia  ℏ𝜔! .   Note   que   para   k   pequeno,  
!!!
𝜔!   ∝ 𝑘 !   → !"
= 𝑣!  ~  𝑘 ,   o   que   é   característico   de   ondas   sonoras   (longos  

comprimentos  de  onda).  Por  esta  razão,  fônons  nestes  modos  são  chamados  de  
acústicos.    
 
De  posse  deste  hamiltoniano  podemos  agora  calcular  o  calor  específico  de  fônons  
de   um   sólido,   como   obtido   por   P.   Debye 20  em   1912.   Para   isto   precisamos  
primeiro  calcular  a  energia  interna  do  sistema  de  fônons  dada  por:  
 

U =∑ !ω k /kBT
k
,   (II9.18)  
k e −1
 
com  𝜔!  dado   pela   Eq.   (II9.12).   Debye   assumiu   fônons   acústicos   escrevendo  
𝜔! = 𝑣𝑘,   que   é   característico   de   propagação   de   ondas   sonoras.   Além   disso,   ele  
                                                                                                               
20  Debye,  Peter  (1912).  "Zur  Theorie  der  spezifischen  Waerme".  Annalen  der  Physik    

39  (4):  789–839.  

  150  
postulou  que  existe  uma  frequência  máxima  de  oscilação  para  os  modos  normais,  
a   qual   se   passou   a   chamar   frequência  de  Debye,  𝜔! .   A   existência   de   tal   frequência  
decorre   do   fato   de   que   os   átomos   de   uma   cadeia   cristalina   se   encontram  
separados   por   uma   distância   mínima,   o   que   define   um   comprimento   de   onda  
mínimo   para   os   fônons.     A   energia   de   um   fônon   com   a   frequência   de   Debye   é  
chamada  energia   de   Debye:  𝐸! = ℏ𝜔! .  Finalmente,  a  partir  da  energia  de  Debye,  
podemos   definir   a   temperatura   de   Debye,   um   importante   parâmetro  
experimental:  𝜃! = 𝐸! /𝑘! .  Fazendo  a  transformação  de  soma  para  integral:  
 
V
∑→ 8π ∫ d k ,   3
3

 
obtemos  para  a  energia  interna  dos  fônons:  
 
kD
U 1 !vk
=u= 3 ∫e !vk/kBT
d 3k  
V 8π 0 −1
 
Fazendo  a  substituição  de  variáveis:    
!vk
x= ,  
k BT

obtemos:  
4 θ D /T
3!v ! kBT $ x3
u= # & ∫ dx   (II9.19)  
2π 2 " !v % 0 e x −1
 
Desta   expressão   vemos   que   a   dependência   com   a   temperatura   do   calor  
específico,  𝑐! = 𝜕𝑢/𝜕𝑇,  é  bem  complexa,  e  depende  da  temperatura  de  Debye,  no  
caso   geral.   No   entanto,   para   baixas   temperaturas,  𝑇 → 0,   o   limite   superior   da  
integral   se   torna  𝜃! /𝑘! 𝑇 → ∞,   e   a   integral   fica   independente   da   temperatura.  
Neste   limite,   𝑢  ~  𝑇 !  e  𝑐!  ~  𝑇 ! ,   como   observado   experimentalmente.   Para  
temperaturas   intermediárias,   o   calor   específico   é   ajustado   usando     (II9.19),  
tendo  como  único  parâmetro  de  ajuste  a  temperatura  de  Debye.    
 
 

  151  
II10  Segunda  quantização:  mágnons  
Um  outro  sistema  no  qual  a  aplicação  do  formalismo  de  segunda  quantização  é  
importante  é  aquele  de  uma  cadeia  de  spins  acoplados.  Este  sistema  tem  algumas  
semelhanças   com   o   tratado   na   sessão   anterior,   porém   com   uma   relação   de  
dispersão  diferente  daquela  para  fônons.    
 
Considere   uma   cadeia   de   spins   separados   entre   si   por   uma   distância   𝒅  
acoplados  entre  si  através  da  interação  de  Heisenberg,  e  submetidos  a  um  campo  
magnético  estático  𝑩!  aplicado  ao  longo  da  direção  Z:  
 
H = −J 0 ∑ SR •SR+d − gµ B B0 ∑ SRZ (II10.1)  
R,d R  
 
O  símbolo  𝑺𝑹  representa  o  spin  na  posição  R  da  cadeia,  e  𝑺𝑹!𝒅  o  seu  vizinho.  Em  
termos  dos  operadores  de  “levantamento”  e  “abaixamento”  de  spins,  temos:  
 
1 + −
SR • SR+d =
2
( SR SR+d + SR− SR+d
+
) + SRZ SR+dZ   (II10.2)  

E  também:  
1 + −
SRZ =
2
(SR SR − SR+ SR− ) (II10.3)  
 
 
Agora,   de   forma   semelhante   ao   que   foi   feito   na   seção   anterior,   realizamos   uma  
transformação  para  a  representação  de  movimento  coletivo,  através  da  expansão  
de  Fourier  dos  operadores  de  spin:  
 

2S
SR− =
N k
∑ eik•R bk
(II10.4)  
2S
SR+ =
N k
∑ e−ik•Rbk+
 
 

  152  
É   fácil   ver   que:   !"bk , bk+ #$ = 1 .   Substituindo   estes   operadores   no   hamiltoniano,   e  

utilizando   as   propriedades   da   função   delta,   como   anteriormente,   após   algumas  


manipulações  chega-­‐se  ao  resultado  final:    
 
 
H = − ( J 0 NzS 2 + gµ B B0 NS ) + ∑ !ω k bk+ bk
k

# 1 & (II10.5)  
!ω k = 2J 0 zS %1− ∑ cos(k • d)( + gµ B B0  
$ z d '

onde  z  é  o  número  de  spins  vizinhos  da  posição21  R.    


 
O   primeiro   termo   dentro   dos   parêntesis   do   lado   direito   do   hamiltoniano  
representa  a  interação  de  troca  total,  máxima,  de  uma  cadeia  com  N  spins,  cada  
um  deles  acoplado  aos  seus  z  vizinhos.  Esta  seria  a  energia  total  na  ausência  de  
excitações,  e  sem  campo  magnético  aplicado.      
 
O   segundo   termo   dentro   dos   mesmos   parêntesis   representa   a   energia   total   de  
um   sistema   de   N   spins   em   um   campo   magnético,   e   que   não   interagem   entre   si.    
Finalmente,   o   último   termo   representa   as   excitações   elementares   do   sistema,  
que   são   chamadas   de   mágnons.     Estes   são   quantizações   dos   modos   normais   de  
oscilação   dos   sistema   magnético.   Uma   representação   esquemática   de   um   modo  
de   ondas   de   spin   é   mostrada   na   Figura   II10.1.   As   excitações   elementares  
aumentam  a  energia  magnética  do  sistema.  
 
Repare   da   relação   de   dispersão   que   para   grandes   comprimentos   de   onda,  
𝜔!   ∝   𝑘 ! .   Neste   limite,   considerado   válido   para   baixas   temperaturas,   podemos  
calcular  a  energia  interna  e  o  calor  específico  de  mágnons,  e  compararmos  com  
os  casos  anteriores.  Escrevendo  𝜔! = 𝐴𝑘 !  teremos:  
 

                                                                                                               
21  Supõe-­‐se  que  cada  spin  na  posição  R  é  cercado  por  z  outros  spins,  distantes    d,  

de  R.  

  153  
1 ∞
A!k 2
u= 3 ∫e A!k 2 /kBT
4 π k 2 dk
8π −1
0 (II10.6)  
A! ∞
k 4 dk
u= ∫e A!k 2 /kBT
 
2π 2 0 −1
5/2
A! 2 1& k ) ∞
x 3/2 dx
x≡ k ⇒ k 4 dk = ( B + T 5/2 ∫ x
k BT 2 ' A! * 0 e −1

 
No   limite   de   baixas   temperaturas   a   integral   independe   de   T   e   vale  
!
aproximadamente   1,78.   Vemos   portanto   que  𝑢   ∝   𝑇 !   →   𝑐!   ∝   𝑇 !/! .   Portanto,   a  
observação   desta   dependência   com   a   temperatura   no   calor   específico   de   um  
material  magnético  é  uma  assinatura  da  presença  de  mágnons  no  sistema.    
 
 
 

 
Figura  II10.1  –  Uma  onda  de  spins  é  um     movimento  coerente  dos  spins  de  
átomos  vizinhos  que  se  acoplam  via  interação  de  Heisenberg.  A  quantização  
 
dessas  ondas  são  os  mágnons.  Estas  partículas  (ou  excitações  elementares)  
estão  para  o  movimento  de  spins  assim     como  os  fônons  estão  para  as  ondas  
sonoras  ou  os  fótons  para  o  movimento  do  campo  eletromagnético.  
 
 
II11.  Matriz  densidade  
Em   geral,   os   textos   clássicos   de   Mecânica   Quântica   não   enfatizam   o   caráter  
inevitavelmente   probabilístico   dos   experimentos   feitos   em   sistemas   com  
propriedades   quânticas.   Ao   lidarmos   com   sistemas   quânticos,   nos   deparamos  
com   dois   tipos   de   indeterminismo.   Um   deles   é   intrínseco   à   natureza,   e   para  
exemplificá-­‐lo,  vamos  considerar  os  dois  estados  abaixo:  
 

  154  
ψ1 = ↑
↑ +↓
ψ2 =
2  
 
Suponha   que   uma   partícula   seja   preparada   em   um   destes   estados,   e   que   um  
observador   queira   determinar   em   qual   dos   dois   ela   está   fazendo   apenas   1  
medida.  É  obviamente  impossível  distinguir  estes  dois  estados  com  apenas  uma  
medida,  pois  o  autoestado  up  ocorre  nos  dois  casos.  A  única  forma  de  distingui-­‐
los   é   realizar   um   grande   número   de   medidas   e   fazer   a   média   ao   final:   se  
aproximadamente   metade   das   vezes   for   encontrado   o   estado   down,   significa   que  
o   estado   preparado   é   ψ 2 ;   caso   contrário,   a   resposta   será   ψ1 .   Este   caráter  

estatístico  é  intrínseco  à  Mecânica  Quântica,  e  não  pode  ser  eliminado,  ainda  que  
tenhamos  certeza  sobre  os  estados.    
 
A  outra  indeterminação  ocorre  porque,  em  geral,  não  se  pode  ter  certeza  sobre  o  
estado   quântico   em   si,   mas   apenas   sobre   a   probabilidade   com   que   ele   é  
produzido.   No   exemplo   acima,   seria   como   se   o   estado   ψ1  é   produzido   com  

probabilidade   𝑝!  e   o   estado   ψ 2  com   probabilidade   𝑝! .   Neste   caso,   para  

distinguirmos   os   dois   estados,   temos   que   levar   em   conta   este   segundo   tipo   de  
indeterminação,   que   é   de   natureza   clássica,   e   não   tem   nada   a   ver   com   a   natureza  
quântica   do   problema.   Suponha,   por   exemplo,   que   se   queira   obter   o   valor  
esperado  da  energia.  Após  um  número  muito  grande  de  medidas,  se  tivéssemos  
certeza  que  o  estado  preparado  foi   ψ1 ,  o  valor  médio  será   E1 = ψ1 H ψ1 .  Mas  

se   soubéssemos   que   foi   ψ 2 ,   teríamos   E2 = ψ 2 H ψ 2 .   Mas   como   não   temos  

certeza  da  preparação,  o  valor  médio  final  obtido  no  experimento  será:  
 

E = E1 p1 + E2 p2
  (II11.1)  
 
Esta   expressão   final,   claramente,   inclui   os   dois   tipos   de   indeterminação,   a  
quântica  (através  dos  valores  esperados)  e  a  clássica  (através  das  probabilidades  
clássicas).   A   formalização   deste   procedimento   para   qualquer   estado   é   feita  
através  de  uma  ferramenta  da  Física  Estatística  chamada  matriz  densidade.  

  155  
 
Denomina-­‐se   mistura   estatística   um   sistema   quântico   sobre   o   qual   não   se  
conhece   o   estado   quântico,   mas   apenas   um   conjunto   de   estados   ψ k  que  

ocorrem  com  probabilidades  𝑝! :  


 

{ ψk , pk , k = 1, 2, 3,!}
  (II11.2)  
 
Para  cada  estado  k,  define-­‐se  o  seu  projetor:  
 
Pk = ψ k ψ k ,   (II11.3)  
e  o  operador  “médio”  a  seguir:  
 
Pk ≡ ρ = ∑ pk ψ k ψ k (II11.4)  
k  
 
Este  operador  médio  é  chamado  de  operador  densidade,  ou  matriz  densidade.    
Para  entendermos  o  significado  da  matriz  densidade,  considere  o  produto  de  um  
observável  qualquer  Ô,  pelo  operador  densidade:  
 
Ôρ = ∑ pkÔ ψ k ψ k   (II11.5)  
k

 
Expanda  os  estados   ψ k  na  base  de  autovetores  de  Ô:  

 
ψ k = ∑ cnk n
n

Ô n = λn n
(II11.6)  
⇒ Ôρ = ∑∑∑ pk λn cnk ckm
*
n m
k n m  
 
Finalmente  tomemos  o  traço  para  obter:  
 

  156  
{ }
Tr Ôρ = ∑∑∑∑ pk λn cnk ckm
*
jn m j
k n m j

{ }
Tr Ôρ = ∑∑∑∑ pk λn cnk ckm
*
δ j,nδm, j
k n m j
  (II11.7)  
2
{ }
Tr Ôρ = ∑∑ pk λn cnk
k n
2
{ }
Tr Ôρ = ∑ pk ∑ λn cnk = ∑ pk ψ k Ô ψ k =∑ pk Ô
k
k n k k

 
Ou  seja,  a  operação  de  traço  do  produto  do  observável  pelo  operador  densidade  
fornece   o   valor   médio   do   observável,   o   qual   inclui   ambas   as   estatísticas,   a  
quântica   e   a   clássica.   Portanto,   a   determinação   do   operador   densidade   de   uma  
mistura   estatística   é   tão   importante   quanto   a   determinação   do   vetor   de   estado  
de  uma  sistema  puro.    
 
Vamos   agora   derivar   uma   equação   diferencial   para   a   evolução   do   operador  
densidade  em  relação  ao  tempo,  a  partir  da  sua  definição:  
 

∂ρ " ∂ ψk ∂ ψk %
= ∑ pk # ψk + ψk &
∂t k $ ∂t ∂t '
∂ρ 1
= ∑ pk {i!H ψ k ψ k − i! ψ k ψ k H }
∂t i! k
 
∂ρ 1* -
= , H, ∑ pk ψ k ψ k /
∂t i! + .
k
(II11.8)  
∂ρ i
= [ ρ, H ]
∂t !
 
Ou   seja,   conhecendo-­‐se   o   hamiltoniano   do   sistema,   tem-­‐se   uma   equação  
diferencial   cuja   solução   é   o   operador   densidade22.   Conhecendo-­‐se   o   operador    
densidade,   pode-­‐se   calcular   os   observáveis   termodinâmicos   do   sistema.   Esta  

                                                                                                               
22  Repare  que  esta  equação  é  semelhante  na  forma,  mas  não  igual  à  equação  de  

Heisenberg  para  um  operador  dependente  do  tempo  (veja  Problema  6):  
dÔ(t) i ! ∂Ô(t)
= " H,Ô(t)#$ +  
dt ! ∂t
 

  157  
equação   está   para   misturas   estatísticas   assim   como   a   equação   de   Schroedinger  
está  para  sistemas  puros  isolados.    
 
Um   caso   particularmente   importante   de   evolução   temporal   é   aquele   em   que   o  
hamiltoniano   não   depende   do   tempo.   Neste   caso   a   evolução   temporal   do  
operador  densidade  é:  
 
ρ (t) = e−(i/!)Ht ρ (0)e+(i/!)Ht  
(II11.9)  
 
Com   esta   expressão   podemos   calcular   o   valor   médio   de   um   observável   em  
qualquer  instante  de  tempo:  
 

O (t) = Tr {Oρ (t)}


  (II11.10)  
 
Algumas  propriedades  importantes  da  matriz  densidade  são  a  do  traço:  
 
Tr {ρ } = ∑ pk ∑ n ψ k ψ k n
(II11.11)  
k n
2
,  
Tr {ρ } = ∑ pk ∑ ank = ∑ pk = 1
k n k

onde   usou-­‐se   a   expansão   ψ k = ∑ ank n .   Esta   propriedade   de   conservação   do  


n

traço   da   matriz   densidade   representa,   naturalmente,   a   conservação   da  


probabilidade.    
 
A  segunda  propriedade  se  obtém  do  traço  do  quadrado  de  ρ:  
 

  158  
ρ 2 = ∑∑ pk pn ψ k ψ k ψ n ψ n
k n

ρ = ∑∑ pk pn ck,n ψ k ψ n
2

k n

Tr {ρ 2
} = ∑∑ p p c k n k,n m ψk ψn m
k,n m
 
Tr {ρ 2 } = ∑∑ pk pn ck,n ψ n m m ψ k
k,n m

Tr {ρ 2
}=∑p p c k n k,n ψ n ψ k = ∑ pk pn ck,n ck,n
*

k,n k,n
2
Tr {ρ 2 } = ∑ pk pn ck,n
k,n (II11.12)  
 
Vemos   portanto   que   o   traço   do   quadrado   de   ρ   será   necessariamente   menor   ou  
igual  a  1,  já  que  é  o  produto  de  três  probabilidades.  Esta  quantidade  será  igual  a  
1   apenas   para   um   estado   puro,   ou   seja,   um   estado   para   o   qual  𝑝! = 𝑝! = 1,   e  
todos   as   outras   probabilidades   iguais   a   zero.   Assim,   esta   operação   pode   ser  
utilizada   como   critério   para   se   avaliar   se   uma   dada   matriz   densidade   representa  
um   estado   puro   ou   uma   mistura   estatística.   Vale   a   pena   enfatizar   que   estas  
propriedades   devem   ser   observadas   em   qualquer   instante,   tanto   para   matrizes  
estáticas,  ou  que  evoluam  no  tempo:  
 
Tr {ρ } = 1
 
Tr {ρ 2 } ≤ 1 (II11.13)  

 
Os   elementos   da   diagonal   principal   de   uma   matriz   densidade   são   chamados   de  
populações,  e  são  dados  por:  
 
2
pn = n ρ n = ∑ pk n ψ k ψ k n = ∑ pk cnk
(II11.14)  
k k  
 
Este   número   representa   a   probabilidade   do   autoestado   n  ser   obtido   em   uma  

medida  sobre  um  sistema,  para  qualquer  estado   ψ k da  mistura23.    

                                                                                                               
23  Podemos  pensar  nos  elementos  da  diagonal  de  𝜌  como  as  medias  estatísticas  

das  probabilidades  quânticas,   𝑐! ! ,  para  cada  autoestado.  

  159  
 
Os  elementos    fora  da  diagonal  principal  de  uma  matriz  densidade  são  chamados  
de  coerências:      
 

𝜌!" = 𝑚 𝜌 𝑛 = 𝑝! 𝑚|𝜓! 𝜓! |𝑛   (II11.15)  


!

 
As   coerências   são   de   primeira   ordem,   segunda   ordem,   etc.,   dependendo   da  
posição  da  linha  e  que  se  encontram,  em  relação  à  diagonal  principal  da  matriz.  
Coerências   estão   ligadas   a   alguns   observáveis   importantes,   e   também   às  
correlações   do   sistema.   Como   exemplo   de   aplicação   do   formalismo,   vamos  
calcular   as   componentes   da   magnetização   de   um   sistema   de   N   spins   ½   em  
equilíbrio.  A  matriz  densidade  expandida  na  base  de  autoestados  de  1  spin  pode  
ser  escrita  como:  
 
ρ = p↑ ↑ ↑ + p↓ ↓ ↓
  (II11.16)  
 
E  as  médias  das  componentes  da  magnetização:  
 

2µ B Sz = M z = 2µ BTr {Sz ρ } = 2µ B { ↑ Sz ρ ↑ + ↓ Sz ρ ↓ }
M z = µ B ( p↑ − p↓ )
Mx = My = 0 (II11.16)  
 
 
As   componentes   X   e   Y   são   zero,   pois   a   matriz   densidade   é   diagonal   na   base   da  
componente  Z  do  spin.  Considere,  no  entanto  o  caso  geral  para  1  spin:  
 
# p c1 &
ρ = p1 ↑ ↑ + p2 ↓ ↓ + c1 ↑ ↓ + c2 ↓ ↑ = % 1 (
% c2 p2 ('
$   (II11.17)  
 
Neste  caso,  a  componente  Z  será  dada  como  anteriormente,  porém:  
 

  160  
1 1
Sx = ↑ ↓+ ↓ ↑
2 2
c +c (II11.18)  
⇒ Tr {Sx ρ } = 1 2
2  
 
Com   expressão   semelhante   para   a   componente   Y.   No   Bloco   III,   voltaremos   a  
abordar   o   papel   das   coerências   da   matriz   densidade   para   as   aplicações   no  
processamento  da  informação  quântica  (Seção  III8).    
 
Um   outro   aspecto   importante   diz   respeito   à   matrizes   densidade   de   sistemas  
compostos.  Se  dois  sistemas  A  e  B  possuem  matrizes  densidade  𝜌!   e  𝜌! ,  a  matriz  
do  sistema  composto  é  formada  pelo  produto  tensorial:  
 
ρ A+B = ρ A ⊗ ρ B   (II11.19)  
 
Por  exemplo:  
 
! $ 1 2
ρA = # 1 / 3 0 &= ↑ ↑ + ↓ ↓
" 0 2/3 % 3 3
! $ 3 5
ρB = # 3 / 8 0 &= ↑ ↑ + ↓ ↓
" 0 5/8 % 8 8
! 1/8 0 0 0 $
! $ ! $ # &
ρ A ⊗ ρB = # 1 / 3 0 & ⊗ # 3/8 0
&=#
0 5 / 24 0 0 &
" 0 2/3 % " 0 5/8 % # 0 0 1/ 4 0 &
# 0 0 0 5 /12 &
" %
1 5 1 5
ρ A ⊗ ρ B = ↑↑ ↑↑ + ↑↓ ↑↓ + ↓↑ ↓↑ + ↓↓ ↓↓ (II11.20)  
8 24 4 12  
 
 
Neste   exemplo   utilizamos   matrizes   diagonais,   mas   naturalmente   que   o  
procedimento   é   válido   para   quaisquer   matrizes.   Para   adicionar   mais  
subcomponentes  ao  sistema,  basta  proceder  com  o  produto  tensorial.  Note  que,  
no   caso   de   spins   1/2,     o   tamanho   do   espaço   de   Hilbert   (número   de   elementos   da  
matriz  densidade)  dobra  para  cada  spin  adicionado  ao  sistema!  
 

  161  
Vamos   agora   olhar   um   exemplo   de   evolução   temporal.   Suponha   que   em  𝑡 = 0  a  
matriz  densidade  de  um  sistema  de  1  spin  ½  seja,  na  base  de  Z24:  
 
1 3/2 0 (II11.21)  
𝜚 0 =  
2 0 1/2
 
Um  campo  magnético  é    aplicado  ao  longo  de  +X.  Vamos  calcular  as  componentes  
da  magnetização  em  um  tempo  t  posterior.  
 
Primeiro,  notemos  que  o  hamiltoniano  é:  
 
H = −2µ B BSx = −µ B Bσ x   (II11.22)  
 
Como  este  hamiltoniano  não  depende  de  t,  a  matriz  densidade  será:  
 
 

ρ (t) = e ( B ) x ρ (0)e ( B ) x
i µ Bt/! σ −i µ Bt/! σ

( " µ Bt % " µ Bt % + ( " µ Bt % " µ Bt % +


ρ (t) = ) I cos $ B ' + isin $ B 'σ x , ρ (0) ) I cos $ B ' − isin $ B 'σ x ,
* # ! & # ! & - * # ! & # ! & -
" cos µ Bt / ! isin µ Bt / ! %"
$ ( B ) ( B ) ' 3 / 2 0 %"$ cos (µ B Bt / !) −isin (µ B Bt / !) %
'
ρ (t) = $ '
$ isin (µ Bt / !) cos (µ Bt / !) '# 0 1 / 2 &$ −isin (µ Bt / !) cos (µ Bt / !) '
# B B & # B B &
" cos µ Bt / ! isin µ Bt / ! %" 3cos µ Bt / ! / 2 −3isin µ Bt / ! / 2 %
( B ) ( B ) '$ ( B ) ( B ) '
ρ (t) = $
$ isin (µ Bt / !) cos (µ Bt / !) '$ −isin (µ Bt / !) / 2 cos (µ B Bt / !) / 2 '
# B B &# B &
" %
1 $ 3cos (µ B Bt / !) + sin (µ B Bt / !) −isin ( 2µ B Bt / !)
2 2

ρ (t) = $ '
2 isin ( 2µ B Bt / !) cos (µ B Bt / !) + 3sin (µ B Bt / !) '
2 2
# &  
  (II11.23)  
 
Podemos  agora  calcular  as  componentes  da  magnetização:  
 

                                                                                                               
24  Esta  matriz  densidade  representa  um  sistema  que  a  probabilidade  de  

ocupação  do  estado  de  spin  up  é  em  média  2/3,  e  a  de  ocupação  do  estado  down  é  
em  media  1/3.    

  162  
µ B " 2µ B Bt % µ B " 2µ B Bt %
M x (t) = µ BTr {ρ (t)σ x } = −i sin $ ' + i sin $ '=0
2 # ! & 2 # ! &
µ " 2µ Bt % µ " 2µ Bt % " 2µ Bt %
M y (t) = µ BTr {ρ (t)σ y } = − B sin $ B ' − B sin $ B ' = −µ B sin $ B '
2 # ! & 2 # ! & # ! &
" 2µ Bt %
M z (t) = µ BTr {ρ (t)σ z } = +µ B cos $ B '
# ! &  
  (II11.24)  
 
Vemos   portanto   que   as   componentes   X   e   Y   oscilam   com   frequência  𝜔 = 2𝜇! 𝐵/ℏ.  
Estas   soluções   reproduzem   corretamente   o   que   é   previsto   classicamente   pela  
Segunda  Lei  de  Newton  para  torques  externos:  
 
dM (II11.25)  
= M × γ B ,  
dt
 
onde   γ   é   o   fator   de   proporcionalidade   entre   o   momento   angular   e   a  
magnetização25.  
 
A   operação   inversa   ao   produto   tensorial   entre   matrizes   densidade   é   a   de   traço  
parcial.  Esta  operação  permite  que,  dada  uma  matriz  de  um  sistema  composto,  se  
obtenha   as   matrizes   marginais   dos   subsistemas   individuais.   O   traço   parcial,  
como   sugere   o   nome,   é   uma   operação   de   traço   sobre   os   estados   de   um   dos  
subsistemas   que   compõe   o   sistema   total.   Por   exemplo,   considere   a   matriz  
densidade  de  dois  spins26:  
 
ρ = α ↑↑ ↑↑ + β ↑↓ ↑↓ + γ ↓↑ ↓↑ + δ ↓↓ ↓↓
  (II11.26)  
 

                                                                                                               
25  A   Segunda   Lei   de   Newton   diz   que   a   taxa   de   variação   do   momento   angular   é  

proporcional   ao   torque   exercido   por   forças   externas.   Por   outro   lado,   a  


magnetização  e  o  momento  angular  se  relacionam  por:  𝑴 =  𝛾𝑳.  
26  Novamente,   para   facilitar   o   cálculo,   usamos   como   exemplo   uma   matriz  

diagonal.   Porém   a   operação   é   geral   e   pode   ser   aplicada   a   qualquer   matriz  


composta.  

  163  
O  estado  do  primeiro  spin  é  obtido  fazendo  o  traço  parcial  sobre  os  estados  do  
segundo   spin,   e   o   estado   do   segundo   é   obtido   somando-­‐se   sobre   os   estados   do  
primeiro:  
 
ρ A = TrB {ρ } = ↑ ρ ↑ + ↓ ρ ↓ = (α + β ) ↑ ↑ + (γ + δ ) ↓ ↓
ρ B = TrA {ρ } = ↑ ρ ↑ + ↓ ρ ↓ = (α + γ ) ↑ ↑ + ( β + δ ) ↓ ↓ (II11.27)  
 
 
Em  notação  matricial  estas  matrizes  são:  
 
𝛼+𝛽 0 𝛼+𝛾 0
𝜌! =    e    𝜌! =  
0 𝛾+𝛿 0 𝛽+𝛿
 
Como   veremos   no   Bloco   III   deste   Curso,   o   conhecimento   das   matrizes   parciais  
através   da   operação   de   traço   parcial   é   essencial   para   os   protocolos   de  
transmissão  de  informação  quântica.  
 
Finalmente,   vale   observar   que   os   postulados   da   mecânica   quântica,   enunciados  
inicialmente   em   termos   de   vetores   de   estado   podem   ser   reformulados   em  
termos  de  operadores  densidade:  
 
Postulado  1:   A   todo   sistema   físico   existe   um   espaço   vetorial   complexo   chamado  
de  espaço  de  Hilbert.  O  sistema  é  completamente  caracterizado  por  um  operador  
densidade,   hermitiano,   positivo   e   com   traço   igual   a   1,   que   atua   nos   elementos  
deste  espaço.  
 
Postulado   2:   Transformações   de   um   sistema   quântico   fechado   é   descrita   por  
operações  unitárias  que  atuam  sobre  o  operador  densidade:  
 
ρ ' = U ρU +   (II11.28)  
 
A  evolução  temporal  é  dada  por:  
 

  164  
∂ρ i (II11.29)  
= [ ρ, H ] ,  
∂t !
 
onde  H  é  o  hamiltoniano  do  sistema.  
 
Postulado  3:   Operadores   densidade   de   sistemas   compostos   atuam   no   espaço   de  
estados   daqueles   sistemas   (veja   Eq.   (II1.27)),   e   são   construídos   pelo   produto  
tensorial  dos  operadores  densidade  dos  sistemas  individuais:  
 
ρ = ρ1 ⊗ ρ2 ⊗!⊗ ρ N   (II11.30)  
 
Postulado  4:  Medidas  são  descritas  por  um  conjunto  de  operadores  de  medidas,  
Mm.   A   probabilidade   de   um   resultado   m   ser   obtido   após   uma   medida   sobre   um  
sistema  com  operador  densidade  ρ é:  
 
p(m) = Tr {M m ρ }   (II11.31)  
 
O  estado  do  sistema  após  a  medida  é:  
 
M m ρ M m+
ρ final =  
Tr {M m ρ } (II11.32)  

 
E,  em  qualquer  instante  de  tempo,  o  valor  médio  de  um  observável  O  é:  
 

O = Tr {Oρ }   (II11.33)  
 
Para   concluirmos   esta   Sessão   sobre   matriz   densidade,   precisamos   especificar  
como  obter   ρ(0)  para  um  dado  sistema  físico.  Vimos  que  se  o  hamiltoniano  não  
depende   do   tempo,   podemos   determinar   a   matriz   densidade   em   qualquer  
instante  de  tempo,  usando  o  resultado  (II11.9).  No  entanto,  para  isso  precisamos  
conhecer   ρ(0).   Em   geral   ρ(0)   representa   um   sistema   em   equilíbrio  
termodinâmico.   Para   sistemas   compostos   por   um   número   muito   grande   de  

  165  
partículas,   a   uma   temperatura   fixa,   ρ(0)   é   obtida   a   partir   do   princípio   de  
maximização  da  entropia27,  e  o  resultado  é:  
 
e−H /kBT e−H /kBT
ρ (0) = ρeq = = ,  
Tr {e−H /kBT } Z (II11.34)  

 
onde   H   é   o   hamiltoniano,   e   Z   a   função   de   partição.   Vemos   portanto   que,  
conhecendo-­‐se  o  hamiltoniano,  temos  um  procedimento  bastante  genérico  para  
calcularmos   a   matriz   densidade   do   sistema   e   qualquer   observável  
termodinâmico  em  qualquer  instante  de  tempo.    
 
Como  exemplo,  considere  o  hamiltoniano  de  uma  partícula  livre  com  energia  ℏ𝜔:  
 
H = !ω a + a   (II11.35)  
 

Vamos  calcular  o  número  médio  de  partículas,   n = a + a ,  a  uma  temperatura  de  

equilíbrio  T.  Segundo  (II11.33)  e  (II11.34),  este  número  é  dado  por:  


 
−( !ω /kBT )a+a

n = Tr {ρ a + a} =
Tr a + ae { }
+ (II11.36)  
Tr e { −( !ω /kBT )a a
}  
 
Agora,  para  calcularmos  os  traços,  precisamos  conhecer  a  natureza  quântica  das  
partículas:  se  forem  bósons,  a  soma  vai  de  zero  até  infinito,  e  o  resultado  é:  
 

−!ω /kBT n
∑ n (e )
n = n=0
=
1 (II11.37)  
∞ +!ω /kBT
−!ω /kBT n e −1
∑(e )
n=0  
 

                                                                                                               
27  Ver,  por  exemplo,  Ivan  S.  Oliveira  e  Vitor  L.B.  de  Jesus,  Introdução  à  Física  do  

Estado  Sólido,  3a.  Edição,  Complemento  C1,  Livraria  da  Física  (São  Paulo,  2017).    

  166  
que   é   a   própria   distribuição   de   Planck   para   a   radiação   de   corpo   negro.   Por   outro  
lado,   se   os   operadores   forem   de   férmions,   o   princípio   de   Pauli   deve   ser  
observado,  e  as  somas  só  possuem  dois  termos,  para  n  =  0  e  para  n  =  1:  
 
1
−!ω /kBT n
∑ n (e ) 1
n=0
n = =
(II11.38)  
1 +!ω /kBT
−!ω /kBT n e +1
∑(e )
n=0  
 
que  é  a  distribuição  de  Fermi-­‐Dirac.    
 
Para  apreciarmos  como  a  natureza  quântica  das  partículas  afeta  as  propriedades  
físicas  dos  objetos  macroscópicos,  vamos  calcular  o  calor  específico  de  um  gás  de  
férmions  usando  (II11.32).  O  primeiro  passo  é  calcular  a  energia  interna  do  gás  
para   uma   temperatura   de   equilíbrio.   Lembremos   que   na   Sessão   I17   a   energia  
total   do   gás   (no   caso,   elétrons)   foi   calculada   para   T   =   0   (Eq.   I17.9).   De   forma  
semelhante   ao   que   foi   feito   para   o   caso   dos   fótons,   é   conveniente   fazermos   o  
cálculo  usando  a  densidade  de  estados  para  um  gás  de  elétrons  livres.  A  integral  
que  temos  de  calcular  é:  
 
 

!2k 2 (II11.39)  
u= ∫ n[E(k)] d 3k  
0 2m
 
onde  o  número  médio  é  dado  por  (II11.38).  É  mais  conveniente  expressarmos  a  
integral  em  termos  da  energia  do  elétron:  
 

  167  

!2k 2
u= ∫ n d 3k
0 2m

!2k 2 (II11.40)  
u= ∫ n 4π k 2 dk
2m
,  
0
−1/2
m # 2mE &
dk = 2 % 2 ( dE
! $ ! '

Eg(E)
u= ∫e E/kBT
+1
dE
0

 
onde  𝑔(𝐸)  é   a   densidade   de   estados.   Nesta   expressão,  𝑔 𝐸 𝑑𝐸  é   igual   ao   número  
de   estados   eletrônicos   entre  𝐸  e  𝐸 + 𝑑𝐸.   Multiplicado   por   E   resulta   na   energia  
total  no  intervalo.  O  fator  estatístico  representa  a  probabilidade  do  estado  com  
energia  E  estar  ocupado.  Fazendo  a  transformação:  
 
E
x= ,  
k BT
 
vemos   que  𝑢  ~  𝑇 ! ,   e   portanto28  𝑐  ~  𝑇.   Este   resultado   difere   dramaticamente   do  
resultado   clássico,   para   o   qual   o   calor   específico   independe   da   temperatura.  
Juntando   tudo   o   que   foi   dito   aqui   sobre   calor   específico,   ao   analisarmos   medidas  
desta   grandeza   em   um   metal   magnético   a   baixas   temperaturas,   temos   que  
considerar   três   tipos   de   contribuição:   a   dos   fônons,   inerente   à   vibração   dos  
átomos  que  formam  o  sólido,  a  dos  mágnons,  devida  às  oscilações  magnéticas,  e  a  
dos   elétrons,   responsáveis   pela   condução   de   corrente.   Portanto,   medidas   de  
calor   específico   nestes   materiais   são   ajustadas   com   curvas   contendo   estas   três  
contribuições:  
 
c = γ T + αT 3 + β T 3/2 ,   (II11.41)  
 
                                                                                                               
28  Um  tratamento  completo  deste  problema  deve  considerar  o  chamado  

potencial  químico,  que  também  é  função  da  temperatura,  necessariamente  


diferente  de  zero  para  um  gás  de  férmions.  No  entanto,  a  arpximação  feita  aqui  
não  altera  as  conclusões  finais.  Veja,  por  exemplo,  Ivan  S.  Oliveira  e  Vitor  L.  de  
Jesus,  Introdução  à  Física  do  Estado  Sólido,  3a  Ed.,  Livraria  da  Física  (São  Paulo,  
2017).  

  168  
!
onde   α,   β   e   γ   são   parâmetros   de   ajustes.   Fazendo-­‐se   um   gráfico   de  ! vs. 𝑇 !  é  

possível   detectar   a   contribuição   individual   destes   diversos   graus   de   liberdade  


para   o   calor   específico,   cada   qual   com   a   sua   própria   assinatura   quântica,  
registrada  na  dependência  com  a  temperatura.  
 
 
II12.   Operadores   de   criação   e   aniquilação   para   férmions;   interação   entre  
elétrons  via  fótons.  
 
Naturalmente  que  o  formalismo  de  operadores  de  criação  e  aniquilação  se  aplica  
também   para   férmions.   Como   sabemos,   a   diferença   essencial   entre   férmions   e  
bósons   é   que   os   primeiros   devem   satisfazer   o   princípio   de   exclusão,   mas   os  
segundos  não.  Na  linguagem  de  segunda  quantização,  representamos  estados  de  
N  férmions  como:  
 
Ψ = n1n2 !nk !nN ,   (II12.1)  

 
onde  𝑛! = 0  ou  1.   Representamos   o   operador   que   cria   um   férmion   no   estado   k  
por  𝑐!! ,   e   o   que   destrói   por  𝑐! .   Estes   operadores   satisfazem   a   uma   regra   de  
anticomutação:  

{c , c } ≡ c c
k
+
n
+
k n + cn+ck = δk,n   (II12.2)  
 
O   operador  𝑐!! 𝑐!  tem   autovalores   0   ou   1,   o   número   de   férmions   no   estado   k.  
Nesta  linguagem,  o  princípio  de  exclusão  é  expresso  como:  
 
+ 2
(c ) k nk = 0   (II12.3)  
 
que   meramente   expressa   o   fato   de   que   dois   elétrons   não   podem   estar   no   mesmo  
estado  k29.  

                                                                                                               
29  Em  problemas  em  que  o  spin  deve  ser  explicitamente  levado  em  conta,  os  
!
operadores  são  escritos  como  𝑐!"    e    𝑐!" ,  significando  a  destruição  (criação)  de  
uma  particular  no  estado  k,  com  spin  σ.  

  169  
 
As   representações   matriciais   destes   operadores   podem   ser   obtidas   facilmente  
das  suas  definições  para  1  férmion:  
 
c 0 =0
c1 = 0
0 c 0 = 0; 1 c 0 = 0
0 c 1 = 1; 1 c 1 = 0
" 0 1 %
⇒ c =$ '
# 0 0 &
  (II12.4)  
c+ 0 = 1 1
c+ 1 = 0
0 c + 0 = 0; 1 c + 0 = 1
0 c + 1 = 0; 1 c + 1 = 0
" 0 0 %
⇒ c+ = $ '
# 1 0 &
onde  os  autovetores  são:  
 
! 1 $
0 =# &
" 0 % (II12.5)  
 
! 0 $
1 =# &
" 1 %

 
É   interessante   notar   que   estes   operadores   podem   ser   representados   como  
combinações  das  matrizes  de  Pauli:  
 
1
c=
2
(σ x − iσ y )
 
1 (II12.6)  
c = (σ x + iσ y )
+

2
Nesta   representação,   o   hamiltoniano   representando   a   energia   cinética   de   um  
conjunto  de  férmions  sem  interação  é  escrito  como:  
 

  170  
!2k 2 +
H =∑ ck ck   (II12.7)  
k 2m

 
Existe   um   procedimento   simples,   porém   genérico,   para   representarmos  
qualquer   hamiltoniano   de   1   partícula   em   linguagem   de   segunda   quantização.  
Dado   um   hamiltoniano   escrito   em   primeira   quantização,   𝐻(𝐫, 𝐩) ,   para  
transformá-­‐lo  para  a  segunda  quantização  calculamos  a  expressão:  
 
H= ∫Ψ +
(r)H Ψ(r)d 3r  
(II12.8)  
onde:  
Ψ(r) = ∑ϕ k (r)ck
k

Ψ (r) = ∑ϕ k* (r)ck+
+
  (II12.9)  
k

⇒ H = ∑{ ∫ ϕ k* (r)H (r, p)ϕ k ' (r)d 3r}ck+ck '


k,k '

Vemos  que  se   ϕ k forem  autofunções  de  H,  esta  expressão  se  reduz  a  (II12.7).  Se  

houver   interação   entre   férmions,   o   procedimento   pode   ser   generalizado.  


Considere  como  exemplo  a  interação  coulombiana  entre  dois  elétrons:  
 
1 1
H=   (II12.10)  
4πε 0 r1 − r2

 
Seguindo  o  procedimento  descrito  para  segunda  quantização  obtemos:  
 
1 e2 1
H= ∫Ψ +
(r1 )Ψ + (r2 ) Ψ(r1 )Ψ(r2 )d 3r1d 3r2
2 4πε 0 r1 − r2
 
1 e2 1
H= ∑ ∑ ∑ ∑
2 4πε 0 k1 k2 k3 k4
ck+1 ck+2 ck3 ck4 ∫ ϕ k*1 (r1 )ϕ k*2 (r2 )
r1 − r2
ϕ k1 (r1 )ϕ k 2 (r1 )d 3r1d 3r2

  (II12.11)  
 
Escrevendo   ϕ k (r) = eik⋅r ,  e  tendo  em  conta  a  expressão:  

  171  
1 4π
= ∑ 2 eiq⋅(r1−r2 )   (II12.12)  
r1 − r2 q q

 
e  a  representação  integral  da  função  delta,  obtém-­‐se:  
 
e2
H=∑ ∑ ck+ +qck+ −qck ck  
2ε 0 q 2 k1,k2 1 2 1 2 (II12.13)  
q

 
Este   é   o   hamiltoniano   da   interação   coulombiana   entre   dois   elétrons,   escrito   na  
linguagem   de   segunda   quantização.   Repare   que   ele   representa   um   processo   no  
qual   dois   elétrons,   inicialmente   nos   estados   k1   e   k2   são   aniquilados,   para  
ressurgirem   nos   estados   k1   +   q   e   k2   –   q.   O   vetor   q   representa   o   momento   do  
fóton   (quantum   da   interação   eletromagnética)   que   é   trocado   entre   os   elétrons  
durante  o  processo  de  interação.  O  processo  pode  ser  representado  graficamente  
através  dos  chamados  diagramas  de  Feynman,  como  mostrado  na  Figura    II12.1.  
 
 
 

 
 
Figura  II12.1  –  Representação  da  interação  entre  dois  elétrons  através  da  
  troca  de  um  fóton,  usando  um  diagrama  de  Feynman.  Dois  elétrons  são  
aniquilados  nos  estados  iniciais  |k1>  e  |k2>  e  recriados  nos  estados  |k1+q>  e  
 
|k2-­‐q>.    
 
 
 
 

  172  
II13.  Interação  elétron-­‐fônon:  pares  de  Cooper  
Nas   Seções   anteriores   vimos   como   os   diversos   tipos   de   “ondas”   podem   ser  
quantizadas   e   descritas   em   termos   das   chamadas   excitações   elementares:   um  
fóton  é  uma  excitação  elementar  de  uma  onda  eletromagnética,  um  fônon  é  uma  
excitação   elementar   de   uma   onda   elástica   e   um   mágnon   é   uma   excitação  
elementar   de   uma   onda   de   spins.     As   excitações   elementares   têm   propriedades  
corpusculares,   são   bósons,   e   podem   interagir   com   férmions.   De   fato,   estas  
partículas   de   campo   operam   como   os   mediadores   das   interações   entre   férmions.  
Por  exemplo,  duas  cargas  elétricas  interagem  entre  si  através  da  intermediação  
de  fótons.    
 
Um  dos  casos  mais  importantes  de  interação  entre  dois  férmions  através  de  um  
bóson  é  o  de  dois  elétrons  dentro  da  matéria  interagindo  através  de  um  fônon.  
Esta  interação  dá  origem  a  uma  nova  partícula  composta  (2  elétrons  +  1  fônon)  
chamada   par  de  Cooper30.     A   descoberta   dos   pares   de   Cooper   levou   à   formulação,  
por   John   Bardeen   e   John   Schrieffer,   além   do   próprio   Cooper,   da   famosa   Teoria  
BCS   da   supercondutividade,   um   dos   grandes   triunfos   da   Mecânica   Quântica31.  
Uma   peculiaridade   dos   pares   de   Cooper   é   o   fato   de   que   a   interação   elétron-­‐
elétron   via   fônon   se   dá   entre   elétrons   separados   por   milhares   de   distâncias  
atômicas.    
 
Vamos   fazer   uma   descrição   desta   interação   no   caso   simples   de   uma   cadeia  
atômica  unidimensional,  semelhante  ao  que  foi  tratado  na  Seção  II9.    Considere  
uma  cadeia  atômica  linear,  com  os  íons  localizados  pela  coordenada  𝑋,  com  um  
elétron   localizado   pela   coordenada   𝑥 .   A   interação   entre   o   elétron   e   um  
determinado  íon  só  depende  da  distância  entre  eles,  e  é  genericamente  descrita  
pelo  potencial:  
 
(II13.1)  
𝑉!!! = 𝑉(𝑥 − 𝑋)    
                                                                                                               
30  Em  homenagem  a  Leon  Cooper,  o  descobridor  do  fenômeno.  Veja:  Cooper,  Leon  

N.,  Bound  electron  pairs  in  degenerate  Fermi  gas,  Phys.  Rev.,  104  (1956)  
1189.  
31  Bardeen,  J.  Cooper,  L.N.  e  Schrieffer,  J.R.,  Microscopic  theory  of  

superconductivity,  Phys.  Rev.  106  (1957)  1175.  

  173  
 
A   coordenada  𝑋  pode   ser   decomposta   como   uma   soma   entre   a   posição   de  
equilíbrio  𝑋!  e  o  deslocamento  causado  pela  vibração  da  cadeia,  𝑢:  
 
(II13.2)  
𝑋 = 𝑋! + 𝑢      
 
Substituindo  na  expressão  do  potencial,  para  deslocamentos  pequenos,  obtemos  
a  expansão:  
 
𝑑𝑉 (II13.3)  
𝑉!!! ≈ 𝑉 𝑥 − 𝑋! − 𝑢  
𝑑𝑥
 
Nesta   expressão,   o   primeiro   termo   representa   a   interação   do   elétron   com   a  
cadeia   estática.   É   esta   interação   que   dá   origem   à   estrutura   de   energias  
eletrônicas   sob   a   forma   de   bandas   de   energia   nos   metais,   por   exemplo32.   O  
segundo   termo   representa   as   interações   do   elétron   com   as   vibrações   da   rede,   ou  
seja,  os  fônons.  É  nele  que  estamos  interessados.  Vamos  escrever  esta  interação  
como:  
 
ℋ!!! = −𝐷𝑢(x)   (II13.4)  

 
Onde   deixamos   explícito   o   fato   de   que   a   proximidade   do   elétron   de   um   íon,  
naturalmente  afeta  o  seu  deslocamento.    
 
Como  na  Sessão  anterior,  para  transformar  este  hamiltoniano  para  a  linguagem  
de  segunda  quantização,  devemos  usar  a  fórmula:  
 

𝐻!!! = Ψ ! 𝑥 ℋ!!! Ψ 𝑥 𝑑𝑥 , com    Ψ 𝑥 = 𝑒 !"# 𝑐!    e    Ψ ! 𝑥 = 𝑒 !!"# 𝑐!!  


! !

  (II13.5)  

                                                                                                               
32  Veja,  por  exemplo,  Ivan  S.  Oliveira  e  Vitor  L.  de  Jesus,  Introdução  à  Física  do  

Estado  Sólido,  3a  Ed.,  Livraria  da  Física  (São  Paulo,  2017).  
 

  174  
 
Agora,   o   deslocamento  𝑢(𝑥)  deve   também   ser   escrito   em   termos   dos   operadores  
de   criação   e   aniquilação   para   fônons.   No   limite   do   contínuo,   a   expressão   se  
torna33:      
 


ℋ!!! = 𝑖𝐷 𝑞 𝑎! 𝑒 !"# − 𝑎!! 𝑒 !!"#  
2𝜌𝜔!
!
(II13.6)  
 
Inserindo  este  hamiltoniano  na  expressão  (II13.5)  acima,  obtemos:  
 

!

𝐻!!! = 𝑖𝐷 𝑐!! 𝑐! 𝑞 𝑎! 𝑒 !(!!!!!!)! 𝑑𝑥 − 𝑎!! 𝑒 !(!!!!!!)! 𝑑𝑥  
2𝜌𝜔!
!,!! !

  (II13.7)  
 
Finalmente,  usando  a  representação  integral  da  função  delta  de  Dirac,  chegamos  
a  :  
 

! !

𝐻!!! = 𝑖 𝐷(𝑞) 𝑐!!! 𝑐! 𝑎! − 𝑐!!! 𝑐! 𝑎!! , com  𝐷 𝑞 = 𝐷 𝑞  
2𝜌𝜔!
!,!

  (II13.8)  
   
Este   hamiltoniano   se   assemelha   àquele   de   (II12.13),   e   a   sua   interpretação   é  
quase   idêntica:   o   primeiro   termo   representa   um   processo   em   que   um   elétron  
inicialmente  com  momento  𝑘  interage  com  um  fônon  com  momento  𝑞,  o  fônon  é  
aniquilado  e  o  elétron  passa  do  estado  𝑘  para  o  estado  𝑘 + 𝑞.  O  segundo  termo  é  
a  situação  em  que  o  fônon  é  criado  na  interação.  Quando  um  segundo  elétron  é  
considerado,  este  tipo  de  processo  resulta  em  uma  ligação  efetiva  entre  os  dois  

                                                                                                               
33  Veja,  por  exemplo,  C.  Kittel,  Quantum  Theory  of  Solids,  2a.  Ed.,  John  Wiley  &  

Sons  (New  York  1987).  Também  no  Apêndice  A9  de  Veja,  por  exemplo,  Ivan  S.  
Oliveira  e  Vitor  L.  de  Jesus,  Introdução  à  Física  do  Estado  Sólido,  3a  Ed.,  Livraria  
da  Física  (São  Paulo,  2017).  

  175  
elétrons,  intermediada  por  um  fônon:  são  os  pares  de  Cooper34.  O  hamiltoniano  
final  é:  
 
ℏ𝜔! ! !
𝐻 = 𝐷! ! 𝑐!!!! 𝑐!! 𝑐!!!! 𝑐!!  
! !! !! 𝜀!! − 𝜀!!!! − ℏ! 𝜔!!
 
 
 
 

 
 
Figura  II13.1  –  Dois  elétrons  se  correlacionam   em  uma  rede  atômica  a  
  deformando  localmente  e  produzindo  um  fônon.  A  partícula  composta  pelos  
dois  elétrons  e  o  fônon  é  um  par  de  Cooper.  Este  é  o  mecanismo  da  
  supercondutividade  nos  materiais,  e  a  teoria  que  a  formaliza  é  chamada  de  
  Teoria  BCS.    
 
 
II14.  Entropia,  informação  e  emaranhamento  
 Entropia   é   um   conceito   que   aparece   em   diferentes   áreas   da   Física.  
Historicamente,   foi   Rudolf   Clausius   (182-­‐1888)   quem   propôs   a   nova   quantidade,  
inicialmente  como  uma  tentativa  de  quantificar  a  parcela  da  “energia  perdida”  de  
um  sistema,  ou  seja,  não  disponível  para  a  realização  de  trabalho.    
 
                                                                                                               
34  Veja,  por  exemplo,  Complemento  A9,  de  Ivan  S.  Oliveira  e  Vitor  L.B.  de  Jesus,  Introdução  à  
Física  do  Estado  Sólido,  3a  Ed.,  Livraria  da  Física  (São  Paulo  2017).  

  176  
Em   Termodinâmica   o   conceito   de   entropia   está   ligado   aos   chamados   processos  
não   adiabáticos.   Isto   pode   ser   discutido   a   partir   da   Primeira   Lei   da  
Termodinâmica,   que   é   uma   lei   de   conservação   de   energia   que   relaciona   a  
variação   da   energia   interna   e   um   sistema,  ∆𝑈,   o   fluxo   calor,  ∆𝑄,     e   o   trabalho  
realizado,  ∆𝑊:  
 
∆𝑈 =   ∆𝑄 +   ∆𝑊   (II14.1)  
 
Estas   três   quantidades   podem   variar   positiva   ou   negativamente.   Fluxo   de   calor  
ocorre  para  dentro  ou  fora  do  sistema  quando,  por  exemplo,  este  é  colocado  em  
contato   com   um   reservatório   térmico   a   uma   temperatura   fixa.   Por   outro   lado,  
trabalho   é   realizado   sobre   ou   pelo   sistema   quando   um   parâmetro   do  
hamiltoniano  é  modificado.  A  experiência  mostra  que  se  o  trabalho  for  realizado  
muito   vagarosamente   sobre   um   sistema   com   temperatura   fixa,   no   chamado  
regime   quase   estático,   estará   sempre   próximo   ao   equilíbrio   e   não   haverá  
variação   de   entropia.   Por   outro   lado,   se   o   trabalho   for   realizado   abruptamente,  
uma  parte  dele  “se  perde”  sob  a  forma  de  calor.    Esta  variação  de  calor,  dividida  
pela  temperatura  do  reservatório35  é  o  que  se  chama  entropia  termodinâmica:  
 
ΔQ (II14.2)  
ΔS ~
T  
 
Note   que   a   entropia   assim   definida   tem   a   mesma   unidade   que   a   constante   de  
Boltzmann:  cal/K,  J/K,  etc.    Apesar  de  depender  da  forma  como  a  transformação  
é  realizada,  a  entropia  termodinâmica  é  um  exemplo  do  que  se  chama  função  de  
estado,  cuja  variação  só  depende  dos  seus  valores  nos  estados  inicial  e  final36.    
 
Na   sua   tentativa   de   dar   uma   fundamentação   microscópica   para   a  
Termodinâmica,   ao   lado   de     Ludwig   Boltzmann   (1844-­‐1906)   e   James   Clerk  

                                                                                                               
35  É  importante  fazer  esta  distinção,  pois  durante  uma  transformação  termodinâmica  sobre  um  
sistema,  este  pode  não  ter  uma  temperatura  definida.    
36  Para  uma  interessante  discussão  sobre  Termodinâmica  em  Ressonância  Magnética  Nuclear,  
veja  Quantum  thermodynamics  and  work  fluctuation  with  applications  to  magnetic  
resonance,  W.L.  Ribeiro,  G.T.  Landi  e  F.L.  Semião,  Am.  J.  Phys.,  84  (2016)  948.  

  177  
Maxwell  (1831-­‐1879),  Josiah  Willard  Gibbs  (1839-­‐1903)  chegou  ao  conceito  de  
entropia  estatística,  definida  como:    
 
S = −kB ∑ pn ln pn (II14.3)  
n  
 
Nesta   expressão,   𝑝!  são   as   probabilidades   de   ocorrência   dos   chamados  
microestados   de   um   sistema.   Repare   que   a   única   conexão   com   a   Termodinâmica  
que   aparece   nesta   expressão   é   a   constante   de   Boltzmann.   A   entropia   de  
Boltzmann   assim   definida   permite,   com   algumas   hipóteses   adicionais,   o   cálculo  
das  funções  termodinâmicas  clássicas.  No  entanto  não  existe  até  o  momento  uma  
teoria   baseada   em   primeiros   princípios   da   qual   a   Termodinâmica   seja   obtida  
como  caso  limite.    
 
Um   microestado   é   uma   configuração   microscópica   que   resulta   em   um   estado  
macroscópico.  Para  exemplificar  a  ideia  de  microestado  e  a  aplicação  da  entropia  
estatística,   suponha   que   se   jogue   para   o   alto   quatro   moedas.   Vamos   chamar   de  
CA   o   resultado   “cara”   e   CO   o   resultado   “coroa”.   Existem   16   configurações  
possíveis  de  um  resultado  qualquer:  
 
CA  CA  CA  CA  
 
CA  CA  CA  CO  
CA  CA  CO  CA  
CA  CO  CA  CA  
CO  CA  CA  CA  
 
CA  CA  CO  CO  
CA  CO  CA  CO  
CO  CA  CA  CO  
CO  CA  CO  CA  
CA  CO  CO  CA  
CO  CO  CA  CA  

  178  
 
CO  CO  CO  CA  
CO  CO  CA  CO  
CO  CA  CO  CO  
CA  CO  CO  CO  
 
CO  CO  CO  CO  
 
Cada   uma   dessas   configurações   é   o   que   se   chama   microestado37.     Vemos   que  
existem   04   configurações   em   que   ocorre   apenas   uma   CO   e   três   CA.   Logo,   a  
!
probabilidade   desta   configuração   ocorrer   em   uma   jogada   é  𝑝! = !" = 1/4.   O  

mesmo  vale  para  uma  CA  e  três  CO.    A  configuração  mais  provável  é  aquela  em  
!
que  ocorrem  duas  CA  e  duas  CO:  𝑝! = !" = 3/8.  Finalmente,  a  probabilidade  de  

se  obter  apenas  CA  ou  apenas  CO  é  𝑝! = 1/16.  Assim,  a  entropia  estatística  deste  
sistema  é:  
 
) 1 # 1 & 3 # 3& 1 # 1 &,
S = −kB *2 × ln % ( + ln % ( + 2 × ln % (- = 0, 97kB
+ 4 $ 4' 8 $8' 16 $ 16 '.  
 
Qual  o  significado  deste  número?  Ele  quantifica  o  grau  de  conhecimento  (ou  de  
desconhecimento)   que   temos   sobre   o   sistema.   Quanto   mais   próximo   de   1   for   a  
entropia  menor  é  o  conhecimento  que  temos  sobre  o  sistema.  Naturalmente  que  
neste   exemplo   com   apenas   quatro   moedas   a   constante   de   Boltzmann   não   tem  
muito  sentido  no  resultado  final,  já  que  tal  número  de  moedas  está  longe  de  ser  
um   sistema   termodinâmico.     Mas   a   entropia   calculada   desta   forma   para,   por  
exemplo,   um   conjunto   muito   grande   de   spins 38     permite   se   obter   todas   as  
funções   termodinâmicas   do   sistema,   meramente   a   partir   de   um   cálculo   de  
probabilidades!   Vê-­‐se   que   a   entropia   estatística   também   tem   a   mesma   unidade  
que  kB.  
                                                                                                               
37  Em  um  sistema  físico  contendo  um  número  muito  grande  de  componentes,  

como  por  exemplo  10!"  spins  nucleares  do  hidrogênio  em  um  copo  com  água,  o  
número  de  microestados  é  infinitamente  maior.  
38  Por  exemplo,  para  100  spins  existem  1030  microestados!  

  179  
 
Uma   terceira   definição   de   entropia   apareceu   em   1948   quando   o   jovem  
engenheiro  Claude  E.  Shannon  (1916-­‐2001),  trabalhando  no  MIT,  formulou  a  sua  
revolucionária   Teoria   Matemática   da   Comunicação 39 .     Shannon   estava  
interessado   em   uma   quantidade   que   pudesse   medir   o   grau   de   certeza   que   se  
pode   recuperar   uma   mensagem   enviada   através   de   um   cabo   elétrico   (na   época   o  
telégrafo,  atualmente  a  Internet)  sob  a  forma  de  pulsos  de  elétricos.  A  entropia  
de  Shannon  é  semelhante  à  entropia  estatística,  mas  não  contém  a  constante  de  
Boltzmann,  e  o  logaritmo  é  tomado  na  base  dois,  e  não  na  base  natural:  
 
S = −∑ pn log 2 pn   (II14.4)  
n

 A  razão  para  isto  está  na  definição  da  unidade  de  informação,  o  dígito  binário,  ou  
bit40.     Um   sistema   que   tem   uma   única   unidade   informação,   com   probabilidade   ½    
de  ser  0  e  ½  de  ser  1  tem  entropia  de  Shannon  igual  a  1:  
 
1 #1&
S = −2 × log 2 % ( = 1
2 $ 2 '  
 
A  unidade  desta  entropia  é  justamente  o  que  chamamos  atualmente  de  bit.    
 
A   entropia   de   Shannon   representa   o   número   mínimo   de   bits   necessários   para  
que   uma   mensagem   seja   enviada   através   de   um   canal   de   comunicação   sem  que  
haja  perda  essencial  de  conteúdo.    
 
A   teoria   de   Shannon   forma   a   base   matemática   de   toda   a   tecnologia   de  
comunicação   da   atualidade,   baseada   em   processos   físicos   clássicos   envolvendo  

                                                                                                               
39  A  Mathematical  Theory  of  Communication,  C.E.  Shannon,  The  Bell  System  

Technical  Journal,  27  (1948)  379.  


40  A   noção   matemática   do   bit   não   é   devida   a   Shannon;   ela   apareceu   em   outro  

artigo  revolucionário  publicado  em  1936  por  Alan  Turing,  no  qual  propõe  a  ideia  
de  uma  máquina  operando  apenas  com  zeros  e  uns.  Porém,  o  termo  “bit”  aparece  
pela  primeira  vez  no  artigo  de  Shannon,  de  1948.    
 

  180  
processamento   de   sinais   na   presença   de   ruído.   No   entanto,   a   compreensão   de  
que  em  sistemas  quânticos  possuem  correlações  que  não  existem  classicamente,  
levou   à   definição   de   uma   quarta   forma   de   entropia   por   John   von   Neumann   no  
início  dos  anos  1930:  
𝑆 = −Tr 𝜌ln𝜌   (II14.5)  

 
onde  𝜌  é  a  matriz  densidade  do  sistema.  Repare  que,  apesar  da  definição  utilizar  
logaritmo   natural,     se   o   traço   for   tomado   na   base   de   autovetores   de   ρ,   a   entropia  
de   von   Neumann   fica   com   a   mesma   forma   que   a   de   Shannon.   Porém,   isto   não  
significa   que   a   entropia   de   Shannon   tenha   a   mesma   abrangência   que   a   de   von  
Neumann.   Para   termos   uma   noção   disto,   vamos   escrever   a   entropia   de   von  
Neumann  como  a  de  Shannon:  
 

𝑆=− 𝑝! ln𝑝!  
!

 
Suponha  que  tenhamos  um  único  estado  quântico,  ou  seja,  um  estado  puro:  
 
↑ +↓
ψ =
2
↑ ↑+↑ ↓+↓ ↑+↓ ↓
⇒ρ= ψ ψ =
2
⇒ p =1  
 
Portanto,   esta   distribuição   com   apenas   um   estado   tem    𝑝 = 1,   e   a   entropia   do  
sistema  é  zero.  Entropia  zero  significa  que  temos  certeza  do  estado.  O  fato  de  ser  
uma   superposição   de   autestados   implica   em   uma   indeterminação   quântica   que  
nada   tem   a   ver   com   a   entropia,   mas   com   o   fato   de   que   a   base   que   expande   o  
estado   não   ser   aquela   que   diagonaliza   ρ.   De   fato,   se   notarmos   que   ψ = + ,   a  

matriz  densidade  se  poderia  ser  escrita   ρ = + +  e  a  entropia  é  zero.  


 
 
Esta  propriedade  é  verificada  para  qualquer  estado  puro.    
 

  181  
Existe   um   caso   que   torna   evidente   a   diferença   entre   estados   quânticos   e  
clássicos,   que   é   o   da   matriz   densidade   que   representa   um   estado   emaranhado  
puro.  Tomemos  o  estado  do  gato:  
 
↑↑ + ↓↓ ↑↑ + ↓↓ ↑↑ ↑↑ + ↑↑ ↓↓ + ↓↓ ↑↑ + ↓↓ ↓↓
ρ= • =
2 2 2
# 1 0 0 1 &
% (  
1% 0 0 0 0 (
ρ=
2% 0 0 0 0 (
% 1 0 0 1 ('
$
(II14.6)  
 
Por   ser   um   estado   puro,   a   entropia   é   zero,   como   no   exemplo   anterior.   No  
entanto,  como  temos  dois  spins,  podemos  usar  o  conceito  de  traço  parcial  para  
obtermos  as  matrizes  individuais:  
 

1! $
ρ A = ρB = # 1 0 & (II14.7)  
2 " 0 1 %  

Que   implica   em  𝑆! =   𝑆! = 1.   Ou   seja,   as   entropias   individuais   são   máximas.   O  


estado   emaranhado   é   tal   que   a   entropia   do   conjunto   é   zero,   enquanto   a   das  
partes  é  máxima!  Não  existe  análogo  clássico  para  esta  situação.    
 
A   noção   de   informação   associada   à   entropia   e   à   matriz   densidade   de   um   sistema  
nos  permite  introduzir  a  noção  de  ambiente  e  de  sistemas  quânticos  abertos.  O  
que   chamamos   “ambiente”   representa   uma   parte   do   sistema   sobre   a   qual   não  
temos   informação,   mas   que   pode   ser   introduzida   no   formalismo   através   da  
operação   de   traço   parcial.   No   próximo   Bloco   veremos   várias   aplicações   da  
Mecânica   Quântica   nas   chamadas   nanociências,   nanotecnologia   e   também   no  
processamento   da   informação   quântica,   área   que   inclui   o   uso   de   recursos  
quânticos  para  tarefas  de  computação  ou  comunicação.    
 
 
   

  182  
Problemas  
1. Encontre   as   condições   para   que   a   equação   de   Schroedinger   seja  
invariante   sob   transformações   galileanas   do   sistema   de   coordenadas,  
supondo  que  o  potencial  seja  invariante  sob  tal  transformação.  
2. Seja  o  hamiltoniano  abaixo:  
 
! !

𝐻= 𝐸! 𝑛 𝑛 + 𝑊 {|𝑛 𝑛 + 1| + |𝑛 + 1 𝑛|},  
!!! !!!

 
onde   {|𝑛 }  forma   uma   base   ortonormal.   Considerando   condições   de  
contorno  periódicas,  |𝑁 + 𝑘 = |𝑘 ,  calcule  as  autoenergias  e  autoestados  
deste  hamiltoniano.    
3. Seja  a  definição  do  operador  de  translação,  Γ(𝑎):  
 
Γ 𝑎 𝜓 𝑥 = 𝜓(𝑥 + 𝑎)  
 
Mostre  que  Γ  é  unitário  e  que  pode  ser  expresso  em  termos  do  operador  
𝑝 = −𝑖ℏ𝑑/𝑑𝑥.  
4. Sejam   os   operadores   𝐴, 𝐵  e  𝐶, tal  que   𝐴, 𝐵 = 𝐶, e   𝐴, 𝐶 = 𝐵, 𝐶 = 0 .  
Mostre  que    
 
𝑒 !!! = 𝑒 ! 𝑒 ! 𝑒 !!/!  
 
5. Mostre  que  para  quaisquer  dois  operadores  A  e  B,    
 
1 1
𝑒 ! 𝐴𝑒 !! = 𝐴 + 𝐵, 𝐴 + 𝐵, 𝐵, 𝐴 + 𝐵, 𝐵, 𝐵, 𝐴 + ⋯  
2! 3!
 
 
6. Seja  𝐴(𝑡)  um   operador   que   depende   explicitamente   do   tempo,   em   um  
sistema  com  hamiltoniano  𝐻.    Mostre  que:  
 

  183  
𝑑𝐴 𝑖 𝜕𝐴
= 𝐻, 𝐴 +  
𝑑𝑡 ℏ 𝜕𝑡
 
Esta  é  a  chamada  equação  de  Heisenberg.  
7. Uma  partícula  com  spin  S  e  momento  magnético  𝝁 = 𝑔𝜇! 𝑺  é  submetida  a  
um  campo  magnético  com  a  seguinte  forma:  
 
𝑩 𝑡 = 𝐵! 𝒌 +   𝐵! [𝒊𝑐𝑜𝑠 𝜔𝑡 + 𝒋𝑠𝑒𝑛 𝜔𝑡 ]  
 
a)   Faça   uma   mudança   para   um   sistema   de   coordenadas   no   qual   este  
campo  não  depende  mais  do  tempo.  b)  Usando  a  equação  de  Heisenberg  
do   problema   anterior,   deduza   as   equações   de   movimento   para   as  
componentes  do  momento  magnético.  Interprete  o  resultado.    
8. Resolva   o   problema   do   oscilador   harmônico   na   representação   de  
momento.  
9. Seja   o   hamiltoniano   de   uma   partícula   com   massa  𝑚  em   um   potencial  
𝑉 𝒓 :    
 
𝑝!
𝐻= + 𝑉(𝒓)  
2𝜇
 
!
Mostre  que:     ! 𝐸! − 𝐸! 𝑋!" = ℏ! /2𝜇,  onde  𝐸!  são  os  autoestados  de  
energia,  e  𝑋!"  é  o  elemento  de  matriz  da  componente  X  de  r.    
10. Encontre   as   regras   de   comutação   para   as   componentes   do   operador  
velocidade  de  uma  partícula  carregada  sem  spin  em  um  campo  magnético  
estático  e  homogêneo  aplicado  ao  longo  da  direção  Z.  
11. Seja  o  hamiltoniano  representando  a  interação  entre  dois  spins:  
 
𝐻 = 𝛼𝑰 + 𝛽𝝈𝟏 ∙ 𝝈𝟐  
 

com  spin  total  𝑺 = 𝒔𝟏 + 𝒔𝟐 = ! (𝝈𝟏 + 𝝈𝟐 ).   a)  Mostre  que  𝐻, 𝑺!  e  𝑆!  podem  

ser  medidos  simultaneamente.    

  184  
12. Duas   partículas   de   spin   ½   ,   A   e   B,   estão   nos   seguintes   autoestados:  
|↑ !  e  |+ ! .  Calcule  a  probabilidade  de  uma  medida  do  spin  total  resultar  
no  valor  zero.    
13. O   spin   de   um   elétron   é   medido   e   encontrado   no   autoestado   +1/2   da  
direção   Z.   Qual   a   probabilidade   de,   em   uma   segunda   medida,   o   spin   ser  
encontrado   em   uma   direção   no   plano   X-­‐Z   formando   um   ângulo  𝜃  com   o  
eixo  Z?  
14. Mostre   que   a   medida   de   qualquer   componente   de   um   spin   ½   sempre  
retornará  ±ℏ/2  como  resultado,  qualquer  que  seja  a  direção.  
15. Um  átomo  de  hidrogênio  no  estado  com  número  quântico  principal  𝑛 = 2,  
está   sob   a   ação   de   um   campo   elétrico  ℰ  na   direção   Z   e   um   campo  
magnético  ℬ  na  direção  X,  de  magnitudes  comparáveis.    Desconsiderando  
o  spin  e  efeitos  diamagnéticos,  calcule  a  correção  em  primeira  ordem  na  
energia  do  estado.    
16. Sejam  os  operadores  de  campo:  
 
1 1
Ψ 𝒓 = 𝑎𝒌 𝑒 !!𝒌∙𝒓    e    Ψ ! 𝒓 = 𝑎!! 𝑒 !!𝒌∙𝒓    
𝑉 𝒌
𝑉 𝒌

 
Onde   V   é   o   volume   do   sistema,   e   𝑎!!  𝑒  𝑎!  operadores   de   criação   e  
aniquilação   de   bósons.   Mostre   que:   a)   Ψ 𝒓 , Ψ ! 𝒓′ = 𝛿(𝒓 − 𝒓′)  e   b)  
Ψ 𝒓 , Ψ 𝒓′ = Ψ ! 𝒓 , Ψ ! 𝒓′ = 0.  
17. Seja   o   hamiltoniano   de   interação   de   spins   entre   um   elétron   com  
coordenada  𝑥  e  um  íon  em  repouso:  
 
𝐻 = −2𝐽 𝑥 𝑺 ∙ 𝒔  
 
onde  S  é  o  spin  do  íon  e  s  o  spin  do  elétron.  a)  Escreva  este  hamiltoniano  
em   termos   dos   operadores   de   levantamento   e   abaixamento   de   spins.   b)   A  
partir  dos  operadores  de  campo  para  os  estados  eletrônicos:  
 
!
Ψ 𝑥 = 𝑒 !"# |𝑠 𝑐!"    e     𝑒 !!"# 𝑠|𝑐!"          
!,! !,!

  185  
escreva   o   hamiltoniano   na   linguagem   de   segunda   quantização   para   os  
estados   eletrônicos.   c)   Realize   explicitamente   as   somas   sobre                                                                      
os  estados  de  spin  eletrônicos,  e  mostre  que:  
 
! ! ! !
ℋ=− 𝐽 𝑘, 𝑘′ [𝑆 ! 𝑐!!↓ 𝑐!↑ + 𝑆 ! 𝑐!!↑ 𝑘!↓ + 𝑆! 𝑐!!↑ 𝑐!↑ − 𝑐!!↓ 𝑐!↓ ]  
!,!

 
onde  𝐽(𝑘, 𝑙)  é   a   transformada   de   Fourier   de  𝐽(𝑥).   Interprete   os   termos  
deste  hamiltoniano.    
18.  Mostre  que  se  o  hamiltoniano,  H,  de  um  sistema  não  depende  do  tempo,  a  
solução  da  Eq.(II11.29)  é:  
 
!" !"
𝜌 𝑡 =   𝑒 !! ℏ 𝜌(0)𝑒 !! ℏ  
 
19.  Considere   a   matriz   densidade   de   um   sistema   de   spins   ½   em   equilíbrio  
térmico  com  um  campo  magnético  estático  na  direção  Z:  
 
𝑒 !!/!! !
𝜌! = !  onde  𝐻 = −𝜀! 𝜎!  
!
𝑇𝑟{𝑒 !! ! }

 
Suponha  que  em  𝑡 = 0  um  outro  campo  magnético  é  aplicado  na  direção  X  
(hamiltoniano   𝐻! = 𝜀! 𝜎! ).   Usando   o   resultado   do   problema   anterior,  
calcule:   a)  𝜌(𝑡),   a   matriz   densidade   em   um   instante   posterior.     b)   As  
componentes   da   magnetização   em   função   de   t,    𝑀! 𝑡 , 𝑀! 𝑡  e  𝑀! (𝑡)  no  
limite  de  altas  temperaturas.  
20. Considere  uma  matriz  densidade  com  a  seguinte  forma:  
 
1−𝜀
𝜌= 𝐼 + 𝜀|𝜓 𝜓|  
4
onde  |𝜓  é  o  estado  emaranhado:  
|↑↑ + |↓↓
|𝜓 =  
2
 

  186  
O   chamado   critério   de   Peres   afirma   que   𝜌  será   emaranhada   se   a   sua  
chamada   matriz   transposta   parcial 41  tiver   algum   autovalor   negativo.  
Mostre   que   a   condição   sobre  𝜀  para   que   a   matriz   densidade   acima   seja  
emaranhada  é  𝜀 > 1/3.    
 
 
 
 
 
 
 
 
 

                                                                                                               
41  A  matriz  transposta  parcial  é  obtida  trocando-­‐se  os  rótulos  das  linhas  pelos  de  

colunas,  de  apenas  um  dos  spins.    

  187  

Você também pode gostar