Você está na página 1de 32

Kets, Bras e Operadores


L. A. M. Souza

Universidade Federal de Viçosa, Campus Florestal,

C.P 35690-000 - Florestal, MG - Brasil

I. INTRODUÇÃO

A teoria da Mecânica Quântica não-relativística é baseada em alguns postulados, assim

como várias outras teorias físicas, por exemplo a Mecânica Newtoniana é baseada em suas

três Leis (além das denições de espaço, tempo, densidade, volume, etc.), e a Relatividade

Restrita é fundamentada em dois postulados enunciados por Einstein.

Porém, em Mecânica Quântica, devido talvez a um caráter intrinsicamente contra-

intuitivo da própria teoria, há algumas alternativas de construção da teoria, que se funda-

mentam em modicações de certos postulados. Deixamos para a pessoa curiosa que pesquisa

1
estas várias alternativas para os postulados da Teoria Quântica .

Este texto será baseado na Interpretação de Copenhagem da Mecânica Quântica, e

seguiremos de perto a abordagem feita por Cohen [4], onde a Teoria Quântica é apresentada

com os seguintes postulados:

1. Toda a informação sobre um sistema físico está contida no vetor de estado |ψi;

2. Um observável é descrito por um operador Hermiteano, T̂ = T̂ † ;

3. Os possíveis resultados da observação de um observável T̂ são seus autovalores:

T̂ |φn i = an |φn i;

4. Dado um estado quântico |ψi e um observável T̂ , a probabilidade de obtermos um

certo autovalor an de T̂ , associado ao autovetor |φn i, é dada por:

P (an ) = |hφn | ψi|2


Electronic address: leonardoamsouza@ufv.br
1 Exemplos de abordagens: (i) Interpretação baseada em ensembles estatísticos [1]; (ii) Bayesianismo Quân-

tico [2]; (iii) Muitos mundos [3]; (iv) Interpretação de Copenhagem [4]; dentre outras.
2

5. Se realizarmos uma medida em um estado quântico |ψi, obtendo o autovalor an , o

estado quântico imediatamente após a medida é dado por:

P̂n |ψi
|ψ 0 i = q ,
hψ| P̂n |ψi

onde P̂n é o projetor no subespaço correspondente a an ;

6. A evolução temporal do sistema/estado quântico é dada pela Equação de Schroedinger:


i~ |ψi = Ĥ(r̂, p̂; t) |ψi ,
∂t
h
onde Ĥ(r̂, p̂; t) é o Hamiltoniano do sistema e ~= 2π
é a constante de Planck.

Quem lê com certeza notou uma característica importante da Mecânica Quântica nestes

postulados: eles tratam de vetores e de como estes vetores podem se transformar. A pro-

posta deste texto é dar uma abordagem, não rigorosa, da Álgebra Linear básica aplicada à

Mecânica Quântica (MQ), em especial com ênfase na notação de Dirac. Para uma apresen-

tação rigorosa sugerimos a referência [5, 6], inclusive deixamos para esta e demais referências

as demonstrações matemáticas relacionadas a espaços vetoriais e demais assuntos (quando

não zermos as demonstrações).

II. ÁLGEBRA LINEAR E MECÂNICA QUÂNTICA

Como mencionado no postulado 1. acima, os vetores de estado são objetos fundamentais

em MQ. Mas onde vivem estes vetores? Os estados quânticos estão contidos no chamado

Espaço de Hilbert, que é um espaço vetorial dotado deproduto interno completo, e com

norma (nita) gerada por ele. É um espaço vetorial linear, nos complexos C, que possui

produto interno (em Matemática chama-se este tipo de espaço de L2 (C).


Sendo assim, vamos trabalhar como escrever ester vetores, as transformações lineares

associadas, mudanças de base, etc.

III. VETORES (NOTAÇÃO DE DIRAC)

Denotamos um vetor no espaço de Hilbert como: |φi , |φi , |αi , etc. Um conjunto de

vetores é escrito como: {|αi , |βi , |γi , . . .}, e um conjunto de escalares é escrito como
3

{a, b, c, d, . . .} ∈ C, sendo que os escalares são números complexos. As propriedades de

soma/subtração de vetores, assim como multiplicação por escalar, continuam iguais ao que

já conhecemos no R3 .
Vetores no espaço de Hilbert (sendo este um espaço linear) podem, em geral, ser escritos

como combinação linear de outros vetores, ou seja:

|ψi = a |αi + b |βi + c |γi + . . . . (1)

Uma coleção de vetores é dita que gera o espaço vetorial se todo vetor neste espaço puder

ser escrito como combinação linear dos membros desta coleção. Uma base do espaço vetorial

é o conjunto LI de vetores que geram o espaço vetorial. A dimensão do espaço vetorial é o

número de vetores que constitui sua base. Em Mecânica Quântica trabalhamos com espaços

vetoriais de dimensão nita e innita (sendo esta última podendo ser discreta ou contínua).

Dada uma base do espaço vetorial {|e1 i , |e2 i , |ei3 , . . .}, um vetor é unicamente determi-

nado pelos seus componentes:

|ψi = a1 |e1 i + a2 |e2 i + a3 |ei3 + . . . (2)


dim
X
|ψi = ai |eii . (3)
i=1

IV. NOTAÇÃO DE DIRAC

Você deve ter notado que denotamos um vetor por |ψi, e não como o tradicional ~v .
Este tipo de notação foi introduzido por Dirac [7], e acaba por nos ajudar muito tanto no

entendimento quanto na resolução de problemas/situações físicas. Aqui apresentaremos os

nomes das quantidades, e também exemplos simples de como construí-las (para 2D). Um

entendimento completo de como trabalhar com as quantidades vem com a prática.

• |ψi → chamado Ket, é um vetor no espaço de Hilbert;

• hψ| → chamado Bra, é o Hermiteano conjugado do Ket (a transposta e conjudada do

vetor). O Bra vive no espaço dual ao espaço de Hilbert associado ao seu Ket. Para

todo Ket existe um Bra correspondente, mas nem para todo Bra pode existir um Ket
4

2
correspondente (ver [4]). O Bra, de fato, é denido através de um funcional linear

atuando no Ket (ver [5]).;

• Em 2D podemos escrever um Ket e um Bra como:


 
a1
Ket → |ψi =  
a2
 
Bra → hψ| = a∗ a∗
1 2

portanto o Ket é um vetor coluna, e o Bra um vetor linha (transposta e conjugada do

Ket);

• Desta forma (e sem ainda pensar muito sobre o signicado físico das quantidades

abaixo), podemos denir produtos entre Kets e Bras, da seguinte forma:


 
 a1 
Produto interno → hψ | ψi = a∗1 a∗2   = a1 a∗1 + a2 a∗2
a2
   
a1   a1 a∗1 a1 a∗2
Produto externo → |ψi hψ| =   a∗1 a∗2 =  
a2 a2 a∗1 a2 a∗2
Note que o resultado de um produto interno é um número (em C) e o resultado do

produto externo é uma matriz.

• Exercício: sejam |ψi e |φi dois vetores no espaço de Hilbert, onde:


 
i
|ψi =  
1
 
1
|φi =  
−1
Encontrar:

 Os Bras hψ| e hφ|.

 Os produtos internos: hφ | ψi e hψ | φi.

 Os produtos externos: |ψi hφ| e |φi hψ|.

2 Denição de funcional linear: Um funcional linear hχ| é uma transformação linear que atua em |ψi,
este último está contido num espaço V, e que nos retorna um número. Isto é: hφ| : V → C. Uma integral

denida pode ser entendida como um funcional linear, pois é uma aplicação numa função que nos retorna

um número.
5

V. PRODUTO INTERNO

O produto interno é o análogo ao produto escalar para vetores em R3 , e nos permite

denir uma norma para o espaço vetorial em questão.

Sejam os vetores |αi, |βi e |γi, e os escalares a, b e c. O produto interno é denido por:

hα | βi = hβ | αi∗ . (4)

Algumas propriedades do produto interno:

• hα | αi ≥ 0, sendo que se hα | αi = 0, então |αi = 0 (vetor nulo);

• hα | bβ + cγi = b hα | βi + c hα | γi;

• hbβ + cγ | αi = b∗ hβ | αi + c∗ hγ | αi;

A norma de um vetor é dada por:

p
k|αik = hα | αi. (5)

A partir do produto interno podemos demonstrar a desigualdade de Schwarz (ver [4]):

|hα | βi|2 ≤ hα | αi hβ | βi . (6)

Exercício (procedimento de Gram-Schmidt): O procedimento de Gram-Schmidt

nos permite gerar uma base ortonormal a partir de uma base que não é ortonormal.

Suponha uma base não ortonormal {|e01 i , |e02 i , . . . , |e0n i}. O algoritmo segue abaixo:

1. Normalize o primeiro vetor de base:

|e01 i
|e1 i =
k|e01 ik

2. Encontre a projeção do segundo vetor |e02 i da base original sobre o primeiro |e1 i da base
ortonormal, e subtraia dele mesmo: |e02 i − he1 | e02 i |e1 i (note que o vetor encontrado

é ortogonal a |e1 i). Um exemplo sobre isso em R2 : seja o vetor ~v em R2 , onde

~v = v0 cos θî + v0 sin θĵ . A projeção de ~v em î é v0 cos θ. Se diminuirmos a componente

v0 cos θî de ~v , teremos ~v 0 = v0 sin θĵ , que é ortogonal a î.


6

3. Normalize o vetor |e02 i − he1 | e02 i |e1 i para encontrar |e2 i:


|e02 i − he1 | e02 i |e1 i
|e2 i =
k|e02 i − he1 | e02 i |e1 ik

4. Subtraia de |e03 i suas projeções sobre |e1 i e |e2 i: |e03 i − he1 | e03 i |e1 i − he2 | e03 i |e2 i. Este

novo vetor é ortogonal a |e1 i e |e2 i.

5. Repita o procedimento para todos os outros vetores da base original

{. . . , |e04 i , |e05 i , . . . , |e0n i}.

||

Faça o procedimento de Gram-Schmidt para ortonormalizar a seguinte base em 3

dimensões:

|e01 i = (1 + i) |g1 i + |g2 i + i |g3 i ; |e02 i = (i) |g1 i + 3 |g2 i + 1 |g3 i ; |e03 i = 28 |g2 i

onde |g1 i , |g2 i e |g3 i formam a base canônica.

||

VI. TRANSFORMAÇÕES LINEARES

Um vetor |αi pode ser alterado (transformado) para outro vetor |α0 i através de uma

3
Transformação Linear . Isto é:

|α0 i = T̂ |αi , (7)

onde T̂ é uma transformação linear.

Na Figura 1 mostramos a representação do ponto P nos eixos x1 e x2 (o vetor ~v possui as

mesmas componentes do ponto P no espaço). Para este sistema, o ponto P tem componentes:

P → (x1 , x2 ).

Se assumirmos x1 como sendo x e x2 como sendo y (na notação usual para física básica),

sendo seus vetores unitários î e ĵ respectivamente, um vetor que tenha sua origem em (0, 0)
e seu nal no ponto P terá as seguintes componentes (vetor ~v em vermelho na Figura 1):

~v = x1 î + x2 ĵ. (8)

3 O que é intuitivo de certa forma, visto que trabalhamos num espaço vetorial linear, e gostaríamos de

continuar morando nele.


7

O vetor ~v , neste sistema, pode er representado por:

 
x1
~v =   (9)
x2

FIG. 1: Ponto P nos eixos x1 e x2 .

FIG. 2: Ponto P nos eixos x01 e x02 .

Agora, se realizássemos uma rotação nos eixos x1 e x2 de um ângulo θ, mantendo o ponto


P xo (e também sua distância com relação à origem), quais seriam as novas componentes
8

de ~v neste novo sistema x01 e x02 ? Na Figura 2 mostramos o ponto P representado neste novo

sistema, sendo que:

P → (x01 , x02 ).

E o vetor ~c neste sistema será:  


x01
~v =   . (10)
x02
Podemos nos perguntar agora: como se relacionam as componentes x01 e x02 com as compo-

nentes x1 e x2 no sistema de coordenadas originel (antes da rotação)?

Observando a Figura 3 podemos notar que:

x01 = x1 cos θ + x2 sin θ

x02 = −x1 sin θ + x2 cos θ, (11)

e podemos escrever este resultado como:


    
x02 cos θ sin θ x
 =   1 . (12)
x02 − sin θ cos θ x2
 
cos θ sin θ
A matrix T̂ T =  é uma transformação linear, que nos dá as componentes
− sin θ cos θ
4
do vetor ~v num sistema de coordenadas que foi girado de um ângulo θ .

FIG. 3: Componentes do ponto P em cada sistema de coordenadas.

4 Escrevemos esta transformação particular como T̂ T por conveniência.


9

Podemos escrever esta transformação T̂ T como:


 
T11 T21
T̂ T =  , (13)
T12 T22

e sua transposta como (transpor uma matriz é a operação de trocarmos suas linhas pelas

suas colunas):
   
T11 T12 cos θ − sin θ
T̂ =  = . (14)
T21 T22 sin θ cos θ
Para termos ainda mais intuição sobre este tipo de transformação linear, suponha um

vetor ~v que tenha as seguintes


 componentes:
 ~vA = 1î + 1ĵ , como na Figura 4. Se aplicarmos

cos θ − sin θ π
a Transformação T̂ =   com θ= 6
, no vetor ~vA acima, obteremos:
sin θ cos θ

~vB = T̂~vA (15)


      
cos π6 − sin 6π
1 π π
cos 6 − sin 6 0, 366
~vB =    =  = , (16)
sin π6 π
cos 6 1 π π
sin 6 + cos 6 1, 366
5
onde podemos observar na Figura 4 que este é um vetor rodado  de um ângulo de π/6 no

sentido anti-horário, a partir do vetor ~vA . Se aplicarmos agora a transformação T̂ T sobre o

vetor ~vA obteremos um vetor rodado de π/6 no sentido horário a partir do vetor ~vA .

FIG. 4: Rodando um vetor através de transformações lineares.

5 Chamamos esta especíca transformação T̂ denida acima como matriz de rotação (em 2D).
10

Prosseguiremos agora com nossa notação de Dirac, e os vetores no espaço de Hilbert. O

que desejamos a partir de agora é, dados os seguintes vetores de uma base em 2D:
 
1
|e1 i =   (17)
0
 
0
|e2 i =   (18)
1

como a transformação T̂ abaixo ( não é a mesma transformação necessariamente, aqui uma


transformação GERAL) atua em |e1 i |e2 i? A transformação T̂
e será escrita como:
 
T11 T12
T̂ =  . (19)
T21 T22

Teremos:     
T11 T12 1 T
T̂ |e1 i =     =  11  . (20)
T21 T22 0 T21
E portanto:

T̂ |e1 i = T11 |e1 i + T21 |e2 i . (21)

Da mesma forma (ca de exercício): T̂ |e2 i = T12 |e1 i + T22 |e2 i .


Em geral, se soubermos como uma transformação atua numa base, temos como saber

como ela atua em qualquer vetor. Assim, para um espaço de dimensão n:

T̂ |e1 i = T11 |e1 i + T21 |e2 i + T31 |e3 i . . . Tn1 |en i


T̂ |e2 i = T12 |e1 i + T22 |e2 i + T32 |e3 i . . . Tn2 |en i
.
.
.
n
X
T̂ |ej i = Tij |ei i . (22)
i=1
P
Se |αi é um vetor arbitrário: |αi = j aj |ej i. Sendo assim:

X  
T̂ |αi = aj T̂ |ej i
j
XX
= aj Tij |ei i
i j
X X
= Tij aj |ei i . (23)
i j
11

a0i =
P
Ou seja, se chamarmos o termo quadriculado como: j Tij aj , podemos notar que a

transformação T̂ transforma as componentes do vetor |αi em outras componentes:

X
|α0 i = T̂ |αi = a0i |ei i , (24)
i

a0i =
P
com j Tij aj .
Observação: Enquanto as componentes de um vetor se transformam com Tij , a base se

transforma com Tji .


Se possuímos uma base ortonormal, podemos escrever as componentes de uma transfor-

mação como:

Tij = hei | T̂ |ej i . (25)

Demonstração:

X
T̂ |ej i = Tij |ei i
i
X
hei | T̂ |ej i = Tij hei | ej i = Tij
i
Como hei | ej i = δij , onde δij é o Delta de Kronecker.

 (26)

É MUITO conveniente escrevermos as transformações lineares como matrizes:


 
 T11 T12 . . . T1n 
 
 T21 T22 . . . T2n 
T̂ = 
 .. . . 
 (27)
. . 
 . . ... .
 
Tn1 Tn2 . . . Tnn

Algumas notações e operações para matrizes:

• Transposta de uma matriz T̂ T → trocar linha pela coluna:


 
T11 T12
T̂ =  
T21 T22
 
T11 T21
T̂ T =  
T12 T22

Se T̂ T = T̂ a matriz é dita simétrica; se T̂ T = −T̂ a matriz é dita anti-simétrica.


12

• Conjugado de uma matriz T̂ ∗ → conjugar todos os elementos da matriz:


 
T11 T12
T̂ =  
T21 T22
 
T∗ ∗
T12
T̂ ∗ =  11 
∗ ∗
T21 T22

• (MUITO IMPORTANTE) Conjugado Hermiteano de uma matriz T̂ † → conjugar os

elementos, e trocar linha pela coluna:


 
T11 T12
T̂ =  
T21 T22
 
∗ ∗
T11 T21
T̂ † =  
∗ ∗
T12 T22

Se T̂ † = T̂ a matriz é dita Hermiteana (MUITO IMPORTANTE) ; se T̂ † = −T̂ a

matriz é dita skew-Hermitean (não encontrei um termo legal em português ainda).

• Conjugado Hermiteano de um vetor: se |αi = a1 |e1 i + a2 |e2 i + . . ., então:

hα| = a∗1 he1 | + a∗2 he2 | + . . .

• Comutador de duas matrizes: [Â, B̂] = ÂB̂ − B̂ Â. Em geral, o comutador é diferente

de zero.

• Transposta do produto:
 T
ÂB̂ = B̂ T ÂT

• Hermiteana do produto:
 †
ÂB̂ = B̂ † †

• Matriz identidade:
 
1 0 0 ... 0
 
0 1 0 ... 0
 
. . . .
I =  .. .. 1 .
.
.  = diag{1, 1, 1, 1, 1, 1 . . .}
.
 .. .. .. .
 
.
. . . 1 .
 
0 0 ... ... 1
13

• Matriz unitária: se † = Â−1 dizemos que a matriz  é unitária, pois:

ÂÂ−1 = I = † .

A matriz Â−1 é a inversa de Â, desde que esta matriz possua inversa. A inversa de

uma matriz é denida a partir de:

1
Â−1 = Ĉ
det Â

onde Ĉ é a matriz de cofatores e det  o determinante da matriz Â. Se uma ma-

triz (quadrada) possui determinante nulo, ela não possui inversa e dizemos que ela é

singular.

• Traço de uma matriz: a soma dos elementos da diagonal de uma matriz:

X X
tr(Â) = Aii = hi| Â |ii
i i

onde todos os |ii formam a base do espaço vetorial. O traço é linear: tr(Â + B̂) =
tr(Â) + tr(B̂). O traço é invariante sob permutações cíclicas: tr(ÂB̂ Ĉ) = tr(Ĉ ÂB̂) =
tr(B̂ Ĉ Â). Em notação de Dirac, temos a importante representação do seguinte traço:

tr(|b1 i hb2 |) = hb2 | b1 i

• O projetor P̂ é um operador que projeta um vetor num determinado subespaço: seja

P̂ = |αi hα|, se aplicarmos P̂ num vetor |βi ele irá projetar o vetor |βi em |αi:

P̂ |βi = hα | βi |αi

onde o termo hα | βi nos dá a componente de |βi na direção de |αi.

• Observação: componentes de vetores e matrizes mudam, em geral, conforme a escolha

da base. É sempre possível (nos casos que estudaremos) passar de uma base para outra,

desde que saibamos a matriz que representa a mudança de uma base para a outra.

Exercício: Mostre que todo projetor P̂ é idempotente: P̂ = P̂ 2 .


14

VII. PRODUTO TENSORIAL*(IMPORTANTE PARA SISTEMAS COMPOSTOS

- EMARANHAMENTO)

O produto tensorial é uma maneira de juntar espaços vetoriais para formar espaços ve-

toriais maiores. Isto é essencial para o entendimento de Emaranhamento, por exemplo.

Aqui daremos apenas uma pincelada em produtos tensoriais, aconselhamos a referência [6]

para mais detalhes.

Suponha V e W espaços vetoriais (Hilbert) de dimensões m e n respectivamente. Então

V ⊗W (dizemos V tensorial W ) é um espaço vetorial de dimensão m vezes n. Os elementos

de V ⊗W são combinações lineares de produtos tensoriais dos elementos de V e W , |vi⊗|wi.


Se |ii e |ji são bases ortonormais de V e W, então |ii ⊗ |ji é uma base de V ⊗ W.
Usa-se, indistintamente, a notação: |ui ⊗ |wi = |uwi = |ui |wi. O produto tensorial

satisfaz propriedades básicas de linearidade.

Quais operadores agem no espaço composto V ⊗ W? Se |vi e |wi são vetores de V e W,


e  e B̂ são operadores em V e W respectivamente. Então, temos:

 ⊗ B̂(|vi ⊗ |wi) =  |vi ⊗ B̂ |wi

O produto interno em V ⊗W é dado, em geral, por:

! !
X X X
bj vj0 ⊗ wj0 ai bj vi | vj0 wi | wj0



ai hvi | ⊗ hwi | =
i j i,j

ou seja, fazemos o produto interno em cada subespaço.

O produto tensorial pode ser bem representado matricialmente pela representação con-

hecida como produto de Kronecker. Suponha  uma matriz m por n, e B̂ uma matriz p por

q. Então, o produto  ⊗ B̂ pode ser representado por:

 
 A11 B̂ A12 B̂ · · · A1n B̂ 
 A21 B̂ A22 B̂ · · · A2n B̂ 
 
 ⊗ B̂ = 
 .. . . .

 . . . . 
. . . 
 
Am1 B̂ Am2 B̂ · · · Amn B̂

onde o elemento A11 B̂ é uma submatriz de dimensão p por q.


15

Exemplos:

 
a×c
     
a c a × d
1.  ⊗ =



b d b × c
 

b×d
 
1
     
1 1 1
2.   ⊗ √1   = √1  
2 2  
 
0 1 0
0
 
0 0 1 0
     
0 1 1 0 0 0 0 −1
3. σ̂x ⊗ σ̂z =   ⊗  =
 

1 0 0 −1 1 0 0 0 
 
0 −1 0 0

Uma propriedade importante, o traço parcial. Podemos denir um traço em somente um

subespaço que constitui o espaço global. Por exemplo, seja o operador Ω̂V ⊗W ∈ V ⊗ W ,
escrito como Ω̂V ⊗W = |a1 i ha2 | ⊗ |b1 i hb2 |, podemos fazer por exemplo o traço somente no

subespaço W da seguinte forma:

trW (Ω̂V ⊗W ) = trW (|a1 i ha2 | ⊗ |b1 i hb2 |) = |a1 i ha2 | tr(|b1 i hb2 |)

Note que o resultado é uma matriz com dimensão igual do espaço V.


Exemplo: seja o operador

|00i h00| + |11i h00| + |00i h11| + |11i h11|


ρ̂ =
2

sendo |00i = |0iV ⊗ |0iW e assim por diante. O traço no subespaço W é:

trW (|00i h00|) + trW (|11i h00|) + trW (|00i h11|) + trW (|11i h11|)
ρV =
2
|0i h0| trW (|0i h0|) + |1i h0| trW (|1i h0|) + |0i h1| trW (|0i h1|) + |1i h1| trW (|1i h1|)
=
2
|0i h0| h0 | 0i + |1i h0| h0 | 1i + |0i h1| h1 | 0i + |1i h1| h1 | 1i
=
2
|0i h0| + |1i h1|
=
2
16

VIII. AUTOVETORES E AUTOVALORES

No início deste texto, quando soltamos no ar os postulados da Mecânica Quântica, es-

crevemos: Um observável é descrito por um operador Hermiteano, T̂ = T̂ † . Portanto, op-

eradores lineares, em especial os Hermiteanos, possuem papel fundamental na MQ. Vamos

aqui estudar brevemente as chamadas equações de autovalor, pois a partir dela estudaremos

os chamados autovalores e autovetores de algum operador (em princípio não Hermiteano)

T̂ .
Seja a seguinte equação:

T̂ |αi = λ |αi . (28)

Esta equação é chamada Equação de Autovalor: nela um operador T̂ atua num vetor,

e o resultado é um número (em princípio complexo) vezes o próprio vetor. Chamamos

este número λ de autovalor e o vetor |αi de autovetor. Podemos reescrever a Equação de

Autovalor como:

T̂ |αi = λI |αi → (T̂ − λI) |αi = 0. (29)

O resultado acima só é possível se a matriz dentro do parêntese (T̂ − λI) for singular, ou

seja, não tiver inversa. Portanto:

det(T̂ − λI) = 0. (30)

A Equação (30) é chamada Equação Característica, e ao resolvermos a equação (30) encon-

traremos os autovalores λ0 s do operador T̂ . O conjunto de autovalores de um certo operador

({λ1 , λ2 , . . . , λn }) nos fornece o espectro deste operador.

Dado que já conhecemos os autovalores (resolvendo a equação (30)), podemos encontrar,

para cada autovalor, um autovetor correspondente.

Observação: Se os autovetores de uma certa transformação T̂ formam uma base para o

espaço vetorial, a transformação escrita na base de seus autovetores ca da seguinte forma:
 
λ1 0 . . . 0 
 
 0 λ2 . . . 0 
T̂ = 
 .. ..
,
. 
(31)
 . . . . . .. 
 
0 0 . . . λn

onde λ1 , λ2 , . . . , λn são os autovalores de T̂ .


17

IX. TRANSFORMAÇÕES HERMITEANAS

Iniciamos este texto apresentando os postulados da MQ. O postulado número 2 nos diz:

Um observável é descrito por um operador Hermiteano, T̂ = T̂ † . Sendo assim, Transfor-

mações Hermiteanas estão na base da Teoria Quântica. Podemos vericar se uma matriz

corresponde a uma transformação Hermiteana se: T̂ = T̂ † , porém, de maneira mais rigorosa,


uma transformação linear é dita Hermiteana se:

   
hα| T̂ |βi = hα| T̂ † |βi , (32)

para quaisquer vetores |βi , |αi. Operadores que seguem a equação acima são chamados

operadores auto-adjuntos.

Propriedades importantes de operadores Hermiteanos:

1. Autovalores de operadores/transformações Hermiteanos são reais. Seja T̂ uma trans-

formação Hermiteana, e λ seu autovalor associado a |αi: T̂ |αi = λ |αi. Então:

 
hα| T̂ |αi = hα| λ |αi = λ hα | αi
 
hα| T̂ † |αi = hα| λ∗ |αi = λ∗ hα | αi
   

Mas: hα| T̂ |αi = hα| T̂ |αi

Portanto: λ∗ = λ

2. Autovetores correspondentes a autovalores distintos são ortogonais. Seja T̂ uma trans-

formação Hermiteana, λ seu autovalor associado a |αi: T̂ |αi = λ |αi e µ seu autovalor
associado a |βi: T̂ |βi = µ |βi, com λ 6= µ. Então:
 

hα| T̂ |βi = λ hα | βi

hα| T̂ |βi = µ hα | βi
   

Como: hα| T̂ |βi = hα| T̂ |βi

Temos: µ hα | βi = λ hα | βi

Se: λ 6= µ → hα | βi = 0


18

3. Os autovetores de uma transformação Hermiteana formam uma base completa para

o espaço vetorial (eles geram espaço). Isto pode ser entendido através do Teorema

6
Espectral: Qualquer operador Normal T̂ em um espaço vetorial V é diagonal com
P
respeito a alguma base de V. Primeiro, mostramos que j P̂j = I, com P̂j = |ej i hej |
e o conjunto formado por |ej i sendo uma base ortonormal do espaço vetorial V: seja
P
|αi = i ai |ei i um vetor em V. Então:

! !
X X X X
P̂j |αi = |ej i hej | ai |ei i = ai hej | ei i |ej i
j j i i,j

Como: hej | ei i = δ i , j
!
X X X
P̂j |αi = |ej i = |αi → P̂j = I
j j j

Agora, basta mostrarmos que um operador Hermiteano T̂ pode ser escrito como: T̂ =
Pd P
j=1 λj |ej i hej |: Seja |αi = i ai |ei i → ai = hei | αi, e o operador T̂ possua um

conjunto completo de autovetores: T̂ |ej i = λj |ej i . Então:

X X X  X
T̂ |αi = ai T̂ |ei i = hei | αi λi |ei i = λi |ei i hei | |αi → T̂ = λi |ei i hei | 
i i i i

X. ESPAÇO DE FUNÇÕES

Até então falamos apenas de vetores e espaços (mesmo innitos) discretos. Mas em

geral (em especial na disciplina FIF364) tratamos de espaços contínuos. Como representar

todo este ferramental para espaços contínuos. Podemos, por exemplo, assumir uma postura

pragmática: se algumas classes de funções obedecem a todas as propriedades de um espaço

vetorial, então OK!, as funções se comportarão como os vetores que trabalhamos até então,

obviamente com as devidas mudanças no ferramental.

dois vetores (|αi =


P P
O produto interno entre i ai |ei i ; |βi = i bi |ei i) foi denido

a∗i bi . funções o produto interno é denido como:


P
como: hα | βi = i Para

Z ∞
hg | f i = g ∗ (x)f (x)dx. (33)
−∞

6 Um operador  é dito Normal se: † = † Â, sendo assim um operador Hermiteano é também Normal.
19

Aqui temos que: g ∗ (x) é o ocmplexo conjugado da função g(x). Desejamos também
7
que as

funções sejam quadrado integráveis:


Z ∞
hf | f i → nito =⇒ |f (x)|2 dx < ∞. (34)
−∞

Como queremos manter o postulado 4o (probabilidades), exigiremos a condição de normal-

ização:
Z ∞
|f (x)|2 dx = 1. (35)
−∞

XI. UMA DIGRESSÃO: FUNÇÃO DELTA DE DIRAC δ(x)

Antes de prosseguirmos os estudos para espaço de funções em MQ, vamos realizar uma

digressão e falar um pouco sobre uma função que surge muito em nossos estudos de Física:

a função Delta de Dirac → δ(x). Escrevemos função aqui entre aspas, pois se formos

rigorosos matematicamente deveríamos chamá-la de distribuição Delta de Dirac. Mas

seguiremos a nomenclatura já tradicional em Física.


Suponha um campo vetorial ~v = r2
(coordenadas esféricas), como na Figura 5 abaixo.


FIG. 5: Uma representação do campo vetorial ~v = r2
. Em vermelho uma superfície

Gaussiana S esférica de raio r.

Nosso intuito é calcular:


Z
(∇ · ~v ) dτ = ?
volume
I
~v · dA ~ = ? (36)
S

7 Apesar de às vezes termos funções que NÃO são quadrado integráveis. Na disciplina veremos métodos de

contornarmos este problema.


20

com o objetivo de vericar o teorema do divergente (ou teorema de Gauss):


Z I
(∇ · ~v ) dτ = ~
~v · dA, (37)
volume S

onde dτ é um elemento de volume e ~


dA o vetor normal à área em questão.

Em coordenadas esféricas (ver por exemplo [8]):


    
1 ∂ 2  1 ∂ 2 1
∇ · ~v = 2 sin θ r vr = 2 sin θ r 2 = 0. (38)
r sin θ ∂r r sin θ ∂r r
R
Portanto, se ∇ · ~v = 0 → vol
(∇ · ~v ) dτ = 0.
Agora a integral na superfície Gaussiana S:
I I Z πZ 2π
~= 1 2
~v · dA vr dAr = r sin θdφdθ = 4π (39)
S S 0 0 r2
Ora, chegamos a um impasse, pois sabemos claramente que:

0 6= 4π (40)

O teorema de Gauss está errado, aconta está errada ou algo que não percebemos? O teo-

rema de Gauss está correto (ver suas notas de cálculo 3). As contas acima estão corretas.

Então deixamos de perceber uma coisa: o ponto em r → 0, a fonte do campo vetorial ~v .


Neste ponto existe uma singularidade, é uma fonte do campo. Se estivermos pensando em

eletromagnetismo, uma carga puntual estaria exatamente no ponto r → 0, parada, gerando

o campo ~v , tornando assim este ponto especial de certa forma. Note que, se analisarmos

sobre o ponto onde está a fonte do campo ~v , em r→0 para este exemplo, o próprio campo

vetorial tende a innito:


1
lim → ∞.
r→0 r 2

Para incluírmos esta análise qualitativa do ponto r → 0 em nossa aparente inconsistência


com relação ao Teorema de Gauss, introduzimos agora a função Delta de Dirac (inicial-

mente em 1D, depois para 3D, a generalização é direta). A função Delta de Dirac é dada

por:

∞,

se x=0 Z ∞
δ(x) = , com: δ(x)dx = 1 (41)
0,

se x 6= 0 −∞

Note que a denição acima não se enquadra no conceito de função, e por isso temos que nos

atentar ao uso da palavra função para a Delta de Dirac. Mais que isso, a denição completa
21

FIG. 6: Uma representação esquemática da posição da fonte do campo vetorial ~v em

função de r.

da Delta de Dirac inclui a integral dela para todo o espaço ser igual a 1. A função Delta de

Dirac é sempre bem denida dentro de uma integral, mas em Física (às vezes) a utilizamos

como se fosse uma função bem comportada, pois sabemos onde estamos pisando. A Delta

de Dirac possui uma propriedade interessante: Seja uma função f (x) (bem comportada)

qualquer, temos então:


Z ∞ Z ∞ Z ∞
δ(x)f (x)dx = δ(x)f (0)dx = f (0) δ(x)dx = f (0). (42)
−∞ −∞ −∞

Podemos também denir uma Delta de Dirac deslocada como (ver Figura 7):

∞,

se x=a Z ∞
δ(x − 1) = , com: δ(x − a)dx = 1 (43)
0,

se x 6= a −∞

Neste caso:
Z ∞ Z ∞ Z ∞
δ(x − a)f (x)dx = δ(x − a)f (a)dx = f (a) δ(x − a)dx = f (a). (44)
−∞ −∞ −∞

A extensão para 3D é direta:



∞,

se ~r vetor nulo
Z
δ(~r) = , com: δ(~r)dτ = 1 (45)
0, ∀ outro ~r todo espaço


∞,

se ~r = ~a Z
δ(~r − ~a) = , com: δ(~r)dτ = 1 (46)
0, ~r 6= ~a todo espaço

22

FIG. 7: Uma representação esquemática de uma Delta de Dirac δ(x − a).


Voltemos agora para nosso exemplo do campo vetorial ~v = r2
. Este campo vetorial possui

um ponto de singularidade, em r → 0, e decai para zero quando r → ∞. Já a integral deste

campo vetorial para qualquer área a uma distância r da fonte é sempre igual a 4π , exceto

em r = 0 quando o campo vetorial explode. Ora, a função Delta de Dirac faz exatamente

este papel. De fato, temos o seguinte resultado:

∇ · ~v = 4πδ(~r), (47)

dessa forma:
Z Z Z
∇ · ~v dτ = 4πδ(~r)dτ = 4π δ(~r)dτ = 4π (48)
vol. vol. vol.

que por sua vez é igual a:


I
~ = 4π.
~s · dA (49)
S
Concluímos assim mostrando que não há incoerência no Teorema de Gauss para o campo


vetorial ~v = r2
. Pedimos que a pessoa se atente ao fato da discontinuidade do campo vetorial


~v = r2
em r → 0, e o que esta discontinuidade nos implicou para a introdução da Delta de

Dirac δ(x).

XII. OPERADORES COMO TRANSFORMAÇÕES LINEARES

Lembrando que transformações lineares atuam em vetores, transformando-os em out-

0
ros vetores (|α i = T̂ |αi). Em espaços de funções, as transformações lineares atuarão em

8
funções, transformando-as em outras funções (no mesmo espaço) . Um exemplo de trans-

8 Para quem quiser conferir com mais rigor, ver Teorias de Sturm-Liouville em [8].
23

d
formação linear (ou operador linear): seja T̂A = dx
atuando na função f (x) = x2 . temos:

d 2
T̂ f (x) = x = 2x = g(x). (50)
dx
Para o caso de equações de autovalor, teremos:

T̂ f (x) = λf (x), (51)

e a função f (x) é chamada autofunção do operador T̂ . Um operador linear é Hermiteano se:

   

hf | T̂ |gi = hf | T̂ |gi . (52)

Onde aqui lembramos que (seção antes da digressão):


Z ∞
hf | gi = f (x)∗ g(x)dx. (53)
−∞

Portanto:

   
hf | T̂ |gi = hf | T̂ † |gi (54)
  Z ∞
hf | T̂ |gi = f (x)∗ T̂ g(x)dx (55)

  Z−∞
∞  ∗
hf | T̂ † |gi = T̂ f (x) g(x)dx (56)
−∞
Então: (57)
Z ∞ Z ∞  ∗
f (x)∗ T̂ g(x)dx = T̂ f (x) g(x)dx (58)
−∞ −∞



Exercício: Verique se a transformação T̂A = d


dx
é Hermiteana ou não.



A. Operadores posição e Momentum Linear

Como já vimos (ver [4]) através do princípio de correspondência, os operadores que rep-

resentam os observáveis posição e momentum linear, ou seja x̂ e p̂, são:

T̂1 = x̂ = x (59)

~ ∂
T̂2 = p̂ = . (60)
i ∂x
A pergunta que queremos responder é: quais as autofunções dos operadores T̂1 = x̂ e T̂2 = p̂?
24

1. Operador Posição

A Equação de Autovalor é:

T̂1 g(x) = λg(x) → xg(x) = λg(x). (61)

Ora, se λ é uma constante, devemos ter para todo x, exceto para x = λ: g(x) = 0 (reita um
pouco sobre isto). Em nossa digressão estudamos uma função com estas características,

9
ser nula para todo ponto exceto para um ponto. Portanto, temos :

gλ (x) = Bδ(x − λ), (62)

com B uma constante. Esta é a autofunção de T̂1 = x̂ para o autovalor λ.

2. Operador Momentum Linear

~ ∂
Agora estudaremos T̂2 = p̂ = i ∂x
. A Equação de Autovalor nos diz que:

T̂2 f (x) = µf (x) (63)

~ ∂
f (x) = µf (x) (64)
i ∂x
Portanto: (65)
 
iµx
fµ (x) = A exp . (66)
~

Na equação acima A é uma constante e note que µ tem unidade de momentum linear. A
 iµx 
função fµ (x) = A exp ~
é a autofunção do operador momentum linear p̂.


Os operadores T̂1 e T̂2 acima possuem espectro contínuo (seus autovalores). Mas as aut-

ofunções de T̂1 e T̂2 não pertencem ao espaço de Hilbert, pois não são quadrado integráveis.

Peço que vocês chequem esta informação:

hgλ | gλ i = ??? (67)

hfµ | fµ i = ??? (68)

9 Aqui também pedimos uma reexão, pois utilizaremos sem cerimônia a Delta de Dirac fora de integrais.

Mas os objetos importantes em MQ são os produtos internos, que por sua vez são integrais!
25

Porém, mesmo estas autofunções não sendo normalizáveis, as utilizamos normalmente pois

10
sabemos onde estamos pisando .

Agora, e se...? E se usássemos estas autofunções como base? Daí, qualquer vetor

pode ser escrito como combinação linear nesta especíca base:


Z
|f i = aλ |gλ i dλ ← Base posição (69)
Z
|f i = bµ |fµ i dµ ← Base momentum (70)

 iµx 
onde hx | gλ i = δ(x − λ) e hx | fµ i = √1 exp . Sabendo que (ver [8]):
2π ~
Z
fλ∗ fµ dx = δ(λ − µ) (71)
Z
gλ∗ gµ dx = δ(λ − µ), (72)

temos que:
Z
hgλ | f i = δ(x − λ)f (x)dx = f (λ) = aλ (73)
 
−iµx
Z
1
hfµ | f i = exp f (x)dx = F (µ) ← Transformada de Fourier de f (x)
2π ~
Z
hgµ | f i = aλ hgµ | gλ i dλ = bµ . (74)

Assim, aλ nos diz a componente de |f i na base de x̂. O termo bµ é a componente de |f i


na base de |pi.

XIII. POSTULADOS DA MECÂNICA QUÂNTICA

Retornamos agora aos Postulados da Mecânica Quântica. Explicitaremos todos os pos-

tulados, baseado em [4], e pedimos que a pessoa que lê já faça a ligação entre os estudos de

vetores e transformações lineares, tanto no discreto quanto no contínuo.

3. Os postulados

1. Num tempo xo t0 , o estado do sistema físico é dado/denido/determinado pelo ket

|ψ(t0 )i, que pertence ao espaço de Hilbert ε.

10 De fato, realizamos processos espertos de modulação das funções, conseguindo normalizá-las.


26

2. Toda quantidade física mensurável T̂ é descrita por um operdor linear Hermiteano em

ε. Chamamos este operador de observável.

3. Os possíveis resultados de uma medida do observável T̂ são seus autovalores.

4. 4.1 (Caso discreto não-degenerado) A probabilidade P (an ) de obtermos como re-

sultado o autovalor (não-degenerado


11
) an relacionado ao autovetor |φn i, ao se

observar T̂ num estado genérico |ψi, é dada por:

P (an ) = |hφn | ψi|2 (75)

Exemplo: Se T̂ |φn i = an |φn i, sabemos que qualquer vetor pode ser escrito como:
P (an ) = |hφn | ψi|2 = |cn |2 .
P
|ψi = n cn |φn i, então: hφn | ψi = cn e portanto:

4.2 (Caso discreto degenerado) A probabilidade P (an ) de obtermos como resultado o


autovalor an , com grau de degenerescência 12
gn , relacionado aos autovetores |φjn i,
ao se observar T̂ num estado genérico |ψi, é dada por:

gn
φn | ψ 2
X
j
P (an ) = (76)
j=1

4.3 (Caso contínuo) Quando uma quantidade Física T̂ é observada num estado nor-

malizado |ψi, a probabilidade dP (α) de obtermos o resultado entre α e α + dα


é:

dP (α) = |hvα | ψi|2 dα (77)

onde |vα i é o autovetor correspondente ao autovalor α de T̂ .

5. Se uma medida de uma quantidade Física T̂ é realizada num sistema que esteja no

estado |ψi, e obtemos o resultado an , o estado do sistema imediatamente após a medida


é a projeção normalizada:
Pˆn |ψi
|ψ 0 i = q (78)
hψ| Pˆn |ψi

Pˆn = gj=1 |φjn i hφjn |


Pn
onde é o projetor no subespaço correspondente a an .

11 Não-degenerado signica que os autovalores são todos diferentes entre si.


12 Grau de degenerescência: T̂ φj = a φj , j = 1, 2, 3 · · · , g .

n n n n
27

6. A evolução do sistema/estado |ψ(t)i é dada pela Equação de Schroedinger:

d
i~ |ψ(t)i = Ĥ |ψ(t)i (79)
dt
onde Ĥ é o operador Hamiltoniano, associado à energia total do sistema.

XIV. PRINCÍPIO DE INCERTEZA

Vamos tentar obter ou deduzir o Princípio de Incerteza, e reetir sobre o resultado.

Temos, para um operador  Hermiteano qualquer :


 D E2   D E2
σÂ2 =  −  = hψ|  −  |ψi (80)

h  D Ei h D E i
= hψ| Â − Â Â − Â |ψi (81)

= hf | f i (82)

 D E
onde denimos |f i = Â − Â |ψi.
O mesmo segue para um operador B̂ Hermiteano qualquer :

σB̂2 = hg | gi , (83)

 D E
com |gi = B̂ − B̂ |ψi.
Pela desigualdade de Schwarz:

σÂ2 σB̂2 = hf | f i hg | gi ≥ |hf | gi|2 . (84)

Note que hf | gi é um número complexo, e portanto:

2 
2 2 2 12 ∗2
|hf | gi| = |z| = < (z) + = (z) ≥ = (z) = (z − z ) , (85)
2i
onde <(z) é a parte real de z e =(z) a parte imaginária de z. Prosseguindo:

 2
1 2
|hf | gi| ≥ (hf | gi − hg | f i) (86)
2i
 2
2 2 1
=⇒ σ σB̂ ≥ (hf | gi − hg | f i) (87)
2i
D E D ED E D E D ED E
Mas: hf | gi = ÂB̂ − Â B̂ e hg | f i = B̂ Â − Â B̂ e portanto:

D E
hf | gi − hg | f i = [Â, B̂] , (88)
28

sendo [Â, B̂] = ÂB̂ − B̂  o comutador entre  e B̂ . Sendo assim:



1 D E 2
σÂ2 σB̂2 ≥ [Â, B̂] (89)
2i
Este é o Princípio de Incerteza de Heisenberg em sua forma mais geral. Note que os oper-

adores correspondem a observáveis Físicos, portanto são operadores Hermiteanos.


Exemplo: Sejam os operadores x̂ = x e p̂ = ~ ∂
i ∂x
. O comutador é (MOSTRE ESTE

RESULTADO): [x̂, p̂] = i~. Portanto:


2
~2

1
σx̂2 σp̂2 ≥ i~ = (90)
2i 4
~
σx̂ σp̂ ≥ . (91)
2
O que signica este resultado? Que, devido ao fato dos operadores não comutarem, ao

tentarmos realizar a observação de p̂ e x̂ existe um limiar de incerteza nestas observações,

~
dada por
2
. É possível medir x̂ com precisão innita, ou seja, σx̂ = 0? Sim, desde que

tenhamos precisão nula com relação ao observável p̂, isto é, σp̂ → ∞. O resultado σx̂ σp̂ ≥ ~
2

muitas vezes é escrito como:


~
∆x∆p ≥ (92)
2
Observação:
Sempre que dois operadores NÃO comutarem, isto é [Â, B̂] 6= 0, dizemos que eles são

observáveis não compatíveis, e não podemos encontrar autoestados simultâneos para os oper-

adores. Portanto não somos capazes (de maneira intrínseca da teoria) de realizar observações

simultâneas nestes observáveis com precisão absoluta.

Mas, se os operadores comutarem, isto é é [Â, B̂] = 0, os observáveis são ditos com-
patíveis e podemos realizar observações simultâneas com precisão absoluta nestes ob-

serváveis.

A. Princípio de Incerteza Energia-tempo

O princípio de incerteza abaixo é bem conhecido:

~
∆E∆t ≥ . (93)
2
Mas note que, na equação acima, E é a Energia do sistema, que é associada ao Operador

Hamiltoniano. Mas t é o tempo, que não é associado a operador algum. E então, a equação
29

acima é equivalente ao princípio de incerteza para x̂ e p̂? É equivalente a medir Energia e

tempo? Apesar da semelhança, o princípio de incerteza acima é completamente diferente

de ∆x∆p ≥ ~/2. Por exemplo, ∆t na Equação (93) não é o resultado da medida de tempo,

mas sim o tempo necessário para que o sistema mude sua energia de uma quantidade ∆E .
Vamos tentar seguir a seguinte tática: seja um observável T̂ . Quão rápido o valor esperado

de T̂ varia no tempo? Temos:

d D E d
T̂ = hψ| T̂ |ψi
dt dt
∂ ∂ T̂ ∂
= h ψ|T̂ |ψi + hψ| |ψi + hψ| T̂ | ψi (94)
∂t ∂t ∂t
Usando agora a Equação de Schroedinger:

∂ ∂ Ĥ
i~ |ψi = Ĥ |ψi =⇒ |ψi = −i |ψi (95)
∂t ∂t ~
Temos:
 
d D E Ĥ ∂ Ĥ
T̂ = hi ψ|T̂ |ψi + T̂ + hψ| T̂ | − i ψi
dt ~ ∂t ~
 
d D E i D E ∂
T̂ = [Ĥ, T̂ ] + T̂ . (96)
dt ~ ∂t
Analisando esta equação:

∂ T̂
• Se T̂ não depende do tempo explicitamente:
∂t
= 0, então:
d D E iD E
T̂ = [Ĥ, T̂ ] (97)
dt ~

• Se T̂ não depende do tempo, e também comutar com Ĥ , isto é, se: [Ĥ, T̂ ] = 0, então

o observável T̂ é uma constante do movimento:

d D E
T̂ = 0 (98)
dt

Agora voltando ao princípio de incerteza geral (Equação (89)) e chamando  = Ĥ e

B̂ = T̂ , e assumindo que T̂ não depende explicitamente do tempo. Então:



1 D E2  1 ~ d D E2
2 2
σĤ σT̂ ≥ [Ĥ, T̂ ] = T̂
2i 2i i dt
2
~2 d D E

2 2
=⇒ σĤ σT̂ ≥ T̂
4 dt
~d D E
=⇒ σĤ σT̂ ≥ T̂ . (99)
2 dt
30

Se chamarmos ∆E = σĤ e:
D E
σT̂ d
∆t = D E → σT̂ = T̂ ∆t (100)
dtd T̂ dt

Temos o seguinte resultado:


~
∆E∆t ≥ (101)
2
D E
Note que: ∆t é a quantidade de tempo que T̂ mda de um desvio padrão. Sendo assim,

∆t depende de qual observável T̂ estamos tratando.

De fato, podemos entender a Eq. (101) como o intervalo de tempo necessário para que o

sistema mude sua energia de uma quantidade ∆E .




Exercício IMPORTANTE [POSTULADOS DA MECÂNICA QUÂNTICA]




Sejam os seguintes operadores, escritos na base {|φ1 i , |φ2 i , |φ3 i}:


     
1 0 0 1 0 i 1 0 i
     
Ĥ = 0 2 0 ; Â =  0 1 1 ; B̂ =  0 1 0 . (102)
     
     
0 0 1 −i 1 1 −i 0 1

Também considere o seguinte estado inicial:


" √ #
2
|ψ(0)i = N |φ1 i + i |φ2 i + |φ3 i . (103)
2

Observação1: Considere Ĥ como o operador Hamiltoniano do sistema. Todos os op-

eradores e estados estão escritos em unidades arbitrárias, portanto considere apenas os

números.

Observação2: Para simplicar notação e também posteriormente, você pode usar: |h1 i =
|φ1 i ; |h2 i = |φ2 i ; |h3 i = |φ3 i.

(a) Normalize |ψ(0)i.

(b) Encontre os autovalores e autovetores normalizados (escritos na base {|φ1 i , |φ2 i , |φ3 i})
de Ĥ, Â, B̂ .
31

(c) É possível realizar observações simultâneas dos operadores Ĥ e Â? Explique.

(d) É possível realizar observações simultâneas dos operadores Ĥ e B̂ ? Explique.

(e) Considerando os autovalores e autovetores normalizados encontrados no item (b)


(abaixo coloco apenas uma nomenclatura para indicar na questão):

Ĥ |h1 i = h1 |h1 i ; Ĥ |h2 i = h2 |h2 i ; Ĥ |h3 i = h3 |h3 i (104)

 |a1 i = a1 |a1 i ;  |a2 i = a2 |a2 i ;  |a3 i = a3 |a3 i (105)

B̂ |b1 i = b1 |b1 i ; B̂ |b2 i = b2 |b2 i ; B̂ |b3 i = b3 |b3 i . (106)

Para simplicar notação e também posteriormente, use: |h1 i = |φ1 i ; |h2 i =


|φ2 i ; |h3 i = |φ3 i.

 DICA: Tente escrever os vetores |a1 i , |a2 i , |a3 i , |b1 i , |b2 i , |b3 i em função de

|ψ1 i , |ψ2 i , |ψ3 i.

(i) Indique quem são explicitamente cada autovalor e cada autovetor normalizado

encontrado na letra (b) de acordo com a nomenclatura da letra (e).

DICA: Este item (i) é apenas para INDICAR os autovetores e autovalores com
a nomenclatura:
 |a1 i , |a2 i , |a3 i, etc. Por exemplo: autovalor h1 = 1, autovetor

1
 
|h1 i = |φ1 i = 0. Isso pode facilitar para os demais itens.
 
 
0
(ii) No estado ψ(0), qual a probabilidade de encontramos os autovalores h1 , h2 e h3 ,
numa medida de Ĥ ?

(iii) No estado ψ(0), qual a probabilidade de encontramos os autovalores a1 , a2 e a3 ,


numa medida de Â?

(iv) No estado ψ(0), qual a probabilidade de encontramos os autovalores b1 , b2 e b3 ,


numa medida de B̂ ?

(f ) Suponha uma medida de  em |ψ(0)i em que se obtêm o autovalor a1 . Qual o estado

imediatamente após a medida? Se agora realiza-se uma medida de Ĥ , quais os possíveis


resultados dessa medida?
32

(g) Suponha uma medida de  em |ψ(0)i em que se obtêm o autovalor a1 . Qual o estado

imediatamente após a medida? Quais os possíveis resultados de uma medida de B̂ ?

(h) Qual o estado evoluído à partir de Ĥ ? Este estado é estacionário?

XV. REFERÊNCIAS

[1] BALLENTINE, Leslie E. Quantum mechanics: a modern development. World Scientic Pub-
lishing Company, 1998.
[2] FUCHS, Christopher A. QBism, the perimeter of quantum Bayesianism. arXiv preprint
arXiv:1003.5209, 2010.
[3] EVERETT, Hugh; BARRETT, Jerey A. The Everett interpretation of quantum mechanics:
Collected works 1955-1980 with commentary. Princeton University Press, 2012.
[4] COHEN-TANNOUDJI, Claude et al. Quantum Mechanics (2 vol. set). 2006.
[5] AMARAL, B., BARAVIERA, A. T., TERRA CUNHA, M. O. Mecânica Quântica para

Matemáticos em Formação . IMPA, 2011. Disponível em: https://impa.br/wp-content/


uploads/2017/04/28CBM_12.pdf
[6] NIELSEN, Michael A.; CHUANG, Isaac. Quantum computation and quantum information.
2002.
[7] DIRAC, Paul Adrien Maurice. The principles of quantum mechanics. Oxford university press,
1981.
[8] ARFKEN, George B.; WEBER, Hans J. Mathematical methods for physicists. 1999.

Você também pode gostar