Você está na página 1de 47

Ferramentas Matemáticas da Mecânica Quântica

Quantum Mechanics  Concepts and Applications, cap. 3


Nouredini Zetilli

15 de novembro de 2011

1 Introdução
Lidamos aqui com o maquinário matemático necessário ao estudo da mecânica quântica.
Embora este capítulo seja de escopo matemático, nenhuma tentativa de ser matematicamente
completo e rigoroso é feita. Nos limitamos àquelas questões práticas que são relevantes ao
formalismo da mecânica quântica.
A equação de Schrödinger é uma das pedras angulares da teoria da mecânica quântica;
ela tem a estrutura de uma equação linear. O formalismo da mecânica quântica lida com
operadores que são lineares e funções de onda que pertencem a um espaço abstrato de Hilbert.
As propriedades matemáticas e a estrutura dos espaços de Hilbert são essenciais para uma
devida compreensão do formalismo da mecânica quântica. Por isso, revisaremos brevemente
as propriedades dos espaços de Hilbert e desses operadores lineares. Depois consideraremos a
notação bra-ket de Dirac.
A mecânica quântica foi formulada de dois modos diferentes por Schrödinger e Heisenberg.
A mecânica ondulatória de Schrödinger e a mecânica matricial de Heisenberg são as represen-
tações do formalismo geral da mecânica quântica em sistemas de bases contínuas e discretas,
respectivamente. Por isso, também examinaremos a matemática envolvida na representação
de kets, bras, bra-kets e operadores em bases discretas e contínuas.

2 O Espaço de Hilbert e as Funções de Onda


2.1 O Espaço Vetorial Linear
Um espaço vetorial linear consiste de dois conjuntos de elementos e duas regras algébricas:

• um conjunto de vetores ψ , ϕ, χ, . . . , e um conjunto de escalares a, b, c;

• uma regra para a adição vetorial e uma regra para a multiplicação escalar.

(a) Regra da Adição: a regra da adição tem as propriedades e a estrutura de um grupo


abeliano:

• Se ψ e ϕ são vetores (elementos) de um espaço, sua soma, ψ + ϕ, é também um vetor


do mesmo espaço.

• Comutatividade : ψ + ϕ = ϕ + ψ .

• Associatividade : (ψ + ϕ) + χ = ψ + (ϕ + χ).

1
• Elemento neutro (ou vetor nulo) : para cada vetor ψ , deve existir um vetor O, do mesmo
espaço, tal que: O + ψ = ψ + O = ψ .

• Elemento simétrico (ou vetor inverso) : para cada vetor ψ , deve existir um vetor simétrico
(−ψ), do mesmo espaço, tal que: ψ + (−ψ) = (−ψ) + ψ = O.
(b) Regra da Multiplicação: a multiplicação de vetores por escalares
1 tem as seguintes

propriedades:

• O produto de um escalar por um vetor dá um outro vetor. Em geral, se ψ e ϕ são dois


vetores do espaço, qualquer combinação linear aψ + bϕ é também um vetor do espaço,
sendo a e b escalares.

• Distributividade com relação à adição :

a (ψ + ϕ) = aψ + aϕ , (a + b) ψ = aψ + bψ . (1)

• Associatividade com relação à multiplicação de escalares :

a (bψ) = (ab) ψ . (2)

• Para cada elemento ψ deve existir um escalar unitário I e um escalar nulo  o, tais que:

Iψ = ψI = ψ e oψ = ψo = o . (3)

2.2 O Espaço de Hilbert


Um espaço de Hilbert H consiste de um conjunto de vetores ψ , ϕ, χ, . . . , e um conjunto
de escalares a, b, c, os quais satisfazem às seguintes quatro propriedades:

(a) H é um espaço linear.


As propriedades de um espaço linear foram consideradas na seção anterior.

(b) H tem um produto escalar denido que é estritamente positivo.


O produto escalar de um elemento ψ por outro elemento ϕ é, em geral, um número
complexo, denotado por (ψ, ϕ) = número complexo . Nota: cuidado com a
(ψ, ϕ), onde
ordem! Como o produto escalar é um número complexo, a quantidade (ψ, ϕ) geralmente
∗ ∗
não é igual a (ϕ, ψ): (ψ, ϕ) = ψ ϕ, enquanto que (ϕ, ψ) = ϕ ψ . O produto escalar
satisfaz às seguintes propriedades:

 O produto escalar de ψ e ϕ é igual ao complexo conjugado do produto escalar de


ϕ e ψ:
(ψ, ϕ) = (ϕ, ψ)∗ . (4)

 O produto escalar de ψ e ϕ é linear com relação ao segundo fator se ϕ = aϕ2 + bϕ2 :

(ψ, aϕ2 + bϕ2 ) = a (ψ, ϕ1 ) + b (ψ, ϕ2 ) , (5)

e anti-linear com relação ao primeiro fator se ψ = aψ2 + bψ2 :

(aψ1 + bψ2 , ϕ) = a∗ (ψ1 , ϕ) + b∗ (ψ2 , ϕ) . (6)

1
Escalares podem ser números reais ou complexos

2
 O produto escalar de um vetor ψ por ele mesmo é um número real positivo:

(ψ, ψ) = ∥ψ∥2 ≥ 0 , (7)

onde a igualdade vale apenas para ψ = O.


(c) H é separável.
Existe uma sequência de Cauchy ψn ∈ H (n = 1, 2, . . .) tal que para cada ψ de H e ε > 0,
existe pelo menos um ψn da sequência para o qual

∥ψ − ψn ∥ < ε . (8)

(d) H é completo.
Toda sequência de Cauchy ψn ∈ H converge para um elemento de H. Isto é, para
qualquer ψn , a relação
lim ∥ψn − ψm ∥ = 0 (9)
n,m→∞

dene um único elemento ψ de H tal que

lim ∥ψ − ψn ∥ = 0 . (10)
n→∞

Nota: Deve-se perceber que em um produto escalar (ψ, ϕ), o segundo fator, ϕ, pertence ao
espaço de Hilbert H, enquanto o primeiro fator, ψ , pertence a seu espaço dual de Hilbert Hd .
A distinção entre H e Hd é devida ao fato de que, como mencionado acima, o produto escalar
não é comutativo: (ψ, ϕ) ̸= (ϕ, ψ); a ordem importa! Da álgebra linear, sabemos que todo
espaço vetorial pode ser associado com um espaço vetorial dual.

2.3 Dimensão e Base de um Espaço Vetorial


Um conjunto de N vetores não-nulos ϕ1 , ϕ2 , ..., ϕN é dito ser linearmente independente
(LI) se, e somente se, a solução da equação


N
ai ϕi = 0 (11)
i=1

é a1 = a2 = . . . = aN = 0. Mas se existir um conjunto de escalares, nem todos nulos, tal que


um dos vetores (digamos, ϕn ) possa ser expresso como uma combinação linear dos outros,


n−1 ∑
N
ϕn = ai ϕi + ai ϕi , (12)
i=1 i=n+1

então o conjunto {ϕi } é dito ser linearmente dependente (LD).

Dimensão: A dimensão de um espaço vetorial é dada pelo número máximo de vetores LI


que o espaço pode ter. Por exemplo, se o número máximo de vetores LI que um espaço tem
é N (isto é, ϕ1 , ϕ2 , . . . , ϕN ), esse espaço é dito ser N -dimensional. Nesse espaço vetorial
N -dimensional, qualquer vetor ψ pode ser expresso como uma combinação linear:

N
ψ= ai ϕi . (13)
i=1

3
Base: A base de um espaço vetorial consiste de um conjunto contendo o máximo número
possível de vetores LI pertencentes àquele espaço. O conjunto de vetores ϕ1 , ϕ2 , ..., ϕN , de-
notado abreviadamente por {ϕi }, é chamado de base do espaço vetorial, enquanto os vetores
ϕ1 , ϕ2 , ..., ϕN são chamados de vetores da base. Embora o conjunto desses vetores LI seja
arbitrário, é conveniente escolhê-lhos como sendo ortonormais, isto é, com produto escalar
satisfazendo à relação (ϕj , ϕj ) = δij , onde δij = 1 se i = j , e δij = 0 se i ̸= j . A base é dita
ser ortonormal se consistir de um conjunto de vetores ortonormais. Além disso, a base é dita
ser completa se gera o espaço inteiro, isto é, se não há necessidade de se introduzir qualquer
vetor de base adicional. Os coecientes ai na expansão (13) são chamados de componentes do
vetor ψ com relação à base. Cada componente é dada pelo produto escalar de ψ pelo vetor
de base correspondente ,
2 aj = (ϕj , ψ).

Exemplos de espaços vetoriais lineares: Vamos dar dois exemplos de espaços lineares
que são espaços de Hilbert: um tendo um conjunto nito (discreto ) de vetores de base, o outro
tendo uma base innita (contínua ).

• Espaço vetorial Euclideano tridimensional: a base deste espaço consiste de três


vetores LI, geralmente denotados por i, j e k. Qualquer vetor do espaço Euclideano pode
ser escrito em termos dos vetores da base como A = a1 i + a2 j + a3 k, onde a1 , a2 e a3 são
os componentes de A nessa base, e cada componente pode ser determinada tomando-se
o produto escalar de A pelo vetor de base correspondente: a1 = i · A, a2 = j · A e
a3 = k · A. Note-se que o produto escalar no espaço Euclideano é real e, portanto,
simétrico. A norma nesse espaço é o comprimento usual de vetores: ∥A∥ = A. Note-se
também que sempre que a1 i + a2 j + a3 k = 0, temos a1 = a2 = a3 = 0, e nenhum dos
vetores unitários i, j, k pode ser expresso como combinação linear dos outros dois.

• Espaço vetorial das funções complexas inteiras ψ(x): a dimensão desse espaço é
innita, pois ele tem um número innito de vetores de base LI.

2.4 Funções Quadrado-Integráveis: Funções de Onda


No caso de espaços de funções, um vetor é dado por uma função complexa e o produto
escalar é dado por integrais. Ou seja, o produto escalar de duas funções ψ(x) e ϕ(x) é dado
por ∫
(ψ, ϕ) = ψ ∗ (x) ϕ(x) dx . (14)

Se essa integral diverge, o produto escalar não existe. Resulta que se quisermos que o espaço
de funções tenha um produto escalar, devemos selecionar apenas aquelas funções para as quais
(ψ, ϕ) seja nito. Em particular, uma função ψ(x) é dita ser quadrado-integrável se o produto
escalar de ψ consigo mesma, ∫
(ψ, ψ) = |ψ(x)|2 dx , (15)

for nito.
2
( )

N ∑
n ∑
n
(ϕj , ψ) = ϕj , ai ϕi = ai (ϕj , ϕi ) = ai δij = aj .
i=1 i=1 i=1

4
É fácil vericar que o espaço das funções quadrado-integráveis possui as propriedades de um
espaço de Hilbert. Por exemplo, qualquer combinação linear de funções quadrado-integráveis
é também uma função quadrado-integrável e (14) satisfaz a todas as propriedades do produto
escalar de um espaço de Hilbert.
Note que a dimensão do espaço de Hilbert das funções quadrado-integráveis é innito, já
que cada função de onda pode ser expandida em termos de um número innito de funções LI.
A dimensão de um espaço é dada pelo número máximo de vetores de base LI necessários para
gerar aquele espaço.
Um bom exemplo de função quadrado-integrável é a função de onda da mecânica quân-
tica, denotada por ψ(r, t). De acordo com a interpretação probabilística de ψ(r, t), dada por
2 3
Max Born, a quantidade |ψ(r, t)| d r representa a probabilidade de encontrar, no tempo t, a
partícula em
3
um volume d r , centrado no ponto r. A probabilidade de encontrar a partícula
em algum lugar do espaço deve ser igual a 1:

∫ ∫ +∞ ∫ +∞ ∫ +∞
2
|ψ(r, t)| d r =
3
|ψ(r, t)|2 dx dy dz = 1 . (16)
−∞ −∞ −∞

Portanto, as funções de onda da mecânica quântica são quadrado-integráveis. Funções de


onda que satisfazem a (16)

3 Notação de Dirac
O estado físico de um sistema é representado na mecânica quântica por elementos de um
espaço de Hilbert; esses elementos são chamados de vetores de estado. Podemos representar
os vetores de estado em diferentes bases por meio de expansões de funções. Isto é análogo a
especicar um vetor ordinário (Euclideano) por suas componentes em vários sistemas de coor-
denadas. Por exemplo, podemos representar equivalentemente um vetor por suas componentes
num sistema de coordenadas cartesianas, num sistema de coordenadas esféricas, ou num sis-
tema de coordenadas cilíndricas. O signicado de um vetor, obviamente, é independente do
sistema de coordenadas escolhido para representar suas componentes. Similarmente, o estado
de um sistema microscópico tem um signicado independente da base na qual é expandido.
Dirac introduziu uma notação para vetores de estado extremamente valiosa na mecânica
quântica; ela permite manipular o formalismo da mecânica quântica com facilidade e clareza.
Ele introduziu os conceitos de bras, kets e bra-kets, que serão explicados abaixo.

Kets: elementos de um espaço vetorial


Dirac denotou o vetor de estado ψ pelo símbolo |ψ⟩, que denominou de um vetor ket, ou, sim-
plesmente, um ket. Os kets pertencem ao espaço (vetorial) de Hilbert H, ou, abreviadamente,
ao espaço ket.

Bras: elementos de um espaço dual


Como mencionado anteriormente, sabemos da álgebra linear que um espaço dual pode ser
associado a cada espaço vetorial. Dirac denotou os elementos de um espaço dual pelo símbolo
⟨ bra, ou simplesmente bra. Por exemplo, o elemento ⟨ψ| re-
|, que ele denominou de vetor
presenta um bra. Para cada ket |ψ⟩ existe um único bra ⟨ψ| e vice-versa. Enquanto os kets
pertencem ao espaço de Hilbert H, os correspondentes bras pertencem a seu espaço dual de

5
Hilbert Hd .

Bra-ket: notação de Dirac para o produto escalar


Dirac denotou o produto escalar (ou interno) pelo símbolo ⟨|⟩, que é chamado de bra-ket. Por
exemplo, o produto escalar (ϕ, ψ) é denotado pelo bra-ket ⟨ϕ|ψ⟩:

(ϕ, ψ) → ⟨ϕ|ψ⟩ . (17)

Nota: Quando um ket (bra) é multiplicado por um número complexo, também obtemos um
ket (bra).

Na mecânica quântica lidamos com funções de onda ψ(r, t), mas no formalismo mais geral
da mecânica quântica lidamos com kets abstratos |ψ⟩. Funções de onda, assim como kets, são
elementos de um espaço de Hilbert. Deve-se notar que, assim como uma função de onda, um
ket representa completamente o sistema, e portanto conhecer |ψ⟩ signica conhecer todas as
suas amplitudes em todas as possíveis representações. Como foi dito, kets são independentes de
qualquer representação particular. Não há razão para particularizar uma base de representação
tal como se faz no espaço de posição. Obviamente, se quisermos saber a probabilidade de
encontrar a partícula em alguma posição no espaço, precisamos desenvolver o formalismo
dentro da representação de coordenadas. O vetor de estado dessa partícula no tempo t será
dado pela função de onda espacial ⟨r, t|ψ⟩ = ψ(r, t). Na representação de coordenadas, o
produto escalar ⟨ϕ|ψ⟩ é dado por

⟨ϕ|ψ⟩ = ϕ∗ (r, t) ψ(r, t) d3 r . (18)

Similarmente, se estivermos considerando o momento tridimensional de uma partícula, o ket


|ψ⟩ terá que ser expresso no espaço de momento. Nesse caso, o estado da partícula será des-
crito por uma função de onda ψ(p, t), onde p é o momento da partícula.

Propriedades de kets, bras e bra-kets


• Todo ket tem um bra correspondente
A cada ket |ψ⟩ corresponde um único bra ⟨ψ| e vice-versa:

|ψ⟩ ←→ ⟨ψ| . (19)

Existe uma correspondência um-a-um entre bras e kets:

a|ψ⟩ + b|ϕ⟩ ←→ a∗ ⟨ψ| + b∗ ⟨ϕ| , (20)

onde a e b são números complexos. A notação a seguir é bastante comum:

|aψ⟩ = a|ψ⟩ , ⟨aψ| = a∗ ⟨ψ| . (21)

• Propriedades do produto escalar


Como na mecânica quântica o produto escalar é um número complexo, a ordem importa
muito. Devemos distinguir com cuidado um produto escalar de seu complexo conjugado;
⟨ψ|ϕ⟩ não é a mesma coisa que ⟨ϕ|ψ⟩:

⟨ϕ|ψ⟩∗ = ⟨ψ|ϕ⟩ . (22)

6
Esta propriedade se torna clara se a aplicarmos em (14):

(∫ )∗ ∫
∗ ∗
⟨ϕ|ψ⟩ = ϕ (r, t) ψ(r, t) d r 3
= ψ ∗ (r, t) ϕ(r, t) d3 r = ⟨ψ|ϕ⟩ . (23)

Se |ψ⟩ e |ϕ⟩ fossem reais, teríamos ⟨ψ|ϕ⟩ = ⟨ϕ|ψ⟩. Vamos listar agora algumas proprie-
dades adicionais do produto escalar:

⟨ϕ|a1 ψ1 + a2 ψ2 ⟩ = a1 ⟨ϕ|ψ1 ⟩ + a2 ⟨ϕ|ψ2 ⟩ , (24)

⟨a1 ϕ1 + a2 ϕ2 |ψ⟩ = a∗1 ⟨ϕ1 |ψ⟩ + a∗2 ⟨ϕ2 |ψ⟩ , (25)

⟨a1 ϕ1 + a2 ϕ2 |b1 ψ1 + b2 ψ2 ⟩ = a∗1 b1 ⟨ϕ1 |ψ1 ⟩ + a∗1 b2 ⟨ϕ1 |ψ2 ⟩


+ a∗2 b1 ⟨ϕ2 |ψ1 ⟩ + a∗2 b2 ⟨ϕ2 |ψ2 ⟩ . (26)

• A norma é real e positiva


Para qualquer vetor de estado |ψ⟩ do espaço de Hilbert H, a norma é real e positiva;
⟨ψ|ψ⟩ é igual a zero apenas quando |ψ⟩ = O, onde O é o vetor nulo. Se o estado |ψ⟩ é
normalizado, então ⟨ψ|ψ⟩ = 1.

• Desigualdade de Schwarz
Para quaisquer dois estados |ψ⟩ e |ϕ⟩ do espaço de Hilbert, pode-se mostrar que

|⟨ψ|ϕ⟩|2 ≤ ⟨ψ|ψ⟩⟨ϕ|ϕ⟩ . (27)

Se |ψ⟩ e |ϕ⟩ forem linearmente dependentes (isto é, proporcionais: |ψ⟩ = α|ϕ⟩, onde α
é um escalar), essa relação se torna uma igualdade. A desigualdade de Schwarz (27) é
análoga à seguinte relação do espaço real Euclideano:

|A · B|2 ≤ |A|2 |B|2 . (28)

• Desigualdade triangular
√ √ √
⟨ψ + ϕ|ψ + ϕ⟩ ≤ ⟨ψ|ψ⟩ + ⟨ϕ|ϕ⟩ . (29)

Se |ψ⟩ e |ϕ⟩ forem linearmente dependentes (isto é, proporcionais: |ψ⟩ = α|ϕ⟩, onde α
é um escalar), a desigualdade triangular se torna uma igualdade. Sua contrapartida é a
seguinte desigualdade no espaço real Euclideano: |A + A| ≤ |B| + |B|.

• Estados ortogonais
Dois kets |ψ⟩ e |ϕ⟩ são ditos ortogonais se seu produto escalar é nulo:

⟨ψ|ϕ⟩ = 0 . (30)

• Estados ortonormais
Dois kets |ψ⟩ e |ϕ⟩ são ditos ortonormais se forem ortogonais e cada um tiver norma
unitária:
⟨ψ|ϕ⟩ = 0 , ⟨ψ|ψ⟩ = 1 , ⟨ϕ|ϕ⟩ = 1 . (31)

7
• Quantidades proibidas
Se |ψ⟩ e |ϕ⟩ pertencem ao mesmo espaço vetorial (de Hilbert), produtos do tipo |ψ⟩|ϕ⟩
e ⟨ψ|⟨ϕ| são proibidos. Eles não fazem sentido, pois |ψ⟩|ϕ⟩ e ⟨ψ|⟨ϕ| não são bras nem
kets. Contudo se |ψ⟩ e |ϕ⟩ pertencem a espaços vetoriais diferentes (por exemplo, |ψ⟩
pertence a um espaço de spin e |ϕ⟩ pertence a um espaço de momento angular orbital),
então seu produto |ψ⟩|ϕ⟩, escrito como |ψ⟩ ⊗ |ϕ⟩, representa um produto tensorial de |ψ⟩
e |ϕ⟩. Apenas nesses casos típicos esses produtos tem signicado.

Signicado físico do produto escalar


O produto escalar pode ser interpretado de dois modos. Primeiro, por analogia com o produto
escalar de vetores comuns no espaço Euclideano, ondeA·B representa a projeção de B sobre A,
o produto ⟨ϕ|ψ⟩ |ψ⟩ sobre |ϕ⟩. Segundo, no caso de estados
também representa a projeção de
normalizados e de acordo com a interpretação probabilística de Max Born, a quantidade ⟨ϕ|ψ⟩
representa a amplitude da probabilidade que o estado |ψ⟩ do sistema terá, após uma medição
ser feita no sistema, seja outro estado |ϕ⟩.

4 Operadores
4.1 Denições Gerais
Denição de um operador: Um operador
3 Â é uma regra matemática que, aplicada a um

ket |ψ⟩, o transforma em outro ket |ψ ⟩ do mesmo espaço, e quando age sobre um bra ⟨ϕ|, o

transforma em outro bra ⟨ϕ |

Â|ψ⟩ = |ψ ′ ⟩ , ⟨ϕ|Â = ⟨ϕ′ | . (32)

Uma denição semelhante aplica-se a funções de onda:

Âψ(r) = ψ ′ (r) , ϕ(r)Â = ϕ′ (r) . (33)

Exemplos de operadores
• Operador unidade: deixa qualquer ket inalterado, ˆ
I|ψ⟩ = |ψ⟩.
∂ψ(r) ∂ψ(r) ∂ψ(r)
• Operador gradiente: ∇ψ(r) = i+ j+ k.
∂x ∂y ∂z
• Operador momento linear: Pψ(r) = −i~∇ψ(r).
∂ 2 ψ(r) ∂ 2 ψ(r) ∂ 2 ψ(r)
• Operador Laplaciano: ∇2 ψ(r) = + + .
∂x2 ∂y 2 ∂z 2

• Operador de paridade: P̂ψ(r) = ψ(−r).

Produtos de operadores
O produto de dois operadores é, em geral, não comutativo:

ÂB̂ ̸= B̂ Â . (34)

3
O símbolo ˆ é usado para distingui um operador  de um número complexo ou de uma matriz A.

8
Entretanto, o produto de operadores é associativo:

( ) ( )
ÂB̂ Ĉ = Â B̂ Ĉ = ÂB̂ Ĉ . (35)

Podemos também escrever Ân Âm = Ân+m . Quando o produto ÂB̂ opera sobre um ket |ψ⟩ (a
ordem é importante!), o operador B̂ atua primeiro sobre o ket |ψ⟩ e então o operador  atua
sobre o novo ket (B̂|ψ⟩): ( )
ÂB̂|ψ⟩ = Â B̂|ψ⟩ . (36)

Da mesma forma, quando ÂB̂ Ĉ D̂ opera sobre um ket |ψ⟩, o operador D̂ atua primeiro, depois
Ĉ , em seguida B̂ e, por m, atua o operador Â.
Quando um operador  é imprensado entre um bra ⟨ϕ| e um ket |ψ⟩, resulta em geral
um número complexo. A quantidade ⟨ψ|Â|ϕ⟩ pode também ser um número puramente real
ou puramente imaginário.
Nota: ao avaliar ⟨ψ|Â|ϕ⟩, não importa se o operador  age primeiro no ket ou primeiro no
bra; isto é: (⟨ϕ|Â)|ψ⟩ = ⟨ϕ|(Â|ψ⟩).

Operadores lineares
Um operador  é dito linear se obedecer à lei distributiva e se comutar com constantes (como
qualquer operador). Ou seja, um operador  é linear se, para quaisquer vetores |ψ1 ⟩ e |ψ2 ⟩, e
para quaisquer números complexos a1 e a2 , tivermos:

 (a1 |ψ1 ⟩ + a2 |ψ2 ⟩) = a1 Â|ψ1 ⟩ + a2 Â|ψ2 ⟩ , (37)

e
(⟨ψ1 |a1 + ⟨ψ2 |a2 ) Â = a1 ⟨ψ1 |Â + a2 ⟨ψ2 |Â . (38)

Observações:
• O valor esperado ⟨Â⟩ de um operador  com relação a um estado |ψ⟩ é denido por

⟨ψ|Â|ψ⟩
⟨Â⟩ = . (39)
⟨ψ|ψ⟩

• A quantidade |ϕ⟩⟨ψ| (ou seja, o produto de um ket com um bra) é um operador linear
na notação de Dirac. Quando |ϕ⟩⟨ψ| é aplicado a um ket |ψ ′ ⟩, obtemos outro ket:

|ϕ⟩⟨ψ|ψ ′ ⟩ = ⟨ψ|ψ ′ ⟩|ϕ⟩ , (40)

já que ⟨ψ|ψ ′ ⟩ é um número complexo.

• Produtos do tipo |ψ⟩Â e Â⟨ψ| são proibidos. Eles não são operadores, kets ou bras, e
não tem nenhum signicado matemático ou físico.

9
4.2 Adjunto Hermitiano
O adjunto Hermitiano ou conjugado ,
4 α† , de um número complexo α é o complexo conju-
gado desse número: α
† = α∗ . O adjunto Hermitiano, ou simplesmente o adjunto, † , de um
operador  é denido por essa relação:

⟨ψ|† |ϕ⟩ = ⟨ϕ|Â|ψ⟩∗ . (41)

Propriedades da regra do conjugado Hermitiano


Para obter o adjunto Hermitiano de qualquer expressão, deve-se reverter ciclicamente a ordem
dos fatores e fazer três substituições:

• Substituir constantes por seus complexos conjugados: α† = α∗ .

• Substituir kets (bras) pelos correspondentes bras (kets): (|ψ⟩)† = ⟨ψ| e (⟨ψ|)† = |ψ⟩.

• Substituir operadores por seus adjuntos.

Seguindo essas regras, podemos escrever:

( )†
†
= Â , (42)
( )†
a = a∗ † , (43)

( )† ( )n
Ân = † , (44)

( )†
 + B̂ + Ĉ + D̂ = † + B̂ † + Ĉ † + D̂† , (45)

( )†
ÂB̂ Ĉ D̂ = D̂† Ĉ † B̂ † † , (46)

( )†
ÂB̂ Ĉ D̂|ψ⟩ = ⟨ψ|D̂† Ĉ † B̂ † † . (47)

O adjunto Hermitiano do operador |ψ⟩⟨ϕ| é dado por

(|ψ⟩⟨ϕ|)† = |ϕ⟩⟨ψ| . (48)

Operadores atuam dentro de kets e bras, respectivamente, da seguinte maneira:

|αÂψ⟩ = αÂ|ψ⟩ , ⟨αÂψ| = α∗ ⟨ψ|† . (49)

Note-se também que ⟨α† ψ| = α∗ ⟨ψ|(† )† = α∗ ⟨ψ|Â. Portanto, podemos também escrever:

⟨ψ|Â|ϕ⟩ = ⟨† ψ|ϕ⟩ = ⟨ψ|Âϕ⟩ . (50)

Operadores Hermitianos e anti-Hermitianos


Um operador  é dito ser Hermitiano se for igual ao seu adjunto † :

 = † ou ⟨ψ|Â|ϕ⟩ = ⟨ϕ|Â|ψ⟩∗ (51)

4
Os termos adjunto e conjugado são usados indiscriminadamente.

10
Por outro lado, um operador B̂ é dito ser anti-Hermitiano se

B̂ = −B̂ † ou ⟨ψ|B̂|ϕ⟩ = −⟨ϕ|B̂|ψ⟩∗ (52)

Nota: O adjunto Hermitiano de um operador não é, em geral, igual ao seu complexo conju-
gado: † ̸= Â∗ .
De (51) podemos inferir que o valor esperado de um operador Hermitiano é um número
real, pois satisfaz à seguinte propriedade:

⟨ψ|Â|ψ⟩ = ⟨ψ|† |ψ⟩∗ = ⟨ψ|Â|ψ⟩∗ . (53)

E de (52), o valor esperado de um operador anti-Hermitiano é

⟨ψ|B̂|ψ⟩ = −⟨ψ|B̂ † |ψ⟩∗ = −⟨ψ|B̂|ψ⟩∗ , (54)

o que signica que seu valor esperado é um número puramente imaginário.

4.3 Operadores de Projeção


Um operador P̂ é dito ser um operador de projeção se for Hermitiano e igual ao seu próprio
quadrado:
P̂ † = P̂ , P̂ 2 = P̂ . (55)

O operador unidade Iˆ é um exemplo simples de operador de projeção, já que Iˆ


† = Iˆ e Iˆ2 = Iˆ.

Propriedades dos operadores de projeção


• O produto de dois operadores de projeção que comutam, P̂1 e P̂2 , é também um operador
de projeção, já que
( )†
P̂1 P̂2 = P̂2† P̂1† = P̂2 P̂1 = P̂1 P̂2 (56)

e ( )2
P̂1 P̂2 = P̂1 P̂2 P̂1 P̂2 = P̂1 P̂1 P̂2 P̂2 = P̂12 P̂22 = P̂1 P̂2 . (57)

• A soma de dois operadores de projeção geralmente não é um operador de projeção.

• Dois operadores de projeção são ortogonais se seu produto é zero.

• Para que uma soma de operadores de projeção P̂1 + P̂2 + P̂3 + . . . seja um operador de
projeção, é necessário e suciente que esses operadores sejam mutuamente ortogonais
(ou seja, os termos com produtos cruzados devem se anular).

Vamos mostrar que |ψ⟩⟨ψ| é um operador de projeção apenas quando |ψ⟩ for normalizado.
É imediato vericar que |ψ⟩⟨ψ| é Hermitiano:

(|ψ⟩⟨ψ|)† = |ψ⟩⟨ψ| .

Veriquemos agora seu quadrado:

(|ψ⟩⟨ψ|)2 = (|ψ⟩⟨ψ|) (|ψ⟩⟨ψ|) = |ψ⟩⟨ψ|ψ⟩⟨ψ| .

Se |ψ⟩for normalizado, então ⟨ψ|ψ⟩ = 1 e concluímos que (|ψ⟩⟨ψ|)2 = |ψ⟩⟨ψ|, ou seja, se o


estado |ψ⟩ é normalizado, o produto |ψ⟩⟨ψ| é um operador de projeção.

11
4.4 Álgebra de Comutadores
O comutador de dois operadores  e B̂ , denotado por [Â, B̂], é denido como

[Â, B̂] = ÂB̂ − B̂ Â (58)

e o anticomutador é denido como

{Â, B̂} = ÂB̂ + B̂ Â (59)

Dois operadores comutam se seu comutador for igual a zero, o que leva a ÂB̂ = B̂ Â. Qualquer
operador comuta com ele mesmo:
[Â, Â] = 0 . (60)

Note que se dois operadores forem Hermitianos,

( )†
ÂB̂ = B̂ † † = B̂  ,

e se seu produto for Hermitiano,


( )†
ÂB̂ = ÂB̂ ,

ou seja, e esses operadores comutam.


Como um exemplo, podemos mencionar os comutadores envolvendo a componente x do
operador posição, X̂ , e a componente x do operador momento, P̂x = −i~ ∂x , bem como as
componentes y e z:

[X̂, P̂x ] = i~ Iˆ , [Ŷ , P̂y ] = i~ Iˆ e [Ẑ, P̂z ] = i~ Iˆ , (61)

onde Iˆ é o operador unidade.

Propriedades dos operadores


Usando a relação (58), podemos estabelecer as seguintes propriedades:

• Anti-simetria:
[Â, B̂] = −[B̂, Â] . (62)

• Linearidade:

[Â, B̂ + Ĉ + D̂ + . . .] = [Â, B̂] + [Â, Ĉ] + [Â, D̂] + . . . . (63)

• Conjugado Hermitiano de um comutador:

[Â, B̂]† = [B̂ † , † ] . (64)

• Distributividade:

[Â, B̂ Ĉ] = [Â, B̂]Ĉ + B̂[Â, Ĉ] , (65)

[ÂB̂, Ĉ] = Â[B̂, Ĉ] + [Â, Ĉ]B̂ . (66)

12
• Identidade de Jacobi:

[Â, [B̂, Ĉ]] + [B̂, [Ĉ, Â]] + [Ĉ, [Â, B̂]] = 0 . (67)

• Por repetidas aplicações de (65), pode-se mostrar que


n−1
[Â, B̂ n ] = B̂ j [Â, B̂]B̂ n−j−1 , (68)
j=0


n−1
[Ân , B̂] = Ân−j−1 [Â, B̂]Âj . (69)
j=0

• Operadores comutam com qualquer escalar:

[Â, b ] = 0 . (70)

Uma importante propriedade dos operadores Hermitianos é que seu comutador é anti-Hermitiano,
o que pode ser facilmente provado:

( )†
[Â, B̂]† = ÂB̂ − B̂  = B̂ † † − † B̂ † = B̂  − ÂB̂ = −[Â, B̂] . (71)

4.5 Relações de Incerteza entre Dois Operadores


Uma aplicação interessante da álgebra de comutadores é na derivação de uma relação geral
que dá o produto das incertezas de dois operadores  e B̂ . Em particular, queremos dar uma
derivação formal das relações de incerteza de Heisenberg.
Sejam ⟨Â⟩ e ⟨B̂⟩ os valores esperados de dois operadores Hermitianos  e B̂ com relação
a um estado normalizado |ψ⟩: ⟨Â⟩ = ⟨ψ|Â|ψ⟩ e ⟨B̂⟩ = ⟨ψ|B̂|ψ⟩. Introduzindo os operadores

∆ =  − ⟨Â⟩ e ∆B̂ = B̂ − ⟨B̂⟩ , (72)

5
temos ( )2 ( )2
∆ = Â2 − 2Â⟨Â⟩ + ⟨Â⟩2 e ∆B̂ = B̂ 2 − 2B̂⟨B̂⟩ + ⟨B̂⟩2 . (73)

Então,

⟨(∆Â)2 ⟩ = ⟨ψ|(∆Â)2 |ψ⟩

= ⟨ψ|Â2 |ψ⟩ − 2⟨ψ|Â⟨Â⟩|ψ⟩ + ⟨ψ|⟨Â⟩2 |ψ⟩

= ⟨Â2 ⟩ − 2⟨Â⟩⟨Â⟩ + ⟨Â⟩2

= ⟨Â2 ⟩ − ⟨Â⟩2 , (74)

e, semelhantemente,
⟨(∆B̂)2 ⟩ = ⟨B̂ 2 ⟩ − ⟨B̂⟩2 . (75)

5
O quadrado da primeira das equações (72) conterá a soma −Â⟨Â⟩ − ⟨Â⟩Â. Como ⟨Â⟩ é um número real,
[Â, ⟨Â⟩] = 0, pela propriedade (70), e temos que Â⟨Â⟩ = ⟨Â⟩Â. O mesmo pode ser dito com relação a (∆B̂)2 .

13
As incertezas ∆A e ∆B são denidas por

√ √ √ √
∆A = ⟨(∆Â)2 ⟩ = ⟨Â2 ⟩ − ⟨Â⟩2 e ∆B = ⟨(∆B̂)2 ⟩ = ⟨B̂ 2 ⟩ − ⟨B̂⟩2 (76)

Agora, vamos escrever a ação dos operadores (72) sobre um estado |ψ⟩ qualquer:

( ) ( )
|χ⟩ = ∆Â|ψ⟩ =  − ⟨Â⟩ |ψ⟩ , |ϕ⟩ = ∆B̂|ψ⟩ = B̂ − ⟨B̂⟩ |ψ⟩ . (77)

A desigualdade de Schwarz para os estados |χ⟩ e |ϕ⟩ é

⟨χ|χ⟩⟨ϕ|ϕ⟩ ≥ |⟨χ|ϕ⟩|2 . (78)

Como  e B̂ são Hermitianos, ∆ e ∆B̂ também devem ser; de fato,

( )†
∆† =  − ⟨Â⟩ = † − ⟨Â⟩ =  − ⟨Â⟩ = ∆ ,

e, da mesma forma, ∆B̂ † = B̂ − ⟨B̂⟩ = ∆B̂ . Agora,

⟨χ| = ⟨ψ|∆† = ⟨ψ|∆ e ⟨ϕ| = ⟨ψ|∆B̂ † = ⟨ψ|∆B̂ ,

de modo que

⟨χ|χ⟩ = ⟨ψ|(∆Â)2 |ψ⟩ , ⟨ϕ|ϕ⟩ = ⟨ψ|(∆B̂)2 |ψ⟩ e ⟨χ|ϕ⟩ = ⟨ψ|∆Â∆B̂|ψ⟩ . (79)

As equações (79) fornecem os valores esperados de (∆Â)2 , (∆B̂)2 e ∆Â∆B̂ . Assim, a desi-
gualdade de Schwarz (78) se torna

2

⟨(∆Â)2 ⟩⟨(∆B̂)2 ⟩ ≥ ⟨∆Â∆B̂⟩ . (80)

Para determinar o membro direito de (80), notemos primeiramente que

[∆Â, ∆B̂] = ∆Â∆B̂ − ∆B̂∆ e {∆Â, ∆B̂} = ∆Â∆B̂ + ∆B̂∆Â

nos dão
1 1
∆Â∆B̂ = [∆Â, ∆B̂] + {∆Â, ∆B̂} . (81)
2 2
Agora,

[∆Â, ∆B̂] = [ − ⟨Â⟩, B̂ − ⟨B̂⟩]


( )( ) ( )( )
= Â − ⟨Â⟩ B̂ − ⟨B̂⟩ − B̂ − ⟨B̂⟩ Â − ⟨Â⟩

= ÂB̂ − Â⟨B̂⟩ − ⟨Â⟩B̂ + ⟨Â⟩⟨B̂⟩ − B̂ Â + B̂⟨Â⟩ + ⟨B̂⟩Â − ⟨B̂⟩⟨Â⟩

= ÂB̂ − B̂ Â

= [Â, B̂] ,

14
de modo que podemos escrever (81) como

1 1
∆Â∆B̂ = [Â, B̂] + {∆Â, ∆B̂} . (82)
2 2

O anti-comutador {∆Â, ∆B̂} pode ser expresso como {Â, B̂} + 2⟨Â⟩⟨B̂⟩. O anti-comutador
{Â, B̂} é Hermitiano, já que

( )†
{Â, B̂}† = ÂB̂ + B̂  = B̂ † † + † B̂ † = B̂  + ÂB̂ .

Como [Â, B̂] é anti-Hermitiano, seu valor esperado é um número imaginário, enquanto que o
valor esperado de {Â, B̂} é real. Portanto, o valor esperado ⟨∆Â∆B̂⟩ de (82) se torna a soma
de uma parte real ⟨{∆Â, ∆B̂}⟩/2 e de uma parte imaginária ⟨[Â, B̂]⟩/2. Portanto,
2 1 2 1 2

⟨∆ Â∆ B̂⟩ = ⟨[Â, B̂]⟩ + ⟨{∆ Â, ∆ B̂}⟩ . (83)
4 4
Como o último termo do membro direito é um número real positivo, podemos inferir a seguinte
relação:
2 1 2

⟨∆Â∆B̂⟩ ≥ ⟨[Â, B̂]⟩ . (84)
4
Comparando as expressões (80) e (84), concluímos que

1 2

⟨(∆Â)2 ⟩⟨(∆B̂)2 ⟩ ≥ ⟨[Â, B̂]⟩ . (85)
4
Tirando a raiz quadrada de (85) e usando as denições de incerteza (76), chegamos a

1

∆A∆B ≥ ⟨[Â, B̂]⟩ (86)
2

Essa relação de incerteza desempenha um papel importante no formalismo da mecânica quân-


tica. Sua aplicação aos operadores posição e momento leva às relações de incerteza de Hei-
senberg, que representam um das pedras angulares da mecânica quântica.
Para derivar as relações de incerteza de Heisenberg, aplicamos (86) aos operadores denidos
em (61). Utilizando a primeira relação em (61), temos

1 1

1

1

1

∆x∆px ≥ ⟨[X̂, P̂ x
]⟩ = ⟨ψ|[X̂, P̂x ]|ψ⟩ = ⟨ψ|i~ ˆ
I|ψ⟩ = i~⟨ψ| ˆ
I|ψ⟩ = |i~| ,
2 2 2 2 2
ou
~
∆x∆px ≥ .
2
Expressões para as outras componentes são imediatas, e podemos escrever

~ ~ ~
∆x∆px ≥ , ∆y∆py ≥ , ∆z∆pz ≥ (87)
2 2 2

Essas são as relações de incerteza de Heisenberg.

15
4.6 Funções de Operadores
Seja F (Â) uma função de um operador Â. Se  é um operador linear, podemos expandir
F (Â) em uma série de Taylor de potências de Â:


F (Â) = an Ân , (88)
n=0

onde an é um coeciente da expansão. Como uma ilustração de uma função de um operador,

consideremos ea , onde a é um escalar complexo ou real. Podemos expandi-la assim:


∑ an a2 2 a3 3
ea =  = Iˆ + a +  +  + . . . . (89)
n! 2 3
n=0

Comutadores envolvendo funções de operadores


Se  comuta com outro operador B̂ , então B̂ comuta com qualquer função de operador que
dependa de Â:
[Â, B̂] = 0 =⇒ [B̂, F (Â)] = 0 . (90)

Em particular, F (Â) comuta com  e com qualquer outra função G(Â):

[Â, F (Â)] , [Ân , F (Â)] , [F (Â), G(Â)] . (91)

Adjuntos Hermitianos de funções de operadores


O adjunto de F (Â) é dado por
[F (Â)]† = F ∗ († ) . (92)

Note que se  for Hermitiano, F (Â) não será necessariamente Hermitiana, exceto se F for
uma função real (e, óbvio, se  for Hermitiano). Um exemplo é:

† † ∗ † ∗ Â
(e )† = e = e , (ei )† = e−i = e−i , (eiα )† = e−iα = e−iα ,

onde α é um número complexo. Assim, se  for Hermitiano, uma função de operador que
admita expansão em série de Taylor, como em (89), será Hermitiana apenas se os coecientes
an da expansão forem números reais. Mas em geral F (Â) não é Hermitiana mesmo se  for
Hermitiano, já que

∑ ( )n
F ∗ († ) = a∗n † . (93)
n=0

4.7 Operadores Inverso e Unitário


Inverso de um operador: Admitindo que exista , o inverso
6 Â−1 de um operador linear Â
é denido pela relação
Â−1 Â = ÂÂ−1 = Iˆ , (94)

onde Iˆ é o operador unidade (aquele que deixa inalterado qualquer estado |ψ⟩).
6
Nem todo operador possui inverso, assim como no caso das matrizes. A inversa de uma matriz existe
apenas quando seu determinante for zero.

16
Quociente de dois operadores: Dividir um operador  por outro operador B̂ (desde que
seu inverso B̂
−1 exista) é equivalente a multiplicar  por B̂ −1 :

= ÂB̂ −1 . (95)

O lado em que o quociente é tomado é importante:

 Iˆ  Iˆ
= Â = ÂB̂ −1 e = Â = B̂ −1 Â . (96)
B̂ B̂ B̂ B̂
Em geral, temos ÂB̂ −1 ̸= B̂ −1 Â. Podemos mencionar aqui as seguintes propriedades envol-
vendo a inversão de operadores:
( )−1 ( )−1 ( )n
ÂB̂ Ĉ D̂ = D̂−1 Ĉ −1 B̂ −1 Â−1 e Ân = Â−1 . (97)

Operadores unitários: Um operador linear Û é dito ser unitário se seu inverso Û −1 for

igual ao seu adjunto Û :

Û † = Û −1 ou Û Û † = Û Û −1 = Iˆ . (98)

O produto de dois operadores unitários Û e V̂ é também unitário, pois


( )( )† ( )( ) ( )
Û V̂ Û V̂ = Û V̂ V̂ † Û † = Û V̂ V̂ † Û † = Û Û † = Iˆ , (99)

ou (Û V̂ )† = (Û V̂ )−1 . Esse resultado pode ser generalizado para qualquer número de opera-
dores, e o produto de vários operadores unitários será também unitário, pois
( )( )†
ÂB̂ Ĉ D̂ . . . ÂB̂ Ĉ D̂ . . . = ÂB̂ Ĉ D̂ (. . .) D̂† Ĉ † B̂ † †
( )
= ÂB̂ Ĉ D̂D̂† Ĉ † B̂ † †
( )
= ÂB̂ Ĉ Ĉ † B̂ † †
( )
=  B̂ B̂ † † = † = Iˆ ,
ou
( )† ( )−1
ÂB̂ Ĉ D̂ . . . = ÂB̂ Ĉ D̂ . . . . (100)

4.8 Autovalores e Autovetores de um Operador


Um vetor de estado |ψ⟩ é dito ser um autovetor 7 de um operador  se a aplicação de  a
|ψ⟩ dá
Â|ψ⟩ = a|ψ⟩ , (101)

onde a é um número complexo, chamado de autovalor de Â. Essa equação é conhecida como
a equação de autovalor (ou o problema de autovalor ) do operador Â. Sua solução fornece
os autovalores e os autovetores de Â. Mais adiante, na Seção 5.3, veremos como resolver o
problema de autovalor numa base discreta.

7
Também chamado de autoket ou autoestado

17
Um exemplo simples é o problema de autovalor para o operador unidade Iˆ:
ˆ
I|ψ⟩ = |ψ⟩ . (102)

Isso signica que todos os vetores são autovetores de Iˆ, com autovalor 1. Note que

Â|ψ⟩ = a|ψ⟩ =⇒ Ân |ψ⟩ = an |ψ⟩ =⇒ F (Â)|ψ⟩ = F (a)|ψ⟩ . (103)

Por exemplo, temos

Â|ψ⟩ = a|ψ⟩ =⇒ ei |ψ⟩ = eia |ψ⟩ .


Dado o operador linear Â, se existir Â−1 , então os autovalores de Â−1 são os inversos dos
autovalores do operador Â. Para ver isso, notemos que Â
−1 Â = Iˆ, de modo que

Â−1 Â|ψ⟩ = I|ψ⟩


ˆ = |ψ⟩ . (104)

Por outro lado, ( )


Â−1 Â|ψ⟩ = Â−1 Â|ψ⟩ = Â−1 (a|ψ⟩) = aÂ−1 |ψ⟩ . (105)

Combinando (104) e (105), temos


aÂ−1 |ψ⟩ = |ψ⟩ ,
e portanto,
1
Â−1 |ψ⟩ = |ψ⟩ . (106)
a
Isso signica que |ψ⟩ também é autovetor de Â−1 , com autovalor 1/a. Logo, se Â−1 existe,
então
1
Â|ψ⟩ = a|ψ⟩ =⇒ Â−1 |ψ⟩ = |ψ⟩ (107)
a

Alguns teoremas úteis relacionados ao problema de autovalor


Teorema 1. Todos os autovalores de um operador Hermitiano são reais, e os autovetores
correspondentes a diferentes autovalores são ortogonais.
Se † =  , Â|ϕn ⟩ = an |ϕn ⟩ =⇒ an ∈ R e ⟨ϕm |ϕn ⟩ = δmn . (108)

Prova: Note que

Â|ϕn ⟩ = an |ϕn ⟩ =⇒ ⟨ϕm |Â|ϕn ⟩ = an ⟨ϕm |ϕn ⟩ (109)

e
⟨ϕm |† = a∗m ⟨ϕm | =⇒ ⟨ϕm |† |ϕn ⟩ = a∗m ⟨ϕm |ϕn ⟩ . (110)

Subtraindo (100) de (99) e usando o fato de que  é Hermitiano, temos:

⟨ϕm |Â|ϕn ⟩ − ⟨ϕm |† |ϕn ⟩ = an ⟨ϕm |ϕn ⟩ − a∗m ⟨ϕm |ϕn ⟩ ,

⟨ϕm | − † |ϕn ⟩ = (an − a∗m ) ⟨ϕm |ϕn ⟩ ,

ou
(an − a∗m ) ⟨ϕm |ϕn ⟩ = 0 .
Temos que considerar dois casos separadamente:

18
• Caso m = n: como ⟨ϕn |ϕn ⟩ > 0, devemos ter an = a∗n . Resulta que os autovalores devem
ser reais.

• Caso m ̸= n: como em geral an ̸= a∗m , devemos ter ⟨ϕn |ϕn ⟩ = 0. Resulta que |ϕm ⟩ e
|ϕn ⟩ devem ser ortogonais.

Teorema 2. Os autoestados de um operador Hermitiano denem um conjunto completo de


estados mutuamente ortonormais  uma autobase. O operador é diagonal nessa autobase, com
seus elementos diagonais iguais aos autovalores. Essa base é única se o operador não tiver
autovalores degenerados; caso contrário, há um número innito de autobases.

Teorema 3. Se dois operadores  e B̂ comutam, e se  não tem autovalor degenerado, então


cada autovetor de  é também um autovetor de B̂ . Além disso, pode-se construir uma base
comum ortonormal formada pelos autovetores de  e de B̂ .

Teorema 4. Os autovalores de um operador anti-Hermitiano são puramente imaginários ou


nulos.

Teorema 5. Os autovalores de um operador unitário são números complexos de módulo igual


a um. Os autovetores de um operador unitário que não tenham autovalores degenerados são
mutuamente ortogonais.

Prova: Sejam |ϕn ⟩ e |ϕm ⟩ autovetores do operador unitário Û com autovalores am e an ,


respectivamente. Podemos escrever

( )( )
⟨ϕm |Û † Û |ϕn ⟩ = a∗m an ⟨ϕm |ϕn ⟩ ,

ou, dado que Û † Û = Iˆ,


( )( )
⟨ϕm |Û † Û |ϕn ⟩ = ⟨ϕm |Û † Û |ϕn ⟩ = ⟨ϕm |I|ϕ
ˆ n ⟩ = ⟨ϕm |ϕn ⟩ ,

de forma que
(a∗m an − 1) ⟨ϕm |ϕn ⟩ = 0 . (111)

Temos que analisar dois casos:

• Caso n = m: como ⟨ϕn |ϕn ⟩ > 0, então a∗n an = |an |2 = 1. Resulta que |an | = 1.

• Caso m ̸= n: a única possibilidade para esse caso é que ⟨ϕn |ϕn ⟩ = 0, e resulta que |ϕn ⟩
e |ϕn ⟩ são ortogonais.

4.9 Transformações Innitesimal e Unitária Finita


Queremos investigar aqui como quantidades tais como kets, bras, operadores e escalares se
transformam sob transformações unitárias. Uma transformação unitária consiste na aplicação
de um operador unitário Û a uma dessas quantidades.

19
4.9.1 Transformações Unitárias
Kets e bras se transformam do seguinte modo:

|ψ ′ ⟩ = Û |ψ⟩ , ⟨ψ ′ | = ⟨ψ|Û † . (112)

Vamos descobrir agora como operadores se transformam sob transformações unitárias. Como
a transformada de Â|ψ⟩ = |ϕ⟩ é Â′ |ψ ′ ⟩ = |ϕ′ ⟩, vamos usar (102) para escrever

Â′ Û |ψ⟩ = Û |ϕ⟩ = Û Â|ψ⟩ , (113)

o que leva a Â′ Û = Û Â. Lembrando que Û Û † = Û † Û = Iˆ, vamos multiplicar ambos os lados
de Â′ Û = Û Â por Û † . Temos:

Û † Â′ Û = Û † Û Â = IˆÂ =  ,

e
Û ÂÛ † = Â′ Û Û † = Â′ Iˆ = Â′ .

Resumindo, podemos escrever

|ψ ′ ⟩ = Û |ψ⟩ , ⟨ψ ′ | = ⟨ψ|Û † , Â′ = Û ÂÛ † (114)

|ψ⟩ = Û † |ψ ′ ⟩ , ⟨ψ| = ⟨ψ ′ |Û , Â = Û † Â′ Û (115)

Propriedades das transformações unitárias


• Se um operador  é Hermitiano, seu transformado Â′ também é Hermitiano, pois

( )† ( )†

Â′ = Û ÂÛ † = Û † † Û † = Û Â† Û † = Û ÂÛ † = Â′ . (116)

• Os autovalores de  e de seu transformado Â′ são os mesmos, ou seja,

Â|ψn ⟩ = an |ψn ⟩ =⇒ Â′ |ψn′ ⟩ = an |ψn′ ⟩ . (117)

A demonstração é simples:
( )( ) ( ) ( )
Â′ |ψn′ ⟩ = Û ÂÛ † Û |ψn ⟩ = Û Â Û † Û |ψn ⟩ = Û Â|ψn ⟩ = an Û |ψn ⟩ = |ψn′ ⟩ .

• Comutadores que são iguais a números (complexos) permanecem inalterados sob trans-
formações unitárias, ou seja, dado a∈C

[Â, B̂] = a =⇒ [Â′ , B̂ ′ ] = a = [Â, B̂] . (118)

Usando (115), temos:


( )( ) ( )( )
[Â′ , B̂ ′ ] = [Û ÂÛ † , Û B̂ Û † ] = Û ÂÛ † Û B̂ Û † − Û B̂ Û † Û ÂÛ †
( ) ( )
= Û ÂB̂ Û † − Û B̂ Â Û † = Û [Â, B̂]Û † = Û a Û † = a Û Û † = a = [Â, B̂] .

20
• Valem as seguintes relações gerais:

 = β B̂ + γ Ĉ =⇒ Â′ = β B̂ ′ + γ Ĉ ′ , (119)

 = αB̂ Ĉ D̂ =⇒ Â′ = αB̂ ′ Ĉ ′ D̂′ , (120)

onde Â′ , B̂ ′ , Ĉ ′ e D̂′ são as transformadas de Â′ , B̂ , Ĉ e D̂.

• Como o resultado (118) é válido para qualquer número complexo, podemos armar
que números complexos tais como ⟨ψ|Â|χ⟩ permanecem inalterados sob transformações
unitárias, pois

⟨ψ ′ |Â′ |χ′ ⟩ = (⟨ψ|† )(Û ÂÛ † )(Û |χ⟩) = ⟨ψ|(Û † Û )Â(Û † Û )|χ⟩ = ⟨ψ|Â|χ⟩ . (121)

Tomando  = Iˆ, vemos que produtos escalares do tipo

⟨ψ ′ |χ′ ⟩ = ⟨ψ|χ⟩ (122)

são invariantes sob transformações unitárias. Especicamente, a norma de um vetor de


estado é conservada:
⟨ψ ′ |ψ ′ ⟩ = ⟨ψ|ψ⟩ . (123)

• Pode-se também vericar que (Û ÂÛ † )n = Û Ân Û † , pois

(Û ÂÛ † )n = (Û ÂÛ † )(Û ÂÛ † ) . . . (Û ÂÛ † )

= Û Â(Û † Û )Â(Û † Û ) . . . (Û † Û )ÂÛ † = Û (ÂÂ . . . Â)Û † = Û Ân Û † . (124)

• O resultado (124) pode ser generalizado para obter a transformação de qualquer função
de operador f (Â):
Û f (Â)Û † = f (Û ÂÛ † ) = f (Â′ ) . (125)

Mais geralmente, podemos escrever

Û f (Â, B̂, Ĉ, . . .)Û † = f (Û ÂÛ † , Û B̂ Û † , Û Ĉ Û † , . . .) = f (Â′ , B̂ ′ , Ĉ ′ , . . .) . (126)

Uma transformação unitária não altera a física de um sistema; ela meramente transforma
uma descrição do sistema em outra descrição sicamente equivalente. No que se segue, quere-
mos considerar dois tipos de transformações unitárias: as transformações innitesimais e as
transformações nitas.

4.9.2 Transformações Unitárias Innitesimais


Considere um operador Û que dependa de um parâmetro real ε innitesimalmente pequeno
e que desvie-se apenas ligeiramente do operador unidade Iˆ:

Ûε (Ĝ) = Iˆ + iεĜ , (127)

onde Ĝ é chamado de gerador da transformação innitesimal. Claramente, Ûε será uma trans-
formação unitária apenas quando o parâmetro ε for real (ε
∗ = ε) e quando Ĝ for Hermitiano
(Ĝ
† = Ĝ), pois
Ûε Ûε† = (Iˆ + iεĜ)(Iˆ − iεĜ† ) ≃ Iˆ + iε(Ĝ − Ĝ† ) = Iˆ , (128)

21
onde desprezamos o termos quadrático em ε.
A transformação de um vetor de estado |ψ⟩ é dada por

|ψ ′ ⟩ = (Iˆ + iεĜ)|ψ⟩ = |ψ⟩ + δ|ψ⟩ , (129)

onde
δ|ψ⟩ = iεĜ|ψ⟩ . (130)

A transformação de um operador  é dada por

Â′ = (Iˆ + iεĜ)Â(Iˆ − iεĜ) = (Iˆ + iεĜ)( − iεÂĜ) ≃  − iεÂĜ + iεÂĜ ,


ou

Â′ = (Iˆ + iεĜ)Â(Iˆ − iεĜ) ≃ Â + iε[Ĝ, Â] (131)

Se Ĝ comuta com Â, a transformação unitária deixará Â inalterado:

[Ĝ, Â] = 0 =⇒ Â′ = Â′ = (Iˆ + iεĜ)Â(Iˆ − iεĜ) = Â . (132)

4.9.3 Transformações Unitárias Finitas


Pode-se construir uma transformação unitária nita a partir de (127) executando uma
sucessão de transformações innitesimais de passos iguais a ε; a aplicação de uma série de
transformações unitárias sucessivas é equivalente à aplicação de uma única transformação
unitária. Sendo ε = α/N , onde N é um inteiro e α é um parâmetro nito, podemos aplicar a
mesma transformação unitária N vezes. No limite em que n → +∞, obtemos
N (
∏ α ) ( α )N
Ûα (Ĝ) = lim 1+i Ĝ = lim 1 + i Ĝ = eiαĜ , (133)
n→∞ N n→+∞ N
k=1

onde Ĝ é agora o gerador da transformação nita e α é seu parâmetro. A transformação Û


será unitária apenas quando o parâmetro α for real e Ĝ for Hermitiano, pois

−iαĜ†
(eiαĜ )† = e = e−iαĜ = (eiαĜ )−1 . (134)

É possível mostrar que a transformação Â′ de um operador  pode ser escrita como

(iα)2 (iα)3
eiαĜ e−iαĜ = Â + iα[Ĝ, Â] + [Ĝ, [Ĝ, Â]] + [Ĝ, [Ĝ, [Ĝ, Â]]] + . . . (135)
2! 3!
Se Ĝ comuta com Â, a transformação unitária deixará Â inalterado:

[Ĝ, Â] = 0 =⇒ Â′ = eiαĜ e−iαĜ = Â . (136)

Algumas das aplicações das transformações unitárias innitesimais são o estudo de translações
espaciais e temporais, rotações espaciais e leis de conservação.

5 Representação em Bases Discretas


Por analogia dos espaços vetoriais Euclideanos em termos de vetores de base, precisamos
expressar um ket |ψ⟩ do espaço de Hilbert em termos de um conjunto completo de kets de base
mutuamente ortogonais. Vetores de estados são então representados por suas componentes
nessa base.

22
5.1 Representação Matricial de Kets, Bras e Operadores
Considere uma base ortonormal discreta e completa composta por um conjunto innito de
kets |ϕ1 ⟩, |ϕ2 ⟩, |ϕ3 ⟩, . . . , e denote esse conjunto por {|ϕn ⟩}. Note que a base {|ϕn ⟩} é discreta
e ainda assim contém um número innito de vetores unitários. No limite n → ∞, o índice de
ordenação n dos vetores unitários |ϕn ⟩ é discreto ou contável ; isto é, a seqüência |ϕ1 ⟩, |ϕ2 ⟩,
|ϕ3 ⟩, . . . é contável innitamente. Como ilustração, considere as funções especiais, tais como
os polinômios de Hermite, Legendre ou Laguerre, Hn (x), Pn (x) e Ln (x), que são identicados
por um índice discreto n e por uma variável contínua x; embora n varie discretamente, ele
pode ser innito.
Nesta seção a notação {|ϕn ⟩} será usada para abreviar um conjunto innitamente contável
de vetores do espaço de Hilbert H. A condição de ortonormalidade dos kets da base é expressa
por
⟨ϕn |ϕm ⟩ = δnm , (137)

onde δnm é o delta de Kronecker, denido por


{
1, n=m
δnm = . (138)
̸ m
0, n=

A relação de completeza, ou fechamento, para essa base é dada por



|ϕn ⟩⟨ϕn | = Iˆ , (139)
n=1

onde Iˆ é o operador unidade; quando o operador unidade atua sobre qualquer ket, ele o deixa
inalterado.

5.1.1 Representação Matricial de Kets e Bras


Vamos agora examinar como representar o vetor |ψ⟩ dentro do contexto da base {|ϕn ⟩}.
A propriedade de completeza desta base nos permite expandir qualquer vetor de estado |ψ⟩
em termos dos kets |ϕn ⟩ da base:
( ∞
) ∞ ∞
∑ ∑ ∑
|ψ⟩ = I|ψ⟩
ˆ = |ϕn ⟩⟨ϕn | |ψ⟩ = (⟨ϕn |ψ⟩) |ϕn ⟩ = an |ϕn ⟩ , (140)
n=1 n=1 n=1

onde o coeciente an (= ⟨ϕn |ψ⟩) representa a projeção de |ψ⟩ na direção de |ϕn ⟩; an é o


componente de |ψ⟩ ao longo do vetor |ϕn ⟩. Lembre-se que os coeciente an são números
complexos. Assim, na base {|ϕn ⟩}, o ket |ψ⟩ é representado pelo conjunto de suas componentes
a1 , a2 , a3 , . . . ao longo dos vetores |ϕ1 ⟩, |ϕ2 ⟩, |ϕ3 ⟩, . . . , respectivamente. Logo, |ψ⟩ pode ser
representado por um vetor coluna que tem um número innitamente contável de componentes:
   
⟨ϕ1 |ψ⟩ a1
   
 ⟨ϕ2 |ψ⟩   a2 
   
 ..   .. 
|ψ⟩ →  . 
  
= .  . (141)
   
⟨ϕn |ψ⟩ an 
   
. .
. .
. .

23
O bra ⟨ψ| pode ser representado por um vetor linha :
( )
⟨ψ| → ⟨ψ|ϕ1 ⟩ ⟨ψ|ϕ2 ⟩ . . . ⟨ψ|ϕn ⟩ . . .
( )
= ⟨ϕ1 |ψ⟩∗ ⟨ϕ2 |ψ⟩∗ . . . ⟨ϕn |ψ⟩∗ . . .
( )
= a∗1 a∗2 . . . a∗n . . . . (142)

Usando essa representação, podemos ver que o bra-ket ⟨ψ|ϕ⟩ é um número complexo igual ao
produto da matriz linha correspondente ao bra ⟨ψ| pela matriz coluna correspondente ao ket
|ϕ⟩:  
a1
 
 a2 
  ∞
( )  ..  ∑
⟨ψ|ϕ⟩ = a∗1 a∗2 . . . a∗n ...  .  = a∗n bn , (143)
  n=1
an 
 
.
.
.

onde bn = ⟨ϕn |ϕ⟩. Nessa representação, as matrizes que representam |ψ⟩ e ⟨ψ| são adjuntas
Hermitianas uma da outra.

Nota: Um ket |ψ⟩ é normalizado se



⟨ψ|ψ⟩ = |an |2 = 1 .
n

Se |ψ⟩ não estiver normalizado e quisermos normaliza-lo, precisamos simplesmente multiplica-


2
lo por uma constante α tal que ⟨αψ|αψ⟩ = |α| ⟨ψ|ψ⟩ = 1, e assim

1
α= √ .
⟨ψ|ψ⟩

5.1.2 Representação Matricial de Operadores


Para cada operador linear Â, podemos escrever
( ∞
) ( ∞
)
∑ ∑ ∑
 = IˆÂIˆ = |ϕn ⟩⟨ϕn |  |ϕm ⟩⟨ϕm | = Anm |ϕn ⟩⟨ϕm | , (144)
n=1 m=1 nm

onde Anm é o elemento de matriz nm do operador Â:

Anm = ⟨ϕn |Â|ϕm ⟩ . (145)

Vemos que o operador  é representado, na base {|ϕn ⟩}, por uma matriz quadrada A, que
tem números innitamente contáveis de linhas e colunas:
 
A11 A12 A13 . . .
A 
 21 A22 A23 . . .

A = A  . (146)

 31 A32 A33 . . .
. . . ..
. . . .
. . .

24
Por exemplo, o operador unidade Iˆ é representado por uma matriz identidade; quando uma
matriz identidade é multiplicada por outra matriz, esta última permanece inalterada:
 
1 0 0 ...
0 1 0 . . .
 
I= 
0 0 1 . . . . (147)
 
. . . ..
. . . .
. . .

Em resumo, kets são representados por vetores coluna, bras são representados por vetores linha
e operadores são representados por matrizes quadradas.

5.1.3 Representação Matricial de Alguns Outros Operadores


(a) Operação adjunta Hermitiana
Vamos mostrar agora a representação matricial da operação de adjunta Hermitiana de um
operador. Primeiro, lembre-se que a transposta de uma matriz A, denotada por AT , é obtida
trocando-se linhas por colunas:
 T  
A11 A12 A13 . . . A11 A21 A31 . . .
A  A 
( )  21 A22 A23 . . .  12 A22 A32 . . .
AT = Amn    
nm
ou
A31 A32 A33 . . . = A13 A23 A33 . . . . (148)
   
. . . .. . . . ..
. . . . . . . .
. . . . . .

Similarmente, a transposta de uma matriz coluna é uma matriz linha e vice-versa:


 T  
a1 a1
   
 a2   a2 
   
 ..  ( ) ( )T  .. 
 .  = a1 a2 . . . an . . . a1 a2 . . . an ... =  
  e
. . (149)
   
an  an 
   
. .
. .
. .

Uma matriz quadrada A é simétrica se ela for igual à sua transposta: AT = A. Uma
matriz anti-simétrica é uma matriz quadrada cuja transposta é igual ao negativo da matriz:
AT = −A.
O complexo conjugado de uma matriz é obtido simplesmente tomando-se o complexo conju-
∗ ∗
gado de todos os seus elementos: (A )nm = (Anm ) .

A matriz que representa o operador  é obtida tomando-se o complexo conjugado da
matriz transposta de A:
( )∗ ( )
A† = AT ou † = ⟨ϕn |† |ϕm ⟩ = ⟨ϕm |Â|ϕn ⟩∗ = A∗nm . (150)
nm
Ou seja,
 †  ∗ 
A11 A12 A13 . . . A11 A∗21 A∗31 . . .
A  A∗ A∗ A∗ . . .
 21 A22 A23 . . .  
  =  12 22 32
 . (151)
A31 A32 A33 . . . A13 A23 A33 . . .
∗ ∗ ∗
   
. . . .. . . . ..
. . . . . . . .
. . . . . .

25
Se um operador  é Hermitiano, sua matriz satisfaz a essa condição:

( )∗
AT =A ou A∗mn = Anm . (152)

Os elementos diagonais de uma matriz Hermitiana devem, portanto, ser números reais. Note
que uma matriz Hermitiana deve ser quadrada.

(b) Operadores Inverso e Unitário


Uma matriz possui inversa apenas se for quadrada e se seu determinante for não-nulo. Uma
matriz que possui inversa é chamada de não-singular e uma matriz que possui inversa é uma
matriz singular. Os elementos A−1
nm da matriz inversa A−1 , que representa um operador Â−1 ,
são dados pela relação

cofator de Amn BT
A−1
nm = ou A−1
nm = , (153)
determinante de A determinante de A
onde B é a matriz dos cofatores. (−1)m+n vezes o
O cofator do elemento Amn é igual a
determinante da submatriz obtida de A pela supressão da m-ésima linha e da n-ésima coluna.
Note que quando o determinante da matriz representando um operador tem determinante
nulo, o operador não possui um inverso.
O inverso do produto de matrizes é obtido do seguinte modo:

(ABC . . . P Q)−1 = Q−1 P −1 . . . C −1 B −1 A−1 . (154)

( )−1
A inversa da inversa de uma matriz é igual à própria matriz: A−1 = A.
Um operador unitário Û é representado por uma matriz unitária. Uma matriz U é unitária
se sua inversa é igual à sua adjunta:

U −1 = U † ou U †U = I , (155)

onde I é a matriz identidade.

(c) Representação matricial de |ψ⟩⟨ψ|


Agora é fácil ver que o produto |ψ⟩⟨ψ| é de fato um operador, pois sua representação na base
{|ϕn ⟩} é uma matriz quadrada:

   ∗ 
a1 a1 a1 a1 a∗2 a1 a∗3 . . .
a   ∗ ∗ ∗ 
 2 ( ∗ ∗ ∗ ) a2 a a2 a2 a2 a3 . . .
|ψ⟩⟨ψ| =   a a a . . . =  ∗1  . (156)
a3  1 2 3 a3 a1 a3 a∗2 a3 a∗3 . . .
   
. . . . ..
. . . . .
. . . .

(d) Traço de um operador


O traço Tr(Â) de um operador  é dado, em uma base ortonormal {|ϕn ⟩}, pela expressão

∑ ∑
Tr(Â) = ⟨ϕn |Â|ϕn ⟩ = Ann . (157)
n n

26
Veremos mais tarde que o traço de um operador não depende da base. O traço de uma matriz
é igual à soma dos elementos de sua diagonal principal, ou seja,
 
A11 A12 A13 . . .
A 
 21 A22 A23 . . .
Tr  
A31 A32 A33 . . . = A11 + A22 + A33 + . . . . (158)
 
. . . ..
. . . .
. . .

Dado um operador Â, valem as seguintes propriedades:

Tr(† ) = (Tr(Â))∗ (159)

e
Tr(α + β B̂ + γ Ĉ + . . .) = α Tr(Â) + β Tr(B̂) + γ Tr(Ĉ) + . . . . (160)

Uma propriedade fácil de demonstrar é que Tr(ÂB̂) = Tr(B̂ Â). De fato,



Tr(ÂB̂) = ⟨ϕn |ÂB̂|ϕn ⟩
n
( )
∑ ∑
= ⟨ϕn |Â |ϕm ⟩⟨ϕm | B̂|ϕn ⟩
n m

= ⟨ϕn |Â|ϕm ⟩⟨ϕm |B̂|ϕn ⟩
nm

= Anm Bmn
nm

= Bmn Anm
nm

= ⟨ϕm |B̂|ϕn ⟩⟨ϕn |Â|ϕm ⟩
nm
( )
∑ ∑ ∑
= ⟨ϕm |B̂ |ϕn ⟩⟨ϕn | Â|ϕm ⟩ = ⟨ϕm |B̂ Â|ϕm ⟩ = Tr(B̂ Â) . (161)
m n m

Em vista do resultado (161), pode-se mostrar que o traço de um comutador é nulo:

Tr([Â, B̂]) = Tr(ÂB̂) − Tr(B̂ Â) = 0 . (162)

Além disso, o traço de um produto de operadores é invariante sob permutações cíclicas desses
operadores:

Tr(ÂB̂ Ĉ D̂Ê) = Tr(Ê ÂB̂ Ĉ D̂) = Tr(D̂Ê ÂB̂ Ĉ) = Tr(Ĉ D̂Ê ÂB̂) = . . . . (163)

5.1.4 Representação Matricial de Várias Outras Quantidades


(a) Representação matricial de |ϕ⟩ = Â|ψ⟩
A relação |ϕ⟩ = Â|ψ⟩ pode ser posta na forma algébricaˆ = IˆÂI|ψ⟩
I|ϕ⟩ ˆ , ou
( ) ( ) ( )
∑ ∑ ∑
|ϕn ⟩⟨ϕn | |ϕ⟩ = |ϕn ⟩⟨ϕn | Â |ϕm ⟩⟨ϕm | |ψ⟩ ,
n n m

27
que por sua vez pode ser escrita como
∑ ∑( )
(⟨ϕn |ϕ⟩) |ϕn ⟩ = ⟨ϕn |Â|ϕm ⟩ (⟨ϕm |ψ⟩) |ϕn ⟩ ,
n nm
ou ∑ ∑
bn |ϕn ⟩ = Anm am |ϕn ⟩ , (164)
n nm

onde bn = ⟨ϕn |ϕ⟩, Anm = ⟨ϕn |Â|ϕm ⟩ e am = ⟨ϕm |ψ⟩. Portanto, é fácil ver que (164) fornece

bn = Anm am (165)
nm

e temos que a representação matricial de |ϕ⟩ = Â|ψ⟩ é dada por

    
b1 A11 A12 A13 . . . a1
b  A   
 2   21 A22 A23 . . . a2 
 =   . (166)
b3  A31 A32 A33 . . . a3 
    
. . . . .. .
. . . . . .
. . . . .

(b) Representação matricial de ⟨ϕ|Â|ψ⟩


Nesse caso, temos
( ) ( )
∑ ∑
⟨ϕ|Â|ψ⟩ = ⟨ϕ|IˆÂI|ψ⟩
ˆ = ⟨ϕ| |ϕn ⟩⟨ϕn | Â |ϕm ⟩⟨ϕm | |ψ⟩
n m
∑ ( )
= (⟨ϕ|ϕn ⟩) ⟨ϕn |Â|ϕm ⟩ (⟨ϕm |ψ⟩)
nm
∑ ( ) ∑
= (⟨ϕn |ϕ⟩∗ ) ⟨ϕn |Â|ϕm ⟩ (⟨ϕm |ψ⟩) = b∗n Anm am . (167)
nm nm

Temos aqui um número complexo, e sua representação matricial é a seguinte:


  
A11 A12 A13 . . . a1
A   
( )  21 A22 A23 . . . a2 
⟨ϕ|Â|ψ⟩ → b∗1 b∗2 b∗3 
. . . A    . (168)
 
 31 A32 A33 . . . a3 
. . . .. .
. . . . .
. . . .

Nota: Agora ca bem fácil ver porque produtos do tipo |ψ⟩|ϕ⟩, ⟨ψ|⟨ϕ|, Â⟨ψ| ou |ψ⟩Â são
proibidos. Eles não fazem sentido, pois não podem ter representações matriciais. Por exemplo,
|ψ⟩|ϕ⟩ seria representado pelo produto de duas matrizes coluna:

 
⟨ϕ1 |ψ⟩ ⟨ϕ1 |ϕ⟩
⟨ϕ |ψ⟩ ⟨ϕ |ϕ⟩
 2  2 
|ψ⟩|ϕ⟩ →  
⟨ϕ3 |ψ⟩ ⟨ϕ3 |ϕ⟩
 (169)
  
. .
. .
. .

28
Esse produto é impossível de ser executado, pois o produto de duas matrizes é possível apenas
quando o número de colunas da primeira for igual ao número de linhas da segunda; em (169),
a primeira matriz tem uma única coluna e a segunda matriz tem um número innito de linhas.

5.1.5 Propriedades de uma Matriz A


• Real se A = A∗ ou Amn = A∗mn

• Imaginária se A = −A∗ ou Amn = −A∗mn

• Simétrica se A = AT ou Amn = Anm

• Anti-simétrica se A = −AT ou Amn = −Anm com Amm = 0

• Hermitiana se A = A† ou Amn = A∗nm

• Anti-Hermitiana se A = −A†
Amn = −A∗nmou
( )
• Ortogonal se AT = A−1 ou AAT = I ou AAT mn = δmn
( )
• Unitária se A† = A−1 ou AA† = I ou AA† mn = δmn

5.2 Mudança de Base e Transformações Unitárias


Em um espaço Euclidiano, um vetor A pode ser representado por suas componentes em
diferentes sistemas de coordenadas ou em diferentes bases. A transformação de uma base
para outra é chamada de mudança de base. As componentes de A em uma dada base podem
ser expressas em termos das componentes de A em outra base por meio de uma matriz de
transformação.
Similarmente, vetores de estado e operadores da mecânica quântica podem também ser
representados em bases diferentes. Nesta seção vamos estudar como transformar de uma base
para outra. Isto é, conhecendo os componentes de bras, kets e operadores em uma base {|ϕn ⟩},

como se determina os componentes correspondentes em uma base {|ϕn ⟩} diferente? Admitindo

que {|ϕn ⟩} e {|ϕn ⟩} sejam duas bases diferentes, podemos expandir cada ket |ϕn ⟩ da antiga

base em termos da nova base {|ϕn ⟩} como

( )
∑ ∑
|ϕn ⟩ = |ϕ′m ⟩⟨ϕ′m | |ϕn ⟩ = Umn |ϕ′m ⟩ , (170)
m m

onde
Umn = ⟨ϕ′m |ϕn ⟩ . (171)

A matriz U, que dá a transformação da antiga base {|ϕn ⟩} para a nova base {|ϕ′n ⟩}, é dada
por
 ′ 
⟨ϕ1 |ϕ1 ⟩ ⟨ϕ′1 |ϕ2 ⟩ ⟨ϕ′1 |ϕ3 ⟩ . . .
⟨ϕ′ |ϕ ⟩ ⟨ϕ′ |ϕ ⟩ ⟨ϕ′ |ϕ ⟩ . . .
 2 1 2 2 2 3 
Umn = 
⟨ϕ′3 |ϕ1 ⟩ ⟨ϕ′3 |ϕ2 ⟩ ⟨ϕ′3 |ϕ3 ⟩ . . . . (172)
 
. . . ..
. . . .
. . .

29
A matriz U conecta duas bases completas e ortonormais {|ϕn ⟩} e {|ϕ′n ⟩} e é uma matriz
unitária. Para mostrar isso, devemos provar

que Û Û = Iˆ, o que se reduz a mostrar que
⟨ϕm |Û Û † |ϕn ⟩ = δmn . Procedemos da seguinte forma:

( )

⟨ϕm |Û Û † |ϕn ⟩ = ⟨ϕm |Û |ϕl ⟩⟨ϕl | Û † |ϕn ⟩
l

= ⟨ϕm |Û |ϕl ⟩⟨ϕl |Û † |ϕn ⟩
l
∑ ∑
= ⟨ϕm |Û |ϕl ⟩⟨ϕn |Û |ϕl ⟩∗ = ∗
Uml Unl . (173)
l l

Agora, de acordo com (171), Uml = ⟨ϕ′m |ϕl ⟩ e



Umn = ⟨ϕl |ϕ′n ⟩. Assim, podemos reescrever
(173) como
∑ ∑

Uml Unl = ⟨ϕ′m |ϕl ⟩⟨ϕl |ϕ′n ⟩ = ⟨ϕ′m |ϕ′n ⟩ = δmn . (174)
l l

Combinando (173) e (174), inferimos que ⟨ϕm |Û Û † |ϕn ⟩ = δmn , ou Û Û † = Iˆ, como queríamos
demonstrar.

5.2.1 Transformações de Kets, Bras e Operadores


As componentes ⟨ϕ′n |ψ⟩ |ψ⟩ em uma nova base {|ϕ′n ⟩} podem ser
de um vetor de estado
expressas em termos das componentes ⟨ϕn |ψ⟩ de |ψ⟩ em uma antiga base {|ϕn ⟩} da seguinte
forma: ( )
∑ ∑
⟨ϕ′n |ψ⟩ = ⟨ϕ′m |I|ψ⟩
ˆ = ⟨ϕ′m | |ϕn ⟩⟨ϕn | |ψ⟩ = Umn ⟨ϕn |ψ⟩ . (175)
n n

Essa relação, juntamente com sua complexa conjugada, podem ser generalizadas por

|ψnovo ⟩ = Û |ψvelho ⟩ , ⟨ψnovo | = ⟨ψvelho |Û † . (176)

Vamos examinar agora como os operadores se transformam quando passamos de uma base
para outra. Os elementos matriciais A′mn = ⟨ϕ′m |Â|ϕ′n ⟩ de um operador  na nova base podem
ser expressos em termos dos antigos elementos matriciais, Ajl = ⟨ϕj |Â|ϕl ⟩, do seguinte modo:

  ( )
∑ ∑
′ 
′ ′ ˆ ˆ ′
Amn = ⟨ϕm |I ÂI|ϕn ⟩ = ⟨ϕm | |ϕj ⟩⟨ϕj | Â |ϕl ⟩⟨ϕl | |ϕ′n ⟩
j l
∑∑ ∑
= ⟨ϕ′m |ϕj ⟩⟨ϕj |Â|ϕl ⟩⟨ϕl |ϕ′n ⟩ = ∗
Umj Ajl Unl , (177)
j l j,l

isto é,
Ânovo = Û Âvelho Û † . (178)

A relação inversa é obtida facilmente usando as propriedades de operadores unitários:

Û † Ânovo = Û † Û Âvelho Û † = IˆÂvelho Û † = Âvelho Û †

30
e
Û † Ânovo Û = Âvelho Û † Û = Âvelho Iˆ ,
ou
Âvelho = Û † Ânovo Û . (179)

Podemos resumir os resultados sobre mudança de base através das seguintes relações:

|ψnovo ⟩ = Û |ψvelho ⟩ , ⟨ψnovo | = ⟨ψvelho |Û † , Ânovo = Û Âvelho Û † (180)

ou

|ψvelho ⟩ = Û † |ψnovo ⟩ , ⟨ψvelho | = ⟨ψnovo |Û , Âvelho = Û † Ânovo Û (181)

Essas relações são similares às que foram derivadas no estudo das transformações unitárias;
veja (114) e (115).
Vamos agora mostrar que o operador


Û = |ϕ′n ⟩⟨ϕn | (182)
n

satisfaz às propriedades discutidas acima. Primeiro, note que Û é um operador unitário, pois

∑ ∑ ∑
Û Û † = |ϕ′n ⟩⟨ϕn |ϕl ⟩⟨ϕ′l | = |ϕ′n ⟩⟨ϕ′l |δnl = |ϕ′n ⟩⟨ϕ′n | = Iˆ . (183)
nl nl n

Em segundo lugar, a ação de Û sobre um ket da antiga base dá o ket correspondente da nova
base: ∑ ∑
Û |ϕm ⟩ = |ϕ′n ⟩⟨ϕn |ϕm ⟩ = |ϕ′n ⟩δnm = |ϕ′m ⟩ . (184)
n n

E também podemos vericar que a ação de Û † sobre um ket da nova base dá o ket correspon-
dente da antiga base:

∑ ∑
Û † |ϕ′m ⟩ = |ϕl ⟩⟨ϕ′l |ϕ′m ⟩ = |ϕl ⟩δlm = |ϕm ⟩ . (185)
l l

Como o traço se transforma sob transformações unitárias? Usando a propriedade cíclica


do traço, Tr(ÂB̂ Ĉ) = Tr(Ĉ ÂB̂) = Tr(B̂ Ĉ Â), podemos assegurar que

Tr(Â′ ) = Tr(Û ÂÛ † ) = Tr(Û † Û Â) = Tr(IˆÂ) = Tr(Â) . (186)

Lembrando da denição do traço, equação (157), temos que

∑ ∑
Tr(|ϕn ⟩⟨ϕm |) = ⟨ϕl |ϕn ⟩⟨ϕm |ϕl ⟩ = ⟨ϕm |ϕl ⟩⟨ϕl |ϕn ⟩
l l
( )

= ⟨ϕm | |ϕl ⟩⟨ϕl | |ϕn ⟩ = ⟨ϕm |ϕn ⟩ = δmn , (187)
l

e podemos inferir que


Tr(|ϕ′m ⟩⟨ϕn |) = ⟨ϕn |ϕ′m ⟩ . (188)

31
Vamos mostrar que o traço de um operador não depende da base em que ele é expresso.
Sejam:  um operador e {|ϕn ⟩}, {|ϕ′n ⟩} duas bases. O traço de  na base {|ϕn ⟩} é


Tr(Â) = ⟨ϕn |Â|ϕn ⟩ , (189)
n

e na base {|ϕ′n ⟩} é dado por



Tr(Â) = ⟨ϕ′n |Â|ϕ′n ⟩ . (190)
n

Começando de (189) e usando o fato da base {|ϕ′n ⟩} ser completa, temos

)(
∑ ∑ ∑
Tr(Â) = ⟨ϕn |Â|ϕn ⟩ = ⟨ϕn | |ϕ′m ⟩⟨ϕ′m | Â|ϕn ⟩
n n m
∑∑
= ⟨ϕn |ϕ′m ⟩⟨ϕ′m |Â|ϕn ⟩
n m
∑∑
= ⟨ϕ′m |Â|ϕn ⟩⟨ϕn |ϕ′m ⟩
m n
( )
∑ ∑ ∑
= ⟨ϕ′m |Â |ϕn ⟩⟨ϕn | |ϕ′m ⟩ = ⟨ϕ′m |Â|ϕ′m ⟩ ,
m n m

ou seja,
∑ ∑
Tr(Â) = ⟨ϕn |Â|ϕn ⟩ = ⟨ϕ′n |Â|ϕ′n ⟩ . (191)
n n

5.3 Representação Matricial do Problema de Autovalor


Aqui vamos apresentar a representação matricial do problema de autovalor (101) e vamos
resolvê-lo. Isto é, vamos encontrar os autovalores a e os autovetores |ψ⟩ de um operador Â,
tal que
Â|ψ⟩ = a|ψ⟩ , (192)

onde a é um número complexo. Inserindo o operador unidade entre  e |ψ⟩ e multiplicando


por ⟨ϕm |, temos
( )

⟨ϕm |ÂI|ψ⟩
ˆ = ⟨ϕm |Â |ϕn ⟩⟨ϕn | |ψ⟩
n
∑ ∑
= ⟨ϕm |Â|ϕn ⟩⟨ϕn |ψ⟩ = Amn ⟨ϕn |ψ⟩ . (193)
n n

Por outro lado,


( )

⟨ϕm |Ia|ψ⟩
ˆ = a⟨ϕm |I|ψ⟩
ˆ = a⟨ϕm | |ϕn ⟩⟨ϕn | |ψ⟩
n
∑ ∑
=a ⟨ϕm |ϕn ⟩⟨ϕn |ψ⟩ = aδmn ⟨ϕn |ψ⟩ . (194)
n n

32
Então,
∑ ∑
Amn ⟨ϕn |ψ⟩ = aδmn ⟨ϕn |ψ⟩ ,
n n

que pode ser escrito como



[Amn − aδmn ] ⟨ϕn |ψ⟩ = 0 , (195)
n

com Amn = ⟨ϕm |Â|ϕn ⟩.


Essa equação representa um sistema innito de equações homogêneas para os coecientes
⟨ϕn |ψ⟩, já que a base {|ϕn ⟩} contém um número innito de kets. Esse sistema de equações
pode ter soluções não triviais apenas se seu determinante for nulo:

det (Amn − aδmn ) = 0 . (196)

O problema que surge aqui é que esse determinante corresponde a uma matriz com innitas
linhas e innitas colunas. Para resolver (196) precisamos truncar a base {|ϕn ⟩} e admitir que
ela contém apenas N termos, onde N deve ser grande o suciente para garantir convergência.
Nesse caso podemos reduzir (196) ao seguinte determinante de grau N:

A11 − a A12 A13 ... A1N


A21 A22 − a A23 ... A2N

A31 A32 A33 − a ... A3N = 0 .
(197)

.
.
.
.
.
. .. .
.
. . . . .

AN 1 AN 2 AN 3 . . . AN N − a

Essa equação é conhecida como equação secular característica. Suas soluções fornecem os
ou
N autovalores a1 , a2 , . . . , aN , já que é uma equação de N -ésimo grau em a. O conjunto desses
N autovalores é chamado de espectro de Â. Conhecendo-se o conjunto de autovalores a1 , a2 ,
. . . , aN , pode-se facilmente determinar o correspondente conjunto de autovetores |ϕ1 ⟩, |ϕ2 ⟩,
. . . , |ϕN ⟩. Para cada autovalor am de Â, pode-se obter a partir de (197) as N componentes
⟨ϕ1 |ψ⟩, ⟨ϕ2 |ψ⟩, . . . , ⟨ϕN |ψ⟩ do autovetor |ϕm ⟩ correspondente.
Se vários autovetores diferentes têm o mesmo autovalor, esse autovalor é dito ser dege-
nerado. A ordem de degenerescência é determinada pelo número de autovetores linearmente
independentes que têm o mesmo autovalor. Por exemplo, se um autovalor tem cinco autove-
tores diferentes, diz-se que ele tem degenerescência quíntupla.
Quando o conjunto de autovetores {|ϕn ⟩} de  for completo e ortonormal, esse conjunto
pode ser usado como base. Nessa base, a matriz que representa o operador  é diagonal:

 
a1 0 0 . . .
 0 a2 0 . . .
 
A =  0 0 a . . . , (198)
 3 
. . . ..
. . . .
. . .

onde os elementos da diagonal principal são os autovalores an de Â, já que

⟨ϕm |Â|ϕn ⟩ = an ⟨ϕm |ϕn ⟩ = an δmn . (199)

33
O traço e o determinante são dados, respectivamente, pela soma e pelo produto dos autova-
lores:

Tr(A) = an = a1 + a2 + . . . , (200)
n

det(A) = an = a1 a2 . . . . (201)
n

Algumas propriedades úteis dos determinantes são:

det(ABC . . .) = det(A) · det(B) · det(C) · . . . (202)

det(A∗ ) = (det A)∗ (203)

det(A† ) = (det A)∗ (204)

det(AT ) = det A (205)

det(A) = eTr(ln A) (206)

Para nalizar esta seção, apresentamos (sem demonstração) alguns teoremas úteis referentes
ao problema de autovalor.

Teorema 6. Os autovalores de uma matriz simétrica são reais, e seus autovetores correspon-
dentes formam uma base ortonormal.

Teorema 7. Os autovalores de uma matriz anti-simétrica são nulos ou imaginários puros.

Teorema 8. Os autovalores de uma matriz Hermitiana são reais, e seus autovetores corres-
pondentes formam uma base ortonormal.

Teorema 9. Os autovalores de uma matriz anti-Hermitiana são nulos ou imaginários puros.

Teorema 10. Os autovalores de uma matriz unitária tem valor absoluto igual a um.

Teorema 11. Se os autovalores de uma matriz quadrada não são degenerados, os autovetores
correspondentes formam uma base.

6 Representação em Bases Contínuas


Nesta seção vamos considerar a representação de vetores de estado, bras e operadores em
bases contínuas. Depois de apresentar o formalismo geral, consideraremos duas aplicações
importantes: as representações nos espaços de posição e momento.
Na seção anterior, vimos que as representações de kets, bras e operadores em uma base
discreta são dadas por matrizes discretas. Mostraremos aqui que essas quantidades são repre-
sentadas numa base contínua por matrizes contínuas, isto é, matrizes innitas não enumeráveis.

34
6.1 Tratamento Geral
A condição de ortonormalidade para kets da base contínua |χk ⟩ é expressa não pelo usual
delta de Kronecker como em (137), mas pela função contínua delta de Dirac :

⟨χk |χk′ ⟩ = δ(k ′ − k) , (207)

onde k e k′ são parâmetros contínuos e δ(k ′ − k) é a função delta de Dirac, denida por
∫ +∞
1
δ(x) = eikx dx . (208)
2π −∞
A condição de completeza dessa base contínua não é dada por uma soma discreta como em
(139), mas por uma integral sobre a variável contínua,
∫ +∞
dk |χk ⟩⟨χk | = Iˆ , (209)
−∞

onde Iˆ é o operador unidade.


Todo vetor de estado pode ser expandido em termos do conjunto completo de kets da base
|χk ⟩: (∫ ) ∫
+∞ +∞
|ψ⟩ = I|ψ⟩
ˆ = dk |χk ⟩⟨χk | |ψ⟩ = dk b(k) |χk ⟩ , (210)
−∞ −∞
onde b(k), que é igual a ⟨χk |ψ⟩, representa a projeção de |ψ⟩ sobre |χk ⟩.
A norma dos kets de base discreta é nita (⟨ϕn |ϕn ⟩ = 1), mas a norma dos kets da base
contínua é innita; uma combinação de (207) e (208) leva a
∫ +∞
1
⟨χk |χk ⟩ = δ(0) = dx → ∞ . (211)
2π −∞

Isto implica que os kets |χk ⟩ não são quadrado-integráveis e portanto não são elementos do
espaço de Hilbert (Lembre-se que o espaço gerado por funções quadrado-integráveis é um
espaço de Hilbert). Apesar da divergência da norma de |χk ⟩, o conjunto de kets |χk ⟩ constitui
uma base válida de vetores que gera o espaço de Hilbert, já que para qualquer vetor de estado
|ψ⟩ o produto escalar ⟨χk |ψ⟩ é nito.

6.1.1 A Função Delta de Dirac


Antes de lidar com a representação de kets, bras e operadores, vamos fazer um breve desvio
para listar algumas das propriedades mais importantes da função delta de Dirac:

δ(x) = 0 , para x ̸= 0 , (212)

∫ b {
f (x0 ) se a < x0 < b
f (x) δ(x − x0 ) dx = , (213)
a 0 caso contrário

∫ +∞
dn δ(x − a) n
n d f (x)
f (x) dx = (−1) , (214)
−∞ dxn dxn x=a
1
δ(r − r′ ) = δ(x − x′ )δ(y − y ′ )δ(z − z ′ ) = δ(r − r′ )δ(θ − θ′ )δ(φ − φ′ ) . (215)
r2 sin θ

35
6.1.2 Representação de Kets, Bras e Operadores
A representação de kets, bras e operadores pode ser facilmente inferida do estudo feito
previamente para o caso de uma base discreta. Por exemplo, o ket |ψ⟩ é representado por uma
matriz coluna que tem um número contínuo e innito de componentes (linhas) b(k):
 
.
.
.
 
 
|ψ⟩ −→ ⟨χk |ψ⟩ . (216)
 
.
.
.

O bra ⟨ψ| é representado por uma matriz linha que tem um número contínuo e innito de
componentes (colunas):
( )
⟨ψ| −→ . . . ⟨ψ|χk ⟩ . . . . (217)

Operadores são representados por matrizes quadradas contínuas cujas linhas e colunas
possuem um número contínuo e innito de componentes:
 
.. . ..
. . .
.
 
 
 −→ . . . A(k, k ′ ) . . . . (218)
 
.. . ..
. . .
.

A título de aplicação, consideraremos as representações nas bases de posição e momento.

6.2 Representação de Posição


Na representação de posição, a base consiste de um conjunto innito de vetores {|r⟩} que
são autokets do operador posição R̂:

R̂|r⟩ = r|r⟩ , (219)

onde r (sem chapéu), o vetor posição, é o auto valor do operador R̂. As condições de orto-
normalidade e completeza são dadas respectivamente por

⟨r|r′ ⟩ = δ(r − r′ ) = δ(x − x′ )δ(y − y ′ )δ(z − z ′ ) (220)

e ∫
d3 r |r⟩⟨r| = Iˆ , (221)

já que a função delta tridimensional é dada por



′ 1 ′
δ(r − r ) = d3 k eik·(r−r ) . (222)
(2π)3
Assim, todo vetor de estado pode ser expandido como
∫ ∫
|ψ⟩ = d r |r⟩⟨r|ψ⟩ =
3
d3 r ψ(r) |r⟩ , (223)

onde ψ(r) denota a componente de |ψ⟩ na base {|r⟩}:

⟨r|ψ⟩ = ψ(r) . (224)

36
Isto é conhecido como a função de onda para o vetor de estado |ψ⟩. De acordo com a in-
2
terpretação probabilística de Born, a quantidade |⟨r|ψ⟩| d3 r representa a probabilidade de
encontrar o sistema no elemento de volume d3 r .
O produto escalar entre dois vetores de estado, |ψ⟩ e |ϕ⟩, pode ser expressa desta forma:
(∫ )
⟨ϕ|ψ⟩ = ⟨ϕ|I|ψ⟩
ˆ = ⟨ϕ| d r |r⟩⟨r| |ψ⟩
3


= d3 r ⟨ϕ|r⟩⟨r|ψ⟩
∫ ∫
= d3 r ⟨r|ϕ⟩∗ ⟨r|ψ⟩ = d3 r ϕ∗ (r) ψ(r) . (225)

Como R̂|r⟩ = r|r⟩, temos que R̂2 = R̂R̂ aplicado a |r⟩ é


( )
R̂2 |r⟩ = R̂ R̂|r⟩ = R̂ (r|r⟩) = rR̂|r⟩ = r2 |r⟩ ,

que pode ser generalizado para


R̂n |r⟩ = rn |r⟩ .
Com isso, temos
⟨r′ |R̂n |r⟩ = ⟨r′ |rn |r⟩ = rn ⟨r′ |r⟩ = rn δ(r′ − r) . (226)

Note que o operador R̂ é Hermitiano, pois


(∫ )
⟨ϕ|R̂|ψ⟩ = ⟨ϕ|R̂I|ψ⟩
ˆ = ⟨ϕ|R̂ d r |r⟩⟨r| |ψ⟩
3


= d3 r ⟨ϕ|R̂|r⟩⟨r|ψ⟩

= d3 r r⟨ϕ|r⟩⟨r|ψ⟩
[∫ ]∗
3
= d r r⟨ψ|r⟩⟨r|ϕ⟩
[∫ ]∗
= d r ⟨ψ|R̂|r⟩⟨r|ϕ⟩
3

[ (∫ ) ]∗
= ⟨ψ|R̂ d3 r |r⟩⟨r| |ϕ⟩ = ⟨ψ|R̂|ϕ⟩∗ . (227)

6.3 Representação do Momento


A base {|p⟩} da representação do momento é obtida dos autokets do operador momento
P̂:
P̂|p⟩ = p|p⟩ , (228)

onde p é o vetor momento. A álgebra relevante a esta representação pode ser facilmente
inferida da representação de posição. As condições de ortonormalidade e completeza da base
|p⟩ do espaço de momento são dadas por

⟨p|p′ ⟩ = δ(p − p′ ) (229)

37
e ∫
d3 p |p⟩⟨p| = Iˆ . (230)

Expandindo |ψ⟩ nesta base, obtemos


∫ ∫
|ψ⟩ = I|ψ⟩
ˆ = d p |p⟩⟨p|ψ⟩ =
3
d3 p Ψ(p) |p⟩ , (231)

onde o coeciente Ψ(p) da expansão representa a função de onda no espaço de momento. A


quantidade |Ψ(p)|2 d3 p é a probabilidade de encontrar o momento do sistema no elemento de
volume d3 p localizado entre p e p + dp.
Por analogia com (225) o produto escalar entre dois estados no espaço de momento é dado
por (∫ ) ∫
⟨ϕ|ψ⟩ = ⟨ϕ| d p |p⟩⟨p| |ψ⟩ = d3 p Φ∗ (p) Ψ(p) .
3
(232)

Como P̂|p⟩ = p|p⟩, temos


⟨p′ |P̂n |p⟩ = pn δ(p′ − p) . (233)

6.4 Conexão entre as Representações de Posição e do Momento


Vamos agora estabelecer a conexão entre as representações de posição e momento. Para
passar da base {|r⟩} para a base {|p⟩}, temos que encontrar a função de transformação ⟨r|p⟩.
Para encontrar a expressão para a função de transformação ⟨r|p⟩ , vamos estabelecer uma
conexão entre as representações de posição e momento do vetor de estado |ψ⟩:
(∫ ) ∫ ∫
⟨r|ψ⟩ = ⟨r| d3 p |p⟩⟨p| |ψ⟩ = d3 p ⟨r|p⟩⟨p|ψ⟩ = d3 p ⟨r|p⟩ Ψ(p) . (234)

Portanto, ∫
ψ(r) = d3 p ⟨r|p⟩ Ψ(p) . (235)

Da mesma forma, pode-se escrever


(∫ ) ∫
Ψ(p) = ⟨p|ψ⟩ = ⟨p| d r |r⟩⟨r| |ψ⟩ = d3 r ⟨p|r⟩⟨r|ψ⟩ ,
3

ou ∫
Ψ(p) = d3 r ⟨p|r⟩ ψ(r) . (236)

Estas duas últimas relações implicam que ψ(r) e Ψ(p) podem ser vistas como a transfor-
mada de Fourier uma da outra. Na mecânica quântica, a transformada de Fourier de uma
função f (r) é dada por
8

1
f (r) = 3/2
d3 p eip·r/~ g(p) . (237)
(2π~)
Portanto, a função ⟨r|p⟩ é dada por

eip·r/~
⟨r|p⟩ = (238)
(2π~)3/2
8
Note a presença da constante de Planck.

38
Essa função transforma da representação de momento para a representação de posição. A
função correspondente à transformação inversa, ⟨p|r⟩, é dada por

e−ip·r/~
⟨p|r⟩ = ⟨r|p⟩∗ = (239)
(2π~)3/2

A quantidade |⟨r|p⟩|2 representa a densidade de probabilidade de encontrar a partícula na


região em torno de r onde seu momento é p.

Nota: Se a função de onda da posição



1
ψ(r) = 3/2
d3 p eip·r/~ Ψ(p) (240)
(2π~)
9
estiver normalizada , sua transformada de Fourier

1
Ψ(p) = d3 r e−ip·r/~ ψ(r) (241)
(2π~)3/2
também deve estar normalizada, pois

∫ ∫ [ ∫ ]
3 ∗ 3 ∗ 1 3 −ip·r/~
d p Ψ (p) Ψ(p) = d p Ψ (p) d re ψ(r)
(2π~)3/2
∫ [ ∫ ]
3 1 3 ∗ −ip·r/~
= d r ψ(r) d p Ψ (p) e
(2π~)3/2

= d3 r ψ(r) ψ ∗ (r) = 1 . (242)

Esse resultado é conhecido como o teorema de Parseval.

6.4.1 Operador Momento na Representação de Posição


Para determinar a forma do operador momento P̂ na representação de posição, vamos
calcular ⟨r|P̂|ψ⟩:
(∫ )
⟨r|P̂|ψ⟩ = ⟨r|P̂I|ψ⟩
ˆ = ⟨r|P̂ |p⟩⟨p| d p |ψ⟩3


= ⟨r|P̂|p⟩⟨p|ψ⟩ d3 p

= p ⟨r|p⟩⟨p|ψ⟩ d3 p

1
= 3/2
p eip·r/~ Ψ(p) d3 p . (243)
(2π~)
9
Isto é, se ∫
d3 r ψ(r) ψ ∗ (r) = 1 .

39
Agora, como p eip·r/~ = −i~∇eip·r/~ , e usando (238), podemos reescrever (243) como

[ ∫ ]
1
⟨r|P̂|ψ⟩ = −i~∇ eip·r/~ Ψ(p) d3 p
(2π~)3/2
[∫ ]
= −i~∇ ⟨r|p⟩⟨p|ψ⟩ d p
3

= −i~∇⟨r|ψ⟩ . (244)

Assim, P̂ é dado na representação de posição por

P̂ = −i~∇ . (245)

Suas componentes cartesianas são

∂ ∂ ∂
P̂x = −i~ , P̂y = −i~ , P̂z = −i~ (246)
∂x ∂y ∂z

Note que a forma do operador momento (245) pode ser obtida simplesmente aplicando o
operador gradiente ∇ a uma função de onda plana ψ(r, t) = A ei(p·r−Et)/~ :

− i~∇ψ(r, t) = pψ(r, t) = P̂ψ(r, t) . (247)

Como P̂ = −i~∇, podemos escrever o operador Hamiltoniano Ĥ = P̂2 /2m + V̂ na repre-


sentação de posição do seguinte modo:

( )
~2 2 ~2 ∂2 ∂2 ∂2
Ĥ = − ∇ + V̂ (r) = − + + + V̂ (r) (248)
2m 2m ∂x2 ∂y 2 ∂z 2

onde ∇2 é o operador Laplaciano. Em coordenadas cartesianas é dado por ∇2 = ∂x2 + ∂y2 + ∂z2 .

6.4.2 Operador Posição na Representação de Momento


A forma do operador posição R̂ na representação do momento pode ser facilmente inferida
da representação de P̂ no espaço de posição. No espaço de momento o operador posição pode
ser escrito como

R̂j = i~ (j = x, y, z) , (249)
∂pj
ou
∂ ∂ ∂
X̂ = i~ , Ŷ = i~ , Ẑ = i~ (250)
∂px ∂py ∂pz

6.4.3 Relações de Comutação Importantes


Vamos calcular o comutador [R̂j , P̂k ]. As ações separadas de X̂ P̂x e P̂x X̂ sobre a função
de onda ψ(r) são dadas por

( ) ( )
∂ψ(r) ∂ψ(r)
X̂ P̂x ψ(r) = X̂ P̂x ψ(r) = X̂ −i~ = −i~x (251)
∂x ∂x

40
e

( ) ∂ ∂ψ(r)
P̂x X̂ψ(r) = P̂x X̂ψ(r) = P̂x (xψ(r)) = −i~ (xψ(r)) = −i~ψ(r) − i~x . (252)
∂x ∂x
Portanto, temos

∂ψ(r) ∂ψ(r)
[X̂, P̂x ]ψ(r) = X̂ P̂x ψ(r) − P̂x X̂ψ(r) = −i~x + i~ψ(r) + i~x = i~ψ(r) ,
∂x ∂x
ou
[X̂, P̂x ] = i~ . (253)

Relações similares podem ser prontamente derivadas para as componentes y e z , de forma que
temos:

[X̂, P̂x ] = i~ , [Ŷ , P̂y ] = i~ , [Ẑ, P̂z ] = i~ (254)

Note-se que

[X̂, P̂y ]ψ(r) = X̂ P̂y ψ(r) − P̂y X̂ψ(r)


( )
∂ψ(r) ∂ψ(r) ∂ψ(r)
= X̂ −i~ − P̂x (xψ(r)) = −i~x + i~x =0,
∂y ∂y ∂y

de modo que [X̂, P̂y ] = 0. Verica-se que

[X̂, P̂y ] = [X̂, P̂z ] = [Ŷ , P̂x ] = [Ŷ , P̂z ] = [Ẑ, P̂x ] = [Ẑ, P̂y ] = 0 , (255)

pois os graus de liberdade x, y e z são independentes. Note-se ainda que

[X̂, Ŷ ]ψ(r) = X̂(Ŷ ψ(r)) − Ŷ (X̂ψ(r)) = X̂ (xψ(r)) − Ŷ (yψ(r)) = xyψ(r) − yxψ(r) = 0 ,

e verica-se que
[X̂, Ŷ ] = [X̂, Ẑ] = [Ŷ , Ẑ] = [Ẑ, X̂] = 0 . (256)

Além disso,

[P̂x , P̂y ]ψ(r) = P̂x (P̂y ψ(r)) − P̂y (P̂x ψ(r))


( ) [ ( )]
∂ ∂ψ(r) ∂ ∂ψ(r)
= −i~ −i~ − −i~ −i~
∂x ∂y ∂y ∂x
∂ 2 ψ(r) ∂ 2 ψ(r)
= −~2 + ~2 =0.
∂x∂y ∂y∂x
Verica-se também que

[P̂x , P̂y ] = [P̂x , P̂z ] = [P̂y , P̂z ] = [P̂z , P̂x ] = 0 . (257)

As relações em (254), (255), (256) e (257) podem ser agrupadas do seguinte modo:

[R̂j , R̂k ] = i~δjk , [R̂j , R̂k ] = 0 , [P̂j , P̂k ] = 0 (258)

Essas relações são chamadas de relações canônicas de comutação.

41
Agora, usando a relação (66), temos

[X̂ 2 , P̂x ] = [X̂ X̂, P̂x ] = X̂[X̂, P̂x ] + [X̂, P̂x ]X̂ = i~X̂ + i~X̂ = 2i~X̂ ,

que leva a

[X̂ 3 , P̂x ] = [X̂ 2 X̂, P̂x ] = X̂ 2 [X̂, P̂x ] + [X̂ 2 , P̂x ]X̂ = i~X̂ 2 + 2i~X̂ 2 = 3i~X̂ 2 ,

o que, por sua vez, leva a

[X̂ 4 , P̂x ] = [X̂ 3 X̂, P̂x ] = X̂ 3 [X̂, P̂x ] + [X̂ 3 , P̂x ]X̂ = i~X̂ 3 + 3i~X̂ 3 = 4i~X̂ 3 .

Continuando dessa forma, pode-se obter qualquer potência de X̂ . Podemos generalizar os


resultados acima por
[X̂ n , P̂x ] = i~nX̂ n−1 . (259)

Resultado semelhante vale para potências de P̂x :

[X̂, P̂xn ] = i~nP̂xn−1 . (260)

Seguindo o mesmo procedimento que levou a (253), pode-se obter uma relação de comutação
geral de P̂x com uma função f (X̂) arbitrária:

df (X̂)
[f (X̂), P̂x ] = i~ =⇒ [P̂, f (R̂)] = −i~∇F (R̂) (261)
dX̂

onde F é uma função do operador R̂.


Vamos calcular agora o comutador [X̂, P̂ ] na representação do momento. O operador X̂ é
dado, na representação do momento pela relação (250). Temos, então,

[X̂, P̂ ]ψ(p) = X̂ P̂ ψ(p) − P̂ X̂ψ(p)

∂ ∂ψ(p)
= i~ (pψ(p)) − i~p
∂p ∂p
∂ψ(p) ∂ψ(p)
= i~ψ(p) + i~p − i~p
∂p ∂p
= i~ψ(p) ,

de forma que, na representação do momento,


[ ]

[X̂, P̂ ] = i~ , P̂ = i~ . (262)
∂p

Já vimos que na representação de posição,


[ ]

[X̂, P̂ ] = X̂, −i~ = i~ . (263)
∂x

A forma explícita dos operadores depende da representação adotada, mas as relações de co-
mutação para operadores são independentes da representação.

42
6.5 Operador de Paridade
A reexão espacial em torno da origem do sistema de coordenadas é denominada uma
operação de inversão ou de paridade. Essa transformação é discreta. O operador de paridade
P̂ é denido por sua ação nos kets |r⟩ do espaço de posição:

P̂|r⟩ = | − r⟩ , ⟨r|P̂ † = ⟨−r| , (264)

tal que
P̂ψ(r) = ψ(−r) . (265)

O operador de paridade é Hermitiano, P̂ † = P̂ , pois


∫ [ ] ∫
d3 r ϕ∗ (r) P̂ψ(r) = d3 r ϕ∗ (r)ψ(−r)
∫ ∫ [ ]∗

= 3
d r ϕ (−r)ψ(r) = d3 r P̂ϕ(r) ψ(r) . (266)

Da denição (265), temos


P̂ 2 ψ(r) = P̂ψ(−r) = ψ(r) , (267)

e assim, P̂ 2 é igual ao operador unidade:

P̂ 2 = Iˆ ou P̂ = P̂ −1 . (268)

Logo, o operador de paridade é unitário, já que seu adjunto Hermitiano é igual a seu inverso:

P̂ † = P̂ −1 . (269)

Como P̂ 2 = Iˆ, os autovalores de P̂ são +1 e −1, com os autoestados correspondentes

P̂ψ+ (r) = ψ+ (−r) = ψ+ (r) , P̂ψ− (r) = ψ− (−r) = −ψ− (r) . (270)

O autoestado |ψ+ ⟩ é denominado par e o autoestado |ψ− ⟩ é ímpar. Logo, as autofunções do


operador de paridade têm paridade denida : são pares ou ímpares.
Como |ψ+ ⟩ e |ψ− ⟩ são autoestados do mesmo operador Hermitiano P̂ , mas com autovalores
diferentes, esses autoestados devem ser ortogonais:
∫ ∫
∗ ∗
⟨ψ+ |ψ− ⟩ = d 3
r ψ+ (−r) ψ− (−r) ≡− d3 r ψ + (r) ψ− (r) = −⟨ψ+ |ψ− ⟩ , (271)

e ⟨ψ+ |ψ− ⟩ é zero. Os estados |ψ+ ⟩ e |ψ− ⟩ formam um conjunto completo, já que qualquer
função pode ser escrita como ψ(r) = ψ+ (r) + ψ− (r), o que conduz a
1 1
ψ+ (r) = [ψ(r) + ψ(−r)] , ψ− (r) = [ψ(r) − ψ(−r)] . (272)
2 2

Como P̂ 2 = Iˆ, temos


{
P̂ quando n é ímpar,
P̂ n = (273)
Iˆ quando n é par.

43
6.5.1 Operadores Pares e Ímpares
Um operador  é dito ser par se obedece à condição

P̂ ÂP̂ = Â (274)

e um operador B̂ é ímpar se obedece a

P̂ B̂ P̂ = −B̂ . (275)

Verica-se que: ( )
ÂP̂ = P̂ ÂP̂ P̂ = P̂ ÂP̂ 2 = P̂ Â (276)

e ( )
B̂ P̂ = − P̂ B̂ P̂ P̂ = −P̂ B̂ P̂ 2 = −P̂ B̂ . (277)

O fato de que operadores pares comutam com o operador de paridade, de acordo com (276),
tem várias conseqüências úteis. Vamos examinar dois casos importantes que dependem de um
operador par ter autovalores não degenerados ou degenerados:

• Se um operador par é Hermitiano e nenhum de seus autovalores é degenerado, então


este operador tem os mesmos autovetores que o operador de paridade. E como os
autovetores do operador de paridade são pares ou ímpares, os autovetores de um operador
Hermitiano, par e não degenerado devem também ser pares ou ímpares; diz-se que eles
têm paridade denida. Essa propriedade é útil em aplicações onde se resolve a equação
de Schrödinger para Hamiltonianos pares.

• Se o operador par tem um espectro degenerado, seus autovetores não têm necessaria-
mente uma paridade denida.

E quanto à paridade dos operadores posição e momento, R̂ e P̂? Pode-se facilmente mostrar
que ambos são ímpares. No caso de R̂, por exemplo, temos

P̂ R̂|r⟩ = rP̂|r⟩ = r| − r⟩ e R̂P̂|r⟩ = R| − r⟩ = −r| − r⟩ ,

de modo que
P̂ R̂ = −R̂P̂ . (278)

Pode-se mostrar também que


P̂ P̂ = −P̂P̂ . (279)

De (278) e (278), tem-se


P̂ R̂P̂ † = −R̂ , P̂ P̂P̂ † = −P̂ , (280)

visto que P̂ † P̂ = 1. Se o operador  é par e o operador B̂ é ímpar, pode-se vericar que

P̂ Ân P̂ = Ân e P̂ B̂ n P̂ = (−1)n B̂ n . (281)

Essas relações podem ser demonstradas facilmente. A primeira relação, por exemplo, vem de

P̂ Ân P̂ = (P̂ ÂP̂)(P̂ ÂP̂) . . . (P̂ ÂP̂)

= (P̂ P̂ Â)(P̂ P̂ Â) . . . (P̂ P̂ Â)

= (P̂ 2 Â)(P̂ 2 Â) . . . (P̂ 2 Â) = ÂÂ . . . Â = Ân . (282)

44
7 Mecânica Matricial e Mecânica Ondulatória
Até agora trabalhamos a matemática pertinente à mecânica quântica em duas representa-
ções diferentes: sistemas de base discreta e sistemas de base contínua. A teoria da mecânica
quântica lida, em essência, com a solução do seguinte problema de autovalor:

Ĥ|ψ⟩ = E|ψ⟩ , (283)

onde Ĥ é a Hamiltoniana do sistema. Essa equação é geral e não depende de qualquer sistema
de coordenadas ou representação. Mas , para resolvê-la precisamos representá-la em uma dado
sistema de base. A complexidade associada à resolução dessa equação de autovalor irá variar
de uma base para outra.
No que se segue examinaremos a representação dessa equação de autovalor numa base
discreta e então numa base contínua.

7.1 Mecânica Matricial


A representação da mecânica quântica numa base discreta produz um problema matricial
de autovalor. Ou seja, a representação de (283) numa base discreta {|ϕn ⟩} produz a seguinte
equação matricial de autovalor (veja (197)):

H11 − E H12 H13 ... H1N


H21 H22 − E H23 ... H2N


H31 H22 H33 − E ... H3N = 0 . (284)

. . . .
. . . ..
. .
. . . .

HN 1 HN 2 HN 3 . . . HN N − E

Esta é uma equação de N -ésimo grau em E ; suas soluções fornecem o espectro de energia do
sistema: E1 , E2 ,
EN . Conhecendo o conjunto de autovalores E1 , E2 , . . . , EN , podemos
...,
facilmente determinar o correspondente conjunto de autovetores |ϕ1 ⟩, |ϕ2 ⟩, . . . , |ϕN ⟩.
A diagonalização da matriz Hamiltoniana 284 de um sistema fornece o espectro de energia
bem como os vetores de estado do sistema. Esse procedimento, que foi feito por Heisenberg,
envolve apenas quantidades matriciais e equações matriciais de autovalor. Essa formulação
da mecânica quântica é conhecida como mecânica matricial.
O ponto de partida de Heisenberg, em sua tentativa de encontrar uma fundamentação
teórica para as idéias de Bohr, foi a relação de transição atômica

Em − En
νnm = , (285)
h
que dá a freqüência de radiação associada à transição eletrônica da órbita m para a órbita
n. As freqüências νnm podem ser arranjadas numa matriz quadrada, onde o elemento mn
corresponde à transição do m-ésimo para o n-ésimo estado quântico.
Podemos também construir matrizes para outras quantidades dinâmicas associadas à tran-
sição m → n. Desta forma, toda quantidade física é representada por uma matriz. Por exem-
plo, representamos níveis de energia por uma matriz de energia, a posição por uma matriz
de posição, o momento por uma matriz de momento, o momento angular por uma matriz
de momento angular, e assim por diante. Assim, o cálculo de quantidades físicas envolve o

45
trabalho com a álgebra de quantidades matriciais. No contexto da mecânica matricial, lida-se
com quantidades que não comutam, pois o produto de matrizes não comuta. Esta é uma
característica essencial que distingue a mecânica matricial da mecânica clássica, onde todas as
quantidades comutam. As componentes da posição e do momento não comutam no contexto
da mecânica matricial, sendo relacionadas pela relação de comutação [X̂, P̂x ] = i~. A mesma
coisa se aplica às componentes do momento angular. O papel desempenhado pelas relações de
comutação dentro do contexto da mecânica matricial é similar ao papel desempenhado pelas
condições de quantização de Bohr na teoria atômica. A mecânica matricial de Heisenberg
exige, portanto, a introdução de arsenal matemático  espaços vetoriais lineares, espaço de
Hilbert, álgebra de comutadores e álgebra matricial  que é inteiramente diferente do arsenal
matemático da mecânica clássica.

7.2 Mecânica Ondulatória


A representação do formalismo da mecânica quântica numa base contínua produz uma
problema de autovalor não na forma de uma equação matricial, como na formulação de Hei-
senberg, mas na forma de uma equação diferencial. A representação da equação de autovalor
(283) no espaço de posição fornece

⟨r|Ĥ|ψ⟩ = E⟨r|ψ⟩ . (286)

Como mostrado em (248), o Hamiltoniano é dado por −~2 ∇2 /(2m) + V̂ (r) na representação
de posição, de forma que podemos escrever (286) numa forma mais familiar:

~2 2
− ∇ ψ(r) + V̂ (r)ψ(r) = Eψ(r) (287)
2m
onde ⟨r|ψ⟩ = ψ(r) é a função de onda do sistema. Essa equação diferencial é conhecida como
a equação de Schrödinger. Suas soluções fornecem o espectro de energia do sistema bem como
suas funções de onda. Essa formulação da mecânica quântica na representação de posição é
chamada de mecânica ondulatória.
Ao contrário de Heisenberg, Schrödinger tomou um ponto de partida inteiramente diferente
em sua busca de uma justicação teórica para as idéias de Bohr. Ele partiu da hipótese onda-
partícula, formulada por de Broglie, e a estendeu aos elétrons em órbita do núcleo. Schrödinger
queria encontrar uma equação que descrevesse o movimento do elétron dentro do átomo. Aqui
o foco está no aspecto ondulatório do elétron. A condição de quantização de Bohr, L = n~, é
equivalente à relação de de Broglie, λ = 2π~/p. Para estabelecer essa conexão, basta que se
faça três considerações:

(a) o comprimento de onda da onda associada ao elétron em órbita está conectada ao mo-
mento linear do elétron por λ = 2π~/p;
(b) a órbita do elétron é circular, e

(c) a circunferência da órbita do elétron é um múltiplo inteiro do comprimento de onda do


elétron, isto é, 2πr = nλ. Isto leva prontamente a 2πr = n (2π~/p), ou n~ = np ≡ L.
Isso signica que para cada órbita existe apenas um comprimento de onda associado
com o elétron orbitante.

Assim a condição de quantização de Bohr implica, em essência, em uma unicidade da


função de onda para cada órbita do elétron.

46
8 Notas Finais
Historicamente, a formulação matricial da mecânica quântica foi feita por Heisenberg pouco
antes de Schrödinger ter introduzido sua mecânica ondulatória. A equivalência entre as duas
formulações foi provada alguns anos depois através da teoria das transformações unitárias.
Diferentes na forma, ainda que idênticas em conteúdo, a mecânica ondulatória e a mecânica
matricial atingem o mesmo objetivo: encontrar o espectro de energia e os estados de sistemas
quânticos.
A formulação matricial tem a vantagem da maior generalidade (formal), ainda que sofra
de várias desvantagens. Do lado conceitual, não oferece qualquer idéia visual sobre a estrutura
do átomo; é menos intuitiva que a mecânica ondulatória. Do lado técnico, é difícil de se usar
em problemas de relativa facilidade, como o de encontrar estados estacionários de átomos.
Contudo, se torna poderosa e prática na resolução de problemas como o oscilador harmônico
ou no tratamento do formalismo do momento angular.
Mas a maioria dos esforços da mecânica quântica se concentram na resolução da equação
de Schrödinger, não no problema de autovalor matricial de Heisenberg. A mecânica matricial
é usada apenas em poucos problemas, como o oscilador harmônico, onde é mais adequada que
a mecânica ondulatória de Schrödinger.
Na mecânica ondulatória, precisamos apenas especicar o potencial no qual a partícula se
move, e a equação de Schrödinger toma conta do resto. Ou seja, conhecendo V̂ (r), podemos,
em princípio, resolver a equação (287) para obter os vários níveis de energia da partícula e
suas correspondentes funções de onda. A complexidade que se encontra na solução da equação
diferencial depende inteiramente da forma do potencial; quanto mais simples o potencial, mais
fácil é a solução. Soluções exatas da equação de Schrödinger são possíveis apenas para uns
poucos sistemas idealizados. Sistemas reais, em geral, não se prestam a soluções exatas. Nesses
casos, deve-se recorrer a soluções aproximadas.

47

Você também pode gostar