Você está na página 1de 69

Mecânica Clássica

Esmerindo de Sousa Bernardes


DFCM–IFSC–USP
e-mail: sousa@if.sc.usp.br
http: marconi.if.sc.usp.br

26 de Fevereiro de 2002
2
Conteúdo

1 O Formalismo de Hamilton 5
1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Coordenadas generalizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Equações de movimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.1 O princı́pio diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 O princı́pio integral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Lagrangianas e hamiltonianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.5 Simetrias e leis de conservação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.6 Geometria simpléctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.1 Métrica simpléctica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.2 Transformações simplécticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.3 Parênteses de Poisson e de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7 Transformações canônicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7.1 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.7.2 Equação de Hamilton-Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.7.3 Evolução temporal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.7.4 Teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

A Transformações Lineares 31
A.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
A.2 Transformações lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
A.2.1 Grupos de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
A.2.2 Tensores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
A.3 Transformações infinitesimais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
A.4 Transformações especiais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
A.4.1 Transformações ortogonais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
A.4.2 Transformações de Lorentz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
A.4.3 Transformações simplécticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

B Rotações Espaciais 39
B.1 Corpo rı́gido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
B.2 O grupo das rotações espaciais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
B.3 A álgebra de Lie correspondente ao grupo das rotações . . . . . . . . . . . . . . . . . . . . . . 42
B.4 Ângulos de Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
B.5 Relação entre SO(3) e SU(2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
B.6 Polinômios de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

C Relatividade Especial 53
C.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
C.2 Propriedades do espaço-tempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
C.3 Transformações de Lorentz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
C.4 Dinâmica Relativı́stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
C.5 Partı́cula livre em um campo eletromagnético . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3
4 CONTEÚDO

D Cálculo Variacional 67
D.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
D.2 Deslocamentos virtuais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
D.3 Equações de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Capı́tulo 1

O Formalismo de Hamilton

1.1 Introdução
A forma analı́tica da Mecânica como introduzida por Euler e Lagrange, reformulada mais tarde por Hamilton,
difere consideravelmente da forma vetorial introduzida por Newton. Na formulação vetorial, a lei fundamental
da Mecânica introduzida por Newton, massa × aceleração = força, válida apenas para uma única partı́cula
associada a uma determinada massa, determina o movimento de uma partı́cula massiva sujeita à forças
conhecidas. Em um sistema de partı́culas, a equação de Newton deve ser aplicada a cada partı́cula que
compõe o sistema após a determinação das forças presentes devido às demais partı́culas do sistema. Na
abordagem analı́tica (via o formalismo de Lagrange ou de Hamilton) a situação é invertida: a partı́cula não
é mais uma unidade isolada, mas parte de um todo, de um sistema. Para compensar a necessidade de uma
força resultante em cada partı́cula, a mecânica analı́tica considera uma única função escalar (energia cinética
ou o trabalho realizado) a qual contém todas as informações pertinentes às forças, as quais podem ser obtidas
por simples diferenciação de uma função escalar.
É comum encontrarmos certos vı́nculos entre as partı́culas de um sistema mecânico. Por exemplo, as
distâncias relativas entre as partı́culas de um sólido não podem mudar. Estes vı́nculos são mantidos por fortes
forças internas. Ao contrário do tratamento vetorial (newtoniano), o tratamento analı́tico (lagrangiano ou
hamiltoniano) não requer o conhecimento destas forças internas. Os vı́nculos são considerados como condições
auxiliares na determinação das equações de movimento do sistema.
As equações de movimento de um sistema mecânico complicado são constituı́das por um número grande de
equações diferenciais. A abordagem analı́tica nos dá um princı́pio para determinarmos todas estas equações
de movimento. Dada uma quantidade fundamental, denominada ação, o princı́pio de que esta quantidade
seja estacionária, conhecido como princı́pio da ação mı́nima ou formulação hamiltoniana, fornece todas as
equações diferenciais associadas ao movimento do sistema. Hoje, este princı́pio é a base para a formulação
da maioria das teorias fı́sicas modernas. Além disto, a formulação hamiltoniana não depende da escolha do
sistema de coordenadas. Isto implica na invariabilidade (ou “invariançia”) das equações de movimento, co-
nhecidas como equações de Hamilton, com relação à sistemas de coordenadas. Em suma, as (re-)formulações
de Lagrange e de Hamilton (bem como outras) não introduzem fatos novos àqueles revelados pela formulação
newtoniana, mas nos permite reinterpretá-los de forma completamente nova e abrangente. Abrangente o
suficiente para podermos conectar fatos, aparentemente distintos, em uma mesma teoria.
Estaremos interessados aqui em descrever os fundamentos da formulação hamiltoniana numa linguagem
matemática moderna composta basicamente pelo conceito de simetria. daremos ênfase nas transformações
simplécticas como exemplo de transformações canônicas, na equação de Hamilton-Jacobi, no teorema de
Liouville para a evolução temporal de sistemas hamiltonianos, no uso das variáveis de ânglo-ação para a
descrição de movimentos periódicos, nas seções de Poincaré usadas na caracterização da dinâmica e na
reformulação do princı́pio de Hamilton no contexto da relatividade especial. Todos os tópicos discutidos
nesta apostila foram retirados das seguintes referências clássicas:
• C. Lanczos, The Variational Principles of Mechanics, Toronto (1970, quarta edição);
• H. Goldstein, Classical mechanics, Addison-Wesley (1980, segunda edição);

5
6 1. O Formalismo de Hamilton

• E. C. G. Sudarshan & N. Mukunda, Classical Dynamics: A Modern Perspective, John Wiley (1974).
• L. Landau & E. Lifshitz, Teoria do Campo, Mir (1980).
O estudante interessado por um ponto de vista através de ferramentas matemáticas modernas pode consultar
os seguintes textos (em ordem de complexidade):
• W. F. Wreszinski, Mecânica Clássica Moderna, EDUSP (1997);
• V. I. Arnold, Mathematical Methods of Classical Mechanics, Springer (1978);
• R. Abraham & J. E. Marsden, Foundations of Mechanics, Benjamin (1978).

1.2 Coordenadas generalizadas


Apesar das técnicas vetorias serem muito adequadas aos problemas de estática, elas são inadequadas para
a cinemática onde as técnicas analı́ticas são empregadas com muito sucesso. Este sucesso é devido ao uso
de coordenadas em sua concepção matemática abstrata. Assim, a mecânica analı́tica é uma ciência comple-
tamente matemática. O mundo fı́sico é traduzido em relações matemáticas com a ajuda de coordenadas.
Após trabalharmos com coordenadas como quantidades algébricas, os resultados devem ser traduzidos de
volta à realidade fı́sica. Vale ressaltar que nós não precisamos especificar a natureza das coordenadas que
traduzem uma determinada realidade fı́sica para o domı́nio da matemática. No entanto, as técnicas analı́ticas
exigem uma generalização do conceito de coordenadas cartesianas. Qualquer conjunto de parâmetros que
possam caracterizar fisicamente um determinado sistema pode ser escolhido como um conjunto adequado de
coordenadas. Estas novas coordenadas são denominadas de coordenadas generalizadas.
Consideremos um sistema composto por N partı́culas e sujeito a m vı́nculos. É possı́vel especificar
univocamente tal sistema por n = 3N − m coordenadas generalizadas q i (i = 1, . . . , n) de tal modo que as
coordenadas cartesianas sejam funções destas novas coordenadas:

xk = xk (q 1 , . . . , q n ), yk = yk (q 1 , . . . , q n ), zk = zk (q 1 , . . . , q n ), k = 1, 2, . . . , N , (1.1)

ou, usando uma notação “esticada”,

xr = xr (q), r = 1, 2, . . . , 3N , (1.2)

onde q = q 1 , . . . , q n . As equações de vı́nculos são, essencialmente, de dois tipos: 1) descritas pelo anulamento
(e/ou desigualdades) de certas funções das 3N coordenadas cartesianas,

φk (x1 , . . . , x3N ) = 0, k = 1, 2, . . . , m ; (1.3)

2) descritas por relações lineares não-integráveis entre os diferenciais das coordenadas cartesianas. O número
n, denominado de graus de liberdade, é uma constante caracterı́stica de cada sistema. Por exemplo, um sólido
tem apenas seis graus de liberdade (quais são?), embora possa ser composto por uma quantidade muito grande
de partı́culas.
As coordenadas generalizadas não precisam ter sempre um significado geométrico. Mas é necessário que a
relação entre as 3N coordenadas cartesianas e as n coordenadas generalizadas seja dada por funções analı́ticas
(contı́nuas e diferenciáveis), de valores únicos e invertı́veis (jacobiano não nulo). Estas condições podem
apenas ser violadas em pontos isolados, denominados de pontos singulares. Outra observação importante:
a escolha dos parâmetros q i deve ser feita de tal forma que os valores assumidos por eles proporcionem a
quase totalidade dos valores assumidos pelas coordenadas xr .
Uma vez que a dinâmica de um dado sistema é caracterizada por n coordenadas generalizadas q i , então as
funções q i (t) representam a solução para a dinâmica deste sistema. Portanto, podemos formar um espaço real
n-dimensional com tais coordenadas generalizadas, conhecido como espaço de configuração do sistema. Um
determinado ponto no espaço de configuração representa univocamente um dado estado (ou configuração)
do sistema. Em outras palavras, todo o sistema mecânico pode ser trocado por um único ponto no espaço
de configuração. As curvas q i (t), entre dois instantes de tempo, são conhecidas como trajetórias do espaço de
configuração. Vale ressaltar que elas não representam as trajetórias reais do sistema no espaço tridimensional.
1. Equações de movimento 7

Einstein mostrou que o espaço euclideano é uma aproximação para a geometria da nossa realidade fı́sica,
aproximação válida apenas em regiões infinitesimais. Segundo a teoria da relatividade geral de Einstein,
a geometria da nossa realidade é melhor descrita pela geometria riemanniana (em quatro dimensões). A
geometria riemanniana é totalmente caracterizada por uma matriz simétrica e invertı́vel gkl denominada de
métrica. Tanto a curvatura intrı́nseca do espaço quanto as distâncias infinitesimais ds são calculadas em
função da métrica. Em particular, para a geometria euclideana, gkl = δkl . A distância infinitesimal entre
dois pontos de um espaço riemanniano
Xn
ds2 = gkl q k q l , (1.4)
k,l=1

é uma constante perante qualquer transformação de coordenadas.


Consideremos um sistema mecânico, composto de N partı́culas, representado em um espaço de confi-
guração de 3N dimensões (demonstre que ele é euclideano). Consideremos também m vı́nculos neste sistema.
Cada um destes vı́nculos representa uma hipersuperfı́cie no espaço de 3N dimensões. A intersecção destas
superfı́cies m dimensionais com o espaço 3N -dimensional gera um subespaço de n = 3N − m dimensões.
Este subespaço não é mais euclideano, mas sim um espaço curvo, riemanniano. A substituição das 3N
coordenadas euclideanas pelas n coordenadas generalizadas faz com que a distância infinitesimal no espaço
de configuração seja dada por
Xn
ds2 = akl q k q l , (1.5)
k,l=1

onde akl (q) são funções das coordenadas generalizadas (prove). Continuando nesta linha, o movimento de um
sistema mecânico arbitrário pode ser estudado como o movimento de uma partı́cula livre em um determinado
espaço riemanniano. Assim, o problema mecânico é transformado em um problema de geometria diferencial.

1.3 Equações de movimento


As equações de movimento descobertas por Lagrange (e também por Euler) podem ser determinadas por
dois princı́pios variacionais. Em um caso, variações (ou deslocamentos virtuais, descritos no Apêndice D)
infinitesimais em torno de um estado do sistema em um determinado instante são tomadas. As equações
de movimento são obtidas impondo que o trabalho das forças atuantes (incluindo as forças de inércia,
introduzidas por D’Alembert) no sistema seja nulo para qualquer variação infinitesimal em torno do estado
de equilı́brio. Portanto, este é um princı́pio diferencial, pois precisamos conhecer o estado do sistema apenas
em um dado instante de tempo. No outro caso, as equações de movimento são obtidas efetuando variações
infinitesimais em torno da trajetória atual (no espaço de configuração) em um dado intervalo de tempo. Neste
caso, precisamos considerar todas as possı́veis trajetórias no espaço de configuração entre dois instantes de
tempo e, daı́, a denominação de princı́pio integral (devido a Hamilton).

1.3.1 O princı́pio diferencial


Consideremos um sistema com N partı́culas, descrito por 3N coordenadas cartesianas xr , r = 1, . . . , 3N .
Vamos supor que estas coordenadas satisfazem m equações de vı́nculos da forma

φk (x; t) = 0, k = 1, 2, . . . , m . (1.6)

Vı́nculos deste tipo são denominados de holonômicos. Como as forças necessárias para manter estes vı́nculos
não realizam trabalho, elas podem ser eliminadas das equações de movimento pela substituição das 3N
coordenadas cartesianas por n = 3N − m coordenadas generalizadas (linearmente independentes) q s , s =
1, . . . , n:
xr = xr (q; t), r = 1, . . . , 3N . (1.7)
Estas equações podem ser invertidas:

q s = q s (x; t), s = 1, . . . , n . (1.8)


8 1. O Formalismo de Hamilton

Diferenciando a (1.7) com relação ao tempo, teremos


X ∂xrn
d ∂xr
ẋr ≡ xr (q; t) = s
q̇ s + . (1.9)
dt s=1
∂q ∂t

Esta é uma nova função de q e q̇ (velocidades generalizadas). Considerando q e q̇ como linearmente indepen-
dentes, então
∂ ẋr ∂xr
= . (1.10)
∂ q̇ s ∂q s
A fim de efetuarmos variações infinitesimais nas coordenadas e calcularmos o trabalho correspondente,
devemos permitir que as coordenadas generalizadas q dependam de um parâmetro real λ de tal forma que
q s = q s (λ = 0) e que admita uma expansão de Taylor em torno de λ:
¯
dq s ¯¯
q s (λ + ∆λ) = q s (λ) + ∆λ + O(∆λ2 ). (1.11)
dλ ¯λ
Isto nos permite definir as variações das coordenadas q s como
¯
s s dq s ¯¯
s
δq ≡ q (λ + ∆λ) − q (λ) = ∆λ. (1.12)
dλ ¯λ
Portanto, as variações δq s podem ser vistas como diferenciais ordinárias. Desde que o parâmetro λ não tem
um papel importante, iremos manter apenas a notação δq s , mas tendo sempre em mente que estas variações
são derivadas ordinárias. Uma conseqüência imediata desta definição para as variações é a interdependência
entre as variações das coordenadas e das velocidades generalizadas:
d s
δq = δ q̇ s . (1.13)
dt
Dito isto, podemos calcular as variações correspondentes nas coordenadas cartesianas usando a “regra da
cadeia”, pois elas são funções das coordenadadas generalizadas:
n
X n
X
∂xr ∂ ẋr
δxr = s
δq s = δq s , (1.14)
s=1
∂q s=1
∂ q̇ s

onde utilizamos o resultado (1.10).


Denotando por Fr a resultante das forças (exceto as de vı́nculos) em cada partı́cula e Cr as forças de
vı́nculos (internas), a primeira lei de Newton toma a forma

mr ẍr = Fr + Cr , r = 1, . . . , 3N. (1.15)

O trabalho total devido aos deslocamentos δxr , levando em conta que as forças de vı́nculos não realizam
trabalho, é:
X3N 3N
X
mr ẍr δxr = Fr δxr . (1.16)
r=1 r=1

Segundo o princı́pio de D’Alembert, as equações de movimento estão contidas nesta equação, a qual pode
ser reescrita como
X3N
¡ ¢
Fr − mr ẍr δxr = 0. (1.17)
r=1

O termo com o sinal negativo é a “força de inércia”. No entanto, como as coordenadas cartesianas não são
linearmente independentes, devemos passar a Eq. (1.16) para as coordenadas generalizadas com o auxı́lio de
(1.14). Devido à independência das variações δq s , a Eq. (1.16) é equivalente a
3N
X 3N
X ∂ ẋr
∂ ẋr
mr ẍr s
= Fr s ≡ Qs , (1.18)
r=1
∂ q̇ r=1
∂ q̇
1. Equações de movimento 9

onde Qs são as forças generalizadas. Introduzindo a energia cinética total do sistema,


3N
1X
T = mr ẋ2r , (1.19)
2 r=1

na Eq. (1.18), podemos escrevê-la de novo como:

d ∂T ∂T
Qs = s
− s. (1.20)
dt ∂ q̇ ∂q
Em geral, o trabalho feito pelas forças Fr devido às variações nas coordenadas,

δW = Fr δxr = Qs δq s , (1.21)

não dependem apenas das configurações (estados) finais e, portanto, não é um diferencial exato. No entanto,
podemos nos restringir aos casos em que a força generalizada Qs é derivada de uma função escalar V (q, q̇; t),
denominada de potencial:
d ∂V ∂V
Qs = − s. (1.22)
dt ∂ q̇ s ∂q
Os principais sistemas fı́sicos estão nesta categoria. Os sistemas que têm um potencial independente da
velocidade são denominados de conservativos. As equações de movimento para os casos que obedecem a
Eq. (1.22) podem ser derivadas de uma única função (escalar) denominada de lagrangiana:

L(q, q̇; t) = T (q, q̇; t) − V (q, q̇; t). (1.23)

Substituindo a (1.22) em (1.20), obteremos as equações de movimento de Lagrange,

d ∂L ∂L
s
− s = 0. (1.24)
dt ∂ q̇ ∂q

A forma destas equações de movimento tem duas caracterı́sticas importantes: 1) a lagrangiana não é deter-
minada de forma única. Em geral, temos a liberdade de adicionar na lagrangiana a derivada temporal de
uma função arbitrária das coordenadas e do tempo,

L → L + Ḟ (q; t), (1.25)

sem alterar as equações de movimento (1.24); 2) a equação de Lagrange é invariante por transformações
pontuais de coordenadas no espaço de configuração,

q s = q s (q̄; t), (1.26)

onde q̄ são as novas coordenadas.


Um exemplo muito importante, que ilustra todo o procedimento descrito até aqui, é dado por uma
partı́cula (não-relativı́stica) em um campo eletromagnético. Vamos escrever a força de Lorentz na forma
e
F(r, ṙ; t) = eE(r; t) + ṙ × B(r; t), (1.27)
c
e as equações para os campos em termos dos potenciais na forma
1 ∂
E(r; t) = −∇φ(r; t) − A(r; t), B(r; t) = ∇ × A(r; t). (1.28)
c ∂t
O problema maior aqui é saber quem é o potencial que leve a força de Lorentz na equação de Lagrange
(1.24). Após algum esforço, chegaremos à conclusão que este potencial é
e
V = eφ − ṙ · A. (1.29)
c
10 1. O Formalismo de Hamilton

1.3.2 O princı́pio integral


As equações de Lagrange (1.24) obtidas na seção anterior foram determinadas considerando apenas as pro-
priedades locais das trajetórias no espaço de configurações. Isto é, foi usado apenas deslocamentos virtuais
(ou deslocamentos independentes) em um dado instante de tempo. No entanto, esta não é a única forma que
temos para determinar as equações de movimento ou, equivalentemente, a trajetória de um sistema dinâmico
no espaço de configurações. Existe uma outra forma de derivar as equações de Lagrange considerando pro-
priedades globais (em intervalos de tempo finitos) das trajetórios no espaço de configurações. Neste caso, as
equações de movimento são obtidas através de uma condição imposta numa função escalar denominada de
ação: sempre que ela atingir um ponto extremo (máximo, mı́nimo ou de inflexão), as equações de Lagrange
serão obtidas. Esta é a essência do princı́pio variacional (integral ou global) devido a Hamilton, o qual
passaremos a discutir em detalhes. É importante frisar que a ação desempenha um papel central nas teorias
modernas de campos (clássicos e quânticos).
Seja C qualquer trajetória conectando as configurações Q1 = q(t1 ) e Q2 = q(t2 ). As velocidades em
qualquer ponto de C são dadas por
d
q̇ s (t) = q s (t). (1.30)
dt
Como a lagrangiana L do sistema é uma função das coordenadas q(t) e das velocidades q̇(t), então a integral
Z t2
Φ[C] ≡ dtL(q, q̇; t), (1.31)
t1

terá um valor para cada curva C. Esta integral é denominada de ação. Matematicamente, a ação (1.31)
é um funcional, pois o seu valor depende das formas funcionais das coordenadas e da lagrangiana. Seja
C 0 uma outra curva infinitesimalmente próxima à curva C. Isto implica que os pontos extremos da curva
C 0 , Q01 = q 0 (t01 ) e Q02 = q 0 (t02 ), também diferem apenas infinitesimalmente dos pontos extremos da curva
C. Considerando estas duas curvas arbitrárias, podemos sempre definir dois tipos de variações para as
coordenadas. Um tipo de variação é dado por medidas efetuadas independentemente nas coordendas em um
mesmo instante de tempo:
δq s (t) ≡ q 0s (t) − q s (t). (1.32)
As variações correspondentes nas velocidades são:
d s
δq (t) = δ q̇ s (t) = q̇ 0s (t) − q̇ s (t). (1.33)
dt
Denominaremos este tipo de variação de deslocamentos virtuais (veja o Apêndice D). O outro tipo, deno-
minado de variação total, é definido em instantes de tempo diferentes:

∆q s (t) ≡ q 0s (t0 ) − q s (t). (1.34)

Além de podermos comparar os valores das coordenadas nas duas curvas, podemos também, a qualquer
momento, comparar os dois relógios sobre as curvas C e C 0 :

∆t ≡ t0 − t. (1.35)

Todas estas variações, tanto nas coordenadas, velocidades e no tempo, estão interligadas. Para uam veri-
ficação, basta considerarmos variações infinitesimais. Então, até primeira ordem na série de Taylor, teremos

q 0s (t0 ) = q 0s (t + ∆t) = q 0s (t) + q̇ 0s (t)∆t. (1.36)


s s
Esta expressão nos possibilita relacionar as duas variações δq (t) e ∆q (t) na forma

∆q s (t) = δq s (t) + q̇ s (t)∆t. (1.37)

É importante salientar que as coordenadas são funções analı́ticas do tempo (portanto, admitem expansões
em séries de potências) e que todos os termos contendo infinitesimais de ordem superior, como δq ∆t, nas
expansões anteriores foram desprezados. Resta apenas calcularmos a variação da lagrangiana devido às
1. Equações de movimento 11

variações nas coordenadas para podermos enunciar o princı́pio variacional de Hamilton. A lagrangiana
sendo uma função das coordenadas de cada trajetória pode ser escrita, até primeira ordem, em um dado
instante, como
L(q 0s , q̇ 0s ; t) = L(q s + δq s , q̇ s + δ q̇ s ; t)
Xn
¡ ∂L s ∂L ¢ (1.38)
= L(q s , q̇ s ; t) + s
δq + s δ q̇ s .
s=1
∂q ∂ q̇

A variação ∆Φ na ação é:


Z t02 Z t2
0 0s 0s
∆Φ = Φ[C ] − Φ[C] = dt L(q , q̇ ; t) − dt L(q s , q̇ s ; t)
t01 t1
Z t2 Z t2 +∆t Z t1 +∆t
£ ¤
= dt L(q 0s , q̇ 0s ; t) − L(q s , q̇ s ; t) + dt L(q 0s , q̇ 0s ; t) − dt L(q 0s , q̇ 0s ; t)
t1 t2 t1
Zt2 n
X ¡ ∂L ∂L ¢ ¯t 2
= dt s
δq s + s δ q̇ s +L∆t¯t1 (1.39)
t1 s=1
∂q ∂ q̇
Z t2 Xn Xn
¡ ∂L d ∂L ¢ s ¡ ∂L s ¢¯¯t2
= dt s
− s
δq + L∆t + δq t1
t1 s=1
∂q dt ∂ q̇ s=1
∂ q̇ s
Z n
X n
t2 ¡ ∂L d ∂L ¢ s ¡X ¢¯t2
= dt − δq + ps ∆q s − H∆t ¯t ,
t1 s=1
∂q s dt ∂ q̇ s s=1
1

onde
n
X
∂L
ps ≡ , H≡ ps q̇ s − L(q, q̇; t) (1.40)
∂ q̇ s s=1

são as variáveis conjugadas às coordenadas q s e ao tempo t, respectivamente. Veremos que estas variáveis
conjugadas desempenharão um papel importante na formulação hamiltoniana. Vale notar que a variação
∆Φ calculada na última linha de (1.39) depende apenas da curva C e não mais da curva C 0 .
Consideremos inicialmente a situação particular onde variações nas trajetórias são feitas de forma a
manter os extremos fixos: ¯t2 ¯t 2
∆t¯t = ∆q s ¯t = 0. (1.41)
1 1

Neste caso, podemos reescrever a (1.39) como


Z t2 X n
¡ ∂L d ∂L ¢ s
∆Φ = dt s
− δq . (1.42)
t1 s=1
∂q dt ∂ q̇ s

Vemos então que ∆Φ[C] = 0, pois esta variação é diretamente proporcional às equações de Lagrange as quais
são válidas para a trajetória C (atual) do sistema (as variações nas coordenadas generalizadas são todas
independentes). Reciprocamente, podemos afirmar que se impormos que variações na trajetória em que o
sistema se encontra devam se anular, mantendo os pontos extremos da trajetória fixos, então as equações
de Lagrange são obtidas. Portanto, elegantemente, podemos caracterizar, no espaço de configurações, a
dinâmica de um dado sistema assim: a trajeória atual desse sistema é aquela que deixa a ação (1.31)
estacionária, isto é, as variações de primeira ordem ∆Φ são nulas. Este é o princı́pio de Hamilton. As
equações de Lagrange são derivadas deste princı́pio.
Vamos considerar agora o caso mais geral em que os extremos não são mais mantidos fixos. Admitindo
que as equações de Lagrange são válidas na trajetória C, neste caso, a Eq. (1.39) pode ser reescrita como:
n
¡X ¢¯t2
∆Φ[C] = ps ∆q s − H∆t ¯t1 . (1.43)
s=1

Como esta variação depende apenas das variações totais nos pontos extremos, podemos estender o princı́pio de
hamilton trocando a condição ∆Φ[C] = 0 pela condição (1.43), isto é, que a variação ∆Φ[C] dependa apenas
12 1. O Formalismo de Hamilton

dos pontos extremos. Note que as equações de Lagrange continuam sendo derivadas deste princı́pio. As
quantidades ps e H também são conhecidas como o momentum generalizado e hamiltoniana, respectivamente.
Em termos do momentum generalizado ps , as equações de Lagrange (1.24) podem ser reescritas em termos
dos momenta generalizados (1.40) simplesmente como

∂L ∂L
ṗs = , ps = . (1.44)
∂q s ∂ q̇ s

Vamos recapitular o que fizemos até aqui. Nós reformulamos a dinâmica newtoniana construindo um
espaço formado por pontos que representam, em um dado instante de tempo, a configuração do sistema.
Esta configuração é caracterizada por um determinado conjunto de parâmetros independentes os quais foram
denominados de coordenadas generalizadas. Assim, a dinâmica do sistema será representada por trajetórias
no espaço de configurações. As equações de movimento newtonianas foram substituı́das pelas equações de
Lagrange, determinadas exclusivamente pela lagrangiana do sistema, como uma conseqüência do princı́pio
de Hamilton.

1.4 Lagrangianas e hamiltonianas


Existe uma alternativa à formulação lagrangiana denominada de formulação hamiltoniana. Enquanto que as
variáveis básicas na formulação lagrangiana são as coordenadas generalizadas q e suas respectivas derivadas
q̇, na formulação hamiltoniana as variáveis básicas são as coordenadas generalizadas q e seus momenta conju-
gados p. Esta é, e foi assim historicamente, a forma adequada para o desenvolvimento da Fı́sica Quântica. A
Eq. (1.40) contém a relação entre a lagrangiana e a hamiltoniana, a nova função que determinará as equações
de movimento. Desta forma, as velocidades q̇ devem ser substituı́das pelos momenta p, ou seja, q̇ = q̇(q, p; t),
sempre que for possı́vel. Naturalmente, as novas equações de movimento, denominadas de equações de Ha-
milton, também deverão advir do mesmo princı́pio variacional. Para verificar isto, precisaremos construir
um espaço formados pelas coordenadas generalizadas q e os momenta conjugados p. Este espaço é denomi-
nado de espaço de fase. Cada ponto neste espaço de 2n componentes determina univocamente um estado
do sistema em um dado instante de tempo. Assim, como no espaço de configurações, a dinâmica de um
dado sistema fı́sico será representada por uma trajetória (superfı́cie) no espaço de fase a qual obedecerá as
equações de movimento de Hamilton, as quais serão determinadas em seguida.
Dado dois pontos no espaço de fase, P1 = (q(t1 ), p(t1 )) e P2 = (q(t2 ), p(t2 )), podemos imaginar o sistema
indo do ponto P1 , no tempo t1 , até o ponto P2 , no tempo t2 > t1 , em uma trajetória C. Cada ponto desta
curva no espaço de fase é do tipo P (t) = (q(t), p(t)), sujeito à condição de contorno Pi = (q(ti ), p(ti )),
i = 1, 2. Com o auxı́lio da relação (1.40) entre a lagrangiana e a hamiltoniana, podemos definir uma ação
no espaço de fase (um funcional da trajetória C) a partir da ação (1.31) no espaço de configurações:
Z t2 Z t2 ·X
n ¸
s
Ψ[C] = L dt = p(t)q̇(t) − H(q (t), ps (t), t) dt. (1.45)
t1 t1 s=1

Vamos agora considerar pequenas variações na trajetória C decorrentes de variações independentes δp(t) e
δq(t) nas coordenadas p(t) e q(t), respectivamente. Os pontos extremos também sofrerão variações. Estas
variações no espaço de fase serão idênticas àquelas do espaço de configurações, ou seja, teremos dois tipos de
variações: uma denotada por δ, onde as coordenadas são comparadas em trajetórias diferentes (C e C 0 ) no
mesmo tempo, e outra denotada por ∆ (variação total), onde as coordenadas são comparadas em trajetórias
diferentes e em tempos diferentes. Por exemplo, considerando apenas os termos de primeira ordem nas
variações, a quantidade p0s (t)q̇ 0s (t) pode ser reescrita como:

p0s (t)q̇ 0s (t) = (ps + δps )(q̇ s + δ q̇ s ) = ps q̇ s + ps δ q̇ s + q̇ s δps . (1.46)

Utilizando a relação (1.37) que relaciona os dois tipos de variações, podemos reescrever a quantidade
ps (t)δq s (t) como:
ps (t)δq s (t) = ps (∆q s − q̇ s ∆t) = ps ∆q s − ps q̇ s ∆t. (1.47)
1. Lagrangianas e hamiltonianas 13

Quando a hamiltoniana é avaliada em C 0 , diferindo apenas infinitesimalmente de C, pode ser escrita, até
primeira ordem nas variações, como:
Xn · ¸
∂H s ∂H
H(q 0 , p0 ; t) = H(q, p, t) + H(q + δq, p + δp; t) = H(q, p; t) + δq + δp s . (1.48)
s=1
∂q s ∂ps

Calculemos agora a variação na ação (1.45):

∆Ψ = Ψ[C 0 ] − Ψ[C]
Z t02 ·X n ¸ Z t2 ·X
n ¸
= dt p0s (t)q̇ 0s (t) − H(q 0 (t), p0 (t), t) − dt ps (t)q̇ s (t) − H(q(t), p(t), t)
t01 s=1 t1 s=1
Z t2 ½X
n ¾ Z t02 Z t01
£ 0 0s s
¤ 0 0 0 0
= dt ps q̇ − ps q̇ − H(q , p ; t) + H(q, p; t) + dtL(q , p ; t) − dtL(q, p; t)
t1 s=1 t2 t1 (1.49)
Z t2 n ·µ
X ¶ ¸ · ¸ ¯t2
∂H ∂H s ¯
= dt s
q̇ − δps + ps q̇ − s δq + L(q , p ; t) − L(q, p; t) ∆t¯¯
s 0 0
t1 s=1
∂p s ∂q t1
Z t2 X n ·µ ¶ µ ¶ ¸ ·X n ¸¯t2
∂H ∂H ¯
= dt q̇ s − δps − ṗs + s δq s + ps ∆q s − H∆t ¯¯ ,
t1 s=1
∂ps ∂q s=1 t1

onde utilizamos os três últimos resultados e integração por partes. Novamente, requerendo que esta variação
dependa apenas dos pontos extremos,
· Xn ¸¯t2
¯
∆Ψ = − H∆t − ps ∆q s ¯¯ = ∆Φ, (1.50)
s=1 t1

então obtemos as equações de Hamilton para o movimento como conseqüência:


∂H ∂H
q̇ s = , ṗs = − . (1.51)
∂ps ∂q s
Vale notar que a variação da ação (1.50) contém informações dinâmicas importantes, principalmente para
a relatividade especial (veja o Apêndice C). Estas informações surgem na seguinte situação. Consideremos
que a evolução dinâmica do sistema esteja em sua trajetória real e que as variações ∆t e ∆q s sejam nulas
em t1 (esta condição não é necessária mas simplifica os cálculos seguintes). Consideremos agora o ponto
extremo t2 em qualquer lugar sobre a trajetória do sistema. Isto significa que podemos interpretar a ação Ψ
como uma função de q, p e t, cujo diferencial total é
Xn µ ¶
∂Ψ s ∂Ψ ∂Ψ
∆Ψ(p, q; t) = s
∆q + ∆ps + ∆t. (1.52)
s=1
∂q ∂p s ∂t

No entanto, vemos em (1.50) que este diferencial tem uma forma muito particular quando restringimos a
ação Ψ sobre a trajetória real do sistema,
n
X
∆Ψ = ps ∆q s − H∆t. (1.53)
s=1

Portanto, comparando estas duas expressões, temos que


∂Ψ
ps = ,
∂q s
(1.54)
∂Ψ
−H = ,
∂t
isto é, o momentum generalizado é a derivada parcial da ação em relação à variável conjugada (coordenadas
generalizadas) e a hamiltoniana é a derivada parcial da ação em relação ao tempo (variável conjugada à
14 1. O Formalismo de Hamilton

hamiltoniana). Note que a ação não possui uma dependência com o momentum generalizado devido à forma
particular da variação (1.50). Na relatividade especial, a quantidade H/c será a componente temporal do
quadrivetor momentum linear.
Algumas observações importantes. Embora as equações diferenciais de Hamilton sejam de primeira
ordem, elas formam um sistema com o dobro de equações em relação ao conjunto das equações diferenciais
de Lagrange, as quais são de segunda ordem no espaço de configurações. Isto acarreta um contraste curioso
entre os dois formalismos. Dado dois pontos no espaço de configurações, sempre podemos encontrar uma
trajetória conectando estes dois pontos. Isto é possı́vel devido à arbitrariedade na escolha da velocidade inicial
q̇ (devemos lembrar que uma equação diferencial de segunda ordem necessita de duas constantes iniciais).
A situação no espaço de fase é completamente diferente devido às equações de Hamilton serem de primeira
ordem. Como uma equação diferencial de primeira requer apenas uma constante inicial, então uma trajetória
no espaço de fase é determinada completamente pela fase inicial (posição e momentum generalizado). Desta
forma, em geral não será possı́vel garantir que uma determinada trajetória satisfazendo as equações de
Hamilton passe por dois pontos escolhidos previamente no espaço de fase. No entanto, veremos que os dois
formalismos, lagrangiano e hamiltoniano, são completamente equivalentes. Naturalmente, para cada escolha
da velocidade inicial no espaço de configurações haverá uma curva diferente no espaço de fase correspondendo
aos mesmos pontos fixos para as coordenadas generalizadas.
Resta mostrar que o formalismo lagrangiano e hamiltoniano são equivalentes. Consideraremos aqui o
caso em que as velocidades generalizadas q̇ possam ser escritas em função das coordenadas generalizadas
q e seus momenta conjugados p. Isto significa que a primeira equação em (1.40) que define p = p(q, q̇; t)
possa ser invertida para as velocidades q̇ = q̇(q, p; t). Tendo em vista esta consideração, desejamos encontrar
um função H(q, p; t) que contenha as equações de movimento de Hamilton e que esteja relacionada com a
lagrangiana L(q, q̇; t) através da transformação em (1.40). Uma indicação de como encontrar tal função H
é dada pelas equações de Lagrange na forma (1.44). Como o lado esquerda dela não envolve explicitamente
as velocidades q̇, devemos procurar por uma função H 0 (q, p; t) tal que
¯ ¯
∂L ¯ ∂H 0 ¯
ṗs = s ¯¯ = k s ¯¯ , (1.55)
∂q q̇ ∂q p
onde k é uma constante. Assim, o lado direito de (1.44) também não conterá as velocidades q̇ explicitamente.
A questão agora é saber se existe tal função H 0 (q, p; t) e qual sua relação com a hamiltoniana H(q, p; t). As
respostas estão contidas na soma dos diferenciais de L(q, q̇; t) e H 0 (q, p; t):
Xn µ ¶ n µ ¶
∂L s ∂L s ∂L X ∂L s s ∂L
dL(q, q̇; t) = s
dq + s
d q̇ + = s
dq + ps dq̇ + dt,
s=1
∂q ∂ q̇ ∂t s=1
∂q ∂t
n µ ¶ (1.56)
X ∂H 0 s ∂H 0 ∂H 0
0
dH (q, p; t) = dq + dps + dt.
s=1
∂q s ∂ps ∂t

Usando a relação ps dq̇ s = d(ps q̇ s ) − q̇ s dps , a soma desses diferenciais pode ser reescrita como
n · µ ¶ ¸
¡ 0 X s
¢ X ∂H 0 s ∂H 0 ∂
d H − ps q̇ + L = (1 + k) s dq + − q̇ dps + (L + H 0 )dt.
s
(1.57)
s s=1
∂q ∂ps ∂t

Podemos ver então que o lado direito desta expressão é o diferencial exato de uma função dependente de q,
p e t. No entanto, o lado esquerdo contém termos dependentes de q̇, os quais podem ser eliminados caso
possamos definir uma nova função H(q, p; t),
X
H(q, p; t) = ps q̇ s − L(q, q̇; t). (1.58)
s

A soma desses diferenciais anteriores em termos desta função H pode ser reescrita como
Xn · µ ¶ ¸
0 ∂H 0 s ∂H 0 ∂
d(H − H) = (1 + k) s dq + − q̇ dps + (L + H 0 )dt
s

s=1
∂q ∂ps ∂t
n · ¸ (1.59)
X ∂ ∂ ∂
= s
(H 0 − H)dq s + (H 0 − H)dps + (H 0 − H)dt.
s=1
∂q ∂ps ∂t
1. Lagrangianas e hamiltonianas 15

Portanto a função H 0 (q, p; t) existe quando H(q, p; t) for da forma (1.40) e as relações seguintes (equações de
Hamilton) forem satisfeitas:
∂H 0 ∂ ∂H
− q̇ s = (H 0 − H) ⇒ q̇ s = , (1.60)
∂ps ∂ps ∂ps
∂H 0 ∂ ∂H
(1 + k) s = (H 0 − H) ⇒ −ṗs = s , (1.61)
∂q ∂q s ∂q
∂ ∂ ∂L ∂H
(L + H 0 ) = (H 0 − H) ⇒ − = . (1.62)
∂t ∂t ∂t ∂t
Note que a última relação envolvendo as derivadas parciais no tempo de L e H são inéditas. Podemos
também inverter todo o processo: obter as equações de Lagrange a partir das equações de Hamilton. Para
tal basta escrevermos a lagrangiana na forma
n
X
L(q, q̇; t) = ps q̇ s − H(q, p; t), (1.63)
s=1

e calcular o seu diferencial total nos dois membros,


Xn µ ¶
∂L s ∂L s ∂L
dL(q, q̇; t) = s
dq + s dq̇ + dt
s=1
∂q ∂ q̇ ∂t
Xn µ ¶
s s ∂H s ∂H ∂H
= ps dq̇ + q̇ dps − s dq − dps − dt (1.64)
s=1
∂q ∂ps ∂t
Xn µ ¶
∂H ∂H
= − s dq s + ps dq̇ s − dt.
s=1
∂q ∂t

Comparando a primeira e a última linha desta expressão teremos as equações de Lagrange


∂L ∂H
ṗs = = − s, (1.65)
∂q s ∂q
∂L
ps = s (1.66)
∂ q̇
∂L ∂H
− = . (1.67)
∂t ∂t
A transformação (1.40), discutida no parágrafo anterior, é um exemplo de uma transformação de contato.
Uma transformação de contato (de primeira ordem) pode ser definida da seguinte forma. Seja F = F (x, y)
uma função arbitrária, onde x e y são linearmente independentes. Por exemplo, x = q e y = q̇. Uma
transformação da forma
x̄ = x̄(x, F ), F̄ = F̄ (x, F ), (1.68)
é uma transformação de contato se a condição seguinte for satisfeita:
∂F ∂ F̄
dF − dx = dF̄ − dx̄. (1.69)
∂x ∂ x̄
Em geral, qualquer função G(x̄, y, F̄ ; x, y, F ) (função geratriz) satisfazendo
∂G ∂F ∂G ∂G ∂ F̄ ∂G
G(x̄, y, F̄ ; x, y, F ) = 0, + = 0, + = 0, (1.70)
∂x ∂x ∂F ∂ x̄ ∂ x̄ ∂ F̄
gera uma transformação de contato. Note que podemos, em princı́pio, substituir a variável x por x̄ nas
transformações (1.68). Caso esta substituição possa ser efetuada, a nova função F̄ será uma função de x̄
e y. Por razões históricas, o caso particular onde x̄ = ∂F/∂x em (1.68) é conhecido como transformação
de Legendre. Tais transformações são muito importantes em Mecânica e Termodinâmica. Por exemplo,
a transformação (1.40) é uma transformação de Legendre com y = q, x = q̇, F = L(q, q̇; t), x̄ = p e
F̄ = −H(q, p; t). A função geratriz é G = −H − L + pq̇ = 0.
16 1. O Formalismo de Hamilton

1.5 Simetrias e leis de conservação


O conceito matemático de simetria desempenha um papel de destaque em várias áreas da Fı́sica contem-
porânea. Por exemplo, a maior parte do nosso conhecimento sobre o mundo subatômico é muito bem
explicada pelo Modelo Padrão. Este modelo unifica três das quatro forças básicas que temos conhecimento
até o presente: força eletromagnética (mantém os elétrons ligados ao núcleo), força fraca (mantém os núcleos
coesos) e força forte (confina os constituintes básicos no interior de prótons e nêutrons). Simetria, quando ex-
pressada matematicamente através dos grupos de Lie, uma homenagem a Marius Sophus Lie (1842–1899) pela
descoberta das propriedades infinitesimais dos grupos de transformações contı́nuas,12 é o elemento comum
nesta descrição unificada. Cada uma destas três forças é descrita por campos, denominados de Yang-Mills,
os quais têm suas propriedades gerais controladas pelas álgebras de Lie (u(1) para o eletromagnetismo, su(2)
para as forças fracas e su(3) para as forças fortes). Além disto, essas teorias são todas invariantes por trans-
formações de Lorentz, um grupo de Lie do tipo SO(1,3). A situação não é diferente no mundo macroscópico,
principalmente em relação ao macrocosmos obedecendo à Relatividade Geral, onde todas as leis (ou teorias)
fı́sicas devem ser invariantes por transformações gerais de coordenadas em um espaço-tempo curvo. Essas
transformações formam um grupo de Lie conhecido como o grupo dos difeomorfismos. Portanto, simetria tem
sido um dos principais guias para o estabelecimento das leis fı́sicas que temos conhecimento até o momento
e continua sendo indispensável na construção de novas teorias como, por exemplo, supercordas. Igualmente
importante ao uso de simetria como princı́pio para o estabelecimento de leis fı́sicas, devemos mencionar os
processos de quebra de simetria presentes na natureza. Essas quebras de simetria, na realidade, por des-
creverem interações e suas evoluções, é que nos permitem construir formulações matemáticas de fenômenos
naturais.
O conceito de simetria pode ser melhor entendido através do conceito de equivalência. Dois objetos
são equivalentes quando puderem ser relacionados por transformações. Estas transformações podem ser
translações, rotações, reflexões, transformações de coordenadas, etc. Podemos assim chamar de simetria
um conjunto de equivalências de um determinado objeto. Em geral, leis de conservação surgem como
conseqüência de propriedades de simetria. Isto foi demonstrado rigorosamente no começo do Séc. XX por
Emmy Amalie Nöether (1832–1935). Por exemplo, a conservação da energia mecânica é conseqüência da
lagrangiana ser invariante no tempo; da mesma forma, a conservação de momentum (linear ou angular) é
conseqüência da lagrangiana ser invariante por translações e rotações espaciais.
Do ponto de vista dinâmico, é de importância prática e teórica precisar o conceito de constante de
movimento e quantidade conservada. Qualquer função F (q, q̇; t) = C constante sobre cada uma das possı́veis
trajetórias no espaço de configuração é uma constante de movimento. Uma quantidade conservada é uma
constante de movimento que não depende explicitamente do tempo. Das equações de Lagrange (1.44),

∂L ∂L
p˙s = , ps = , (1.71)
∂q s ∂ q̇ s

podemos ver que se a uma determinada coordenada, digamos q α , não aparece explicitamente na lagrangiana,
então o momentum conjugado pα é uma constante de movimento,

∂L
p˙α = = 0. (1.72)
∂q α

Tais coordenadas q α são denominadas de coordenadas cı́clicas. Para um sistema com n graus de liberdade,
existe 2n constantes de movimento, no máximo, linearmente independentes. Admitindo que a hamiltoniana
H seja a variável conjugada da coordenada temporal t, então o resultado acima também pode ser usado para
1 Um grupo G é um conjunto de elementos {f, g, h, . . .} compartilhando as quatro propriedades seguintes: I) o “produto”

entre dois elementos sempre é um outro elemento do grupo, isto é g · h ∈ G; II) o produto é associativo: f · (g · h) = (f · g) · h;
III) sempre existe um elemento neutro I, tal que I · g = g · I = g, ∀g ∈ G; IV) sempre existe um elemento inverso g −1 , tal que
g · g −1 = g −1 · g = I, ∀g ∈ G.
2 Em geral, um grupo contı́nuo, como o grupo das rotações espaciais, tem um número infinito de elementos, pois um elemento

do grupo depende continuamente em um ou mais parâmetros reais. Portanto o estudo das propriedades gerais do grupo como
um todo é uma tarefa laboriosa. Lie mostrou que o estudo de um conjunto com um número muito reduzido de elementos
derivados dos elementos do grupo em torno da identidade é suficiente para estabelecer a maior parte das propriedades gerais
de um grupo contı́nuo. Esse conjunto reduzido forma a álgebra de Lie associada ao grupo de Lie.
1. Simetrias e leis de conservação 17

estabelecer que H também será uma quantidade conservada. De fato, usando as equações (1.67), teremos

dH X d d ∂L ∂H
= (ps q˙s ) − L(q, q̇; t) = − = . (1.73)
dt s
dt dt ∂t ∂t

Portanto, sempre que a lagrangiana ou a hamiltoniana não depender explicitamente do tempo, a hamiltoniana
H será uma quantidade conservada. Portanto, simetria por translações temporais implica na conservação da
variável conjugada H. Em particular, quando a energia cinética de um dado sistema puder ser escrita numa
forma quadrática nas velocidades e a energia potencial numa forma independente das velocidades,
1X
T (q̇; t) = mrs q̇ r q̇ s , V = V (q; t), (1.74)
2 rs

então a hamiltoniana H em (1.40) pode ser interpretada como sendo a energia total do sistema,
X X ∂L
H= ps q̇ s − L = s
q̇ s − T + V = T + V. (1.75)
s s
∂ q̇

Vimos que as equações de Lagrange (1.24) são invariantes a transformações pontuais dadas em (1.26),

q s = q s (q̄; t). (1.76)

Em geral, o valor numérico da lagrangiana não é alterado em uma transformação deste tipo. Porém a forma
funcional da lagrangiana será alterada:
¡ ¢
˙ t = L̄(q̄, q̄;
L(q, q̇; t) = L q(q̄), q̇(q̄, q̄); ˙ t), (1.77)

onde, usando (1.76),


X ∂q s ∂q s ∂ q̇ s ∂q s
q̇ s = q̄˙r + = q̇ s (q̄, q̄)
˙ ⇒ = r. (1.78)
r
∂ q̄ r ∂t ∂ q̄˙ r ∂ q̄

Vamos verificar o efeito da transformação (1.76) no espaço de fase. Devida à invariabilidade das equações
de Lagrange,
∂ L̄
p̄˙s = s , (1.79)
∂ q̄
o novo momentum conjugado p̄ pode ser definido da forma usual

∂ ∂ ¡ ¢
p̄s = ˙ t) =
L̄(q̄, q̄; ˙ t
L q(q̄), q̇(q̄, q̄);
∂ q̄˙ s ∂ q̄˙ s
X ∂L ∂ q̇ r X ∂q r (1.80)
= = pr s .
r
∂ q̇ r ∂ q̄˙s r
∂ q̄

Este resultado nos mostra que, dada a transformação (1.76), o novo momentum p̄ está automaticamente
definido em (1.80). Portanto, existirá uma transformação no espaço de fase, (q, p) → (q̄, p̄),
X ∂q r
q̄ s = q̄ s (q; t), p̄s = p̄s (p, q; t) = pr , (1.81)
r
∂ q̄ s

correspondente à transformação (1.76). Como as equações de Lagrange são equivalentes às equações de
Hamilton, então esta transformação no espaço de fase também deverá preservar as equações de Hamilton.
Vale observar que a transformação no espaço de fase dada em (1.81), na sua forma independente do tempo
q = q(q̄), é uma transformação de contato. Para verificarmos isto, basta tomarmos x = q̇, F = L e F̄ = L̄
em (1.68). Neste caso, a (1.69) e (1.81) fornecem

ps dq̇ s = p̄s dq̄˙s . (1.82)


18 1. O Formalismo de Hamilton

Veremos que as transformações de contato formam apenas um conjunto particular das transformações no
espaço de fase que preservam as equações de Hamilton. Embora as transformações de coordenadas finitas,
como as transformações de contato, tenham uma importância evidente, pois elas possibilitam as equações
de movimento serem reescritas numa forma mais simples, ainda podemos aprender muito sobre constantes
de movimento analisando somente transformações infinitesimais. Transformações infinitesimais podem ser
vistas como um dos infinitos passos sucessivos necessários para efetuarmos uma transformação finita. Em
geral, podemos escrever uma transformação infinitesimal na forma
r
X r
X
q 0s = q s + ²α φ(α)s (q, q̇; t) = q s + δq s , δq s = ²α φ(α)s , |²α | ¿ 1, (1.83)
α=1 α=1

onde ²α , α = 1, 2, . . . , r, são quantidades constantes linearmente independentes e muito pequena (parâmetros


da transformação infinitesimal) e φ(α)s (q, q̇; t) é a função que caracteriza a transformação de coordenadas.
Esta função irá definir o que será a transformação. Por exemplo, uma translação espacial, rotações espaciais,
etc. Considerando o efeito de uma transformação infinitesimal na forma funcional da lagrangiana, podere-
mos inferir que quantidades serão conservadas como conseqüência da invariabilidade da forma funcional da
lagrangiana. Uma variação δq s nas coordenadas causa uma variação correspondente na lagrangiana:

δL = L(q 0 , q̇ 0 ; t) − L(q, q̇; t) = L(q + δq, q̇ + δ q̇; t) − L(q, q̇; t)


Xµ ∂L ∂L s
¶ X µ
∂L (α)s ∂L (α)s

s
= δq + δ q̇ = ² α φ + φ̇
s
∂q s ∂ q̇ s α,s
∂q s ∂ q̇ s (1.84)
X ¡ ¢ X d X
= ²α ṗs φ(α)s + ps φ̇(α)s = ²α ps φ(α)s ,
α,s α
dt s

onde, como usual, fizemos uso das equações de Lagrange (1.44). Lembrando que as constantes ²α são
linearmente independentes, podemos ver da expressão anterior que a quantidade
n
X
ps φ(α)s (1.85)
s=1

é uma constante de movimento quando a variação δL for nula. A variação δL = 0 significa que a lagrangiana
L é invariante à transformação de coordenadas infinitesimal dada em (1.83). Este resultado é uma versão
simplificada do teorema de Nöether. Mesmo quando a variação da lagrangiana não é exatamente nula, ainda
podemos obter constantes de movimento. Por exemplo, quando
r
X dFα
δL = ²α , (1.86)
α=1
dt

onde Fα é uma função arbitrária , ainda teremos a quantidade


X
ps φ(α)s − Fα (1.87)
s

como uma constante de movimento. Nesta situação dizemos que a lagrangiana é quasi-invariante.
É ilustrativo considerarmos o caso de uma partı́cula livre em movimento translacional ou rotacional. Em
qualquer um destes dois casos teremos apenas três graus de liberdade, s = 1, 2, 3. Assim, as coordenadas
generalizadas q s podem ser interpretadas como as componentes espaciais xk , k = 1, 2, 3, do vetor posição
e as variáveis conjugadas como as componentes do momentum linear. Consideremos inicialmente uma
transformação com um único parâmetro infinitesimal ² e independente das coordenadas,

φk = ak , (1.88)

correspondendo a uma translação espacial por um vetor ~a constante. Então, de acordo com (1.85), as
componentes pk do momentum linear p~ são quantidades conservadas. Portanto, podemos afirmar que a
1. Simetrias e leis de conservação 19

invariabilidade da lagrangiana por translações espaciais implica na conservação do momentum linear. Con-
sideremos agora o movimento de rotação da partı́cula em torno de um eixo fixo, sem translações. Essas
rotações tridimensionais podem ser parametrizadas por três parâmetros ²i , i = 1, 2, 3, e uma dependência
com as coordenadas da forma (veja a Eq. (B.24) no Apêndice B):

3
X
φ(i)k = εijk xj , (1.89)
j=1

onde εijk é o tensor completamente anti-simétrico de Levi-Civita (Tullio Levi-Civita, 1873–1941) em três
dimensões.3 Assim, da Eq. (1.85), as componentes do momentum angular

3
X
Li = εijk xj pk = (r × p)i , (1.90)
j,k=1

são quantidades conservadas. Portanto, invariabilidade rotacional na lagrangiana implica na conservação


do momentum angular. Em todos os exemplos dados até agora, quando a lagrangiana é invariante por
transformações em uma determinada variável (tempo, posição e ângulo de rotação) a variável conjugada
correspondente (hamiltoniana ou energia, momentum linear e angular, respectivamente) é conservada.
A análise das condições que uma determinada quantidade F deva ter para ser uma quantidade conservada
é melhor analisada no espaço de fase. Esta facilidade é devida ao diferencial total de uma função arbitrária
F (q, p; t) no espaço de fase depender apenas das variáveis básicas (p, q) e possivelmente do tempo:4

d Xµ ∂F ∂F s

∂F
s
Ḟ = F (q, p; t) = s
q̇ + s
ṗ +
dt s
∂q ∂p ∂t
µ
X ∂F ∂H ¶
∂F ∂H ∂F
= − s s + (1.91)
s
∂q ∂p s ∂p ∂q ∂t
s
∂F
= [F, H](q,p) + ,
∂t

onde utilizamos as equações de Hamilton (1.51) e a definição seguinte:

Xµ ∂F ∂H ∂F ∂H

[F, H](q,p) = −[H, F ](q,p) = − s s . (1.92)
s
∂q s ∂ps ∂p ∂q

Esta quantidade, de importância fundamental para o formalismo hamiltoniano, é denominada de parênteses


de Poisson (Siméon Denis Poisson, 1781–1840). Podemos ver que F (q, p), sem a dependência explı́cita no
tempo, será uma quantidade conservada sempre que [F, H](q,p) = 0. Como [H, H](q,p) = 0 para uma função
arbitrária H, devido à propriedade de anti-simetria do parêntese de Poisson, então a hamiltoniana sem uma
dependência explı́cita do tempo será uma quantidade conservada.
Sendo F uma função arbitrária no espaço de fase, então podemos considerar as equações de Hamilton
(1.51) como casos particulares da derivada total em (1.91), com F = q e F = p, respectivamente:

q̇ s = [q s , H](q,p) , ṗs = [ps , H](q,p) . (1.93)

Também pode ser verificado diretamente da definição (1.92) que os parênteses de Poisson das variáveis básicas
(q, p), consideradas como independentes, são

[q s , q r ](q,p) = [ps , pr ](q,p) = 0, [q s , pr ](q,p) = δrs . (1.94)


3 Este tensor é completamente anti-simétrico em quaisquer dois ı́ndices, igual a zero para ı́ndices repetidos e igual a um

(menos um) para permutações positivas (negativas). Uma permutação é positiva (negativa) quando o número de transposições
(permutação envolvendo dois elementos) para voltar à identidade for par (ı́mpar).
4 No espaço de configuração o diferencial total contém também acelerações, além das coordenadas e velocidades.
20 1. O Formalismo de Hamilton

1.6 Geometria simpléctica


1.6.1 Métrica simpléctica
O parêntese de Poisson definido em (1.92) possui várias propriedades importantes. A determinação e análise
de suas utilidades podem ser efetuadas de forma muito simples quando uma estrutura métrica é introduzida
no espaço de fase. A fim de construir esta estrutura métrica, vamos inicialmente modificar a nossa forma
de escrever um ponto (q, p) no espaço de fase em um determinado tempo t. Considerando um sistema com
n graus de liberdade, denotaremos um ponto no espaço de fase pelo vetor contravariante ω µ , µ = 1, . . . , 2n,
onde
(ω µ ) = (q 1 , . . . , q n , p1 , . . . , pn ). (1.95)
As componentes covariantes correspondentes serão determinadas pela métrica simpléctica5 ζ:

ωµ = ζµν ω ν , (ωµ ) = (−p1 , . . . , −pn , q 1 , . . . , q n ), (1.96)

onde
 

 1 se µ ≤ n e ν = n + µ, 
−1 se µ ≤ n e ν = n + µ,
ζ µν = −ζ νµ = −1 se ν ≤ n e µ = n + ν, ζµν = −ζνµ = 1 se ν ≤ n e µ = n + ν, (1.97)

 

0 todos os demais casos; 0 todos os demais casos.

Estas componentes anti-simétricas da métrica satisfazem as relações usuais de ortogonalidade:

ζ µα ζαν = ζνα ζ αµ = δνµ . (1.98)

Como exemplo, consideremos n = 2. Neste caso, as componentes contravariantes e covariantes da métrica


podem ser agrupadas numa matriz 4 × 4:

0 0 1 0 0 0 −1 0
µν 0 0 0 1 0 0 0 −1
(ζ )= , (ζµν ) = . (1.99)
−1 0 0 0 1 0 0 0
0 −1 0 0 0 1 0 0

O espaço de fase com a métrica (1.97) é denominado de espaço de fase simpléctico. Devido à forma da métrica
em (1.97), a operação de contração ωα η α neste espaço é anti-simétrica:

ωα η α = ζαβ ω β η α = −ω β ζβα η α = −ω β ηβ = −ω α ηα . (1.100)

Quando o valor da operação de contração em uma das componentes entre dois objetos dados é zero, diz-se
que estes objetos são anti-ortogonais. Portanto, qualquer objeto é anti-ortogonal a si mesmo:

ωα ω α = −ω β ωβ ⇒ ωα ω α = 0. (1.101)

1.6.2 Transformações simplécticas


Vamos denotar por V 2n o espaço de fase simpléctico. O conjunto de todos os pontos neste espaço forma um
espaço vetorial de dimensão 2n. Seja {R, S, T , . . .} o conjunto das transformações lineares, R : V 2n → V 2n ,
em V 2n . As transformações de coordenadas no espaço de fase simpléctico que matêm invariante a operação
de contração,
ωα ω̄ α = ηα η̄ α , η = Rω, η̄ = Rω̄, (1.102)
são denominadas de transformações simplécticas.6 Devido à condição quadrática em (1.102), as componentes
matriciais Rµ ν da transformação simpléctica R,

η µ = Rµ ν ω ν , (1.103)
5A palavra simpléctico em grego significa entrelaçado. Note que a métrica simpléctica troca sempre q com −p e p com q.
6 No Apêndice A é feita uma discussão mais ampla sobre transformações lineares e suas propriedades.
1. Geometria simpléctica 21

não são todas linearmente independentes, mas satisfazem a seguinte relação quadrática:
µ −1 ν
Rα µ Rβ ν ζαβ = ζµν ⇒ (R−1 ) α (R ) β ζµν = ζαβ . (1.104)

Como ζµν é anti-simétrico, estas relações envolvem n(2n − 1) elementos de matriz da transformação R.
Portanto, somente n(2n + 1) elementos serão linearmente independentes. De (1.104) podemos escrever os
elementos de matriz de uma transformação inversa (admitindo que ela exista):
µ
(R−1 ) ν = ζ µβ ζαν Rα β = −Rν µ . (1.105)

Ainda admitindo a existência da inversa, podemos escrever a transformação correspondente para as compo-
nentes covariantes ωµ :

ηµ = ζµν η ν = ζµν Rν α ω α = ζµν Rν α ζ αβ ωβ = −Rµ β ωβ = (R−1 )β µ ωβ . (1.106)

Assim, enquanto as componentes contravariantes (1.103) transformam com a matriz da transformação pro-
priamente dita, as componentes covariantes (1.106) transformam com a matriz inversa. Definiremos como
tensor no espaço de fase simpléctico qualquer objeto cujas componentes sejam funções das coordenadas ω, e
possivelmente do tempo, que transformam da mesma forma que as componentes das coordenadas em (1.103)
e (1.106). O número de ı́ndices (ou “entradas”) aparecendo nas componentes de um tensor é denominado
de ordem do tensor. Por exemplo, sendo T µ ν um tensor de ordem dois, então sabemos que, por definição,
suas componentes deverão transformarem-se como:

T µ ν → −Rµ α Rν β T α β . (1.107)

Um tensor é uma quantidade invariante quando suas componentes transformadas forem idênticas às compo-
nentes originais. Por exemplo, a métrica simpléctica ζµν é um tensor covariante de ordem dois, anti-simétrico
e invariante. O carácter invariante pode ser visto da relação quadrática em (1.104). Estes resultados também
estão comentados na Subseção A.4.3 do Apêndice A. Mostramos também naquele apêndice que as trans-
formações simplécticas formam o grupo simpléctico Sp(2n), contendo n(2n + 1) geradores, os quais formam
uma álgebra de Lie e podem ser representados por matrizes simétricas de traço nulo.

1.6.3 Parênteses de Poisson e de Lagrange


A métrica simpléctica e a operação de contração nos permite reescrever os parênteses de Poisson, definidos
em (1.92), numa forma simplificada. Sejam Fk (ω; t), k = 1, . . . , r, funções arbitrárias definidas no espaço de
fase (veja o Apêndice A). Então o parêntese de Poisson definido em (1.92) pode ser escrito como:

∂Fk
[Fk , Fl ]ω = ζ µν Fk,µ Fl,ν = Fk,ν Fl ,ν , Fk,µ = . (1.108)
∂ω µ
Assim, podemos ver que o parêntese de Poisson é invariante por transformações simplécticas, devido à
contração no lado direito. Devido à propriedade de anti-simetria (1.100) desta mesma contração, o parêntese
de Poisson e anti-simétrico,

[Fk , Fl ]ω = −[Fl , Fk ]ω ⇒ [Fk , Fk ]ω = 0. (1.109)

Vemos de (1.108) que as variáveis básicas do espaço de fase satisfazem

[ω µ , ω ν ]ω = ζ αβ ω µ ,α ω ν ,β = ζ αβ δαµ δβν = ζ µν . (1.110)

Note que o parêntese de Poisson precisa de duas funções no espaço de fase para então transformá-las
em uma outra função do espaço de fase. Uma quantidade com esta caracterı́stica de modificar funções é
denominada de operador. O parêntese de Poisson (1.108) é um operador bi-linear, isto é, linear nas posições
ocupadas por Fk e Fl . Como ele é anti-simétrico, precisamos mostrar a linearidade em apenas uma de suas
duas entradas:
[Fi + λFk , Fl ]ω = (Fi + λFk ),ν Fl ,ν = [Fi , Fl ]ω + λ[Fk , Fl ]ω , ∀λ ∈ R. (1.111)
22 1. O Formalismo de Hamilton

Isto significa que temos uma maneira natural, dada pelo parêntese de Poisson, de combinarmos duas funções
no espaço de fase simpléctico, ou de efetuarmos um “produto” entre elas que seje bi-linear, para produzir
uma terceira. No contexto de álgebra linear, o parêntese de Poisson define uma álgebra no espaço das funções
definidas no espaço de fase simpléctico. Os parênteses de Poisson satisfazem outra propriedade importante:
a identidade de Jacobi (Carl Gustav Jacob Jacobi, 1804–1851),
£ ¤ £ ¤ £ ¤
Fi , [Fk , Fl ]ω ω + Fl , [Fi , Fk ]ω ω + Fk , [Fl , Fi ]ω ω = 0. (1.112)

Esta propriedade pode ser demonstrada facilmente usando a definição (1.108) e a propriedade de anti-
simetria da métrica simpléctica. Uma álgebra bi-linear, anti-simétrica e obedecendo à identidade de Jacobi
é denominada de álgebra de Lie (Marius Sophus Lie, 1842–1899). Para finalizar, notemos que o parêntese de
Poisson é um operador derivada:

[Fi , Fk Fl ]ω = (Fi Fk ),ν Fl ,ν = Fi [Fk , Fl ]ω + [Fi , Fl ]ω Fk . (1.113)

As equações de Hamilton (1.93) podem ser reescritas numa forma ainda mais simples em termos de
(1.108),
ω̇ µ = [ω µ , H]ω = ζ µν H,ν = H ,µ . (1.114)
As componentes covariantes ω̇µ podem ser escritas imediatamente das componentes contravariantes:

ω̇µ = [ωµ , H]ω = H,µ . (1.115)

Como exemplo, consideremos n = 1. Então (ωµ ) = (−p, q) e (ω̇µ ) = (−ṗ, q̇). Assim, teremos as equações de
Hamilton esperadas: (ω̇µ ) = (−ṗ, q̇) = (H,µ ) = (∂H/∂q, ∂H/∂p).
Há uma outra quantidade importante diretamente relacionada com o parêntese de Poisson, denominada
de parêntese de Lagrange. Esta nova quantidade será importante na definição de transformações canônicas.
Iremos precisar de uma conjunto com 2n funções F µ = F µ (ω; t), linearmente independentes, no espaço de
fase para definirmos o parêntese de Lagrange como

∂ω α ∂ω β
{F µ , F ν }ω = −ζαβ = −{F ν , F µ }ω . (1.116)
∂F µ ∂F ν
Estamos assumindo aqui que possamos inverter as relações F µ = F µ (ω; t) para escrevermos ω µ = ω µ (F ; t).
Isto significa que o jacobiano,
∂F µ ∂ωµ
J = det M, M µν = , (M −1 )µ ν = , M µ α (M −1 )α ν = δνµ , (1.117)
∂ων ∂F ν
desta transformação é diferente de zero. Esta condição J 6= 0 nos permite relacionar o parêntese de Lagrange
com o parêntese de Poisson:
X ∂F µ ∂F γ ∂ω σ ∂ω ρ
[F µ , F γ ]ω {F γ , F ν }ω = −ζ αβ ζσρ
γ
∂ω α ∂ω β ∂F γ ∂F ν
= −ζ αβ ζσρ M µ α M γ β (M −1 )σ γ (M −1 )ρ ν
(1.118)
= −ζ αβ ζσρ M µ α δβσ (M −1 )ρ ν = −ζ αβ ζβρ M µ α (M −1 )ρ ν
= −δρα M µ α (M −1 )ρ ν = −M µ α (M −1 )α ν
= −δνµ .

Portanto, dado um dos parênteses podemos calcular o outro por esta relação. Naturalmente, as relações
(1.118) com F = ω reduzem-se nas relações seguintes:

{ω µ , ω ν }ω = −ζµν . (1.119)

Note que este parêntese de Lagrange é um tensor covariante de ordem dois. Em geral, os parênteses de
Lagrange não são bi-lineares e nem satisfazem a identidade de Jacobi.
1. Transformações canônicas 23

1.7 Transformações canônicas


1.7.1 Definição
Consideremos uma transformação de coordenadas arbitrária, porém invertı́vel, no espaço de fase:

ω 0µ = ω 0µ (ω) ou q 0 = q 0 (q, p; t), p0 = p0 (q, p; t). (1.120)

Dada esta transformação, queremos saber o seu efeito nas equações de Hamilton (1.114). Por exemplo, a
transformação
q 0 = a q, p0 = b p, a e b constantes, (1.121)
denominada de transformação de escala, produz as seguintes modificações nas equações de Hamilton:
ab ∂H ∂H
aq̇ = ⇒ q˙0 = ab 0 ,
b ∂p ∂p
(1.122)
ab ∂H ∂H
bṗ = − ⇒ ṗ0 = −ab 0 .
a ∂q ∂q
Podemos ver destas relações que a escolha H 0 = ab H mantem invariante a forma funcional das equações de
Hamilton. Esta transformação de escala altera a lagrangiana correspondente pelo mesmo fator:
n
X n
¡X ¢
L0 = p0s q̇ 0s − H 0 = ab ps q̇ s − H = ab L. (1.123)
s=1 s=1

Consideremos outro exemplo similar dado pela transformação

q 0 = p, p0 = q, (1.124)

denominada de inversão de coordenadas. Neste caso, as equações de Hamilton são alteradas para
∂H ∂H ∂(−H)
q̇ = ṗ0 = = 0
⇒ ṗ0 = − ,
∂p ∂q ∂q 0
(1.125)
∂H ∂H ∂(−H)
ṗ = q˙0 = − =− 0 ⇒ q˙0 = .
∂q ∂p ∂p0
Portanto, a nova hamiltoniana H 0 = −H preserva a forma funcional das equações de Hamilton. Será útil
calcular o parêntese de Poisson para estas duas transformações:

(ω 0µ ) = (aq, bp) ⇒ [ω 0µ , ω 0ν ]ω = ab ζ µν ,
(1.126)
(ω 0µ ) = (p, q) ⇒ [ω 0µ , ω 0ν ]ω = −ζ µν .

Note que a escolha ab = 1 deixa a métrica simpléctica invariante por transformações de escala.
Considerando que as equações de Hamilton (1.114) estão escritas numa forma covariante no espaço
de fase simpléctico, caracterizado pela métrica simpléctica (1.97), portanto, sempre que transformações
de coordenadas lineares preservarem a métrica simpléctica (1.97), então a forma funcional das equações de
Hamilton também serão preservadas. Isto é o que esperamos devido à discussão sobre transformações lineares
feita no Apêndice A. Estas transformações lineares que deixam invariante a métrica simpléctica,
∂ω 0µ ∂ω 0ν
[ω 0µ , ω 0ν ] = ζ σρ = ζ µν , (1.127)
∂ω σ ∂ω ρ
e que, conseqüentemente, preservam a forma funcional das equações de Hamilton,
µ
ω̇ 0 = [ω 0µ , H 0 ], H 0 = H 0 (ω 0 ; t), (1.128)

são denominadas de transformações canônicas lineares. Podemos ver que as transformações que discutimos
nos dois exemplos anteriores (escala e inversão de coordenadas) não preservam a métrica, embora a forma
das equações de Hamilton sejam preservadas. Portanto, elas não são canônicas.
24 1. O Formalismo de Hamilton

A condição (1.127) foi obtida considerando apenas transformações lineares. No entanto, muitos outros
tipos de transformações de coordenadas, além das lineares, também satisfazem a condição (1.127). Isto
significa que podemos obter a condição (1.127), definindo uma transformação canônica, por outro cami-
nho. Usaremos o princı́pio de Hamilton para caracterizar as transformações canônicas e, ao mesmo tempo,
estabelecer um programa para determiná-las.
Consideremos γ como sendo a trajetória atual de um dado sistema dinâmico no espaço de fase. Esta
mesma trajetória pode ser descrita em termos das coordenadas ω ou em termos das coordenadas transfor-
madas ω 0 (ω). Desta forma, sobre a mesma trajetória, as ações
Z Xn
Ψ[γ] = dt L, L = ps q̇ s − H,
s=1
Z n
(1.129)
X s
0
Ψ [γ] = 0
dt L , 0
L = p0s q˙0 0
−H ,
s=1

devem fornecer as mesmas equações de movimento:


n
¡X ¢¯B
∆Ψ[γ] = ps ∆q̇ s − H∆t ¯A ⇒ ω̇ = [ω, H]ω ,
s=1
n
(1.130)
¡X s ¢¯B 0
0
∆Ψ [γ] = p ∆q˙0 − H 0 ∆t ¯A0 ⇒ ω̇ 0 = [ω 0 , H 0 ]ω0 .
0s

s=1

Portanto, as lagrangianas L e L devem ser proporcionais: L0 = c L. Porém, vimos no exemplo da trans-


0

formação de escala (1.121) que este fator pode ser feito igual à unidade mediante uma escolha apropriada
dos parâmetros de uma transformação de escala. No entanto, como o princı́pio de Hamilton admite uma
contribuição não-nula na variação da ação que determina as equações de hamilton, então podemos adicionar
à relação L0 = L a derivada temporal total de uma função arbitrária no espaço de fase:
dF
L0 = L +
. (1.131)
dt
Assim, a variação da ação terá termos diferentes de zero apenas nos pontos extremos da trajetória. Vimos
anteriormente que a forma funcional das equações de Lagrange no espaço de configuração não é alterada
quando F (q; t), isto é, a função F é independente das velocidades q̇. Aqui, certamente a forma das equações de
Lagrange será alterada. Pode haver situações em que a própria lagrangiana será nula para a trajetória real do
sistema dinâmico. Estamos fazendo uso aqui da lagrangiana apenas por conveniência, pois as transformações
de coordenadas estão ocorrendo no espaço de fase. Considerando todas as quantidades na relação anterior
expressas em termos das coordenadas ω 0 , teremos:
n
X s
L0 = p0s q˙0 − H 0
s=1
¡ ¢ d
= L q(ω 0 ), p(ω 0 ); t + F (ω 0 ; t)
dt
X ¡ ∂q r s ∂q s s ∂q r ¢ X¡ ∂F s ∂F s ¢ ∂F (1.132)
= pr 0s
q˙0 + 0s ṗ0 + −H + 0s
q˙0 + 0s ṗ0 +
r,s
∂q ∂p ∂t s
∂q ∂p ∂t
X¡X ∂q r ∂F ¢ s X¡X r ∂q r ∂F ¢ s X ∂q r ∂F
= pr 0s
+ 0s q˙0 + p 0s
+ 0s ṗ0 + pr + − H.
s r
∂q ∂q s r
∂p ∂p r
∂t ∂t

Sendo as variáveis ω 0 linearmente independentes, bem como suas derivadas ω̇ 0 , então a identidade anterior
fornece as relações seguintes:
∂F X ∂q r
0s
= p − pr 0s ,
∂q 0s r
∂q
X ∂q r (1.133)
∂F r
= − p ,
∂p0s r
∂p0s
1. Transformações canônicas 25

e
X ∂q r ∂F
H0 = H − pr − . (1.134)
r
∂t ∂t
As duas primeiras destas relações são equações diferenciais que determinam a função F (ω 0 ). Conhecendo F ,
a terceira relação determina a nova lagrangiana H 0 . A função F é denominado por isto de função geratriz
da transformação canônica. A igualdade das derivadas mistas de segunda ordem de F nas variáveis ω 0 é
uma condição necessária e suficiente para garantir a solução do sistema de equações diferenciais parciais de
primeira ordem formado pelas duas primeiras equações. Assim, da primeira equação em (1.133), a condição
∂2F ∂2F
= (1.135)
∂q 0r ∂q 0s ∂q 0s ∂q 0r
resulta em
{q 0r , q 0s }ω = 0. (1.136)
De forma análoga, a condição
∂2F ∂2F
= (1.137)
∂p0r ∂p0s ∂p0s ∂p0r
sobre a segunda equação em (1.133), fornece
{p0r , p0s }ω = 0. (1.138)
A terceira condição de integrabilidade,
∂2F ∂2F
0r 0s
= 0s 0r , (1.139)
∂p ∂q ∂q ∂p
resulta em
{q 0r , p0s }ω = δrs . (1.140)
0 0
Caso tivéssemos mantido a constante c introduzida inicialmente entre L e L (L = c L) ela teria aparecido
multiplicando os parênteses de Lagrange. Em suma, a condição
∂ω σ ∂ω ρ
{ω 0µ , ω 0ν }ω = −ζσρ = −ζµν , (1.141)
∂ω 0µ ∂ω 0ν
garante que a transformação ω 0 (ω) é canônica. Podemos ver desta relação que a métrica simpléctica perma-
nece de fato invariante. Naturalmente, podemos inverter estas relações, com o auxı́lio de (1.118), envolvendo
os parênteses de Lagrange e reescrevê-las em termos dos parênteses de Poisson, como em (1.127). Portanto,
transformações canônicas formam um conjunto contendo muitos tipos de transformações de coordenadas no
espaço de fase. As transformações lineares formam um subconjunto deste conjunto maior.
Como exemplo prático, vamos considerar uma partı́cula de massa m sujeita a um potencial harmônico
unidimensional com a constante de mola dada por k. A lagrangiana correspondente deste sistema massa-mola

1 1
L = mq̇ 2 − kq 2 . (1.142)
2 2
A equação de Lagrange correspondente é simplesmente
∂L ∂L k
ṗ = , p= ⇒ q̈ + ω 2 q = 0, ω 2 = . (1.143)
∂q ∂ q̇ m
Passemos agora para o espaço de fase onde a hamiltoniana correspondente é:
1 2 1 2
H = pq̇ − L = p + kq . (1.144)
2m 2
Esta hamiltoniana fornece as seguintes equações de movimento (na forma de um sistema de equações dife-
renciais lineares de primeira ordem):
∂H 1 ∂H
q̇ = = p, ṗ = − = −k q ⇒ q̈ + ω 2 q = 0. (1.145)
∂p m ∂q
26 1. O Formalismo de Hamilton

A transformação de coordenadas (dilatação canônica)


r r
0 k 0 1
q = q, p = p, (1.146)
ω mω
é uma transformação canônica. A geratriz neste caso é independente da fase (q 0 , p0 ). Considerando que
estas transformações são independentes do tempo, então H 0 = H. Assim, substituindo as variáveis (q, p) na
hamiltoniana pelas novas variáveis (q 0 , p0 ), teremos
ω ¡ 02 ¢
H0 = q + p02 . (1.147)
2
As novas equações de movimento serão determinadas pela mesma forma funcional anterior:

∂H 0 ∂H 0
q˙0 = = ω p0 , ṗ0 = − = −ω q 0 ⇒ q¨0 + ω 2 q 0 = 0. (1.148)
∂p0 ∂q 0
Nestes dois casos temos que resolver um sistema de equações diferenciais acopladas. No entanto, a trans-
formação canônica
1 ¡ ¢ i ¡ ¢
q 0 = √ Q − iP , p0 = √ Q + iP ⇒ P = iQ∗ , (1.149)
2 2
desacopla as equações de movimento. Neste caso, a função geratriz ainda pode ser considerada independente
(explicitamente) do tempo, porém não mais das novas coordenadas:
i¡ 2 ¢
F = Q − 2iQP + P 2 . (1.150)
4
Novamente, a nova hamiltoniana H 00 será obtida da antiga H 0 por uma simples substituição de variáveis:

H 00 = −iω QP. (1.151)

As equações de Hamilton neste caso são:

∂H 00 ∂H 00
Q̇ = = −iω Q, Ṗ = − = iω P. (1.152)
∂P ∂Q0
Vale notar que a lagrangiana corresponde é

L00 = P Q̇ − H 00 = P Q̇ + iω QP. (1.153)

Assim, quando as equações de movimento são utilizadas, teremos L00 = 0. Isto também acontece com a
lagrangiana correspondente à equação de Dirac.

1.7.2 Equação de Hamilton-Jacobi


Consideramos na Seção anterior que a função geratriz dependesse das variáveis (q 0 , p0 ) e possivelmente do
tempo. Neste caso as duas equações diferenciais em (1.133) determinam a geratriz F (q 0 , p0 ; t). Tendo a
geratriz, a equação em (1.134) determina a nova hamiltoniana. As equações de movimento provenientes
desta nova hamiltoniana podem ser mais simples do que as originais, permitindo assim a sua solução de
forma menos trabalhosa. No entanto, podemos usar transformações de coordenadas de várias outras formas
com o objetivo de obter a solução das equações de movimento, isto é, ω(t, α, β), com α e β sendo as 2n
constantes de integração necessárias para podermos resolver as equações de Hamilton. Estas são funções
da fase inicial ω0 em algum instante inicial t = t0 . Há apenas quatro tipos distintos de efetuarmos este
programa. Estes quatro tipos estão sumariados na Tabela 1.1.
A Tabela 1.1 mostra na segunda coluna as variáveis independentes utilizadas para determinar cada
transformação. Estas variáveis independentes são sempre uma mistura igual das variáveis antigas ω e das
variáveis novas ω 0 . Qualquer variação neste percentual é essencialmente uma combinação dos quatro tipos
de transformações apresentadas na Tabela 1.1. Caso o conjunto contendo as 2n coordenadas escolhidas
1. Transformações canônicas 27

não seja linearmente independente, os multiplicadores de Lagrange devem ser usados. A terceira coluna
contém a função geratriz apropriada a cada uma das escolhas das coordenadas independentes. A quarta
coluna apresenta as equações diferenciais resultantes da condição (1.131) após a consideração das variáveis
independentes listadas na segunda coluna. A quinta coluna exibe a condição que a geratriz deve satisfazer
para que seja possı́vel escrever as novas coordenadas independentes em função de todas as antigas coordenadas
após as equações diferenciais na quarta coluna terem sido resolvidas. Esta condição é essencialmente a
condição de um jacobiano diferente de zero para que uma transformação de coordenadas seja invertı́vel.

Tipo Vars. Geratriz Equações Jacobiano


¯ ∂2F ¯
I (q, q 0 ) FI = −F p= ∂FI 0 ∂FI 0 ∂FI
∂q , p = − ∂q 0 , H = H + ∂t det ¯ ∂q∂qI ¯
0 6= 0
Pn ¯ ∂2F ¯
II (q, p0 ) FII = s=1 p0s q 0s − F p= ∂FII 0 ∂FII 0
∂q , q = ∂p0 , H = H + ∂t
∂FII
det ¯ ∂q∂p0 ¯ 6= 0
II

Pn ¯ 2F ¯
III (p, q 0 ) FIII = s=1 ps q s + F q= ∂FIII 0 ∂FIII 0
∂p , p = ∂q 0 , H = H − ∂t
∂FIII
det ¯ ∂∂p∂q
III ¯
0 6= 0
Pn ¡ ¢ ¯ ∂2F ¯
IV 0
(p, p ) FIV = s=1 ps q s − p0s q 0s + F q= ∂FIV 0 ∂FIV 0
∂p , q = − ∂p0 , H = H − ∂t
∂FIV
det ¯ ∂p∂p0 ¯ 6= 0
IV

Tabela 1.1: Os quatro tipos independentes de transformações canônicas. Qualquer outra escolha para as
variáveis independentes será uma combinação destas apresentadas na segunda coluna.

O objetivo das transformações canônicas é auxiliar a resolução das equações de Hamilton, isto é, deter-
minar a dependência temporal das coordenadas generalizadas no espaço de fase, ω(ω0 , t). Como as equações
de Hamilton são de primeira ordem, a especificação de 2n constantes iniciais ω0 é suficiente para determinar
univocamente as trajetórias ω(t, ω0 ). Assim, podemos determinar a transformação canônica que leve as
coordenadas ω(t) nas coordenadas ω 0 independentes do tempo. Isto é, evidentemente, uma forma de resol-
ver as equações de Hamilton, pois teremos, após a transformação, ω 0 = ω 0 (ω; t). Estas relações podem ser
invertidas para ω(t, ω 0 ). Sendo ω 0 independentes do tempo, então podemos relacioná-las com as constantes
de integração. Nesse sentido, as transformações canônicas do tipo II são indispensáveis.
Uma forma de garantir que as novas coordenadas ω0 serão independentes do tempo é requerer que a nova
hamiltoniana H 0 (ω 0 ; t) seja nula. Assim,

ω̇ 0 = [ω 0 , H 0 = 0]ω0 = 0. (1.154)

Esta condição H 0 = 0, juntamente com a informação contida na quarta coluna da Tabela 1.1 para uma
transformação do tipo II, nos permite escrever, em um determinado tempo t,

∂FII
H(q, p; t) + = 0, p = p(q, p0 ; t), FII = FII (q, p0 ; t). (1.155)
∂t
Ainda da Tabela 1.1, para uma transformação do tipo II, temos

∂FII
p= . (1.156)
∂q

Substituindo esta relação em H(q, p; t), obteremos

¡ ∂FII ¢ ∂FII
H q, ;t + = 0. (1.157)
∂q ∂t

Esta é a equação diferencial de Hamilton-Jacobi para a geratriz. Ela é uma equação diferencial contendo n+1
derivadas parciais. No entanto, podemos observar que a geratriz FII não aparece explicitamente na equação
de Hamilton-Jacobi, mas apenas as suas derivadas. Conseqüentemente, uma das constantes de integração
deve ser aditiva, o que não irá importar para a determinação da nova hamiltoniana H 0 em (1.134) (até mesmo
porque H 0 = 0). Portanto, a solução da equação de Hamilton-Jacobi (1.157) é da forma FII (q; α; t), onde
α são as n constantes de integração. Caso tivéssemos um sistema de n equações linearmente independentes
28 1. O Formalismo de Hamilton

envolvendo a geratriz e um outro conjunto de n constantes β, independentes do tempo, então poderı́amos


resolver este sistema e determinar q = q(t, α, β). Estas equações existem e são determinadas por
∂FII
q0 = . (1.158)
∂p0
Esta relação é uma conseqüência da transformação ser do tipo II, como pode ser visto da Tabela 1.1. Fazendo
α = p0 e β = q 0 , então esta relação fornece q = q(t, α, β). Desta forma as equações de Hamilton são resolvidas
pela transformação canônica do tipo II.
A geratriz FII é uma função, ou melhor, um funcional, ao qual já fomos apresentados. De fato, para
verificarmos isto, basta calcularmos a derivada temporal total dela (lembrando que ω 0 são independentes do
tempo):
Xn Xn
¡ ∂FII s ∂FII s ∂FII ∂FII
ḞII = s
q̇ + 0s
ṗ0 + = ps q̇ s + = L. (1.159)
s=1
∂q ∂p ∂t s=1
∂t
Portanto, a geratriz FII é o funcional ação
Z
Φ= dt L. (1.160)

Isto significa que a ação Φ, além de fornecer as equações para a dinâmica do sistema, gera a transformação
ω0 → ω(t), isto é, de uma fase inicial ω0 , em um tempo inicial t0 , para uma fase ω(t), em tempo arbitrário t.

1.7.3 Evolução temporal


Vamos considerar aqui uma situação envolvendo uma classe particular de transformações canônicas muito
importante para a Fı́sica Teórica Básica. Consideremos o conjunto das transformações canônicas lineares7
R(a) que forma um grupo de Lie dependente de um único parâmetro a. Vamos admitir aqui que a aplicação
exponencial (A.34) seja válida em todo o domı́nio do parâmetro a. Assim, dado um ponto inicial ω0 = ω(0)
no espaço de fase, a transformação R(a) leva o ponto ω0 no ponto ω(a):
¯
∂R ¯¯
ω(a) = R(a)ω0 = eaL̂ ω0 , L̂ = . (1.161)
∂a ¯a→0

Estamos denotando por L̂ o gerador da transformação R e supondo que a identidade seja R(0). Como
no exemplo do grupo das rotações no plano perpendicular ao eixo de rotação apresentado no Apêndice A,
Eq. (A.14), a transformação linear R(a) descreve uma curva ω(a) no espaço de fase.
Vamos requerer que a transformação linear R(a) em (1.161) seja canônica. Isto significa que a métrica
simpléctica deve ser preservada (invariante) para cada valor do parâmetro a da transformação. Esta condição
de invariância da métrica define também uma transformação simpléctica. Consideremos dois pontos infi-
nitesimalmente próximos no espaço de fase: ω(a) e ω(a + ∆a), com ∆a → 0. Neste caso, considerando a
aplicação exponencial em (1.161), podemos escrever, até primeira ordem em ∆a,

ω(a + ∆a) = R(a + ∆a)ω0 = e∆aL̂ eaL̂ ω0 = (1 + ∆aL̂)ω(a). (1.162)

Impondo que a métrica simpléctica seja preservada,


£ ¤
ζ µν = ω µ + ∆aφµ , ω ν + ∆aφν ω , φµ = L̂ ω µ , (1.163)

então, até primeira ordem em ∆a, esta condição implica em


£ µ ν¤ £ ¤
ω , φ ω = ω ν , φµ ω . (1.164)

Reescrevendo os parênteses de Poisson explicitamente,


∂φν ∂φµ
ζ µα α
= ζ να α ou φµ,ν = φν,µ , (1.165)
∂ω ∂ω
7 Veja a discussão sobre transformações lineares, grupos e álgebras de Lie no Apêndice A.
1. Transformações canônicas 29

facilita a identificação das funções contı́nuas φµ como sendo componentes de um gradiente:


∂φ
φµ = , φµ = ζ µν φν = [ω µ , φ]ω . (1.166)
∂ω µ

Analisando a estrutura de (1.166), podemos identificar o gerador L̂ com o operador diferencial [ , φ]ω . Assim,
a ação deste operador em qualquer função F (ω) no espaço de fase é efetuada pelo parêntese de Poisson,

L̂ F (ω) = [F, φ]ω , L̂ = [ , φ]ω . (1.167)

Isto significa que a ação do gerador L̂ é invariante por transformações lineares simplécticas (ou canônicas):
¯ ¯
L̂ F (ω)¯ω = [F, φ]ω = L̂ F (ω)¯ω0 = [F, φ]ω0 . (1.168)

Supondo que a função escalar φ seja conhecida, a relação (1.162) pode ser reescrita como uma equação
diferencial para ω(a):

dω ω(a + ∆a) − ω(a)


= lim = L̂ ω = [ω, φ(ω)]ω = [ω, φ(ω0 )]ω0 . (1.169)
da ∆a→0 ∆a
De fato, a solução desta equação diferencial é a aplicação exponencial (1.161). A última igualdade é devida
à invariância da ação do gerador L̂ e ao fato de φ ser um campo escalar cuja forma funcional é constante:
φ(ω) = φ(ω0 ). A função escalar φ presente na definição (1.167) não pode depender explicitamente do
parâmetro a, pois o gerador L̂ não depende de a. No entanto, ela pode ter uma dependência implı́cita em a
através de ω, φ = φ(ω(a)). Porém, podemos ver que mesmo a derivada total de φ em relação ao parâmetro
a é zero:
dφ ∂φ dω µ ∂φ ∂φ ∂φ ∂φ
= µ
= µ
[ω, φ]ω = ζ µν µ = 0, =0 ⇒ φ(ω) = φ(ω0 ). (1.170)
da ∂ω da ∂ω ∂ω ∂ω ν ∂a
Este resultado é importante, pois precisamos conhecer a função escalar φ apenas na origem para efetuar uma
transformação canônica linear gerada por φ de forma infinitesimal.
Vamos considerar aqui o efeito de uma transformação simpléctica na forma funcional de uma função
arbitrária F (ω) no espaço de fase. Até primeira ordem em ∆a, podemos escrever

∂F
F (ω − ∆aφµ ) = F (ω) − ∆aφµ = F (ω) − ∆a [φ, F ]ω , φµ = −[φ, ω µ ]ω . (1.171)
∂ω µ
Isto implica na seguinte equação diferencial para a função F , levando em conta a invariância do parênteses
de Poisson:
dF
= −[φ, F ]ω = −[φ, F (ω0 )]ω0 . (1.172)
da
Portanto, a nova forma funcional Fa0 é dada pela transformação simpléctica

F (ω(a)) = e−aĤ F (ω0 ) = Fa0 (ω0 ), Ĥ = [φ, ]ω0 . (1.173)

Tendo visto a conseqüência de uma transformação simpléctica em uma função arbitrária, devemos investigar
também o comportamento do parêntese de Poisson sob uma transformação simpléctica. Como sempre, até
primeira ordem em ∆a, teremos
¡£ ¤ £ ¤ ¢
[A(ω − ∆aφµ ), B(ω − ∆aφµ )]ω = [A, B]ω − ∆a A, [φ, B]ω ω + [φ, A]ω , B ω
£ ¤
= [A, B]ω − ∆a φ, [A, B]ω ω (1.174)
£ ¤
= [A, B]ω − ∆a φ, [A(ω0 ), B(ω0 )]ω0 ω0 .

Isto significa que o parêntese de Poisson [A, B]ω obedece a equação diferencial de uma transformação
simpléctica,
d £ ¤
[A, B]ω = − φ, [A(ω0 ), B(ω0 )]ω0 ω0 , (1.175)
da
30 1. O Formalismo de Hamilton

e, portanto,
[A(ω), B(ω)]ω = [ e−aĤ A(ω0 ), e−aĤ B(ω0 )]ω0 = e−aĤ [A(ω0 ), B(ω0 )]ω0 . (1.176)
Suponha que o parâmetro da transformação canônica seja o tempo, a = t, e φ = H(ω), onde H(ω) é
a hamiltoniana (explicitamente independente do tempo). Então das discussões anteriores, a solução formal
das equações de movimento de hamilton,

ω̇ = −[H, ω]ω = −[H(ω0 ), ω0 ]ω0 , (1.177)

pode ser interpretada como sendo uma transformação simpléctica finita no espaço de fase:

ω(t) = e−aĤ ω0 , Ĥω0 = [H(ω0 ), ω0 ]ω0 . (1.178)

Dado uma fase inicial ω0 , em algum instante inicial, então a fase ω(t) em um instante posterior é determinada
por uma transformação canônica que é uma transformação simpléctica, cujo gerador é essencialmente a
hamiltoniana H calculada em ω0 . Vimos anteriormente que a ação (integral da lagrangiana) é a geratriz da
transformação do tipo II a qual estabelece a equação de Hamilton-Jacobi. Portanto, a evolução temporal das
variáveis dinâmicas ocorre de acordo a uma transformação canônica no espaço de fase que pode ser vista de
duas formas equivalentes: uma transformação canônica não-linear gerada pela lagrangiana (através da ação)
ou por uma transformação simpléctica, que é canônica e linear e, portanto, forma um grupo contı́nuo, gerada
somente pela hamiltoniana. No último caso, o tempo é o parâmetro da transformação e a hamiltoniana não
depende explicitamente do tempo. Assim, a hamiltoniana descreve a forma infinitesimal do movimento no
espaço de fase, enquanto que a ação descreve a forma finita deste movimento. Este resultado foi utilizado
por Feynman em Mecânica Quântica.

1.7.4 Teorema de Liouville


Apêndice A

Transformações Lineares

A.1 Introdução
Alguns tipos de transformações lineares são muito importantes para várias áreas da Fı́sica. Esta importância
é devida ao fato de transformações lineares formarem um grupo o qual é a linguagem matemática para o
conceito de simetria em Fı́sica. Estaremos interessados aqui em três tipos especiais de transformações line-
ares: I) transformações ortogonais em espaços euclideanos, as quais formam o grupo das rotações espaciais;
II) transformações ortogonais no espaço de Minkowski, as quais formam o grupo de Lorentz da Relatividade
Especial; e III) transformações simplécticas no espaço de fase, as quais formam o grupo simpléctico. A
importância de cada um desses grupos de simetria reside nos fatos seguintes: o grupo das rotações espaciais
é de extrema importância para a teoria do momentum angular; o grupo de Lorentz é a base da Relativi-
dade Especial de Einstein por conter as contrações de FitzGerald-Lorentz; e o grupo simpléctico contém as
transformações canônicas, as quais são fundamentais para a dinâmica clássica.
Como transformações lineares atuam em algum espaço vetorial, precisaremos definir algumas quantidades
básicas antes de definirmos transformações lineares. Inicialmente, faremos uso da noção abstrata de um
espaço vetorial, sem nos preocupar com a realidade fı́sica desse espaço vetorial. Após a definição de uma
transformação linear, daremos uma interpretação fı́sica ao espaço vetorial abstrato como sendo o espaço
euclideano tridimensional, ou o espaço quadridimensional de Minkowski ou o espaço de fase do formalismo
hamiltoniano.

A.2 Transformações lineares


Seja V n um espaço vetorial de dimensão n. Vamos denotar por x e y dois pontos (vetores) quaisquer de V n .
Uma aplicação em V n é uma regra que associa pontos de uma dada região de V n a pontos de uma outra
região do mesmo espaço V n ou de um outro espaço, como o conjunto dos números reais R, e vice-versa. Por
exemplo, uma função F em V n é uma aplicação de V n no conjunto dos números reais:

F : V n → R, F (x) ∈ R, ∀x ∈ V n . (A.1)

Uma curva real (forma paramétrica) γ em V n é uma aplicação dos números reais R em V n :

γ : R → V n, γ(t) ∈ V n , ∀t ∈ R. (A.2)

Uma transformação linear R em V n é uma aplicação de V n em V n ,

R : V n → V n, Rx ∈ V n , ∀x ∈ V n , (A.3)

satisfazendo a seguinte regra (linearidade):

R(x + λy) = Rx + λRy, ∀x, y ∈ V n , ∀λ ∈ R. (A.4)

31
32 A. Transformações Lineares

Como qualquer vetor x em V n pode ser escrito como uma combinação linear dos vetores ei de uma
determinada base,
n
X
x = (x1 , · · · , xn ) = xi ei , xi ∈ R, (A.5)
i=1

então podemos escrever a ação de uma transformação linear numa forma matricial. Para tal, precisamos
conhecer a ação da transformação linear em cada vetor ei . A ação de uma transformação linear R em ei
será um outro vetor e0i = Rei em V n ,1 cujas componentes vamos denotar por Ri j :
n
X
e0i = Rei = Rj i ej , Rj i ∈ R. (A.6)
j=1

Assim, podemos representar a ação de uma transformação linear R por uma matriz R cujos elementos de
matriz são Ri j , com i denotando as posições das linhas e j as posições das colunas. Em relação a algum
sistema de coordenadas, a ação de uma transformação linear em um vetor arbitrário pode ser escrita da
seguinte forma:
n
X X n
X n
X
i i k k k
y = Rx = x Rei = x R i ek = y ek ⇒ y = Rk i xi . (A.7)
i=1 i,k k=1 i=1

Note que as componentes y k e os vetores de base ek transformam-se de formas distintas. Qualquer quantidade
(vetor, tensor, etc.) cujas componentes transformam como os vetores de base, isto é, como em (A.6), elas são
denominadas de covariantes. Quando tais componentes transformam como em (A.7), elas são denominadas
de contravariantes.

A.2.1 Grupos de Lie


Dada uma transformação linear R, y = Rx, podemos definir uma outra transformação linear R−1 como
sendo a transformação oposta a R: x = R−1 y. Esta transformação R−1 é denominada de inversa. Em termos
matriciais, podemos ver de (A.7) que a condição det R 6= 0 deve ser verificada para garantir a existência da
transformação linear inversa. A sua matriz correspondente é a matriz inversa R−1 . Ao contrário da inversa
que depende de uma condição envolvendo o determinante da matriz correspondente, a transformação linear
identidade I sempre existe. A identidade é a aplicação trivial: x = Ix, ∀x ∈ V n . A sua matriz correspondente
é a matriz identidade I. Seja G = {I, R, S, T, . . .} o conjunto das transformações lineares invertı́veis contendo
a identidade. Podemos usar a composição R ◦ S entre aplicações, ou o produto matricial usual RS, para
definir um “produto” entre duas transformações. Então os elementos desse conjunto satisfazem as seguintes
propriedades:

Fechamento: RS ∈ G, ∀R, S ∈ G; (A.8)


Identidade: IR = RI = R, ∀R ∈ G; (A.9)
Inversibilidade: R−1 R = RR−1 = I, ∀R ∈ G; (A.10)
Associatividade: (RS)T = R(ST ), ∀R, S, T ∈ G. (A.11)

Qualquer conjunto satisfazendo estas quatro condições, em relação a algum “produto” previamente definido,
é denominado de grupo. O “produto” entre os elementos de um grupo é uma operação envolvendo dois
elementos do grupo. Como resultado desta operação binária, um outro elemento do grupo é criado. Em
muitos exemplos de grupos, o “produto” não é simplesmente o produto usual. É importante frisar que um
grupo está definido apenas quando esta operação binária entre seus elementos estiver definida. Por exemplo, o
conjunto dos números inteiros (positivos e negativos, incluindo o zero) forma um grupo em relação à operação
binária definida pela adição, porém este mesmo conjunto não forma um grupo em relação à multiplicação
com a presença do zero.
A teoria dos grupos é uma área da matemática muito bem desenvolvida. Isto significa que a teoria dos
grupos estabelece muitas propriedades gerais e abstratas sobre os elementos de um grupo. Rotações espaciais
1 Estamos adotando o ponto de vista em que a base permanece inalterada e o os vetores são alterados.
A. Transformações lineares 33

e transformações de Lorentz são exemplos tı́picos de grupos como estruturas matemáticas de relevância para a
Fı́sica. Em geral, transformações lineares de coordenadas tendem a modificar a forma de certas quantidades
fı́sicas. No entanto, algumas transformações particulares podem deixar certas operações ou quantidades
inalteradas. Neste caso, dizemos que tais quantidades ou operações admitem um determinado grupo de
simetria. Por exemplo, as transformações de Lorentz deixam a operação de contração (ou o módulo de um
vetor) no espaço-tempo invariante.
Um grupo pode conter uma quantidade finita ou infinita de elementos. Por exemplo, todas as operações
de simetria de um triângulo eqüilátero formam um grupo finito (também denominado de grupo discreto), isto
é, um grupo com uma quantidade finita de elementos:

C3v = {I, C3 , C32 , σ1 , σ2 , σ3 }. (A.12)

A transformação identidade está representada por I. Há duas rotações em torno do eixo perpendicular ao
plano do triângulo que passa pelo baricentro, uma de 120◦ (C3 ) e outra de 240◦ (C32 ). As três transformações
restantes σi são reflexões por espelhos perpendiculares ao plano do triângulo e contendo o baricentro e um
dos três vértices. Este grupo C3v é o grupo de simetria de um triângulo eqüilátero. Grupos finitos são muito
importantes em Fı́sica do Estado Sólido e Fı́sica Molecular.
Em geral, os elementos de um grupo finito são transformações por quantidades finitas e discretas. No en-
tanto, podemos ter também grupos formados por transformações contı́nuas, denominados de grupos contı́nuos.
Qualquer grupo contı́nuo possui infinitos elementos. Por exemplo, o conjunto infinito das rotações,
 
cos(α) −sen (α) 0
R(α) = sen (α) cos(α) 0 , det R(α) = 1. (A.13)
0 0 1

por um ângulo 0 ≤ α < 2π em torno do eixo z, perpendicular ao plano x − y, forma um grupo contı́nuo.
Para cada valor do parâmetro 0 ≤ α < 2π, há uma única rotação R(α) e a sua inversa R−1 (α). A identidade
é obtida quando α = 0 (ou em α = 2π). A rotação inversa de R(α) pode ser escrita concisamente como a
rotação R(−α), isto é, como uma rotação no sentido contrário da rotação R(α). Também pode ser verificado
diretamente que o produto matricial entre duas rotaçoes R(α) e R(β) é outra rotação R(γ), com γ = α + β.
Observe que o parâmetro novo γ é uma função analı́tica dos parâmetros antigos α e β. Vejamos a ação deste
grupo nos vetores espaciais r = (x, y, z). Então,

x0 = x cos(α) − ysen (α),


r0 = R(α) r ⇒ y 0 = xsen (α) + y cos(α), (A.14)
z 0 = z.

Desta forma, podemos interpretar a ação da rotação R(α)pno vetor r como o movimento do ponto (x, y, z)
sobre uma curva C(α), que é uma circunferência de raio x2 + y 2 centrada na origem a uma altura z do
plano x − y, descrita parametricamente pelas duas primeiras equações em (A.14). Portanto, a curva C(α) é
o lugar geométrico da transformação R(α).
Estaremos interessados aqui nos grupos contı́nuos de transformações lineares. Em geral, os elementos de
um grupo contı́nuo G dependem de um certo número r de parâmetros reais {a1 , · · · , ar }. Um grupo contı́nuo
com uma dependência analı́tica em seus parâmetros é denominado de grupo de Lie.2 Esta dependência
analı́tica nos parâmetros aα , α = 1, . . . , r, deve ser entendida da seguinte forma. Dados dois elementos R(a)
e R(b) de um grupo de Lie G, então o elemento R(c) = R(a)R(b) depende analiticamente dos parâmetros
a e b, isto é, c = f (a, b) é uma função analı́tica. Iremos aqui distinguir os grupos de Lie, relacionados com
rotações espaciais no espaço euclideano, rotações no espaço-tempo e o grupo das transformações simplécticas
no espaço de fase, definindo um processo de medida invariante a estas transformações lineares.
2 Os grupos de Lie e suas álgebras associadas foram descobertos por Marius Sophus Lie (1842–1899) e, independentemente,

por Wilhelm Karl Joseph Killing (1847–1923). Lie estava estudando técnicas para encontrar soluções de equações diferenciais
por quadraturas via transformações lineares. Este trabalho foi inspirado nos trabalhos de Evariste Galois (1811–1832) quem
inventou (ou descobriu) a noção de grupo.
34 A. Transformações Lineares

A.2.2 Tensores
Podemos definir um processo de medida em um espaço vetorial V n como sendo uma função real bilinear Φ
em V n × V n (produto cartesiano),

Φ : V n × V n → R, Φ(x, y) ∈ R, ∀x, y ∈ V n , (A.15)

tal que
Φ(x + ay, z) = Φ(x, z) + aΦ(y, z),
(A.16)
Φ(z, x + ay) = Φ(z, x) + aΦ(z, y), ∀x, y, z ∈ V n , ∀a ∈ R.

Esta função Φ é denominada também de forma bilinear em V n . Vale observar que uma forma quadrática
bilinear qualquer sempre pode ser escrita como a soma de uma forma simétrica Φ+ ,
1¡ ¢
Φ+ (x, y) = Φ(x, y) + Φ(x, y) , Φ+ (y, x) = Φ+ (x, y), (A.17)
2
e outra anti-simétrica Φ− ,
1¡ ¢
Φ− (x, y) = Φ(x, y) − Φ(x, y) , Φ− (y, x) = −Φ− (x, y). (A.18)
2
De fato, das duas equações anteriores, temos

Φ(x, y) = Φ+ (x, y) + Φ− (x, y). (A.19)

Veremos que a definição de uma forma bilinear coincide com a nossa noção intuitiva de produto escalar
entre vetores no espaço euclideano tridimensional. Em termos de coordenadas, a definição (A.15) pode ser
reescrita como: X X
Φ(x, y) = xi y k Φ(ei , ek ) = gik xi y k , gik = Φ(ei , ek ). (A.20)
i,k i,k

Os números reais Φ(ei , ek ) podem ser agrupados em uma matriz (gik ), a qual é denominada de métrica em
V n . Quando a métrica (gik ), associada com uma dada forma bilinear Φ, possuir uma inversa, a inversa será
denotada por (g ik ),
Xn n
X
gjk g ki = g ik gkj = δji . (A.21)
k=1 k=1

A métrica contém informações sobre as orientações relativas entre os vetores de uma determinada base. Um
espaço vetorial equipado com uma métrica é um espaço métrico. A métrica é a quantidade que caracteriza um
espaço métrico de forma única. Quando falamos de um espaço euclideano, ou de um espaço de Minkowski,
temos sempre em mente uma métrica especı́fica para cada um desses espaços.
Uma métrica nos permite reescrever as componentes de vetores em V n numa forma alternativa. As
componentes xk são denominadas de contravariantes. A outra possibilidade é:
n
X
xk = gki xi = gki xi (soma implı́cita em i), xk = g ki xi (soma implı́cita em i). (A.22)
i=1

As componentes xk são denominadas de covariantes. As componentes covariantes são de grande valia para
o formalismo em si. Por exemplo, fazendo uso das componentes covariantes definidas em (A.22), podemos
reescrever concisamente a forma bilinear em (A.20) como:

Φ(x, y) = xk yk (soma implı́cita em k). (A.23)

Estamos usando, desde (A.22), a convenção de soma implı́cita. Nesta convenção, sempre omitiremos o sı́mbolo
de soma quando há uma soma envolvendo ı́ndices covariante e contravariante. Este tipo de soma envolvendo
um ı́ndice contravariante e um ı́ndice covariante é também denominada de contração. Veremos que a con-
tração (A.23) coincide com a nossa maneira usual de calcular o produto escalar entre os vetores x e y no
espaço euclideano tridimensional.
A. Transformações lineares 35

Tendo definido em (A.20) um processo de medida pela métrica gik , podemos especificar os diferentes
grupos de simetria formados por transformações lineares que deixam a forma bilinear (A.23) invariante. Seja
(Rk i ) a matriz de uma transformações linear R. Então,
xk = Rk i ui , y k = Rk i v i . (A.24)
Usando (A.23), teremos:
Φ(x, y) = xk yk = gkl xk y l = gkl Rk i Rl j ui v j
(A.25)
Φ(u, v) = ui vi = gij ui v j .
Requerendo que Φ(x, y) = Φ(u, v), podemos concluir que os elementos de matriz da transformação linear R
devem satisfazer as seguintes relações quadráticas:
gkl Rk i Rl j = gij . (A.26)
Podemos ver que as componentes gkl da métrica transformam-se como os vetores de base em (A.6). Portanto,
elas são componentes covariantes. A quantidade das relações (A.26) depende apenas das propriedades da
métrica (simétrica, anti-simétrica, simpléctica, etc.). Calculando o determinante nos dois lados de (A.26),
teremos:
|(det R)|2 = 1. (A.27)
Vemos então que o determinante de qualquer transformação linear preservando a forma bilinear (A.23) tem
de ter módulo unitário (±1). Em geral, temos de escolher as transformações com |(det R)| = 1, pois a
identidade tem determinante igual a um e ela é necessária para a formação de um grupo. No entanto as
demais transformações com determinante de módulo negativo também são importantes em Fı́sica por estarem
associadas a inversões espaciais e temporais. As relações (A.26) podem também ser escritas em termos dos
elementos de matriz (R−1 )k i da transformação inversa:
gkl = (R−1 )i k (R−1 )j l gij . (A.28)
De qualquer uma destas relações quadráticas, podemos calcular facilmente os elementos de matriz da trans-
formação inversa:
(R−1 )i j = gjk Rk l g li = Rj i . (A.29)
Portanto, qualquer transformação linear que deixa a forma bilinear (A.23) invariante deve satisfazer as
relações quadráticas (A.26) ou, equivalentemente, (A.28). Neste caso, a matriz da transformação inversa é
calculada facilmente por (A.29), uma vez tendo a forma explı́cita da métrica. Usando a definição (A.22),
podemos ver de (A.7) que as componentes covariantes xk transformam-se com a matriz inversa:
yk = (R−1 )i k xi . (A.30)
Há muitas quantidades matemáticas de interesse fı́sico que precisam de mais de dois ı́ndices para serem
especificadas completamente. Em geral, as componentes de tais quantidades são funções em V n . Neste caso,
uma transformação linear pode alterar a forma destas quantidades de maneira imprevisı́vel. No entanto,
existe uma classe formada por quantidades cujas componentes mudam da mesma forma que as componentes
(contravariantes, (A.7), e covariantes, (A.30)) dos vetores em V n . Estas quantidades especiais são denomi-
nadas de tensores. Note que a definição de tensores apresentada aqui depende da existência de um grupo
de transformações lineares. Os tensores, por exibirem estas propriedades são candidatos naturais a serem
utilizados em qualquer modelo fı́sico. A quantidade de ı́ndices (ou entradas) disponı́veis em um tensor é de-
nominada de ordem do tensor. Assim, um escalar é um tensor de ordem zero, um vetor é um tensor de ordem
um, uma matriz é um tensor de ordem dois, etc. Por exemplo, dado que a quantidade T i k é um tensor de
ordem dois, então sabemos exatamente como suas componentes modificam-se mediante uma transformação
linear R:
T i k → Ri j (R−1 )l k T j l . (A.31)
Portanto, a Eq. (A.28) mostra que a métrica é um tensor covariante de ordem dois. A Eq. (A.28) também
nos diz que a métrica é uma quantidade invariante, pois suas componentes são as mesmas, antes e depois da
transformação. Naturalmente, isto é equivalente a dizer que a forma bilinear correspondente é invariante à
transformação dada.
36 A. Transformações Lineares

A.3 Transformações infinitesimais


Sophus Lie mostrou que uma transformação finita (quando os parâmetros da transformação variam em um
intervalo finito) pode ser “gerada” por sucessivas transformações infinitesimais (quando os parâmetros da
transformação variam infinitesimalmente). Seja R(a) um elemento de um grupo de Lie G. Podemos redefinir
os parâmetros aα , α = 1, . . . , r, de modo a obter o elemento identidade I quando todos os parâmetros forem
nulos, ¯
I = R(a)¯a=0 . (A.32)
Vamos considerar aqui os elementos do grupo na vizinhança da identidade, a → 0. Neste caso, podemos
expandir o elemento R(a) em série de Taylor em torno da identidade,
r ¯
X ∂R ¯¯
α 2
R(a) = I + a Lα + O(a ), Lα = . (A.33)
α=1
∂aα ¯a=0

Na maioria dos casos, o raio de convergência desta expansão é suficiente para estudarmos a maioria das
propriedades globais (ito é, longe da identidade, em contraste com as propriedades infinitesimais definidas
em torno da identidade) de um dado grupo de Lie através da relação exponencial
r ∞
¡X α
¢ Lα
X Lk α
R(a) = exp a Lα , e = . (A.34)
α=1
k!
k=0

Note que esta relação exponencial tem a mesma expansão (A.33) em torno da identidade. As r quantidades
Lα , linearmente independentes, são os geradores do grupo. Estes geradores formam uma base para uma
álgebra 3 definida em relação ao produto de Lie:
r
X
[Lα , Lβ ] = Lα · Lβ − Lβ · Lα = C γ αβ Lγ , C γ αβ ∈ R. (A.35)
γ=1

Esta álgebra é denominada de álgebra de Lie associada ao grupo de Lie. Assim, conhecendo as propriedades
de um conjunto finito de geradores, podemos conhecer quase todas as propriedades globais dos elementos
do grupo associado (um grupo infinito). A dimensão da álgebra de Lie é igual ao número de parâmetros do
grupo de Lie correspondente. As constantes C γ αβ em (A.35) são as constantes de estrutura da álgebra. A
menos de uma transformação linear constante, as constantes de estrutura são as “impressões digitais” de
uma álgebra de Lie. Duas álgebras serão isomórficas quando tiverem as mesmas constantes de estrutura (ou
quando as constantes de estrutura de uma álgebra puderem ser transformadas nas constantes de estrutura
da outra álgebra).
O produto de Lie definido em (A.35) possui três propriedades fundamentais: I) o produto de Lie é
anti-simétrico,
[Lα , Lβ ] = −[Lβ , Lα ]; (A.36)
II) ele é bilinear,
[Lα , Lβ + aLγ ] = [Lα , Lβ ] + a[Lα , Lγ ]; (A.37)
III) ele satisfaz a identidade de Jacobi,
£ ¤ £ ¤ £ ¤
Lα , [Lβ , Lγ ] + Lγ , [Lα , Lβ ] + Lβ , [Lγ , Lα ] = 0. (A.38)
Estas propriedades definem uma álgebra de Lie. Vimos que podemos representar transformações lineares
por matrizes em um espaço de dimensão finita. Assim, da expansão de Taylor dos elementos de um grupo
de Lie em torno da identidade, Eq. (A.33), e das relações quadráticas (A.26), podemos calcular as condições
nos elementos de matriz dos geradores (Lα )i k , impostas pela condição da métrica ser invariante:
· Xr ¸· X r ¸
gij = δik + aα (Lα )k i δjl + aα (Lα )l j gkl ⇒ (Lα )k l gik + (Lα )k i gkl = 0. (A.39)
α=1 α=1
3 Uma álgebra é um espaço vetorial dotado de um “produto” entre seus elementos cujo resultado é outro elemento deste

mesmo espaço vetorial. Fazendo uso da linguagem de aplicações introduzida anteriormente, este produto é uma aplicação ∗ tal
que ∗ : V × V → V . Quando o produto ∗ for bilinear, então a álgebra correspondente é denominada de álgebra linear.
A. Transformações especiais 37

Estas relações implicam que estas matrizes dos geradores possuem traço nulo:

(Lα )k l gik + (Lα )k i gkl = 0 ⇒ (Lα )k k = 0. (A.40)

Isto está condizente com a relação exponencial (A.34), pois


r
¡X ¢
det R(a) = exp aα trLα = 1, trLα = (Lα )k k = 0. (A.41)
α=1

A.4 Transformações especiais


A.4.1 Transformações ortogonais
As transformações ortogonais são transformações lineares reais no espaço euclideano V n = Rn , de dimensão
n, que preservam a métrica euclideana, cujos elementos de matriz são4

gik = δik . (A.42)

Esta métrica é simétrica. Para n = 3, temos o espaço tridimensional usual. Sendo o tensor métrico igual à
identidade, a definição (A.20) de uma forma bilinear coincide com a definição usual de produto escalar:
n
X
Φ(Rx, Rx) = Φ(x, x) = x2 = x2k . (A.43)
k=1

Em um espaço euclideano, as componentes covariantes identificam-se com as componentes contravariantes.


Assim, não há necessidade de observarmos a posição de ı́ndices covariantes e contravariantes em qualquer
quantidade tensorial.
A condição de invariabilidade da métrica euclideana, expressa nas relações quadráticas (A.26), fornece
n(n + 1)/2 relações de vı́nculos entre os elementos de matriz Rik de uma transformação ortogonal. Portanto,
apenas n(n − 1)/2 elementos de matriz Rki são independentes. Isto significa que o grupo ortogonal, formado
pelas transformações ortogonais, possui n(n − 1)/2 geradores Lα , α = 1, . . . , n(n − 1)/2. Os elementos de
matriz destes geradores devem satisfazer a relação de anti-simetria,

(Lα )ik = −(Lα )ki , (A.44)

proveniente de (A.39) e da simetria da métrica euclideana (A.42). Desta forma, a condição de ortogonalidade
nos elementos do grupo corresponde à condição de anti-simetria nos elementos da álgebra correspondente.
Os elementos de matriz da transformação ortogonal inversa podem ser calculados facilmente usando (A.29),

(R−1 )ik = Rki . (A.45)


Isto significa que a matriz inversa de uma transformação ortogonal é calculada simplesmente realizando uma
operação de transposição real.
Na teoria dos grupos de Lie, o grupo ortogonal é denotado por SO(n) e a álgebra correspondente por
so(n). A letra “S” significa que as matrizes que representam os elementos do grupo possuem determinante
igual a um (traço nulo na álgebra). O grupo SO(3) é fundamental para a teoria do momentum angular em
Fı́sica. Este grupo é o grupo formado pelas rotações espaciais, quando estas são vistas como transformações
lineares no espaço tridimensional. Portanto, ele é também um subgrupo do grupo de Lorentz. A álgebra
associada, so(3), é a álgebra formada pelas componentes do momentum angular. O grupo SO(3) também
é muito importante em Métodos Matemáticos para a Fı́sica, pois os elementos de matriz são as funções
especiais de Legendre e todas as propriedades destas funções podem ser vistas como conseqüência direta das
propriedades dos grupos de Lie aplicadas ao grupo SO(3).
4 A métrica em um espaço euclideano pode sempre ser transformada numa métrica proporcional à identidade. Isto significa

que qualquer base pode ser ortonormalizada.


38 A. Transformações Lineares

A.4.2 Transformações de Lorentz


As transformações de Lorentz são transformações lineares reais no espaço-tempo V n = M 4 , de dimensão
n = 4, que preservam a métrica (simétrica) de Minkowski, cujos elementos de matriz são
 
1 0 0 0
0 −1 0 0
(gµν ) = (g µν ) = 
0
 , µ, ν = 0, 1, 2, 3. (A.46)
0 −1 0
0 0 0 −1

A condição de invariabilidade da métrica de Minkowski, expressa nas relações quadráticas (A.26), fornece
4(4 + 1)/2 = 10 relações de vı́nculos entre os elementos de matriz Λµ ν de uma transformação de Lorentz.
Portanto, apenas seis elementos de matriz são independentes. Isto significa que o grupo de Lorentz, formado
pelas transformações de Lorentz, possui seis geradores Lk , k = 1, . . . , 6. Os elementos de matriz destes
geradores devem satisfazer a relação de anti-simetria,

(Lk )µν = −(Lk )νµ , (A.47)

proveniente de (A.39) e da simetria da métrica de Minkowski (A.46). Os elementos de matriz da trans-


formação de Lorentz inversa podem ser calculados facilmente usando (A.29),

(Λ−1 )α β = g αµ gβν Λν µ = Λβ α . (A.48)

Na teoria dos grupos de Lie, o grupo de Lorentz é denotado por SO(1,3) e a álgebra correspondente por
so(1,3). A letra “S” significa que as matrizes que representam os elementos do grupo possuem determinante
igual a um (traço nulo na álgebra). O grupo SO(1,3) é fundamental para a teoria da relatividade especial
de Einstein.

A.4.3 Transformações simplécticas


As transformações simplécticas são transformações lineares reais no espaço de fase V 2n , de dimensão 2n, que
preservam a métrica simpléctica, cujos elementos de matriz são
 

 1 se µ ≤ n e ν = n + µ, 
−1 se µ ≤ n e ν = n + µ,
ζ µν = −ζ νµ = −1 se ν ≤ n e µ = n + ν, ζµν = −ζνµ = 1 se ν ≤ n e µ = n + ν, (A.49)

 

0 todos os demais casos; 0 todos os demais casos.

Esta métrica é anti-simétrica. Como conseqüência desta anti-simétria, a forma bilinear (A.20) é sempre nula
quando x = y,
Φ(x, x) = 0, ∀ x ∈ V 2n . (A.50)
A condição de invariabilidade da métrica simpléctica, expressa nas relações quadráticas (A.26), fornece
n(2n−1) relações de vı́nculos entre os elementos de matriz Rµ ν de uma transformação simpléctica. Portanto,
apenas n(2n + 1) elementos de matriz Rµ ν são independentes. Isto significa que o grupo simpléctico possui
n(2n + 1) geradores Lk , k = 1, . . . , n(2n + 1). Os elementos de matriz destes geradores devem satisfazer a
relação de simetria,
(Lk )µν = (Lk )νµ , (A.51)
proveniente de (A.39) e da anti-simetria da métrica simpléctica (A.49). Os elementos de matriz da trans-
formação simpléctica inversa podem ser calculados facilmente usando (A.29),

(R−1 )µ ν = ζ µβ ζαν Rα β = −Rν µ . (A.52)

Na teoria dos grupos de Lie, o grupo simpléctico é denotado por Sp(2n) e a álgebra correspondente por
sp(2n). A letra “S” significa que as matrizes que representam os elementos do grupo possuem determinante
igual a um (traço nulo na álgebra). O grupo Sp(2n) é fundamental para o formalismo hamiltoniano, pois as
transformações canônicas no espaço de fase formam, naturalmente, um grupo.
Apêndice B

Rotações Espaciais

B.1 Corpo rı́gido


Devido à importância das rotações espaciais em muitas áreas da Fı́sica, iremos discutir aqui suas principais
propriedades, principalmente aquelas relacionadas com grupos contı́nuos. Vamos considerar inicialmente os
possı́veis movimentos de um corpo rı́gido. Um corpo rı́gido, também conhecido por sólido, é um sistema de
massas pontuais sujeitas à forças de vı́nculos que mantêm as distâncias constantes entre pares de massas.
O movimento mais geral de um sólido consiste em uma translação (deslocamentos espaciais numa dada
direção) conjunta com uma rotação (movimento giratório em torno de um eixo fixo no sólido). Leonhard
Euler (1807–1873) provou que o movimento mais geral de um sólido em torno de um ponto fixo é uma
rotação. Michel Chasles (1793–1880) mostrou que é possı́vel escolher um sistema de coordenadas no sólido
de tal forma que a direção do eixo de rotação coincida com a direção da translação. Sendo necessário três
graus de liberdade para especificar o movimento de translação e outros três para especificar a orientação de
um sistema de coordenadas fixo no sólido em relação a um determinado sistema de coordenadas externo,
então um corpo rı́gido é completamente especificado no espaço por apenas seis graus de liberdade. Este
número independe da quantidade de massas pontuais internas ao sólido. Nas discussões seguintes, estaremos
interessados apenas nas rotações.
Por definição, a rotação de um vetor tridimensional faz com que ele gire em torno de uma determinada
direção sem alterar seu comprimento. Como vetores e pontos materiais em um sólido podem ser especi-
ficados de forma única em um sistema de coordenadas no espaço, uma rotação pode ser vista como uma
transformação linear de coordenadas ortogonal em um espaço euclideano tridimensional. Uma descrição
matemática precisa de transformações lineares e suas propriedades, incluindo as rotações espaciais, está feita
no Apêndice A.

B.2 O grupo das rotações espaciais


Vimos na Subseção A.4.1 que uma transformação ortogonal em um espaço euclideano tridimensional tem três
geradores. Isto significa que uma transformação ortogonal tridimensional é caracterizada por três parâmetros
reais, correspondendo aos três graus de liberdade de uma rotação espacial de um sólido. Devemos fazer
uma escolha destes três parâmetros que irão representar uma determinada rotação. Usaremos aqui duas
parametrizações entre várias possibilidades.
Iniciaremos pela parametrização onde uma rotação arbitrária é especificada por uma rotação por um
ângulo α, 0 ≤ α < 2π, em torno de um dado eixo α = (α1 , α2 , α3 ), sendo que o módulo de α é numericamente
igual ao ângulo de rotação α, q
α = |α| = α12 + α22 + α32 . (B.1)

As componentes (α1 , α2 , α3 ) são os parâmetros da rotação. Iremos denotar por n o versor na direção e
sentido do eixo de rotação,
α
n= . (B.2)
α

39
40 B. Rotações Espaciais

Assim, podemos também denotar uma determinada rotação por (n, α). Podemos verificar que as rotações
(n, α) e (−n, 2π − α) são equivalentes. Isto significa que a ponta do vetor α forma uma superfı́cie esférica de
raio α para cada valor de α, sendo que dois pontos diametralmente opostos nesta superfı́cie são equivalentes
(fornecem a mesma rotação para o sólido). Esta ambigüidade pode ser removida parcialmente limitando α
ao intervalo 0 ≤ α < π. Agora, apenas quando α = π teremos pontos equivalentes numa superfı́cie esférica
de raio π. Esta é uma caracterı́stica (global) das rotações espaciais e não pode ser eliminada.
Passemos agora ao problema de determinar os elementos de matriz Rik para uma rotação arbitrária.
Vamos supor que o vetor r, com a sua extremidade em P , seja rodado no sentido anti-horário de um ângulo
α pela rotação (n, α). Então ele descreverá o arco P Q numa circunferência de raio |n ∧ r| (projeção do vetor
r perpendicular ao eixo de rotação n). Vamos denotar por N o centro desta circunferência e por O a origem
do sistema de coordenadas fixo no corpo rı́gido. O vetor rodado r0 com a extremidade em Q pode ser escrito
como uma soma vetorial da forma
−−→ −−→ −−→
r0 = ON + N M + M Q, (B.3)
−−→
onde M é um ponto sobre a reta N P . Este ponto M é determinado pela projeção do vetor N Q sobre o vetor
−−→
NP: £ ¤
−−→ −−→
N M = N P cos α = cos α r − (r · n) n , (B.4)
onde
−−→ −−→ −−→
|N P | = |N Q| = |n ∧ r| e N P = r − (r · n) n. (B.5)
−−→ −−→ −−→
O vetor M Q é a projeção do vetor N Q sobre o vetor n ∧ r, perpendicular a N P ,
−−→
M Q = sen α n ∧ r. (B.6)

Fazendo uso destas relações, o vetor r0 em (B.3) pode ser reescrito como

r0 = r cos α + (r · n) n(1 − cos α) + n ∧ r sen α. (B.7)

Portanto, os elementos de matriz em coordenadas cartesianas são


3
1 − cos α X sen α
Rik = δik cos α + αi αk − εikl αl , (B.8)
α2 α
l=1

onde εikl é o tensor de Levi-Civita(Tullio Levi-Civita, 1873–1941). 1 Naturalmente, a identidade R = I


corresponde à situação α = αk = 0, como pode ser facilmente verificada na expressão anterior. Usando um
pouco de esforço algébrico, podemos checar diretamente da Eq. (B.8) que estas matrizes têm determinante
igual a um, como esperado (ver Apêndice A):

1 XX
det R = εijk εrst Rir Rjs Rkt = 1. (B.9)
6 rst
ijk

Também pode ser verificado diretamente de (B.8) que a inversa é igual à transposta (matrizes ortogonais):

R−1 = RT . (B.10)

Vimos no Apêndice A que as transformações ortogonais deixam a métrica euclideana invariante. Isto também
pode ser verificado aqui usando a (B.10). De fato, sendo a métrica euclideana um tensor de ordem dois
diagonal, gij = δij , temos
X X X
T
δij Rir Rjs = Rir Ris = Rri Ris = δrs . (B.11)
ij i i

1 Ele é completamente anti-simétrico em quaisquer dois ı́ndices (isto implica que para dois ı́ndices iguais este tensor é zero).

Quando as três componentes de εikl são distintas o valor do tensor pode ser apenas ±1. Será +1 (−1) quando a seqüência ikl
formar uma permutação par (ı́mpar) de 123. Uma permutação ikl é par (ı́mpar) quando o número de transposições (troca de
dois números) para reobter 123 for par (ı́mpar). Por exemplo, 132 é uma permutação ı́mpar e 231 é par.
B. O grupo das rotações espaciais 41

Neste espaço de dimensão


P três existe apenas um outro tensor invariante: o tensor de Levi-Civita. De fato,
usando a (B.9) e ijk ε2ijk = 6 temos
X
εijk Rir Rjs Rkt = εrst . (B.12)
ijk

Usando este fato, podemos mostrar diretamente da (B.8) que o produto S = R(α)R(β) de duas rotações
arbitrárias R(α) e R(β) é também uma rotação, isto é, uma matriz ortogonal,
¡ ¢T
S T = R(α)R(β) = RT (β)RT (α) ⇒ SS T = I ⇒ S −1 = S T , (B.13)

com determinante +1,

1 XX
det S = εijk εrst Sir Sjs Skt
6
ijk rst
µ ¶¯ µX ¶¯
1X X ¯
¯
¯
= εijk Ril Rjm Rkn ¯ εrst Rlr Rms Rnt ¯¯ (B.14)
6 α rst β
lmn ijk
1X 2
= εlmn = 1.
6
lmn

Portanto, as rotações (B.8) formam um grupo de Lie de ordem três.


Consideremos uma rotação em torno do eixo z: α = (0, 0, α). Neste caso, a matriz de rotação correspon-
dente é  
cos(α) −sen (α) 0
R(α) = sen (α) cos(α) 0 . (B.15)
0 0 1

Consideremos ainda neste exemplo particular a derivada desta matriz em relação ao ângulo de rotação α:
 
−sen (α) − cos(α) 0
d
Ṙ(α) = R(α) =  cos(α) sen (α) 0 . (B.16)

0 0 0

No limite α → 0 (identidade) esta matriz torna-se em


 
0 −1 0
Lz = Ṙ(0) = 1 0 0 . (B.17)
0 0 0

Podemos ver que esta matriz é anti-simétrica e de traço nulo. Igualmente importante é a observação que
esta matriz Lz , quando exponenciada, gera a matriz de rotação R(α):

X (αLz )k
R(α) = eαLz = . (B.18)
k!
k=0

Portanto, uma rotação pode ser escrita como a exponencial de uma matriz constante multiplicada pelo
parâmetro (ângulo) caracterizando a rotação. Dizemos que a matriz Lz gera a rotação R(α).

Exercı́cio 1 Calcule explicitamente a matriz de rotação 3 × 3 cujos elementos de matriz estão dados em
(B.8).

Exercı́cio 2 Verifique as Eqs. (B.9), (B.12) e (B.18).


42 B. Rotações Espaciais

B.3 A álgebra de Lie correspondente ao grupo das rotações


Podemos generalizar o procedimento anterior e calcular os três geradores linearmente independentes Lk ,
k = 1, 2, 3, para uma rotação arbitrária R(α1 , α2 , α3 ). Inicialmente, temos de calcular a derivada dos
elementos de matriz Rij :
µ ¶¡ ¢
∂Rij αk αj αi αi αj αk 1 − cos α
= −δij sen α + δik + δjk −2
∂αk α α α α3 α
µ ¶ µX 3 ¶ µ ¶
αi αj αk sen α αl αk sen α
+ − εijk − εijl cos α − . (B.19)
α2 α α α α
l=1

Os geradores Lk são calculados tomando o limite αk → 0 na identidade (α = 0):


 
¯ 0 0 0
∂R ¯¯
L1 = lim = 0 0 −1 ,
α1 →0 ∂α1 ¯
α=0 0 1 0
 
¯ 0 0 1
∂R ¯¯
L2 = lim =  0 0 0 , (B.20)
α2 →0 ∂α2 ¯
α=0 −1 0 0
 
¯ 0 −1 0
∂R ¯¯
L3 = lim = 1 0 0 .
α3 →0 ∂α3 ¯
α=0 0 0 0

Note que os elementos matriciais destas matrizes Li podem ser escritos numa forma compacta como

(Li )jk = −εijk . (B.21)

Estas matrizes anti-simétricas e de traço nulo geram a matriz de rotação R(α) cujos elementos de matriz
são os mesmos em (B.8):
R(α) = eα1 L1 +α2 L2 +α3 L3 . (B.22)
É interessante escrever os elementos de matriz desta exponencial para rotações infinitesimais, αi ¿ 1,
X X
Rij ≈ δij + αk (Lk )ij = δij − εkij αk . (B.23)
k k

Assim, a ação de uma rotação infinitesimal é dada por


X X X X
x0i = Ril xl = xi − εkil αk xl = xi + αk φik (x), φik (x) = εikl xl . (B.24)
l k,l k l

As matrizes (B.20) possuem relações de comutação,


X
[Li , Lj ] ≡ Li Lj − Lj Li = εijk Lk , (B.25)
k

idênticas àquelas dos operadores de momentum angular na forma diferencial,


¡ ¢ X ∂
Li = r × p i = εijk xj . (B.26)
∂xk
j,k

Portanto, podemos dizer que as componentes do momentum angular são os geradores das rotações espaciais.
Podemos ver em (B.25) que o comutador

[A, B] = AB − BA, (B.27)


B. A álgebra de Lie correspondente ao grupo das rotações 43

define um produto no espaço das matrizes 3 × 3 anti-simétricas de traço nulo o qual é anti-simétrico, bilinear,

[A, B] = −[B, A],


(B.28)
[A + λB, C] = [A, C] + λ[B, C], λ ∈ R,

e satisfaz a identidade de Jacobi (Carl Gustav Jacob Jacobi, 1804–1851),


£ ¤ £ ¤ £ ¤
A, [B, C] + C, [A, B] + B, [C, A] = 0. (B.29)

Este produto é conhecido como produto de Lie. Qualquer espaço vetorial equipado com um produto entre seus
elementos que produza um outro de seus elementos forma uma álgebra. Assim, o conjunto das matrizes Lk
forma uma álgebra de Lie denotada por so(3). A letra “s” significa que as matrizes representando esta álgebra
possuem traço nulo, correspondendo a matrizes com determinante unitário no grupo. A letra “o” significa
que as matrizes nesta álgebra são anti-simétricas as quais geram matrizes ortogonais no grupo. Em geral as
álgebras de Lie são denotadas pelos mesmos sı́mbolos denotando os grupos de Lie mas em letras minúsculas.
Os números εijk em (B.25) são denominados de constantes de estrutura da álgebra e fazem o papel de uma
“carteira de identidade” da álgebra. Duas álgebras com as mesmas constantes de estrutura são ditas serem
isomórficas. O isomorfismo entre duas álgebras significa que tais álgebras podem ser consideradas as mesmas,
que as constantes de estruturas de uma delas podem ser transformadas nas constantes de estrutura da outra.
Naturalmente existe uma forma canônica para escrever as constantes de estrutura para todas as álgebras de
Lie possı́veis. Por exemplo, podemos reescrever os geradores Lk na forma

Jk = iLk , i2 = −1. (B.30)

Neste caso, as novas constantes de estrutura serão i²klm ,


3
X
[Jk , Jl ] = i ²klm Jm . (B.31)
m=1

A forma canônica para as constantes de estrutura da álgebra so(3) é uma dada pelos geradores J3 e J± ,

J± = J1 ± iJ2 = iL1 ∓ L2 . (B.32)

As novas relações de comutação são agora

[J3 , J± ] = ±J± ,
(B.33)
[J+ , J− ] = 2J3 .

Os grupos de Lie correspondentes a álgebras isomórficas são ditos serem apenas localmente isomórficos, pois
as álgebras são determinadas apenas em torno da identidade do grupo. Isto significa que as álgebras de Lie
contêm todas as informações pertinentes aos seus grupos associados em torno da identidade (propriedades
locais). No entanto, muitas das propriedades globais (longe da identidade) podem ser determinadas também
por propriedades da álgebra.
Vale notar que as matrizes Li por serem linearmente independentes,
3
X
ci Li = 03×3 ⇒ ci = 0, (B.34)
i=1

onde 03×3 é a matriz nula 3 × 3, formam uma base para o espaço vetorial complexo formado pelas matrizes
anti-simétricas de traço nulo. Qualquer matriz anti-simétrica M de traço nulo pode ser escrita como uma
combinação linear das três matrizes Li ,
3
X
M= ci Li , ci ∈ C. (B.35)
i=1
44 B. Rotações Espaciais

Estas matrizes formam, portanto, uma base para álgebra a so(3). Esta álgebra é complexa, pois as constantes
ci utilizadas na combinação linear acima são complexas. É comum escrevermos o nome do conjunto numérico
(real ou complexo) ao qual pertence as constantes ci junto com o nome da álgebra (ou do grupo). Neste
caso teremos so(3,C). No entanto, continuaremos a escrever so(3) ao invés de so(3,C), por pura conveniência.
Comparando (B.26) e (B.20) podemos ver que os elementos de uma álgebra podem ser escritos (realizados)
em diferentes formas. Podemos assim, idealizar uma álgebra arbitrária de forma abstrata, isto é, sem
dizer explicitamente que objetos matemáticos (matrizes, operadores lineares, transformações, etc.) são ou
representam seus elementos (forma concreta). Neste caso, as constantes de estrutura que definem as relações
de comutação da álgebra devem ser conhecidas a priori. Um resultado que torna as álgebras de Lie em
instrumentos de importância em Fı́sica é que as regras para representar os elementos abstratos de uma
determinada álgebra são todas conhecidas. Estas regras são conhecidas como teoria de representação para
as álgebras de Lie.
Uma álgebra de Lie não contém elementos que não sejam combinações lineares dos elementos de base.
Polinômios, por exemplo, não fazem parte da álgebra. No entanto, alguns polinômios são de grande im-
portância. Por exemplo, para a álgebra so(3) em questão, o polinômio
L2 = −(L21 + L22 + L23 ) = 2I, (B.36)
comuta com todos os elementos Li ,
[L2 , Li ] = 0. (B.37)
Analogamente,
1
J 2 = J32 + (J+ J− + J− J+ ) = J3 (J3 − 1) + J+ J− (B.38)
2
comuta com J3 e J± . Este operador quadrático (L2 ou J 2 ) nos elementos da álgebra é único e é conhecido
como operador de Casimir (Hendrik Bugt Casimir, 1909–2000). Também são conhecidas todas as regras
para determinar quem são os polinômios mais gerais que comutam com todos os elementos de qualquer
álgebra de Lie. Em geral, nas aplicações fı́sicas os elementos das álgebras de Lie ou funções destes elementos
desempenham o papel de observáveis, isto é, operadores associados a alguma realidade fı́sica mensurável.
Os elementos do grupo, por serem obtidos por uma exponenciação dos elementos da álgebra, desempenham
o papel dos operadores de evolução, os quais são exponenciais dos observáveis (hamiltonianas, etc.).
Quais as matrizes, de dimensão finita, que satisfazem as relações de comutação (B.33) e (B.38)? Estas
matrizes são os representantes dos elementos da álgebra de momentum angular. Vamos requerer também
que tais matrizes satisfaçam

J± = J∓ , J3† = J3 . (B.39)
Isto é suficiente para construirmos representações hermiteanas (unitárias no grupo, devido à exponenciação),
J+ + J− e i(J+ − J− ), por exemplo. Vamos escolher {J3 , J 2 } para serem diagonalizados simultaneamente:
J3 |j, mi = m|j, mi, (B.40)
2
J |j, mi = j(j + 1)|j, mi, (B.41)
onde j e m, com |m| ≤ j, são inteiros ou semi-inteiros para garantir que as matrizes da representação sejam
finitas (como veremos adiante). Vale observar aqui algumas propriedades importantes associados à notação
em (B.40) e (B.41). Primeiro, alguma poucas palavras sobre a idéia básica da teoria de representações: em
geral, os elementos de qualquer álgebra são completamente inertes, isto é, eles não atuam em espaço vetorial
nenhum (a não ser o próprio espaço vetorial formado pela álgebra per si). Acontece que cada espaço vetorial
carrega consigo um conjunto de operadores lineares. São estes operadores lineares que serão usados para
representar os elementos de uma determinada álgebra, numa relação unı́voca. Em um estágio posterior, cada
operador agindo em um espaço vetorial previamente escolhido (ou construı́do) será representado por uma
matriz pelo processo usual. Em geral, usamos o mesmo nome para identificar os elementos da álgebra e os
seus operadores associados, bem como suas matrizes. No nosso caso, temos um espaço vetorial, denominado
de espaço portador das representações, onde cada vetor de base (escolhida como ortonormal) é descrito por
|j, mi ou, sucintamente, por |mi, uma vez que j fixa a dimensão (2j + 1) de cada representação. Segundo: a
produto escalar é feito com a imagem especular hj, m|, denominado de bra, do vetor |j, mi, denominado de
ket. Assim, por construção:
hj, m|j, m0 i = δmm0 . (B.42)
B. A álgebra de Lie correspondente ao grupo das rotações 45

Terceiro: os elementos de matriz de qualquer operador A na base |j, mi são especificados por

Amm0 = hj, m|A|j, m0 i = (hj, m|A† )|j, m0 i, (B.43)

onde a expressão central exemplifica a ação à direita para o operador A e o último termo exemplifica a ação
à esquerda. Portanto, como quarta observação, qualquer operador agindo em um bra deve agir com o seu
conjugado transposto. Todas estas regras práticas estão em conformidade com a maneira correta de definir
produtos escalares em espaços vetoriais complexos.
Usando as Eqs. (B.33) podemos ver que os novos vetores J± |mi são autovetores de J3 como autovalores
m ± 1. De fato, abrindo o produto de Lie e re-agrupando os termos semelhantes, temos
¡ ¢
J3 J+ |j, mi = (m + 1)J+ |j, mi. (B.44)

Portanto, o novo vetor J+ |j, mi é autovetor de J3 com autovalor m + 1, mas conforme (B.40), este vetor
deve ser proporcional ao vetor |j, m + 1i. Assim, após uma normalização conveniente, podemos fazer

J± |j, mi = A± (j, m)|j, m ± 1i. (B.45)

Naturalmente, os valores de m devem ser inteiros ou semi-inteiros, pois em caso contrário terı́amos uma
quantidade infinita de novos vetores produzidos pela ação repetida de J± . Portanto, |m| ≤ j e a dimensão
das matrizes de cada representação fixada por j será 2j + 1. Isto significa que

A+ (j, j) = 0 ⇒ A+ (j, m) ∝ (j − m)
(B.46)
A− (j, −j) = 0 ⇒ A− (j, m) ∝ (j + m).

Os coeficientes A± não são independentes. De (B.43), permitindo J+ (ou J− ) agir a direita e a esquerda,
teremos
hj, m + 1|J+ |j, mi = A+ (j, m)hj, m + 1|j, m + 1i = A+ (j, m)

= (hj, m + 1|J+ )|j, mi = (hj, m + 1|J− )|j, mi (B.47)
= A− (j, m + 1)hj, m|j, mi = A− (j, m + 1),
de onde concluı́mos que
A+ (j, m) = A− (j, m + 1). (B.48)
Usando as regras de seleção (B.46) e a relação (B.48), temos

A+ (j, m) = (j − m)A0+ (j, m) = A− (j, m + 1) = (j + m + 1)A0− (j, m + 1). (B.49)

Uma solução para esta equação é

A0+ (j, m) = (j + m + 1), A0− (j, m + 1) = (j − m). (B.50)

Reunindo todas as informações obtidas até aqui, teremos:

A+ (j, m) ∝ (j − m)(j + m + 1)
(B.51)
A− (j, m) ∝ (j + m)(j − m + 1).

Usando a segunda relação de comutação em (B.33), podemos fixar a forma destes elementos de matriz:

hj, m|[J+ , J− ]|j, mi = 2m ⇒ A2+ (j, m − 1) − A2+ (j, m) = 2m. (B.52)

Portanto, p
A± (j, m) = j(j + 1) − m(m ± 1). (B.53)
Vale notar que estas matrizes calculadas pelas equações (B.40) e (B.45) são irredutı́veis, isto é, não admitem
transformações de similaridade a fim de reduzi-las a uma forma diagonal, mesmo que seja por blocos menores
que 2j + 1. Consideremos os casos particulares j = 1/2 e j = 1. Para j = 1/2, temos
µ ¶ µ ¶ µ ¶
1/2 0 0 1 0 0
J3 = , J+ = , J− = , (B.54)
0 −1/2 0 0 1 0
46 B. Rotações Espaciais

ou, usando as matrizes de Pauli,


µ ¶ µ ¶ µ ¶
0 1 0 −i 1 0
2J1 = σ1 = , 2J2 = σ2 = , 2J3 = σ3 = . (B.55)
1 0 i 0 0 −1

Para j = 1, temos
     
1 0 0 √ 0 1 0 √ 0 0 0
J3 = 0 0 0  , J + = 2 0 0 1 , J− = 2 1 0 0 . (B.56)
0 0 −1 0 0 0 0 1 0

Exercı́cio 3 Mostre que o operador de Casimir (B.36) comuta com todos as elementos da álgebra so(3).

Exercı́cio 4 Prove a Eq. (B.53)

Exercı́cio 5 Calcule as matrizes da representção j = 3/2 e j = 2.

B.4 Ângulos de Euler


Uma rotação também pode ser parametrizada pelos três ângulos que caracterizam a posição relativa entre
dois sistemas de coordenadas (ei e e00i ) fixos em um corpo rı́gido. Estes ângulos são conhecidos como ângulos
de Euler e serão denotados por (θ, φ, ψ). Desta forma, esta parametrização é dependente de um sistema
de coordenadas. Os ângulos de Euler podem ser definidos da seguinte forma: I) uma rotação R(e3 , φ) em
torno do eixo e3 por um ângulo φ, 0 ≤ φ < 2π. O sistema (e1 , e2 , e3 ) é levado ao sistema intermediário
(e01 , e02 , e3 ); II) uma rotação R(e02 , θ) em torno do eixo intermediário e02 por um ângulo θ, 0 ≤ θ < π. O
sistema (e01 , e02 , e3 ) é levado ao sistema intermediário (e001 , e02 , e003 ); III) uma rotação R(e003 , ψ) em torno do
eixo e003 por um ângulo ψ, 0 ≤ ψ < 2π. Assim, uma rotação arbitrária R(θ, φ, ψ) pode ser escrita como o
produto das rotações definindo os ângulos de Euler:

R(θ, φ, ψ) = R(e003 , ψ)R(e02 , θ)R(e3 , φ). (B.57)

Infelizmente, aparece uma dependência dos sistemas de coordenadas e0i e e00i na equação anterior. É conveni-
ente, em geral, escrever uma rotação envolvendo apenas um sistema de coordenadas, por exemplo ei . Para
tal, devemos observar que
SR(n, α)S −1 = R(Sn, α), (B.58)
onde S é uma rotação arbitrária. Uma maneira de verificarmos este resultado é verificando se o novo eixo
de rotação Sn é invariante perante à rotação SR(n, α)S −1 , pois qualquer rotação deixa apenas o seu eixo
de rotação inalterado. De fato, o vetor Sn é invariante pela rotação SR(n, α)S −1 :

SR(n, α)S −1 Sn = SR(n, α)n = Sn. (B.59)

Além disto, |Sn| = |n|, pois uma rotação não modifica o módulo dos vetores. Como uma rotação em torno
de algum eixo sempre o deixa invariante, então segue-se o lado direito da (B.58). Desta forma, o eixo
intermediário e02 pode ser obtido pela rotação R(e3 , φ):

R(e02 , θ) = R(e3 , φ)R(e2 , θ)R−1 (e3 , φ), (B.60)

e, analogamente, o eixo e003 é obtido pela rotação R(e02 , θ),

R(e003 , ψ) = R(e02 , θ)R(e3 , ψ)R−1 (e02 , θ). (B.61)

Substituindo estas duas expressões em (B.57), obteremos

R(θ, φ, ψ) = R(e3 , φ)R(e2 , θ)R(e3 , ψ) = e−iφJ3 e−iθJ2 e−iψJ3 . (B.62)

Note que utilizamos o fato de duas rotações em torno do mesmo eixo comutarem,

R−1 (e3 , φ)R(e3 , ψ) = R(e3 , ψ)R−1 (e3 , φ). (B.63)


B. Ângulos de Euler 47

Tendo em vista as representações irredutı́veis (B.40) e (B.45), podemos calcular as respectivas matrizes
de rotação através da Eq. (B.62),
j
X
R(θ, φ, ψ)|j, mi = Rm0 m |m0 i, (B.64)
m0 =−j

onde
0
Rm0 m (θ, φ, ψ) = e−iφm e−iψm djm0 m (θ), djm0 m (θ) = hjm0 | e−iθJ2 |jmi. (B.65)
Consideremos o caso particular j = 1/2. De (B.55) e lembrando que σi2
= I, temos
µ ¶
i cos(θ/2) −sen (θ/2)
d1/2 (θ) = e− 2 θσ2 = (B.66)
sen (θ/2) cos(θ/2)
e µ i i ¶
e− 2 (φ+ψ) cos(θ/2) − e− 2 (φ−ψ) sen (θ/2)
R(θ, φ, ψ) = i i . (B.67)
e− 2 (−φ+ψ) sen (θ/2) e 2 (φ+ψ) cos(θ/2)
Escolhendo n = S ẑ em (B.58), temos, para alguma rotação S,

R(n, 2π) = SR(ẑ, 2π)S −1 . (B.68)

No entanto, na base |jmi, a rotação R(ẑ, 2π) é representada pela matriz

hjm0 |R(ẑ, 2π)|jmi = e−im2π δmm0 = (−1)2m δmm0 = (−1)2j δmm0 , (B.69)

lembrando que 2m, assim como 2j, é sempre um inteiro par ou ı́mpar. Portanto, de volta à (B.68), temos

R(n, 2π) = (−1)2j I. (B.70)

Isto significa que para as representações com j semi-inteiro é necessário duas voltas (4π) para retornar-se
ao ponto de partida. Assim, teremos representações para as rotações espaciais apenas quando j for um
inteiro, pois para uma rotação espacial basta uma volta de 2π para retornar-se ao ponto de partida. Vejamos
algumas propriedades das matrizes (B.62). A inversa de (B.62) é a matriz

R−1 (θ, φ, ψ) = R(−θ, −ψ, −φ), (B.71)

como pode ser verificado diretamente de (B.65). Devido às matrizes representando J± em (B.40) e (B.45)
serem reais, então de (B.32) temos J2† = J2 . Portanto,

R† (θ, φ, ψ) = R(−θ, −ψ, −φ) = R−1 (θ, φ, ψ) ⇒ d†m0 m (θ) = dm0 m (−θ). (B.72)

Escolhendo n = S ẑ em (B.58), então


j
Y
det R(n, α) = det(SR(ẑ, α)S −1 ) = det R(ẑ, α) = e−imα = 1. (B.73)
m=−j

Exercı́cio 6 Prove que se S for uma rotação qualquer, representada por uma matriz ortogonal, então o
vetor S~
α terá o mesmo módulo do vetor α
~.

Exercı́cio 7 Prove a Eq. (B.66) usando



X (−iθJ2 )k
e−iθJ2 = . (B.74)
k!
k=0

Exercı́cio 8 Prove as Eqs. (B.71)–(B.73).


48 B. Rotações Espaciais

B.5 Relação entre SO(3) e SU(2)


Consideremos um espaço vetorial de dimensão dois. Vamos denotar por {²+ , ²− } uma base neste espaço.
Seja
ξ = (ξ + , ξ − ) = ξ + ²+ + ξ − ²− , ξ k ∈ C, (B.75)
um vetor arbitrário, denominado de espinor, neste espaço. Seja também
µ ¶
α β
U= (B.76)
γ δ

uma transformação linear unitária,


U −1 = U † , det |U |2 = 1. (B.77)
Iremos escolher det U = 1 para que tais transformações lineares possam formar um grupo, denominado de
SU(2). Estas condições de unitariedade implicam em

|α|2 + |β|2 = 1, δ = α∗ , γ = −β ∗ . (B.78)

Portanto, apenas três parâmetros são independentes em (B.76). Estes três parâmetros podem ser escolhidos
como as componentes reais de um vetor espacial, por exemplo, r = (x, y, z). Usando as matrizes de Pauli
(B.55) como base, qualquer matriz unitária X2×2 pode ser escrita como
3
X µ ¶
z x − iy
X= xi σi = . (B.79)
x + iy −z
i=1

Podemos verificar que esta construção nos permite identificar que as transformações unitárias (B.76) induzem
transformações ortogonais no espaço tridimensional. De fato, seja X 0 o resultado de uma transformação de
similaridade da forma
X 0 = U XU † = (−U )X(−U † ). (B.80)
Como esta transformação preserva o determinante, então

det X = −r2 = −(x2 + y 2 + z 2 ) = det X 0 = −r02 . (B.81)

Isto significa que o vetor r sofreu a ação de uma rotação R. A correspondência U → R é 2:1, pois podemos
usar U e −U em (B.80). Esta relação entre estes dois grupos SU(2) e SO(3) está intimamente relacionada
como o fato das representações irredutı́veis da álgebra so(3) admitir também valores semi-inteiros para j.
Os valores inteiros de j correspondem às representações do grupo SO(3) bem como de SU(2), enquanto que
os valores semi-inteiros correspondem a representações exclusivas do grupo SU(2). Por isso, o grupo SU(2) é
denominado de grupo de cobertura do grupo SO(3). Em outras palavras os grupos SO(3) e SU(2) possuem
a mesma álgebra. Neste caso, eles são ditos serem localmente isomórficos, so(3) ' su(2).
Sendo a matriz (B.66) uma matriz unitária 2 × 2, vamos usá-la para transformar as componentes de um
espinor ξ arbitrário,

ξ¯ = d1/2 (θ) ξ ⇒ ξ¯+ = ξ + cos(θ/2) − ξ − sen (θ/2), ξ¯− = ξ + sen (θ/2) + ξ − cos(θ/2). (B.82)

Podemos encontrar uma expressão analı́tica para os elementos de matriz para djmm0 (θ) permitindo que a
matriz atue no produto tensorial de ordem n = 2j

(ξ + )j+m (ξ − )j−m
ξ (m) = p . (B.83)
(j + m)!(j − m)!

Os vetores ξ (m) comportam-se como vetores irredutı́veis de uma representação j do grupo SU(2). Assim,
j
X 0
ξ¯(m) = djmm0 ξ (m ) . (B.84)
m0 =−j
B. Relação entre SO(3) e SU(2) 49

Desenvolvendo o lado esquerdo desta expressão usando (B.82) e comparando com o lado direito, após algum
esforço para reorganizar todas as somas do lado esquerdo, obteremos
p
X (j + m)!(j − m)!(j + m0 )!(j − m0 )!
djmm0 (θ) = k
(−1) ×
k!(j + m − k)!(j − m0 − k)!(k − m + m0 )!
k
θ 0 θ 0
(cos )2j+m−m −2k (sen )2k−m+m , (B.85)
2 2
onde a soma deve ser efetuada para todos os valores de k os quais sejam condizentes com todos os três
fatoriais no denominador. Como exemplo, tomemos j = 1/2. Para m = m0 = 1/2, o único valor possı́vel é
k = 0. Para m = 1/2 e m0 = −1/2, temos k = 1 enquanto que para m = −1/2 e m0 = 1/2 temos k = 0 e
assim por adiante. Os elementos de matriz (B.85) possuem uma propriedade de simetria muito importante:
0
dj−m,−m0 = (−1)m−m djmm0 . (B.86)

Foi dito anteriormente que os estados (B.83) comportam-se como vetores irredutı́veis de uma repre-
sentação j do grupo SU(2). É instrutivo verificarmos esta afirmação. Primeiro, definiremos uma ação dos
elementos J3 e J± da álgebra su(2) nos estados (B.83). Isto pode ser feito realizando a álgebra su(2) por
operadores diferenciais agindo nas componentes espinariais ξ ± . Para tal, iremos precisar de operadores de
criação (a± ) e destruição (a†± ), definidos por


a± = ξ ± , a†± = , (B.87)
∂ξ ±

satisfazendo relações de comutação bosônicas:

[a†± , a± ] = 1, [a†± , a∓ ] = [a†± , a†∓ ] = [a± , a∓ ] = 0. (B.88)

O método de Schwinger constitue um procedimento geral para realizar os elementos de uma determinada
álgebra por operadores bosônicos: I) obtenha uma representação matricial fundamental para a álgebra em
questão, por exemplo, as matrizes (B.54) para a álgebra su(2); II) realize os elementos da álgebra através da
construção
µ ¶µ † ¶
¡ ¢ 1/2 0 a+ 1
J3 = a+ a− = (a+ a†+ − a− a†− ), (B.89)
0 −1/2 a†− 2
µ ¶µ † ¶
¡ ¢ 0 1 a+
J + = a+ a− = a+ a†− = ξ + ∂ξ− , (B.90)
0 0 a†−
µ ¶µ † ¶
¡ ¢ 0 0 a+
J − = a+ a− = a− a†+ = ξ − ∂ξ+ . (B.91)
1 0 a†−

Agora, podemos verificar que a ação destes operadoes nos estados (B.83) é a mesma encontrada em (B.53).

Exercı́cio 9 Usando a condição de unitariedade (B.77), verifique as relações (B.78).

Exercı́cio 10 Prove a Eq. (B.85). Sugestão: Desenvolva os primeiros termos da soma do lado esquerdo de
(B.84), reorganize os termos e prossiga por indução.

Exercı́cio 11 Prove a Eq. (B.86). Sugestão: Faça alguns casos particulares, depois verifique que, em geral,
k − k̄ = m − m0 , onde k̄ representa os novos valores possı́veis na soma em k para −m e −m0 , é uma solução
possı́vel.

Exercı́cio 12 Usando (B.89)–(B.91), mostre que os estados (B.83) compostam-se como vetores irredutı́veis
da representação j da álgebra su(2).
50 B. Rotações Espaciais

B.6 Polinômios de Jacobi


Vamos denotar por g os elementos de um determinado grupo de Lie G e por Rν (g) as matriz de alguma
representação irredutı́vel de dimensão n para G. Então
Z
µ† ν
n dτg Rik (g)Rrs (g) = δµν δis δkr , (B.92)

onde dτg é um fator peso de integração conhecido por medida invariante normalizada, a qual depende da
forma especı́fica de cada parametrização. Para a parametrização dada pelos ângulos de Euler, temos
τg = −sinθ dθ. (B.93)
ν
Além da condição de ortogonalidade (B.92), os elementos de matriz Rrs (g) formam uma base completa.
Estes resultados valem para um grupo de Lie qualquer e são conhecidos como o teorema de Peter-Weyl.
Estaremos interessados aqui explicitamente no grupo das rotações. Neste caso, usando os elementos de
matriz encontrados em (B.65) e (B.85), as relações de ortogonalidades (B.92) tornam-se em
Z
2j + 1 j0
− d cos θ dj†
ik (θ)drs (θ) = δjj δis δkr .
0 (B.94)
2
Os passos seguintes nos permitirá identificar os elementos matriz (B.65) com os polinômios de Jacobi.
Iniciemos calculando os deslocamentos infinitesimais nos três ângulos de Euler para a rotação (B.62):
∂ £ ¤
i R(θ, φ, ψ) = J3 R = R R−1 J3 R , (B.95)
∂φ
∂ £ ¤
i R(θ, φ, ψ) = J3 R = R eiψJ3 J2 e−iψJ3 , (B.96)
∂θ

i R(θ, φ, ψ) = RJ3 . (B.97)
∂ψ
Expandindo as exponenciais relevantes em (B.63) e usando as relações de comutação (B.33) e a definição
(B.32), podemos escrever os termos entre colchetes no lado direito das derivadas anteriores na forma
1 ¡ ¢
R−1 J3 R = − sen θ eiψ J+ + e−iψ J− + cos θJ3 , (B.98)
2
i¡ ¢
eiψJ3 J2 e−iψJ3 = − eiψ J+ − e−iψ J− . (B.99)
2
Usando estes dois conjuntos de relações, podemos isolar os geradores J3 e J± :
· ¸
i ¡ ∂ ∂ ¢ ∂
RJ± = ∓ e∓iψ − cos θ ± R, (B.100)
sen θ ∂φ ∂ψ ∂θ

RJ3 = i R. (B.101)
∂ψ
Calculando os elementos de matriz entre os estados |jmi e |jm0 i, estas três equações fornecem as seguintes
relações de recorrência para djmm0 (θ):
· ¸
p j ∂ 1 ¡ 0
¢ j
0 0
j(j + 1) − m (m ± 1) dm,m0 +1 (θ) = ∓ − m − m cos θ dmm0 (θ). (B.102)
∂θ sen θ
j
Podemos obter uma equação diferencial para os elementos de matriz Rmm0 usando o operador de Casimir

(B.38) e calculando os elementos de matriz de RJ 2 :


RJ 2 = R(J32 − J3 + J+ J− )
½ · ¸
−iψ ∂ i ¡ ∂ ∂ ¢
= e − − − cos θ
∂θ sen θ ∂φ ∂ψ (B.103)
· ¸ ¾
iψ ∂ i ¡ ∂ ∂ ¢ ∂2 ∂
×e − − cos θ − −i R.
∂θ sen θ ∂φ ∂ψ ∂ψ 2 ∂ψ
B. Polinômios de Jacobi 51

Os elementos de matriz deste operador são dados por


½ · 2 ¸ ¾
1 ∂ ∂ 1 ∂ ∂2 ∂2 j
sen θ + + − 2 cos θ + j(j + 1) Rmm0 = 0, (B.104)
sen θ ∂θ ∂θ sen 2 θ ∂φ2 ∂ψ 2 ∂ψ∂φ

ou, usando (B.65),


· ¸
1 d d 1 ¡ 2
sen θ − m + m02
− 2mm 0
cos θ) + j(j + 1) djmm0 (θ) = 0. (B.105)
sen θ dθ dθ sen 2 θ

Esta última equação pode ser transformada na equação de Jacobi,


½ ¾
d2 £ ¤d
(1 − z 2 ) 2 + β − α − 2(2 + α + β)z + l(l + α + β + 1) Plα,β (z) = 0, (B.106)
dz dz

após a identificação
s µ ¶m+m0 µ ¶m0 −m
(j + m)!(j − m)! θ θ m−m0 ,m+m0
djmm0 (θ) = cos sen Pj−m (cos θ). (B.107)
(j + m0 )!(j − m0 )! 2 2

A equação (B.104) para m0 = 0 e ψ = 0 e restringindo os valores de j a inteiros l, torna-se em


½ ¾
1 ∂ ∂ 1 ∂2 j
sen θ + + j(j + 1) Rm,0 (θ, φ, 0) = 0. (B.108)
sen θ ∂θ ∂θ sen 2 θ ∂φ2

Esta é a mesma equação diferencial satisfeita pelos harmônicos esféricos Ylm (θ, φ), após a identificação
r
2l + 1 j
Ylm (θ, φ) = [Rm,0 (θ, φ, 0)]∗ . (B.109)

52 B. Rotações Espaciais
Apêndice C

Relatividade Especial

C.1 Introdução
A teoria da relatividade especial descreve de que forma os aspectos relativos de uma realidade fı́sica podem
diferir em conseqüência do estado de movimento relativo entre observadores. No entanto, ela define também
os aspectos absolutos da mesma realidade fı́sica. Assim, ao contrário da crença popular, a teoria da relativi-
dade especial não é uma teoria do “tudo é relativo”. Melhor seria dizer que ela é uma teoria das “aparências
são relativas” e “do que é absoluto em uma realidade fı́sica”.
A sua essência é bem ilustrada considerando-se dois observadores em movimento uniforme. Vamos supor
que sejamos um dos observadores e que estamos vendo o outro referencial em um movimento uniforme em
relação ao nosso referencial. Vamos imaginar também que seja possı́vel realizar um experimento no mesmo
instante em que o outro observador passe por nós. Segundo a relatividade especial, ambos observadores
veriam o mesmo experimento, mas cada um anotaria distâncias e intervalos de tempo distintos. Contudo,
para a tranqüilidade de todos, a teoria da relatividade especial deve ser usada para converter os dados de um
observador para o outro, fazendo com que ambos concordem plenamente sobre os resultados do experimento.
Desta forma, a teoria da relatividade especial nos mostra que certos aspectos de uma realidade fı́sica são
absolutos apesar de haver uma aparência peculiar a cada observador. Por exemplo, segundo à relatividade
especial, I) o comprimento de um objeto em movimento uniforme em relação a nós encurta na direção de
seu movimento. Quanto maior a velocidade do objeto, menor será o comprimento do objeto visto por nós
na direção do movimento. No limite em que o objeto esteja viajando à velocidade da luz, o objeto terá um
comprimento nulo segundo nossa observação; II) o momentum linear de um objeto em movimento aumenta
com a sua velocidade. Para nós o objeto “adquiri” momentum linear extra com o movimento. No limite em
que o objeto esteja movimentando-se à velocidade da luz, sua massa deve ser infinita, requerendo assim uma
quantidade infinita de energia para se movimentar. Portanto, nenhum objeto massivo poderá deslocar-se
com uma velocidade superior à velocidade da luz; III) relógios em movimento tornam-se mais lentos quando
vistos por nós. Na velocidade da luz, o relógio pára por completo de marcar o tempo. Esta propriedade
certamente redefine a noção intuitiva de simultaneidade. Eventos simultâneos para um observador não serão
mais simultâneos para o outro observador. Estes três exemplos marcantes sobre aparências de uma realidade
fı́sica é o ponto de vista de um dos dois observadores. No entanto, contrariando o primeiro, o outro observador
solidário ao objeto em movimento não registra qualquer alteração na forma e na massa de seus objetos e
nem qualquer alteração em seus relógios.
Talvez ainda mais profundo seja a revelação feita pela teoria da relatividade sobre a natureza do espaço
onde a nossa realidade fı́sica ocorre e a equivalência entre matéria e energia. Ao contrário da crença humana
em um tempo absoluto, separado do espaço tridimensional euclideano, a natureza do nosso espaço funde
tempo e espaço numa estrutura única: o espaço-tempo. O espaço-tempo não é um espaço quadridimensional
euclideano, mas sim um espaço (pseudo) riemanniano. Em um espaço pseudo-riemanniano, ao contrário de
um espaço euclideano, podemos ter o módulo de um vetor igual a zero sem que o vetor seja nulo. De acordo
com a relatividade especial, cada evento numa realidade fı́sica deve ser identificado em um determinado
referencial pela sua posição espacial e o tempo em que este evento ocorreu. Matéria e energia é outra fusão
surpreendente revelada pela teoria da relatividade especial. Apesar da inequivalência aparente entre matéria

53
54 C. Relatividade Especial

e energia, elas são fisicamente equivalentes. Matéria pode ser convertida em energia, e vice-versa. Portanto,
a Relatividade Especial revelou à humanidade aspectos até então escondidos profundamente: tempo e espaço
formam uma estrutura única e a equivalência entre massa e energia.
Podemos tomar, como ponto de partida para a elaboração da teoria da relatividade especial por Albert
Einstein (1879–1955) no inı́cio do Séc. XX, o conflito entre a relatividade galileana e a verificação da in-
variabilidade da velocidade da luz. Segundo a relatividade galileana, as leis da Mecânica são válidas em
quaisquer referenciais em movimento uniforme (referenciais inerciais). Isto significa que é impossı́vel distin-
guir dois referenciais inerciais (ou o estado de movimento de um deles) através de experimentos mecânicos.
É importante frisar que na relatividade galileana o tempo é absoluto, isto é, ele é o mesmo para todos os
referenciais. Apenas posições e distâncias são dependentes do observador. Assim, contrariamente a todas as
expectativas newtonianas, a velocidade da luz não obedecia ao teorema da adição de velocidades decorrente
da relatividade galileana. A velocidade da luz sempre mostrava-se independente do observador em todos
os experimentos realizados. Ela foi medida, provavelmente pela primeira vez, em 1675 por Olaus Roemer
através de observações astronômicas proporcionadas pelos eclipses lunares em Júpiter. Somente em 1926, Al-
bert Abraham Michelson (1852–1931) pode medir a velocidade da luz através de técnicas de interferometria
com a acurácia que a conhecemos nos dias atuais.
Outro conflito na época de Einstein eram as incertezas fı́sicas e filosóficas sobre o significado de estar ou
não em movimento. As leis da mecânica newtoniana, indispensáveis para a Engenharia e também para a
Fı́sica, foram construı́das com base em referenciais inerciais (ausência absoluta de movimento). No entanto,
jamais tais referenciais foram encontrados, apesar de sabermos da validade das leis da fı́sica newtoniana.
A incapacidade de deteccção de sistemas inerciais certamente foi um problema conceitual que preocupava
muitos. Einstein foi um deles. A melhor explicação para a falha em encontrar um referencial inercial foi
a teoria do Éter. Segundo a teoria do éter, o universo inteiro está permeado por um substância invisı́vel,
inodora, e sem qualquer outra propriedade fı́sica diretamente mensurável. O éter estava em todo lugar e
dentro de tudo e em repouso absoluto.1 Assim, o éter colocava um fim na busca pelos sistemas inerciais.
Após a unificação definitiva entre eletricidade e magnetismo, descoberta em 1870 por James Clerk Maxwell
(1831–1879), o éter também foi idealizado como o meio de propagação para as ondas eletromagnéticas, das
quais a luz visı́vel também é formada. Acontece que até o inı́cio do Séc. XX, acreditava-se que fenômenos
ondulatórios pudessem existir apenas em meios materiais, em analogia com ondas sonoras. Apesar das
equações de Maxwell evidenciarem a possibilidade de propagação de ondas eletromagnéticas no vácuo, mesmo
assim o éter foi evocado para servir como meio de propagação da luz. O próprio Maxwell em 1878 foi um
dos primeiros a observar que o intervalo de tempo gasto para a luz efetuar um percurso de ida e volta
entre dois pontos muda de valor quando estes dois pontos são movidos conjuntamente através do éter e
sem arrastá-lo. Em 1881, Michelson realizou um experimento, usando técnicas de interferometria 2 , para
medir os deslocamentos previstos por Maxwell devido ao movimento do interferômetro, solidário à Terra,
através do éter. O principal objetivo de Michelson era comprovar a existência do éter. Ao contrário das
expectativas, Michelson obteve nem vestı́gios de tais desvios. No entanto, como havia sido apontado por
Lorentz, Michelson tinha avaliado erroneamente a razão entre o desvio a ser observado e o erro experimental
em seu equipamento. Era preciso aumentar a precisão do equipamento. Em 1887, em colaboração com
Edward Williams Morley (1838–1923), um outro experimento de interferometria muito mais sofisticado foi
realizado. Este experimento mostrou de forma conclusiva que os deslocamentos previsto por Maxwell não
existiam. 3 Como conclusão, Michelson teve de admitir que o éter era arrastado pelo movimento da Terra.
Sem dúvidas, este resultado chocou a comunidade cientı́fica da época, além de colocar em dúvida a existência
do referencial inercial.
No entanto, uma hipótese “melhor” foi proposta em 1889 por George Francis FitzGerald (1851–1901):
talvez a pressão do éter sobre a matéria a comprimisse da mesma forma que um objeto elástico é comprimido
na direção de seu movimento em um fluido. Desta forma, um dos braços do interferômetro poderia ter sido
encolhido por uma quantidade correspondente à alteração na velocidade da luz, de forma a não causar
qualquer padrão de interferência no interferômetro. O ponto máximo desta hipótese é que ela não poderia
1 O éter foi uma substância inventada por Aristóteles (384–322, a.c.) como o quinto elemento do qual os corpos celestes eram

feitos. Os cientistas do Séc. 19 apenas aperfeiçoaram esta concepção de Aristóteles.


2 Albert A. Michelson foi o inventor do interferômetro e o primeiro cientista americano a receber um prêmio Nobel. O prêmio

foi concedido a ele em 1907 pela invenção de instrumentos óticos de precisão e as decorrentes investigações realizadas com eles.
3 Michelson a Morley repetiram este experimento por várias vezes até 1929.
C. Introdução 55

assim jamais ser provada falsa, uma vez que tudo, incluindo réguas e os objetos a serem medidos, deveriam
ter seus comprimentos reduzidos na direção do movimento. Embora a hipótese das contrações de FitzGerald
não tivesse chamado a atenção da comunidade cientı́fica de imediato, em 1892 Hendrik Antoon Lorentz
(1853–1928) 4 restabeleceu as idéias de FitzGerald sobre as contrações. Em um trabalho publicado em
1899, Lorentz deu uma base matemática rigorosa para as contrações de FitzGerald, estabelecendo assim as
transformações de Lorentz como nós as conhecemos hoje, as quais são fundamentais para a teoria especial
da relatividade. 5 O objetivo de Lorentz era explicar o resultado do experimento de Michelson-Morley.
Lorentz, como Michelson, acreditava na existência do éter e chegou à conclusão que a “dimensão de um
corpo rı́gido se modifica um pouco em conseqüência do seu movimento através do éter”. Trabalhando nesta
linha, Lorentz foi capaz de estabelecer as expressões matemáticas das contrações de FitzGerald. O Trabalho
final de Lorentz foi publicado em 1904.
Em todos os trabalhos de Lorentz, em momento algum, há um rompimento com a hipótese do éter e,
conseqüentemente, de um tempo absoluto. No entanto, em face ao resultado do experimento de Michelson-
Morley e da tentativa de Lorentz em explicá-lo através da hipótese de FitzGerald, Jules Henri Poincaré
(1854–1912) havia apontando em várias oportunidades a necessidade de estender a relatividade galileana
a toda a Fı́sica. Em 1905, no mesmo ano da publicação dos trabalhos de Einstein sobre a relatividade
especial, havia proposto que a impossibilidade de demonstrar o repouso absoluto fosse uma lei universal.
Poincaré também mostrou que as transformações de Lorentz, conjuntamente com as rotações espaciais,
formam um grupo contı́nuo da famı́lia O(1,3) dos grupos de Lie. Esse grupo foi denominado de grupo de
Lorentz por Poincaré, em homenagem ao Lorentz. Mais tarde, o conjunto formado pelo grupo de Lorentz e
as translações no espaço-tempo por uma quantidade fixa foi denominado de grupo de Poincaré. Ainda em
1905, Albert Einstein, então completamente desconhecido da comunidade cientı́fica, submeteu um trabalho
radicalmente diferente dos demais, rompendo com a hipótese do éter. 6
Einstein simplesmente afirmou que o éter não existe, pois todos os experimentos falharam em detectá-lo.
Além disto, as equações de Maxwell possibilitam a propagação da luz na ausência de matéria. Portanto, o
éter é totalmente dispensável. Conseqüentemente, o repouso absoluto foi outra vı́tima de Einstein. ’Para que
privilegiar um único sistema de referências?’, perguntou Einstein. As leis fı́sicas devem ser independentes
da escolha de um referencial. Como havia afirmado Poincaré, Einstein definiu referenciais inerciais através
do próprio movimento uniforme relativo entre eles. Einstein usou apenas dois postulados em seu trabalho:
I) que as leis da Fı́sicas são as mesmas em qualquer sistema inercial, e II) que a velocidade da luz é a
mesma em qualquer sistema inercial. Com apenas estes dois postulados, ele derivou as transformações de
Lorentz e interpretou as contrações de FitzGerald como conseqüência apenas do estado de movimento e nada
mais. Embora Einstein, não tivesse a intenção de explicar o resultado experimental de Michelson-Morley,
certamente os seus dois princı́pios estavam de acordo com os experimentos. Ainda em 1905, Einstein publicou
outro trabalho mostrando a equivalência entre massa e energia. Os trabalhos de Einstein ganharam aceitação
a partir do envolvimento de Max Karl Ernst Ludwig Planck (1858–1947) com o assunto em 1908. Ainda em
1908, Hermann Minkowski (1864-1909) mostrou que a teoria da relatividade especial de Einstein era melhor
interpretada numa geometria pseudo-riemanniana. Minkowski mostrou também que a teoria newtoniana da
gravitação era inconsistente com a relatividade. Em 1912, Einstein e Lorentz foram indicados para o prêmio
Nobel daquele ano, mas incertezas sobre a comprovação experimental da teoria da relatividade especial
impediu uma decisão favorável.
Apesar das modificações profundas e imediatas causadas pela relatividade especial, o fato dela envolver
apenas referenciais em movimento uniforme incomodava Einstein. Ele queria que as leis fı́sicas fossem as
mesmas em qualquer tipo de referencial. Em 1915, Einstein revela à humanidade a teoria da relatividade
geral como uma solução às limitações da relatividade especial.

4 Lorentz era um especialista na teoria eletromagnética de Maxwell. Ele propôs, mesmo antes da descoberta dos elétrons, que

ondas eletromagnéticas estivessem associadas com oscilações de cargas elétricas no interior atômico. Ele explicou também pela
primeira vez o efeito de um campo magnético no comprimento de onda da radiação eletromagnética. Este efeito foi observado
experimentalmente por um aluno dele, Pieter Zeeman (1865–1943). Ambos receberam um prêmio Nobel em 1902.
5 Joseph Larmor (1857–1942) também escreveu as transformações de FitzGerald-Lorentz, independentemente de Lorentz, em

1898.
6 Einstein afirmou que desconhecia os trabalhos de Lorentz e Poincaré, bem como o resultado dos experimentos de Michelson-

Morley.
56 C. Relatividade Especial

C.2 Propriedades do espaço-tempo


Vamos considerar dois referenciais O e O0 em movimento uniforme. Vamos supor, por comodidade, que
o referencial O0 tem uma velocidade de módulo v na direção positiva do eixo x do referencial O. Vamos
supor também que o eixo x0 coincida com o eixo x e que os eixos y 0 e z 0 sejam paralelos aos eixos y e z,
respectivamente. Imaginemos dois eventos em O. O primeiro deles, por exemplo, a emissão de um sinal com
a velocidade da luz (c) será identificado no espaço-tempo pelas coordenadas (ct1 , x1 , y1 , z1 ) do referencial
O. O outro, a chegada do sinal, será identificado por (ct2 , x2 , y2 , z2 ). Observando a propagação desse sinal
em
p O, concluiremos que ele percorrerá a distância c(t2 − t1 ) a qual deve ser idêntica à distância espacial
(x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 entre os dois eventos. Portanto,
£ ¤
c2 (t2 − t1 )2 − (x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 = 0. (C.1)

De forma análoga, a observação da propagação do sinal luminoso no referencial O0 nos leva a uma conclusão
análoga em virtude da velocidade da luz ser a mesma em qualquer referencial,
£ ¤
c2 (t02 − t01 )2 − (x02 − x01 )2 + (y20 − y10 )2 + (z20 − z10 )2 = 0. (C.2)

A quantidade
ds2 = c2 dt2 − (dx2 + dy 2 + dz 2 ), (C.3)
é denominada de intervalo infinitesimal no espaço-tempo. Ela é o análogo da distância infinitesimal no espaço
euclideano. Vimos no exemplo acima que o intervalo entre dois eventos, cujo sinal de propagação viaja na
velocidade da luz, é nulo em qualquer sistema de coordenadas. Isto é uma conseqüência direta da velocidade
da luz ser a mesma em todos os referenciais. Restam duas opções além do intervalo nulo: i) intervalos do
gênero tempo, ds2 > 0; e ii) intervalos do gênero espaço, ds2 < 0. Assumindo que o espaço-tempo seja
homogêneo e que o espaço seja isotrópico podemos mostrar que o intervalo infinitesimal ds2 é o mesmo em
todos os referenciais inerciais. De fato, sendo os diferenciais ds2 e ds02 de mesma ordem e nulos em qualquer
sistema de coordenadas para eventos ocorrendo na velocidade da luz, então eles devem ser proporcionais

ds2 = a(|v|)ds02 . (C.4)

Devido à homogeineidade e isotropia, a constante a(v) pode depender apenas do módulo da velocidade
relativa entre os dois sistemas de coordenadas. Esta constante de proporcionalidade não pode depender das
coordenadas devido à homogeneidade do espaço-tempo pois, caso contrário, pontos diferentes no espaço-
tempo não seriam equivalentes. Ela também não pode depender da direção e sentido da velocidade relativa
entre os sistemas de coordenadas para poder preservar a isotropia do espaço, ou seja, todas as direções
espaciais são equivalentes (isto não é mais verdade para o espaço-tempo). Consideremos então três sistemas.
Seja v1 e v2 as velocidades relativas de dois deles em relação ao terceiro e v12 a velocidade relativa entre os
dois primeiros. Assim, teremos

ds2 = a(v1 )ds21 ,


ds2 = a(v2 )ds22 , (C.5)
ds21 = a(v12 )ds22 .

Comparando estas relações, teremos


a(v2 )
a(v12 ) = . (C.6)
a(v1 )
Como v12 depende também do ângulo entre os vetores velocidades v1 e v2 , o lado esquerdo da identidade
acima dependerá também deste ângulo. No entanto, este tipo de dependência não aparece no lado direito.
Portanto, a constante a deve ser também independente do módulo da velocidade relativa. Neste caso, a
identidade anterior implica em a = 1.
Sabendo que o intervalo é uma quantidade invariante, devido à invariabilidade da velocidade da luz,
podemos dar uma interpretação fı́sica para os intervalos do gênero tempo e espaço. Vamos denotar por s212
o intervalo entre dois eventos em O,
s212 = c2 t212 − r12
2
, (C.7)
C. Propriedades do espaço-tempo 57

com
2
t12 = t2 − t1 , r12 = (x2 − x1 )2 + (y2 − y1 )2 + (z2 − z1 )2 . (C.8)
Da invariabilidade do intervalo, temos
2 2 2
s212 = c2 t212 − r12
2
= c2 t0 12 − r0 12 = s0 12 . (C.9)
2
Suponha agora que os eventos aconteçam na mesma posição espacial no referencial O0 . Então r0 12 = 0 e
2
s212 = c2 t212 − r12
2
= c2 t0 12 > 0 ⇒ r12 < ct12 . (C.10)

Isto significa que se o intervalo s12 entre dois eventos for do gênero tempo, s212 > 0, então será possı́vel
encontrar um referencial no qual os mesmos eventos aconteçam no mesmo ponto espacial. Isto somente será
possı́vel quando a velocidade de propagação entre os eventos for menor que a velocidade da luz. Neste caso
podemos falar em causa e efeito, pois como nenhum evento poderá ocorrer com uma velocidade maior que a
da luz, nunca teremos o efeito antes da causa. Em outras palavras, quando o intervalo é do gênero tempo,
podemos dar um sentido absoluto para “antes” e “depois”. Por outro lado não podemos dizer o mesmo a
respeito dos intervalos do gênero espaço s212 < 0. Neste caso é possı́vel encontrar um referencial onde os
eventos aconteçam simultaneamente, t0 12 = 0. Então,
2
s212 = c2 t212 − r12
2
= −r0 12 < 0 ⇒ r12 > ct12 . (C.11)

Neste caso poderemos ter propagações numa velocidade maior que a da luz.
Para uma maior clareza nos desenvolvimentos formais, devemos adotar algumas convenções sobre a
notação de vetores no espaço-tempo. Um vetor no espaço-tempo será denotado pelas suas quatro compo-
nentes, correspondendo às projeções nos quatro eixos independentes do espaço tempo. Por exemplo, o vetor
posição no espaço-tempo será denotado por coordenadas xν , ν = 0, 1, 2, 3. Em termos das coordenadas
espaciais, teremos
(xν ) = (x0 , x1 , x2 , x3 ) = (ct, x, y, z), xν ∈ R. (C.12)
Adotaremos ı́ndices gregos para as componentes de um vetor no espaço-tempo e ı́ndices latinos para as
componentes de um vetor no espaço euclideano tridimensional. Assim,

(xk ) = (x1 , x2 , x3 ) = (x, y, z) = r. (C.13)

Para falarmos sobre comprimentos, isto é, para efetuarmos medidas, precisaremos de uma métrica no
espaço-tempo, contendo informações sobre a orientação relativa entre todos os vetores de base. A métrica
(gµν ) é uma matriz quadrada 4 × 4, simétrica e invertı́vel Conhecendo a métrica, podemos efetuar o “produto
escalar” entre quaisquer vetores fazendo uso da definição da forma bilinear (A.20),

ds2 = Φ(dx, dx) = dxµ gµν dxν = (dxµ ) · (gµν ) · (dxν ). (C.14)

Comparando esta definição com a definição de intervalo feita em (C.3), vemos que a métrica (gµν ) para o
espaço-tempo é:  
1 0 0 0
0 −1 0 0
(gµν ) = 
0
 , µ, ν = 0, 1, 2, 3. (C.15)
0 −1 0
0 0 0 −1
Note que se tivéssemos uma velocidade da luz diferente em cada referencial, não poderı́amos ter chegado nesta
conclusão. Esta métrica é denominada de métrica de Minkowski. Ela é uma conseqüência da invariabilidade
da velocidade da luz. A matriz (C.15) possui as seguintes propriedades: i) ela é simétrica, gµν = gνµ ; ii)
g = det(gµν ) = −1; iii) a sua inversa é igual a ela mesma. No entanto, precisaremos designar os elementos
da inversa por g µν para podermos utilizar a convenção de soma implı́cita (veja o Apêndice A).7 Assim,

gµα g αν = g ν µ = gµ ν = δµν . (C.16)


7 Estamos adotando a convenção que há uma soma sempre que houver ı́ndices repetidos numa mesma expressão. Porém, é

preciso que os ı́ndices apareçam numa diagonal, isto é, um ı́ndice para cima e o outro para baixo (sub-ı́ndice).
58 C. Relatividade Especial

Também dizemos que foi feita uma contração nos ı́ndices onde há uma soma. Note que o traço da métrica
definido por uma contração é 4, isto é, g ν ν .
O espaço-tempo com a métrica (C.15) é denominado de espaço de Minkowski (Hermann Minkowski,
1864–1909). Ele foi o primeiro a notar em 1907 que o trabalho de Albert Einstein (1879–1955) sobre a
relatividade especial em 1905, envolvendo as transformações de Lorentz (Hendrik Antoon Lorentz, 1853–
1928), era melhor compreendido em um espaço não-euclideano. Em um espaço euclideano, ao contrário de
um espaço não-euclideano, a métrica deve possuir os seus autovalores todos positivos e não-nulos (positivos
definidos). Em um espaço não-euclideano sempre podemos definir dois tipos de vetores relacionados pela
métrica. Por exemplo, podemos definir o vetor no espaço-tempo (xν ), associado ao vetor posição (xν ), como

xν = gνα xα , (xν ) = (ct, −x, −y, −z). (C.17)


Desta forma, o produto escalar definido em (C.14) pode ser escrito em termos de componentes como

ds2 = dsµ gµν dsν = dsµ dsµ = dsν dsν . (C.18)

É muito importante a posição dos ı́ndices nesta convenção. Em geral, para uma matriz arbitrária as formas
(Aµν ), (Aµν ), (Aµ ν ) e (Aµ ν ) são distintas. É importante também observar o balanço da quantidade de
ı́ndices que estão nas posições superior e inferior nos dois lados de uma expressão.

C.3 Transformações de Lorentz


Quais as transformações de coordenadas entre dois sistemas inerciais que preserva intervalos no espaço-
tempo? Em qualquer espaço, euclideano ou não, há apenas duas transformações de coordenadas com tal
caracterı́stica: i) translações do sistema de coordenadas como um todo em alguma direção pré-fixada, a qual
não nos interessa no momento; e ii) rotações. Vamos denotar por Λµ ν os elementos de matriz (reais) de uma
rotação no espaço-tempo de Minkowski. Então, as coordenadas em dois sistemas O e O0 estarão relacionados
da forma seguinte:
ν
xµ = Λµ ν x0 . (C.19)
A condição de invariabilidade de intervalos no espaço-tempo requer que
α β
xµ xµ = gµν Λµ α Λν β x0 x0
α α β
(C.20)
= x0 x0 α = gαβ x0 x0 ,

a qual implica em
gµν Λµ α Λν β = gαβ . (C.21)
Esta equação impõe restrições severas sobre os elementos de matrizes das rotações no espaço-tempo. Note que
estas propriedades destas transformações deixa qualquer contração invariante. Podemos calcular facilmente
de (C.21) os elementos de matriz para a transformação inversa. Para tal, basta contrairmos um dos dois
ı́ndices livres com a métrica:

g αγ gµν Λµ γ Λν β = g αγ gγβ = δβα ⇒ (Λ−1 )α ν = g αγ gµν Λµ γ = Λν α . (C.22)

A transformação correspondente para as coordenadas xµ também pode ser calculada sem dificuldades:
α
xµ = gµν xν = gµν Λν α x0 = gµν g αβ Λν α x0 β = Λµ β x0 β . (C.23)

Reescrevendo as relações (C.21) em termos matriciais, podemos ver que elas implicam que o determinante
destas matrizes de rotação deve ser unitário:

ΛgΛ = g ⇒ det(Λ) = ±1. (C.24)

Como transformações de coordenadas formam um grupo quando a identidade estiver presente entre elas,
faremos a escolha det(Λ) = +1 para assegurar a presença da identidade. O conjunto destas rotações forma o
grupo de Lorentz. Este grupo contı́nuo é um grupo de Lie não-compacto da famı́lia SO(1,3) (transformações
C. Transformações de Lorentz 59

ortogonais no espaço de Minkowski com a métrica dada em (C.15)). Naturalmente, o grupo de Lorentz
contém o grupo das rotações como subgrupo:
 
1 0 0 0
0 
 , (C.25)
0 Rji 
0

onde Ri j são os elementos de matriz das rotações espaciais.


Qualquer vetor no espaço-tempo de Minkowski que é modificado pela rotação (Λν α ) é denominado de
quadrivetor. Os demais objetos com mais ı́ndices, como matrizes, cujos ı́ndices são modificados mediante
uma contração com as componentes Λν α são denominados de quadritensores (ou simplesmente tensores).
A quantidade de ı́ndices (ou entradas) em um tensor é a ordem do tensor. Desta forma, um escalar é um
tensor de ordem zero, um vetor é um tensor de ordem um e uma matriz é um tensor de ordem dois. De
acordo com a posição dos ı́ndices de um vetor, ele será denominado de contravariante (posição superior) ou
covariante (posição inferior). Assim, o quadrivetor posição (xµ ) é um vetor contravariante, enquanto que
(xµ ) é um vetor covariante. As palavras covariante e contravariante devem ser entendidas aqui significando
“modificando-se da mesma forma” e “modificando-se de forma contrária” aos vetores de base do espaço-
tempo, respectivamente. De fato, seja eν os versores de base. Então, de acordo com o ponto de vista onde
os vetores de base é que sofrem modificações,
β β
(xµ ) = xα eα = Λα β x0 eα = x0 e0 β , e0 β = Λα β eα ⇒ eα = Λα β e0 β . (C.26)

Assim, cada componente contravariante de um tensor será modificada pela matriz Λµ ν e cada componente
covariante será modificada pela matriz inversa Λν µ . Como exemplo, consideremos uma quantidade Tµν com
sendo um tensor. Então podemos assegurar que
αβ
T µν = Λµ α Λν β T 0 . (C.27)

Em particular, a métrica é um tensor invariante. De fato, pois podemos ver de (C.21) que suas componentes
são inalteradas perante uma rotação do grupo de Lorentz. Vale observar que há um quadrivetor natural no
espaço de Minkowski: o gradiente no espaço-tempo definido como
µ ¶
1 ∂
(∂µ ) = ∂t, ∇ , ∂µ = . (C.28)
c ∂xµ

De fato, sob uma transformação de coordenadas do tipo (C.19) (ou do tipo (C.23)), o gradiente no espaço-
tempo transforma como
µ
∂ ∂x0 ∂ ∂
∂µ = = = Λµ ν 0 ν = Λµ ν ∂ 0 ν , (C.29)
∂xµ ∂xν ∂x0 ν ∂x
o qual transforma de acordo com a lei de transformação de um quadrivetor covariante. Portanto, o laplaciano
no espaço tempo,
1 ∂2
∂µ ∂ µ = 2 2 − ∇2 , (C.30)
c ∂t
é outra quantidade invariante às transformações de Lorentz.
Note que devido à simetria da métrica, as relações em (C.21) totalizam 10 relações independentes entre
as 16 componentes da matriz de rotação no espaço-tempo. Cada uma das seis componentes independentes
Λµ ν corresponde a uma rotação dos seis possı́veis planos ortogonais no espaço tempo: xy, xz e yz para
as rotações puramente espaciais e xt, yt e zt para as demais. Por comodidade, trataremos aqui apenas as
rotações no plano xt, isto é, rotações mantendo os demais eixos y e z inalterados. A matriz correspondente
a esta rotação particular tem a forma
 0 
Λ 0 Λ0 1 0 0
Λ1 0 Λ1 1 0 0
(Λµ ν ) =  0
. (C.31)
0 1 0
0 0 0 1
60 C. Relatividade Especial

As condições (C.21) fornecem as relações seguintes entre os quatro elementos da matriz acima,

(Λ0 0 )2 − (Λ1 0 )2 = 1,
0 2 1 2
(Λ 1 ) − (Λ 1 ) = −1, (C.32)
0 0 1 1
Λ 0 Λ 1 −Λ 0 Λ 1 = 0.

Podemos ver das duas primeiras relações que Λ0 0 6= Λ1 0 bem como Λ0 1 6= Λ1 1 . Assim, a última destas
relações é satisfeita quando
Λ1 1 = κΛ0 0 , Λ1 0 = κΛ0 1 , (C.33)
onde κ é uma constante. Esta constante pode ser determinada requerendo que o determinante desta matriz
seja unitário:
£ ¤
det(Λµ ν ) = Λ0 0 Λ1 1 − Λ1 0 Λ0 1 = κ (Λ0 0 )2 − (Λ1 0 )2 = κ = 1 ⇒ κ = 1. (C.34)

Portanto, devemos procurar parametrizar Λ0 0 e Λ0 1 , por exemplo, satisfazendo

(Λ0 0 )2 − (Λ0 1 )2 = 1, (Λ0 0 )2 ≥ 1. (C.35)

As funções trigonométricas hiperbólicas possuem tais propriedades. Assim, podemos escrever

Λ0 0 = cosh(ξ), Λ0 1 = senh(ξ), 0 ≤ ξ < ∞. (C.36)

Para finalizar, devemos relacionar o parâmetro real ξ com as quantidades fı́sicas relevantes. Neste caso,
a velocidade da luz c e a velocidade relativa v dos dois referenciais. Para tal, vamos observar um ponto
1
especı́fico no referencial O0 : a origem (x0 = 0). Assim, após a transformação acima ser aplicada teremos
0 ¾
x0 = ct = cosh(ξ)x0 x
⇒ tanh(ξ) = = β. (C.37)
1 00 ct
x = x = senh(ξ)x
Das relações trigonométricas
senh(ξ)
tanh(ξ) = , cosh2 (ξ) − senh2 (ξ) = 1, (C.38)
cosh(ξ)
temos
1 1
senh(ξ) = γβ, cosh(ξ) = γ, γ=p = 1 + β 2 + O(β 4 ), (C.39)
1− β2 2
de onde podemos ver que para baixas velocidades, β < 1, obtemos as transformações de Galileu

x = x0 + vt0 , t = t0 . (C.40)

Considerando ainda a transformação de Lorentz particular dada em (C.31), a qual corresponde ao refe-
rencial O0 movendo-se com velocidade v na direção positiva do eixo x do referencial O e com os demais eixos
espaciais paralelos aos eixos do referencial O, podemos calcular como distâncias e intervalos de tempo estão
relacionados em dois referenciais em movimento relativo uniforme. A distância x12 = x2 −x1 no referencial O
está relacionada com a distância x0 12 = x0 2 − x0 1 no referencial O0 , ambas medidas na direção do movimento,
pelas transformações (C.31),
x12 = βγct0 12 + γx0 12 = γx0 12 , (C.41)
onde utilizamos as relações (C.39) e o fato que medidas de distâncias devem ser efetuadas no mesmo instante
de tempo, portanto t0 12 = 0. De forma análoga, os intervalos de tempo t12 = t2 − t1 e t0 12 = t0 2 − t0 1 estão
relacionados por
ct12 = γct0 12 + βγx0 12 = γct0 12 , (C.42)
onde utilizamos o fato que medidas de intervalos de tempo devem ser efetuadas no mesmo local, portanto
x0 12 = 0. Estes resultados indicam que tanto a régua quanto o relógio que estão em movimento em relação
ao referencial O sofrem uma contração por um fator γ em relação à régua e ao relógio do referencial O.
Medidas feitas com instrumentos solidários aos objetos em movimento são denominadas de próprias.
C. Dinâmica Relativı́stica 61

C.4 Dinâmica Relativı́stica


Consideremos o movimento arbitrário de uma partı́cula de massa m visto de um referencial uniforme O.
Embora esse movimento não seja retilı́neo e uniforme, ainda podemos considerar um referencial O0 solidário
a esta partı́cula para cada instante de tempo como sendo uniforme. Assim, em cada instante de tempo, po-
demos aplicar uma transformação de Lorentz para relacionar estes dois referenciais. Neste caso, a velocidade
relativa entre os dois referenciais em consideração é uma velocidade instantânea.
Como o tempo no espaço de Minkowski não tem um papel distinto das demais coordenadas espaciais,
podemos utilizar qualquer parâmetro para descrever a trajetória de uma partı́cula no espaço-tempo. Tais
trajetórias são denominadas de linhas do universo da partı́cula. Os pontos da linha do universo determinam
as coordenadas da partı́cula para cada valor do parâmetro sendo usado. Um parâmetro conveniente é o
próprio comprimento da trajetória medido ao longo da linha do universo.
Nos parágrafos subseqüentes, estaremos interessados em estabelecer as equações de movimento numa
forma covariante para uma partı́cula massiva e carregada (eletricamente neutra). Tais equações deverão
estar relacionadas com aquelas da dinâmica newtoniana no limite apropriado.
Vamos iniciar estudando algumas propriedades geométricas das trajetórias no espaço-tempo quando
parametrizadas peloppróprio comprimento destas. No nosso referencial O, a partı́cula percorre a distância
infinitesimal dr = dx2 + dy 2 + dz 2 durante um intervalo infinitesimal de tempo dt. Assim, vemos esta
partı́cula com uma velocidade cujo módulo é v = dr/dt. O intervalo ds, medido no referencial O, é

ds2 = c2 dt2 − dr2 (C.43)

Este intervalo é o mesmo intervalo observado no referencial O0 , solidário à partı́cula (dr0 = 0):
2
ds02 = c2 dt0 . (C.44)

Portanto, fazendo uso da contração temporal (C.42), teremos que o comprimento da trajetória está direta-
mente ligado ao tempo próprio da partı́cula:
1
ds = cdt0 = γ −1 cdt, γ=p . (C.45)
1 − v 2 /c2
Considerando que a linha do universo de uma partı́cula seja parametrizada pelo intervalo s, xµ = xµ (s),
podemos, como no caso newtoniano, definir um quadrivetor “velocidade” uµ (s) para a partı́cula como sendo
a tangente à sua trajetória: µ ¶
µ dxµ µ v
u = , (u ) = γ 1, . (C.46)
ds c
Note que: I) este quadrivetor é uma grandeza adimensional; II) suas componentes espaciais são formadas
pelas componentes da velocidade da partı́cula vista do nosso referencial; III) cuµ tem dimensão de velocidade:

c(uµ ) = γ(c, v). (C.47)


No limite γ ≈ 1, a parte espacial deste quadrivetor é a velocidade newtoniana v. Outra propriedade
importante: o módulo do quadrivetor velocidade é sempre igual a um,
dxµ dxµ ds2
uµ uµ = = 2 = 1. (C.48)
ds ds ds
Isto implica que as componentes uµ não são linearmente independentes. Desta forma, o movimento da
partı́cula estará restrito a uma superfı́cie do espaço-tempo determinada pela condição uµ uµ = 1. Prosse-
guindo com a analogia newtoniana, podemos definir uma “aceleração” no espaço-tempo como:
d2 xµ duµ
aµ = 2
= . (C.49)
ds ds
Devido à condição (C.48) este quadrivetor será sempre perpendicular à velocidade,
d duµ duµ
uµ uµ = 2uµ = 0 ⇒ uµ = 0. (C.50)
ds ds ds
62 C. Relatividade Especial

No regime newtoniano, o conteúdo dinâmico para uma partı́cula livre está contido inteiramente no mo-
mentum linear: a variação do momentum linear é nula. Prosseguindo com a nossa analogia newtoniana,
vamos procurar definir um quadrivetor que possa ser utilizado para definir momentum no espaço-tempo.
Faremos isto, em parte, com o auxı́lio do princı́pio de Hamilton. Vimos na Seção 1.4 que as variáveis p
e H, conjugadas à posição e ao tempo, respectivamente, podem ser definidas, como em (1.54), em termos
das variações infinitesimais da posição r e do tempo t, respectivamente. Para uma única partı́cula livre, a
variação infinitesimal da ação correspondente, Eq. (1.53), é dada por
Z
∆Ψ = p · ∆r − H∆t = − d(H∆t − p · ∆r), (C.51)

onde p é o momentum linear e H a hamiltoniana. No caso de uma partı́cula livre, vimos na Subseção 1.5,
que a hamiltoniana é a energia (puramente cinética) mecânica da partı́cula.
Vamos supor aqui que a ação de uma partı́cula livre no espaço-tempo ainda seja aquela cuja variação
está calculada em (C.51). Naturalmente, devemos redefinir a nossa noção de momentum no espaço-tempo.
A variação (C.51) é um escalar e pode ser reescrita numa forma covariante:
µ ¶
H
∆Ψ = − c∆t − p · ∆r = −pµ ∆xµ , (C.52)
c
onde definimos o quadrivetor momentum linear como
µ ¶
H
(pµ ) = ,p . (C.53)
c
Este vetor tem de ser um quadrivetor, pois ∆xµ é um quadrivetor e ∆Ψ é um escalar. Note que a componente
espacial deste quadrivetor é o momentum linear newtoniano. Portanto, temos um ótimo candidato para o
tensor momentum linear para uma partı́cula livre no espaço-tempo. Por analogia com o caso de uma
partı́cula não-relativı́stica, gostarı́amos que este quadrivetor momentum linear pudesse ser escrito em termos
do quadrivetor velocidade,
pµ = κuµ , (C.54)
onde κ é uma constante. O valor desta constante pode ser determinado considerando o limite não-relativı́stico
da componente temporal da expressão anterior:

H ¡ 1 v2 ¢
p0 = = κu0 = κγ ≈ κ 1 + . (C.55)
c 2 c2
Sendo H a energia cinética e considerando que à energia mecânica pode sempre ser adicionada uma constante
arbitrária, vemos que a constante κ deve ser mc. Portanto, o quadrivetor momentum linear para uma
partı́cula livre relativı́stica é
pµ = mcuµ . (C.56)
Combinando esta conclusão com a definição (C.53), teremos que as componentes temporal H/c e espacial p
do quadrivetor momentum pµ espacial são

H = γmc2 , p = γmv. (C.57)

No regime newtoniano, estas componentes tornam-se em:


1
H ≈ mc2 + mv 2 , p ≈ mv. (C.58)
2
Portanto, mesmo para o repouso, a partı́cula tem uma quantidade de energia, mc2 , devido exclusivamente à
sua massa m (denominada de massa de repouso). Isto sugere que massa e energia devem ser identificadas e,
conseqüentemente, podem ser convertidas uma na outra.
Vamos calcular o módulo do quadrivetor momentum. Usando (C.53) e (C.56) teremos,

H2
pµ pµ = − p2 = (mc)2 ⇒ H 2 = m2 c4 + p2 c2 , (C.59)
c2
C. Dinâmica Relativı́stica 63

onde p é o módulo do momentum linear espacial. Esta é a celebrada relação de dispersão encontrada por
Einstein. Podemos ver de (C.53), que mesmo uma “partı́cula” não tendo massa de repouso, m = 0, ela ainda
terá um momentum linear no espaço-tempo. Por outro lado, vemos de (C.56) que a única forma de evitar
que pµ pµ seja nulo é permitir v = c no fator γ da componente temporal de pµ . Tais partı́culas viajando à
velocidade da luz existem e algumas delas são muito importantes para a vida como um todo: são os fótons,
os constituintes básicos da radiação eletromagnética.
Prosseguindo com a analogia newtoniana, vamos definir uma “força” no espaço-tempo como sendo a
variação do momentum dado em (C.53):
µ ¶
µ d µ γ Ḣ d
f = p = ,F , F= p. (C.60)
ds c c dt

Devido à relação de ortogonalidade (C.49), a componente temporal f o está relacionada à componente espacial
F: µ ¶
1 Ḣ F·v
f µ uµ = γ 2 f o − F · v = 0 ⇒ f o = = = mcγ̇. (C.61)
c c c
Podemos ver que, novamente, cf µ tem a dimensão de força e que no limite newtoniano, γ ≈ 1, a componente
temporal do quadrivetor força é a variação de energia no tempo (potência) e a parte espacial de cf µ é a força
newtoniana. Assim, podemos definir uma partı́cula livre no espaço de Minkowski pela condição f µ = 0.
Esta definição é condizente com a definição de partı́cula livre na mecânica newtoniana (F = 0). No entanto,
a relatividade geral nos permite outra interpretação para o termo “partı́cula livre” como veremos adiante.
Em geral, uma partı́cula na presença de algum potencial arbitrário estará sujeita a uma força f µ satis-
fazendo obrigatoriamente a relação de ortogonalidade com a velocidade, Eq. (C.61). Duas classes de forças,
de interesse fı́sico, obedecendo tal condição são: I) forças do tipo eletromagnéticas,
e
fµ = uν Fνµ , Fµν = Aµ,ν − Aν,µ , (Aµ ) = (φ, −A), (C.62)
c
onde e é a carga elétrica, Fµν é um tensor covariante de ordem dois, anti-simétrico 8 , representando o campo
eletromagnético como uma entidade fı́sica (e matemática) única (como descoberto por Maxwell) e Aµ o
tensor representando os potenciais elétrico e magnético. Note que o tensor eletromagnético ainda contnua
sendo o gradiente de um potencial; e II) forças do tipo gravitacionais,

fα = κΓανµ uµ uν , (C.63)

onde a quantidade Γανµ 9 é calculada através das derivadas das componentes do tensor campo gravitacional
gµν (x):
1¡ ¢ ∂gµν
Γανµ = gαµ,ν + gαν,µ − gµν,α , Γανµ = Γαµν , gµν,α = . (C.64)
2 ∂xα
O campo gravitacional gµν (x) tem uma interpretação geométrica muito interessante: ele também o tensor
métrico do espaço-tempo. Desta forma, temos uma relação perfeita entre Fı́sica e Geometria. Apesar da
similaridade entre a expressão matemática destas duas forças, elas possuem caracterı́sticas fı́sicas muito
distintas. A primeira observação é que, ao contrário de Γανµ , Fµν é um tensor. Assim, as trajetórias deter-
minadas em (C.63), denominadas de geodésicas, são dependentes de um sistema de coordenadas particular.
Em (C.63), os potenciais Γανµ têm uma interpretação geométrica clara: eles determinam a curvatura do
espaço-tempo, isto é, uma medida de quanto o espaço-tempo difere do espaço euclideano. Sempre que hou-
ver uma grande concentração de energia em um determinado lugar no espaço-tempo, haverá uma curvatura.
Isto muda radicalmente a gravitação newtoniana. Para Newton, sempre haverá uma atração entre massas
através da ação de forças instantâneas. No contexto da Relatividade Geral, “lar” das “forças” representadas
por (C.63), a situação é muito diferente: não há forças genuı́nas entre massas. Massas, como uma forma
de energia, deforma o espaço-tempo de forma a criar verdadeiros “caminhos” por onde tais massas devem
8 Um tensor covariante, completamente anti-simétrico também é denominado de forma diferencial.
9 Asquantidades Γανµ sãp denominadas de sı́mbolos de Christoffel ou de coeficientes de conexão. Elas não são componentes
de um tensor de ordem três, mas compõem as componenetes do tensor de curvatura, de ordem quatro, o qual mede o desvio de
um espaço curvo em relação ao espaço euclideano.
64 C. Relatividade Especial

passar, sem ter qualquer outro caminho como opção. Assim, a Terra deforma o espaço-tempo de forma a
vermos objetos suspensos nas proximidades da superfı́cie dela “caindo” em direção ao seu centro. De modo
análogo, o sol, muito mais massivo, deforma o espaço tempo em seu redor, criando os caminhos por onde
os seus vários planetas podem passar. Tanto os planetas quanto os objetos na superfı́cie da Terra simples-
mente percorrem os únicos caminhos disponı́veis, livres de quaisquer forças. Na Relatividade Geral não há a
necessidade da força gravitacional newtoniana. Neste caso, podemos estender o nosso conceito de partı́cula
livre. Por outro lado, até o momento, não há qualquer interpretação geométrica presente no lado direito da
Eq. (C.62). Estas diferenças apontadas aqui, e outras que fogem ao nı́vel deste humilde texto, representam
atualmente o maior desafio intelectual dentro da Fı́sica Teórica (básica): a Relatividade Geral, ao contrário
do Eletromagnetismo, não é compatı́vel com a Mecânica Quântica.
Naturalmente, a condição de força nula para uma partı́cula livre deverá também ser uma conseqüência
do princı́pio de Hamilton. Tendo isto em mente, podemos percorrer o caminho inverso que leva ao princı́pio
de Hamilton na forma (C.52) para determinarmos a ação Ψ correspondente. A partir da ação teremos a
lagrangiana e as equações de movimento. Em (C.52) temos a integral de um diferencial total
Z Z Z µ Z ¶
¡ ¢ ¡ ¢
∆Ψ = − d pµ ∆xµ = − dpµ ∆xµ − pµ ∆ dxµ = ∆ −mc ds . (C.65)

Portanto, a ação procurada é Z Z


Ψ = −mc ds = Ldt, (C.66)

onde ds é o intervalo infinitesimal ¡ ¢1


ds = dxα dxα 2 , (C.67)
e L a lagrangiana correspondente
L = −mc2 γ −1 . (C.68)
Note que a ação é invariante por transformações de Lorentz, mas a lagrangiana definida acima não é invari-
ante. Esta lagrangiana é uma função das derivadas temporais das coordenadas espaciais. Assim, obteremos
apenas a parte espacial das equações de movimento partindo das equações de Lagrange para esta lagrangiana.
No entanto, usando o princı́pio de Hamilton e a ação (para uma partı́cula livre, no sentido newtoniano),
Z
Ψ = −mc ds, (C.69)

podemos obter todas as equações de movimento (C.60):


Z B Z B Z B
¡ ¢1 dxµ ∆(dxµ )
∆Ψ = −mc ∆ds = −mc ∆ dxµ dxµ 2 = −mc
A A A ds
Z B Z B Z B
= −mc uµ d(∆xµ ) = −mc d(uµ ∆xµ ) + mc duµ ∆xµ (C.70)
A A A
¯ Z
¡ ¢¯B B
= − pµ ∆xµ ¯¯ + dpµ ∆xµ
A A

Para que a variação da ação ∆Ψ dependa apenas dos pontos extremos A e B, então dpµ = 0, ou seja, a força
f µ deve ser nula. Note que a definição do momentum linear pµ = mcuµ foi feita na última linha.

C.5 Partı́cula livre em um campo eletromagnético


Tendo discutido a ação covariante para uma partı́cula livre, é instrutivo fazer uma discussão breve sobre as
alterações provocadas pela presença de um campo eletromagnético na vizinhança da partı́cula. Certamente
teremos que adicionar um termo ΨP , devido ao potencial eletromagnético, à ação ΨC , correspondente à
parte cinética e dada por Z
ΨC = −mc ds. (C.71)
C. Partı́cula livre em um campo eletromagnético 65

Como no caso cinético, esta ação ΨP , devido aos potenciais eletromagnéticos φ e A, deve ser escrita numa
forma invariante às transformações de Lorentz definidas em (C.19) e (C.21). Isto significa que devemos
reescrever a energia potencial eletromagnética,
e
V = eφ − ṙ · A, (C.72)
c
definida em (1.29), numa forma covariante. Definindo o quadrivetor potencial Aµ como
Aµ = (φ, A), (C.73)
podemos verificar que
γ
uµ Aµ = V, (C.74)
e
onde e é a carga elétrica da partı́cula. A ação ΨP deve conter informações sobre o campo eletromagnético,
dadas pelo quadrivetor Aµ , bem como sobre a forma de interação da própria partı́cula com o campo. Esta
derradeira informação está contida na carga elétrica e. Levando em conta que qualquer ação deve ser um
escalar, a forma covariante mais simples combinando estas informações é
Z
e
ΨP = − Aµ dxµ , (C.75)
c
onde o fator −1/c foi introduzido para que a força f µ resultante pertença à classe dada em (C.62). Desta
forma, uma ação adequada para uma partı́cula de massa m e carga e em um campo eletromagnético dado
por Aµ é Z Z
e
Ψ = −mc ds − Aµ dxµ . (C.76)
c
Podemos agora usar o teorema de Hamilton para determinar as equações de movimento partindo desta ação:

Z B Z
e
∆Ψ = −mc ∆ds − ∆(Aµ dxµ )
A c
Z B Z
¡ µ e µ¢ e
=− p + A d(∆xµ ) − Aµ ,α dxµ ∆xα (C.77)
A c c
¯B Z B · ¸
¡ e ¢ ¯ ¡ e ¢ e
= − pµ + Aµ ∆xµ ¯¯ + d pµ + Aµ − Aα ,µ dxα ∆xµ .
c A A c c
Para que ∆Ψ dependa apenas dos pontos extremos A e B devemos ter
¡ e ¢ e e¡ ¢
d pµ + Aµ − Aα ,µ dxα = dpµ − Aα,µ − Aµ,α dxα = 0. (C.78)
c c c
Portanto, a força covariante pode ser escrita como
dpµ e
fµ = = uα F αµ , (C.79)
ds c
onde
Fµν = Aµ,ν − Aν,µ . (C.80)
Este tensor anti-simétrico representa o campo eletromagnético (derivadas dos potenciais) como uma entidade
fı́sica única, uma expressão matemática da descoberta de Maxwell (James Clerk Maxwell, 1831–1879).
Note que o termo não nulo na variação da ação em (C.77) re-define a nossa noção de momentum linear
como variável conjugada à posição. Isto significa que não poderemos mais denotar esta variável conjugada
por pµ . Assim,
e
pµ + Aµ ≡ pµ , (C.81)
c
onde pµ é a variável conjugada à posição xµ na dinâmica relativı́stica covariante. É esta nova variável
que será utilizada na quantização do campo eletromagnético. Ela também é sinônimo da expressão fı́sica
“acoplamento mı́nimo”.
66 C. Relatividade Especial
Apêndice D

Cálculo Variacional

D.1 Introdução
Por comodidade, vamos considerar aqui uma função arbitrária F (q, q̇; t) no espaço de configurações. Po-
derı́amos ter escolhido qualquer forma para a dependência funcional da função F . Também poderı́amos ter
escolhido uma função no espaço de fase. Vamos definir como pontos estacionários, os pontos q(t) onde a
taxa de variação da função F (q, q̇; t) é nula em todas as direções:

∂F
= 0. (D.1)
∂qk
Nestes pontos estacionários, a função F pode assumir valores extremos:
1. Valor máximo (local ou global). Neste caso a segunda derivada de F deve ser negativa;
2. Valor mı́nimo (local ou global). Neste caso a segunda derivada de F deve ser positiva;
3. Máximo e mı́nimo simultâneos (ponto de inflexão). Neste caso, a função poderá apresentar um máximo
(ou mı́nimo) para certas direções e um valor mı́nimo (máximo) nas demais direções. Um exemplo
familiar é a sela (destas que usamos para montar).
Portanto, a caracterização de valores extremos (máximos, mı́nimos, inflexões) de funções ordinárias requerem
ferramentas do cálculo diferencial ordinário. Estamos assumindo aqui que deslocamentos infinitesimais nas
coordenadas q possam ser efetuados livremente em todas as direções (deslocamentos reversı́veis). Isto não é
verdade nas bordas (contornos) do domı́nio de validade da das coordenadas q. Nos contornos, podemos ter
máximos e mı́nimos sem termos pontos estacionários.
Consideremos agora uma integral definida da função F ,
Z B
I[q(t)] = F (q(t), q̇(t); t) dt. (D.2)
A

O valor desta integral depende da forma funcional da coordenada q(t). Mudando a forma funcional de q(t)
sistematicamente, teremos uma função de funções, denominada de funcional I[q(t)]. Naturalmnete, podemos
perguntar quem são os “pontos” estacionários (melhor seria: funções estacionárias) deste funcional I[q(t)].
As ferramentas adequadas para caracterizar estes “pontos” estacionários pertencem ao cáculo variacional.
Assim, podemos afirmar que o cálculo variacional se preocupa com os valores extremos de certas integrais
definidas.

D.2 Deslocamentos virtuais


No cálculo diferencial ordinário, um deslocamento infinitesimal dt no parâmetro t, provoca um deslocamento
infinitesimal dq em q(t). Esta variação infinitesimal em q, por sua vez, provova uma variação infinitesimal

67
68 D. Cálculo Variacional

na função F (q(t), q̇(t); t):


n µ
X ¶
∂F ∂F ∂F
dF (q(t), q̇(t); t) = dqk + dq̇k + dt. (D.3)
∂qk ∂ q̇k ∂t
k=1

Portanto todos os deslocamentos virtuais, dF , dq e dq̇ dependem de dt. Esta é uma caracterı́stica do cálculo
diferencial ordinário: os deslocamento infinitesimais das coordenadas não são independentes das variações
infinitesimais de seus parâmetros.
Consideremos agora variações infinitesimais δq e δt independentes. Estas variações são denominadas de
deslocamentos virtuais. Note que estamos usando o sı́mbolo δ invés de d (esta notação foi introduzida por
Lagrange). Assim,
n µ
X ¶
∂F ∂F ∂F
δF (q(t), q̇(t); t) = δqk + δ q̇k + δt. (D.4)
∂qk ∂ q̇k ∂t
k=1

A única diferença aqui com o cálulo diferencial ordinário é independência dos deslocamentos infinitesimais
δqk (para todos os k) e δt. Para caracterizar os valores extremos de integrais definidas, podemos escolher
δt = 0, os deslocamentos infinitesimais δqk (t) serão feitos todos no mesmo instante de tempo. Desta forma,
um deslocamento virtual representa uma alteração infinitesimal na forma funcional da coordenada q(t):

q̄(t) ≡ q(t) + δq(t), δq(t) ≡ ²φ(t), |²| → 0, (D.5)

onde φ(t) é uma função analı́tica arbitrária. Deslocamentos virtuais possuem duas propriedades importantes:
eles comutam com o diferencial e a integral ordinários. Sendo o deslocamento virtual δq(t) uma função do
tempo, seu diferencial ordinário é
d δq(t) = ² dφ(t). (D.6)
Por outro lado, o deslocamento virtual das velocidades generalizadas são
µ ¶
¯ − q̇(t) = q̇(t) + ²φ̇0 (t) − q̇(t) = ²φ̇0 (t).
δ q̇(t) = q̇(t) (D.7)

Como as funções φ e φ0 são arbitrárias, podemos escolher φ0 = φ. neste caso, teremos

d δq(t) = δ dq(t). (D.8)

De forma análoga, o deslocamento virtual da integral definida pode ser calculado:


Z B Z B Z B Z B Z B
δ F dt = F̄ dt − F dt = (F̄ − F ) dt = δF dt. (D.9)
A A A A A

Estas duas propriedades do cálculo variacional são suficientes para caracterizarmos os pontos extremos da
integral definida I[q(t)].

D.3 Equações de Lagrange


Quem é a função q(t) tal que δI[q(t)] = 0?. Vejamos:
Z B Z B n µ
X ¶
∂F ∂F
δI[q(t)] = δ F (q(t), q̇(t); t) dt = δqk +
δ q̇k dt (D.10)
A A k=1 ∂qk ∂ q̇k
Z BX n · µ ¶¸ µ ¶¯B
∂F d ∂F ∂F ¯
= − δqk dt + δqk ¯¯ = 0. (D.11)
A ∂qk dt ∂ q̇k ∂ q̇k A
k=1

Escolhendo δqk = 0 nos extremos A e B e lembrando que os deslocamentos virtuais δqk são independentes,
então µ ¶
∂F d ∂F
δI[q(t)] = 0 ⇒ − = 0. (D.12)
∂qk dt ∂ q̇k
D. Equações de Lagrange 69

Isto significa que as funções q(t) que extremam o funcional I[q(t)] satisfazem as equações diferenciais de
Lagrange, µ ¶
∂F d ∂F
− = 0. (D.13)
∂qk dt ∂ q̇k

Você também pode gostar