Você está na página 1de 265

Notas de aula em Mecânica Clássica

Mario Cezar Bertin

Instituto de Física
Universidade Federal da Bahia
2
Sumário

I Mecânica vetorial 7

1 Fundamentos cinemáticos 9
1.1 O pano de fundo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2 A geometria do espaço euclidiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Posição, velocidade e aceleração . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2 Fundamentos dinâmicos 25
2.1 Sobre as leis de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Princípios da inércia e conservação do movimento . . . . . . . . . . . . . . . . . . . 26
2.3 Força, energia, trabalho e momento angular . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3 Sistemas em uma dimensão 37


3.1 Soluções por quadraturas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Exemplos simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3 Osciladores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4 O problema de duas partículas e campos centrais 53


4.1 O centro de massa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 Momento linear e momento angular . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3 Energia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.4 Forças centrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.5 O problema de Kepler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.6 Espalhamento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.7 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

5 Gravitação 79
5.1 O princípio de equivalência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.2 Gravitação universal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.3 A equação de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.4 Tópicos em gravitação newtoniana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
5.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

3
6 Sistemas não inerciais 103
6.1 Referencial em movimento circular . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.2 Forma covariante das equações de movimento . . . . . . . . . . . . . . . . . . . . . 104
6.3 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

7 Sistemas de Partículas 111


7.1 Dinâmica e cinemática de sistemas de partículas . . . . . . . . . . . . . . . . . . . . 111
7.2 Vínculos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
7.3 Cinemática dos corpos rígidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
7.4 Dinâmica dos corpos rígidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
7.5 O pião simétrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
7.6 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
7.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

II Mecânica Analítica 141


8 As equações de Lagrange 143
8.1 Da segunda lei às equações de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . 143
8.2 Propriedades do formalismo lagrangiano . . . . . . . . . . . . . . . . . . . . . . . . . 148
8.3 Variedades de configuração . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
8.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162

9 Alguns sistemas lagrangianos 163


9.1 Partícula livre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
9.2 Oscilador harmônico simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
9.3 Máquina de Atwood . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
9.4 Partícula carregada em um campo eletromagnético . . . . . . . . . . . . . . . . . . 167
9.5 Forças centrais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.6 Corpos rígidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
9.7 O pião simétrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.8 Movimento em torno do equilíbrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
9.9 Molécula triatômica linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.10 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
9.11 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194

10 Princípios variacionais 195


10.1 Elementos do cálculo variacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
10.2 A ação e sua primeira variação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
10.3 O princípio de Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
10.4 O princípio variacional de Weiss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
10.5 Aplicações do princípio de Weiss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
10.6 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
10.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218

11 Simetrias e leis de conservação 219


11.1 Grupos de transformações contínuas . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
11.2 Funcionais invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225
11.3 O primeiro teorema de Noether . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226
11.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
11.5 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

4
12 Formalismo hamiltoniano 233
12.1 Equações de Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
12.2 Partícula livre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
12.3 Oscilador harmônico simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
12.4 Partícula carregada em campo eletromagnético . . . . . . . . . . . . . . . . . . . . . 237
12.5 Partícula em um campo central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
12.6 O espaço de fase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
12.7 Os parênteses de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
12.8 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
12.9 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245

13 Formalismo simplético hamiltoniano 247


13.1 As coordenadas unificadas do espaço de fase . . . . . . . . . . . . . . . . . . . . . . 247
13.2 Fluxos hamiltonianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
13.3 Formulação variacional hamiltoniana . . . . . . . . . . . . . . . . . . . . . . . . . . 252
13.4 Geometria simplética . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
13.5 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263
13.6 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

Referências Bibliográficas 265

5
6
Parte I

Mecânica vetorial

7
8
Capítulo 1

Fundamentos cinemáticos

1.1 O pano de fundo


Na mecânica clássica, a descrição de sistemas físicos é baseada nos conceitos fundamentais de
espaço e tempo que tomaram forma ao longo da história, desde a Grécia antiga até os dias atuais.
As evidências filosóficas, observacionais e experimentais que foram coletadas durante todo este
tempo nos indicam que vivemos em um mundo cujos eventos ocorrem em posições definidas em
um espaço retangular com três dimensões (altura, largura e profundidade, por exemplo), e que
mudam (ou evoluem), com o correr de um conceito que nos é bastante intuitivo: o tempo.
De fato, esses conceitos fazem parte de nossa vida ordinária de forma muito profunda, tanto
que nossas noções intuitivas sobre o movimento dos corpos são impressionantemente precisas.
Sem essas noções, nunca seríamos capazes de realizar proezas esportivas, como cabecear uma
bola após um cruzamento, ou atacar uma bola de vôlei após um levantamento. Os seres humanos
não são os únicos seres vivos a compreender os fenômenos mecânicos de forma tão complexa, nem
os melhores nessa tarefa, do ponto de vista instintivo. Os seres vivos que habitam ambientes
como o nosso necessariamente evoluíram, no sentido darwiniano, para lidar com o movimento
dos corpos. Nestes ambientes existe o conceito de espaço, onde os corpos se movimentam de
forma previsível, e o conceito de tempo, que nos diz a que taxa o movimento desses corpos evolui.

1.1.1 O espaço da mecânica newtoniana


Do ponto de vista matemático, o espaço da mecânica clássica é o espaço tridimensional R3 , no
qual cada ponto necessita de três números reais para ser identificado. Para se criar o espaço R3
necessita-se apenas de três retas reais (R) e uma operação denominada produto cartesiano ×.
Sejam x, y e z as denominações de respectivos pontos das três retas reais. O produto cartesiano
R3 ≡ R × R × R é tomado de modo que (x, y, z) seja a denominação de um ponto de R3 .
Contudo, o espaço da mecânica clássica possui um estrutura extra fundamental: uma geome-
tria. Dizemos que o espaço da mecânica é um espaço métrico, o que é apenas um meio de dizer
que, neste espaço, há pelo um meio de se medir a distância entre dois pontos. Em particular, o
método utilizado é conhecido desde a Grécia antiga, dado pelo teorema de Pitágoras: O quadrado
da hipotenusa de um triângulo retângulo é igual a soma dos quadrados dos catetos. Todo espaço
no qual um triângulo retângulo obedeça ao teorema de Pitágoras é chamado espaço euclidiano.
Usamos o símbolo E3 para identificar o espaço euclidiano tridimensional.
Embora nem sempre necessário, vamos tornar clara, sempre que possível, a diferença entre
os espaços R3 e E3 . O primeiro é simplesmente um produto cartesiano de três retas reais. Já o es-
paço E3 é o espaço R3 munido de uma métrica euclidiana, que é uma função que mede distâncias
em R3 . Características bastante conhecidas de espaços euclidianos são, por exemplo, a existên-
cia de retas paralelas, bem como o fato de que a soma dos ângulos internos de um triângulo ser
igual a 180 graus. Mais sobre a métrica euclidiana será discutido posteriormente.

9
1.1.2 Sistemas de coordenadas
Em espaços métricos, como no caso do espaço euclidiano, podemos definir sistemas de coorde-
nadas. O exemplo mais simples no caso de E3 é o sistema de coordenadas cartesiano, figura
1.1, que consiste em uma origem e três eixos cartesianos reais. Cada eixo cartesiano representa
uma reta real e cada ponto de E3 é representado por uma trinca de números reais (x, y, z). Por

vezes também utilizaremos a notação x1 , x2 , x3 . As coordenadas da origem são, naturalmente,
(0, 0, 0).

Figura 1.1: Sistema de coordenadas cartesiano.

Outros dois sistemas de coordenadas bastante comuns são as coordenadas esféricas (r, θ, ϕ),
e as coordenadas cilíndricas (ρ, θ, z), cujos eixos dependem do ponto do espaço.

Figura 1.2: Sistemas de coordenadas esférico e cilíndrico.

Sistemas de coordenadas distintos podem ser relacionados através de transformações de co-


ordenadas. Por exemplo, as coordenadas esféricas (r, θ, ϕ) são definidas, observando-se a fig. 1.1,
pelo sistema de equações

x = r cos θ sin ϕ, y = r sin θ sin ϕ, z = r cos ϕ. (1.1)

10
Por outro lado, temos
p y z
r = x2 + y 2 + z 2 , θ = arctan , ϕ = arccos . (1.2)
x r
O sistema (1.2) formam as equações que definem a transformação do sistema de coordenadas
cartesiano para o esférico, enquanto (1.1) é sua transformação inversa.
Espaços euclidianos possuem uma propriedade muito particular. Embora ele seja infinito em
extensão, é possível se definir um único sistema de coordenadas cartesiano em todo o espaço, de
modo que todo ponto x ∈ E3 tem uma única denominação em coordenadas cartesianas.

1.1.3 O tempo newtoniano


Existem duas formas de se representar a dinâmica em espaços euclidianos. A primeira é a cons-
trução do espaço-tempo quadridimensional cartesiano. Podemos montar sucessivas cópias do
espaço euclidiano E3 , cada cópia nominada por um parâmetro real monotonicamente crescente.
Este parâmetro é relacionado ao tempo t, que é representado pela reta real R. Um sistema físico
qualquer descreve uma configuração geométrica em E3 para um determinado instante de tempo,
e esta configuração geralmente muda de um espaço euclidiano a outro, para diferentes valores
de t. Esta dinâmica pode ser representada por um espaço quadridimensional R4 = E3 × R, de-
nominado espaço-tempo newtoniano. É importante notar que R4 não é um espaço euclidiano
segundo a nossa definição. Ele simplesmente representa sucessivas cópias de E3 relacionados a
cada valor de t ∈ R.
A segunda forma, muito mais utilizada, é notar que a trajetória de sistemas físicos pode ser
parametrizada pelo tempo t em um mesmo espaço euclidiano, como mostra a seção a seguir.

1.1.4 Trajetórias de partículas pontuais


Vamos supor uma partícula pontual restrita a um plano E2 , que se localiza na origem do sistema
de coordenadas no tempo t = 0. À medida que passa o tempo, a partícula pode mudar sua
posição. Ela deve fazê-lo continuamente: se a partícula se desloca de um ponto A a um ponto B,
deve percorrer uma curva contínua entre A e B.

Figura 1.3: À esquerda, trajetória de uma partícula no plano E2 . À direita, trajetórias no espaço-
tempo R3 . Em (a), temos uma partícula estática. Em (b), um exemplo de movimento oscilatório.
Em (c) uma dinâmica não específica.

Esta curva é representada por um conjunto de equações x = x (t) e y = y (t), parametrizadas


pelo tempo t. Do ponto de vista do espaço-tempo newtoniano tridimensional, a partícula descreve
uma trajetória em R3 como mostra a figura (1.3).

11
Voltando ao caso tridimensional, as equações paramétricas são dadas por

x = x (t) , y = y (t) , z = z (t) , (1.3)

ou em notação mais compacta,

xi = xi (t) , i = 1, 2, 3. (1.4)

Desde que o espaço seja euclidiano, podemos usar índices sobrescritos ou subscritos sem distin-
ção. Por exemplo, a notação (1.4) pode ser escrita por

xi = xi (t) , i = 1, 2, 3,

sem prejuízo da nomenclatura.


A forma compacta (1.4) de se escrever as equações paramétricas (1.3) é denominada notação
em componentes, ou tensorial. Nesta notação, um conjunto de coordenadas retangulares (x, y, z),
 
ou x1 , x2 , x3 , é representado por um conjunto xi , em que i é um índice que carrega valores

naturais. Dizemos que xi = x1 , x2 , x3 , ou seja, i toma valores de 1 a 3 neste caso. Veremos
que esta notação tem grandes vantagens. Uma delas é o fato de que a generalização de sistemas
com dimensões arbitrárias torna-se imediata. Por exemplo, as equações paramétricas para uma
curva em um espaço de n dimensões são dadas simplesmente por (1.4), agora com i = 1, 2, · · · , n.
Regras para a utilização desta notação serão introduzidas ao longo do texto, quando necessárias.

1.2 A geometria do espaço euclidiano


Além de transformações de coordenadas, existem outros tipos de transformações matemáticas
que podemos executar sobre E3 . Sempre que uma transformação aplicada a E3 resulta em um
outro espaço E3 , dizemos que tal transformação preserva a geometria do espaço euclidiano, ou
seja, preserva não apenas sua topologia (R3 ), como também preserva a distância entre dois pon-
tos. Dizemos que essas transformações são simetrias, ou isometrias da geometria euclidiana.
Além de transformações de coordenadas, são exemplos de simetrias euclidianas as rotações.

1.2.1 Rotações
A simetria de E3 por rotações é a simetria que define a natureza matemática das variáveis
cinemáticas e dinâmicas da mecânica newtoniana. Vamos supor, por simplicidade, um espaço
E2 , que é o espaço euclidiano bidimensional, com um sistema de coordenadas cartesiano xi =

x1 , x2 , como na figura 1.4.

Na figura é também representado um segundo sistema de coordenadas y i = y 1 , y 2 , rodado
com relação ao primeiro sistema por um ângulo θ no sentido anti-horário. Ambos os sistemas se
relacionam pelas transformações

y 1 = x1 cos θ + x2 sin θ, (1.5a)


1 2
y2 = −x sin θ + x cos θ. (1.5b)

Usando uma notação matricial, essas equações podem ser escritas por

y1 x1
    
cos θ sin θ
= . (1.6)
y2 − sin θ cos θ x2

Em componentes, as variáveis x1 , x2 são representadas por xi , em que i é um índice que

assume os valores de 1 e 2. Da mesma forma, y i = y 1 , y 2 . A relação entre a notação em

12
Figura 1.4: Espaço E2 com dois sistemas de coordenadas cartesianos, rodados em um ângulo θ.

componentes e a matricial é a seguinte: xi e y i estão relacionadas às matrizes coluna:

x1 y1
   
i i
x =⇒ x = , y =⇒ y = . (1.7)
x2 y2

Assim, a notação em componentes é, também, uma forma de se representar componentes de


matrizes.

As componentes da matriz que aparece em1.6, são representadas pelo objeto Rij , com dois
índices, tal que
 
cos θ sin θ
Rij =⇒ R = . (1.8)
− sin θ cos θ

A matriz R é denominada matriz de rotação em duas dimensões, enquanto Rij são suas compo-
nentes. As regras de álgebra matricial continuam válidas neste caso: em Rij , o primeiro índice
representa uma linha da matriz, enquanto o segundo índice representa uma coluna. Por exem-
plo, R11 = cos θ, enquanto R12 = sin θ.

Neste caso, a equação (1.6) pode ser escrita na forma mais compacta
2
X
yi = Rij xj . (1.9)
j=1

Podemos fazer um esforço maior para simplificar ainda mais esta expressão, usando uma outra
convenção:

13
Proposição 1. (Convenção de soma de Einstein)
A expressão (1.9) pode ser substituída pela equivalente

y i = Rij xj , (1.10)

com as seguintes regras:

1. Índices sobrescritos, como i em Ai , são denominados índices contravariantes.

2. Índices subscritos, como i em Ai , são denominados índices covariantes.

3. Em um produto de dois objetos, dois índices de mesmo nome, um covariante e outro con-
travariante, implicam em uma soma em todos os valores do índice. Assim, a expressão
Pn
Ai Bi = Bi Ai representa a soma i=1 Ai Bi , se i é um índice com valores de 1 a n. Dois
índices somados são denominados índices contraídos, ou índices mudos.

4. Índices mudos podem ter seus nomes trocado em uma mesma expressão. Por exemplo,
Ai Bi = Aj Bj = Ak Bk , em que i, j e k são nomes diferentes para o mesmo índice: todos
correm sobre o mesmo conjunto de números, por exemplo, de 1 a n.

5. Índices solitários podem ser trocados, desde que seja em toda uma equação. Exemplo:
Ai = M ij B j pode ser também escrito por Ak = M kj B j .

6. Índices solitários em um lado de uma equação devem aparecer em igual quantidade e


com mesmo nome no outro lado da mesma equação. Note que a expressão Ai = M kj B j
não faz sentido, visto que o índice i deveria estar também no lado direito.

7. Toda transformação linear pode ser escrita na forma y i = M ij xj , em que M ij são as


componentes de uma matriz que não depende de x ou y.

A forma (1.10) é bastante útil por ser facilmente generalizada para qualquer dimensão. Neste
caso, uma rotação em três dimensões também é representada pela transformação (1.10), com a
diferença de que os índices assumem os valores (1, 2, 3), enquanto a matriz de rotação R não é
mais a matriz (1.8), mas uma matriz 3 × 3 cuja forma depende da orientação dos eixos de ambos
os sistemas de coordenadas. A mesma expressão

y i = Rij xj i = 1, 2, 3, · · · , n, (1.11)

pode representar uma rotação em n dimensões. Neste caso, R é uma matriz n × n obviamente
distinta de (1.8)
Matrizes de rotação são matrizes especiais. Vamos pontuar algumas características:

1. R é ortogonal, ou seja, RT R = 1, em que 1 é a matriz identidade e RT é a matriz trans-


posta. Neste caso, temos que RT = R−1 , ou seja, a inversa R−1 é igual à transposta. Em
componentes, temos que RT R é um produto de matrizes, ou seja, suas componentes são
i i
dadas por RT R j = RT k Rkj .

i
2. Contudo matrizes transpostas são obtidas trocando-se linhas por colunas, ou seja, RT k
=
i i
Rki . Assim, RT R j = RT k Rkj = Rki Rkj .

i i
3. A inversa de uma matriz ortogonal é igual a sua transposta, portanto, R−1 k
= RT k
=
Rki .
i
4. A relação de ortogonalidade em notação tensorial é dada por RT R j = 1ij ≡ δ ij , que é
denominada delta de Kronecker. Uma delta de Kronecker representa as componentes de

14
uma matriz identidade e é melhor definida por
(
1 se i = j
δ ij = . (1.12)
0 se i 6= j

5. A relação de ortogonalidade se escreve, portanto, Rki Rkj = δji .

6. Matrizes de rotação são também especiais, ou seja det R = 1.

1.2.2 Campos escalares


Agora, vamos definir um campo escalar, também denominado função escalar por rotações.
Um campo escalar por rotações é definido como uma função da posição que não muda o seu valor
em cada ponto quando uma transformação de rotação é efetuada sobre o espaço. Ou seja, é uma
função φ (x) tal que

y i = Rij xj =⇒ ϕ (y) = φ (x) , (1.13)

em que ϕ (y) é a função φ (x) rotacionada. Exemplos de funções escalares por rotações são energia
e trabalho, que definiremos adiante.

1.2.3 Vetores e campos vetoriais


A definição matemática de vetores segue as definições da álgebra linear, que consiste nas opera-
ções envolvendo Espaços vetoriais. Seja E um conjunto cujos elementos v ∈ E podem ser soma-
dos entre si e multiplicados por números reais. E é denominado espaço vetorial real, e v ∈ E um
vetor real, se para todo u, v, w ∈ E e α, β ∈ R, as seguintes propriedades são obedecidas:

1. u + v = v + u;

2. (u + v) + w = u + (v + w);

3. ∃ 0 ∈ Φ : u + 0 = u - existência do elemento neutro da adição;

4. ∃ − u ∈ Φ : u + (−u) = 0; - existência do elemento oposto da adição;

5. 1u = u;

6. α (βu) = (αβ) u = β (αu);

7. (α + β) u = αu + βu;

8. α (u + v) = αu + αv.

Uma grande variedade de conjuntos matemáticos são espaços vetoriais, por exemplo os espaços
Rn de dimensão n, incluindo-se a reta real R. Contudo, estamos interessados em um tipo parti-
cular de vetor. São vetores definidos em cada ponto do espaço E3 (denominado espaço base)
e que preservam sua norma sob rotações. A norma de um vetor é definida a partir do produto
escalar que, por consequência, define também uma métrica no espaço vetorial. Se a norma de
um vetor é invariante por rotações, isto implica que o produto escalar e a métrica também o são.
O caso euclidiano é especial, pois o espaço E3 pode ser considerado seu próprio espaço vetorial e,
portanto, a invariância da norma implica na invariância da distância entre dois pontos.
Neste caso, definimos um campo vetorial euclidiano da seguinte forma:

15
Definição 1. (Campo Vetorial Euclidiano)

Seja um espaço euclidiano E3 munido de três eixos ortonormais ei ≡ (e1 , e2 , e3 ). Um objeto


v (x) ∈ E3 é definido tal que possa ser decomposto em cada um dos eixos ei , ou seja, v (x) =
v i (x) ei . As funções v i (x) são denominadas componentes de v (x) na base ei . Se, sob uma
rotação y i = Rij xj , as componentes de v (x) se transformam como

v̄ i = Rij v j , (1.14)

então v (x) é um campo vetorial euclidiano. Os eixos ei formam uma base ortonormal de
E3 .

Por ser um objeto geométrico, um campo vetorial em si não pode mudar por rotações, como de-
veríamos esperar. Contudo, suas componentes mudam. Neste caso, vetores em E3 são definidos
como aqueles cujas componentes se transformam da mesma forma que o sistema de coordenadas
em si. Naturalmente, os eixos ortogonais também mudam:

v = v i ei = v̄ i ēi = Rij v j ēi = ēi Rij v j = ēj Rji v i ,

ou seja, ei = ēj Rji , ou


j j j
ēi Rij = ej =⇒ ēi Rij R−1 k
= ej R−1 k
=⇒ ēi = ej R−1 k
.

Contudo, matrizes de rotação são ortogonais, ou seja,


j i i
Rij RT k
= δki =⇒ RT j
= R−1 j
.

Assim,
j
ēi = ej RT i
= Rij ej . (1.15)

Portanto, os eixos ortogonais não se transformam como vetores em espaços euclidianos, mas se
transformam com a transversa da matriz de rotação.

1.2.4 Produto interno e métrica

Estamos interessados em vetores que possuem norma, portanto, devemos incluir no espaço ve-
torial uma operação de produto interno entre dois vetores.

Definição 2. (Produto interno)

Seja E um espaço vetorial. O produto interno é uma aplicação (•, •) : E × E → R, que obedece
as seguintes propriedades:

1. Simetria: (u, v) = (v, u) para todo u, v ∈ E.

2. Bilinearidade: (αu1 + βu2 , v) = α (u1 , v) + β (u2 , v), para todo u1 , u2 , v ∈ E e α, β esca-


lares.

3. Positividade: (u, u) ≥ 0 para todo u ∈ E.

4. Não degenerescência: (u, u) = 0 ⇔ u = 0.

16
Definição 3. (Norma e ortogonalidade)
p
A norma de um vetor u é definida como |u| = (u, u). Quando |u| = 1 dizemos que u é
unitário, e todo vetor u ∈ E pode ser escrito na forma u = |u| û, em que û é um vetor unitário.
De agora em diante, utilizaremos o símbolo u · v ≡ (u, v) para representar o produto interno
de dois vetores u e v. Dois vetores u e v diferentes do vetor nulo são ortogonais se u · v = 0.

A partir do produto interno, definimos um objeto geométrico fundamental, denominado mé-


trica. Vamos tomar os eixos ortogonais ei e definir a matriz gij ≡ ei · ej . O produto interno u · v
exprime-se como

u · v = ui ei · v j ej = ui v j ei · ej = gij ui v j .
 
(1.16)

Podemos definir a distância entre dois vetores u e v por


2
|u − v| = (u − v) · (u − v) . (1.17)

Neste caso,
2
|u − v| = gij ui − v i uj − v j .
 
(1.18)

Definição 4. (Métrica)

A forma bilinear simétrica g : E × E → R representada pelas componentes de matriz gij é


chamada métrica de E. A matriz gij é simétrica e positiva definida, ou seja, para qualquer
lista xi de números reais não todos nulos,

gij xi xj ≥ 0. (1.19)

1.2.5 Funcionais lineares e covetores


Seja E um espaço vetorial. Uma transformação linear ϕ : E → R é chamada funcional linear. O
conjunto de todos os funcionais lineares com domínio em E é também um espaço vetorial. Um
funcional linear, portanto, age sobre um vetor e resulta em um número real ou, em nosso caso,
em uma função escalar real.
Por outro lado, existe um tipo especial de funcional linear, denominado covetor. Para cada
vetor u ∈ E, existe um funcional linear u∗ tal que

u∗ (u) = u · u, (1.20)

Sejam dois vetores v e u, sendo v∗ e u∗ seus respectivos funcionais lineares. Temos

u∗ (v) = v∗ (u) = u · v. (1.21)

Todo funcional linear que age sobre vetores tendo como regra o produto escalar é denominado
covetor. O espaço de todos os covetores com domínio em E é denominado espaço dual de E, com
o símbolo E ∗ .
Cada vetor está relacionado a seu próprio covetor por uma transformação linear, assim, como
convenção, temos

v = v i ei ⇐⇒ v∗ = vi ei . (1.22)

O conjunto ei , com índices contravariantes, forma uma base para E ∗ .




Se um vetor é representado por uma matriz coluna, seu covetor é uma matriz linha. Neste

17
caso, um vetor e seu covetor são transpostos um do outro. Assim,

v∗ (v) = vi ei v j ej = vi v j ei (ej ) .

(1.23)

Em razão de (1.20),

ei (ej ) = δji , (1.24)

portanto,

v∗ (v) = vi v i . (1.25)

Para dois vetores u e v,

u∗ (v) = v∗ (u) = ui v i = vi ui . (1.26)

Se este é o produto interno,

ui v i = gij ui v j =⇒ ui = gij uj , (1.27)

o que implica em que o isomorfismo entre E e E ∗ é dado pela métrica.

Por outro lado, suponha g ij as componentes da inversa da métrica. Isto significa que

g ij gjk = δki .

Multiplicando-se (1.27) por g ik , temos

ui g ik = gij g ik uj = gji g ik uj = δjk uj = uk ,

ou seja,

ui = g ij uj . (1.28)

No jargão dos físicos, dizemos que a métrica "baixa" índices, segundo (1.27), o que realmente quer
dizer que componentes vetoriais podem ser levadas a componentes covetoriais. Por outro lado, a
inversa da métrica "levanta" índices, transformando componentes de covetores em componentes
de seus respectivos campos vetoriais.

Agora vamos voltar ao espaço euclidiano E3 . A expressão (1.27) é explicitada pos

v1
    1 
  1 0 0 v
u1 u2 u3  v2  = u1 u2 u3  0 1 0   v2  ,
v3 0 0 1 v3

ou seja, a métrica euclidiana é representada por uma matriz identidade


 
1 0 0
gij = δij → g = 1 =  0 1 0 . (1.29)
0 0 1

Agora, mostraremos sob que condições a operação de rotação yi = Rij xj preserva o produto
escalar. Sejam dois vetores u = ui ei e v = v i ei . Temos

u · v = gij ui v j = ui v i ,

18
segundo as equações (1.16) e (1.27). Sabemos que v i se transformam por

v i → v̄ i = Rij v j ,

mas não sabemos como se transformam as componentes covetoriais ui . Se o produto escalar é


preservado, ui v i = ūi v̄ i , ou seja,

ūi v̄ i = ūi Rij v j = ūi Rij v j ,

ou seja,
j
uj = ūi Rij =⇒ ūi = uj RT i
= Rij uj . (1.30)

Portanto, as componentes de covetores se transformam com a transposta da matriz de rotação.


Por outro lado, se covetores em si são invariantes por rotações, temos

y i = Rij xj =⇒ ū∗ = u∗ .

Assim,

ū∗ = ūi ēi = Rij uj ēi = uj ēi Rij .

Como ūi ēi = ui ei ,

ej = ēi Rij =⇒ ēi = Rij ej . (1.31)

Assim, as bases de covetores transformam-se como vetores, com a matriz de rotação.


Basta descobrir como as componentes da métrica se transformam. Se o produto interno é
invariante, temos

gij ui v j = ḡij ūi v̄ j = ḡij Rik uk Rjl v l = ḡij Rik Rjl uk v l .

Portanto,

gij = ḡmn Rmi Rnj ⇐⇒ ḡij = Rim Rjn gmn . (1.32)

Assim se transformam as componentes da métrica por rotações.


No caso euclidiano, gij = δij , o que indica que

δ̄ij = Rim Rjn δmn = Rim Rjm = RT R



ij
= δij . (1.33)

Isto significa que as componentes da métrica euclidiana são invariantes por rotações.

1.3 Posição, velocidade e aceleração


1.3.1 O vetor posição
Fizemos menção ao fato de que o espaço euclidiano é seu próprio espaço vetorial. Esta carac-
terística nos permite definir um vetor para cada ponto de E3 , que representa a distância entre
a origem e este ponto. Este vetor é chamado vetor posição. É a partir desta característica que
podemos representar vetores em E3 por setas com tamanho, direção e sentido, algo que não é
possível em espaços não euclidianos. Também podemos, sem risco de cometer nenhum abuso,
pensar nos vetores como objetos do próprio espaço euclidiano, em vez de objetos definidos em
espaços distintos deste. No geral, contudo, a posição de um ponto não pode ser representada por
um vetor, e vetores não pertencem ao espaço de base, mas a espaços vetoriais próprios. O mesmo

19
ocorre com covetores e tensores de qualquer ordem.

Figura 1.5: Vetor x relacionado à posição (x, y, z).

Portanto, a posição de uma partícula pontual que se move com o tempo pode ser representada
por um campo vetorial

x (t) = xi (t) ei , (1.34)

em que

x1 (t)
 

xi (t) =  x2 (t) 
x3 (t)

são as funções que definem a trajetória da partícula em E3 . A distância entre uma dada posição
e a origem é dada pela métrica g:
p q √
x = g (x, x) = gij xi xj = x · x = |x| , (1.35)

bem como a distância entre duas posições x e y:


p q
|x − y| = g (x − y, x − y) = gij (xi − y i ) (xj − y j )
q
2 2 2
= (x1 − y 1 ) + (x2 − y 2 ) + (x3 − y 3 ) . (1.36)

1.3.2 O vetor velocidade


Vamos supor uma partícula que se move no espaço euclidiano de acordo com o vetor posição x (t).
A velocidade da partícula é, então, definida como a primeira derivada temporal de x:

dx
v (t) ≡ ≡ ẋ (t) = ẋi (t) ei . (1.37)
dt

Além do tempo t, a velocidade é também uma função da distância l ao longo da trajetória. Seja
uma curva C ⊂ E3 e dois pontos x (s1 ) e x (s2 ) que pertencem à curva, sendo s um parâmetro

20
Figura 1.6: Os vetores posição x e velocidade v no ponto x da trajetória em vermelho.

qualquer monotonicamente crescente. A equação para a distância entre dois pontos, dada por
q
2
p
∆s = (∆x) = (∆xi ) (∆xi ),

pode ser escrita para um elemento infinitesimal ds por


p q
ds = dxi dxi = gij dxi dxj . (1.38)

Portanto, a distância entre x (s1 ) e x (s2 ) ao longo da curva é dada por


ˆ s2 ˆ s2 ˆ s2
r
p dxi dxi
l (s1 , s2 ) = ds = dxi dxi = ds .
s1 s1 s1 ds ds

Se s for escolhido como o tempo, temos


ˆ t2 p
l= dt ẋi ẋi . (1.39)
t1

Se l é tomado como parâmetro, então

dx dl
v (t) = .
dl dt

É sempre possível definir o parâmetro l de modo que o vetor

dx
û ≡
dl
seja unitário. Este vetor é um vetor tangente à trajetória no ponto l. Definindo, também, a
quantidade

dl
v≡ ,
dt
podemos escrever

v (t) = v û. (1.40)

Dessa forma, v é o módulo da velocidade, enquanto o vetor velocidade é sempre tangente à


trajetória da partícula.

21
1.3.3 O vetor aceleração

Dada a definição (1.37), a aceleração da partícula é calculada por

a (t) ≡ v̇ (t) = ẍ (t) = ẍi (t) ei . (1.41)

Tomando-se (1.40), temos

dv dv du
a= = u+v . (1.42)
dt dt dt

A aceleração de uma partícula está relacionada não só à mudança no módulo da velocidade


(v̇u), mas também à curvatura da trajetória (v u̇). Note que, se u é unitário,

d
u·u=1 =⇒ (u · u) = 0,
dt
ou seja,

2u · u̇ = 0 (1.43)

e, portanto, u̇ é ortogonal a u e, por consequência, ortogonal à trajetória.

Definimos também o escalar de curvatura κ:



du
κ ≡ . (1.44)
dl

Assim,

du dl
u̇ = = vκn̂, (1.45)
dl dt
em que n̂ ≡ u̇/|u̇| é um vetor unitário. Neste caso,

a = v̇ û + v 2 κn̂. (1.46)

O primeiro termo é chamado aceleração tangencial, enquanto o segundo é chamado aceleração


centrífuga. A aceleração encontra-se em um plano formado por û e n̂, chamado plano osculante.

1.4 Resumo

Neste primeiro capítulo, apresentaram-se as propriedades cinemáticas e dinâmicas mais funda-


mentais da mecânica newtoniana. O palco desta mecânica é o espaço tridimensional euclidiano
E3 , que possui uma métrica euclidiana definida pelo teorema de Pitágoras. Por ser um espaço
métrico, E3 permite a introdução de estruturas geométricas importantes para a descrição de
fenômenos físicos, como funções escalares, vetores, covetores e tensores por rotação do sistema
de coordenadas. Em conjunto com o tempo, que é o parâmetro de evolução fundamental, vi-
mos que algumas das variáveis cinemáticas mais importantes são a posição, a velocidade e a
aceleração de partículas pontuais.

22
Espaço: O espaço da mecânica newtoniana é o espaço euclidiano E3 , que consiste em um
espaço cartesiano tridimensional R3 munido de uma métrica euclidiana gij = δij .

Tempo: É o parâmetro de evolução das trajetórias de sistemas físicos em E3 . Este parâmetro


deve ser escolhido de modo a ser monotonicamente crescente.

Escalares euclidianos: São funções que não mudam seu valor ponto a ponto no espaço eu-
clidiano, quando submetidos a rotações.

Vetores euclidianos: São objetos vetoriais cujas componentes se transformam, por rota-
ções, exatamente como o sistema de coordenadas.

Covetores euclidianos: São objetos vetoriais cujas componentes se transformam, por rota-
ções, como a transformação inversa do sistema de coordenadas.

1.5 Exercícios
1. Considere os sistemas de coordenadas cartesiano, esférico e cilíndrico, em três dimensões.

(a) Expresse as coordenadas cartesianas em função das coordenadas esféricas.


(b) Expresse as coordenadas cartesianas em função das coordenadas cilíndricas.
(c) Encontre as transformações inversas dos itens (a) e (b), ou seja, expresse as coordena-
das esféricas e cilíndricas em função das coordenadas cartesianas.
(d) Encontre a transformação entre coordenadas cilíndricas e esféricas, bem como sua
inversa.

23
24
Capítulo 2

Fundamentos dinâmicos

2.1 Sobre as leis de Newton


São de autoria de Isaac Newton os princípios fundamentais que determinam como os corpos
se movem no espaço euclidiano. Podemos escrever esses princípios na forma das três leis de
Newton:

1. Uma partícula pontual livre de forças externas não nulas move-se com velocidade cons-
tante.

2. A força aplicada a uma partícula pontual é diretamente proporcional à sua aceleração.

3. Quando uma partícula A executa uma força sobre uma segunda partícula B, a partícula
A experimenta uma força que é igual em módulo e direção, mas cujo sentido é contrário à
força original.

A primeira lei é chamada princípio da inércia, enquanto a terceira é conhecida como o princípio
de ação e reação. A segunda lei, como veremos, é aquela que determina a dinâmica das partículas
a partir do conhecimento da força que age sobre elas.
Desde que nossas noções intuitivas sobre força não sejam equivocadas, não há nada de errado
com as formulações clássicas das três leis de Newton. Contudo, podemos fazer uma releitura
desses princípios, de modo que uma definição apropriada de força seja incluída e o propósito de
ter em mãos princípios da dinâmica mais consistentes matematicamente seja atingido.

2.1.1 Sistemas referenciais


Na física, podemos trabalhar fundamentalmente com quatro objetos fundamentais: O sistema
físico, o observador, o observável e a medida. Uma definição de sistema físico é bastante óbvia
para os nossos propósitos, é simplesmente um objeto físico do qual desejamos obter informações.
Um observável é um objeto matemático que carrega informação sobre o sistema físico. Por exem-
plo, se o sistema é uma partícula, exemplos de observáveis que já conhecemos podem ser sua
velocidade v (x) e aceleração a (x) em um ponto x ∈ E3 . A medida é um valor numérico assumido
pelo observável. Por exemplo, se o observável é a velocidade, uma possível medida vem a ser 10
metros por segundo.
Um observador, por outro lado, consiste em um ente físico, como um pesquisador munido
de um aparelho de medida, que executa medidas sobre o sistema físico. Observadores também
são sistemas físicos por natureza, portanto eles possuem posições, velocidades e acelerações com
relação ao sistema físico em E3 . Para que um observador faça uma medida em um sistema, é
necessário que ele adote um sistema de coordenadas.
Neste caso, podemos definir um sistema referencial como um observador O munido de um
sistema de coordenadas {x} ⊂ E3 , formando um conjunto (O, {x}). Um sistema de coordenadas

25
em si não define um sistema referencial, como veremos em diversos exemplo práticos durante
este curso: Um único observador pode se utilizar de dois ou mais sistemas de coordenadas para
executar uma medida, assim como um mesmo sistema de coordenadas pode ser utilizado por
dois observadores distintos. Na mecânica newtoniana, como veremos, as medidas de observáveis
físicos dependem intrinsecamente do sistema referencial utilizado, como por exemplo a posição,
velocidade, aceleração, bem como a energia, momento linear e momento angular. Sempre que
um observável é estudado, devemos definir explicitamente qual sistema referencial é utilizado.

2.2 Princípios da inércia e conservação do movimento


2.2.1 Referenciais inerciais
O princípio de inércia tradicional pode ser substituído pela seguinte definição:
Definição 5. (Referencial inercial)
Existem sistemas referenciais especiais, denominados referenciais inerciais, que possuem as
seguintes propriedades:

1. Um referencial inercial mede toda partícula isolada como movendo-se com velocidade
constante.

2. Se uma partícula isolada é observada com velocidade constante em um referencial, ela


é observada com velocidade constante em qualquer outro referencial inercial.
Esta definição difere da apresentação anterior da primeira lei em dois aspectos importantes.
Primeiro, substitui o conceito de força (ou ausência de), por um conceito mais preciso, o de par-
tículas isoladas. Neste contexto, uma partícula isolada é aquela longe o suficiente de qualquer
outra partícula (ou campo), que possa com ela interagir.
A segunda diferença é a definição do tempo t como um parâmetro que depende da trajetória
da partícula. De fato, t deve ser uma função linear t (l) do comprimento da trajetória, como
vimos no capítulo passado. Se um referencial inercial mede um tempo t1 para um dado evento
relacionado à partícula, então um segundo referencial deve medir um tempo t2 = ct1 , em que
c ∈ R. Assim, o intervalo de tempo medido por dois referenciais inerciais é sempre o mesmo.
De fato, a existência de um referencial inercial implica na existência de infinitos referenciais
inerciais, todos medindo uma partícula isolada como aquela em movimento retilíneo uniforme.
Dizemos, também, que tal partícula é livre, ou inercial.

2.2.2 Conservação da quantidade de movimento


Por outro lado, segunda e terceira leis podem ser substituídas pelo seguinte princípio:

Proposição 2. (Princípio da conservação do movimento)


Sejam n partículas I que interagem ente si, mas são isoladas em conjunto, observadas por um
observador inercial. Seja vI (t) a velocidade da partícula I, sendo I = 1, · · · , n. Então:

1. Existe uma combinação linear positiva definida das velocidades tais que o vetor resul-
tante é uma constante no tempo, ou seja,
X dp
∃ m I ∈ R+ | mI vI (t) = p, e = 0. (2.1)
dt
I

2. As constantes mI são independentes do tempo, do sistema referencial escolhido e da na-


tureza da interação. Dependem apenas das partículas.

26
Para os índices I, não usaremos a convenção de soma. Com a proposição 2, podemos prosse-
guir com as seguintes definições:

Definição 6. (Massa e momento linear)


As constantes mI são definidas como as massas inerciais referentes às partículas I. O vetor
p, por outro lado, é denominado quantidade de movimento, momento linear, ou simplesmente
momento do sistema.

Vamos considerar, por simplicidade, o exemplo de duas partículas isoladas. Temos

p = m1 v1 + m2 v2 .

Neste caso, definimos o momento de cada partícula como

p1 = m1 v1 , p2 = m2 v2 ,

de modo que

p = p1 + p2 .

Evidentemente, se as velocidades são vetores por rotações, os momentos também o são.


Se p é constante, temos

dp d
=0 =⇒ (m1 v1 + m2 v2 ) = 0,
dt dt
ou seja,

m1 a1 + m2 a2 = 0.

Voltando ao sistema de n partículas, as expressões anteriores resultam em


X
p= pI , pI = mI vI , (2.2)
I

bem como
dp X
=0 =⇒ mI aI = 0, (2.3)
dt
I

2.3 Força, energia, trabalho e momento angular


2.3.1 Força
Da equação (2.3), vemos que a conservação do momento implica em que a soma da massa vezes
a aceleração de cada partícula deve ser nula. Podemos definir

Definição 7. (Força)
A força que age sobre uma partícula I de momento linear pI e massa mI constante é dada por

dpI
FI = = mI aI . (2.4)
dt

Note que F é também um vetor por rotações.

27
Dessa forma, a conservação do momento implica em
X
FI = 0 (2.5)
I

para um sistema de partículas isolado. A definição (2.4) é equivalente à segunda lei de Newton.
Voltando ao sistema de duas partículas, (2.5) resulta em

F1 = −F2 , (2.6)

ou seja, a força que a partícula 2 exerce sobre a partícula 1 é igual ao negativo da força que a
partícula 1 exerce sobre a partícula 2. Esta é a expressão matemática da terceira lei de Newton
na forma forte.

2.3.2 Energia
Vamos tomar o caso de uma partícula de massa m sobre a qual age uma força F. Neste caso, a
dinâmica é dada pela equação

F = ma = mv̇ = mẍ, (2.7)

ou seja, conhecida a força F = F (t, x, ẋ), (2.7) torna-se um sistema de três equações diferenciais
ordinárias para o vetor posição. Em notação tensorial, temos

F i = mẍi , i = 1, 2, 3. (2.8)

Vamos tomar o produto escalar de (2.7) por v, que resulta em

Fi v i = mẍi v i = mẍi ẋi .

Note que
 
d 1 i 1 d
ẋi ẋi = mẍi ẋi ,

m ẋi ẋ = m
dt 2 2 dt

portanto,
 
id 1 i
Fi ẋ = m ẋi ẋ . (2.9)
dt 2

Em notação vetorial,
 
d 1
ẋ · F = m ẋ2 . (2.10)
dt 2

Definição 8. (Energia cinética)


A quantidade

1
K= m ẋ2 (2.11)
2
é denominada energia cinética de uma partícula de massa m e velocidade ẋ.

Da equação (2.10) vemos que, se a força é ortogonal à velocidade, a energia cinética se con-

28
serva. Ou seja,

dK
F·v =0 =⇒ = 0. (2.12)
dt
Este caso inclui o da partícula livre, em que F = 0.
Vamos supor que a força F seja derivada de um potencial, ou seja,

F = −∇V, (2.13)

em que ∇ é o operador gradiente:


 
∂V ∂V ∂V ∂V
∇V → , , ≡ = ∂i V. (2.14)
∂x1 ∂x2 ∂x3 ∂xi

Então, (2.9) resulta em

dxi ∂V
 
d 1 dV
m ẋi ẋi = Fi ẋi = −ẋi ∂i V = − i
=− . (2.15)
dt 2 dt ∂x dt

Neste caso,

d
(K + V ) = 0. (2.16)
dt
Portanto, se a força é derivada de um potencial, temos uma constante de movimento:

Definição 9. (Energia mecânica)


O escalar

E =K +V (2.17)

é denominado energia mecânica da partícula, quando é uma constante de movimento. O


escalar V , cujo gradiente é o negativo da força que age sobre a partícula, é denominado energia
potencial.

A energia mecânica é a primeira quantidade conservada que encontramos na mecânica new-


toniana. Sua própria definição depende de sua invariância temporal: estritamente, não se define
energia mecânica de sistemas cuja força não se derive de um potencial (salvo algumas exceções).

2.3.3 Trabalho
Vamos supor uma partícula de massa m submetida a uma força F (x), ou seja, que dependa
apenas da posição, mas não da velocidade ou do tempo. A partícula executa uma trajetória
γ ⊂ E3 definida pelo vetor posição x (t). Podemos integrar a força ao longo da trajetória, o que
resulta na integral de linha
ˆ x(t1 )
W [γ] = F (x) · dx. (2.18)
x(t0 )

Temos:
Definição 10. (Trabalho)
O funcional W : γ → R definido em (2.18) é o trabalho executado pela força na trajetória γ,
entre os pontos x (t0 ) e x (t1 ).
Agora, vamos estudar o seguinte teorema:

29
Teorema 1. (Teorema trabalho-energia cinética)
O trabalho realizado por uma força F (x) é igual à diferença entre as energias cinética final e
inicial da partícula.

Demonstração: Note que


ˆ x(t1 ) ˆ t1
F (x) · dx = F (x) · ẋdt
x(t0 ) t0

e, como vimos em (2.10),


 
d 1 dK
F · ẋ = m ẋ2 = .
dt 2 dt

Então,
ˆ x(t1 ) ˆ t1
dK
F (x) · dx = dt = K (x (t1 )) − K (x (t0 )) .
x(t0 ) t0 dt

Portanto,

W [C] = K (t1 ) − K (t0 ) = ∆K.  (2.19)

No geral, o trabalho entre dois pontos depende da trajetória, o que torna difícil calcular o lado
direito de (2.19) sem conhecer a trajetória em si. Existem forças, contudo, que não possuem este
problema:

Definição 11. (Forças conservativas)


Forças conservativas são aquelas cujo trabalho independe da trajetória.

Vamos supor dois pontos A e B e duas curvas C1 e C2 distintas conectando ambos os pontos.
Para que o trabalho não dependa da trajetória, temos
ˆ ˆ
W = F · dx = F · dx.
C1 C2

Portanto,
ˆ ˆ
F · dx − F · dx = 0.
C2 C1

Esta expressão significa que o trabalho de A a B sobre a curva C2 é igual à negativa do trabalho
de A a B pela curva C1 . Por sua vez, esta última integral é igual à negativa da integral de B a A
sobre C1 . Dessa forma, sabendo-se que C1 e C2 formam, juntas, uma trajetória fechada C,
˛
F · dx = 0. (2.20)

Uma força é conservativa, portanto, quando o trabalho realizado sobre qualquer trajetória
fechada é nulo.

30
Figura 2.1: O trabalho de uma força conservativa: À esquerda, se o trabalho calculado entre os
pontos A e B é o mesmo para duas trajetórias quaisquer C1 e C2 , implica-se que o trabalho em
qualquer trajetória C fechada (à direita) é nulo.

O teorema de Stokes, por outro lado, nos mostra que


˛ ˆ
F · dx = (∇ × F) · n̂dσ, (2.21)
C Σ

em que ∇ × F é o rotacional do campo F, Σ ⊂ R3 é uma superfície bidimensional cuja fronteira é


C (dizemos que C = ∂Σ), dσ é um elemento de área de Σ e n̂ é um vetor unitário ortogonal a Σ
em cada ponto.
Note que Σ pode ser simplesmente qualquer superfície cuja fronteira seja a curva fechada C.
Portanto
˛
F · dx = 0 =⇒ ∇ × F = 0. (2.22)
C

Dizemos, assim, que toda força irrotacional é conservativa.


Além disso, todo vetor euclidiano tridimensional pode ser decomposto da seguinte forma:

A = AT + AL ,

em que os vetores transversal AT e longitudinal AL obedecem às equações

∇ · AT = 0, ∇ × AL = 0.

Este é o conhecido teorema de Helmholtz. Este teorema pode ser utilizado para provar que, se F
é um campo vetorial irrotacional, então

F = −∇V, (2.23)

em que V é um escalar. Então, toda força conservativa é proporcional ao gradiente de um poten-


cial.
Agora, vamos supor uma força conservativa F (x) e dois pontos A e B sobre uma curva C. O
trabalho realizado pela força é dado por
ˆ
W [C] = F · dx.
C

31
Com (2.23), temos
ˆ xB
W [C] = − dx · ∇V (x) = − [V (xB ) − V (xA )] = V (xA ) − V (xB ) . (2.24)
xA

Do teorema trabalho-energia cinética, temos

W [C] = K (xB ) − K (xA ) ,

Portanto,

V (xA ) − V (xB ) = K (xB ) − K (xA ) ,

ou,

V (xA ) + K (xA ) = V (xB ) + K (xB ) , (2.25)

que é uma forma global da conservação da energia mecânica E (vide eqs. (2.16) e (2.17)).

2.3.4 Momento angular

Definição 12. (Momento angular)


O momento angular de uma partícula em um ponto x ∈ E3 é definido por

L (x) ≡ x × p (x) . (2.26)

Em notação tensorial, escrevemos

Li = ijk xj pk , (2.27)

em que

1

 se (ijk) = (123) , (231) , ou (312) ,
ijk
 = 0 se i = j, j = k, ou k = i, (2.28)

−1

se (ijk) = (132) , (213) , ou (321) ,

o símbolo completamente antissimétrico em três dimensões, conhecido como símbolo de Levi-


Civita.

Definição 13. (Torque)


Seja x a posição de uma partícula como referência de origem um ponto fixo, e uma força F
aplicada no ponto x. O torque de F em x é definido por

N ≡ x × F (x) . (2.29)

Vamos tomar a derivada temporal do momento angular:

L̇ (x) = ẋ × p (x) + x × ṗ (x) .

Contudo,

ẋ × p (x) = mẋ × ẋ = 0,

32
portanto,

L̇ (x) = x × ṗ (x) = x × F (x) = N (x) , (2.30)

que é a definição de torque no ponto x. Portanto, em coordenadas cartesianas, o torque é a


derivada temporal do momento angular. Se o torque, como medido por um referencial inercial
com sistema cartesiano é nulo, temos

L̇ = 0, (2.31)

ou seja, o momento angular se conserva.

2.4 Resumo
Uma releitura das leis de Newton, substituídas pela introdução dos referenciais inerciais e do
princípio da conservação do movimento, permitiu uma definição formal de momento e força. As
variáveis dinâmicas que vêm diretamente desta abordagem são dadas por
P
Momento: Em um sistema de partículas isolado, p ≡ I mI vI é uma quantidade vetorial
conservada, enquanto pI ≡ mI vI é definido como o momento linear da partícula I.
P
Força: Se p é conservado, temos ṗ = 0, o que implica I mI v̇I = 0. A quantidade FI ≡
ṗI = mI v̇I = mI aI é definida como a força que age sobre a partícula I. Em um sistema
P
isolado, a conservação do momento implica em I FI = 0.

Energia: Cada partícula I de um sistema isolado possui uma quantidade denominada ener-
gia cinética KI = (1/2) mI vI2 , cuja derivada temporal é igual à potência vI · FI dissipada
ou absorvida pela partícula devido à interação com as demais. Se a força FI é deri-
vada de um potencial escalar, este potencial é denominado energia potencial V . Neste
caso a quantidade EI = KI + VI é uma quantidade conservada da partícula I, denomi-
P
nada energia mecânica. Para um sistema isolado, E = I EI é a energia mecânica do
sistema, se Ė = 0.
´
Trabalho: É o funcional definido por W ≡ C F · dr em uma curva C ⊂ E3 , e consiste na dife-
rença entre a energia cinética final e inicial, de acordo com o teorema trabalho-energia
cinética. Sistemas conservativos são definidos como aqueles cujo trabalho depende ape-
nas do ponto inicial e final do movimento. Neste caso, a força é o gradiente (negativo) da
energia potencial: F = −∇V . Para estes sistema, existe uma energia mecânica conser-
vada.

Momento angular e torque: São definidos por L ≡ x × p e N ≡ x × F respectivamente, em


coordenadas cartesianas. Para sistemas inerciais, N = L̇.

2.5 Exercícios
1. Considere dois referenciais (O, {x}) e (O0 , {y}) em um espaço euclidiano tridimensional.
Ambos os observadores O e O0 encontram-se na origem de seus respectivos sistemas de
coordenadas {x} e {y}, ambos cartesianos. A origem de {y} desloca-se com velocidade u
constante, com relação ao sistema {x}, de modo que a origem de {x} coincide com a origem
de {y} no instante t = 0 e os eixos de ambos os sistemas de coordenadas sejam sempre
paralelos (sem rotação).

(a) Encontre a transformação de coordenadas entre {x} e {y}, e sua inversa. Esta é cha-
mada transformação de Galilei e define a transformação entre dois referenciais iner-

33
ciais na mecânica newtoniana.
(b) Mostre que a distância entre dois pontos do espaço é preservada por esta transforma-
ção.
(c) Se uma partícula de massa m tem velocidade v constante com relação ao sistema
{x}, qual sua velocidade com relação ao sistema {y}? Esta relação define a lei de
composição de velocidades na mecânica newtoniana.
(d) Se a partícula acima passa a ter aceleração a com relação ao sistema {x}, qual sua
aceleração com relação ao sistema {y}?
(e) Com o resultado acima, mostre que a segunda lei de Newton é invariante por uma
transformação de Galilei.

2. Mostre que, sejam A e B duas matrizes quadradas 2 × 2, as componentes do produto ma-


i
tricial são dadas por (AB) j = Aik B kj .

3. Demonstre as seguintes propriedades do tensor de Levi-Civita em três dimensões:

(a) ijk kmn = δim δjn − δin δjm ;


(b) ijk njk = 2δin ;
(c) ijk ijk = 6.

4. Mostre que o produto vetorial entre dois vetores a e b em E3 pode ser escrito por

(a × b)i = ijk aj bk .

5. Demonstre as identidades vetoriais abaixo usando notação tensorial

(a) a · (b × c) = b · (c × a) + c · (a × b);
(b) a × (b × c) = (a · c) b − (a · b) c;
(c) (a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c).

6. Demonstre as identidades em E3 abaixo usando notação tensorial. Considere ψ uma função


escalar, A e B vetores.

(a) ∇ × ∇ψ = 0;
(b) ∇ · (∇ × A) = 0;
(c) ∇ × ∇ × A = ∇ (∇ · A) − ∇2 A;
(d) ∇ · (ψA) = A · ∇ψ + ψ∇ · A;
(e) ∇ × (ψA) = ∇ψ × A + ψ∇ × A;

7. Demonstre as seguintes identidades usando notação tensorial.

(a) ∇ (A · B) = (A · ∇) B + (B · ∇) A + A × (∇ × B) + B × (∇ × A);
(b) ∇ · (A × B) = B · (∇ × A) − A · (∇ × B);
(c) ∇ × (A × B) = A (∇ · B) − B (∇ · A) + (B · ∇) A − (A · ∇) B.

8. Mostre que, se x é um vetor posição, então ∇ · x = d, em que d é a dimensão do espaço.


Mostre também que ∇ × x = 0. Use notação tensorial.

9. Considere a trajetória unidimensional


r !
k
x (t) = A cos t ,
m

em que A e k são constantes e m é a massa da partícula que se submete ao movimento.

34
(a) Mostre que a força responsável por esta trajetória é a famosa lei de Hook com cons-
tante de mola k.
(b) Encontre a equação de movimento do sistema.
(c) Encontre a energia cinética do sistema.
(d) Encontre a energia potencial do sistema.
(e) Encontre a energia mecânica do sistema e mostre que ela é uma constante de movi-
mento.

35
36
Capítulo 3

Sistemas em uma dimensão

3.1 Soluções por quadraturas


Vamos supor uma partícula de massa m em uma dimensão, sujeita a uma força F (t, x, ẋ) definida
em uma única coordenada x ∈ E. Sistemas unidimensionais são definidos tendo como espaço
euclidiano a reta real Re, neste caso, vetores em R são simplesmente funções escalares reais de
uma variável independente. Produto interno e métrica sobre a reta real são igualmente triviais,
a distância entre dois pontos x1 e x2 é simplesmente dada pelo módulo |x1 − x2 |.
A equação diferencial que determina a trajetória percorrida pela partícula é dada por

mẍ = F (t, x, ẋ) , (3.1)

ou seja, dada a forma de F , resolver a equação diferencial ordinária acima nos fornece a tra-
jetória x (t) da partícula. No geral, F pode depender do tempo, das velocidades, e mesmo de
derivadas de ordem superior da coordenada. Contudo, os exemplos mais comuns na física se
resumem a dependência até derivadas de primeira ordem em t.
Uma forma alternativa e, frequentemente, mais poderosa de ser resolver o sistema (3.1) con-
siste em encontrar um observável, função das variáveis (t, x, ẋ), que seja uma constante de mo-
vimento. Podemos multiplicar (3.1) por ẋ, procedimento que já realizamos no capítulo 1 e que
repetiremos durante todo o curso:

0 = mẍ − F (t, x, ẋ)


= [mẍ − F (t, x, ẋ)] ẋ = mẍẋ − ẋF (t, x, ẋ)
 
d 1
= mẋ2 − ẋF (t, x, ẋ) .
dt 2
Agora, vamos supor F = F (x). Em uma dimensão, toda força que dependa apenas da posição é
conservativa. Portanto,
 
d 1 dx dV (x) dx dV
mẋ2 = F (x) =− =− ,
dt 2 dt dx dt dt
ou,
 
d 1
mẋ2 + V = 0. (3.2)
dt 2

A equação (3.2) implica em que o observável

1
E≡ mẋ2 + V (x) (3.3)
2

37
é uma constante de movimento, portanto, um número real. Neste caso, reconhecemos E como a
energia mecânica da partícula. Dizemos também que E é uma integral primeira do movimento,
já que o processo desde a equação (3.2) até a equação (3.3) implica em integrar uma vez no tempo.
Vamos manipular a equação (3.3) para encontrar uma forma geral de solução para a equação
(3.1), lembrando que estamos no caso de uma força conservativa. Invertendo-a para 1/ẋ = dt/dx,
temos
r r
2 [E − V (x)] dt m 1
ẋ = ± =⇒ = p ,
m dx 2 ± E − V (x)

ou,
r
m dx
dt = p . (3.4)
2 ± E − V (x)

O processo de inversão exige, claro, que a função x (t) seja inversível, ou seja, que exista uma
função t (x). Isto não pode ser sempre garantido em todos os pontos da reta real, mas podemos
supor que a inversa exista em certos intervalos de t. Neste caso, o procedimento é válido onde
quer que exista a função inversa t (x).
Integrando (3.4) em um intervalo [x0 (t0 ) , x (t)], obtemos
ˆ x
dx0
r
m
t − t0 = p . (3.5)
2 x0 ± E − V (x0 )

A integral em (3.5) é denominada quadratura. Note que, como E é uma constante de movimento,
este age como um parâmetro para a solução da integral: cada valor de E resulta em uma solução
distinta. A escolha de E é um dado inicial do problema descrito. Observando-se (3.3), vemos
que para fixar a energia mecânica precisamos definir a posição do sistema e sua velocidade em
determinado instante de tempo. A combinação energia cinética mais energia potencial dessas
variáveis é constante no tempo. A segunda constante de movimento é x0 , um dos dados iniciais
que soluciona a equação diferencial (3.1).
Os sinais ± na quadratura indicam que existem duas quadraturas para cada valor fixo de x0
e E. Neste caso, as condições físicas do sistema determinam se ambas as soluções são aceitáveis,
ou se apenas uma o é. Também pode ocorrer que ambas as soluções representem o mesmo
movimento, ou mesmo que ambas sejam fisicamente inaceitáveis.
Sabendo-se a forma do potencial, podemos resolver a quadratura e encontrar uma função de
x e x0 , tal que

t − t0 = Φ (x, x0 , E) , (3.6)

que pode ser invertida para resultar em

x = x (x0 , E, t) , (3.7)

que vem a ser a trajetória procurada. A condição para a existência da inversa (3.7) é dada por
dΦ/dx 6= 0 no intervalo descrito.
Na solução do problema em uma única dimensão, existem duas constantes de movimento que
determinam a trajetória única do sistema. São a posição inicial e a energia mecânica. Conhecer
estes dois observáveis invariantes determina univocamente a trajetória do sistema. Por outro
lado, a energia mecânica deve estar ligada ao conhecimento da velocidade da partícula em um
determinado instante de tempo, visto que a posição e velocidade iniciais são os dados iniciais
necessários para prover uma solução única para a equação (3.1). Esta velocidade pode ser dada

38
por
r
2
ẋ0 = ± [E − V (x0 )],
m

que vem diretamente da equação (3.3).


Dado que o conhecimento de x0 e E determina uma única solução (a menos dos sinais ±) para
a quadratura (3.5), dizemos que duas integrais de movimento são necessárias para integrar
o sistema, definindo sua integrabilidade. No entanto, outras constantes de movimento podem
existir, que não possuem relação com a integrabilidade do sistema mecânico. A dimensionalidade
e simetrias de determinado sistema possuem próxima relação com sua integrabilidade, no geral
exigindo o conhecimento de mais de uma integral, ou constante de movimento.

3.1.1 Pontos de retorno


O método de quadraturas é muito útil quando a integral possui uma solução analítica. Mesmo
quando essa solução não é possível de ser obtida, métodos numéricos e aproximações podem ser
empregados. Ainda assim, mesmo no caso mais geral, podemos tirar informações importantes da
equação (3.5). Por exemplo, vemos que a energia potencial do sistema nunca pode ser superior à
sua energia mecânica, sob pena de a raiz quadrada no denominador tornar-se complexa.

Figura 3.1: Potencial V (x) de uma partícula em movimento unidimensional com energia E. Os
pontos de retorno são x1 e x2 .

Vamos supor um exemplo gráfico em que V (x) é descrito como a curva em vermelho na figura
3.1.1. Se a partícula tem energia E, representada pela reta horizontal em preto, a partícula está
proibida de existir em pontos à esquerda de x1 e à direita de x2 . Esses são chamados pontos de
retorno do sistema e são definidos como os pontos em que E = V (x). Nestes pontos, a energia
cinética é nula devido à conservação da energia mecânica, portanto a partícula experimenta
um instante de velocidade nula. Caso a posição inicial da partícula esteja entre x1 e x2 , seu
movimento é oscilatório entre esses dois pontos. O período desse movimento é calculado como
duas vezes o tempo que o sistema leva para deixar um ponto de retorno e chegar ao segundo

39
ponto, ou seja,
√ ˆ x2
dx0
P = 2m p . (3.8)
x1 E − V (x0 )

Os pontos de retorno x1 e x2 são as raízes da equação E − V (x) = 0.


O método de quadraturas não pode ser usado, no geral, para sistemas em duas e três dimen-
sões, mas a equação (3.5) ainda vale para o módulo do vetor posição do sistema. Ou seja, não
podemos construir uma trajetória xi = xi (t) mas podemos determinar o comportamento do valor
absoluto da posição. Especialmente, a análise das raízes de E − V = 0 permanece válida em
qualquer dimensão.

3.1.2 Pontos críticos do potencial


Um ponto x = x0 é denominado ponto de equilíbrio (ponto crítico ou estacionário) de V (x) se a
sua primeira derivada for nula em x = x0 . Isto implica em que a força que age sobre o sistema
naquele ponto deve ser nula, visto que F = −V 0 (x). Existem três tipos de pontos de equilíbrio:
1. Equilíbrio estável: Qualquer perturbação sobre o sistema resulta em uma força restaura-
dora que tende a levar o sistema ao ponto de equilíbrio.

2. Equilíbrio instável, no qual uma perturbação no sistema tende a levá-lo para longe do ponto
de equilíbrio.

3. Equilíbrio indiferente, que não representa nenhum dos casos anteriores.


Se V (x) é analítico em x = x0 , V tem uma expansão em série de Taylor

1 dn
X  
n
V (x) = n
V (x) (x − x0 ) , (3.9)
n=0
n! dx x=x0

ou,

1 2
V (x) = V (x0 ) + V 0 (x0 ) (x − x0 ) + V 00 (x0 ) (x − x0 ) + · · · (3.10)
2
em x0 . Um potencial V (x) próximo a um ponto de equilíbrio (x − x0 ≈ 0), é aproximadamente
descrito em ordem mais baixa por

1 00 2
V (x) ≈ V (x0 ) (x − x0 ) . (3.11)
2
Vamos supor que V 00 (x0 ) ≡ a ∈ R seja positivo. Neste caso, a força que age sobre ao sistema
no ponto x é dada por

F (x) = −V 0 (x) = −a (x − x0 ) . (3.12)

Portanto, um desvio do sistema do ponto de equilíbrio x = x0 resulta em uma força na direção do


ponto de equilíbrio (note o sinal negativo) e, assim, este é um ponto estável. Isto também implica
em que x0 é um mínimo local de V (x), visto que a segunda derivada do potencial neste ponto é
positiva.
Se, por outro lado, a = V 00 (x0 ) < 0, temos

F (x) = a (x − x0 ) , (3.13)

o que significa que a força para x 6= x0 é positiva, portanto, tende a levar o sistema para longe
do ponto de equilíbrio. Nesta condição, x0 é um ponto de máximo local da função V (x) e, então,
este é um ponto de equilíbrio instável.

40
Se a = V 00 (x0 ) = 0, a análise deve ser levada para ordens superiores, por exemplo, o termo de
terceira ordem

1 d3 V

3
V (x) ≈ (x − x0 ) . (3.14)
3! dx3 x=x0

A terceira derivada pode ser um termo positivo, negativo ou nulo, levando às mesmas conclusões
acima. O equilíbrio indiferente ocorre apenas quando todas as derivadas de V (x) são nulas em
x = x0 .
Próximo a um ponto de equilíbrio estável, todo potencial unidimensional pode ser descrito
aproximadamente por

1 00 2
V (x) = V (x0 ) (x − x0 ) , (3.15)
2
com V 00 (x0 ) > 0. Este é o potencial de um oscilador harmônico simples com ponto de equilíbrio
em x0 , que analisaremos mais adiante.

3.2 Exemplos simples

3.2.1 Partícula livre

A partícula livre é aquela para a qual F = 0. Isto significa que V é uma constante. Neste caso,
E − V = Ec é constante e, assim, a energia cinética da partícula se conserva. Podemos assumir
que V = 0 sem perda de generalidade, assim como t0 = 0. Neste caso, (3.5) resume-se a
r ˆ x ˆ
dx0 m x 0
r r
m m
t= √ =± dx = ± (x − x0 ) . (3.16)
2 x0 ± E 2E x0 2E

Desta equação, obtemos


r
2E
x=± t + x0 . (3.17)
m
p
Se a energia é igual à energia cinética, 2E/m é igual ao módulo da velocidade da partícula.
Os sinais a frente deste coeficiente levam em conta que esta velocidade pode ser positiva ou
negativa. Portanto, a escolha da posição e velocidades iniciais determinam a trajetória que
segue o sistema. É imediato perceber que este sistema não possui pontos de retorno. Por outro
lado, todos os seus pontos são pontos de equilíbrio indiferente.

3.2.2 Força constante

Seja F (x) = F uma constante independente de x e t. Neste caso, V = −F x + G, em que G é uma


segunda constante que pode ser tomada nula. Neste caso, (3.5) resulta em (assume-se t0 = 0)
r ˆ x r ˆ x
m dx0 m dx0
t= p = √ . (3.18)
2 x0 ± E − V (x0 ) 2 x0 ± E + F x0

A solução da integral é dada por


ˆ x
dx0 2 √ p 
√ = ± E + F x − E + F x0 , (3.19)
0 F
x0 ± E + F x

41
e, então,
r r r !
2m E E
t=± +x− + x0 . (3.20)
F F F

Invertendo-se (3.20) para x, mostra-se que


r
E + F x0 1F 2
x = x0 ± t+ t . (3.21)
2m 2m

Neste caso,
r
E + F x0
v0 ≡ ± (3.22)
2m

é a velocidade inicial da partícula, e F/m é a aceleração, constante, da partícula. A equação


(3.21) é a conhecida equação para o movimento retilíneo uniformemente variado em termos das
constantes de movimento x0 e E. Há apenas um ponto de retorno neste sistema já que a equação
E − V = 0 é linear em x. Por outro lado, não há pontos de equilíbrio do potencial, visto que a
força é uma constante diferente de zero em todos os pontos.

3.2.3 Potenciais oscilatórios

Vamos tomar o exemplo do potencial

V (x) = −A cos x, (3.23)

relacionado ao pêndulo simples em uma dimensão. Neste exemplo, A > 0 e −π < x < π.
A energia mecânica é dada por

1
E = Ec + V = mv 2 − A cos x, (3.24)
2
em que v é a velocidade da partícula e m sua massa. Este problema é um exemplo cuja quadra-
tura
ˆ
dx
I= √ (3.25)
E + A cos x

não pode ser resolvida analiticamente. Contudo, ela pode ser resolvida numericamente para
diferentes ordens de precisão.
Este é um potencial propício para análise de movimento oscilatório. As raízes da equação
E − A cos x = 0 são dadas por

E
x1,2 = ± arccos . (3.26)
A
Note que A é o valor máximo do potencial, que ocorre quando x = ±π. Se E < A, a partícula
fica confinada entre os dois pontos de retorno (3.26). A energia não pode, contudo, ser menor que
E = −A. Neste ponto, em x = 0, a energia potencial é mínima, enquanto a energia cinética é
máxima. O período de movimento entre ambos os pontos de retorno é dado por
√ ˆ x2
dx0
P = 2m √ . (3.27)
x1 E + A cos x0

Se E > A, o sistema não possui pontos de retorno.

42
3.3 Osciladores

3.3.1 O oscilador harmônico simples

O oscilador harmônico simples em uma dimensão pode ser descrito por uma partícula sujeita à
lei de lei de Hooke

F = −kx, (3.28)

em que k é uma constante positiva. Esta força é derivada do potencial

1 2
V = k (x − x0 ) , (3.29)
2
que tem a mesma forma de um potencial aproximado ao redor de um ponto de equilíbrio estável
(3.11). Vamos supor que x0 = 0 sem perda de generalidade.
A equação diferencial que descreve o oscilador é dada por

mẍ + kx = 0 =⇒ ẍ + ω 2 x = 0, (3.30)
p
em que ω ≡ k/m é sua frequência angular. A solução tem uma óbvia forma exponencial, que
podemos encontrar reescrevendo (3.30) na forma
 2    
d 2 d d
+ ω x = 0 =⇒ + iω − iω x = 0, (3.31)
dt2 dt dt

que resulta nas equações de primeira ordem


 
d
± iω x = 0, (3.32)
dt

com soluções

x (t) = exp [±iω (t − t0 )] . (3.33)

Uma forma interessante de se obter as soluções linearmente independentes das equações


(3.32) é através de um método que utiliza decomposição em diferenças finitas. Note que (3.32)
pode ser escrita na forma

dx = ±iωxdt,

em que, aqui, dx e dt são elementos infinitesimais. Suponha, agora, que com o conhecimento
da posição inicial x0 = x (t = t0 ), desejamos saber a posição final x (t) em um certo instante de
tempo finito t. Podemos dividir o intervalo de tempo [t0 , t] em n partições de tamanhos dt iguais.
Assim, por exemplo, a expressão

x1 − x0 = ±iωx1 dt =⇒ x1 = x0 ± iωx1 dt

nos dá a posição x1 a partir de x0 , passado uma partição dt no tempo. Se ∆t = t − t0 , então


∆t = ndt, ou seja,

∆t
x1 = x0 ± iωx1 .
n
A expressão acima é uma equação de iteração. Substituindo-se esta expressão em x1 no último

43
termo, temos
 
∆t ∆t ∆t
x1 = x0 ± iω x0 ± iωx1 ≈ x0 ± iωx0 ,
n n n

em que consideramos apenas o termo linear em ∆t, como aproximação em primeira ordem. As-
sim,
 
∆t
x1 = x0 1 ± iω .
n

Todas as partições são iguais, de modo que


   2  n
∆t ∆t ∆t
x2 = x1 1 ± iω = x0 1 ± iω =⇒ x = x0 1 ± iω .
n n n

No limite n → ∞, temos
 n
∆t
x = lim 1 ± iω x0 = x0 exp (±iω∆t) .
n→∞ n

A solução geral da equação de segunda ordem (3.30) é uma combinação linear das soluções
(3.33), que pode ser colocada na forma

x (t) = A cos ω (t − t0 ) + B sin ω (t − t0 ) , (3.34)

em que A e B são constantes que dependem das condições iniciais.


Supondo-se t0 = 0 (o que sempre pode ser feito), x0 = A e ẋ0 = 0, temos que B = 0, ou seja,

x (t) = A cos ωt. (3.35)

Ainda,

v (t) = −Aω sin ωt, a (t) = −Aω 2 cos ωt. (3.36)

Se preferirmos, podemos utilizar as expressões usuais Ec = (1/2) mv 2 e V = (1/2) kx2 para


encontrar a energia total do sistema:

1  1
E= m ẋ2 + ω 2 x2 = mω 2 A2 . (3.37)
2 2
Portanto, a amplitude de oscilação depende da energia,
r
2E
A= . (3.38)
mω 2

Como o sistema é unidimensional, podemos resolver a equação (3.30) por uma quadratura.
Neste caso,
r ˆ x
m dx0
t − t0 = p
2 x0 ± E − (1/2) mω 2 x02
ˆ ˆ x
1 x dx0 1 dx0
= ± √ =± q , (3.39)
ω x0 A2 − x02 ωA x0 2
1 − (x0 /A)

44
em que A é dado por (3.38). A seguinte substituição trigonométrica pode ser efetuada:

x0
= cos u =⇒ dx0 = −A sin udu, (3.40)
A
de modo que
ˆ x ˆ u
1 sin udu 1 1h xi
t − t0 = ∓ √ =∓ du = ∓ arccos , (3.41)
ω x0 1 − cos2 u ω u0 ω A

o que resulta em

x (t) = A cos ωt, (3.42)

para t0 = 0.
Para calcular o período de oscilação, temos que conhecer os pontos de retorno do potencial.
Eles são calculados por x2 = A2 , ou seja, são os pontos x = A e x = −A. Assim,

√ ˆ A ˆ 0 ˆ π
dx0 2 2 2π
T = 2m √ =− du = du = . (3.43)
2
A −x 02 ω ω ω
−A π 0

Este período independe da energia.

3.3.2 O espaço de estados do oscilador

Outra maneira de resolver a equação para o oscilador harmônico simples é reduzir a ordem da
equação (3.30). Neste caso, o problema de se resolver uma equação diferencial ordinária linear de
segunda ordem recai sobre o problema de resolver duas equações diferenciais ordinárias lineares
de primeira ordem.
Vamos tomar a equação

ẍ + ω 2 x = 0, (3.44)

e definir a variável

y ≡ ẋ. (3.45)

Neste caso, temos

ẏ + ω 2 x = 0. (3.46)

Se considerarmos as variáveis (x, y) como independentes entre si a princípio, podemos resol-


ver o sistema

ẋ = y, (3.47a)
2
ẏ = −ω x, (3.47b)

para encontrar as funções x (t) e y (t). O espaço E das variáveis (x, y) é chamado espaço de
estados.
Apesar de assumirmos independência entre x e y, as equações (3.47) determinam um traje-
tória em E. Note que, se

x = A cos ωt,

45
então

y = −Aω sin ωt.

Então,

y2
x2 + = A2 cos2 ωt + A2 sin2 ωt = A2 ,
ω2
ou seja,
 x 2  y 2
+ = 1, (3.48)
A Aω
que vem a ser uma elipse em E. Lembre-se que A = A (E), então,

x2 y2
+ = 1. (3.49)
2E/k 2E/m
p p
Cada valor de E corresponde a uma elipse com eixos de tamanho 2E/k e 2E/m. Note que
(3.49) resulta em
1 1 1 1
E= my 2 + kx2 = mẋ2 + kx2 , (3.50)
2 2 2 2
que é exatamente a expressão da energia mecânica. Assim, a energia mecânica determina a
órbita do oscilador em E. Duas órbitas com diferentes valores de energia nunca se cruzam.

3.3.3 Oscilador harmônico amortecido

Uma das situações físicas mais realistas em que osciladores estão envolvidos diz respeito ao os-
cilador unidimensional com um termo de dispersão. Um oscilador com dispersão pode ser com-
preendido como um oscilador harmônico no qual age uma força de amortecimento, geralmente
assumida na forma

Fd = −bẋ, (3.51)

ou Fd = −bẋ, em uma dimensão. Se b > 0, o sinal negativo indica que a força é restauradora,
mas depende linearmente da velocidade do movimento oscilatório. O efeito desta força é o de di-
minuir a amplitude do movimento com o tempo. Note também que esta força não é conservativa,
portanto a energia mecânica do sistema não é definida.
A equação relevante é dada por

mẍ + bẋ + kx = 0,

em que o segundo termo diz respeito à força de dispersão, enquanto o terceiro é a força de oscila-
ção. Também podemos escrever

ẍ + 2β ẋ + ω02 x = 0, (3.52)
p
em que β ≡ b/2m é o parâmetro de dissipação, enquanto ω0 = k/m é a frequência angular
característica do oscilador.
Em termos de operadores diferenciais temos (D ≡ d/dt),

D2 + 2βD + ω02 x = 0.

(3.53)

46
Observe a seguinte equação de segundo grau:

r2 + 2βr + ω02 = 0.

Suas raízes são


p
−2β ± 4β 2 − 4ω02
q
r= = −β ± β 2 − ω02 .
2
Portanto, podemos escrever
 q  q 
D + β − β 2 − ω02 D + β + β 2 − ω02 x = 0.

As duas equações de primeira ordem deste sistema são dadas por


 
d
q
2 2
+ β ± β − ω0 x = 0, (3.54)
dt

que tem soluções


 q    q 
x (t) = exp −β ± β 2 − ω02 t = exp (−βt) exp ± β 2 − ω02 t . (3.55)

A solução geral é a combinação linear


 q   q 
x (t) = exp (−βt) A1 exp β 2 − ω02 t + A2 exp − β 2 − ω02 t . (3.56)

Podemos reescrever os coeficientes A1,2 → A1,2 (t) = A1,2 exp (−βt), resultando em
q   q 
2 2 2 2
x (t) = A1 (t) exp t β − ω0 + A2 (t) exp −t β − ω0 . (3.57)

3.3.4 Movimento subamortecido

Vamos supor, primeiro, o caso em que β 2 < ω02 . Podemos definir um parâmetro

ω12 ≡ ω02 − β 2 > 0, (3.58)

portanto,

x (t) = A1 (t) exp (iω1 t) + A2 (t) exp (−iω1 t) ,

ou,

x (t) = A exp (−βt) cos ω1 t, (3.59)

supondo-se x (0) = A como condição inicial.


O movimento descrito por (3.59) lembra um movimento oscilatório (embora não o seja), em
que a amplitude A (t) = Ae−βt cai exponencialmente com o tempo. Por esta razão, ω1 é denomi-
nado frequência angular do oscilador.
O sistema não possui potencial bem definido. No entanto, podemos definir a energia mecânica
supondo o caso de um oscilador harmônico simples, cuja energia é bem definida, de modo que,
em um dado instante de tempo, a força dissipativa é ligada. A energia mecânica do oscilador

47
livre é dada por

1
E= mω02 A2 .
2
Quando a força é ligada, o efeito é sentido por ω0 , que se torna ω1 , e na amplitude A, que agora
depende do tempo na forma A (t) = Ae−βt . Portanto,

1 1
E= mω12 A2 (t) = mω12 A2 exp (−2βt) . (3.60)
2 2

3.3.5 Movimento crítico

No segundo caso, temos β 2 = ω02 , em que o movimento é denominado crítico. Neste caso, ambas
as raízes da equação em r são iguais. Portanto, a equação diferencial torna-se
2
D2 + 2βD + β 2 x = (D + β) x = 0.

(3.61)

Podemos escrever

y ≡ (D + β) x =⇒ (D + β) y = 0. (3.62)

A equação y = 0 é uma solução trivial da segunda equação. Assim,

(D + β) x = 0 =⇒ x = exp (−βt) . (3.63)

Substituindo esta em (D + β) y = 0 vemos que (3.63) é uma solução.


Contudo, note que

x0 = t exp (−βt) (3.64)

resulta em

(D + β) x0 = D (t exp (−βt)) + βt exp (−βt)


= exp (−βt) − βt exp (−βt) + βt exp (−βt)
= exp (−βt) = x.

Portanto, (3.63) e (3.64) são soluções linearmente independentes de (3.61). A solução geral pode
ser escrita por

x (t) = (A + Bt) exp (−βt) . (3.65)

Ainda,

ẋ (t) = B exp (−βt) − β (A + Bt) exp (−βt)


= B [1 − βt] exp (−βt) − βA exp (−βt) .

Se ẋ (0) = 0, temos B = βA, ou seja,

x (t) = x0 (1 + βt) exp (−βt) , (3.66)

em que x0 = x (0) = A é a posição inicial.

48
3.3.6 Movimento superamortecido

No caso do movimento superamortecido, temos β 2 > ω02 . A solução vem a ser

x (t) = A1 (t) exp (ω2 t) + A2 (t) exp (−ω2 t) , (3.67)

em que ω22 ≡ β 2 − ω02 .


Esta solução pode ser escrita por

x (t) = A1 exp [(ω2 − β) t] + A2 exp [− (ω2 + β) t] . (3.68)

Como ω22 < β 2 , temos

−β < ω2 < β. (3.69)

Vamos supor o estado inicial ẋ (0) = 0. Assim,

ẋ (0) = A1 (ω2 − β) − A2 (ω2 + β) = (A1 − A2 ) ω2 − (A1 + A2 ) β.

Temos, então,
   
x0 β x0 β
A1 = 1+ e A2 = 1− . (3.70)
2 ω2 2 ω2

em que x0 = x (0) = A1 + A2 é a posição inicial.


Portanto, a solução geral pode ser escrita por
   
x0 β x0 β
x (t) = 1+ exp [(ω2 − β) t] + 1− exp [− (ω2 + β) t] . (3.71)
2 ω2 2 ω2

3.3.7 Oscilador harmônico forçado

Vamos, por simplicidade, considerar um oscilador harmônico simples em uma dimensão, sem
um termo de dispersão, mas que sinta a presença de uma força externa que dependa apenas do
tempo. Neste caso, temos

mẍ + mω02 x = F (t) . (3.72)

Multiplicando (3.72) por ẋ, temos


 
d 1 1
0 = mẍẋ + mω02 xẋ − F (t) ẋ = mẋ2 + mω02 x2 − F (t) ẋ.
dt 2 2

A força F (t) pode ser derivada do seguinte potencial, Vf (t, x) = −F (t) x. Neste caso,

dVf dVf ∂Vf


−ẋF (t) = ẋ = − ,
dx dt ∂t
o que resulta em
 
d 1 1 ∂
mẋ2 + mω02 x2 + Vf (t, x) = Vf (t, x) . (3.73)
dt 2 2 ∂t

Embora possamos denominar

1 1
E= mẋ2 + mω02 x2 + Vf (t, x) , (3.74)
2 2

49
como a energia do oscilador forçado apenas por licença poética, esta quantidade não é conser-
vada.

Resolver (3.72) requer o conhecimento da solução geral da equação homogênea,

ẍ + ω02 x = 0,

e uma solução particular da equação inomogênea. A solução da parte homogênea é dada por

xh (t) = A cos (ω0 t − ) , (3.75)

em que  é uma fase que deixaremos explícita.

A solução particular depende, claro, da forma de F (t). Vamos supor que ela tenha a forma

F (t) = F0 cos ωt, (3.76)

em que F0 é a amplitude da força e ω a frequência de oscilação do termo de forçamento. A equação


do sistema toma a forma

ẍ + ω02 x = f0 cos ωt, (3.77)

em que f0 = F0 /m.

Vamos tentar a seguinte solução particular:

xp (t) = G cos (ωt − δ) . (3.78)

Neste caso,

ẋp (t) = −ωG sin (ωt − δ) (3.79)

ẍp (t) = −ω 2 G cos (ωt − δ) . (3.80)

Temos

ẍp + ω02 xp − f0 cos ωt = −ω 2 G cos (ωt − δ) + ω02 G cos (ωt − δ) − f0 cos ωt


 2
ω0 − ω 2 G cos (ωt − δ) − f0 cos ωt

=
G ω02 − ω 2 [cos (ωt) cos δ + sin (ωt) sin δ] − f0 cos ωt
 
=
  2
G ω0 − ω 2 cos δ − f0 cos (ωt) + G ω02 − ω 2 sin δ sin (ωt) = 0.
   
=

Precisamos, neste caso, que δ = 0. Assim,

f0 f0
G= =⇒ xp (t) = cos ωt. (3.81)
ω02 − ω2 ω02 − ω2

A solução geral é dada por

f0
x (t) = xh (t) + xp (t) = A cos (ω0 t − ) + cos ωt. (3.82)
ω02 − ω 2

Note que x0 = x (0) = A cos (−) + G. Tomando-se  = 0, temos

f0
A = x0 − G = x0 − . (3.83)
ω02 − ω 2

50
3.3.8 Oscilador harmônico forçado com dispersão

O caso completo é dado pela equação

ẍ + 2β ẋ + ω02 x = f (t) , (3.84)

em que f = F/m e F (t) é a força que age sobre o sistema. A solução geral da equação homogênea
é dada por
q   q 
xh (t) = A1 e−βt exp t β 2 − ω02 + A2 e−βt exp −t β 2 − ω02 , (3.85)

que é uma solução que tende ao ponto de equilíbrio xh = 0 para t → ∞.

Vamos supor que a força seja dada por

f (t) = f0 cos ωt. (3.86)

Podemos tentar novamente a solução particular

xp (t) = G cos (ωt − δ) . (3.87)

Neste caso, usando (3.79) e (3.80), temos

ẍp + 2β ẋ + ω02 xp − f0 cos ωt = −ω 2 G cos (ωt − δ) + ω02 G cos (ωt − δ) − f0 cos ωt


−2βωG sin (ωt − δ)
= ω0 − ω 2 G cos (ωt − δ) − f0 cos ωt − 2βωG sin (ωt − δ)
 2 

= G ω02 − ω 2 [cos (ωt) cos δ + sin (ωt) sin δ]


 

−2βωG [sin (ωt) cos δ − sin δ cos (ωt)] − f0 cos ωt


  2
G ω0 − ω 2 cos δ + 2βω sin δ − f0 cos (ωt)
 
=
+ G ω02 − ω 2 sin δ − 2βω cos δ sin (ωt) = 0.
   

Temos, do coeficiente de sin ωt,

ω02 − ω 2 sin δ − 2βω cos δ = 0,




que resulta em

2βω
tan δ = . (3.88)
ω02 − ω 2

Imediatamente, vemos que

2βω ω02 − ω 2
sin δ = q , cos δ = q . (3.89)
2 2
(ω02 − ω 2 ) + 4β 2 ω 2 (ω02 − ω 2 ) + 4β 2 ω 2

Do coeficiente de cos ωt,


f0
G =
[(ω02 − ω 2 ) cos δ + 2βω sin δ]
q
2
(ω02 − ω 2 ) + 4β 2 ω 2 f0
= f0 2 =q . (3.90)
2 2
(ω0 − ω ) + 4β ω 2 2 2
(ω02 − ω 2 ) + 4β 2 ω 2

51
Neste caso, a solução particular torna-se
 
f0 2βω
xp (t) = q cos (ωt − δ) , δ = arctan 2 . (3.91)
2 ω0 − ω 2
(ω02 − ω 2 ) + 4β 2 ω 2

Com o passar do tempo, a solução particular torna-se importante, pois a solução homogênea
tende a zerar sua amplitude. Neste caso, na maioria dos sistemas o estudo da solução

f0
x (t → ∞) = q cos (ωt − δ) (3.92)
2
(ω02 − ω 2 ) + 4β 2 ω 2

é de maior interesse.
A condição de ressonância é definida como aquela em que a amplitude G é máxima. Neste
caso, temos

dG
Gmax =⇒ = 0. (3.93)

Assim,
 
dG d  f0 h i−3/2 d h i
 = f0 ω02 − ω 2 2 + 4β 2 ω 2
2
ω02 − ω 2 + 4β 2 ω 2

= q
dω dω 2 dω
(ω02 − ω 2 ) + 4β 2 ω 2
h 2 i−3/2  d 2

= f0 ω02 − ω 2 + 4β 2 ω 2 ω02 − ω 2 + 8β 2 ω

h 2
i −3/2
= f0 ω02 − ω 2 + 4β 2 ω 2 −4 ω02 − ω 2 + 8β 2 ω = 0,
   

ou seja,

ω02 − ω 2 − 2β 2 = 0 2
= ω02 − 2β 2 .

=⇒ ωR (3.94)

2
Neste caso, temos que ωR = ω02 − 2β 2 é a frequência de ressonância do oscilador.
Note que, se β = 0, voltamos ao caso do oscilador livre, em que ω0 é a frequência de oscilação.
A medida que β aumenta, a frequência de ressonância diminui e, assim, o termo dissipativo
tende a agir no sentido de dificultar a oscilação. No geral, medimos a qualidade da oscilação pelo
termo
s
ωR 1 ω2
Q≡ = + 02 . (3.95)
2β 2 4β

Quanto maior o valor de Q, maior é a qualidade de oscilação.

3.4 Resumo

3.5 Exercícios

52
Capítulo 4

O problema de duas partículas e


campos centrais

4.1 O centro de massa

Como vimos no capítulo 2, um sistema de partículas isolado tem momento total conservado, o que
implica que a soma das forças que agem sobre suas partículas é nula. Se o sistema for composto
de duas partículas isoladas de massas m1 e m2 , temos

m1 ẍ1 + m2 ẍ2 = 0, (4.1)

ou seja, a força F1 que age sobre a partícula 1 é igual a −F2 , o oposto da força que age sobre a
partícula 2. Assim, temos

F1 ≡ m1 ẍ1 , F2 ≡ m2 ẍ2 . (4.2)

A equação (4.1) resulta em

d2 m1 x1 + m2 x2 d2 R
 
m1 ẍ1 + m2 ẍ2
0 = (m1 + m2 ) = (m1 + m2 ) 2 ≡M 2 , (4.3)
m1 + m2 dt m1 + m2 dt

em que definimos a massa total do sistema M ≡ m1 + m2 e o vetor


m1 x1 + m2 x2
R≡ , (4.4)
m1 + m2

denominado posição do centro de massa do sistema.

53
Figura 4.1: Posição do centro de massa R e posição relativa r entre duas partículas de massas
m1 e m2 .

A equação (4.3), ou seja, R̈ = 0, implica que o centro de massa do sistema executa um mo-
vimento inercial. Se escolhermos um sistema referencial com origem em R, este movimento
torna-se trivial e podemos determinar a dinâmica do sistema apenas com o movimento relativo
das massas m1 e m2 . Para tanto, basta subtrair as equações (4.2),
 
F2 F1 1 1
ẍ2 − ẍ1 = − =F + , (4.5)
m2 m1 m1 m2

em que F = F2 = −F1 é denominada a força relativa entre as duas partículas. A posição relativa
é definida por

r ≡ x2 − x1 (4.6)

e, portanto, (4.5) resulta em

µr̈ = F, (4.7)

em que

1 m1 m2
µ≡ 1 1 = (4.8)
m1 + m2
M

é chamada massa reduzida do sistema.


O sistema de dois corpos, portanto, pode ser estudado pelo sistema de equações

R̈ = 0, F = µr̈, (4.9)

que descrevem o movimento do centro de massa e o movimento relativo das partículas. O sistema
referencial em que R = 0 é chamado referencial do centro de massa do sistema, e neste caso
apenas o movimento relativo é relevante. O referencial do centro de massa é ideal, por exemplo,
nos problemas que envolvem forças centrais, F = F (|r|).
Em outras ocasiões, por exemplo no caso de espalhamento de duas partículas em laboratório,
o referencial do centro de massa pode não ser ideal. Considere o caso de um núcleo atômico
muito pesado, em repouso no referencial do laboratório, bombardeado por elétrons. O referencial
do núcleo é, neste caso, mais conveniente para estudar o sistema, já que o núcleo é milhares de

54
vezes mais pesado que um elétron e sentirá um efeito desprezível em seu movimento.
Conhecidos R e r, temos
m2
x1 = R − r, (4.10a)
M
m1
x2 = R + r. (4.10b)
M

4.2 Momento linear e momento angular


Por princípio, o momento linear do sistema é conservado, ou seja,

p = p1 + p2 (4.11)

tem derivada temporal nula. Desde que p1,2 = mẋ1,2 para ambas as partículas,

p = m1 ẋ1 + m2 ẋ2 = M Ṙ. (4.12)

e dp/dt = 0. Portanto, o momento total do sistema é o momento do centro de massa.


Cada partícula move-se com relação ao centro de massa do sistema e tem um momento an-
gular definido por

L1,2 ≡ x1,2 × p1,2 . (4.13)

Temos, para m1 ,
 m2   m2 
L1 = R− r × m1 Ṙ − ṙ
M M
d m2
= m1 R × Ṙ − (r × µR) + r × µṙ,
dt M
e para m2

d m1
L2 = m2 R × Ṙ + (r × µR) + r × µṙ.
dt M
A soma é dada por

L = L1 + L2 = r × µṙ, (4.14)

visto que R̈ = 0 =⇒ R × Ṙ = 0.
O torque total é calculado por

dL
N≡ = r × µr̈ = r × F. (4.15)
dt
Se F = F (r), ou seja, é proporcional à distância relativa, r×F = 0 e, portanto, o momento angular
é conservado. Este caso envolve movimentos em campos centrais (gravitacional e eletrostático) e
espalhamento central, cuja características principais são o fato de a força ser aplicada na direção
da linha imaginária que une as partículas. Ela exclui, por outro lado, forças de caráter magné-
tico, como as que envolvem cargas se movendo em campos produzidos por correntes elétricas.

4.3 Energia
Vamos tomar a equação (4.1)

m1 ẍ1 + m2 ẍ2 = 0,

55
e multiplicar pelas velocidades x1 e x2 :

m1 ẍ1 · ẋ1 + m2 ẍ2 · ẋ1 = 0,


m2 ẍ2 · ẋ2 + m1 ẍ1 · ẋ2 = 0.

Essas equações resultam em


 
d 1 2
m1 ẋ1 + F · ẋ1 = 0,
dt 2
 
d 1 2
m2 ẋ2 − F · ẋ2 = 0.
dt 2

Somadas, temos
 
d 1 1
m1 ẋ21 + m2 ẋ22 = F · ṙ. (4.16)
dt 2 2

No lado esquerdo, temos a variação temporal da energia cinética do sistema.


Vamos, agora, considerar as forças que agem em ambas as partículas no caso mais geral
possível. A força que age sobre m1 é F1 , consistindo em um campo vetorial dependente da posição
de m1 e m2 , ou seja, F1 = F1 (x1 , x2 ). O mesmo ocorre com a força em m2 : F2 = F2 (x1 , x2 ).
Especializando o sistema, vemos que que F1 = −F2 implica na necessidade de uma simetria na
expressão dessas forças. Especificamente, a força em qualquer caso deve ser a mesma para a
troca x1
x2 . Se as forças são conservativas, existem dois potenciais V1 (x1 , x2 ) e V2 (x1 , x2 ) tais
que
 
∂V1 ∂V1 ∂V1
F1 = −∇x2 V1 (x1 , x2 ) = − x̂ + ŷ + ẑ ,
∂x2 ∂y2 ∂z2
 
∂V2 ∂V2 ∂V2
F2 = −∇x1 V2 (x1 , x2 ) = − x̂ + ŷ + ẑ .
∂x1 ∂y1 ∂z1

O gradiente ∇x2 é tomado com base na posição de m2 , visto que ele é fonte da força que age em
m1 . O gradiente ∇x1 é tomado com base na posição de m1 , visto que ele é fonte da força que age
em m2 . Se a simetria x1
x2 se aplica, o ponto de aplicação torna-se irrelevante. Mas isto não
é válido no caso geral, principalmente com a presença de forças externas.
Se F = F2 = −F1 , temos que V = V2 = −V1 e podemos escrever F = −∇x1 V , ou seja,

∂V ∂Rj ∂V ∂rj ∂V m1 j ∂V ∂V
Fi = − = − − =− δi − δij j
∂xi1 i
∂x1 ∂R j i
∂x1 ∂r j M ∂R j ∂r
m1 ∂V ∂V
= − − i.
M ∂Ri ∂r
Se a força externa é nula, V não pode depender da posição do centro de massa. Esta simetria é
fundamental em sistemas isolados, em vista da conservação do momento linear. Portanto,

∂V
F = −r̂i . (4.17)
∂ri

Assim, (4.16) resulta em

d
(Ec + V ) = 0, (4.18)
dt
onde nota-se que

1 1 1 1
Ec = m1 ẋ21 + m2 ẋ22 = M Ṙ2 + µṙ2 (4.19)
2 2 2 2

56
é a energia cinética, que pode ser separada na energia do centro de massa, mais a energia do
movimento relativo com massa reduzida.

4.4 Forças centrais


Vamos supor um sistema de duas partículas de massas M e m, em que r é o vetor de separação
entre as partículas. Vamos supor também que o sistema seja isolado, o que implica em movi-
mento inercial do centro de massa do sistema. Neste caso, podemos escolher a posição do centro
de massa R = 0 em um sistema de coordenadas cartesiano, como sistema de referência (que
chamaremos sistema CM). Este sistema é obviamente inercial. Se M  m, o centro de massa
tende à posição da partícula M e, na aproximação para M → ∞, podemos dizer que r é igual à
posição da partícula m. Usaremos esta aproximação durante esta seção. Temos, então:

Definição 14. (Força central)

Se a força F de interação entre as partículas depender, em módulo, de r ≡ |r|, e estiver na


direção de r̂ = r/r, dizemos que F = F (r) r̂ é uma força central.

Toda força central é conservativa e, portanto, é derivada de um potencial V (r) tal que

F (r) = −∇V (r) , (4.20)

em que o gradiente é tomado no referencial do CM. O sistema de coordenadas cartesiano, con-


tudo, não é o melhor sistema para analisar a dinâmica da força (4.20). Se o potencial depende
apenas da distância entre as partículas, isto significa que, dado um valor de r, a superfície
2 2 2
x1 + x2 + x3 = r2 (4.21)

é uma superfície equipotencial, ou seja, V (r) é o mesmo para todos os pontos desta superfície.
A equação (4.21) define uma esfera em E3 e, portanto, dizemos que o sistema tem uma simetria
esférica. Então, usaremos o sistema de coordenadas esférico para analisar o sistema.
Faça o exercício 2 deste capítulo, para demonstrar a equação (4.138). Se V = V (r),
(4.138) implica em

dV
∇V (r) = r̂ , (4.22)
dr
então a força não depende das direções θ e ϕ.

4.4.1 Equações de movimento


Vamos ver o que ocorre com as equações dinâmicas. No sistema cartesiano, temos

µẍi = −∂i V, (4.23)

em que passaremos a usar a notação em componentes. Vamos definir as variáveis y i ≡ (r, θ, ϕ)


como as coordenadas esféricas. Sabemos que

x1 = r sin θ cos ϕ, x2 = r sin θ sin ϕ, x3 = r cos θ, (4.24)

podem ser escritas simbolicamente por

xi = xi y j .

(4.25)

57
Assim, temos as componentes das velocidades

dxi dy j ∂xi j ∂x
i
ẋi = = = ẏ , (4.26)
dt dt ∂y j ∂y j

e das acelerações,

∂xi ∂xi ∂xi ∂xi ∂ 2 xi


     
d d
ẍi = ẏ j = ÿ j + ẏ j = ÿ j + ẏ j ẏ k . (4.27)
dt ∂y j ∂y j dt ∂y j ∂y j ∂y k ∂y j

Faça o exercício 3 deste capítulo, para demonstrar as equações (4.139), (4.140) e (4.141).
De (4.140), vamos tomar a equação de movimento para x1 . Temos
1 h   i  
∂1 V = r̈ − θ̇2 + ϕ̇2 r sin θ cos ϕ + θ̈r + 2ṙθ̇ cos θ cos ϕ
µ
− (ϕ̈r + 2ṙϕ̇) sin θ sin ϕ − 2θ̇ϕ̇r cos θ sin ϕ.

Contudo,

∂V ∂r ∂V x1 ∂V dV
∂1 V = 1
= 1
= = sin θ cos ϕ . (4.28)
∂x ∂x ∂r r ∂r dr
Portanto,
1 dV h   i  
− sin θ cos ϕ = r̈ − θ̇2 + ϕ̇2 r sin θ cos ϕ + θ̈r + 2ṙθ̇ cos θ cos ϕ
µ dr
− (ϕ̈r + 2ṙϕ̇) sin θ sin ϕ − 2θ̇ϕ̇r cos θ sin ϕ. (4.29)

Os senos e cossenos nesta expressão são linearmente independentes. Isto significa que, para
que ela seja cumprida, devemos ter

1 dV  
+ r̈ − θ̇2 + ϕ̇2 r = 0, (4.30a)
µ dr
θ̈r2 + 2rṙθ̇ = 0, (4.30b)
2
ϕ̈r + 2rṙϕ̇ = 0, (4.30c)
θ̇ϕ̇r = 0. (4.30d)

A equação para x2 tem a forma


  
1 dV   
+ r̈ − θ̇2 + ϕ̇2 r sin θ sin ϕ = θ̈r + 2ṙθ̇ cos θ sin ϕ.
µ dr
+ (ϕ̈r + 2ṙϕ̇) sin θ cos ϕ + 2rθ̇ϕ̇ cos θ cos ϕ. (4.31)

Que resulta no mesmo sistema de equações 4.30.


Para x3 , temos
 
1 dV 2
 
+ r̈ − θ̇ r cos θ = − θ̈r + 2ṙθ̇ sin θ (4.32)
µ dr

que nos dá o sistema

1 dV
+ r̈ − θ̇2 r = 0, (4.33a)
µ dr
θ̈r2 + 2rṙθ̇ = 0. (4.33b)

Para que o sistema (4.30) e (4.33) tenha solução única, podemos tomar θ̇ = 0. Neste caso,

58
todas as equações reduzem-se a

θ̈ = 0, (4.34a)
2
ϕ̈r + 2rṙϕ̇ = 0, (4.34b)
1 dV
+ r̈ − ϕ̇2 r = 0. (4.34c)
µ dr

A solução na direção θ pode ser escolhida por

θ = constante. (4.35)

Isto significa que podemos escolher, como condição inicial, um valor particular para θ e este valor
será constante durante todo o movimento. Este fenômeno é conhecido por simetria polar, ou seja,
a independência da dinâmica com relação ao ângulo polar θ. O sistema de coordenadas pode ser

escolhido tal que θ = π/2 e, assim, o movimento ocorre no plano x1 , x2 .
Agora, tomemos (4.33b). Podemos escrever esta equação na forma

d
µr2 ϕ̇ = 0,

(4.36)
dt
que resulta em

µr2 ϕ̇ = `, (4.37)

em que ` é uma constante.


Note que, se θ̇ = 0, temos

ẋ1 = ṙ sin θ cos ϕ − ϕ̇r sin θ sin ϕ, (4.38a)


2
ẋ = ṙ sin θ sin ϕ + ϕ̇r sin θ cos ϕ, (4.38b)
3
ẋ = ṙ cos θ, (4.38c)

e, neste caso, o momento angular no referencial do CM é dado por


i
Li = µ (r × ṙ) = µijk xi ẋk . (4.39)

Assim,

L1 = µ (x2 ẋ3 − x3 ẋ2 ) = −µr2 ϕ̇ cos θ sin θ cos ϕ, (4.40a)


2 2
L = µ (x3 ẋ1 − x1 ẋ3 ) = −µr ϕ̇ cos θ sin θ sin ϕ, (4.40b)
3 2 2
L = µ (x1 ẋ2 − x2 ẋ1 ) = µr ϕ̇ sin θ, (4.40c)

que resulta em
2 
L2 = L21 + L22 + L23 = µr2 ϕ̇ cos2 θ sin2 θ cos2 ϕ + cos2 θ sin2 θ sin2 ϕ + sin4 θ

2  2 2
= µr2 ϕ̇ cos2 θ sin2 θ + sin4 θ = µr2 ϕ̇ sin2 θ = µr2 ϕ̇

para θ = π/2.

Portanto, ` = µr2 ϕ̇ o valor do momento angular total do sistema. Então, a simetria esférica
do problema nos leva à conservação do momento angular. Se o eixo z for escolhido tal que θ =
π/2, então L3 é a única componente do momento angular. Neste caso, o momento angular L =
µr2 ϕ̇ẑ = `ẑ é conservado e ` é uma integral primeira do movimento.
Resta a equação de movimento na direção radial. Ela é dada por

`2 1 dV
µr̈ − + = 0, (4.41)
µ r3 dr

59
em que usamos (4.37).

4.4.2 O potencial efetivo


O sistema com o qual iniciamos é um sistema de dois corpos com interação central. Cada corpo
possui 3 coordenadas espaciais, então o problema inicial requer 6 equações de Newton para ser
caracterizado. Com o referencial do centro de massa, o número de variáveis necessárias cai pela
metade, já que o movimento do centro de massa é trivial: de 6, temos a necessidade de apenas
3 variáveis, que podem ser as componentes da posição relativa r. Como o potencial depende
apenas da distância r, o uso de coordenadas esféricas nos mostra que outras duas coordenadas
são ambíguas: são os ângulos polares e azimutal. O primeiro pode ser escolhido arbitrariamente
e se mantém constante no tempo. Já a equação de movimento do segundo dá origem a uma lei
de conservação, a conservação do momento angular. Assim como a energia E é uma integral de
movimento do oscilador harmônico, o número de momento angular total ` também é uma integral
de movimento do problema de força central. Neste caso, o problema tornou-se unidimensional,
representado pela equação (4.41). Dizemos que o problema de força central entre dois corpos
possui um grau de liberdade.
Como em qualquer problema unidimensional, resolver a equação (4.41) requer uma terceira
integral de movimento que pode ser identificada pelo método das quadraturas. Note, primeiro,
que multiplicando a equação (4.41) por ṙ resulta em

`2 ṙ `2
 
dV d 1 2
µr̈ṙ − + ṙ = µṙ + + V = 0. (4.42)
µ r3 dr dt 2 2µr2

Portanto, temos que

1 2 `2
E= µṙ + +V (4.43)
2 2µr2

é uma integral primeira do movimento: a energia mecânica do sistema. Usando (4.37), vemos
que

1
µ ṙ2 + r2 ϕ̇2 + V,

E= (4.44)
2
que vem a ser a energia cinética (4.141) com θ = π/2, somada ao potencial.
Contudo, voltando ao problema unidimensional, podemos definir um potencial efetivo

`2
Vef (`, r) ≡ + V (r) . (4.45)
2µr2

Neste caso, temos

1 2
µṙ + Vef (`, r) = E. (4.46)
2
O sistema se comporta, então, como um sistema unidimensional de massa µ com um potencial
Vef .
Resolvendo para dt/dr = 1/ṙ,
r
dt µ 1
=± p , (4.47)
dr 2 E − Vef (`, r)

ou seja,
ˆ r
dr0
r
µ
t − t0 = ± p . (4.48)
2 r0 E − Vef (`, r0 )

60
Assim, resolver a integral e inverter o resultado para r = r (t) nos dá a trajetória do sistema.
Também identificamos a energia E e r0 como as duas constantes de integração que, em conjunto
com `, são necessárias para resolver o sistema univocamente.
Pontos de retorno, caso existam, são encontrados pelas raízes da equação

E − Vef (r) = 0, (4.49)

enquanto o período de oscilação entre dois pontos de retorno r1 e r2 é dado por


p ˆ r2 dr
T = 2µ p . (4.50)
r1 E − Vef (`, r)

4.4.3 O potencial harmônico isotrópico


O oscilador harmônico isotrópico é descrito pelo potencial

1 2 2
V = µω r , (4.51)
2
e representa um sistema de dois corpos com uma força harmônica F = −kr. O potencial efetivo
é descrito por

1 2 2 `2 1
Vef = µω r + , (4.52)
2 2µ r2

portanto temos uma força de origem central, dependente do momento angular `, competindo com
o oscilador. Esta é uma força centrífuga, que existe porque o problema análogo de uma partícula
de massa µ em um potencial central é não inercial do ponto de vista da partícula.
A integral de quadratura deste sistema é dada por
r ˆ r
µ dr0 1 `2 1
t − t0 = ± , ∆ (r, `) ≡ E − µω 2 r2 − . (4.53)
2µ r2
p
2 r0 ∆ (r0 , `) 2

Vamos calcular, primeiro, os pontos críticos do potencial efetivo. Eles são dados pela equação

`2 1
 
d 1 2 2
µω r + = 0, (4.54)
dr 2 2µ r2

que resultam em

µ2 ω 2 r4 = `2 . (4.55)

Existe apenas uma raiz real positiva,


s
`
r= , (4.56)
µω

que corresponde ao mínimo do potencial, visto que

00 `2 1
Vef (r) = µω 2 + 3 >0
µ r4

para todo r. No ponto de equilíbrio estável, temos


s !
`
Vef r = = ω` > 0. (4.57)
µω

61
Portanto, para E > ω` temos dois pontos de retorno, que são raízes da equação ∆ (r, `) = 0.
Tais pontos são dados por
s r !1/2
E `2 ω 2
r= 1± 1− . (4.58)
µω 2 E2

4.4.4 Órbitas em campos centrais

Uma órbita é definida como a função ϕ = ϕ (r) do ângulo azimutal com relação ao raio. Note que

dr dr dt ṙ
r = r (ϕ) =⇒ dr = dϕ = dϕ = dϕ.
dϕ dt dϕ ϕ̇

Temos µr2 ϕ̇ = ` e
r
2
ṙ = ± (E − Vef ),
µ

resultando em

`/r2
r
ϕ̇ 1
dϕ = dr = ± p dr,
ṙ 2µ E − Vef

ou,
ˆ r
`/r02 dr0
r 
1
ϕ − ϕ0 = ± p . (4.59)
2µ r0 E − Vef (r0 , `)

É muito comum, e conveniente, executar uma transformação de variáveis tal que

1
u≡ .
r

Neste caso, temos du = −r−2 dr = −u2 dr, então,


ˆ 1/u
du0
r
1
∆ϕ (u) = ± p . (4.60)
2µ 1/u0 [E − V (1/u)] /`2 − u2 /2µ

A equação de movimento (fazer o exercício 5)

µ r̈ − ϕ̇2 r = F (r)

(4.61)

torna-se

d2 u µ 1
2
+ u = − 2 2 F (1/u) (4.62)
dϕ ` u

para u = r−1 .
A equação (4.62) pode ser usada para encontrar a força que age sobre o sistema, se a órbita é
conhecida. Vamos supor, por exemplo, o caso em que r = keαϕ . De (4.62), temos

u2 `2 d2 u
 
F (r) = − +u .
µ dϕ2

62
Assim,
1 −αϕ
u (ϕ) = r−1 = e ,
k
1
u0 (ϕ) = −α e−αϕ = −αu,
k
2 1 −αϕ
u00 (ϕ) = α e = α2 u.
k
Portanto,

u3 `2 `2
1 + α2 = − 3 1 + α2 .
 
F (r) = − (4.63)
µ µr

Também podemos calcular as evoluções com relação ao tempo. Para ϕ (t), temos

` ` 1 −2αϕ
ϕ̇ = = e ,
µr2 µ k2
ou,

` 1 ` 1
e2αϕ ϕ̇ = =⇒ e2αϕ dϕ = dt.
µ k2 µ k2

Neste caso,

1
e2αϕ dϕ = d e2αϕ ,


que resulta em
 2α`
d e2αϕ = dt.
µk 2

Integrando:

2α`
e2αϕ = t + c,
µk 2

ou seja,
 
1 2α`
ϕ (t) = ln t+c . (4.64)
2α µk 2

Para r (t),
s
αϕ 2α`
r = ke = t + ck 2 . (4.65)
µ

Note que a energia mecânica

1 2 `2
E= µṙ + V +
2 2µr2

pode ser calculada tomando-se


ˆ r ˆ r ˆ r
0
 `2
0 2 1 0  2
2 ` 1 0  2
2 ` 1
V =− F (r ) dr = 1 + α dr = 1 + α dr = − 1 + α . (4.66)
∞ µ ∞ r03 µ ∞ r03 2µ r2

63
Ainda,

dr ` α`
ṙ = ϕ̇ = αkeαϕ ϕ̇ = αr 2 = .
dϕ µr µr

Portanto,
 2
1 α` 1  2
2 ` 1 `2
E = µ − 1 + α +
2 µ r2 2µ r2 2µr2
 2 2

` 1 ` 1
= + α2 `2 − 1 + α2 = 0. (4.67)
2 2 2 µr2
Neste caso, a energia mecânica desta órbita é nula.

4.5 O problema de Kepler


Vamos considerar o potencial
α
V (r) = − , (4.68)
r
conhecido como o potencial gravitacional (para α = GmM ), ou a energia potencial coulombiana
−1
(para α = − (4πε0 ) qQ), que consiste na energia potencial entre dois corpos cuja lei de força
depende do quadrado da distância.
No caso do movimento planetário, o problema (4.68) descreve o problema de Kepler, que
consiste em demonstrar

1. que a órbita de cada planeta é uma elipse com o Sol em um dos focos;

2. que o vetor posição r entre o Sol e o planeta varre áreas iguais em tempos iguais;

3. que o período T da órbita de cada planeta está relacionado ao semi eixo maior R tal que
T 2 /R3 é o mesmo para todos os planetas.

De fato, essas leis são apenas aproximadamente corretas, visto que a órbita de um planeta não
é realmente definida por um problema de dois corpos, mas também envolve o movimento e inte-
ração gravitacional dos outros corpos do sistema solar.
Vamos encontrar as órbitas permitidas para o potencial (4.68) por dois métodos distintos.
Primeiro, vamos analisar a equação de movimento radial

`2 1
 
d −α
µr̈ − + = 0. (4.69)
µ r3 dr r

Em seguida, usaremos a quadratura


ˆ 1/u
`du0
r
1
ϕ (u) = ± p , (4.70)
2µ 1/u0 E + αu − u2 `2 /2µ

em que u = 1/r.

4.5.1 A equação radial


Vamos tomar a equação (4.69) e escrevê-la com a variável u, reparametrizando o sistema para o
ângulo ϕ. Temos

d2 1 `2
 
du d
µ 2 − u3 + (−αu) = 0,
dt u µ dr du

64
ou seja,

d2 `2
 
1
µ 2 − u3 + αu2 = 0. (4.71)
dt u µ

Agora vamos supor t = t (ϕ), tal que

d dϕ d d ` d ` d
= = ϕ̇ = 2 = u2 .
dt dt dϕ dϕ µr dϕ µ dϕ

Ainda,

d2 `2 2 2
     
d ` 2 d ` 2 d ` 2 d du d 2 d
= u = u u = u 2u + u .
dt2 dt µ dϕ µ dϕ µ dϕ µ2 dϕ dϕ dϕ2

Substituindo em (4.71), temos

d2 u αµ
+u= 2 . (4.72)
dϕ2 `

A equação (4.72) é a equação de um oscilador forçado unidimensional, cuja solução é dada por

αµ
u (ϕ) = A cos (ϕ − ϕ0 ) + . (4.73)
`2
Vamos introduzir o parâmetro  tal que
αµ
A≡ , (4.74)
`2
então,
αµ
u (, ϕ0 , ϕ) = [ cos (ϕ − ϕ0 ) + 1] . (4.75)
`2
As constantes de movimento são ϕ0 e , este último denominado excentricidade. A equação para
r é dada por

k
=  cos (ϕ − ϕ0 ) + 1, (4.76)
r
−1
em que k = `2 (αµ) , e representa uma secção cônica com foco na origem.

4.5.2 Solução pela quadratura

Vamos analisar o sistema pela quadratura


ˆ 1/u
du0
ϕ − ϕ0 = √ , ∆ = 2µE`−2 + 2µα`−2 u − u2 (4.77)
1/u0 ∆

Podemos escrever o argumento da raiz como


  2 2 
u`
2 2
µ α
 2
2E` 

µα − 1
∆= 4 1+ 1 −  .
` µα2 2E`2
1 + µα2

65
Vamos introduzir as constantes

`2 2E`2
 
k≡ , 2 ≡ 1 + . (4.78)
µα µα2

Assim,
" 2 #
2

uk − 1
∆= 2 1− . (4.79)
k 

Com a variável
uk − 1
cos φ ≡ , (4.80)

temos a integral
ˆ ˆ ˆ ˆ
du d (cos φ) − sin φdφ
I≡ √ = p = = − dφ = φ − φ0 ,
∆ 1 − cos φ2 sin φ

portanto, φ = ϕ e a solução do sistema é dada por

ku = [1 +  cos (ϕ − ϕ0 )] , (4.81)

reproduzindo a solução (4.76).

4.5.3 Pontos críticos do potencial efetivo

Vamos calcular a primeira derivada do potencial efetivo

α `2 1
Vef (r) = − + , (4.82)
r 2µ r2

que resulta em

`2 1
 
d α
Vef (r) = 2 1− .
dr r µα r

Neste caso, o potencial tem um único valor estacionário,

`2
r0 = = k. (4.83)
µα

que é o ponto de mínimo do potencial, como pode ser verificado pela segunda derivada

d2 Vef
 
2α 3
= k − r ,
dr2 r4 2

que é positiva para todo r = r0 = k.


Note, portanto, que o valor mínimo que a energia mecânica atinge é dado por

1 µα2 1α
Emin = − =− , (4.84)
2 `2 2k
podendo, dado este limite, ser negativa, nula ou positiva.

66
4.5.4 Pontos de retorno

Figura 4.2: Seções cônicas.

Os pontos de retorno podem ser calculados por


" 2 #
2

uk − 1
∆= 2 1− = 0, (4.85)
k 

que nos remete às raízes

uk − 1
= ±1. (4.86)

Temos os valores
r !
1± E
u= = u0 1± 1− , (4.87)
k Emin

ou para r,
r !−1
k E
r± = = r0 1± 1− . (4.88)
1± Emin

A depender do valor de , ou especificamente de r0 e E, temos os seguintes regimes de movi-


mento:

1.  = 0, ou E = Emin . Neste caso, há apenas uma raiz da equação ∆ = 0, que vem a ser
r = r0 . A equação da órbita resulta em r = k e, portanto, é um círculo de raio r.

2.  = 1, que implica E = 0. Há apenas um ponto de retorno, dado por r = k/2, que é


−1
um pericentro. Segundo a equação da órbita, temos r = k [cos (ϕ − ϕ0 ) + 1] , que é uma
parábola.
−1
3. 0 <  < 1, ou seja, Emin < E < 0. Neste caso, temos dois pontos de retorno, r± = k (1 ± ) ,

67
sendo r− o pericentro, e r+ o apocentro. Na equação da órbita, este regime implica em uma
elipse.
−1
4.  > 1, ou E > 0. Há apenas um ponto de retorno, r = k (1 + ) , que é um pericentro. O
movimento é de um hipérbole.

4.5.5 Leis do movimento planetário


Portanto, há um regime de movimento em que a órbita é de uma elipse. Sejam a e b os semieixos
maior e menor, respectivamente, da elipse. Se r é a distância de um dos focos, temos que
1 k α
a = (r− + r+ ) = 2
=− , (4.89a)
2 1− 2E
p k `
b = a 1 − 2 = √ =√ . (4.89b)
1 − 2 −2µE
Então, o semieixo maior depende apenas da energia, enquanto o menor depende tanto da ener-
gia, quanto do momento angular e da massa reduzida. Assim, a primeira lei de Kepler encaixa-se
neste cenário.
Sobre a segunda lei de Kepler, temos que a área varrida por um vetor posição r em função do
ângulo azimutal ϕ pode ser calculada por

1 2
dA = r dϕ,
2
ou seja,

1 2 1 ` `
Ȧ = r ϕ̇ = r2 2 = , (4.90)
2 2 µr 2µ

que é uma constante. Portanto, a conservação do momento angular resulta na segunda lei de
Kepler.
Sobre a terceira lei, vamos calcular o período necessário para que o movimento complete um
ciclo. Ele pode ser calculado pela expressão
ˆ T ˆ A
2µ 2µ
T = dt = da = A. (4.91)
0 ` 0 `

A área de uma elipse é dada por A = πab, de modo que


r
2πµ 2πµ ` µ 3
T = ab = a√ = 2π a ,
` ` −2µE α

ou seja,

4πµ 3 T2 4πµ
T2 = a =⇒ = . (4.92)
α a3 α
Como α = Gm1 m2 , temos

T2 4πµ 4π m1 m2 4π 1
= = = . (4.93)
a3 Gm1 m2 Gm1 m2 m1 + m2 G m1 + m2

Este resultado não reproduz a terceira lei do movimento planetário, que diz que a razão T 2 /a3
deve ser constante e igual para todos os planetas. Se m1 é a massa do Sol, a razão depende da
massa do planeta em particular. Contudo, na aproximação m1  m2 , temos que m1 + m2 ≈ m1 ,
que se aproxima do enunciado da terceira lei. Portanto, quando o planeta possui massa muito
inferior à do Sol, a terceira lei de Kepler tem boa aproximação.

68
4.6 Espalhamento
O problema do movimento planetário, ou o movimento em um campo gravitacional, implica na
existência de órbitas fechadas e abertas, dependendo do valor inicial da energia do sistema. O
problema de Kepler diz respeito, neste caso, a órbitas fechadas periódicas (que são as únicas ór-
bitas fechadas que existem para o potencial r−1 ). Contudo, com o acréscimo no valor da energia,
uma órbita fechada pode se tornar aberta, neste caso passando de uma elipse para uma pará-
bola e, consequentemente, para uma órbita hiperbólica. Um corpo celeste que vem de grande
distância, a ponto de poder ser considerada infinita, em órbita parabólica ou hiperbólica com
relação ao Sol, aproxima-se até seu pericentro e se afasta novamente para longe, com ângulo de
velocidade final diferente do ângulo da velocidade de aproximação. Dizemos, neste caso, que o
corpo foi espalhado pelo campo gravitacional do Sol.
O problema geral de espalhamento envolve o estudo de propriedades da interação a partir
da diferença entre os ângulos incidente e espalhado e, no geral pode ser formulado de modo
independente do tipo de força central. Contudo, sem o conhecimento prévio do potencial, é ne-
cessário que essas informações sejam coletadas em um ensemble de experimentos, uma vez que
o espalhamento de uma única partícula pode produzir, estatisticamente, qualquer ângulo de
espalhamento.

4.6.1 Seção de choque


No caso mais geral, vamos considerar um feixe de partículas incidentes, de área transversal A,
que possui uma intensidade J,

I
J= , (4.94)
A∆t
dada pelo número de partículas incidentes I que atravessa uma unidade de área por unidade de
tempo. O centro espalhador, que é o alvo do feixe, é considerado no centro do potencial central na
aproximação de massa infinita, e vamos supor que este alvo tenha uma densidade n de partículas
por unidade de área transversal ao feixe incidente.

Figura 4.3: Seção de choque de espalhamento no caso de esferas duras.

Primeiro, vamos analisar um caso mais simples, em que o feixe tenha área transversal cir-
cular, de raio r, enquanto o alvo seja uma bola dura de raio R. Neste exemplo, a interação é de
curtíssimo alcance, ou seja, ocorre apenas quando o feixe e o alvo colidem. A interação ocorre
2
quando o centro do feixe intersecta uma área σ = π (r + R) ao redor do centro do alvo (Figura
4.6.1). Para além desta área, a incidência do feixe não produz interação. Quanto maior σ, maior
a probabilidade de uma partícula aleatória do feixe colidir com o alvo. É chamada seção de cho-
que. Se o alvo possui N partículas na área transversal do feixe, a seção de choque total do alvo é
definida por

Σ = N σ. (4.95)

69
Por outro lado, o número de colisões por unidade de tempo será, em média,

S = JΣ = JN σ, (4.96)

e este número tem dispersão menor quanto maior o tempo de interação. Esta é chamada taxa de
espalhamento.

Figura 4.4: Ângulos de espalhamento θ e ψ.

No caso de um potencial central, a seção de choque σ por partícula depende da natureza da


interação e é definida pela taxa de espalhamento. Experimentalmente, um detector é colocado
a uma distância suficientemente grande do centro espalhador, para detectar partículas espalha-
das em um dado ângulo sólido Ω. Se o sistema de coordenadas é esférico, a simetria esférica
do potencial central implica no fato de que o número de partículas por unidade de tempo detec-
tada em uma certa direção não depende da distância para o centro espalhador, mas apenas dos
ângulos polar θ e azimutal ψ. Assim,

dS
S = S (θ, ψ) =⇒ dS = dΩ = JN σ (θ, ψ) dΩ. (4.97)
dΩ
A função σ (θ, ψ) é chamada seção de choque diferencial. Integrando (4.97) retomamos a expres-

70
são (4.96), tal que
ˆ ˆ π ˆ 2π
σ ≡ σtot = σ (θ, ψ) dΩ = sin θdθ dψσ (θ, ψ) . (4.98)
0 0

Um detector real cobre apenas uma parte do espaço, de modo que


ˆ
σΩ = σ (θ, ψ) dΩ (4.99)

é a seção de choque em Ω. Neste caso, SΩ = JN σΩ é o número de partículas espalhadas no


ângulo sólido Ω por unidade de tempo.
Em muitos casos de interesse, especialmente aqueles em que a interação é de longo alcance,
a seção de choque total não existe, caso em que a integral (4.98) é divergente. Ainda assim, a
equação (4.99) ainda é válida excetuando-se possíveis pontos de divergência da seção de choque
diferencial.

4.6.2 Simetria azimutal

Vamos supor que o alvo consista de apenas uma partícula. Neste caso,

dS
= σ (θ, ψ) dΩ = σ (θ, ϕ) sin θdθdψ. (4.100)
J
Se o centro do feixe coincidir com o centro do alvo, por exemplo, a seção de choque diferencial
dependerá apenas de θ, pois há uma simetria cilíndrica em ψ. Portanto,

dS
= σ (θ) sin θdθdψ, (4.101)
J
que resulta em
ˆ ˆ π ˆ 2π ˆ π
S dS
= = σ (θ) sin θdθdψ = 2π σ (θ) sin θdθ.
J J 0 0 0

Portanto,
ˆ θ
SΩ
= 2π σ (θ0 ) sin θ0 dθ0 , (4.102)
J 0

dS = 2πJσ (θ) sin θdθ. (4.103)

Agora, dS é o número de partículas espalhadas entre θ e θ + dθ para todo 0 ≤ ϕ < 2π, que
compreende um anel com centro no alvo.
Vamos considerar o caso de uma partícula incidente lançada contra um alvo a uma distância
b de seu eixo central, distância chamada parâmetro de impacto. O potencial de interação é dado
por V (r). Se não houver interação, ou seja, se b for grande demais de modo a não estar no raio na
seção de choque, a partícula passa pelo alvo com a mesma trajetória original. Havendo interação,
o ângulo de espalhamento θ depende de b. No caso de um feixe, a parte do feixe espalhada entre
θ e θ + dθ depende de b tal que, se esta parte estiver num intervalo b + db, então o feixe espalhado
estará entre os ângulos θ (b) e θ (b + db). Este setor angular forma um anel circular de raio b (θ)
e tamanho db. A área deste anel é dada por 2πbdb, que multiplicada por J resulta no número de
partículas espalhadas em dθ por unidade de tempo, ou seja, dS = 2πbJdb. Portanto, usando-se

71
(4.103), temos

b (θ) db = −σ (θ) sin θdθ. (4.104)

O sinal negativo implica no fato de que, se o potencial decresce com a distância, então parâmetros
de impacto menores resultam em deflexões maiores.

Figura 4.5: A diferencial do ângulo de espalhamento em função do parâmetro de impacto dθ =


θ (b + db) − θ (b).

Se analisarmos uma partícula do feixe, a órbita com relação ao potencial central é dada por
r ˆ
`2 du
ϕ (u) = p , u = 1/r. (4.105)
2m E − V (u) − u2 `2 /2m

Na expressão acima, ϕ é o ângulo azimutal no plano da órbita, e não o ângulo azimutal do


espalhamento ψ (Figura 4.6.2). Para u → 0, ou seja, longe do potencial, a energia é apenas a
energia cinética E = mv 2 /2 em que v é o módulo da velocidade inicial. O módulo do momento
angular, por outro lado, é dado por ` = mvb, em que m é a massa da partícula. Por trigonometria,
temos que o ângulo de espalhamento θ é igual a π − 2ϕ.

Podemos escrever o momento angular em função da energia:


r
2E
` = mvb = mb = b 2mE. (4.106)
m

Assim,
ˆ 1/u0
du
θ = π − 2b p . (4.107)
0 1 − V /E − u2 b2

Os limites de integração são escolhidos de modo que a integral seja efetuada de r → ∞ ao


pericentro, ou seja, ao valor de r mais próximo ao centro do potencial. Assim, a receita para o
cálculo da seção de choque envolve calcular o ângulo de espalhamento, resolver a equação para
b quando a inversa existir e for única e, por fim, resolver a equação (4.104) para σ (θ).

72
Figura 4.6: Diagrama do espalhamento no plano xy. O ângulo azimutal do problema de força
central ϕ se relaciona com o ângulo de espalhamento θ pela expressão θ = π − 2ϕ.

4.6.3 O espalhamento de Rutherford

No caso, temos o potencial


α
V (r) = − , (4.108)
r
para o qual já conhecemos a órbita

k
= 1 +  cos ϕ, >1 (4.109)
r
Quando r → ∞, temos  cos ϕ = 1, em o sinal negativo que apareceria não tem interferência sobre
o resultado, visto que cos é uma função par. Note que
r s 2
2E`2

2Eb
= 1+ = 1 + . (4.110)
mα2 α

Portanto,
s  2
2Eb
 = sec ϕ = 1+ . (4.111)
α

73
Então,

2Eb α
tan ϕ = =⇒ b= tan ϕ. (4.112)
α 2E
Contudo,

θ = π − 2ϕ,

Assim,
 
α 1 α 1 − cos (π − θ)
b = tan (π − θ) =
2E 2 2E sin (π − θ)
α 1 − cos π cos θ − sin π sin θ α 1 + cos θ α θ
= = = cot . (4.113)
2E sin π cos θ − sin θ cos π 2E sin θ 2E 2
Vamos tomar a equação (4.104):

b (θ) db = −σ (θ) sin θdθ.

Temos

α2
 
1 2 2 θ
bdb = db = d cot .
2 8E 2 2

A derivada é dada por


   
θ θ θ θ θ
d cot2 = 2 cot d cot = − cot csc2 dθ,
2 2 2 2 2

resultando em

α2 θ θ
bdb = − cot csc2 dθ.
8E 2 2 2
Portanto,

α2 θ θ θ θ
2
cot csc2 = σ (θ) sin θ = 2σ (θ) sin cos ,
8E 2 2 2 2
que resulta em

α2 θ
σ (θ) = csc4 . (4.114)
16E 2 2

4.6.4 O problema do espalhamento inverso


Acima, vimos como podemos deduzir a seção de choque diferencial a partir do potencial. Em
muitos problemas físicos, no entanto, desejamos o contrário. Conhecendo σ (θ), desejamos obter
o potencial espalhador. Para tanto, podemos usar a expressão (4.104)

b (θ) db = −σ (θ) sin θdθ

para encontrar b (θ), inverter a expressão para θ (b), quando possível, e usar a equação (4.107)
ˆ 1/u0
du
θ = π − 2b p
0 1 − V /E − u2 b2

para encontrar V (x).

74
Vamos colocar a integral na forma
ˆ ˆ
du d ln u
I = 2b p = 2b p , (4.115)
2
u (1 − V /E) /u − b 2 (1 − V /E) /u2 − b2

e introduzir a variável
r
1 V (u)
y (u) = 1− . (4.116)
u E
Então,
ˆ b
d ln u (y)
I = 2b p , y>b (4.117)
∞ y 2 − b2

De acordo com (4.107), temos θ = π − I, e podemos escrever π pela integral


ˆ b
d ln y
π = −2b p . (4.118)
∞ y 2 − b2

Então,
ˆ b ˆ b ˆ b
d ln y d ln u (y) 1
θ (b) = −2b p − 2b p = −2b p [d ln y + d ln u (y)]
∞ y 2 − b2 ∞ y 2 − b2 ∞ y 2 − b2
ˆ ∞
1
= 2b p d [ln yu (y)] . (4.119)
b y − b2
2

Esta integral é problemática para ser resolvida analiticamente. Mas podemos definir a se-
guinte função
ˆ
1 ∞ db
T (y) = p θ (b) , (4.120)
π y b − y2
2

com a qual podemos encontrar y mais adiante. Temos


ˆ
1 ∞
ˆ ∞ 
1 1
T (y) = p √ d [ln xu (x)] 2bdb. (4.121)
π y b2 − y 2 b x2 − b2

Podemos inverter a ordem de integração com atenção aos limites. A integral em b implica que
b > y. Por outro lado, a integral em x implica em x > b, então y < b < x. Assim,
ˆ ∞ ˆ x
1 db2
T (y) = d [ln xu (x)] p . (4.122)
π y y (x2 − b2 ) (b2 − y 2 )

Faça o exercício 7 para mostrar que


ˆ x
db2
p = π. (4.123)
y (x2 − b2 ) (b2 − y 2 )

Com (4.123), temos


ˆ ∞ ˆ ∞
T (y) = d [ln xu (x)] = d [ln xu (x)] = − ln [yu (y)] ,
y y

ou seja,

yu (y) = exp [−T (y)] =⇒ u (y) = y −1 exp [−T (y)] . (4.124)

75
Em termos de r, temos

r (y) = y exp T (y) , (4.125)

em que
r
V (r)
y=r 1− . (4.126)
E

Desta equação, temos

r2 − y2
V (r) = E . (4.127)
r2

A prescrição, portanto, é a seguinte: Primeiro, inserimos θ (b) em (4.120) para encontrar a


função T (y). Esta integral é, no geral, difícil de ser resolvida, e na maioria dos casos ela pode
ser solucionada apenas numericamente. Com T (y), resolvemos (4.125) para y em termos de r.
Neste caso, inserir y (r) em (4.127) resulta na solução para o potencial.

4.6.5 O espalhamento de Coulomb

No caso coulombiano, já sabemos que o parâmetro de impacto é dado por (4.113), ou seja,

α θ
b= cot . (4.128)
2E 2
Invertendo esta relação, temos
   
2Eb b
θ (b) = 2arccot ≡ 2arccot , K ≡ α/2E. (4.129)
α K

Portanto,
ˆ ∞
2 arccot (b/K) db
T (y, K) = p . (4.130)
π y b2 − y 2

Note que
 
d 1 d b 1 b b
arccot (b/K) = − =− − = . (4.131)
dK 1 + b2 /K 2 dK K 1 + b2 /K 2 K2 K 2 + b2

Assim,
ˆ ∞ ˆ ∞
dT 1 2bdb 1 db2
= p = p . (4.132)
dK π y
2 2 2
(b + K ) b − y 2 π y (b2 + K 2 ) b2 − y 2

Tomando-se

w 2 ≡ b2 − y 2 ,

temos
ˆ ∞ ˆ ∞
dT 1 dw2 2 dw 1
= 2 2 2
= =p . (4.133)
dK π 0 (w + y + K ) w π 0 w2 2
+y +K 2
K 2 + y2

76
Integrando em K, temos

ˆ
s 
2
dK K K
T (y) = p = ln + + 1 . (4.134)
K 2 + y2 y y

Assim,
p
r (y) = y exp T (y) =⇒ r=K+ K 2 + y2 . (4.135)

Invertendo para y, temos


2
y 2 = (r − K) − K 2 = r2 − 2Kr. (4.136)

Com (4.127),

r2 − y2 r2 − r2 + 2rK 2EK α
V (r) = E 2
=E = = . (4.137)
r r2 r r

4.7 Resumo

4.8 Exercícios
1. Mostre que o problema de dois corpos no referencial de uma das partículas também se
reduz ao problema do movimento relativo entre as partículas. Mostre também que, no
limite m1  m2 , o referencial do centro de massa tende ao referencial da partícula m1 , e
que r → x2 , bem como µ → m2 .

2. Mostre que o operador gradiente pode ser expresso em coordenadas esféricas (r, θ, ϕ) por

∂ 1 ∂ 1 ∂
∇ = r̂ + θ̂ + ϕ̂ . (4.138)
∂r r ∂θ r sin θ ∂ϕ

Use a notação em componentes.

3. Das relações (4.26) e (4.27), mostre que

ẋ1 = ṙ sin θ cos ϕ + θ̇r cos θ cos ϕ − ϕ̇r sin θ sin ϕ, (4.139a)
2
ẋ = ṙ sin θ sin ϕ + θ̇r cos θ sin ϕ + ϕ̇r sin θ cos ϕ, (4.139b)
3
ẋ = ṙ cos θ − θ̇r sin θ, (4.139c)

e
h   i  
ẍ1 = r̈ − θ̇2 + ϕ̇2 r sin θ cos ϕ + θ̈r + 2ṙθ̇ cos θ cos ϕ.
− (ϕ̈r + 2ṙϕ̇) sin θ sin ϕ − 2θ̇ϕ̇r cos θ sin ϕ. (4.140a)
h   i  
2
ẍ = r̈ − θ̇2 + ϕ̇2 r sin θ sin ϕ + θ̈r + 2ṙθ̇ cos θ sin ϕ.
+ (ϕ̈r + 2ṙϕ̇) sin θ cos ϕ + 2rθ̇ϕ̇ cos θ cos ϕ. (4.140b)
   
3
ẍ = r̈ − θ̇2 r cos θ − θ̈r + 2ṙθ̇ sin θ. (4.140c)

Mostre também que a energia cinética no referencial do centro de massa é dada por

1  2 
Ec = µ ṙ + r2 θ̇2 + r2 ϕ̇2 sin2 θ . (4.141)
2

77
4. Considere o potencial de Morse

Vef = A e−2αx − 2e−αx ,




em que A e α são números reais positivos e −∞ < x < ∞.

(a) Encontre o mínimo do potencial e faça um gráfico de Vef f (x) com seus pontos críticos
e assíntotas.
(b) Faça a análise dos pontos de retorno do sistema quando E ≥ 0 e E < 0 e indique os
valores da energia para os quais o sistema está ligado. Encontre o valor mínimo de E.
(c) Encontre a função t = t (x) e inverta a solução para expressar as soluções x = x (t)
para E > 0, E = 0 e E < 0.

5. Mostre que a equação de movimento

µ r̈ − ϕ̇2 r = F (r)


torna-se

d2 u µ 1
+ u = − 2 2 F (1/u) (4.142)
dϕ2 ` u

para u = r−1 . Mostre, também, que a quadratura (4.60) é a solução formal da órbita ϕ (u).

6. Calcule os pontos de retorno da órbita r = keαϕ .

7. Mostre que
ˆ x
db2
p = π.
y (x2 − b2 ) (b2 − y 2 )

78
Capítulo 5

Gravitação

5.1 O princípio de equivalência


A primeira observação quantitativa acerca da natureza da interação gravitacional pode ter sido
o resultado de Galilei sobre o fato de que dois corpos quaisquer caem, no campo gravitacional da
Terra, com a mesma aceleração, independente de suas massas. Esta observação experimental
entra em conflito com a então estabelecida visão aristotélica, na qual objetos mais pesados caem
mais rapidamente que objetos mais leves. A independência da aceleração com relação à massa
do objeto em queda é a essência do princípio de equivalência, que possui três formulações:

1. Princípio da equivalência fraco, ou de Galilei: A trajetória de um corpo em queda


livre depende apenas de seus dados iniciais (posição e velocidades iniciais, por exemplo), e
é independente da natureza ou estrutura do corpo.

2. Princípio da equivalência de Einstein: a) A trajetória de um corpo em queda livre de-


pende apenas de seus dados iniciais, e é independente da natureza ou estrutura do corpo.
b) O resultado de qualquer experimento local não gravitacional realizado em queda livre é
indistinguível do mesmo experimento realizado em repouso, longe de um campo gravitaci-
onal.

3. Princípio da equivalência forte: a) A trajetória de um corpo em queda livre depende


apenas de seus dados iniciais, e é independente da natureza ou estrutura do corpo. b)
O resultado de qualquer experimento local realizado em queda livre é indistinguível do
mesmo experimento realizado em repouso, longe de um campo gravitacional.

O princípio de Galilei é o único que pode ser obedecido na mecânica newtoniana. O princípio de
Einstein e o princípio forte são mais restritivos, implicam na invariância da física com relação
a todo referencial, inclusive os não inerciais, como aqueles que estão em queda livre em um
campo gravitacional. Em particular, o princípio forte implica que a gravitação em si independe
do referencial e, portanto, é uma força universal puramente geométrica, dependendo apenas da
métrica do espaço-tempo. A única teoria conhecida que obedece ao princípio de equivalência forte
é a Relatividade Geral.
O significado da palavra "local" também é bem definido. Um experimento local é aquele que é
realizado em intervalos de tempo e espaço pequenos o suficiente para que efeitos gravitacionais
em objetos extensos, como forças de maré, sejam pequenos.
O princípio de equivalência fraco é, contudo, o mais fundamental. Do ponto de vista mo-
derno, a força gravitacional entre duas partículas pontuais pode ser estabelecida por um campo
gravitacional, nos mesmos moldes do Eletromagnetismo. Junto com o conceito de campo, existe
o conceito de carga gravitacional, equivalente ao conceito de carga elétrica. Se g (x) é um campo
gravitacional, então a força que age sobre uma partícula de "carga gravitacional" mg é dada por

79
F = mg g. Na mecânica newtoniana, temos

ma = mg g, (5.1)

ou seja,
mg
a= g. (5.2)
m
Se o princípio de Galilei é correto, a razão "carga"/massa no caso gravitacional deve ser uma
constante, pois assim a aceleração é independente da natureza do corpo (neste caso sua "carga"
e sua massa). Podemos renormalizar esta constante à unidade, ou seja, mg /m = 1, que resulta
em a = g. Na literaturam mg é denominada massa gravitacional e m, a massa inercial da
partícula. O resultado do princípio de equivalência fraco é o fato de que a massa é a propriedade
das partículas que interagem gravitacionalmente.

5.2 Gravitação universal


Gravitação universal é a teoria newtoniana da gravitação. Ela tem como base o princípio de
equivalência de Galilei e a lei de forças

Mm
F = −G r. (5.3)
r3
Esta é a força que age sobre duas partículas pontuais de massas M e m, separadas por um
vetor distância radial r de módulo r. G é a constante de Newton, e tem o valor de 6.67384(80) ×
10−11 N m2 /Kg 2 no S.I. O sinal negativo vem do fato de que a força é sempre atrativa, enquanto
as massas, distâncias e G são sempre positivos.

5.2.1 Princípio de superposição


Se mais de duas partículas pontuais, de massas mi e posições relativas rij (por exemplo, r12 é
o vetor distância entre as partículas 1 e 2 com sentido 1 → 2) interagem gravitacionalmente, a
força que age sobre a partícula k é dada por
n n
X X rki
Fk = Fki = −Gmk mi 3 , (5.4)
rki
i6=k=1 i6=k=1

ou seja, a força resultante que age sobre mk é a soma das forças que cada componente do sistema
exerce sobre mk . A restrição na soma para i 6= k reflete o fato que que a gravitação universal
não contém auto interação: uma partícula não exerce força gravitacional sobre ela mesma. A
equação (5.4) reflete o que é denominado princípio de superposição.
É pelo princípio de superposição que podemos derivar a força gravitacional de uma densidade
de massa ρ (x) com relação a uma partícula teste de massa m. Neste caso, a soma em (5.4) torna-
se uma integral, resultando em
ˆ
ρ (x0 ) 0
F = −Gm dωx0 3 (x − x ) . (5.5)
Ω |x − x0 |

A integral é tomada em todo o volume Ω que contém a massa total


ˆ
M= ρ (x) dωx (5.6)

da fonte, enquanto r (x) é o vetor que representa a distância entre o ponto x ∈ Ω e a posição da
massa teste m.

80
Figura 5.1: Distribuição de massa com densidade ρ (x) e as definições de vetores relevantes. A
posição x é a posição de uma partícula teste e x0 é o vetor posição de determinado ponto da
distribuição, que é a variável de integração na equação (5.5).

Supondo que a massa teste seja também uma distribuição contínua de cargas, a força que age
sobre ambas as distribuições é dada por
ˆ ˆ
ρ̄ (x) ρ (x0 ) 0
F = −G dω̄x dωx0 3 (x − x ) . (5.7)
Ω̄ Ω |x − x0 |

5.2.2 Energia e energia potencial gravitacional


Vamos supor o caso de uma partícula de massa m sujeita a um campo gravitacional produzido por
uma partícula de massa M . Se M  m, vamos tratar M como a fonte do campo gravitacional
e m como uma partícula teste. O movimento da partícula teste é governado pela equação de
movimento
Mm
mẍ = −G r. (5.8)
r3
Seja ẋ a velocidade da partícula teste. Então, temos

Mm
mẍ · ẋ = −G r̂ · ẋ, (5.9)
r2
em que r̂ é o vetor unitário r̂ = r/r.
O lado esquerdo de (5.9) produz um resultado conhecido:
 
d 1 2
mẍ · ẋ = mẋ ,
dt 2

que é a derivada temporal da energia cinética da partícula. No lado direito, temos r̂· ẋ = ṙr̂·r̂ = ṙ,
ou seja, a componente radial da velocidade da partícula teste. Neste caso, temos
 
Mm ṙ d 1
G 2 r̂ · ẋ = GM m 2 = − GM m . (5.10)
r r dt r

81
Então,
 
d 1 Mm
mẋ2 − G = 0. (5.11)
dt 2 r

A quantidade

1 Mm
E= mv 2 − G , (5.12)
2 r
com v = |ẋ| é uma integral primeira do movimento, neste caso a energia da partícula teste.
De (5.12), deduzimos a energia potencial gravitacional

Mm
V (r) ≡ −G . (5.13)
r
A energia potencial (5.13) também pode ser definida, naturalmente, como o oposto do trabalho
necessário para trazer a partícula teste do infinito à posição r entre as massas:
ˆ r ˆ r 0 ˆ r 0
r · dr0 dr
V =− F (r0 ) · dr0 = −GM m 03
= −GM m 02
, (5.14)
∞ ∞ r ∞ r

que resulta em (5.13). Naturalmente, conhecida a energia potencial gravitacional entre duas
massas, a força que age entre ambas é dada por

F = −∇V. (5.15)

5.2.3 Campo e potencial gravitacional


Em analogia com o campo elétrico, definimos o campo gravitacional, gerado por uma fonte, em
um ponto x do espaço como a força que age sobre uma partícula teste de "carga gravitacional" m
colocada no ponto x, dividida por m. Então,

F (x)
g (x) = . (5.16)
m
Em razão do princípio de equivalência, m é a massa da partícula teste e, portanto, g (x) é igual à
aceleração que a partícula sofreria quando em queda livre. O campo gravitacional não é, contudo,
a verdadeira aceleração da partícula. Se considerarmos um objeto em repouso sobre uma mesa,
sua aceleração é nula, mas ainda assim o campo gravitacional naquela posição é diferente de
zero.
Se a fonte é pontual, temos

F (x) M m r (x) r (x)


g (x) = = −G = −GM 3 , (5.17)
m m r3 (x) r (x)

em que r (x) é o vetor que representa a distância entre a fonte e o ponto x. Se a fonte consiste
em uma distribuição de massa, com densidade ρ (x), então
ˆ
ρ (y)
g (x) = −G dωx0 r (x, x0 ) . (5.18)
Ω r3 (x, x0 )

Em (5.18), explicitamos dois pontos do espaço, x e x0 , de acordo com a figura 5.2.1. O ponto
x é o ponto no qual o campo gravitacional é calculado. O ponto x0 é a variável de integração,
representa um ponto do volume Ω. Neste caso, r (x, y) é o vetor que representa a distância entre
os pontos x e y.
Se F é um campo de forças conservativo, que implica em ∇ × F = 0 e na existência de uma

82
energia potencial V tal que F = −∇V , então

F = −∇V =⇒ g (x) = −∇x Φ (x) , (5.19)

ou seja, o campo gravitacional também é conservativo e pode ser escrito como o gradiente de uma
função escalar. Esta função recebe o nome de potencial gravitacional. Observando-se (5.19)

V (x)
Φ (x) = , (5.20)
m
em que V (x) é a energia potencial gravitacional no ponto x. No caso de uma fonte pontual, temos

1
V (x) = −GM m
r (x)

e, portanto,

1
Φ (x) = −GM . (5.21)
r (x)

Se a fonte é uma distribuição de matéria, de densidade ρ (x), então


ˆ
ρ (y)
Φ (x) = −G dωx0 , (5.22)
Ω r (x, x0 )

em que, mais uma vez, r (x, x0 ) é a distância entre os pontos x e x0 ∈ Ω.


Assim como a energia potencial em um ponto está relacionada ao trabalho de se trazer uma
massa teste do infinito ao mesmo ponto, há uma "função trabalho" relacionada ao campo gravi-
tacional g (x). Esta função é dada por
ˆ y
w (x, y) = g · dr. (5.23)
x

Como g é a razão F/m, w (x, y) é a razão W (x, y) /m, em que W (x, y) é o trabalho realizado para
deslocar uma massa m do ponto x ao ponto y do espaço. Como g é conservativo, temos
ˆ y ˆ y
w (x, y) = − dr · ∇r Φ (r) = − dΦ (r) = Φ (x) − Φ (y) = −∆Φ (x, y) . (5.24)
x x

Portanto, se conhecemos o potencial Φ (x), a função w (x, y) é apenas o negativo da diferença de


potencial entre x e y. Neste caso, o trabalho realizado pelo campo gravitacional em uma massa
m é dado por

W = mw = −m∆Φ. (5.25)

5.2.4 Exemplo: casca esférica

Um dos teoremas mais importantes da gravitação universal pode ser deduzido do problema de
se encontrar o potencial gravitacional de uma casca esférica de raio interno b e raio externo a,
com densidade ρ (x) = ρ homogênea. O potencial é dado por
ˆ
dωy
Φ (x) = −Gρ . (5.26)
Ω |r − x|

Vamos tomar um sistema de coordenadas esférico, cuja origem é colocada no centro da casca
esférica. Se x é o vetor posição de um ponto x dentro da casca e r é o vetor posição do ponto r,

83
Figura 5.2: Casca esférica.

então o vetor que representa a distância entre r e x é dado por |r − x| e tem módulo r0 dado por
2 2
(r0 ) ≡ |r − x| = x2 + r2 − 2xr cos θ. (5.27)

Por outro lado, dω é um elemento de volume da casca, dado por

dωx = −x2 dxd (cos θ) dϕ. (5.28)

Substituindo-se (5.28) em (5.26),


ˆ a ˆ 2π ˆ π
2 d (cos θ)
Φ (r) = Gρ x dx dϕ
b 0 |r − x|
ˆ a ˆ π 0
d (cos θ)
= 2πGρ x2 dx . (5.29)
b 0 r0
Note que, diferenciando-se (5.27), temos

r0 dr0
dr02 = −2rxd (cos θ) =⇒ d (cos θ) = − , (5.30)
rx
em que r é constante e x é tomada constante na segunda integral. Portanto,
ˆ a ˆ 0
rmax
ρ
Φ (x) = −2πG xdx dr0 , (5.31)
r b 0
rmin

0 0
em que rmin e rmax dependem de r.

Vamos tomar r > a, ou seja, estamos fora da casca esférica. Neste caso, r > x e, portanto,
ˆ ˆ r+x
ρ a
Φ (r > a) = −2πG xdx dr0
r b r−x
ˆ ˆ
ρ a ρ a 2
= −2πG xdx (r + x − r + x) = −4πG x dx
r b r b
ρ4 a 14
= −G π x3 b = −G πρ a3 − b3 .

(5.32)
r3 x3

84
Contudo,

4
πρ a3 − b3 = M,

(5.33)
3
a massa total da casca esférica. Portanto,

GM
Φ (r > a) = − . (5.34)
r

O mesmo ocorre com qualquer distribuição esfericamente simétrica de matéria: o potencial


gravitacional exterior a uma distribuição de massa esfericamente simétrica é o mesmo de uma
partícula pontual de massa igual à massa total da distribuição.
Na parte interna da casca, onde r < b, temos
ˆ a ˆ x+r ˆ a
ρ ρ
Φ (r < b) = −2πG xdx dr = −2πG xdx (2r)
r b x−r r b

= −2πGρ a − b2 ,
2

(5.35)

que é constante. Neste caso, o campo gravitacional dentro da casca esférica é nulo e nenhuma
força devida à existência da distribuição age sobre massas que sejam colocadas ali.
Na região dentro da distribuição, em que b < r < a, temos que somar a contribuição dada
pela distribuição dentro da esfera de raio x, dada por

4 ρ
− πG r3 − b3 ,

3 r
e fora da esfera de raio r, dada por

−2πGρ a2 − r2 .


Assim,

4 ρ
Φ (b < r < a) = − πG r3 − b3 − 2πGρ a2 − r2
 
3 r
a2 1 b3 r2

= −4πGρ − − . (5.36)
2 3 r 6

Para r → a, temos que os resultados (5.34) e (5.36) coincidem, como se deve esperar, já que
a continuidade do potencial é um requerimento físico do sistema. Um potencial descontínuo
implica na inexistência do gradiente no ponto de descontinuidade. Por outro lado, os resultados
(5.35) e (5.36) coincidem no limite r → b.

5.3 A equação de Poisson

5.3.1 A lei de Gauss

Como para todo campo vetorial, podemos calcular o fluxo de campo que atravessa uma superfície
Σ ⊂ E3 , dado por
ˆ
Γ≡ g (x) · n̂ (x) dσx , (5.37)
Σ

85
em que n̂ é um vetor unitário ortogonal a Σ no ponto x, e dσx é o elemento de área no mesmo
ponto. Usando a equação (5.17), temos
ˆ ˆ
r̂ · n̂ cos θdσ
Γ = −GM 2
dσ = −GM
Σ r Σ r2

O elemento cos θdσ é a projeção ortogonal do elemento de área da superfície Σ no elemento de


área de uma esfera de raio r, que por sua vez é dado por r2 dΩ, em que dΩ é o elemento de ângulo
sólido. Neste caso,

cos θdσ = r2 dΩ = r2 sin θdθdϕ. (5.38)

Então,
ˆ ˆ 2π ˆ π
cos θdσ
Γ = −GM = −GM dϕ sin θdθ,
Σ r2 0 0

em que θ é o ângulo entre o campo gravitacional e n̂. Temos


ˆ π
Γ = −2πGM sin θdθ = −4πGM. (5.39)
0

Portanto,
˛
g (x) · n̂ (x) dσx = −4πGM, (5.40)
Σ

que vem a ser a lei de Gauss em forma global para o campo gravitacional.
Usando o teorema de Gauss,
˛ ˆ
g (x) · n̂ (x) dσx = dωx ∇x · g (x) , (5.41)
Σ Ω

em que Ω é, agora, o volume cuja fronteira é a superfície fechada Σ, temos


ˆ
[∇x · g (x)] dωx = −4πGM. (5.42)

´
A massa M no interior de Ω pode ser escrita por M = Ω
dωρ, em que ρ é a densidade de matéria.
Portanto,
ˆ ˆ
[∇x · g (x)] dωx = [−4πGρ (x)] dωx .
Ω Ω

Como Ω é um volume arbitrário que contém uma densidade de massa ρ, temos

∇x · g (x) = −4πGρ (x) , (5.43)

que vem a ser a lei de Gauss diferencial para o campo gravitacional.


Lembremos que

g (x) = −∇x Φ (x) ,

então, (5.43) resulta em

∇2x Φ (x) = 4πGρ (x) , (5.44)

em que ∇2x é o operador laplaciano.

86
5.3.2 Solução formal da equação de Poisson

A equação (5.44) é a equação de Poisson, que forma uma equação diferencial parcial linear de
segunda ordem. A solução geral pode ser escrita em termos da função de Green D (x, y) do
operador laplaciano. Se existir, a função de Green obedece à seguinte equação:

∇2x D (x, y) = δ 3 (x − y) , (5.45)

em que δ 3 (x − y) é chamada delta de Dirac tridimensional. Ela obedece à equação integral


ˆ
δ 3 (x − y) f (y) dωy = f (x) , (5.46)
E3

para toda função f (x). Em nossa notação, estamos denominando os pontos do espaço como
 
x = x1 , x2 , x3 e y = y 1 , y 2 , y 3 , de modo que devemos compreender as funções como funções
de três variáveis. A delta de Dirac tem uma representação integral que pode ser usada como
definição:
ˆ ∞
δ 3 (x − y) ≡ exp [ik · (x − y)] d3 k, (5.47)
−∞

em que k é um vetor arbitrário e x, assim como y, são os vetores de posição dos pontos x e y.

Se D (x − y) obedece à equação (5.45), a função


ˆ
Φ (x) ≡ D (x − y) [4πGρ (y)] dωy (5.48)
E3

é uma solução de (5.44). Isto pode ser verificado aplicando-se o operador laplaciano em (5.48):
ˆ  ˆ
∇2x Φ (x) = ∇2x D (x − y) [4πGρ (y)] dωy = ∇2x D (x − y) [4πGρ (y)] dωy .
E3 E3

Usando-se (5.45),
ˆ ˆ
∇2x Φ (x) = 4πG ∇2x D (x − y) ρ (y) dωy = 4πG δ 3 (x − y) ρ (y) dωy
E3 E3

e, com (5.46),

∇2x Φ (x) = 4πGρ (x) ,

que reproduz a equação de Poisson.

Contudo, (5.48) não é a solução geral. Podemos adicionar a ela a solução geral da equação
homogênea

∇2x Φ0 (x) = 0, (5.49)

ou seja,
ˆ
Φ (x) = Φ0 (x) + 4πG D (x − y) ρ (y) dωy . (5.50)
E3

A equação (5.49) é denominada equação de Laplace. E a solução (5.50) é a solução formal da


equação de Poisson.

87
5.3.3 A função de Green do operador laplaciano
Vamos tomar a equação

∇2x D (x, y) = δ 3 (x − y) , (5.51)

em que ∇2x é o operador laplaciano em três dimensões. Qualquer função de dois pontos que obe-
deça a esta equação é denominada função de Green do operador laplaciano. Se as componentes
dessa equação fossem matrizes, ela seria escrita por

∇2 D = 1,
−1
em que 1 seria a matriz identidade. Portanto, D = ∇2 : a função de Green assume o papel da
inversa do operador laplaciano. Contudo, as componentes desta equação não são matrizes, mas
operadores diferenciais e distribuições em E3 .
No entanto, podemos colocar a equação (5.51) na forma de uma equação algébrica. Para tanto,
vamos usar a transformada de Fourier
ˆ
D (x, y) = d3 kD (k) eik·(x−y) . (5.52)

Assim, temos
ˆ ˆ h i
∇2x D (x, y) = ∇2x 3
d kD (k) e ik·(x−y)
= d3 kD (k) ∇2x eik·(x−y)
ˆ ˆ
2
d3 kD (k) (ik) eik·(x−y) = d3 k −k 2 D (k) eik·(x−y) .
 
= (5.53)

Por outro lado, a delta de Dirac é dada por (5.47),


ˆ
δ 3 (x − y) = d3 keik·(x−y) . (5.54)

Portanto,
ˆ ˆ
∇2x D (x, y) = δ 3 (x − y) d3 k −k 2 D (k) eik·(x−y) = d3 keik·(x−y) ,
 
=⇒

ou seja,

−k 2 D (k) = 1. (5.55)

A equação (5.55) é a transformada de Fourier da equação (5.51) e tem a forma de uma equação
algébrica. Portanto,

1
D (k) = − (5.56)
k2
é a transformada de Fourier da função de Green D (x, y).
Usando a equação (5.52), temos
ˆ ˆ  
1
D (x, y) = d3 kD (k) eik·(x−y) = d3 k − 2 eik·(x−y) . (5.57)
k

Resolver a integral em (5.57), para encontrar D (x, y), exige que a integração seja feita no plano
complexo, o que foge ao nosso escopo. A solução, contudo, é dada por

1 1
D (x, y) = − . (5.58)
4π |x − y|

88
Neste caso, a solução geral da equação de Poisson para o campo gravitacional é dada por
ˆ
ρ (y)
Φ (x) = Φ0 (x) − G dωy . (5.59)
Ω |x − y|

5.3.4 A equação de Laplace em coordenadas cartesianas

Agora, vamos encontrar a solução geral da equação de Laplace

∇2x Φ0 (x) = 0, (5.60)

que corresponde à parte homogênea da equação de Poisson. Esta será a equação para o potencial
gravitacional em um certo volume Ω sem massas em seu interior. Para uma solução completa do
problema, é necessário especificar condições de contorno sobre a superfície de Ω, que denomina-
remos ∂Ω.
Em coordenadas cartesianas (x, y, z), o operador laplaciano tem a forma

∂2 ∂2 ∂2
∇2 ≡ + + , (5.61)
∂x2 ∂y 2 ∂z 2

de modo que a equação de Laplace torna-se

∂2Φ ∂2Φ ∂2Φ


+ + = 0, (5.62)
∂x2 ∂y 2 ∂z 2

para Φ = Φ (x, y, z).


Para se resolver (5.62) vamos supor que Φ seja separável, ou seja,

Φ (x, y, z) = X (x) Y (y) Z (z) (5.63)

para três funções X (x), Y (y), Z (z). Neste caso, (5.62) torna-se

∂ 2 X (x) ∂ 2 Y (y) ∂ 2 Z (z)


Y (y) Z (z) + X (x) Z (z) + X (x) Y (y) = 0,
∂x2 ∂y 2 ∂z 2

que pode ser reescrito por

1 ∂ 2 X (x) 1 ∂ 2 Y (y) 1 ∂ 2 Z (z)


+ + = 0, (5.64)
X (x) ∂x2 Y (y) ∂y 2 Z (z) ∂z 2

desde que X (x), Y (y) e Z (z) não sejam nulos no domínio Ω. A equação (5.64) implica que cada
termo deve ser uma constante em (x, y, z).
Sejam duas constantes α e β tais que

1 ∂ 2 X (x) 1 ∂ 2 Y (y)
= −α2 , = −β 2 .
X (x) ∂x2 Y (y) ∂y 2

Neste caso, (5.64) implica em

1 ∂ 2 Z (z)
= α2 + β 2 .
Z (z) ∂z 2

A equação para a variável x é dada por

∂ 2 X (x)
= −α2 X (x)
∂x2

89
e tem como solução

X (x) = exp (±iαx) . (5.65)

Da mesma forma,

Y (y) = exp (±iβy) , (5.66)

e
h p  i
Z (z) = exp ± α2 + β 2 z . (5.67)

Podemos compor o seguinte potencial:


√ 
±iαx ±iβy ± α2 +β 2 z
Φ0 (x, y, z) = e e e , (5.68)

que agora depende das condições de contorno para a fixação de α e β.


Coordenadas cartesianas são ideais em simetrias cúbicas, então vamos imaginar um cubo
gaussiano de lado ` sem matéria em seu interior. A solução mais geral para o potencial no
interior do cubo é dada por (5.68), mas podemos impor condições de contorno sobre o cubo. Essas
condições podem ser as mais diversas, representando problemas físicos específicos.

Figura 5.3: Cubo gaussiano de lado ` e vértice na origem.

Por exemplo, vamos impor condições de contorno periódicas nas faces x e y, mas deixaremos
z livre. Assim,

Φ0 (0, y, z) = Φ0 (`, y, z) , Φ0 (x, 0, z) = Φ0 (x, `, z) . (5.69)

Neste caso, na direção x obtemos

2nπ
e±iα` = cos (α`) ± i sin (α`) = 1 =⇒ α= , n ∈ N, (5.70)
`

90
o mesmo valendo para a direção y. As soluções nessas direções podem ser escritas por

X (x) = cos (αn x) , Y (y) = cos (αm y) , (5.71)

em que

2nπ
αn ≡ . (5.72)
`
Em z, temos

Z (z) = exp [±γmn z] = cosh (γmn z) ± sinh (γmn z) , (5.73)

em que
p
2 + α2 =
2π p 2
γmn ≡ αm n m + n2 . (5.74)
`

Agora, vamos impor uma condição de contorno para z. Por exemplo, Z (0) = 0. Da primeira
condição, temos que cosh não pode contribuir. Neste caso,

Z (z) = sinh (γmn z) . (5.75)

A solução geral vem a ser


X
Φ0 (x, y, z) = Amn cos (αn x) cos (αm y) sinh (γmn z) . (5.76)
m,n

5.3.5 A equação de Laplace em coordenadas esféricas

A equação de Laplace em coordenadas esféricas é dada por

1 ∂2 ∂2Φ
 
1 ∂ ∂Φ 1
(rΦ) + sin θ + = 0. (5.77)
r ∂r2 r2 sin θ ∂θ ∂θ r2 sin2 θ ∂ϕ2

A técnica de separação de variáveis nos permite separar o potencial na forma

R (r)
Φ= Θ (θ) Ψ (ϕ) , (5.78)
r
que resulta na equação

∂2R RΘ ∂ 2 Ψ
 
RΨ ∂ ∂Θ
ΘΨ 2 + 2 sin θ + 2 2 = 0.
∂r r sin θ ∂θ ∂θ r sin θ ∂ϕ2

Vamos multiplicar esta equação por r2 sin2 θ/RΘΨ, que resulta em

1 ∂2R 1 ∂2Ψ
  
2 2 1 1 ∂ ∂Θ
r sin θ 2
+ 2 sin θ + = 0. (5.79)
R ∂r r sin θ Θ ∂θ ∂θ Ψ ∂ϕ2

Esta equação está separada na varável ϕ, portanto, existe uma constante m tal que

1 ∂2Ψ
= −m2 . (5.80)
Ψ ∂ϕ2

A solução azimutal é dada por

Ψ (ϕ) = exp (±imϕ) . (5.81)

91
Note que Ψ (0) = Ψ (2π), de modo que

exp (±2πmi) = 1 =⇒ m ∈ Z. (5.82)

Neste caso, temos

r2 ∂ 2 R m2
 
1 ∂ ∂Θ
+ sin θ − = 0, (5.83)
R ∂r 2 Θ sin θ ∂θ ∂θ sin2 θ

que tem as variáveis r e θ separadas. Então,

m2
 
1 ∂ ∂Θ
sin θ − = −` (` + 1) ,
Θ sin θ ∂θ ∂θ sin2 θ

que resulta na equação polar

m2
   
1 ∂ ∂Θ
sin θ + ` (` + 1) − Θ = 0. (5.84)
sin θ ∂θ ∂θ sin2 θ

A equação radial é dada por

∂ 2 R ` (` + 1)
− R = 0. (5.85)
∂r2 r2

5.3.5.1 A equação radial

A solução da equação radial é claramente uma função polinomial de r. Vamos tentar a solução

R = Arp . (5.86)

Neste caso,
 2
∂ 2 rp

∂ ` (` + 1) p ` (` + 1) p
0= 2
− 2
Ar = A 2
− Ar
∂r r ∂r r2
∂ h (p−1) i ` (` + 1) p ` (` + 1) p
=A pr − 2
Ar = p (p − 1) Ar(p−2) − Ar
∂r r r2
= p (p − 1) Ar(p−2) − A` (` + 1) r(p−2) = A [p (p − 1) − ` (` + 1)] r(p−2) .

Assim,

p (p − 1) − ` (` + 1) = 0, (5.87)

ou seja,

p = ` + 1 ou p = −`. (5.88)

Neste caso,

R (r) = Ar`+1 + Br−` , (5.89)

em que ` é ainda indeterminado.

5.3.5.2 A equação polar

A equação polar, dada por

m2
   
1 d dΘ
sin θ + ` (` + 1) − Θ = 0, (5.90)
sin θ dθ dθ sin2 θ

92
pode ser melhor representada com a substituição de variável

x = cos θ. (5.91)

Neste caso,

d dx d d cos θ d d
= = = − sin θ .
dθ dθ dx dθ dx dx
Assim,

m2
   
d  dΘ
1 − x2 + ` (` + 1) − Θ = 0. (5.92)
dx dx 1 − x2

Esta equação é a equação generalizada de Legrendre.

5.3.5.3 Simetria azimutal (Polinômios de Legrendre)

Vamos considerar o caso de simetria azimutal, para o qual m = 0. Para este caso, a equação é a
equação de Legendre
 
d 2 dΘ

1−x + ` (` + 1) Θ = 0. (5.93)
dx dx

Podemos tentar a série de potências.


X
Θ (x) = aj xα+j , (5.94)
j

em que j e α são inteiros não negativos. Substituindo esta solução, temos


X 
aj (α + j) (α + j − 1) xα+j−2 + [` (` + 1) − (α + j) (α + j + 1)] xα+j = 0.

(5.95)
j

Cada potência de x deve se anular independentemente. Por exemplo, para j = 0, temos

a0 α (α − 1) xα−2 + [` (` + 1) − α (α + 1)] xα .


A potência em xα−1 só aparece uma vez em toda a série, no primeiro termo desta expressão.
Portanto, seu coeficiente

a0 α (α − 1)

deve ser nulo. Isto ocorre se

a0 = 0 ou α (α − 1) = 0. (5.96)

Vamos ver o termo para j = 1:

a1 α (α + 1) xα−1 + [` (` + 1) − (α + 1) (α + 2)] xα+1 .




Pelo mesmo motivo, a1 α (α + 1) deve ser nulo, o que ocorre se

a0 = 1 ou α (α + 1) = 0. (5.97)

Se tomarmos j = 2, veremos que o primeiro termo já é uma potência xα , que aparece em


j = 0. Tomando j → j + 2 no primeiro termo de (5.95), vemos que para que a relação se cumpra,

93
temos a relação recursiva

(α + j) (α + j + 1) − ` (` + 1)
aj+2 = aj . (5.98)
(α + j + 2) (α + j + 1)

As relações (5.96) e (5.97) precisam se respeitadas. Contudo, fazer ambos a0 e a1 nulos anularia
toda a série, de acordo com (5.98). Temos dois polinômios gerados independentemente, para
a0 6= 0 e para a1 6= 0. Ambas as soluções são equivalentes, de modo que tomaremos a1 = 0,
matando a série que começa com este termo. Se a0 6= 0, devemos ter α = 0 ou α = 1 segundo
(5.96). Se α = 0 for escolhido, o primeiro termo da série é dado apenas por a0 . Se α = 1, contudo,
o primeiro termo é a0 x. No primeiro caso, apenas termos de ordem par na potência de x formam a
série. No segundo, apenas termos de ordem ímpar, o que implica em duas séries independentes.
Devemos nos lembrar que x toma valores entre −1 e 1. Para qualquer valor de α, a série
converge se −1 < x < 1. Contudo, ela diverge se x = ±1, levando a soluções não físicas, já que
o potencial deve ser finito em θ = 0 e θ = π. A única forma de evitar a divergência da série é
exigir que a série termine. Além disso, visto que j é um número natural, ` também deve ser um
número natural (inteiro positivo, ou zero).
Se α = 0 temos
j (j + 1) − ` (` + 1)
aj+2 = aj . (5.99)
(j + 2) (j + 1)

Neste caso, j é par e devemos ter que ` também é par. Quando j = `, a série termina, ou seja,

Θ (x) = a0 + a2 x2 + a4 x4 + · · · + a` x` . (5.100)

Se α = 1, temos

(j + 1) (j + 2) − ` (` + 1)
aj+2 = aj . (5.101)
(j + 3) (j + 2)

Neste caso, a série termina se (j + 2) (j + 1) − ` (` + 1) = 0, ou seja,

j 2 + 3j + 2 − ` (` + 1) = 0.

As raízes são
1h p i
j= −3 ± 1 + 4` (` + 1) . (5.102)
2
Como consequência, para cada valor de `, o último valor de j será ` − 1. Se ` for par, temos a
série
X
Θ (x) = aj xj+1 = a0 x + a2 x3 + a4 x5 + · · · + a`−2 x`−1 , (5.103)
j

já que todos os aj com j ímpares são nulos. Se ` é ímpar,


X
Θ (x) = aj xj+1 = a0 x + a2 x3 + a4 x5 + · · · + a`−1 x` , (5.104)
j

que é a mesma série anterior. Assim, como ` par já tem uma série contemplada em (5.100),
podemos tomar apenas a série para ` ímpar (5.104).
De qualquer forma, para cada valor de ` a série tem potências pares de x, se ` for par e
potências ímpares de x, se ` for ímpar. Para cada caso, a potência mais alta é x` , seguida das
demais até o termo de ordem mais baixa.

94
Podemos construir as soluções como polinômios de Legendre P` (x),

P0 (x) = a0 , P1 (x) = a0 x, P2 (x) = a2 x2 + a0 , . . .

Esses polinômios podem ser normalizados de modo que P` (1) = 1. De modo geral, podem ser
escritos pela fórmula de Rodrigues

1 d` `
P` (x) = x2 − 1 . (5.105)
2` `! dx `

Se m = 0, a solução azimutal é igual a 1 e a solução, para determinado `, da equação de


Laplace é dada por

R` (r)  
Φ` = Θ` (θ) = A` r` + B` r−(`+1) P` (cos θ) .
r
A solução geral é a soma
∞ 
X 
Φ0 (r, θ) = A` r` + B` r−(`+1) P` (cos θ) . (5.106)
`∈N=0

Os polinômios de Legendre formam uma base vetorial para toda função f (x) no intervalo
x ∈ [−1, 1]. Isto significa que toda função neste intervalo pode ser expandida na forma

X
f (x) = a` P` (x) . (5.107)
`=0

Por ser uma base completa, ela é ortogonal:


ˆ 1
2
P`0 (x) P` (x) dx = δ `0 ` , (5.108)
−1 2` + 1

condição que pode ser demonstrada com a fórmula de Rodrigues. Usando-se (5.108), mostra-se
que
ˆ 1
2` + 1
a` = f (x) P` (x) dx (5.109)
2 −1

são os coeficientes da expansão.

5.3.6 Exemplo: a casca esférica


Vamos retornar ao exemplo da casca esférica. Como a casca tem simetria esférica, ela possui
naturalmente a simetria polar em conjunto com a azimutal, ou seja, Φ = Φ (r). Isto indica que
` = m = 0, de modo que P0 (cos θ) = 1 e

Φ (r) = A0 + B0 r−1 . (5.110)

Contudo, devemos nos lembrar que esta solução vale apenas para regiões do espaço sem dis-
tribuição de matéria. Portanto podemos aplicá-la nas regiões em que r < b e r > a da figura
5.3.6. Para r < b, o potencial (5.110) não existe para r = 0, portanto B0 = 0. Como resultado,
Φ (r) = A0 , que é uma constante que pode ser encontrada com uma condição de contorno em
r = b. Mais tarde retornaremos a este problema. Por outro lado, para r > a, desejamos que
Φ (r → ∞) = 0, o que implica em A0 = 0. Neste caso, Φ (r) = B0 /r. Novamente, a constante B0 é
encontrada através de uma condição de contorno, desta vez para r = a.

95
Figura 5.4: Casca esférica.

5.3.6.1 Solução na presença de matéria com simetria azimutal

Na seção 5.3.3, vimos que a função de Green do operador de Laplace é dada por

1 1
D (x, x0 ) = − , (5.111)
4π |x − x0 |

em que x e x0 são dois vetores posição de dois pontos x e x0 do espaço. Neste caso,
2
r2 ≡ |x − x0 | = x2 + x02 − 2xx0 cos γ, (5.112)

em que γ é o ângulo entre x e x0 . A função de Green (5.112) pode ser expandida em série de
Taylor:

X x` ∞
1 1 <
= = P (cos γ) .
`+1 `
(5.113)
|x − x0 |
p
x2 + x02 − 2xx0 cos γ x
`=0 >

Na expressão acima,
( (
x0 se x0 < x x se x0 < x
x< = , x> = . (5.114)
x se x0 > x x0 se x0 > x

Assim, a função de Green do operador laplaciano pode ser expandida em polinômios de Le-
gendre no caso de simetria azimutal (m = 0). Com esta simetria, temos claramente que γ = θ, e
a solução geral da equação de Poisson pode ser escrita por
∞  ˆ
x`<
X  
` −(`+1) 0
Φ (r, θ) = A` r + B ` r P` (cos θ) + Gρ (x ) `+1 P` (cos θ) dωx .
0 (5.115)
`∈N=0 Ω x>

Esta solução resolve o potencial no caso da casca esférica, dentro da distribuição de matéria,

96
em que b < r < a. Naquele caso, ` = 0 e, portanto,
ˆ x0 =a ˆ x0 =r
dωx0 dωx0
Φ (r) = −Gρ − Gρ
x0 =r x0 x0 =b r
ˆ x0 =a ˆ x0 =r
x02 dx0 4πGρ
= −4πGρ 0
− x02 dx0
x0 =r x r x0 =b
ˆ x0 =a ˆ 0
4πGρ x =r 02 0
= −4πGρ x0 dx0 − x dx
x0 =r r x0 =b
 02 a  r 
1 x03
 2
a2 1 r3 1 b3

x r
= −4πGρ + = −4πGρ − + + −
2 r r 3 b 2 2 r 3 r 3
 2 3

a b 1
= −4πGρ − − r2 , (5.116)
2 3r 6

que coincide com a expressão (5.36).


Agora podemos encontrar os coeficientes A0 e B0 em (5.110). Se r = b, (5.116) torna-se

Φ (b) = −2πGρ a2 − b2 ,


portanto,

A0 = −2πGρ a2 − b2

(5.117)

na solução do potencial para r < b. Por outro lado, para r = a,

4  1 1
Φ (a) = −G π a3 − b3 ρ = −GM .
3 a a
Assim, como Φ (x > a) = B0 /r,

1 B0
−GM = =⇒ B0 = −GM. (5.118)
a a
Usando a equação de Poisson, portanto, descobrimos que

Φ (r < b) = −2πGρ a2 − b2 ,

(5.119a)
 2
b3

a 1
Φ (b < r < a) = −4πGρ − − r2 , (5.119b)
2 3r 6
GM
Φ (r > a) = − . (5.119c)
r

5.3.7 Soluções para m 6= 0 (Harmônicos Esféricos)


Se não há simetria azimutal, ou seja m 6= 0, a equação polar torna-se a equação generalizada de
Legendre

m2
    
d 2
 d
1−x + ` (` + 1) − Θ`m (x) = 0, (5.120)
dx dx 1 − x2

em que x = cos θ, enquanto uma solução da equação de Laplace é dada por


 
Φ`m = A` r` + B` r−(`+1) Θ`m (θ) e±imϕ . (5.121)

Essas soluções devem ser somadas em ` e m para compor a solução geral sem a presença de
matéria.
Resolver a equação (5.120) envolve o mesmo procedimento usado para o caso em que m =

97
0, não sem alguma dificuldade adicional. As soluções podem ser escritas como expansões dos
denominados polinômios associados de Legrendre, dados por
m
(−1) m/2 d`+m `
P`m (x) = 1 − x2 x2 − 1 . (5.122)
2` `! dx `+m

O número polar ` continua um número natural, enquanto m deve ser um inteiro como visto pelas
condições de contorno de ϕ. Contudo, a solução (5.122) restringe m ao intervalo de −` a `, ou seja,

m = −`, − (` − 1) , − (` − 2) , . . . , 0, . . . , (` − 2) , (` − 1) , `. (5.123)

Isso é necessário para que a série de potências em x seja convergente em x = ±1.

Assim como os polinômios de Legendre, os polinômios associados também formam uma base
vetorial ortogonal no espaço de funções com domínio x ∈ [−1, 1], para m fixo. A condição de
ortogonalidade é dada por
ˆ 1
2 (` + m)!
P`m m
0 (x) P` (x) dx = δ `0 ` . (5.124)
−1 2` + 1 (` − m)!

Por outro lado, as soluções Ψm = e±imϕ formam uma base completa para funções de ϕ no inter-
valo ϕ ∈ [0, 2π]. O produto P`m (cos θ) Ψm (ϕ), neste caso, forma uma base completa de funções
definidas na superfície de uma esfera de raio unitário. Essa base é formada pelos harmônicos
esféricos
s
2` + 1 (` + m)! m
Y`m (θ, ϕ) = P (cos θ) eimϕ . (5.125)
4π (` − m)! `

As condições de ortogonalidade são dadas por


ˆ 2π ˆ π
dϕ sin θdθY`∗0 m0 (θ, ϕ) Y`m (θ, ϕ) = δ`0 ` δm0 m , (5.126)
0 0

em que Y`∗0 m0 (θ, ϕ) são harmônicos definidos para m0 estritamente positivos. Eles se relacionam
às soluções para m negativo pela relação

∗ ∗ m
Y`,−m (θ, ϕ) = (−1) Y`,m (θ, ϕ) . (5.127)

A solução geral torna-se, então,


∞ X
X `  
Φ= A` r` + B` r−(`+1) Y`m (θ, ϕ) . (5.128)
`=0 m=−`

Abaixo, mostramos alguns valores dessas funções.

1
Y00 = √ ,

r r
3 3
Y10 = cos θ, Y11 = − sin θeiϕ
4π 8π
r   r r
5 3 1 15 1 15
Y20 = 2
cos θ − , Y21 = − sin θ cos θeiϕ , Y22 = sin2 θe2iϕ ,
4π 2 2 8π 4 2π
···

98
Uma função f (θ, ϕ) na esfera unitária pode ser expandida na forma

∞ X
X `
f (θ, ϕ) = a`m Y`m (θ, ϕ) , (5.129)
`=0 m=−`

com
ˆ

a`m = dΩf (θ, ϕ) Y`m (θ, ϕ) . (5.130)

5.4 Tópicos em gravitação newtoniana


5.4.1 Forças de maré
As forças de maré são forças de tensão que aparecem em corpos extensos na presença de um
campo gravitacional. Como o valor do campo é diferente em diferentes pontos do corpo extenso,
as forças que agem nesses pontos são distintas, o que causa uma diferença de tensão no próprio
corpo. Este fenômeno é experimentado na observação das marés, quando o nível do oceano tem
mudanças significativas durante o dia.
Vamos supor um sistema Terra-Lua, em que D é o vetor que representa a distância entre
os centros e r é o raio da Terra. A princípio, desconsideraremos os movimentos de rotação da
Terra e da Lua. M é a massa da Terra e m a massa da Lua. Com relação a um dado referencial
inercial, um ponto x na superfície da Terra tem vetor posição dado por x, enquanto a posição da
Terra neste mesmo referencial é determinada por um vetor y. Neste caso, R é o vetor distância
entre o ponto x e o centro da Lua.
Se uma massa µ é colocada no ponto x, a força gravitacional que age sobre ela é dada por

GM µ Gmµ
µẍ = − r− R. (5.131)
r3 R3
Por outro lado, a força que a Lua exerce sobre a Terra é dada por

GM m
M ÿ = − D. (5.132)
D3

A diferença de aceleração entre a massa µ e a Terra é dada por

r̈ = ẍ − ÿ
GM Gm Gm
=− 3 r− 3 R+ 3 D
r R  D 
r R D
= −GM 3 − Gm − .
r R3 D3

A primeira parte é a aceleração gravitacional exercida pela Terra, mas a segunda parte consiste
na aceleração devida a uma força de maré:
 
R D
Ft ≡ −Gmµ − 3 , (5.133)
R3 D

e depende apenas da massa da Lua e da posição da massa µ.


Vamos considerar o ponto mais distante da Lua, que chamaremos a. Neste ponto, R = D + r
e, portanto,
" #
1 1
Ft (a) = −Gmµ 2 − D 2 d̂,
(D + r)

99
em que d̂ = D/D. Podemos reescrever esta expressão por
 
Gmµ  r −2
Ft (a) = − 2 1+ − 1 d̂. (5.134)
D D

Embora (5.134) seja a expressão completa, podemos usar a expansão


 r −2 2r  r 2
1+ =1− +3 + ··· , (5.135)
D D D
já que r < D. De fato, r/D é aproximadamente 0.02, então podemos ficar com o termo de ordem
r/D:

2Gmµr
Ft (a) = d̂. (5.136)
D3
Agora, vamos ver o que ocorre em um ponto b, o mais próximo da Lua. Neste caso, D = R + r
e
" #  
1
1 Gmµ  r −2
Ft (b) = −Gmµ 2 − d̂ = − 1 − − 1 d̂. (5.137)
(D − r) D2 D2 D

A expansão agora torna-se


 r −2 2r
1− ∼1+
D D
e, assim, o termo dominante da força de maré é dado por

2Gmµr
Ft (b) = − d̂. (5.138)
D3
Portanto, a força de maré no ponto mais próximo da Lua tem aproximadamente a mesma mag-
nitude do ponto mais distante, mas tem o sentido da Lua, enquanto no ponto mais distante a
força age no sentido contrário.
Vamos tomar um ponto c na direção ortogonal a D. Como r  D, podemos dizer em boa
aproximação que R ∼ D. Assim,
 
R D Gmµ Gmµ
Ft (c) = −Gmµ − ∼ − 3 (R − D) = − 3 r.
R3 D3 D D

Neste ponto, r é ortogonal a D e, assim, temos o resultado

Gmµr
Ft (c) = − r̂. (5.139)
D3
Um ponto f na outra extremidade ortogonal tem a mesma expressão (5.139).

5.4.2 Curvas de rotações de Galáxias e matéria escura


Os resultados observacionais da distribuição de velocidade de rotação de galáxias espirais indi-
cam que a velocidade de rotação é, em média, independente da distância do centro da galáxia.
Esta observação é incompatível com o modelo mais aceito, no qual a maior parte da massa dessas
galáxias repousa em seu centro. Supondo que, para uma massa m localizada a uma distância r
do centro de uma galáxia, a força centrípeta de rotação é igual à força gravitacional entre m e a
massa localizada no centro, temos
r
Mm mv 2 GM
G 2 = =⇒ v = , (5.140)
r r r

100
ou seja, a velocidade de rotação depende de r−1/2 .
Contudo, se a massa da galáxia depender linearmente de r, ou seja, M = M (R) ∼ R, a velo-
cidade de rotação torna-se independente de r e os dados experimentais poderiam ser explicados.
Uma distribuição de massa desse tipo não pode ser explicada com a massa visível das galáxias,
então uma das hipóteses para explicar a curva de rotação de galáxias espirais é a chamada
matéria escura.

5.5 Resumo

5.6 Exercícios

101
102
Capítulo 6

Sistemas não inerciais

6.1 Referencial em movimento circular


 
Vamos considerar dois sistemas de coordenadas xi e y i , o primeiro relativo a um referencial
inercial {x} com relação a uma partícula livre de massa m, e o segundo relativo a um referencial
não inercial {y} em movimento de rotação com velocidade angular constante ω com relação ao
sistema {x}. Neste caso, temos

y 1 = x1 cos ωt − x2 sin ωt, (6.1a)


2 1 2
y = x sin ωt + x cos ωt, (6.1b)
3 3
y =x . (6.1c)

Nesta configuração, o eixo de rotação do sistema {y} com relação ao sistema {x} é o eixo x3 = y 3 .
No sistema inercial {x}, as equações de movimento de uma partícula livre são dada por ẍi = 0,
portanto dizemos que o movimento geodésico é uma linha reta neste referencial. É claro que o
movimento de uma partícula não depende do referencial adotado, portanto se o movimento é
inercial, permanecerá inercial para todo referencial, inercial ou não. Contudo, com relação ao

referencial {y}, as equações de movimento no sistema de coordenadas y i não tomarão a forma
de uma reta em E3 .
As velocidades relativas do sistema {y} com relação ao sistema {x} são dadas por

ẏ 1 = ẋ1 cos ωt − ẋ2 sin ωt − ωy 2 , (6.2a)


2 1 2 1
ẏ = ẋ sin ωt + ẋ cos ωt + ωy , (6.2b)
3 3
ẏ = ẋ . (6.2c)

As acelerações, tomando-se ẍi = 0,

ÿ 1 = ω −ẋ1 sin ωt − ẋ2 cos ωt − ω ÿ 2 = −ω ẏ 2 − ωy 1 − ω ÿ 2


 
(6.3a)
ÿ 2 = ω ẋ1 cos ωt − ẋ2 sin ωt + ωy 1 = ω ẏ 1 + ωy 2 + ωy 1
 
(6.3b)
3
ÿ = 0, (6.3c)

ou,

ÿ 1 = ω 2 y 1 − 2ω ẏ 2 , (6.4a)
2 2 2 1
ÿ = ω y + 2ωy , (6.4b)
3
ÿ = 0. (6.4c)

Portanto, o sistema {y} mede uma aceleração na partícula, ainda que não haja uma força

103
agindo sobre ela. No caso mais geral, em que ω é o vetor velocidade angular, a expressão da
velocidade é dada por

ÿ = ω × ω × y + 2ω × ẏ. (6.5)

Portanto, um observador no referencial {y} tende a atribuir uma força à aceleração (6.5) se
ele, ingenuamente, assumir que a segunda lei de Newton é válida para seu próprio referencial.
Neste caso, ele denominará a parte

ac ≡ ω × ω × y (6.6)

como uma aceleração centrífuga. Por outro lado,

γ ≡ 2ω × ẏ (6.7)

é denominada aceleração de Coriolis.

6.2 Forma covariante das equações de movimento

Vamos, agora, lidar com o caso mais geral, em que {x} e {y} são dois referenciais quaisquer,
ambos com observadores para um sistema sobre o qual age uma força F. Se a adoção de um
sistema de referência não inercial resulta sempre em forças fictícias, desejamos obter uma forma
geral para essas forças.
Os sistemas de coordenadas {xi } e {yi } estão relacionados pelas transformações

xi −→ yi = yi (xj ) . (6.8)

Por hora, vamos supor que esta transformação não depende explicitamente do tempo, o que
ainda exclui o exemplo da seção 6.1.
Vamos supor que (6.8) seja inversível, o que ocorre quando o Jacobiano da transformação
obedece à condição
 
∂yi
det 6= 0. (6.9)
∂xj

A matriz
∂yi
Λij ≡ (6.10)
∂xj

é denominada a matriz de transformação. No caso das transformações (6.1), por exemplo,

cos ωt − sin ωt 0
 

Λ =  sin ωt cos ωt 0  . (6.11)


0 0 1

Contudo, (6.8) pode ser qualquer transformação de coordenadas, não necessariamente linear.
Essas transformações são denominadas difeomorfismos em E3 .
As velocidades ẏi são dadas por

dΛij
ẏi = xj + Λij ẋj . (6.12)
dt

104
Da mesma forma, as acelerações resultam em

d2 Λij dΛij
ÿi = 2
xj + 2 ẋj + Λij ẍj . (6.13)
dt dt

Dizemos que um vetor u é invariante diante das transformações (6.8) se suas componentes se
transformam da mesma forma que as coordenadas, ou seja, ui (y) = Λij (x) uj (x). Embora veloci-
dades e acelerações sejam vetores invariantes por rotações, eles não o são quando as transforma-
ções relevantes são os difeomorfismos. Por esta razão, a segunda lei de Newton tem preferência
por referenciais inerciais. Se formos capazes de definir vetores covariantes às transformações
(6.8), as equações de movimento construídas com esses elementos serão invariantes e, portanto,
válidos em qualquer referencial.
A chave está no fato de que a diferencial de uma função F (x), que depende do ponto do espaço,
não é invariante. No referencial {y}, temos

∂F
dF = dyi . (6.14)
∂yi

Se dF for invariante pelas transformações (6.8), então

∂F
dF = dxi . (6.15)
∂xi

Contudo, temos

∂F ∂F dxj ∂F
Λ−1 ji ,

= =
∂yi ∂xj dyi ∂xj

enquanto
 
dΛij
dyi = dtẏi = dt xj + Λij ẋj = dΛij xj + Λij dxj .
dt

Portanto,

∂F  ∂F h i ∂F
= [dΛij xj + Λij dxj ] Λ−1 ki = dΛik xk Λ−1 ji + dxj

dF = dyi . (6.16)
∂yi ∂xk ∂xj

Assim, a diferencial de uma função escalar não é invariante pelas transformações (6.8).

6.2.1 Generalização de vetores em E3

Vamos supor uma curva C ⊂ E3 : xi = xi (t). Em um determinado ponto x ∈ C, definimos o vetor


velocidade como
d ∂
v≡ = ẋi i ≡ ẋi ∂i , (6.17)
dt ∂x
Este vetor é um operador diferencial e tem como componentes as velocidades ẋi no sistema de
coordenadas {xi }. Assim, as derivadas parciais ∂i agem como uma base coordenada. No sistema
{yi }, temos

d ∂
v= = ẏi , (6.18)
dt ∂yi

ou seja, o vetor em si deve ter a mesma forma em qualquer sistema de coordenadas.

105
Segundo (6.8), a regra de transformação para a diferencial dxi na curva C é dada por

dyi (x)
dyi = dxk = Λij dxj . (6.19)
dxk

Por outro lado, uma derivada parcial se transforma como

∂ dxj ∂  ∂
= Λ−1 ji = Λ−1 ji ∂j .

= (6.20)
∂yi dyi ∂xj ∂xj

Então, para que um vetor seja invariante, temos


= vi (y) Λ−1 ji ∂j = vi (x) ∂i ,

v = vi (y)
∂yi

ou seja,

vi (y) = Λij (x) vj (x) . (6.21)

Dizemos que as componentes v i se transformam covariantemente por difeomorfismos.


Outro exemplo é o de um covetor α = αi dxi . Segundo (6.19), temos

α = αi (y) dyi = αi (y) Λij dxj = αj (x) dxj ,

ou seja,

αj (x) = αi (y) Λij (y) ⇐⇒ αi (y) = αj (x) Λ−1



ji
. (6.22)

A métrica, por outro lado, é um exemplo de tensor do tipo (0, 2), definido por

g = gij (x) dxi dxj = gij (y) dyi dyj . (6.23)

Temos:

g = gij (y) dyi dyj = (gij (y) Λim Λjn ) dxm dxn .

Portanto, suas componentes se transformam por

gmn (x) = gij (y) Λim Λjn = ΛT



g
mi ij
(y) Λjn ,

ou,
−1
gij (y) = ΛT gmn (x) Λ−1

im nj
. (6.24)

Nessas expressões, usamos

Aim A−1 = A−1


 
mj im
Amj = δij , (6.25)

para toda matriz A.

6.2.2 Derivada covariante

A diferenciação ordinária também se aplica a outros elementos geométricos, como por exemplo,
a diferencial de um vetor u = ui ∂i . Neste caso,

du ≡ dxi ∂i uj ∂j . (6.26)

106
Vamos ver como se comporta (6.26) pelas transformações (6.8).

∂ dxk ∂
uj (y) = uj (y) . (6.27)
∂yi dyi ∂xk

Se u é um vetor sob as transformações (6.8), ou seja,

ui (y) = Λij (x) uj (x) , (6.28)

então,
∂ ∂
[Λjm (x) um (x)] Λ−1 ki

uj (y) =
∂yi ∂xk
∂Λjm ∂um −1 
um Λ−1 ki + Λjm

= Λ ki
, (6.29)
∂xk ∂xk
ou seja, a diferencial du não é invariante em razão da dependência da matriz de transformação
com o ponto do espaço. O termo

∂Λjm −1 
Λ u
ki m
∂xk

é o responsável pela não covariância da derivada direcional ordinária. Portanto, vamos redefinir
as derivadas direcionais com a introdução de um elemento geométrico, que denominamos Γ. A
nova derivada é denominada derivada covariante e é definida por

Di uj ≡ ∂i uj + Γjik uk = (δjk ∂i + Γjik ) uk , (6.30)

quando age em vetores. Γijk são as componentes de Γ em um dado sistema de coordenadas.


Com (6.30), vemos que a derivada covariante se transforma por

∂uj
Di (y) uj (y) = + Γjik (y) uk (y)
∂y i
∂Λjm m −1 k j ∂u
m k
= u Λ + Λ m Λ−1 i + Γjik (y) Λkm um
∂xk i ∂xk
∂um k ∂Λjm m −1 k
= Λjm k
+ Γmkl ul − Γmkl ul Λ−1 i + Γjik (y) Λkm um + u Λ
∂x ∂xk i

k ∂Λjm m −1 k
= Λjm Dk um − Γmkl ul Λ−1 i + Γjik (y) Λkm um +
 
u Λ
∂xk i
∂Λjm
= Λjm Dk um Λ−1 ki − Λjm Γmkl ul Λ−1 ki + Γjik (y) Λkm um + um Λ−1 ki .
  
∂xk
Para que a expressão seja covariante, a lei de transformação deve ser

Di (y) uj (y) = Λjm Dk um Λ−1



ki
,

ou seja, os demais termos devem ser nulos:

k ∂Λjm m −1 k
Γjik (y) Λkm um − Λjm Γmkl ul Λ−1 + u Λ = 0.
i ∂xk i

Esta expressão dá a lei de transformação

∂Λjm −1 
Γjin (y) = Λjl Λ−1 Λ−1 Λ−1 mn .
  
ki mn
Γlkm (x) − Λ ki
(6.31)
∂xk

Todo objeto de três índices cujas componentes se transformam como (6.31) é denominado co-
nexão. A conexão é um elemento geométrico introduzido a um espaço métrico de modo a corrigir

107
o processo de derivação sobre uma curva. Ele também é responsável por definir o transporte
paralelo de vetores em espaços não euclidianos. Nosso espaço, contudo, permanece euclidiano.
A presença da conexão, neste caso, apenas explicita como as derivadas e, portanto, velocidades e
acelerações, mudam através de uma mudança geral no sistema de coordenadas.
Vamos restringir a conexão de duas formas, de modo a obter uma expressão dela. Primeiro,
ela é suposta simétrica nos últimos índices. Como todo tensor, as componentes podem ser escritas
como uma parte simétrica e antissimétrica

1 1
Γijk = (Γijk + Γikj ) + (Γijk − Γikj ) ≡ Γi(jk) + Γi[jk] . (6.32)
2 2
A parte antissimétrica é denominada torção:

Tijk ≡ 2Γi[jk] = Γijk − Γikj . (6.33)

Se a conexão é simétrica, a torção deve ser nula e, portanto, estamos tratando de um espaço afim
sem torção.
A segunda condição é chamada condição de metricidade, ou compatibilidade métrica. Neste
caso, restringimos o espaço de modo que a métrica seja covariantemente constante. Seja a mé-
trica o tensor de segunda ordem definido por

g = gij dxi dxj ,

que é o elemento que mede a distância entre dois pontos infinitesimais x e x + dx em E3 . A


condição de metricidade é dada por

Di gjk ≡ ∂i gjk − Γmij gmk − Γmik gjm = 0. (6.34)

Esta é a expressão para a derivada covariante de um tensor do tipo (0, 2). Portanto, a condição
(6.34) implica na conservação covariante da métrica.
Vamos tomar as três combinações cíclicas dos índices em (6.34) e montar o sistema de equa-
ções

−∂i gjk + Γmij gmk + Γmik gjm = 0,


−∂j gki + Γmjk gmi + Γmji gkm = 0,
∂k gij − Γmki gmj − Γmkj gim = 0.

Somando essas equações, temos

∂k gij − ∂i gjk − ∂j gki + 2Γmij gmk = 0.

Portanto,

1
Γmij = gmk [∂i gjk + ∂j gki − ∂k gij ] . (6.35)
2
As componentes

1
Γ̆ijk ≡ (∂i gjk + ∂j gki − ∂k gij ) (6.36)
2
são chamadas símbolos de Christoffel do primeiro tipo, enquanto

Γijm ≡ gmk Γ̆ijk (6.37)

são chamadas simplesmente símbolos de Christoffel. Portanto, se o espaço tem torção nula e é

108
compatível com a métrica, as componentes da conexão são iguais aos símbolos de Cristoffel.
No espaço E3 , a métrica é euclidiana. No sistema de coordenadas cartesiano, as componentes
são simplesmente a delta de Kronecker, ou seja,
 
1 0 0
δij =  0 1 0 .
0 0 1

Contudo, em qualquer outro sistema de coordenadas, essas componentes se transformam se-


gundo a relação (6.24)
−1
gij (y) = ΛT gmn (x) Λ−1

im nj
.

Portanto, as componentes da métrica passam a depender do ponto do espaço em um sistema de


coordenadas qualquer, mesmo a métrica mantendo-se euclidiana. Se as componentes são carte-
sianas, então elas são constantes e, neste caso, a conexão é nula. No referencial {y}, contudo, a
conexão é, no geral, diferente de zero.
Seja uma curva C : xi = xi (t) em E3 . Vamos manter nossa definição usual de velocidade, ou
seja, o vetor tangente à curva C em um ponto x:

d ∂
v≡ = ẋi = ẋi ∂i . (6.38)
dt ∂xi

Contudo, vamos definir a aceleração covariante a = ai ∂i tal que

a ≡ Dt v = ẋi Di ẋj ∂j . (6.39)

As componentes

ai = ẋj Dj ẋi (6.40)

são as componentes desta aceleração. Se a conexão é nula, o que significa que estamos em um
sistema de coordenadas cartesiano, a derivada covariante é igual à derivada ordinária e ai = ẍi .
Neste caso, a segunda lei de Newton se aplica e temos

mẍi = Fi (x) . (6.41)

Podemos generalizar a equação de movimento (6.41) para o caso geral. Assim,

mai = Fi (6.42)

é uma expressão válida para qualquer sistema de coordenadas. (6.42) é a expressão da segunda
lei de Newton válida para qualquer referencial.
Note que

mai − Fi = mv j Dj v i − F i = mv j ∂j v i + Γijk v k − F i
 

= m v j ∂j v i + Γijk v j v k − F i = m v̇ i + Γijk v j v k − F i
   

= m [ẍi + Γijk ẋj ẋk ] − Fi = 0,

ou seja,

ẍi + Γijk ẋj ẋk = Fi /m. (6.43)

Se a força é nula, a equação (6.43) torna-se uma equação geodésica. Portanto, em referenciais
não inerciais, movimentos inerciais são definidos por geodésias em E3 , enquanto o papel de forças

109
externas é o de desviar o movimento de suas geodésias naturais.

6.3 Resumo

6.4 Exercícios

110
Capítulo 7

Sistemas de Partículas

7.1 Dinâmica e cinemática de sistemas de partículas

7.1.1 O centro de massa

Seja um sistema de N partículas de massas mI , em que {I} = {1, 2, · · · , n}. A convenção de soma
não será aplicada ao índice I. Se a massa total do sistema for denominada
N
X
M≡ mI (7.1)
I=1

e rI for o vetor posição de cada partícula com relação a um determinado referencial inercial,
definimos o centro de massa do sistema como
N
1 X
R≡ mI rI . (7.2)
M
I=1

No caso de uma distribuição de massas com densidade ρ (x) = dm (x) /dω, em que dω é um
elemento de volume com massa dm, temos
ˆ ˆ
1 1
R= rdm = ρ (x) r (x) dω, (7.3)
M M Ω
em que
ˆ ˆ
M= dm = ρ (x) dω. (7.4)

7.1.2 O momento linear

Como vimos no capítulo 2, se o sistema está isolado, mas existe interação entre as partículas, o
momento total do sistema
N
X
p≡ mI ẋI (7.5)
I=1

é uma quantidade conservada. Se há uma força externa F que age sobre o sistema, temos

dp
= F. (7.6)
dt

111
Em cada partícula, a equação de movimento torna-se

dpI X
= FI + fIJ , (7.7)
dt
J6=I

em que fIJ é a força que age sobre a partícula I devida à interação com uma segunda partícula
J. Esta equação torna-se

d2 X
(mI r I ) = F I + fIJ . (7.8)
dt2
J6=I

Somando-se em I, temos
!
d2 X X X
m I rI = F I + fIJ . (7.9)
dt2
I I I,J6=I

A conservação do momento implica em fIJ = −fJI , que é a forma forte da terceira lei de
Newton. Podemos pensar em fIJ como uma matriz antissimétrica de ordem N . Neste caso, os
termos diagonais são sempre nulos, de modo que podemos ignorar a restrição J 6= I em (7.9). Por
outro lado, a soma de todos os termos de uma matriz antissimétrica é sempre zero, ou seja,
X X
fIJ = fIJ = 0. (7.10)
I,J6=I I,J

Portanto,
!
d2 X X
mI rI = FI ≡ F. (7.11)
dt2
I I

Esta equação resulta em


!
d2 1 X d2 R
M 2 mI rI =F =⇒ M =F =⇒ M R̈ = F. (7.12)
dt M dt2
I

Portanto, o movimento do centro de massa é o mesmo de uma partícula de massa M com posição
R sujeita à força F.

7.1.3 O momento angular


Vamos tomar uma determinada partícula I do sistema. Sua posição com relação ao centro de
massa é dada por

xI = rI − R, (7.13)

em que rI é a posição com relação à origem e R a posição do centro de massa (Figura 7.1).
O momento angular é definido por

LI ≡ rI × pI = mI rI × ṙI . (7.14)

Em termos de xI ,
 
LI = mI rI × ṙI = mI (xI + R) × ẋI + Ṙ
 
= mI xI × ẋI + xI × Ṙ + R × ẋI + R × Ṙ . (7.15)

112
Figura 7.1: Posição relativa ao centro de massa.

O momento angular total é dado por


X  
L = mI xI × ẋI + xI × Ṙ + R × ẋI + R × Ṙ
I
! !
X   X d X
= mI xI × ẋI + R × Ṙ + mI xI × Ṙ + R × mI xI . (7.16)
dt
I I I

Os dois últimos termos se anulam, visto que


X X X
mI xI = mI (rI − R) = mI rI − RM = M R − RM = 0. (7.17)
I I I

Portanto,
X X
L= mI xI × ẋI + M R × Ṙ = xI × (mI ẋI ) + R × Ṗ. (7.18)
I I

O momento angular total é, portanto, a soma do momento angular do centro de massa e dos
momentos angulares das partículas com relação ao centro de massa.

O torque de cada partícula é dado por

d
NI ≡ L̇I = (rI × pI ) = rI × ṗI . (7.19)
dt
Neste caso,
!
X
NI = rI × FI + fIJ , (7.20)
J

enquanto o torque total é dado por


X X X
N= NI = r I × FI + rI × fIJ . (7.21)
I I I,J

Lembremos que fIJ = −fJI , o que exclui da última soma os termos em que I = J.

113
Note que
X X X X
rI × fIJ = rJ × fJI = rJ × fJI = − rJ × fIJ .
I,J J,I I,J I,J

Portanto,
X 1X
rI × fIJ = (rI − rJ ) × fIJ , (7.22)
2
I,J I,J

em que rIJ ≡ rI − rJ é o vetor distância entre duas partículas I e J. Agora, vamos supor que a
força seja central, ou seja, tenha a mesma direção de rIJ . Neste caso,
X 1X
rI × fIJ = rIJ × fIJ = 0 (7.23)
2
I,J I,J

e, portanto,
X
N= r I × FI . (7.24)
I

Assim, o torque total depende apenas da força externa que age em cada partícula. Além disso, a
soma dos torques internos é nula.

7.1.4 Energia
Vamos considerar as equações de movimento
X
mI r̈I = FI + fIJ . (7.25)
J

Multiplicando-se por ṙI , temos


X
mI r̈I · ṙI = ṙI · FI + ṙI · fIJ ,
J

que resulta em
 
d 1 X
mI ṙ2I = ṙI · FI + ṙI · fIJ . (7.26)
dt 2
J

Somando em I,
!
d X X X
KI = ṙI · FI + ṙI · fIJ , (7.27)
dt
I I I,J

P
com KI a energia cinética da partícula I. Seja K ≡ I KI a energia cinética total do sistema.
Se as forças externas são conservativas, temos FI = −∇I VI , ou seja,

d X
(K + V ) = ṙI · fIJ , (7.28)
dt
I,J

P
em que V = I VI .
Agora vamos supor que as forças internas sejam conservativas. Neste caso,

fIJ = −∇I UIJ . (7.29)

114
De (7.28), temos
X 1X
ṙI · fIJ = ṙIJ · fIJ ,
2
I,J I,J

em que ṙIJ é a velocidade relativa entre as partículas I e J. Note que

dUIJ ∂UIJ X
= + ṙK · ∇K UIJ .
dt ∂t
K

Supondo-se UIJ constante, temos

dUIJ X
= ṙK · ∇K UIJ = ṙI · ∇I UIJ + ṙJ · ∇J UIJ = ṙI · ∇I UIJ + ṙJ · ∇J UJI
dt
K

= ṙI · fJI + ṙJ · fIJ = −ṙI · fIJ + ṙJ · fIJ = − (ṙI − ṙJ ) · fIJ = −ṙIJ · fIJ .

Então,
 
X d 1 X
ṙI · fIJ =− UIJ  . (7.30)
dt 2
I,J I,J

Portanto,
 
d  1X
K +V + UIJ  = 0. (7.31)
dt 2
I,J

Assim, a energia mecânica é dada por

1X
E ≡K +V + UIJ (7.32)
2
I,J

e é uma constante do movimento.


Sobre a energia cinética, temos

1X 1X    
K= mI ṙI · ṙI = mI ẋI + Ṙ · ẋI + Ṙ
2 2
I I
1 X  
= mI ẋI · ẋI + ẋI · Ṙ + Ṙ · ẋI + Ṙ · Ṙ . (7.33)
2
I

Como antes calculado:


X
mI xI = 0,
I

portanto,

1X   1X 1
K= mI ẋI · ẋI + Ṙ · Ṙ = mI ẋ2I + M Ṙ · Ṙ. (7.34)
2 2 2
I I

7.2 Vínculos
Um vínculo é uma condição de restrição do movimento de um sistema. Por exemplo, um pêndulo
simples pode ser entendido como o movimento de uma partícula no campo gravitacional, cuja
distância a um determinado ponto fixo é constante. Temos visto outros exemplos de sistemas

115
vinculados durante o curso. Um deles é o problema de forças centrais, no qual a órbita de um
sistema está sempre restrita a um plano ortogonal ao momento angular. O responsável por
este vínculo é, naturalmente, a equação de movimento para o ângulo azimutal, que vem a ser a
própria equação de conservação do momento angular.
Vínculos podem ser classificados em dois tipos: holonômicos e não holonômicos. Vínculos
holonômicos são aqueles que podem ser expressos por equações do tipo

f xi = 0,

{i} = {1, 2, 3} , (7.35)

que definem superfícies em E3 . São equações que definem condições sobre as coordenadas do
sistema. O pêndulo simples e a força central são dois exemplos de sistemas holonômicos. A
principal característica desses sistemas é o fato de que o movimento tridimensional em E3 torna-
se restrito a um subespaço de E3 .
Sistemas com vínculos não holonômicos, por outro lado, são descritos por equações diferenci-
ais não integráveis, do tipo

φ dxi = αi dxi = 0,

(7.36)

em que os coeficientes são funções arbitrárias das posições e outras variáveis dinâmicas. A
não integrabilidade implica em não ser possível extrair uma equação do tipo (7.35) a partir de
(7.36), ou seja, (7.36) é não integrável. Por este motivo, podemos chamar vínculos holonômicos
de vínculos integráveis, e os não holonômicos de vínculos não integráveis. Um exemplo de um
sistema não holonômico vem a ser o da bicicleta. A roda de uma bicicleta é um corpo rígido
que, com a condição de não deslizar durante o movimento, tem velocidade local nula no ponto de
contato da roda com o chão.

7.2.1 Graus de liberdade e o espaço de configuração

Vamos supor um sistema de N partículas cujas equações de movimento são dadas por

dpI
− FI = 0, {I} = {1, · · · , N } . (7.37)
dt
Este sistema consiste em 3N equações de movimento. Se o sistema não tiver vínculos, dizemos
que ele possui 3N graus de liberdade, pois cada variável xI = xiI do sistema é independente das
demais coordenadas. Podemos montar, portanto, um espaço retangular Rn sujas coordenadas

são os n = 3N graus de liberdade xiI do sistema. Este espaço é um protótipo do que denomi-
naremos o espaço de configuração no formalismo lagrangiano.
Vamos supor que este sistema possua k vínculos integráveis,

φα (xI ) = 0, (7.38)

que determinam uma hiper superfície Σm ⊂ Rn de dimensão m = n − k. As equações (7.37) com


os vínculos (7.38) formam um sistema restrito Σm . Neste caso, dizemos que o sistema possui m
graus de liberdade, pois é descrito por apenas m variáveis independentes.
Por exemplo, consideremos uma partícula livre em E3 , cujas equações de movimento se escre-
vem

ẍ = 0, (7.39)

restrita à superfície de uma esfera de raio r. A esfera é definida pela equação

x2 + y 2 + z 2 − r2 = 0. (7.40)

116
Portanto, o sistema é descrito por

ẍ = 0, (7.41a)
φ (x) = 0, (7.41b)

em que

φ (x) = x2 − r = 0 (7.42)

é um vínculo integrável. Sem a restrição (7.42), o sistema teria três graus de liberdade. Contudo,
restrito à esfera, o sistema é dito possuir apenas dois graus de liberdade.
Portanto, o número de graus de liberdade de um sistema é igual ao número de equações
dinâmicas que o descreve menos o número de vínculos holonômicos. O espaço formado pelos
graus de liberdade de um sistema é denominado espaço, ou variedade de configuração.

7.2.2 Multiplicadores de Lagrange

Se um sistema possui apenas vínculos holonômicos, vamos supor que exista uma força respon-
sável por manter os vínculos do sistema. Portanto, as equações de movimento com vínculos

ṗI = FI , φα (x) = 0, α = 1, · · · , k. (7.43)

podem ser descritas pelas equações

mI ẍI = FI + fI . (7.44)

Nessas equações, FI são as forças externas e fI as forças internas que são responsáveis pela
restrição do sistema a uma hiper superfície Σm=n−k ⊂ Rn . Portanto, essas forças simplesmente
mantêm o sistema em Σm . A força fI não é uma força única, é suficiente que ela seja ortogonal a
Σm em cada ponto da hiper superfície. Portanto, as componentes da força devem ser proporcio-
nais ao gradiente de φ, ou seja,

fI = −λα ∇I φα , (7.45)

em que a convenção de soma se aplica a α. As funções λα são arbitrárias, não conhecidas a


princípio, denominadas multiplicadores de Lagrange. Então,

mI ẍI = FI − λα ∇I φα .

Note que

λα ∇I φα = ∇I [λα φα ] − ∇I λα φα .

Como φα = 0, temos

λα ∇I φα = ∇I [λα φα ]

e, portanto,

mI ẍI = FI − ∇I (λα φα ) . (7.46)

Se a força externa é conservativa,

FI = −∇I V, (7.47)

117
em que V é o potencial externo. Então,

mI ẍI = −∇I (V + λα φα ) . (7.48)

Nesta dedução, usamos o fato de que os vínculos integráveis podem ser escritos por uma
relação entre as coordenadas e implicitamente mostramos que as forças responsáveis por manter
o sistema preso a Σm são conservativas. Vínculos não integráveis, que não podem ser escritos
por relações entre as coordenadas, são mantidos por forças não conservativas. Somos levados a
interpretar os termos λα φα como os potenciais responsáveis pelas forças que mantêm o sistema
sobre Σm .

Tomando-se o produto de (7.48) com relação a ẋiI , somando em I, temos


X X
mI ẍI · ẋI = − ẋI · ∇I (V + λα φα ) ,
I I

que podemos colocar na forma

d
(K + V + λα φα ) = 0. (7.49)
dt
Note, contudo, que

dφα X X
λα = ẋI · λα ∇I φα = − ẋI · fI
dt
I I

deve ser zero, visto que as forças de sustentação dos vínculos não podem realizar trabalho. Por-
tanto, dizemos que

dφα
=0 (7.50)
dt
são condições de consistência sobre os vínculos φα . Se essas condições são satisfeitas, as forças
que restringem o sistema a Σm não realizam trabalho e, portanto, a energia mecânica do sistema,

E = K + V, (7.51)

se conserva. Por outro lado, se as condições (7.50) não forem satisfeitas, a hiper superfície Σm
dependerá do tempo e, assim, interpretamos a conservação da energia como uma troca de energia
entre o sistema e a superfície.

No caso da partícula livre em uma esfera, temos que a equação de movimento original ẍ = 0
é substituída pela equação

ẍ = f = −λ∇φ, (7.52)

em que φ = x2 − r2 é o vínculo da superfície da esfera. Neste caso, ∇x2 = 2x, de modo que

ẍ + 2λx = 0 (7.53)

é a equação de movimento, para a qual precisamos de uma forma para λ. Note que a condição de
consistência para φ é dada por,

d
x2 − r2 = 2x · ẋ = 0,

φ̇ =
dt

118
ou seja,

χ ≡ x · ẋ = 0. (7.54)

A condição χ = 0 é um novo vínculo, que expressa a condição de preservação da energia mecânica:


a posição é sempre ortogonal à velocidade. Se este vínculo também se preservar com o tempo,
temos
d
χ̇ = (x · ẋ) = ẋ2 + x · ẍ. (7.55)
dt
Usando(7.53)

χ̇ = ẋ2 − 2λx2 = v 2 − 2λr2 , (7.56)

em que v = |ẋ| e usamos o vínculo x2 = r2 . Se χ̇ = 0, temos

v2
v 2 − 2λr2 = 0 =⇒ λ= . (7.57)
2r2
Portanto, temos a equação de movimento

v2
ẍ + x = 0, (7.58)
r2
que é a equação para um oscilador harmônico tridimensional com frequência angular ω = v/r. A
redução de graus de liberdade não é evidente, mas pode ser analisada em coordenadas esféricas.
O movimento na coordenada r não existe, pois r é constante, portando os graus de liberdade do
sistema restringem-se aos ângulos θ e ϕ, que geram o espaço de configuração do sistema.

7.3 Cinemática dos corpos rígidos


Vamos considerar um sistema de N partículas que, livre de vínculos, possuiria n = 3N graus de
liberdade. Este sistema torna-se um corpo rígido se a distância entre quaisquer duas partículas
for constante. Neste caso, as equações de movimento

ṗI = FI , (7.59)

em que FI é a soma das forças que agem sobre uma partícula I, são submetidas aos vínculos

rIJ ≡ |xI − xJ | = constante. (7.60)

Os vínculos de rigidez (7.60) podem ser tomados como uma equação matricial cuja matriz rIJ
é simétrica e de diagonal nula. Portanto, os vínculos consistem em (N/2) (N − 1) equações.
Contar os graus de liberdade, contudo, não é tarefa trivial, pois esses vínculos não são inde-
pendentes entre si.
Os graus de liberdade de um corpo rígido consistem na localização espacial de um determi-
nado ponto A do corpo (três coordenadas), a direção deste ponto com relação a um segundo ponto
B (duas coordenadas), mais a orientação do plano contendo os pontos A e B com relação a um
terceiro ponto C (uma coordenada). Portanto, o espaço de configuração de um corpo rígido tem
dimensão seis. Denominaremos este espaço pelo símbolo Q6 . No sentido matemático, o espaço
Q6 é o produto direto entre o espaço euclidiano R3 e o espaço da orientação do corpo rígido em
R3 , formado por três ângulos. Estes ângulos podem ser escolhidos para coincidir com os denomi-
nados ângulos de Euler.
Vamos supor que não há forças externas agindo sobre o sistema. Neste caso, o movimento

119
de translação pode ser ignorado com a escolha de um sistema de coordenadas apropriado. O
ponto A mencionado acima pode ser convenientemente escolhido como a origem deste sistema
de coordenadas, de modo que este permanece fixo no espaço. Este ponto é chamado pivô do corpo
rígido. No geral, é conveniente colocar A na posição do centro de massa do sistema. Escolhido
um pivô, é possível demonstrar que:

1. Em um instante de tempo t, existe uma linha k que passa por A no qual todos os pontos
estão em repouso com relação a A.

2. Todos os pontos do corpo se movem perpendicularmente com relação a k.

3. A velocidade de qualquer ponto do corpo rígido é diretamente proporcional à distância com


relação a k.

A linha k é chamada eixo de rotação do corpo rígido. No geral, ela não permanece constante no
tempo, mas assume diferentes posições em diferentes instantes de tempo.

7.3.1 Velocidade angular


Suponha um corpo rígido com um pivô A, que é a origem de um sistema de coordenadas inercial.
Agora, considere um ponto X 6= A, de vetor posição x. Como a distância entre A e X é constante,
temos

dx2
= 2x · ẋ = 0, (7.61)
dt
portanto ẋ é nulo ou ortogonal a x. A linha ` que liga X e A é livre para rodar ao redor de A.
As velocidades de todos os pontos em ` são, assim, paralelas a ẋ e, portanto, paralelas entre
si. Como X é um ponto arbitrário, essas velocidades são também ortogonais a suas referidas
posições. Neste caso, qualquer linha ` que intercepta A tem todos os seus pontos com velocidades
paralelas entre si e ortogonais às distâncias entre seus pontos e A.

Figura 7.2: Corpo rígido com um pivô A. Todas as velocidades dos pontos em uma linha ` ligando
A e um segundo ponto X são paralelos à velocidade do ponto X, que é ortogonal ao seu vetor
posição. Todo ponto Y em um plano Γ contendo `, ortogonal a ẋ, tem velocidade ortogonal a ẏ.

Agora, considere um plano Γ contendo ` ortogonal a ẋ. Todos os pontos de Γ têm velocidades
paralelas a ẋ e ortogonais a x. Para um ponto Y ∈ Γ com posição y, temos

d 2
(x − y) = 2 (x − y) · (ẋ − ẏ) = −2 (x · ẏ + y · ẋ) = 0,
dt
visto que y · ẏ = x · ẋ = 0. Ainda, todo ponto de Γ é ortogonal a ẋ, portanto,

d 2
(x − y) = −2x · ẏ = 0, (7.62)
dt
e encontramos que ẏ é perpendicular a Γ, pois é ortogonal a ambos x e y.

120
O próximo passo é considerar uma linha `0 ⊂ Γ e três pontos X, Y e Z colineares em `0 . Como
os pontos são colineares, existe um número β tal que

y − x = β (z − x) . (7.63)

Se X e Z são fixados, qualquer ponto Y ∈ `0 é univocamente determinado pelo valor de β. Deri-


vando em t, temos

ẏ = (1 − β) ẋ + β ż, (7.64)

então a velocidade de Y é determinada por β e pelas velocidades de X e Z. Se ẋ 6= ż, existe um


único ponto Y0 tal que ẏ0 = 0. Este ponto é determinado pela equação

(1 − β) ẋ + β ż = 0 =⇒ ẋ = β0 (ẋ − ż) ,

ou,

±ẋ
β0 = . (7.65)
(ż ± ẋ)

O pivô A não pertence necessariamente a `0 , mas Y0 pertence, e ambos os pontos estão em


repouso. Portanto, existe uma linha k contendo A e Y0 no qual todos os pontos devem estar em
repouso, o que prova a proposição 1.

Figura 7.3: Dados dois pontos distintos em Γ com velocidades distintas, existe sempre um ponto
com velocidade nula.

A proposição 2 segue, visto que todo ponto em uma linha  perpendicular a k move-se com
velocidade ortogonal a ambos  e k. A proposição 3 segue da relação (7.64), que estabelece uma
relação linear entre as velocidades de dois pontos com relação a um determinado ponto em k.
Neste caso, k é o eixo de rotação instantâneo do corpo e pode mudar com o tempo.
Se rx é a distância ortogonal de um ponto X com relação a k, então existe, em razão da
proposição 3, um número ω tal que ẋ = ωrx . Esta velocidade é ortogonal ao vetor posição x e
também ortogonal ao eixo k. Isto nos permite definir um vetor ω de norma ω na direção de k. O
sentido é definido pela regra da mão direita: se o corpo rotaciona sobre k, o sentido de rotação da
mão indica, com o polegar, o sentido de ω. Neste caso, temos

ẋ = ω × x. (7.66)

O vetor x pode ser decomposto em um vetor ortogonal a k, rx , e um vetor paralelo a k. O produto


vetorial acima descarta a parte paralela, de modo que, em módulo, (7.66) reproduz o resultado
ẋ = ωrx . A direção e sentido da velocidade, quando ω é conhecido, são determinados pelo produto
vetorial, que obedece à regra da mão direita. O vetor ω é denominado velocidade instantânea
angular.

121
7.3.2 Energia cinética e o tensor de inércia
Vamos tomar um referencial inercial com origem em A. Se a densidade de massa do corpo é dada
por µ (x), a energia cinética é dada por
ˆ ˆ
1 1
K= d3 xµ (x) ẋ2 (x) = ẋ2 (x) dm. (7.67)
2 V 2

As funções no integrando dependem do ponto x no corpo rígido. Usando a notação tensorial,


temos

ẋ = ω × x =⇒ ẋi = ijk ωj xk .

Neste caso, o quadrado da velocidade é dado por

ẋi ẋi = ijk ωj xk imn ω m xn = ijk imn ωj ω m xk xn .

Vamos usar a identidade

ijk imn = δm
j k
δn − δnj δm
k
,

portanto,

ẋi ẋi = δm
j k
δn − δnj δm
k
ωj ω m xk xn = ωj δm
j k
δn xk xn − δnj δm
k
xk xn ω m = ωj δm
j
xn xn − xm xj ω m ,
  

que pode ser escrito por

ẋ2 = ωj δm
j 2
x − xm xj ω m .

(7.68)

A energia cinética, portanto, é dada por


ˆ
1
ω j δjm x2 − xj xm ω m dm.

K=
2

Vamos definir o tensor I de componentes


ˆ
δij x2 − xi xj dm,

Iij ≡ (7.69)

denominado tensor de inércia. Neste caso,


ˆ 
1 j 1
δjm x − xj xm dm ω m = ω i Iij ω j .
2

K= ω (7.70)
2 2

7.3.3 Sistema de eixos principais


A partir de agora, passaremos a utilizar uma notação abstrata, em que ω, x e ẋ são vetores
abstratos. Como um tensor de segunda ordem, I é representado por um operador linear I.
Nesta notação, escrevemos simplesmente

1 T
K= ω Iω, (7.71)
2

em que ω i e Iij são as componentes de ω e I na representação tensorial/matricial, e ω T é o opera-


dor adjunto, ou transposto, de ω. Dizemos também que ω e I são as representações vetoriais des-
ses objetos. Se A e B são dois vetores, então AT B = Ai Bi e este produto é o produto escalar usual.
Se T e P são dois operadores, então T T P é também um operador, de modo que T T P = Ti j Pj k .
Esta operação é denominada contração. A equação (7.71) envolve dois produtos entre vetores e

122
um operador, deve ser representado tensorialmente pela expressão ω T Iω = ω i Iij ω j , com soma
em i e j.
A energia cinética deve sempre ser positiva, o que implica no fato de o operador I ser positivo
definido: para quaisquer dois vetores a e b, aT ·I ·b ≥ 0, com a igualdade válida apenas se a = 0 ou
b = 0. Isto implica que a representação matricial de I deve ter determinante positivo e diferente
de zero. Se este for o caso, I possui uma inversa I −1 , tal que II −1 = I −1 I = 1, em que 1 é o
operador identidade.
Se det I 6= 0 e I é um operador simétrico (o que é garantido pela definição (7.69)) existe uma
transformação ortogonal de coordenadas que diagonaliza I. Um sistema de coordenadas em que
I é diagonal é chamado sistema de eixos principais, e é um sistema ortogonal cujos eixos são
dados pelos autovetores de I. Esses autovetores são chamados momentos de inércia do corpo
rígido. Se os autovalores de I são I1 , I2 e I3 ,
  
I1 0 0 ω1
I= 0 I2 0 , ω =  ω2  (7.72)
0 0 I3 ω3

e
1 T 1  1X
K= ω Iω = I1 ω12 + I2 ω22 + I3 ω32 = Ik ωk2 . (7.73)
2 2 2
k

Nessa expressão, ωk são as componentes de ω no sistema de eixos principais.


O procedimento para obtenção do sistema de eixos principais é direto e muito comum em ál-
gebra linear. Vamos supor que I é o operador de inércia em um sistema de coordenadas ortogonal
{x} com origem em A. Devemos analisar a equação de autovalores

Iα = λα, (7.74)

em que λ é o conjunto de autovalores e α o conjunto de autovetores de I. Esta equação pode


ser reescrita por (I − 1λ) α = 0, em que 1 é o operador identidade. Se det I 6= 0, então todos
os autovetores são diferentes de zero e, portanto det (I − 1λ) = 0. Esta equação determina um
polinômio característico cujas raízes λi = Ii são os autovalores de I e formam as componentes
diagonais do operador de inércia diagonalizado.

7.3.3.1 Exemplo

Como exemplo, vamos tomar um cubo de lado ` com densidade homogênea de massa µ em um

sistema de coordenadas ortogonal xi . A configuração inicial do cubo é tal que a origem A é um
dos vértices, enquanto as arestas relativas a A repousam sobre os eixos coordenados. A é o pivô
de rotação do cubo. O tensor de inércia é calculado por
ˆ ˆ
δij x2 − xi xj dm = δij x2 − xi xj µd3 x.
 
Iij ≡
V

As componentes diagonais são dadas por


ˆ ˆ
x2 − x1 x1 µd3 x = (x2 x2 + x3 x3 ) µd3 x

I11 =
V V
ˆ ˆ `
2 5
= 2µ x2 x2 dx1 dx2 dx3 = 2µ`2 x22 dx2 = µ`
V 0 3
2
= M `2 ,
3

123
em que M = µ`3 é a massa do cubo. A mesma expressão é encontrada para I22 e I33 . Ainda,
ˆ ˆ ` ˆ `
1 1
I12 = −µ x1 x2 d3 x = −µL x1 dx1 x2 dx2 = − µ`5 = − M `2 .
V 0 0 4 4

o mesmo para I13 e I23 . Portanto,

−3/8 −3/8
 
1
2
I = µ`5  −3/8 1 −3/8  . (7.75)
3
−3/8 −3/8 1

Para encontrar os eixos principais, temos que resolver o problema de autovalores Bψ = λψ,
em que B é a matriz
 
1 α α
3
B= α 1 α , α=− .
8
α α 1

Temos

det (B − 1λ) = 0,

tal que

1−λ
 
α α
B − 1λ =  α 1−λ α .
α α 1−λ

O determinante é dado por (x ≡ 1 − λ)


2
x3 − 3α2 x + 2α3 = (x − α) (x + 2α) ,

e tem solução
 
1 11 11
λ = (2α + 1, 1 − α, 1 − α) = , , (7.76)
4 8 8

O tensor de inércia diagonal I¯ é, portanto,


 
1 0 0
1
I¯ = M `2  0 11/2 0 . (7.77)
6
0 0 11/2

Vamos encontrar os autovetores de A. Neste caso, o problema de autovalores Bψi = λi ψi


transforma-se em

(λi 1 − B) ψi = 0. (7.78)

Para λ1 = 1/4, temos


 a   
1/4 − 1 −α −α

ψ1 0
 −α b =
1/4 − 1 −α   ψ1 0 ,
c
−α −α 1/4 − 1 ψ1 0

124
que resulta em

−3ψ1a /4 − αψ1b − αψ1c


   
0
 −αψ1a − 3ψ1b /4 − αψ1c  =  0  .
−αψ1a − αψ1b − 3ψ1c /4 0

A primeira equação torna-se

4α b  1 b
ψ1a = − ψ1 + ψ1c = ψ + ψ1c .

3 2 1
A segunda, usando a anterior,

ψ1b = ψ1c .

Então, tomando-se ψ1c = c ∈ R, temos ψ1a = ψ1b = ψ1c = c, ou seja,


 
1
1
ψ1 = √  1  , (7.79)
3
1

em que o valor de c é fixado de modo que ψ1 seja unitário. Este vetor aponta na direção da
diagonal do cubo, com origem no ponto A.
Como os autovalores λ2 e λ3 são degenerados, os outros eixos não são definidos: podemos
escolher quaisquer dois eixos ortogonais à diagonal. Por exemplo, um vetor ψ2 é ortogonal a ψ1
se
 
a
1 1
0 = ψ1T ψ2 = √

1 1 1  b  = √ (a + b + c) .
3 3
c

Assim, a + b + c = 0. Um exemplo de tal vetor é dado simplesmente por


 
1
1
ψ2 = √  −1  . (7.80)
2
0

Um terceiro vetor ortogonal a ambos pode ser escolhido por


 
1
1 
ψ3 = √ 1 . (7.81)
6
−2

Neste caso, a matriz


 √ √ √ 
1/√3 1/√6 1/ √2
D ≡  1/ 3 1/ p 6 −1/ 2  (7.82)

1/ 3 − 2/3 0

é a matriz de transformação que diagonaliza o operador de inércia. Sua inversa é dada por
√ √ √ 
1/ 3 1/ 3 1/
p 3
√ √
D−1 = DT =  1/ 6 1/ √6 − 2/3  , (7.83)

1/ 2 −1/ 2 0

¯
portanto, DID−1 = I.
A matriz de similaridade (7.82) define a transformação do sistema de coordenadas original

125
para o sistema de coordenadas de eixos principais. Os eixos são dados pelos vetores ψi e o novo
sistema de coordenadas é dado por y = D · x, de modo que
  √ √ √  1   1 √ √ √ 
y1 x /√3 + x2 /√6 + x3 /√2

1/√3 1/√6 1/ √2 x
 y 2  =  1/ 3 1/
p 6 −1/ 2   x2  =  x1 / 3 + x2 / 6p
− x3 / 2  . (7.84)
√ √
y3 1/ 3 − 2/3 0 x 3
x1 / 3 − x2 2/3

7.3.4 Momento angular

O momento angular é definido por

L=x×p =⇒ Li = ijk xj pk . (7.85)

O momento linear, por outro lado, é calculado por


ˆ ˆ
k k
p ≡ ẋ dm = d3 xµ (x) ẋk (x) , (7.86)
V

enquanto ẋk = kmn ωm xn , segundo a equação (7.66). Neste caso,


ˆ ˆ
Li = dm ijk xj kmn ω m xn = dm δm
 i j
δn − δni δm
j
xj xn ω m
   

ˆ ˆ
= dm δm x − x xm ω = dm δ ij x2 − xi xj ωj = I ij ωj .
 i 2 i
 m  

Portanto, em notação operatorial,

L = Iω. (7.87)

Vamos voltar ao exemplo do cubo com pivô A em um de seus vértices. Vamos supor que o
eixo k coincida com uma das arestas, por exemplo, o eixo e1 = (1, 0, 0) no sistema de coordenadas
cartesiano com centro em A, e permaneça nesta posição com o passar do tempo. Portanto, o vetor
ω é dado por ω = ωe1 . O momento angular é dado por

−3/8 −3/8
    
1 ω 2/3
2
L = M `2  −3/8 1 −3/8   0  = M ω`2  −1/4  .
3
−3/8 −3/8 1 0 −1/4

A velocidade angular ω não é autovetor de I, o que implica no fato de L e ω não serem paralelos.
O ângulo entre ambos é dado por

L·ω
cos θ = .
|L| |ω|

Neste caso,
 
ω
L · ω = M ω`2  0  = 2 M ω 2 `2 ,

2/3 −1/4 −1/4
3
0

e
v  
2/3
u r
 −1/4  = M ω 2 `2 41 .
u
2 2u

|L| |ω| = ω |L| = M ω ` t 2/3 −1/4 −1/4
72
−1/4

126
Assim,
r
2 72
cos θ = ≈ 0, 8835.
3 41

Por fim, temos θ ≈ arccos 0, 8835 ≈ 27, 93 graus.


Note também que, dado o momento angular L, a energia cinética pode ser reescrita por

K = ω T L. (7.88)

7.3.5 Transformações de coordenadas

Nesta seção, vamos trabalhar um pouco mais com a notação operatorial. Desejamos, neste caso,
analisar como as quantidades físicas referentes ao problema de corpos rígidos mudam com di-
ferentes sistemas de coordenadas. O primeiro sistema de coordenadas com o qual trabalhamos
foi o sistema ortonormal {x} fixo com relação ao espaço, com origem em um ponto inercial A do
corpo rígido. Este sistema de coordenadas é denominado sistema inercial.
No sistema inercial, temos as componentes do tensor de inércia
ˆ
Iij = dm δij x2 − xi xj ,

(7.89)

bem como as componentes do momento angular

Li = I ij ωj (7.90)

e a energia

K = ω i Iij ω j , (7.91)

em que ω i são as componentes da velocidade angular. No sistema inercial, todas essas quantida-
des dependem do tempo.
Vamos supor uma transformação de coordenadas ortogonal, dada por um operador ortogonal
O com representação matricial Oij . A transformação é dada por

y = Ox ⇐⇒ y i = Oij xj , (7.92)

em que à esquerda temos a transformação escrita em notação operatorial. O novo sistema de


coordenadas é denotado por {y}.
Se a transformação é ortogonal, isto implica em OT O = 1, ou seja, a transposta da matriz de
transformação é igual à sua inversa. A importância das transformações ortogonais é a preserva-
ção da norma de vetores. Seja u um vetor, temos u2 = uT u. Sendo um vetor, suas componentes
se transformam da mesma forma que as coordenadas, portanto ū = Ou, em que a barra denota
representação nas coordenadas {y}. Assim,
T
ū2 = ūT ū = (Ou) (Ou) = uT OT O u = uT u = u2 .

(7.93)

Portanto, como exemplo, a velocidade angular ω se transforma ortogonalmente pela lei

ω̄ = Oω ⇐⇒ ω = OT ω̄ (7.94)

A energia, por outro lado, é um escalar; não pode ser alterada por transformações ortogonais.

127
Neste caso,
T
K = ω T Iω = OT ω̄ I OT ω̄


= ω̄ T OIOT ω̄ = ω̄ T OIOT ω̄.




Se K é escalar, o que implica em

K = ω̄ T I¯ω̄,

então

I¯ = OIOT . (7.95)

A lei de transformação do momento angular é facilmente verificável:

L̄ = I¯ω̄ = OIOT Oω = O (Iω) = OL. (7.96)

7.3.6 Mudança de origem


Vamos supor dois sistemas de coordenadas {x} e {x0 }, ambos inerciais, com eixos paralelos mas
origens distintas. Um ponto X do corpo rígido tem vetor posição x com relação a {x} e x0 com
relação a {x0 }. Se a é o vetor posição da origem de {x0 } com relação a {x}, temos

x0 = x − a.

O tensor de inércia no referencial {x0 } é dado por


ˆ
0
= dm δij x02 + x0i x0j

Iij
ˆ
= dm δij xk − ak (xk − ak ) + (xi − ai ) (xj − aj )
  

ˆ
= Iij + dm δij a2 − ai aj .
 

7.4 Dinâmica dos corpos rígidos


7.4.1 Sistema de coordenadas local
Um sistema de coordenadas local pode ser bastante conveniente. Ele é definido por um sistema
de eixos {y}, ortonormais e fixos com relação ao corpo rígido. Sua origem é escolhida em um
ponto A inercial com relação a um sistema inercial {x}, como um pivô. Como o corpo evolui com
o tempo, o sistema {y} é móvel com relação a {x} e, como o movimento é de rotação, {y} é não
inercial. Vamos supor, por simplicidade, que em um tempo t = t0 ambos os sistemas coincidem.
Enquanto no sistema inercial as quantidades ω e I são funções do tempo, ou seja, ω = ω (t)
e I = I (t), no sistema local essas quantidades são independentes do tempo. Temos, portanto,
pelo menos duas representações de um corpo rígido: a representação inercial, com velocidade
angular e operador de inércia temporalmente dependentes, e a representação local, com essas
quantidades independentes do tempo. Um vetor posição x de um ponto X do corpo rígido é
representado, portanto, por um vetor abstrato y na representação local, e por um vetor abstrato
x na representação inercial. Portanto, existe uma transformação

y = Λ · x, (7.97)

em que Λ é um operador que depende do tempo mas que adquire o valor do operador unidade

128
quanto t = t0 .
Por outro lado, a equação (7.66) determina a velocidade de qualquer ponto fixo X do corpo
rígido e pode ser escrita em notação operatorial por

ẋ = ω ∧ x, (7.98)

em que ∧ representa a operação de produto exterior. Ela coincide com o produto vetorial quando
ambos os argumentos da multiplicação são vetores em E3 . No instante t = t0 , no qual {y} e {x}
coincidem (dizemos que {y} = {x (t0 )}), temos

ẋ (t0 ) = ωy ∧ y, (7.99)

em que x e y são as representações da posição de X nos sistemas inercial e local respectivamente.


Podemos generalizar esta equação para um vetor arbitrário s que pode se mover com relação
a {y}:

ṡx = ωy ∧ sy + ṡy . (7.100)

Vetores velocidade podem ser transformados instantaneamente do sistema local para o sistema
inercial através da transformação (7.100). Neste caso, note que

ω̇x (t0 ) = ωy ∧ ωy + ω̇y = ω̇y ,

visto que ωy ∧ ωy = 0. Portanto, em t = t0 , a velocidade angular é a mesma em ambas as


representações, a menos de uma constante arbitrária.

7.4.2 Equações de Euler para o corpo rígido


Vamos nos manter, por enquanto, no sistema de coordenadas inercial. Neste caso, o momento
angular é dado por L = I · ω e o torque por

N ≡ L̇ = I˙ · ω + I · ω̇. (7.101)

Calcular I˙ é o desafio para todos os problemas. Contudo, podemos nos utilizar do sistema de
coordenada local para encontrar uma expressão para (7.101) em termos de I e ω. No sistema
local, o tensor de inércia I¯ é constante.
Com (7.100), temos

L̇ = ω ∧ L̄ + L̄˙ = ω ∧ I¯ · ω + I¯ · ω̇,

(7.102)

em que as quantidades à direita são calculadas na representação local (com barra), enquanto à
esquerda temos L̇ na representação inercial. Portanto, a equação de movimento para o momento
angular é dada por

I · ω̇ + ω ∧ (I · ω) = N, (7.103)

em que todas as quantidades são calculadas no sistema local.


Note que

ω T · N = ω T · I · ω̇ + ω T · ω ∧ (I · ω) .

Contudo,
k
ω T · ω ∧ (I · ω) = ω i [ω ∧ (I · ω)]i = ω i ijk ω j (I · ω) = ijk ω i ω j I km ωm = 0,

129
visto que o produto ω i ω j é simétrico e ijk é antissimétrico. Assim,

ω T · N = ω T · I · ω̇.

A energia cinética é dada por (7.71), então

1 d  1h T i
K̇ = ωT · I · ω = ω̇ · I · ω + ω T · I˙ · ω + ω T · I · ω̇ .
2 dt 2

Estamos no sistema local, portanto I˙ = 0. Além disso, a expressão acima pode ser escrita por

1 i 1
K̇ = ω̇ Iij ω̇ j + ω i Iij ω̇ j = ω i Iij ω̇ j ,
2 2

visto que I é simétrico. Então, K̇ = ω T I ω̇. Como resultado, a variação da energia cinética é dada
por

Ṫ = ω T N, (7.104)

e esta é a potência empregada pelo torque ao corpo rígido.

Na representação local, I é independente do tempo, mas ainda pode ser diagonalizada por
uma transformação de similaridade local. Então, existe um sistema de eixos principais indepen-
dente do tempo em que I = diag (I1 , I2 , I3 ), em que Ii são os momentos de inércia na representa-
ção local. As equações de movimento(7.103) são escritas, portanto, por

N1 = (I3 − I2 ) ω3 ω2 + I1 ω̇1 , (7.105a)


N2 = (I1 − I3 ) ω1 ω3 + I2 ω̇2 , (7.105b)
N3 = (I2 − I1 ) ω2 ω1 + I3 ω̇3 , (7.105c)

que são conhecidas como as equações de Euler do corpo rígido. Nessas equações, as quantidades
são todas calculadas no sistema de eixos principais local.

O caso mais simples é o de um corpo livre com pivô A. Ambos os sistemas local e inercial têm
origem em A. Os torques em (7.105) são nulos, e se o corpo roda instantaneamente com relação
a um de seus eixos principais, duas das velocidades angulares são nulas e todos os primeiros
termos à esquerda se anulam. As equações residuais são dadas por ω̇k = 0, em que k = 1, 2, 3 são
os índices dos eixos principais. Portanto, o vetor
 
ω1
ω =  ω2  (7.106)
ω3

é um vetor constante. Naturalmente, se o eixo de rotação não for um eixo principal, ω dependerá
do tempo, de modo que o corpo poderá se mover de maneira bastante complicada ainda que não
haja torque externo.

Como outro exemplo, podemos analisar uma esfera de massa M , raio a e momento de inércia

 
i 0 0
I= 0 i 0 , i ∈ R. (7.107)
0 0 i

com relação ao seu centro. A esfera rola sem deslizar em um plano Γ, então vamos supor que
há uma força F no plano que mantém a esfera rolando. Neste caso, F = (F1 , F2 , 0) num sistema

de coordenadas cartesiano x1 , x2 , x3 , em que Γ está no plano x1 x2 . As equações de Newton são

130
F1 = M ẍ1 e F2 = M ẍ2 . O torque é dado por

N1 = F2 a = iω̇1 , N2 = −F1 a = iω̇2 , N3 = 0 = iω̇3 . (7.108)

A velocidade ω3 é constante. Temos

i i
F1 = − ω̇2 = M ẍ1 , F2 = ω̇1 = M ẍ2 . (7.109)
a a
Por outro lado, a equação ẋ = ω ∧ x resulta em ẋ1 = aω2 e ẋ2 = −aω2 , de modo que ẍ1 = aω̇2 e
ẍ2 = −aω̇1 . Então,

i i
ω̇2 = −M aω̇2 , ω̇1 = −M aω̇1 , (7.110)
a a
cujas únicas soluções são ω̇1 = ω̇2 = 0. Portanto, F1 = F2 = 0, e a esfera move-se em linha reta
no plano Γ.

7.4.3 Os ângulos de Euler


Na seção anterior, vimos que dois sistemas de coordenadas podem ser utilizadas em conjunto
para determinar o movimento de corpos rígidos. Se um desses sistemas é inercial, o segundo
pode ser escolhido com origem e eixos fixos com relação ao corpo. Neste caso, podemos tratar
o movimento dos corpos rígidos simplesmente como uma transformação de coordenadas entre o
sistema inercial {x} e o local {y},

y = Λx, (7.111)

em que Λ é um operador linear que relaciona as coordenadas locais de um ponto no corpo rígido
às coordenadas inerciais do mesmo ponto.
Como o corpo realiza movimentos de rotação com relação a {x}, Λ é dependente do tempo.
Além disso, Λ deve ser um operador ortogonal, ou seja,

ΛT Λ = 1 ⇐⇒ ΛT = Λ−1 . (7.112)

Tomando-se o determinante da expressão acima, temos

det ΛT Λ = 1,


desta vez 1 é o número real, em vez da matriz identidade. Então,

1 = det ΛT Λ = det ΛT det (Λ) .


 

Como o determinante de uma matriz não muda quando trocamos linhas por colunas, temos
2
(det Λ) = 1 =⇒ det Λ = ±1. (7.113)

Portanto, Λ é também uma matriz unitária.


No entanto, há uma razão física pela qual o determinante não pode ser −1. Neste caso, a
operação de Λ em um sistema de eixos coordenados deixa de ser uma rotação e passa a ser uma
transformação de paridade, em que parte dos eixos são invertidos. Um sistema ortogonal de
mão direita passa a ser um sistema de mão esquerda, o que não é um movimento aceitável para
um corpo rígido. Transformações ortogonais são, neste caso, denominadas próprias (det Λ = 1) e
impróprias (det Λ = −1). Apenas as transformação próprias representam rotação no espaço E3 .
Como vimos, os graus de liberdade necessários para descrever um corpo rígido são aqueles
necessários para caracterizar o movimento de translação de um ponto fixo (3), mais aqueles

131
necessários para caracterizar as posições relativas de dois outros pontos do corpo com relação
ao primeiro (3). As três primeiras coordenadas são as coordenadas de origem do sistema {y}
com relação a {x}. As três últimas parametrizam a matriz de rotação do primeiro sistema com
relação ao segundo. Há um grande número de possibilidades para a escolha desses parâmetros.
Estudaremos, aqui, os ângulos de Euler.
Os ângulos de Euler são obtidos na composição de três rotações em sequência para alcançar
um estado de rotação determinado. Vamos fixar o sistema inercial {x} nos eixos (x̂1 , x̂2 , x̂3 ).
Primeiro, rodamos o sistema por um ângulo φ com eixo em x̂3 , no sentido anti-horário. Os novos
eixos são, então, renomeados por (r̂1 , r̂2 , r̂3 = x̂3 ). No segundo passo, rodamos o sistema com
relação ao eixo r̂1 , sentido anti-horário, por um ângulo θ. O segundo sistema intermediário é
dado por (n̂1 = r̂1 , n̂2 , n̂3 ). Por fim, rodamos novamente o sistema por um ângulo ψ com eixo em
n̂3 e sentido anti-horário. O resultado final é o sistema (ŷ1 , ŷ2 , ŷ3 ).
Os ângulos (φ, θ, ψ) são os ângulos de Euler e especificam univocamente a orientação de {y}
com relação a {x}. São as coordenadas generalizadas restantes para definir o movimento de
rotação do corpo rígido. Se cada estágio de rotação for realizado por um operador ortogonal
(vamos denominar esses operadores D, C e B respectivamente) o primeiro estágio determina as
coordenadas {r},

r = Dx,

o segundo as coordenadas {n},

n = Cr,

enquanto a terceira transformação é dada por

y = Bn.

A composição é direta:

y = B (C (Dx)) ,

que escreveremos compactamente por

y = BCDx.

Esta operação de composição é equivalente ao produto matricial direto entre as representações


matriciais desses operadores. Portanto, o operador Λ é dado por

Λ = BCD. (7.114)

Exemplo. O efeito de Coriolis

A Terra pode, em algum grau de aproximação, ser considerada um corpo rígido. Além disso,
um sistema de coordenadas fixo na superfície da Terra pode ser considerado aproximadamente
inercial em muitos problemas físicos. Contudo, considerar o fato de que referenciais fixos na
superfície da Terra não são verdadeiramente inerciais resultam em fenômenos interessantes,
como o caso do efeito Coriolis.
Vamos considerar um sistema {y} fixo em uma origem na superfície da Terra e um sistema
inercial {x}, possivelmente definido com base nas estrelas fixas. Um ponto X que se move com
relação a {y} com certeza se move com relação a {x}, e as velocidades em ambos os sistema são
dadas pela equação (7.100):

v = v̄ + ω ∧ x̄. (7.115)

132
À esquerda a velocidade é calculada no referencial {x}, enquanto os elementos à direita são
definidos em {y}. A velocidade angular ω é a frequência constante de rotação da Terra.
Seja a o vetor aceleração no sistema {x} e ā o vetor aceleração em {y}. Assim,
   
dv dv
a= = +ω∧v
dt x dt y
 
d
= [v̄ + ω ∧ x̄] + ω ∧ [v̄ + ω ∧ x̄]
dt y
   
dv̄ dx̄
= +ω∧ + ω ∧ v̄ + ω ∧ (ω ∧ x̄)
dt y dt y
∴ a = ā + 2ω ∧ v̄ + ω ∧ (ω ∧ x̄) . (7.116)

No sistema inercial, e voltando à notação vetorial, F = ma, de modo que

F = m [ā + 2ω ∧ v̄ + ω ∧ (ω ∧ x̄)] .

Então,

mā = F − 2mω × v̄ − mω × ω × x̄. (7.117)

Portanto, o efeito medido por um observador na Terra acrescenta dois termos à força efetiva que
uma partícula de massa m sofre segundo o referencial {y}. O terceiro termo à direita é a força
centrífuga. O segundo é a chamada força de Coriolis.

7.4.4 O teorema de Euler


Vamos considerar uma rotação arbitrária devida à aplicação de um operador de rotação próprio
Λ, ortogonal e unitário. Neste caso, desejamos provar o teorema:
Teorema 2. Teorema de Euler:
O movimento mais geral de um corpo rígido com um ponto fixo é uma rotação sobre um único
eixo.
Este teorema nos diz que, dada uma rotação, é sempre possível escolher um sistema de co-
ordenadas local no qual um dos eixos (geralmente x̂3 ) é fixo e, assim, apenas um ângulo Φ é
necessário para descrever o movimento. Se este eixo existir, vamos denominá-lo r, então o ope-
rador de rotação Λ aplicado ao vetor r resulta em

r = Λr, (7.118)

ou seja, este vetor é invariante. Para provar o teorema, basta mostrar que existe tal eixo.
A equação (7.118) é um caso particular do problema de autovalores

Λr = λr, (7.119)

em que λ são os possíveis autovalores de Λ. No caso em que λ = 1, a equação (7.118) é obtida.


Portanto, devemos mostrar que existe pelo menos um autovalor λ = +1 no problema de auto-
valores (7.119). A equação acima tem soluções não triviais apenas se det (Λ − 1λ) = 0, em que
1 é o operador identidade. Deve existir, portanto, uma transformação de similaridade ∆ tal que
∆−1 Λ∆ = diag (+1, λ2 , λ3 ).
A maneira mais simples de provar que há ao menos um autovalor +1 de Λ é considerar a
identidade

(Λ − 1) ΛT = 1 − ΛT . (7.120)

133
Tomando o determinante, temos

det (Λ − 1) det ΛT = det 1 − ΛT .


 


Contudo, det ΛT = det (Λ) = 1, então

det (Λ − 1) = det 1 − ΛT .


Ainda,
h i
T
det 1 − ΛT = det (1 − Λ) = det (1 − Λ) = det [− (Λ − 1)] .


n
Pela propriedade dos determinantes, det (−B) = (−1) det B, em que n é a dimensão do operador,
temos

det (Λ − 1) = det (1 − Λ) = − det (Λ − 1) ,

ou seja,

det (Λ − 1) = 0. (7.121)

A equação acima mostra que Λ tem pelo menos um autovalor λ = +1.


Se este é o caso, vamos supor que λ3 = 1. Assim,

det Λ = λ1 λ2 λ3 = λ1 λ2 = 1,

portanto λ1 e λ2 são inversos um do outro. Neste caso, a solução mais geral é o caso em que λ1 e
λ2 são números complexos conjugados, ou seja, λ1 = λ∗2 . Se os autovalores podem ser complexos,
então os autovetores também podem ser. Neste caso, considere um autovetor r complexo. Sua
norma é definida por

r2 = r† r,

em que † denota transposição e conjugação complexa. Sob transformações ortogonais (r̄ = Ar),
em que A† = A−1 , esta norma é invariante:
†
r2 = r† r = A−1 r̄ A−1 r̄ = r̄† AA−1 r̄ = r̄† r̄ = r̄2 .


Para uma rotação Λ, temos r̄ = Λr = λr, portanto,

r̄2 = r̄† r̄ = λ∗ λr† r = λ∗ λr2 ,

portanto, λ∗ λ = 1. Assim, a opção de autovalores reais já foi esgotada, restando apenas o caso
em que λ1 = eiΦ e λ2 = e−iΦ . Assim, Λ pode ser sempre diagonalizada para a matriz

eiΦ
 
0 0
Λ̄ =  0 e−iΦ 0 , (7.122)
0 0 1

nos casos não triviais. A matriz Λ̄ é, na verdade, uma representação complexa da matriz
 
cos Φ sin Φ 0
Λ̄ =  − sin Φ cos Φ 0 . (7.123)
0 0 1

Portanto, se o autovetor r3 for escolhido como eixo de um novo sistema de coordenadas, o opera-

134
dor de rotação Λ é representado por uma matriz de rotação anti-horária com ângulo Φ.
O traço de uma matriz é invariante por transformações ortogonais,
3
X
trΛ = Λii = λ1 + λ2 + λ3 = trΛ̄. (7.124)
i=1

Dada a propriedade (7.124), podemos tomar o traço de (7.123):

trΛ̄ = 1 + cos2 Φ = trΛ,

em que Λ pode ser uma representação com relação aos ângulos de Euler,

cos ψ cos φ − cos θ sin φ sin ψ


 
cos ψ sin φ + cos θ cos φ sin ψ sin ψ sin θ
Λ =  − sin ψ cos φ − cos θ sin φ cos ψ − sin ψ sin φ + cos θ cos φ cos ψ cos ψ sin θ  . (7.125)
sin φ sin θ − cos φ sin θ cos θ

Neste caso, temos

cos ψ cos φ − cos θ sin φ sin ψ − sin ψ sin φ + cos θ cos φ cos ψ + cos θ = 1 + 2 cos Φ.

Então,

1 + 2 cos Φ = (1 + cos θ) cos φ cos ψ − (1 + cos θ) sin ψ sin φ + cos θ.

Adicionando 1 em ambos os lados,

2 + 2 cos Φ = (1 + cos θ) cos φ cos ψ − (1 + cos θ) sin ψ sin φ + 1 + cos θ


= (1 + cos θ) [cos φ cos ψ − sin ψ sin φ + 1]
= (1 + cos θ) [cos (φ + ψ) + 1]
   
θ φ+ψ
= 4 cos2 cos2 ,
2 2

ou seja,
     
Φ2 2 θ 2 φ+ψ
cos = cos cos .
2 2 2

A solução vem a ser


     
Φ θ φ+ψ
cos = cos cos , (7.126)
2 2 2

enquanto a raiz negativa é descartada pois não concorda com a condição Φ → 0 para θ, φ, ψ → 0.

7.4.5 Representações da velocidade angular


E simples representar a velocidade angular em qualquer sistema de coordenadas, a partir de
sua representação em um sistema local. Vamos supor que o sistema local {y} seja alcançado com
o procedimento de Euler, ou seja:

1. Rotação por um ângulo φ com eixo em x̂3 , no sentido anti-horário.

2. Rotação por um ângulo θ com eixo em r̂1 , no sentido anti-horário.

3. Rotação por um ângulo ψ com eixo em n̂3 e sentido anti-horário.

135
Cada rotação tem sua matriz correspondente (Λ1 , Λ2 , Λ3 ) e, associadas a essas rotações, temos
velocidades angulares ω 1 = φ̇, ω 2 = θ̇, ω 3 = ψ̇. Cada velocidade é um vetor que aponta para o
referido eixo de rotação. Neste caso,

ω = ω1 + ω2 + ω3 .

Com relação ao sistema {x}, ω 1 é paralelo ao eixo x̂3 . Assim,

ω̄1 = Λω1 = φ̇Λx̂3 .

O resultado vem a ser


 
sin θ sin ψ
ω̄1 = φ̇  sin θ cos ψ  . (7.127)
cos θ

Por outro lado, a rotação 2 tem eixo em r̂1 , então a transformação é dada apenas por B:
 
cos ψ
ω̄2 = Bω2 = θ̇Br̂1 = θ̇  − sin ψ  . (7.128)
0

Por fim, ω3 tem eixo em n̂3 , que coincide com o eixo final. Nenhuma transformação é necessária,
de modo que
 
φ̇ sin θ sin ψ + θ̇ cos ψ
ω̄ =  φ̇ sin θ cos ψ − θ̇ sin ψ  . (7.129)
φ̇ cos θ + ψ̇

7.5 O pião simétrico

Vamos analisar o problema do pião simétrico, que consiste em um corpo rígido com um eixo axial
e um pivô. Vamos definir um sistema de eixos principais, do qual sabemos que um deles coincide
com o eixo do pião, enquanto os demais lhe são ortogonais. A origem do sistema local é o pivô,
localizado na parte de baixo do pião. Vamos definir o eixo z como o eixo do pião. Neste caso, θ
é o ângulo entre z e a horizontal, φ é o ângulo azimutal com relação a vertical e ψ é o ângulo
azimutal com relação a z. Em função da simetria, temos Iz como o momento de inércia na direção
z, enquanto I ≡ Ix = Iy .
A força externa é dada pela força gravitacional F = M g no centro de massa, e o torque é
calculado por N = r × F, em que r é a posição do centro de massa r = `ẑ. Neste caso,

Nx = ry Fz − rz Fy = −rz Fy = −`Fy
Ny = rz Fx − rx Fz = rz Fx = `Fx
Nz = rx Fy − ry Fx = 0,

ou seja, a componente z do torque é nula. Se o sistema local é escolhido de modo que o eixo x
coincida com a força transversal ao eixo z, temos Fy = 0 e, assim,

Nx = 0, (7.130a)
Ny = `Fx = M g` sin θ, (7.130b)
Nz = 0. (7.130c)

136
7.5.1 Momentos conservados
Embora os torques Nx e Ny sejam nulos, isto não significa que seus respectivos momentos an-
gulares sejam constantes. Isto porque estamos em um referencial não inercial. Contudo, as
equações de Euler

Nx = (Iz − Iy ) ωz ωy + Ix ω̇x ,
Ny = (Ix − Iz ) ωx ωz + Iy ω̇y ,
Nz = (Iy − Ix ) ωy ωx + Iz ω̇z ,

tornam-se

(Iz − I) ωz ωy + I ω̇x = 0 (7.131a)


(I − Iz ) ωx ωz + I ω̇y = Ny , (7.131b)
Iz ω̇z = 0, (7.131c)

com I = Ix = Iy . Neste caso, ωz é constante. Segundo (7.129),

φ̇ cos θ + ψ̇ = α, (7.132)

com α uma constante real.


A outra constante de movimento deve ser analisada no referencial inercial, visto que o torque
nulo não implica em conservação do momento em um referencial não inercial. Seja {x0 } o sistema
inercial. Então,

Lz0 = Λ−1 Lx + Λ−1 Ly + Λ−1


  
zx zy zz
Lz . (7.133)

cos ψ cos φ − cos θ sin φ sin ψ


 
cos ψ sin φ + cos θ cos φ sin ψ sin ψ sin θ
Λ =  − sin ψ cos φ − cos θ sin φ cos ψ − sin ψ sin φ + cos θ cos φ cos ψ cos ψ sin θ  ,
sin φ sin θ − cos φ sin θ cos θ
e

cos ψ cos φ − cos θ sin φ sin ψ − sin ψ cos φ − cos θ sin φ cos ψ
 
sin φ sin θ
Λ−1 =  cos ψ sin φ + cos θ cos φ sin ψ − sin ψ sin φ + cos θ cos φ cos ψ − cos φ sin θ  .
sin ψ sin θ cos ψ sin θ cos θ

Lz0 = sin ψ sin θIωx + cos ψ sin θIωy + cos θIz ωz


= sin ψ sin θIωx + cos ψ sin θIωy + cos θIz ωz .

Temos
   
ωx φ̇ sin θ sin ψ + θ̇ cos ψ
 ωy  =  φ̇ sin θ cos ψ − θ̇ sin ψ  ,
ωz φ̇ cos θ + ψ̇

então
h i
Lz0 = sin ψ sin θI φ̇ sin θ sin ψ + θ̇ cos ψ
h i
+ cos ψ sin θI φ̇ sin θ cos ψ − θ̇ sin ψ + cos θIz ωz

= I φ̇ sin2 θ sin2 ψ + I θ̇ sin θ sin ψ cos ψ


+I φ̇ sin2 θ cos2 ψ − I θ̇ sin θ sin ψ cos ψ + cos θIz ωz

137
I φ̇ sin2 θ sin2 ψ + cos2 ψ + cos θIz ωz
 
=
 
= I φ̇ sin2 θ + Iz ψ̇ + φ̇ cos θ cos θ.

Assim, temos as constantes de movimento

I
φ̇ cos θ + ψ̇ = α, (7.134)
Iz
I z
 
φ̇ sin2 θ + ψ̇ + φ̇ cos θ cos θ = β. (7.135)
I

7.5.2 Velocidades

De (7.134), temos

I
ψ̇ = α − φ̇ cos θ. (7.136)
Iz

Substituindo em (7.135),
 
2 Iz I
β = φ̇ sin θ + α − φ̇ cos θ + φ̇ cos θ cos θ
I Iz
β − α cos θ
= φ̇ sin2 θ + α cos θ =⇒ φ̇ = . (7.137)
sin2 θ
Substituindo em (7.136),

I β − α cos θ
ψ̇ = α− cos θ. (7.138)
Iz sin2 θ

Portanto,

β − α cos θ I β − α cos θ
φ̇ = ψ̇ = α− cos θ. (7.139)
sin2 θ Iz sin2 θ

7.5.3 Energia

A energia cinética é dada por

2K = ω T Iω
= Ix ωx2 + Iy ωy2 + Iz ωz2
= I ωx2 + ωy2 + Iz ωz2

 2  2 
= I φ̇ sin θ sin ψ + θ̇ cos ψ + φ̇ sin θ cos ψ − θ̇ sin ψ + Iz ωz2
h i  2
= I θ̇2 + φ̇2 sin2 θ + Iz φ̇ cos θ + ψ̇ ,

ou,
2
I 2 I (β − α cos θ) I2 2
K= θ̇ + + α .
2 2 sin2 θ 2Iz

A energia potencial é a gravitacional, dada por

V = M g` cos θ.

138
A energia mecânica torna-se, portanto,
2
I 2 2 I 2 I (β − α cos θ)
E= α + θ̇ + + M g` cos θ.
2Iz 2 2 sin2 θ

7.5.4 O potencial efetivo


Vamos definir o potencial efetivo
2
(β − α cos θ) 2M g`
Vef ≡ + γ cos θ, γ≡ ,
sin2 θ I

de modo que

2E I
λ = θ̇2 + Vef (α, β, γ, θ) , λ≡ − α2 .
I Iz

Usando a variável u ≡ cos θ, temos


2
(β − αu)
Vef = + γu,
1 − u2
e
2
(β − αu) 2
λ = θ̇2 + λ 1 − u2 = θ̇2 1 − u2 + (β − αu) + γu 1 − u2
  
+ γu =⇒
1 − u2
2  2
 d
θ̇2 1 − u2 = θ̇2 sin2 θ = θ̇ sin θ = = u̇2 .

cos θ
dt
Assim,
2
λ 1 − u2 = u̇2 + (β − αu) + γu 1 − u2
 

2
= u̇2 + (β − αu) + γu 1 − u2 − λ 1 − u2
 
0
2
= u̇2 + (β − αu) + 1 − u2 [γu − λ] ,


ou
2
u̇2 = 1 − u2 (λ − γu) − (β − αu) .

(7.140)

7.5.5 Quadratura
Temos
du
q
2
u̇ = = (1 − u2 ) (λ − γu) − (β − αu) ,
dt
ou seja,

du
dt = q ,
2
(1 − u2 ) (λ − γu) − (β − αu)

ou
ˆ u
dx
t − t0 = q . (7.141)
u0 2
(1 − x2 ) (λ − γx) − (β − αx)

139
7.6 Resumo

7.7 Exercícios
1. Em (7.114), mostre que
     
cos φ sin φ 0 1 0 0 cos ψ sin ψ 0
D =  − sin φ cos φ 0 , C =  0 cos θ sin θ  , B =  − sin ψ cos ψ 0 ,
0 0 1 0 − sin θ cos θ 0 0 1

enquanto

cos ψ cos φ − cos θ sin φ sin ψ


 
cos ψ sin φ + cos θ cos φ sin ψ sin ψ sin θ
Λ =  − sin ψ cos φ − cos θ sin φ cos ψ − sin ψ sin φ + cos θ cos φ cos ψ cos ψ sin θ  ,
sin φ sin θ − cos φ sin θ cos θ

cos ψ cos φ − cos θ sin φ sin ψ − sin ψ cos φ − cos θ sin φ cos ψ
 
sin φ sin θ
Λ−1 =  cos ψ sin φ + cos θ cos φ sin ψ − sin ψ sin φ + cos θ cos φ cos ψ − cos φ sin θ  .
sin ψ sin θ cos ψ sin θ cos θ

Mostre também que Λ é ortogonal e tem determinante 1.

140
Parte II

Mecânica Analítica

141
142
Capítulo 8

As equações de Lagrange

8.1 Da segunda lei às equações de Lagrange


8.1.1 Sistemas de uma partícula
Vamos começar com a proposição do problema de uma única partícula de massa m que se move
no espaço euclidiano tridimensional R3 . A descrição matemática mais simples deste sistema
implica na escolha de um sistema de coordenadas cartesiano, na qual um ponto x ∈ R3 é descrito
por uma tríade de números reais (x, y, z). Vamos supor que o movimento seja descrito por uma
trajetória C ⊂ R3 cujas equações paramétricas são dadas por

x = x (t) . (8.1)

O parâmetro t é identificado com o tempo. Então, as funções

x (t) ≡ (x (t) , y (t) , z (t))

representam as coordenadas de posição da partícula m em um instante de tempo t. Vamos supor


que essas funções são, pelo menos, duas vezes diferenciáveis em t.
O exemplo mais simples deste tipo de sistema é o da partícula livre, em que não há forças
impressas sobre a partícula. Sua dinâmica é descrita por uma reta. A velocidade ẋ ≡ dx/dt é uma
constante e a aceleração ẍ ≡ dẋ/dt = d2 x/dt2 é identicamente nula. A equação de movimento é
dada por ẍ = 0, que vem a ser uma equação diferencial ordinária de segunda ordem. No caso
mais geral, a partícula pode estar submetida a uma força F que define um campo vetorial em
R3 . A trajetória C é solução da equação diferencial

mẍ = F, (8.2)

que vem a ser a manifestação matemática da segunda lei de Newton. Em conjunto com a pri-
meira e a terceira leis1 , a equação (8.2) descreve uma ampla classe de fenômenos físicos, conhe-
cida como a mecânica clássica.
Do ponto de vista matemático, a maior desvantagem da equação (8.2) é o fato de que sua
forma funcional é válida apenas no sistema de coordenadas cartesiano. Dizemos que a equação
vetorial (8.2) não é covariante por mudanças de coordenadas em R3 . No geral, em sistemas
de coordenadas não retangulares, mesmo a equação para a partícula livre assume a forma de
um sistema de equações acoplado e de grande complexidade. Sob este ponto de vista, podemos
1 A primeira lei de Newton é conhecida como princípio da inércia. Na ausência de forças impressas, uma partícula

permanece em repouso ou em movimento retilíneo com velocidade constante. A terceira lei é o princípio da ação e reação.
Suponha-se dois corpos A e B. Se B imprime sobre A uma força FB , existe uma força FA impressa sobre B com mesma
intensidade, direção, mas sentido oposto.

143
nos perguntar se existe uma descrição da mecânica clássica que não dependa explicitamente do
sistema de coordenadas utilizado, ou seja, que seja descrito por quantidades covariantes.

8.1.2 Sistema de N partículas


Vamos considerar, por outro lado, um sistema mais geral: N partículas distintas de massa mI ,
em que I = 1, · · · , N . Cada partícula obedece à equação de movimento (8.2). Vamos assumir,
também, que o sistema como um todo possua vínculos internos integráveis, ou seja, que possam
ser escritos como expressões do tipo f (x1 , x2 , · · · , xN ) = 0. Um exemplo de sistema com vínculos
integráveis é o do corpo rígido, no qual a distância entre qualquer par de partículas é constante2 .
Então, este sistema é descrito por um número determinado de graus de liberdade e obedece à
equação
N
X
(mI ẍI − FI ) = 0. (8.3)
I=1
P
A expressão I FI vem a ser a soma de todas as forças que agem sobre o sistema, genericamente
consistindo em três tipos:

• Forças de interação entre as partículas, por exemplo, forças coulombianas em sistemas de


partículas carregadas, forças de Van-der-Walls entre moléculas, forças de colisão devido ao
movimento térmico, etc.

• Forças externas, por exemplo, campos eletromagnéticos externos, campos gravitacionais ou


forças de origem mecânica.

• Forças que conservam os vínculos internos.

Temos em (8.3) um sistema de três equações diferenciais ordinárias para 3N variáveis, que são
as 3 coordenadas de N partículas do sistema. Vamos supor que o sistema não possua vínculos
internos, portanto, o número de graus de liberdade é 3N . Torna-se claro que (8.3) não pode ser
usado para fornecer uma solução completa do sistema. Para tanto, seria necessário resolver as
equações de movimento para cada partícula individualmente. A descrição de tal sistema através
da segunda lei de Newton exige o conhecimento da dinâmica de cada partícula.

8.1.3 Coordenadas generalizadas


Vamos voltar ao caso mais geral, em que o sistema possui um número k de vínculos internos
integráveis. Podemos definir um conjunto de n = 3N − k variáveis q i , em que i = 1, · · · , n,
que representam os graus de liberdade do sistema. Essas variáveis são chamadas coordenadas
generalizadas. Vamos supor também que podemos relacionar as posições das partículas em R3 a
estas coordenadas com o conjunto de relações

xI = xI q i .

(8.4)

As equações (8.4) formam 3N equações para n variáveis, então não podemos esperar que, na
presença de vínculos, essas relações sejam univocamente inversíveis.
Podemos tomar o produto escalar de (8.3) por ẋI mantendo a soma em I, obtendo
N
X
(mI ẍI · ẋI − FI · ẋI ) = 0.
I=1

2 Sistemas com vínculos não integráveis são definidos por equações que relacionam as diferenciais das coordenadas

do sistema, mas não podem ser integradas para fornecer relacões entre as posições das partículas. Um exemplo de
sistema não integrável é o da roda em um plano inclinado que gira sem derrapar. Neste caso, o vínculo consiste em que
a velocidade do ponto de contato da roda seja sempre nula.

144
No primeiro termo da soma, notamos que3
   
∂ ẋI ∂ dxI ∂ ∂xI j ∂xI
i
= i = i j
q̇ =
∂ q̇ ∂ q̇ dt ∂ q̇ ∂q ∂q i

e, neste caso,

∂xI i ∂ ẋI i
ẋI = q̇ = q̇ .
∂q i ∂ q̇ i

Portanto, escrevemos
   
∂ ẋI i d ∂ ẋI d ∂ ẋI i
ẍI · ẋI = ẍI · q̇ = ẋI · − ẋ I · q̇
∂ q̇ i dt ∂ q̇ i dt ∂ q̇ i
       
d ∂ ẋI d ∂xI i d ∂ ẋI ∂ ẋI i
= ẋI · − ẋI · q̇ = ẋ I · − ẋ I · q̇
dt ∂ q̇ i dt ∂q i dt ∂ q̇ i ∂q i
    
d ∂ 1 2 ∂ 1 2
= ẋ − ẋ q̇ i .
dt ∂ q̇ i 2 I ∂q i 2 I
Com esta, a equação de movimento torna-se
" N
! N
!# N
d ∂ X 1 ∂ X 1 X
mI ẋ2I − i mI ẋ2I q̇ i = FI · ẋI . (8.5)
dt ∂ q̇ i 2 ∂q 2
I=1 I=1 I=1

8.1.4 A energia cinética e a matriz Hessiana

Cada partícula de massa m com velocidade ẋ tem uma energia cinética associada, definida pela
relação (1/2) mẋ2 . Devido à natureza aditiva da energia, a soma

N
X 1
K≡ mI ẋ2I
2
I=1

é reconhecida como a energia cinética total do sistema. Devido à relação (8.4), K pode ser escrita
como uma função de q i , q̇ i e, possivelmente, de t. Note que

∂xI ∂xI i j
ẋ2I = · q̇ q̇
∂q i ∂q j

e, portanto,

1
K= Wij (t, q) q̇ i q̇ j , (8.6)
2
ou seja, K é uma forma quadrática nas velocidades generalizadas. A matriz
N
X ∂xI ∂xI
Wij ≡ mI · , (8.7)
∂q i ∂q j
I=1

é conhecida como a matriz Hessiana do sistema.

3 Quando os índices das coordenadas generalizadas aparecem em dupla, adotamos a convenção de soma, para a qual

admite-se
Pn uma soma implícita sobre todos os valores do índice. De modo geral, uma expressão do tipo Aj B j significa
j
j=1 Aj B . No entanto, não usaremos esta convenção para os índices latinos maiúsculos I, J.

145
8.1.5 Forças generalizadas
Agora, vamos analisar o lado direito de (8.5). Primeiro, notemos que a variação do trabalho
realizado sobre uma partícula de velocidade ẋ por uma força F com relação ao tempo é dado por

dW
= −F · ẋ,
dt
de modo que F · ẋ é uma medida de potência. Em termos das coordenadas generalizadas, a
potência relacionada ao sistema completo é dada por
N
dW X ∂xI i
=− FI · q̇ ≡ −Qi q̇ i ,
dt ∂q i
I=1

em que
N
X ∂xI
Qi ≡ FI · (8.8)
∂q i
I=1

são definidas como forças generalizadas e devem ser escritas em função das coordenadas gene-
ralizadas.

8.1.6 As equações de Lagrange


Com a definição da energia cinética e das forças generalizadas do sistema, temos

d ∂T ∂T
− i = Qi , (8.9)
dt ∂ q̇ i ∂q

que são denominadas equações de Lagrange. Supondo-se que a matriz Hessiana seja regular,
condição que comentaremos mais adiante, essas equações formam um sistema de n equações
diferenciais ordinárias de segunda ordem para as n coordenadas generalizadas.
De modo geral, as funções K e Qi devem ser funções muito irregulares das coordenadas gene-
ralizadas e de suas velocidades. A matriz Hessiana depende explicitamente das transformações
(8.4) e as forças generalizadas também dependem das forças resultantes sobre cada partícula do
sistema. O problema operacional de se encontrar soluções para as equações (8.9) torna-se, as-
sim, equivalente ao problema original de se resolver as equações de Newton para cada partícula
do sistema. Felizmente este problema pode ser contornado para muitos sistemas relevantes à
mecânica. No caso da função energia cinética, com um número suficiente de vínculos integráveis
e simetrias o número de graus de liberdade pode ser reduzido substancialmente. Com relação
a corpos rígidos, por exemplo, as contribuições à energia cinética reduzem-se ao movimento de
translação e rotação com relação ao centro de massa. Em sistemas deste tipo, a definição de uma
função K pode ser implementada por considerações macroscópicas, sem referência à composi-
ção de partículas individuais. No caso das forças generalizadas, que dependem das forças que
agem sobre cada partícula do sistema, vimos que essas consistem em três tipos básicos: forças
internas, forças externas e forças que mantêm possíveis vínculos integráveis do sistema. Forças
que mantêm vínculos integráveis são, por definição, forças que não realizam trabalho, portanto
não contribuem para o lado direito de (8.5). No caso especial de corpos rígidos, mas também em
outros sistemas mais complexos, as forças internas tendem a se cancelar mutuamente. Então,
as únicas forças que contribuem efetivamente para as equações de Lagrange são forças externas
e essas forças tornam-se as únicas relevantes para a construção das forças generalizadas do sis-
tema. De agora em diante vamos supor que estamos trabalhando com corpos rígidos, a menos
de referência em contrário. Com esta suposição, as equações de Lagrange não dependerão do
comportamento das partículas individuais do sistema.
No caso em que as forças externas que agem sobre o sistema sejam gradientes de potenciais

146
que dependem apenas das posições, temos
N
X ∂xI ∂V
F = −∇V (x) =⇒ Qi = − · ∇I V (q) = − .
∂q i ∂q i
I=1

Então, as equações (8.9) tornam-se

d ∂L ∂L
− i = 0, (8.10)
dt ∂ q̇ i ∂q

em que L é definida por

L ≡ K − V, (8.11)

denominada função de Lagrange do sistema.


Daqui em diante vamos trabalhar com sistemas cuja função de Lagrange não dependa expli-
citamente do tempo. Este tipo de sistema é denominado estacionário, ou conservativo, porque
a definição (8.11) implica que, neste caso, o potencial V é independente do tempo. Também
vamos nos deter a sistemas cujo potencial dependa apenas das coordenas generalizadas, com
exceção feita a alguns exemplos específicos, como por exemplo aqueles que envolvem partículas
carregadas em campos eletromagnéticos. Nessas condições, é imediato mostrar que

∂2L
Wij = . (8.12)
∂ q̇ i ∂ q̇ j

Esta é a forma usual de definição da matriz Hessiana. Como derivadas da função de Lagrange,
espera-se que esta definição permita generalizações, como por exemplo para descrever sistemas
que não são descritos pela Lagrangiana (8.11).

8.1.7 O espaço de configuração


Consideraremos a variedade definida pelo espaço das coordenadas generalizadas q i . Este espaço
é denominado espaço de configuração Qn . A descrição lagrangiana da mecânica em termos do
espaço de configuração Qn substitui, então, sua descrição newtoniana no espaço R3 , no sentido
de que soluções das equações de Newton (8.3) são mapeadas em trajetórias em Qn , soluções de
(8.9).
Observemos que com a forma K (q, q̇) = (1/2) Wij q̇ i q̇ j as equações (8.9) podem ser reescritas
na forma

Wij q̈ j − γijk q̇ j q̇ k = Qi , (8.13)

em que
 
1 ∂Wik ∂Wji ∂Wjk
γijk ≡ + − (8.14)
2 ∂q j ∂q k ∂q i

são denominados símbolos de Christoffel do primeiro tipo. Se a matriz Hessiana possuir inversa4
ij
de componentes W −1 , temos
ij
q̈ i − Γijk q̇ j q̇ k = W −1 Qj , (8.15)

4 Sistemas cuja matriz Hessiana possui inversa única são denominados sistemas regulares. Se a Hessiana de um

sistema é singular, ou seja, det W = 0, isto implica em que algumas das equações de Euler-Lagrange não serão equa-
ções de segunda ordem, mas definirão vínculos entre as coordenadas e velocidades generalizadas. Esses sistemas são
denominados sistemas singulares, ou ainda sistemas vinculados, e serão analisados mais adiante.

147
na qual agora definimos os símbolos de Christoffel do segundo tipo
 
i 1 −1 il
 ∂Wlk ∂Wjl ∂Wjk
Γjk ≡ W + − . (8.16)
2 ∂q j ∂q k ∂q l

Podemos definir uma derivada temporal covariante com o uso dos símbolos de Christoffel do
segundo tipo como componentes de uma conexão afim Γ. Se q̇ i são as componentes das velocida-
des generalizadas do sistema, temos
 
i i d
(Dq̇) ≡ δj − Γkj q̇ q̇ j = q̈ i − Γikj q̇ k q̇ j ,
i k
(8.17)
dt

e as equações de Lagrange assumem a forma


i ij
(Dq̇) = W −1 Qj . (8.18)

A redução das equações de Lagrange à forma (8.18) serve ao propósito de demonstrar a na-
tureza geométrica dessas equações. A utilização de uma derivada covariante sugere que existe
uma geometria em Qn induzida pela dinâmica dos sistemas newtonianos: a definição (8.16) su-
gere que a matriz Hessiana, se inversível, é formada por componentes de uma métrica em Qn .
i
As equações (8.18) livres (Qi = 0) dadas por (Dq̇) = 0 definem geodésicas em Qn . O efeito da
existência de forças generalizadas é, portanto, o de desviar o sistema de sua trajetória geodésica
natural.

8.2 Propriedades do formalismo lagrangiano


8.2.1 Covariância Geral
A existência de uma geometria lagrangiana também implica na covariância geral das equações
(8.18), portanto de (8.10), com relação a transformações gerais de coordenadas em Qn . Vamos
supor uma transformação inversível

q i → q̄ i = q̄ i q j .

(8.19)

Então,
N N
X ∂xI X ∂xI ∂ q̄ j ∂ q̄ j
Qi = FI · = F I · = Q̄j ,
∂q i ∂ q̄ j ∂q i ∂q i
I=1 I=1

assim,

∂q j
Q̄i = Qj . (8.20)
∂ q̄ i

As forças generalizadas se transformam como componentes covariantes, ou seja, com a inversa


da matriz jacobiana da transformação (8.19), ∂q/∂ q̄. A matriz Hessiana possui a seguinte lei de
transformação:
N N
X ∂xI ∂xI X ∂xI ∂ q̄ k ∂xI ∂ q̄ l ∂ q̄ k ∂ q̄ l
Wij = mI · = mI · = W̄ kl ,
∂q i ∂q j ∂ q̄ k ∂q i ∂ q̄ l ∂q j ∂q i ∂q j
I=1 I=1

ou
∂q m ∂q n
W̄ij = Wmn , (8.21)
∂ q̄ i ∂ q̄ j

148
que define a transformação de componentes de tensores covariantes de segunda ordem. Assim,
torna-se claro que o lado direito de (8.18) transforma-se como um vetor contravariante sob a
transformação (8.19),
ij ∂ q̄ i ∂ q̄ j −1 mn ∂q
k
W̄ −1

Q̄j = W̄ Q̄k
∂q m ∂q n ∂ q̄ j
∂ q̄ i ∂ q̄ j ∂q k ∂ q̄ i ∂q k
 
−1 mn
mn
W̄ −1

= m n j
W̄ Q̄k = m n
Q̄k
∂q ∂q ∂ q̄ ∂q ∂q
∂ q̄ i k mn ∂ q̄ i kj
= m
δn W̄ −1 Q̄k = k W̄ −1 Q̄j .
∂q ∂q
Por outro lado, as próprias velocidades generalizadas transformam-se como vetores contravari-
antes, ou seja,

∂q i j
q̇ i = q̄˙ , (8.22)
∂ q̄ j

mas não as acelerações:

dq̇ i ∂q i j ∂q i ∂q i j
   
d d
q̈ i = = q̄˙ = q̄˙j + q̄¨ . (8.23)
dt dt ∂ q̄ j dt ∂ q̄ j ∂ q̄ j
i
Contudo, a quantidade (Dq̇) transforma-se contravariantemente se a lei de transformação das
componentes da conexão Γ for dada por

∂ q̄ i ∂ 2 q l i
r ∂ q̄ ∂q ∂q
l m
Γ̄ijk = + Γ lm . (8.24)
∂q l ∂ q̄ j ∂ q̄ k ∂q r ∂ q̄ j ∂ q̄ k

O cálculo direto a partir de (8.16) leva exatamente a este resultado.

Esses cálculos implicam na invariância das equações de Lagrange com relação a transforma-
ções do tipo (8.19), usualmente denominadas transformações de ponto. Neste caso,
i ij i ij
q −→ q̄ =⇒ (Dq̇) = W −1 Qj −→ D̄q̄˙ = W̄ −1 Q̄j . (8.25)

Outra maneira de demonstrar a covariância das equações de Lagrange é utilizando sua forma
usual
d ∂L ∂L
i
− i = 0. (8.26)
dt ∂ q̇ ∂q

Considerando L = L (q, q̇), temos

∂L ∂ q̄ j ∂L ∂L ∂q j ∂L
i
= i j
⇐⇒ i
= , (8.27)
∂q ∂q ∂ q̄ ∂ q̄ ∂ q̄ i ∂q j

ou seja, temos uma transformação de componentes covariantes.

Por outro lado,

∂L ∂ q̄˙j ∂L
= ,
∂ q̇ i ∂ q̇ i ∂ q̄˙j
mas

∂ q̄˙j dq̄ j ∂ q̄ j k ∂ q̄ j
   
∂ ∂
= i = i q̇ = .
∂ q̇ i ∂ q̇ dt ∂ q̇ ∂q k ∂q i

149
Portanto,

∂L ∂ q̄ j ∂L ∂L ∂q j ∂L
= ⇐⇒ = . (8.28)
∂ q̇ i ∂q i ∂ q̄˙j ∂ q̄˙i ∂ q̄ i ∂ q̇ j

Ou seja, essas derivadas também são covariantes. A derivada temporal é dada por

d ∂q i ∂ q̄ k ∂ q̄ k
v≡ = q̇ i ∂i = q̄˙j j i ∂¯k = q̄˙j j ∂¯k = q̄˙j δjk ∂¯k = q̄˙j ∂¯j = q̄˙i ∂¯i , (8.29)
dt ∂ q̄ ∂q ∂ q̄

ou seja, é um invariante. Neste caso, temos

d ∂ q̄ j ∂L ∂ q̄ j ∂L
 
d ∂L ∂L
0 = − = −
dt ∂ q̇ i ∂q i dt ∂q i ∂ q̄˙j ∂q i ∂ q̄ j
 j j
  2 j
∂ 2 q̄ j k ∂L ∂ q̄ j d ∂L
   
d ∂ q̄ ∂L ∂ q̄ d ∂L ∂L ∂ q̄ ∂L
= + − = + q̇ + − .
dt ∂q i ∂ q̄˙j ∂q i dt ∂ q̄˙j ∂ q̄ j ∂t∂q i ∂q i ∂q k ∂ q̄˙j ∂q i dt ∂ q̄˙j ∂ q̄ j

Supondo que a matriz ∂ q̄ i /∂q j não dependa do tempo, ou seja,

∂ q̄ j
 
d
= 0.
dt ∂q i

Neste caso,

∂ q̄ j
 
d ∂L ∂L d ∂L ∂L
− = − j . (8.30)
dt ∂ q̇ i ∂q i ∂q i dt ∂ q̄˙j ∂ q̄

Se a equação (8.26) é válida, então

∂ q̄ j
 
d ∂L ∂L
− j = 0.
∂q i ˙
dt ∂ q̄ j ∂ q̄

Agora, vamos usar a condição

∂ q̄ j
 
det 6= 0, (8.31)
∂q i

que é a condição para que a transformação q → q̄ seja inversível. Neste caso, as equações de
Lagrange implicam em

d ∂ L̄ ∂ L̄
− i = 0, (8.32)
dt ∂ q̄˙ i ∂ q̄
em que

L̄ = L̄ q̄ i , q̄˙i = L q i q̄ j , q̇ i q̄ j , q̄˙j
   
(8.33)

é a função lagrangiana escrita em termos das novas variáveis.

8.2.2 Lagrangianas equivalentes

Embora uma função lagrangiana defina univocamente um conjunto de equações de movimento,


o oposto não é verdadeiro. Duas ou mais lagrangianas podem resultar em um mesmo sistema
físico. Por exemplo, o acréscimo de uma função que dependa apenas do tempo em uma lagran-
giana, L → L + Φ (t), não afeta as equações de movimento. Por outro lado, acrescentar uma
derivada temporal total a uma lagrangiana tampouco modifica as equações de Lagrange. Vamos

150
tomar
dF
L→L− , (8.34)
dt
em que F = F (q). Neste caso,
 
∂L ∂ dF ∂L ∂ dF
i
→ i L− = i− i .
∂q ∂q dt ∂q ∂q dt

Ainda,
        
d ∂L d ∂ dF d ∂L ∂ dF d ∂L d ∂ dF
→ L − = − = − .
dt ∂ q̇ i dt ∂ q̇ i dt dt ∂ q̇ i ∂ q̇ i dt dt ∂ q̇ i dt ∂ q̇ i dt

Portanto,
     
d ∂L ∂L d ∂L ∂L ∂ dF d ∂ dF
− → − + − . (8.35)
dt ∂ q̇ i ∂q i dt ∂ q̇ i ∂q i ∂q i dt dt ∂ q̇ i dt

Contudo, note que


      
d ∂ dF d ∂ j ∂F d ∂F
= q̇ = ,
dt ∂ q̇ i dt dt ∂ q̇ i ∂q j dt ∂q i

pois F não depende das velocidades ou do tempo. Por outro lado,


       
∂ dF ∂ j ∂F j ∂ ∂F j ∂ ∂F d ∂F
= i q̇ = q̇ = q̇ = ,
∂q i dt ∂q ∂q j ∂q i ∂q j ∂q j ∂q i dt ∂q i

então temos o cancelamento das derivadas de F . Então, L → L − dF/dt implica em


   
d ∂L ∂L d ∂L ∂L
− → − i, (8.36)
dt ∂ q̇ i ∂q i dt ∂ q̇ i ∂q

ou seja, as equações de Lagrange são as mesmas para ambas as lagrangianas.

Agora, vamos tentar demonstrar o teorema inverso. Vamos supor duas lagrangianas distintas
L1 e L2 com duas equações de Lagrange
   
d ∂L1 ∂L1 d ∂L2 ∂L2
Λ1i ≡ i
− i
=0 Λ2i ≡ i
− = 0. (8.37)
dt ∂ q̇ ∂q dt ∂ q̇ ∂q i

Dizemos que ambas as equações são iguais se Λ1i = Λ2i para todo i. Neste caso,
     
d ∂L1 ∂L1 d ∂L2 ∂L2 d ∂ψ ∂ψ
0 = Λ1i − Λ2i = i
− i
− i
+ i
, = i
− i,
dt ∂ q̇ ∂q dt ∂ q̇ ∂q dt ∂ q̇ ∂q

em que ψ = L1 − L2 . Neste caso, temos


2 2
   2 
d ∂ψ ∂ψ j ∂ ψ j ∂ ψ ∂ ψ ∂ψ
Λ1i − Λ2i = − i = q̈ + q̇ + − i = 0.
dt ∂ q̇ i ∂q ∂ q̇ j ∂ q̇ i ∂q j ∂ q̇ i ∂t∂ q̇ i ∂q

Esta é uma equação polinomial nas derivadas de q, portanto os coeficientes deste polinômio
devem ser nulos. Os coeficientes das velocidades estão implícitas na equação, visto que o último
termo em parênteses também depende de q̇. Mas o único lugar em que aparecem as acelerações
é no primeiro termo. Assim,

∂2ψ
= 0, (8.38)
∂ q̇ j ∂ q̇ i

151
ou seja, ψ deve ter a forma

ψ = Ai (t, q) q̇ i + B (t, q) . (8.39)

Portanto,
∂2ψ ∂2ψ ∂ψ
Λ1i − Λ2i = q̇ j j i
+ − i
∂q ∂ q̇ ∂t∂ q̇ i ∂q
∂Ai ∂Ai ∂Aj j ∂B
= q̇ j j + − q̇ − i
∂q ∂t ∂q i ∂q
 
∂Ai ∂Aj ∂A i ∂B
= − q̇ j + − i. (8.40)
∂q j ∂q i ∂t ∂q
Temos, assim,

∂Ai ∂Aj ∂Ai ∂B


− =0 e − i = 0. (8.41)
∂q j ∂q i ∂t ∂q

Da primeira igualdade, temos que

∂Ai ∂Aj ∂Φ
− = 0 ⇐⇒ Ai = i , (8.42)
∂q j ∂q i ∂q

com Φ uma função apenas das posições. Portanto, da segunda igualdade temos

∂2Φ
 
∂Ai ∂B ∂B ∂ ∂Φ ∂Φ
0= − i = − i = i −B ⇐⇒ B = . (8.43)
∂t ∂q ∂t∂q i ∂q ∂q ∂t ∂t

Por fim, mostramos que

∂Φ ∂Φ dΦ
ψ = Ai q̇ i + B = q̇ i i
+ = ,
∂q ∂t dt

e, assim,


L2 = L1 − . (8.44)
dt

8.2.3 A condição Hessiana


Vamos discutir a questão da regularidade ou singularidade da matriz Hessiana, que tem a forma

∂2L
Wij = , (8.45)
∂ q̇ i ∂ q̇ j

desde que L seja conhecida como função de q i e q̇ i . Dadas as equações de Lagrange na forma

Wij q̈ j − γijk q̇ j q̇ k = Qi , (8.46)

estas consistirão em n equações diferenciais ordinárias de segunda ordem para n coordenadas


generalizadas se, e somente se, W possuir uma inversa W −1 , cujas componentes são dadas por
W ij , com W ij Wjk = δki . Neste caso, vimos que
ij
q̈ i − Γijk q̇ j q̇ k = W −1 Qj . (8.47)

Portanto, se W tem inversa, todas as equações de Lagrange são dinâmicas: envolvem acelerações
generalizadas do sistema.

152
A condição para que a inversa W −1 exista é chamada condição Hessiana,

det W 6= 0, (8.48)

ou seja, a matriz Hessiana deve ser regular. Todo sistema lagrangiano que obedece à condição
Hessiana é chamado regular.
Se det W = 0, o sistema é dito singular. Neste caso, a passagem de (8.46) para (8.47) não
pode ser efetuada. Quando uma matriz tem determinante nulo, isto implica em que tal matriz
possui um certo número de autovalores nulos. Dizemos que P ≡ n − k, em que k é o número de
autovalores nulos de W , é o posto de W . Se W tem posto P , isto também quer dizer que existe
uma submatriz regular W 0 ⊂ W de dimensão P , cujas coordenadas generalizadas relacionadas
são denominadas q 0a , com a = 1, · · · , P . Supondo W diagonal, temos

Wab q̈ 0b − γajk q̇ j q̇ k = Qa , (8.49)

ou seja, existirão P equações de Lagrange efetivamente dinâmicas.


A parte nula da matriz contribui com as equações

φa0 (q, q̇) = γa0 jk q̇ j q̇ k + Qa0 = 0, (8.50)

que consistem em k equações em que não aparecem acelerações, apenas as velocidades e coorde-
nadas. Essas condições são vínculos lagrangianos, já que são relações que restringem coordena-
das e velocidades generalizadas.
Existem formalismos para o tratamento desses sistemas, mas por enquanto vamos apenas
nos alertar de sua existência. A partir de agora, trataremos apenas de sistemas mecânicos
regulares.

8.2.4 Momentos conjugados


Em mecânica newtoniana, o momento relacionado a uma dada velocidade ẋ é definido por

p ≡ mẋ. (8.51)

Note que, supondo uma lagrangiana L = K − V , tal que

1 1
K= mv 2 = mẋ · ẋ,
2 2
temos
∂K
= mẋ = p, (8.52)
∂ ẋ
ou seja, os momentos são derivadas da energia cinética com relação às velocidades.
Com isso, podemos definir

∂L
pi ≡ , (8.53)
∂ q̇ i

que são denominados momentos conjugados às coordenadas q i . Se K = (1/2) mq̇ i q̇i e V = V q i ,
temos pi = mq̇ i , em analogia com o momento newtoniano (8.52). Ressaltamos, contudo, que
coordenadas generalizadas não são necessariamente posições no espaço euclidiano e, portanto,
momentos conjugados não são estritamente quantidades de movimento. Veremos nos exemplos
adiante, por exemplo, que se q é um ângulo, seu momento conjugado, no geral, é uma componente
de momento angular.

153

Podemos verificar, também, que na forma mais geral L = (1/2) Wij q̇ i q̇ j + V q i , temos
 
∂L ∂ 1 1 ∂
pi = i
= i Wmn q̇ m q̇ n = Wmn i (q̇ m q̇ n ) = Wmn δim q̇ n = Win q̇ n = Wij q̇ j . (8.54)
∂ q̇ ∂ q̇ 2 2 ∂ q̇

Ainda,

q̇ i = W ij pj , (8.55)

se a condição Hessiana é satisfeita.

8.2.5 Energia
Da mesma forma, a energia mecânica pode ser definida no formalismo lagrangiano baseado em
seu análogo newtoniano, ou seja, E = K + V . No caso cartesiano, em que L = K (ẋ) − V (x) e
K = (1/2) mv 2 , note que

∂L
ẋ · p − L = ẋ · − L = mẋ · ẋ − K + V = 2K − K + V = K + V, (8.56)
∂ ẋ
portanto, a expressão ẋ · p − L coincide com a energia mecânica newtoniana.
Neste caso, vamos definir a função dinâmica

∂L i
H (q, q̇) ≡ q̇ − L = pi q̇ i − L, (8.57)
∂ q̇ i

denominada função de Hamilton do sistema, ou hamiltoniana. A hamiltoniana de um sistema


é a candidata natural para sua energia mecânica. Para que H seja realmente a energia, temos
mais duas condições. A primeira é que H deve ser conservado, ou seja, Ḣ = 0. Assim,
dH d dL
pi q̇ i − L = ṗi q̇ i + pi q̈ i −

=
dt dt dt
i i ∂L i ∂L i ∂L
= ṗi q̇ + pi q̈ − − q̇ − q̈
∂t ∂q i ∂ q̇ i
   
∂L ∂L ∂L
= q̇ i ṗi − i + q̈ i pi − i − .
∂q ∂ q̇ ∂t
Temos
∂L
ṗi − = 0,
∂q i

que são as equações de Lagrange, e

∂L
pi − = 0,
∂ q̇ i

que é a definição dos momentos conjugados. Portanto,

dH ∂L
=− , (8.58)
dt ∂t
ou seja, H é uma integral de movimento se L não depender explicitamente do tempo.
A segunda condição para que H seja a energia é que a energia cinética K deve ser uma
função homogênea de grau 2 nas velocidades. Uma função homogênea de grau λ é toda função

f q̇ 1 , q̇ 2 , · · · , q̇ n tal que

f aq̇ 1 , aq̇ 2 , · · · , aq̇ n = aλ f q̇ 1 , q̇ 2 , · · · , q̇ n , ∀a ∈ R∗+ .


 
(8.59)

154
Neste caso, temos o teorema de Euler

∂f
q̇ i = λf. (8.60)
∂ q̇ i

Se K é homogênea de grau 2, temos

∂L i ∂K i
H= q̇ − L = q̇ − K + V = 2K − K + V = K + V. (8.61)
∂ q̇ i ∂ q̇ i

Para que K seja homogênea de grau 2, é suficiente que ele mantenha sua forma quadrática
regular K = (1/2) Wij q̇ i q̇ j . Portanto, H é a energia se L não depender explicitamente do tempo,
e se houver uma parte cinética quadrática nas velocidades.

8.2.6 Coordenadas degeneradas e conservação dos momentos conjuga-


dos
Uma coordenada degenerada (ou ignorável) é toda variável cuja coordenada generalizada não
aparece explicitamente na função de Lagrange. Vamos supor uma lagrangiana na forma

L = L (x, ẋ, y, ẏ, ż) , (8.62)

ou seja, que depende das coordenadas x e y, das velocidades (ẋ, ẏ, ż), mas não depende da coor-
denada z. Neste caso, temos as equações de Lagrange

d ∂L ∂L d ∂L ∂L
− = 0, − = 0, (8.63)
dt ∂ ẋ ∂x dt ∂ ẏ ∂y

mas a equação para z é apenas

d ∂L dpz
= = 0. (8.64)
dt ∂ ż dt
Portanto, quando a lagrangiana não depende de uma das coordenadas generalizadas, o momento
desta respectiva coordenada é uma constante de movimento. Este grau de liberdade ignorável
torna-se, então, uma grau de liberdade livre.

No caso geral, em que L = L t, q i , q̇ i ,

∂L
∀q z ∈ Qn : = 0 ⇐⇒ pz = constantes. (8.65)
∂q z

Isto significa que a existência de coordenadas degeneradas na lagrangiana implica em integrais


do movimento. O teorema inverso também é válido: se um dos momentos conjugados de um certo
sistema for constante, sua respectiva coordenada é uma coordenada degenerada e não aparece
na função de Lagrange.

8.2.7 Vínculos integráveis


Vínculos lagrangianos integráveis consistem em relações do tipo φ (t, q) = 0, que definem uma
hiper superfície Γ ⊂ Qn . Vamos supor a existência de r vínculos integráveis

φz (t, q) = 0. (8.66)

Neste caso, Γ tem dimensão m = n − r, pois cada vínculo contribui para a diminuição de um grau
de liberdade do sistema. Assim, o sistema está restrito a se mover sobre Γ.
A existência de vínculos integráveis pode ser simulada por um conjunto de forças generali-
zadas Γi (t, q) que não executem trabalho sobre o sistema. Neste caso, o caminho do sistema em

155
Γ é sempre ortogonal a cada Γi . Sabemos que, se uma superfície é definida por uma equação
f (x) = 0, o gradiente ∇f é um vetor ortogonal à superfície. Portanto, podemos escolher nossas
forças de modo que

Γi = −λz ∂i φz , (8.67)

em que λz são r multiplicadores de Lagrange.

As equações de Lagrange tornam-se

d ∂K ∂K
− i = Qi − λz ∂i φz . (8.68)
dt ∂ q̇ i ∂q

Supondo-se que Qi = −∂i V ,

d ∂K ∂K
− i = −∂i V − λz ∂i φz . (8.69)
dt ∂ q̇ i ∂q

Note que, se φz = 0,

∂i (λz φz ) = λz ∂i φz + ∂i (λz ) φz = λz ∂i φz , (8.70)

então podemos escrever

d ∂K ∂K
− i = −∂i (V + λz φz ) . (8.71)
dt ∂ q̇ i ∂q

Se redefinirmos a lagrangiana, na forma

L0 = K − V − λz φz , (8.72)

temos que

d ∂L0 ∂L0
− = 0. (8.73)
dt ∂ q̇ i ∂q i

Os multiplicadores de Lagrange são variáveis auxiliares do sistema, e geralmente dependem


do tempo e das coordenadas generalizadas. Com essas novas variáveis, podemos construir um

espaço de configuração estendido Qn+r , em que xi ≡ q i , λz são as novas variáveis dinâmicas.
Neste caso, temos

d ∂L0 ∂L0
− = 0,
dt ∂ ẋ ∂x
que se separa em dois sistemas de equações. Um deles é precisamente (8.73). O segundo é dado
por

∂L0
− =0 =⇒ φz = 0, (8.74)
∂λz
ou seja, as equações de Lagrange para λz são os vínculos integráveis originais.

No geral, com as equações (8.73) e (8.74) é possível descobrir a forma funcional dos multipli-
cadores de Lagrange λz (t, q).

156
8.3 Variedades de configuração
8.3.1 Exemplos de variedades de configuração
A linha finita: Aplica-se ao caso de movimento unidimensional, por exemplo, no caso de um
anel preso a um fio de comprimento `. Há apenas uma coordenada generalizada que pode ser
escolhida como o parâmetro de comprimento −`/2 ≤ s ≤ `/2 do fio.

O círculo S1 : Aplica-se ao caso de movimento unidimensional, por exemplo, no caso de um


pêndulo planar cuja haste tem comprimento `. O ângulo θ com relação ao centro do círculo
é usado como coordenada generalizada. Junto com esta coordenada, definimos condições de
contorno, por exemplo −π ≤ θ ≤ π, ou 0 ≤ θ ≤ 2π. Em ambos os casos um dos pontos tem,
necessariamente, duas coordenadas.

O plano: Aplica-se ao movimento bidimensional, por exemplo, de uma partícula em uma mesa.
O sistema de coordenadas pode ser escolhido como o cartesiano, polar ou outros.

A esfera S2 : Aplica-se ao movimento bidimensional, por exemplo, de um pêndulo esférico. As


coordenadas, no geral, são os ângulos azimutal −π ≤ φ ≤ π (que corresponde à longitude), e o
ângulo polar −π/2 ≤ θ ≤ π/2 (latitude).

O pêndulo duplo S2 × S2 : Consiste na variedade de configuração de um pêndulo esférico sus-


penso por um segundo pêndulo esférico. Esta variedade tem dimensão quatro, e suas coordena-
das são {φ1 , φ2 , θ1 , θ2 }, que correspondem às longitudes e latitudes de ambos os pêndulos.

Corpos rígidos E3 ×SO (3): Consiste na variedade de seis dimensões que define univocamente
a posição e a orientação de um corpo rígido no espaço. Um exemplo de sistema de coordenadas
é dado por {x, y, z, θ, φ, ψ}, em que (x, y, z) representam as coordenadas cartesianas do centro de
massa e (θ, φ, ψ) são os ângulos de Euler do corpo.

8.3.2 Dinâmica em Q
A dinâmica em Q é definida pela equações de Lagrange

d ∂L ∂L
− i = 0, (8.75)
dt ∂ q̇ i ∂q

em que agora vamos supor que q i seja um conjunto de coordenadas generalizadas. Se L =


L (t, q, q̇), temos

∂2L j ∂2L ∂2L ∂L


i j
q̈ + i j q̇ j + i − i = 0, (8.76)
∂ q̇ ∂ q̇ ∂ q̇ ∂q ∂ q̇ ∂t ∂q

que formam um sistema de EDOs de segunda ordem em Q. As soluções são dadas por

q i = q i (t) , (8.77)

que definem trajetórias γt ⊂ Q parametrizadas pelo tempo t.


Contudo, A função de Lagrange L não tem domínio em Q, já que ele depende não só de
q, mas também da velocidades q̇ e do tempo t. Tampouco as velocidades pertencem a Q, o que
indica que a estrutura da dinâmica não se restringe exclusivamente à variedade de configuração,
necessitando de estruturas geométricas extras.

157
8.3.3 O espaço tangente T q Q
Vamos supor uma trajetória γt ⊂ Q tal que q i = q i (t) são suas equações paramétricas. Para cada
ponto q ∈ γ e, portanto, para cada q ∈ Q, podemos definir as velocidades

q̇ i = q̇ i (t, q) , (8.78)

que formam um conjunto de EDO’s de primeira ordem, de modo que γ é solução de (8.78) para
um conjunto de condições iniciais adequado. As velocidades q̇ são componentes do campo vetorial

d dq i ∂
v≡ = = q̇ i (t, q) ∂i , (8.79)
dt dt ∂q i

que é um vetor tangente a γ quando calculado no ponto q. O vetor v é um membro de um


espaço vetorial, chamado espaço tangente T q Q, definido em cada ponto q ∈ Q. Um sistemas de
coordenadas {q} ⊂ Q induz uma base natural {∂i } ⊂ T q Q, de modo que todo vetor u definido em
um ponto q é representado por suas componentes ui escritas nesta base.
Cada ponto q ∈ Q possui, portanto, um espaço tangente T q Q dos vetores tangentes a Q no
ponto q. Neste caso, como Q é uma variedade diferenciável (suave), podemos definir campos
vetoriais u = u (q), cujas componentes dependem do ponto q. O espaço de todos esses vetores
N
tangentes também é um espaço vetorial tangente, que denominaremos por ( T q Q). No geral,
este espaço de campos vetoriais só pode ser definido em um subvolume de Q, mas esta questão
não será relevante em nossas discussões.

8.3.4 A variedade tangente T Q


N
A variedade tangente T Q é definida pelo produto (semi)direto T Q = Q × ( T q Q), e é um exem-

plo de fibrado tangente trivial. Um ponto χ ∈ T Q é representado pelas coordenadas q i , q̇ i ,
ou seja, a dimensão de T Q é 2n e suas coordenadas incluem coordenadas generalizadas e ve-
 
locidades arranjadas na ordem q i , q̇ i = q 1 , q 2 , q 3 , · · · q n , q̇ 1 , q̇ 2 , · · · , q̇ n . Portanto, a variedade
tangente é constituída por Q em conjunto com todos os seus espaços tangentes.

8.3.5 As equações de Lagrange em T Q


A lagrangiana L = L (t, q, q̇) é, no geral, uma função L : R × T Q → R, mas no caso especial em
que L não depende do tempo, o domínio é simplesmente a variedade tangente T Q. As equações
de Lagrange escritas em T Q formam um sistema de 2n equações de primeira ordem. Vamos
denominar v i ≡ q̇ i , então, L = L (t, q, v). Assim,

dq i
vi = ,
dt
∂ 2 L dv j ∂L ∂2L ∂2L
i j
= i − i j vj − i .
∂v ∂v dt ∂q ∂v ∂q ∂v ∂t

Vamos supor que a matriz Hessiana

∂2L
Wij =
∂v i ∂v j

seja regular. Neste caso, temos dq i /dt = v i e

∂2L j ∂2L
 
i −1 ij ∂L
≡ F i (t, q, v) ,

v̇ = W − v − (8.80)
∂q i ∂v i ∂q j ∂v i ∂t

158

em que F i ∈ R × T Q. Por outro lado, podemos definir as variáveis χI ≡ q i , v i , de modo que

dχI
= ∆I t, χJ ,

{I, J} = {1, 2, · · · , n, n + 1, n + 2, · · · 2n} . (8.81)
dt
Nesta notação, as n primeiras entradas correspondem a Q, enquanto as n entradas seguintes
N
correspondem a T q Q. Então,
(
I J
 vi se χI = q i ,
∆ t, χ = (8.82)
Fi se χI = v i .

Neste caso, as equações

χ̇I = ∆I t, χJ

(8.83)

formam as equações de Lagrange em T Q. Suas soluções são curvas γt ⊂ T Q com equações


paramétricas

χI = χI (t) = q i (t) , v i (t) .



(8.84)

A variedade tangente T Q é também denominada espaço de estados.

8.3.6 Campos vetoriais em T Q


As equações (8.83) definem um campo vetorial ∆ = ∆I ∂I , tal que

d dq i ∂ dv i ∂ dχI ∂
∆≡ = i
+ i
= = χ̇I ∂I , (8.85)
dt dt ∂q dt ∂v dt ∂χI

que é o campo de velocidades de curvas γt : χI = χI (t) na variedade tangente T Q. Como as


equações (8.83) são válidas, as componentes deste campo vetorial são as velocidades χ̇I . Para
encontrar a dinâmica de uma função G : T Q → R, simplesmente aplicamos ∆ em G, ou seja,

∆ [G] = χ̇I ∂I G = ∆I ∂I G, (8.86)

com ∆I definida em (8.82). Por exemplo, temos

∆ χI = ∆J ∂J χI = δJI ∆J = ∆I = χ̇I .
 
(8.87)

As componentes do campo ∆ dependem, em razão de (8.82), da função lagrangiana. Portanto,


não possuem uma forma geral: ∆I dependem especialmente da função

∂2L j ∂2L
 
i −1 ij
 ∂L
F ≡ W − i jv − i ,
∂q i ∂v ∂q ∂v ∂t

para I = n + 1, · · · , 2n. Esta é a principal razão pela qual a formulação lagrangiana em T Q


não encontra apelo abrangente. Calcular as funções F i , em muitos casos, substitui a facilidade
da descrição lagrangiana em termos das equações de primeira ordem (8.83). Este problema,
contudo, será corrigido de maneira satisfatória no formalismo hamiltoniano.
Portanto, quando descrevemos a dinâmica em T Q devemos incluir na descrição vetores tan-
gentes definidos em T Q. Eles são dados por

∂ ∂
X ≡ X I ∂I = X1i + X2i i , (8.88)
∂q i ∂ q̇

em que X1i e X2i são funções de T Q, componentes do campo vetorial X. Como operadores diferen-

159
ciais, vemos que campos vetoriais em T Q mapeiam funções de T Q em funções de T Q, ou seja,

X : Φ (T Q) → Φ (T Q) , (8.89)

em que Φ (T Q) é o espaço de funções com domínio em T Q. O espaço dos campos vetoriais em


T Q é, em si, uma variedade tangente que tem como base o espaço T Q. Este espaço será referido
como T , de modo que X ∈ T .

8.3.7 1-formas em T Q
O espaço T possui um espaço dual T ∗ que é o espaço dos funcionais lineares α : T → Φ (T Q) tal
que, para todo X ∈ T , existe um X ∗ ∈ T ∗ , e

X ∗ [X] = (X, X) = X 2 , (8.90)

em que (X, X) : T 2 → Φ (T Q) é um produto interno definido em T .


Vemos em (8.88) que as derivadas {∂I } = {∂q , ∂q̇ } formam uma base em T . (8.90) garante um
isomorfismo entre T e T ∗ , de modo que, sendo T ∗ um espaço vetorial por si, definimos uma base
dχ = dq , dq̇ ⊂ T ∗ . Esta base forma um conjunto de funcionais tal que
 I  i i

dχI [∂J ] = δJI , (8.91)

em que δJI é a delta de Kronecker. Assim,

dχI [X] = dχI X J ∂J = X J dχI [∂J ] = X J δJI = X I ,


 
(8.92)

ou seja, as componentes de um vetor X podem ser encontradas atuando-se a base de T ∗ em X,


X I = dχI [X] .
Todo funcional α ∈ T ∗ é denominado uma 1-forma diferencial. Com uma base dχI ⊂ T ∗ ,


toda 1-forma pode ser escrita por

α = αI dχI . (8.93)

Note que a diferencial de qualquer função F ∈ Φ (T Q) é dada por

∂F i ∂F i ∂F
dF = i
dq + i dq̇ = dχI = dχI ∂I F, (8.94)
∂q ∂ q̇ ∂χI

que é uma 1-forma diferencial. A aplicação desta 1-forma no campo vetorial ∆ resulta em

dF (∆) = ∂I F dχI [∆] = ∂I F dχI χ̇J ∂J = χ̇J ∂I F dχI [∂J ] = χ̇J ∂I F δJI = χ̇I ∂I F,
 

ou seja,

Ḟ = dF [∆] = ∆ (F ) . (8.95)

Dizemos, com a equação (8.95), que a dinâmica temporal de um observável F ∈ Φ (T Q) é gerada


pelo campo vetorial ∆, e também que ∆ é o gerador da dinâmica temporal dos observáveis em
T Q.

8.3.8 A derivada de Lie


A equação (8.95) sugere um novo tipo de derivada, que é a derivada de uma função ao longo de
um campo vetorial. Esta derivada é denominada derivada de Lie. Se F é uma função em T Q, a

160
derivada de Lie de F com relação a um campo vetorial

dχI
X ≡ XI ∂I = ∂I , (8.96)
d
para um dado parâmetro , é definida por

dF
LX F ≡ = X (F ) = dF [X ] . (8.97)
d
Da mesma forma, a derivada de Lie de F ∈ Φ (T Q) com relação a ∆ é dada por

L∆ F = ∆ (F ) = dF [∆] = Ḟ . (8.98)

Derivadas de Lie não são definidas apenas para funções escalares. Seja uma 1-forma dF ,
definimos

LX (dF ) ≡ d (LX F ) , (8.99)

ou seja, a derivada de Lie comuta com a diferencial. Para uma 1-forma geral α ∈ T ∗ , temos

LX α = LX αI dχI = LX (αI ) dχI + αI LX dχI


 

= X (αI ) dχI + αI dLX χI = X (αI ) dχI + αI d X χI


  

= X (αI ) dχI + αI d X J ∂J χI = X (αI ) dχI + αI dX I


 

= X (αI ) dχI + αI ∂J X I dχJ = X (αJ ) + αI ∂J X I dχJ ,


 
(8.100)

que é uma 1-forma.

A derivada de Lie de um campo vetorial, por outro lado, é definida por

LX Y ≡ [LX , LY ] , (8.101)

que é o comutador [LX , LY ] F = LX LY F − LY LX F . Note que

LX LY F = LX Y (F ) = LX Y (F ) = X [Y (F )] ≡ XY (F ) .

Da mesma forma,

LY LX F = Y X (F ) ,

[LX Y ] (F ) ≡ [LX , Ly ] (F ) = XY (F ) − Y X (F ) = [X, Y ] (F ) .

Assim, escrevemos

LX Y = [X, Y ] . (8.102)

O comutador [X, Y ] entre dois campos vetoriais é chamado colchete de Lie. Ele é bilinear,
antissimétrico e obedece à identidade de Jacobi

[X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0. (8.103)

161
8.3.9 A equação geométrica de Lagrange
Vamos definir uma 1-forma denominada forma lepagiana fundamental, ou primeira forma fun-
damental
∂L i
θ≡ dq = pi dq i . (8.104)
∂ q̇ i

Esta 1-forma é simplesmente o momento, cujas componentes são dadas por pi , os momentos
conjugados às coordenadas q i . Note que

L∆ θ = L∆ pi dq i = (L∆ pi ) dq i + pi L∆ dq i = (L∆ pi ) dq i + pi d L∆ q i .
  

Como ∆ é o gerador da dinâmica temporal, temos


 
dpi i  i d ∂L ∂L
L∆ θ = dq + pi d q̇ = i
dq i + i dq̇ i .
dt dt ∂ q̇ ∂ q̇

Temos as equações de Euler-Lagrange

d ∂L ∂L
i
= i,
dt ∂ q̇ ∂q

de modo que

∂L i ∂L i
L∆ θ = dq + i dq̇ . (8.105)
∂q i ∂ q̇

Se L = L (t, q, q̇), temos

∂L ∂L ∂L
dL = dt + i dq i + i dq̇ i ,
∂t ∂q ∂ q̇

de modo que

∂L
L∆ θ = dL − dt.
∂t
Assim, as equações de Euler-Lagrange podem ser escritas por

∂L
dL = L∆ θ + dt. (8.106)
∂t

8.4 Resumo

8.5 Exercícios

162
Capítulo 9

Alguns sistemas lagrangianos

9.1 Partícula livre

9.1.1 Coordenadas cartesianas

Vamos supor uma partícula livre tridimensional de massa m em coordenadas cartesianas. Sua
lagrangiana toma a forma

1 1 1
mv 2 = mẋ · ẋ = m ẋ2 + ẏ 2 + ż 2 .

L= (9.1)
2 2 2
Todas as coordenadas do sistema são degeneradas, portanto,

dp
=0 =⇒ ṗx = 0, ṗy = 0, ṗz = 0, (9.2)
dt
o que resulta em

mẍ = 0, (9.3)

que de fato são as equações de newton para a partícula livre.

9.1.2 Coordenadas esféricas

Em coordenadas esféricas, a energia cinética toma a forma

1 h 2 i
K= m ṙ + r2 θ̇2 + r2 sin2 θφ̇2 , (9.4)
2
enquanto o potencial é nulo. Vamos escolher o eixo z na direção perpendicular ao plano azimutal
(varrido por φ), de modo que θ = π/2. Sem forças externas, o torque é nulo, o que implica
na conservação do momento angular nas direções (x, y, z). Se o momento angular inicial tiver
direção z, este momento se conserva e θ̇ = 0. Assim,

1  2 
L= m ṙ + r2 φ̇2 , (9.5)
2
e o movimento é bidimensional.
A coordenada φ é degenerada, portanto seu momento é constante. Neste caso,

∂L
= 0 =⇒ ṗφ = 0 =⇒ pφ = `, (9.6)
∂φ

163
em que ` é uma constante. A expressão para pφ é dada por

∂L
pφ = = mr2 φ̇ =⇒ mr2 φ̇ = `. (9.7)
∂ φ̇

De fato, esta é a expressão da conservação do momento angular total. No geral, se uma coorde-
nada é um ângulo, seu momento conjugado é uma componente de momento angular.
A equação para r é dada por

d ∂L ∂L  
0= − = m r̈ − rφ̇2 . (9.8)
dt ∂ ṙ ∂r
Contudo, de (9.7) temos

`2 `2 1
r̈ − rφ̇2 = r̈ − r = r̈ − = 0. (9.9)
m2 r4 m2 r3

O termo em r−3 age como uma força efetiva. Nesta, o potencial efetivo é dado por

1 `2
Vef (r) ≡ . (9.10)
2 mr2

Podemos utilizar a equação (9.7) diretamente na lagrangiana (9.5), resultando em.

1 2 1 `2
Lef = mṙ − , (9.11)
2 2 mr2
que é uma lagrangiana efetiva em uma dimensão, agora dependente do parâmetro `. A equação
de Lagrange para r, (9.9), segue diretamente da lagrangiana (9.11).

9.2 Oscilador harmônico simples

9.2.1 Coordenadas cartesianas


Em três dimensões, com coordenadas cartesianas, o oscilador harmônico simples tem a seguinte
lagrangiana

1
m ẋ · ẋ − ω 2 x · x .

L= (9.12)
2
As equações de Lagrange são dadas por

d ∂L ∂L
0= − = mẍ + mω 2 x = 0, (9.13)
dt ∂ ẋ ∂x
ou seja,

ẍ + ω 2 x = 0, (9.14)

como esperávamos.

9.2.2 Oscilador harmônico isotrópico


Em coordenadas esféricas, o oscilador harmônico simples tem a lagrangiana

1  2  1 1  
L= m ṙ + r2 φ̇2 − mω 2 r2 = m ṙ2 + r2 φ̇2 − ω 2 r2 , (9.15)
2 2 2

164
em que, a exemplo da partícula livre, escolhemos o momento angular inicial na direção z. No-
vamente temos uma coordenada degenerada φ, que resulta na lei de conservação do momento
(9.7), mr2 φ̇ = `. Neste caso, temos a lagrangiana efetiva

1 2 1 `2 `2
 
1 2 2 1 2 2 2
Lef = mṙ − − mω r = m ṙ − 2 2 − ω r . (9.16)
2 2 mr2 2 2 m r

A equação de Lagrange torna-se

d ∂Lef ∂Lef `2
0= − = mr̈ − + mω 2 r, (9.17)
dt ∂ ṙ ∂r mr3
ou seja,

`2
r̈ + ω 2 r − = 0. (9.18)
m2 r 3
Para resolver o sistema, vamos tomar a Hamiltoniana

`2 `2
   
∂Lef 1 1
H ≡ ṙ − Lef = mṙ2 − m ṙ2 − 2 2 − ω 2 r2 = m ṙ2 + ω 2 r2 + 2 2 , (9.19)
∂ ṙ 2 m r 2 m r

que é conservada,

`2 `2
   
dH 1 d 1
= m ṙ2 + ω 2 r2 + 2 2 = m 2ṙr̈ + 2ω 2 rṙ − 2 2 3 ṙ
dt 2 dt m r 2 m r
2
 
`
= r̈ + ω 2 r − 2 3 mṙ = 0, (9.20)
m r
em razão de (9.18), e homogênea de segunda ordem nas velocidades. Portanto,

`2
 
1
H = m ṙ2 + ω 2 r2 + 2 2 = E, (9.21)
2 m r

que podemos colocar na forma


1/2 −1/2
`2 `2
 
2E 2E
ṙ = ± − ω2 r2 − 2 2 =⇒ dt = ± − ω2 r2 − 2 2 dr. (9.22)
m m r m m r

A quadratura
ˆ r
dr0
t − t0 = 1/2
. (9.23)
r0 (2E/m − ω 2 r02 − `2 m−2 r0−2 )

nos dá a solução do problema.

9.3 Máquina de Atwood


Vamos considerar dois pesos de massas m1 e m2 ligados por um fio de massa desprezível que
passa por uma polia ideal fixa. Inicialmente, este é um problema de dois corpos, cuja energia
cinética é dada por

1 1
K= m1 v12 + m2 v22 , (9.24)
2 2
e o potencial é o gravitacional,

V = V1 + V2 = −m1 gx1 − m2 gx2 , (9.25)

165
em que x1 e x2 são as posições verticais dos pesos com relação ao centro da polia.
Este sistema possui um vínculo holonômico:

x1 + x2 = `, (9.26)

em que ` é o comprimento do fio. Portanto, o sistema reduz-se a um sistema em uma única


dimensão. Vamos definir x ≡ x1 e, assim, x2 = ` − x. Como ` é constante, ẋ1 = ẋ2 = ẋ, então

1
K= (m1 + m2 ) ẋ2 , (9.27)
2
enquanto

V = −m1 gx − m2 g (` − x) = −g [(m1 − m2 ) x + m2 `] . (9.28)

Temos, então, a lagrangiana

1
L≡K −V = (m1 + m2 ) ẋ2 + g (m1 − m2 ) x, (9.29)
2
em que o termo em ` é descartado por ser constante.
A equação de movimento é dada por
d ∂L ∂L d
0 = − = [(m1 + m2 ) ẋ] − g (m1 − m2 )
dt ∂ ẋ ∂x dt
= (m1 + m2 ) ẍ − g (m1 − m2 ) ,

ou seja,
m1 − m2
ẍ = g . (9.30)
m1 + m2

Note que, se as massas forem iguais, o sistema é equivalente ao de uma partícula livre unidi-
mensional.
A energia mecânica é dada por E = K + V . Mas apenas como um exercício de ofício, vamos
calcular a hamiltoniana do sistema
∂L 1
H = ẋ − L = (m1 + m2 ) ẋ2 − (m1 + m2 ) ẋ2 − g (m1 − m2 ) x
∂ ẋ 2
1
= (m1 + m2 ) ẋ2 − g (m1 − m2 ) x. (9.31)
2
Podemos mostrar que H = E verificando que dH/dt = 0, o que já sabemos ser verdade pois a
lagrangiana é independente do tempo. Além, a energia cinética é quadrática nas velocidades,
como requerido.
Outra maneira de resolver este sistema é utilizando multiplicadores de Lagrange na lagran-
giana bidimensional

1 1
L= m1 v12 + m2 v22 + m1 gx1 + m2 gx2 + λ (x1 + x2 − `) , (9.32)
2 2
em que φ = x1 + x2 − ` = 0 é um vínculo holonômico. A equação de Lagrange para x1 é dada por

m1 ẍ1 + m1 g + λ = 0, (9.33)

enquanto, para x2 , temos

m2 ẍ2 + m2 g + λ = 0. (9.34)

166
Para λ, temos a equação φ = 0, como esperado. Dessas equações, temos

m1 ẍ1 + m1 g = m2 ẍ2 + m2 g =⇒ m1 ẍ1 − m2 ẍ2 + m1 g − m2 g = 0.

Usando-se o vínculo φ = x1 + x2 − ` = 0 e a condição φ̇ = 0, temos ẋ2 = −ẋ1 , que resulta em

(m1 + m2 ) ẍ + (m1 − m2 ) g = 0, (9.35)

precisamente o resultado (9.30).

9.4 Partícula carregada em um campo eletromagnético

Vamos considerar uma partícula de carga q movendo-se em um campo eletromagnético em três


dimensões. Usaremos coordenadas cartesianas para este caso. Note que a lei de força de Lorentz,
dada por
 
1
F = q E + ẋ × B , (9.36)
c

é dependente das velocidades ẋ. Em notação tensorial, temos


 
1
F i = q E i + ijk ẋj Bk , (9.37)
c

em que ijk é o tensor de Levi-Civita, em que 123 ≡ 1. Vamos trabalhar no sistema de unidades
naturais, em que c = 1.
Sabemos que os campos elétricos e magnéticos podem ser derivados de dois potenciais, um
potencial escalar Φ e um potencial vetor A:

∂Φ ∂A
E=− − ⇐⇒ E i = −∂ i Φ − ∂t Ai , (9.38a)
∂x ∂t
B = ∇ × A ⇐⇒ B i = ijk ∂j Ak . (9.38b)

Portanto,

F i = q −∂ i Φ − ∂t Ai + ijk ẋj kmn ∂ m An .



(9.39)

Vamos usar a identidade

ijk kmn = δm
i j
δn − δni δm
j
, (9.40)

que resulta em

Fi = q −∂ i Φ − ∂t Ai + δm i j
δn − δni δmj
ẋj ∂ m An
  

= q −∂ i Φ − ∂t Ai + δmi j
δn ẋj ∂ m An − δni δm j
ẋj ∂ m An
 

= q −∂ i Φ − ∂t Ai + ẋj ∂ i Aj − ẋj ∂ j Ai
 

dAi
 
i i j
= q −∂ Φ + ẋj ∂ A − . (9.41)
dt

Vamos escrever (9.41) na forma

d
Fi + qAi = q −∂ i Φ + ẋj ∂ i Aj ,
  
(9.42)
dt

167
e usar a segunda lei de Newton

dpi
Fi = . (9.43)
dt
Neste caso, temos

d i
p + qAi = ∂ i q ẋj Aj − qΦ .
  
(9.44)
dt

Como a força depende das velocidades, não existe energia potencial eletromagnética. Con-
tudo, a eq. (9.44) nos dá uma pista de como introduzir uma função lagrangiana, pois ela nos
lembra uma forma da segunda lei de Newton com a força redefinida à esquerda, enquanto uma
função "tipo potencial" aparece à direita. Assim, vamos definir as forças generalizadas como

d i
Qi ≡ p + qAi ,

(9.45)
dt
e esta força é derivada do que denominamos superpotencial

U ≡ qΦ − q ẋi Ai . (9.46)

A eq. (9.44) torna-se, enfim, Qi = −∂ i U .

Vamos usar esta força generalizada nas equações de Lagrange

d ∂K ∂K ∂
= Qi = −∂i U = − i qΦ − q ẋj Aj ,

− (9.47)
dt ∂ ẋi ∂xi ∂x
ou seja,

d ∂K ∂ 
K − qΦ + q ẋj Aj = 0.

i
− i
(9.48)
dt ∂ ẋ ∂x

K é a energia cinética da partícula, igual a mẋi ẋi /2, então vemos claramente que (9.48) não
resulta na equação (9.44). Contudo, note que

∂U d ∂U dAi
= −qAi =⇒ = −q , (9.49)
∂ ẋi dt ∂ ẋ i dt
então se tomarmos a equação de Lagrange modificada
 
d ∂ ∂
K − qΦ + q ẋj Aj = 0,

i
− i
(9.50)
dt ∂ ẋ ∂x

esta equação será igual a (9.44). Vemos que podemos introduzir a lagrangiana

1
L≡ mẋi ẋi − qΦ + q ẋj Aj , (9.51)
2
que é a lagrangiana de uma partícula em um campo eletromagnético. Assim, embora (9.50) seja
uma equação modificada para tratar de uma força dependente das velocidades, a equação final
torna-se uma equação de Lagrange usual

d ∂L ∂L
i
− = 0, (9.52)
dt ∂ ẋ ∂xi
desde que a função de Lagrange tenha a forma (9.51).

Para verificar se este é mesmo o formalismo lagrangiano para este problema, calculamos

168
(9.52) para a lagrangiana (9.51):

d ∂L ∂L d ∂
−qΦ + q ẋj Aj ,

0= − = (mẋi + qAi ) − (9.53)
dt ∂ ẋi ∂xi dt ∂xi
que é exatamente (9.44).
O superpotencial (9.46) não é uma energia potencial. Contudo, podemos calcular a hamilto-
niana deste sistema para verificar se há uma energia associada. Temos
∂L 1
H = ẋi − L = mẋi ẋi + q ẋi Ai − mẋi ẋi + qΦ − q ẋj Aj
∂ ẋi 2
1
= mẋi ẋi + qΦ. (9.54)
2
Reconhecemos H como K mais a energia potencial eletrostática qΦ, mas esta expressão não
envolve o potencial vetor. Ainda precisamos calcular
 
dH dΦ ∂Φ ∂Φ
= mẋi ẍi + q = mẋi ẍi + q + ẋi i
dt dt ∂t ∂x
 
∂ ∂
= ẋi mẍi + (qΦ) + (qΦ) . (9.55)
∂xi ∂t
Vamos tomar (9.44), que pode ser escrita por
 
∂ d ∂Aj j ∂Ai ∂Ai
= ∂i q ẋj Aj − (qAi ) = q ẋj
 
mẍi + [qΦ] − ẋ −
∂xi dt ∂xi ∂xj ∂t
     
∂Aj ∂Ai ∂Ai ∂Ai
= q ẋj − − = q ẋ j
F ij − , (9.56)
∂xi ∂xj ∂t ∂t
em que

Fij ≡ ∂i Aj − ∂j Ai . (9.57)

Usando (9.56) em (9.55) temos


 
dH ∂Ai ∂ ∂A ∂
= q ẋi ẋj Fij − + (qΦ) = q ẋi ẋj Fij − q ẋi + (qΦ) .
dt ∂t ∂t ∂t ∂t

Mas ẋi ẋj Fij = 0, pois Fij é uma matriz antissimétrica. Assim,

dH ∂A ∂ ∂  ∂U
= −q ẋi + (qΦ) = qΦ − q ẋi Ai = . (9.58)
dt ∂t ∂t ∂t ∂t
Portanto, H é uma constante de movimento se o superpotencial for explicitamente independente
do tempo. (9.54) tem a parte cinética homogênea de segunda ordem nas velocidades, então H é
a energia no caso em que Φ e Ai independem explicitamente do tempo. Uma partícula em um
campo eletromagnético possui uma energia mecânica, neste caso, apenas no caso eletromagne-
tostático.
Para a lagrangiana (9.51), os momentos conjugados são definidos por

∂L
pi ≡ = mẋi + qAi , (9.59)
∂ ẋi
então, os momentos conjugados nem sempre coincidem com os momentos lineares físicos do sis-
tema.
Outro aspecto importante da eletrodinâmica clássica é a invariância por transformações de
gauge:

∂Λ ∂Λ
Φ→Φ− , A i → Ai + , (9.60)
∂t ∂xi

169
para toda função Λ analítica em t e xi . Usando a lagrangiana (9.51), temos
   
1 1 ∂Λ ∂Λ
L = mẋi ẋi − qΦ + q ẋj Aj −→ L̄ = mẋi ẋi − q Φ − + q ẋi Ai +
2 2 ∂t ∂xi
 
1 ∂ ∂
= mẋi ẋi − qΦ + q ẋi Ai + + ẋi i qΛ
2 ∂t ∂x
d
L̄ = L + (qΛ) , (9.61)
dt
ou seja, L e L̄ são lagrangianas equivalentes.

9.5 Forças centrais

9.5.1 A função lagrangiana

Um sistema de dois corpos submetidos a uma energia potencial dependente apenas da distância
r entre eles é descrito pela lagrangiana

1 1
L= m1 ẋ21 + m2 ẋ22 − V (|x2 − x1 |) . (9.62)
2 2
Com a posição do centro de massa definido por
m1 x1 + m2 x2
R≡ , (9.63)
m1 + m2

e a posição relativa definida por

r ≡ x2 − x1 , (9.64)

as posições x1 e x2 podem ser escritas por


m2
x1 = R − r, (9.65a)
M
m1
x2 = R + r. (9.65b)
M
Usando-se (9.65a) e (9.65b), temos

1 1 1 1
K= m1 ẋ21 + m2 ẋ22 = M Ṙ2 + mṙ2 , (9.66)
2 2 2 2
em que M = m1 + m2 e m = m1 m2 /M são a massa total e a massa reduzida do sistema. Assim,
temos a lagrangiana

1 1
L= M Ṙ2 + mṙ2 − V (r) . (9.67)
2 2

No referencial do centro de massa do sistema, R = 0 e Ṙ = 0, de modo que o primeiro termo da la-


grangiana é nulo. Além disso, a simetria do potencial é esférica, de modo que somos encorajados
a escolher um sistema de coordenadas esférico. Neste caso,

ṙ2 = ṙ2 + r2 θ̇2 + r2 sin2 θ φ̇2 ,



(9.68)

e temos, finalmente, a função

1 h 2  i
L= m ṙ + r2 θ̇2 + r2 sin2 θ φ̇2 − V (r) . (9.69)
2

170
9.5.2 Integrais de movimento

Há uma coordenada degenerada, que é o ângulo azimutal φ. Sua equação de Lagrange é dada
por

d d ∂L d  2 2 
pφ = = mr sin θφ̇ = 0, (9.70)
dt dt ∂ φ̇ dt

portanto,

pφ ≡ mr2 sin2 θφ̇ = `. (9.71)

A equação para a coordenada r é dada por


d ∂L ∂L d
− = (mṙ) − mrθ̇2 − mr sin2 θφ̇2 + ∂r V (r)
dt ∂ ṙ ∂r dt  
= m r̈ − rθ̇2 − r sin2 θφ̇2 + ∂r V (r) = 0,

que com (9.71) torna-se

`2
 
2 2
m r̈ − rθ̇ − 2 3 csc θ + ∂r V (r) = 0. (9.72)
m r

Sabemos que há mais uma constante de movimento. Ela deve ser encontrada da equação de
Lagrange para θ:

d ∂L ∂L d  2 
− = mr θ̇ − mr2 sin θ cos θφ̇2 = 0. (9.73)
dt ∂ θ̇ ∂θ dt

Com (9.71), temos

d  2  `2
mr θ̇ − cot θ csc2 θ = 0. (9.74)
dt mr2
Note que

d
cot θ = − csc2 θ, (9.75)

então

d  2  1 `2 d
mr θ̇ + cot2 θ = 0. (9.76)
dt 2 mr2 dθ
Vamos encontrar a integral de movimento a partir desta equação:

d  2  1 `2 d
0 = mr θ̇ + cot2 θ × mr2 θ̇
dt 2 mr2 dθ
  d   1 d
= mr2 θ̇ mr2 θ̇ + `2 cot2 θ
dt 2 dt
1 d  2 2 1 2 d
= mr θ̇ + ` cot2 θ
2 dt 2 dt 
d 1  2 2 1 2 2
= mr θ̇ + ` cot θ . (9.77)
dt 2 2
Portanto,
 2
mr2 θ̇ + `2 cot2 θ = µ2 = constante. (9.78)

171
9.5.3 A equação radial e o problema unidimensional

Com a expressão

csc2 θ = 1 + cot2 θ, (9.79)

e usando (9.78), temos a equação radial

`2
 
0 = m r̈ − rθ̇2 − 2 3 csc2 θ + ∂r V (r)
m r
`2
 2 
1 
= m r̈ − 2 3 mrθ̇ − 2 3 1 + cot2 θ + ∂r V (r)

m r m r
  
1  2
= m r̈ − 2 3 mrθ̇ + `2 cot2 θ + `2 + ∂r V (r)
m r
µ2 + `2
= mr̈ − + ∂r V (r) . (9.80)
mr3
Então, a equação radial é dada por

µ2 + `2 dV (r)
mr̈ − + = 0. (9.81)
mr3 dr
Desta equação podemos tomar um potencial efetivo

µ2 + `2
Vef (r) ≡ V (r) + , (9.82)
2mr2
e construir a lagrangiana efetiva

1 2 1 µ2 + `2
Lef ≡ mṙ − Vef = mṙ2 − − V (r) . (9.83)
2 2 2mr2
A lagrangiana efetiva define um problema unidimensional análogo ao problema central. Sua
equação de Lagrange é dada por

µ2 + `2 dV (r)
mr̈ − 3
+ = 0, (9.84)
mr dr
precisamente a equação radial (9.81).

9.5.4 Energia

A hamiltoniana deste sistema é dada por

H = pr ṙ − Lef
1 µ2 + `2
= mṙ2 − mṙ2 + + V (r)
2 2mr2
2 2
1 2 µ +`
= mṙ + + V (r) . (9.85)
2 2mr2
Esta hamiltoniana é conservada,
d 1 2 µ2 + `2
 
dH
= mṙ + + V (r)
dt dt 2 2mr2
µ2 + `2
 
= ṙ mr̈ − + ∂r V (r) = 0, (9.86)
mr3

172
e sua parte cinética é quadrática em ṙ, como esperado. Assim, esta é também a energia mecânica
do sistema, ou seja,

1 2 µ2 + `2
mṙ + + V (r) = E, (9.87)
2 2mr2
em que E é a constante de energia.
A solução da equação radial pode ser extraída pela quadratura
r ˆ r
m dr0
t − t0 = ± p , (9.88)
2 r0 E − Vef (µ, `, r0 )

construída a partir de (9.87), enquanto a órbita φ (u), em que u ≡ r−1 , é dada pela quadratura
ˆ 1/u
du0 −1
∆φ (u) = ± p , ∆ ≡ 2m [E − V (u)] `2 + µ2 − u2 . (9.89)
1/u0 ∆ (µ, `, u0 )

9.6 Corpos rígidos

9.6.1 Preliminares
Vamos relembrar algumas características dos corpos rígidos. Vamos usar, aqui, a notação ope-
ratorial: um vetor v é escrito por um vetor abstrato v. Dizemos que, em uma base euclidiana
∂i , v tem uma representação vetorial v = v i ∂i , e uma representação matricial, como uma matriz
coluna de componentes v i .
Sejam x e ẋ os vetores posição e velocidade de um ponto qualquer do corpo rígido. A velocidade
angular é um vetor ω, definido na relação

ẋ = ω ∧ x. (9.90)

Assim, a velocidade de qualquer ponto do corpo rígido é ortogonal a sua posição. O produto ∧ é
i
o produto exterior, definido como uma generalização do produto vetorial. Neste caso, (ω ∧ x) =
ijk ωj xk .
A energia cinética de rotação é dada por
ˆ
1
Krot = dωµ (x) ẋ2 (x) , (9.91)
2 Ω

que com (9.90) torna-se

1 †
Krot = ω Iω. (9.92)
2

Nesta expressão, ω † é o vetor dual, ou covetor de ω, representado por uma matriz linha de
componentes xi . O operador de inércia I é definido por
ˆ
Ix2 − x ⊗ x , x2 ≡ x† x,

I≡ (9.93)

em que I é o operador identidade e ⊗ é o produto diádico,

(x ⊗ x)ij = xi xj . (9.94)

O operador de inércia é um operador bilinear, ou seja, I : H × H → R, em que H é o es-


paço de Hilbert dos vetores. I deve ser simétrico, positivo-definido u† Iv ≥ 0 e não degenerado


173
u† Iv = 0 ⇔ u = 0 ou v = 0 . Assim, existe uma inversa I −1 tal que


I −1 I = II −1 = I. (9.95)

O momento angular é definido por

J = Iω. (9.96)

9.6.2 As coordenadas generalizadas

Embora a construção acima não dependa do sistema de coordenadas proposto, vamos começar
com um referencial inercial O com um sistema de coordenadas cartesiano {x0 }, e um corpo rígido
com um pivô A, de posição r com relação à origem O de {x0 }. A posição de um ponto X do corpo
rígido com relação a O é dada por

y 0 = r + x0 , (9.97)

em que x0 é a posição de X com relação a A.


Agora, vamos supor um segundo referencial S com origem em A. Primeiro, vamos manter
um sistema de coordenadas cujos eixos sejam sempre paralelos a {x0 }. Este sistema é, no geral,
não inercial, mas as componentes dos vetores em O e S serão os mesmos, de modo que usaremos
v 0 para as componentes de vetores tanto em O quanto em S. A relação (9.97) se mantém, sendo
y 0 a posição relativa de X com relação a O e x0 a posição de Y com relação a A.
Agora, vamos supor um sistema de coordenadas {x} com origem em A mas cujos eixos são
fixos no corpo rígido (sistema local). O sistema {x} roda com relação a {x0 } por um operador

ortogonal RT R = RRT = I , tal que

x0 = Rx, (9.98)

de modo que

y 0 = r + Rx. (9.99)

Como x é fixo no sistema local, a dependência temporal no movimento está em r0 e R.


Enquanto {x0 } são as coordenadas cartesianas que descrevem o sistema, os parâmetros de
rotação da matriz R serão usados como as coordenadas generalizadas para construção do forma-
lismo lagrangiano.

9.6.3 A energia cinética

A energia cinética completa do sistema é dada por

1
K = KCM + Krot = M ṙ2 + Krot . (9.100)
2
Temos
ˆ
M= d3 x0 µ (x0 ) , (9.101)

e
ˆ
1 2
Krot = d3 x0 µ0 (x0 ) |ẋ0 | . (9.102)
2 Ω

174
De (9.98),

x0 = Rx =⇒ ẋ0 = Ṙx + Rẋ, (9.103)

contudo, ẋ = 0, o que resulta em ẋ0 = Ṙx. Neste caso,


 †      i
2 †
|ẋ0 | = (ẋ0 ) (ẋ0 ) = Ṙx Ṙx = Ṙx Ṙx = Ṙim xm Ṙij xj = Ṙim xm xj Ṙij . (9.104)
i

Temos
ˆ ˆ 
1 3 0 0 0 0 2 1 3 0 0 0
Krot = d x µ (x ) |ẋ | = Ṙim d x µ (x ) xm xj Ṙij . (9.105)
2 Ω 2 Ω

Vamos tomar µ0 (x0 ) = µ (x), já que a densidade de massa é uma densidade escalar, enquanto
d3 x0 = d3 x det R = d3 x. Assim,
ˆ 
1
Krot = Ṙim d3 xµ (x) xm xj Ṙij . (9.106)
2 Ω

Vamos definir
ˆ
Tij ≡ d3 xµ (x) xi xj , (9.107)

como as componentes de um operador simétrico T . Este operador não é o mesmo operador de


inércia I: é chamado segundo momento da distribuição de massa. Com este, temos

1 m
Krot = Ṙ Tmn Ṙin . (9.108)
2 i
Com o operador de rotação R, podemos escrever

1  
Krot = tr ṘT ṘT . (9.109)
2

9.6.4 O potencial e a função lagrangiana


Vamos supor que podemos separar o potencial que age em cada ponto do corpo rígido em duas
partes

V = U (r) + V (R) , (9.110)

uma que depende apenas da posição de A e outra que depende somente do operador R. Assim, a
lagrangiana é dada por
   
1 1  
L= M ṙ2 − U (r) + tr ṘT ṘT − V (R) , (9.111)
2 2
 
ou seja, é do tipo L = L (r, ṙ) + Lrot R, Ṙ . A separação completa das variáveis do pivô e de
rotação nos permite trabalhar com ambas as lagrangianas separadamente, pois as equações de
Lagrange para cada sistema de variáveis é separada. De agora em diante, vamos nos concentrar
na função

1  
L≡ tr ṘT ṘT − V (R) . (9.112)
2
A matriz R, em três dimensões, possui um total de nove componentes. Contudo, ela deve
ser simétrica e ortogonal, ou seja, das nove componentes, três são eliminadas pelo vínculo de

175
simetria e mais três pelos vínculos de ortogonalidade. Assim, uma matriz ortogonal simétrica
tem apenas três graus de liberdade. Sejam ρij as componentes de R. Assim,

φij ≡ ρmi ρmj − δij = 0 (9.113)

são os vínculos de ortogonalidade. Os de simetria são dados por ρij = ρji .


Vamos introduzir os parâmetros de Lagrange λij para cada vínculo φij . A simetria segue
imediatamente quando consideramos λij simétrica. O termo que deve ser adicionado à lagran-
giana(9.112) é dado por

λij φij = λij ρmi ρmj − δ ij = ρmi λij ρmj − δ ij λij .



(9.114)

Se Λ é o operador cujas componentes são λij , temos

λij φij = tr RΛRT − Λ ,



(9.115)

em que Λ = ΛT . Neste caso, a lagrangiana de rotação é dada por

1  
tr ṘT ṘT − V (R) + tr RΛRT − Λ .

L≡ (9.116)
2

9.6.5 As equações de Lagrange


A lagrangiana (9.116) tem uma forma matricial, o que nos permite tratar as coordenadas gene-
ralizadas em R considerando a matriz R, em si, uma variável do sistema. Neste caso, temos as
equações

d ∂L ∂L
− = 0, (9.117)
dt ∂ Ṙ ∂R

e a equação para Λ, da qual não precisaremos.


Para duas matrizes A e B, temos as identidades

∂tr (AB) ∂tr (AB)


= BT , = B, (9.118)
∂A ∂AT
portanto,

∂L 1 ∂  
= tr ṘT ṘT = ṘT. (9.119)
∂ Ṙ 2 ∂ Ṙ

Acima, usamos o fato de T ser simétrico. Temos também

∂L ∂V
=− + 2RΛ, (9.120)
∂R ∂R
em que Λ também é simétrica. Assim, temos as equações de Lagrange

∂V
R̈T + = 2RΛ. (9.121)
∂R

Vamos multiplicar (9.121) por RT à esquerda:

∂V
RT R̈T + RT = 2RT RΛ = 2Λ, (9.122)
∂R

em que usamos explicitamente o fato de RT R = I.


Em (9.122), o lado direito é simétrico já que Λ = ΛT . Assim, o lado esquerdo deve também

176
ser simétrico, o que significa que sua parte antissimétrica deve ser nula. Assim,
 T
∂V ∂V
RT R̈T + RT − RT R̈T + RT = 0.
∂R ∂R

Esta relação resulta em


 
T T T ∂V ∂V
R R̈T − T R̈ R + R − R = 0.
∂R ∂RT

Assim, as equações de Lagrange tornam-se

∂V ∂V
RT R̈T − T R̈T R = R − RT . (9.123)
∂RT ∂R

9.6.6 Matriz velocidade angular

Vamos tomar a relação RT R = RRT = I e derivá-la com relação ao tempo. Temos

ṘT R + RT Ṙ = 0. (9.124)

Vamos, agora, definir a matriz Ω ≡ RT Ṙ, de modo que

ṘT R + RT Ṙ = ΩT + Ω = 0 =⇒ Ω = −ΩT . (9.125)

Assim, Ω é antissimétrico. Esta matriz é chamada matriz de velocidade angular.


Temos
1   1   1   1
tr ṘT ṘT = tr RRT ṘT ṘT = tr RT ṘT ṘT R = tr ΩT ΩT .

Krot = (9.126)
2 2 2 2

Da definição de Ω, temos Ṙ = RΩ. Assim,

R̈ = ṘΩ + RΩ̇. (9.127)

Portanto,

RT R̈ = RT ṘΩ + Ω̇ = Ω2 + Ω̇. (9.128)

Por outro lado,


T
R̈T R = Ω2 + Ω̇T = Ω2 − Ω̇. (9.129)

Assim, (9.123) torna-se


∂V ∂V    
R − RT = Ω2 + Ω̇ T − T Ω2 − Ω̇
∂RT ∂R
= Ω2 T + Ω̇T − T Ω2 + T Ω̇
 2  n o
= Ω , T + Ω̇, T , (9.130)

em que {A, B} = AB + BA e [A, B] = AB − BA são os anticomutadores e comutadores matriciais.


Com isto, temos
n o 
Ω̇, T + Ω2 , T = G,

(9.131)

177
em que

∂V ∂V
G≡ R − RT . (9.132)
∂RT ∂R
As equações (9.131) são as equações de Euler em forma matricial.

9.6.7 Equações de Euler

As matrizes Ω e G são antissimétricas, ou seja, possuem a forma

−b2
   
0 a b 0 b3
B=  −a 0 c  ≡  −b3 0 b1  .
−b −c 0 b2 −b1 0

Portanto, podemos relacionar um vetor b = (b1 , b2 , b3 ) à matriz B pela relação

1 ijk
bi =  Bjk . (9.133)
2
Esta correspondência é válida, no entanto, apenas em três dimensões.
Neste caso, definimos os vetores ω e g tais que

1 ijk 1 ijk
ωi =  Ωjk , gi =  Gjk . (9.134)
2 2
Neste caso, ω é a velocidade angular do sistema.
A equação (9.131) torna-se, em componentes,
n o
+ Ω2 , T ij = Gij ,
 
Ω̇, T (9.135)
ij

de modo que, multiplicando esta equação por kij ,

1 kij n o 1
+ kij Ω2 , T ij = g k .
 
 Ω̇, T
2 ij 2

No primeiro termo da esquerda, temos


1 kij n o 1 kij   1  
 Ω̇, T =  Ω̇T + kij T Ω̇
2 ij 2 ij 2 ij
1 kij 1
=  Ω̇im T m
j + 
kij
Ti m Ω̇mj . (9.136)
2 2
Temos

Ω̇ij = ijk ω̇ k , (9.137)

então,
1 kij n o 1 kij 1 kij m
 Ω̇, T =  iml ω̇ l T m j +  Ti mjl ω̇ l
2 ij 2 2
1 k j k j
 1 i k
δl ω̇ l T m δ δ − δli δm k
 m l
= δl δm − δm j + Ti ω̇
2 2 m l
1   1
ω̇ k T jj − ω̇ j T kj + T i ω̇ k − Ti k ω̇ i

=
2 2 i
= ω̇ k T jj − ω̇ j T kj = δjk T ii − T kj ω̇ j .

(9.138)

178
Temos T ii = trT e Tij os elementos de T , de modo que

1 kij n o
k
 Ω̇, T = [(ItrK − K) ω̇] . (9.139)
2 ij

Nesta, temos a matriz de inércia

I ≡ ItrK − K, (9.140)

de modo que

1 kij n o
k
 Ω̇, T = (I ω̇) . (9.141)
2 ij

Agora, o termo

1 kij  2  k
 Ω , T ij = [ω ∧ Iω] . (9.142)
2
Assim, as equações (9.131) tornam-se

I ω̇ + ω ∧ Iω = g. (9.143)

9.6.8 O torque externo

Note que as componentes de g são dadas por


 
i 1 ijk 1 ijk ∂V T ∂V
g =  Gjk =  R−R
2 2 ∂RT ∂R jk
"   m #
1 ijk ∂V m T
 ∂V
=  R − R jm
2 ∂RT jm k ∂R k

   
1 ijk ∂V m ∂V 1 ijk ∂V ∂V
=  R − R mj =  R mk − Rmj ,
2 ∂Rmj k ∂Rmk 2 ∂Rmj ∂Rmk
ou seja,

∂V
g i = ijk Rmk . (9.144)
∂Rmj

Para ver que essas são as componentes do torque externo, vamos ao referencial local. Temos

∂V ∂V ∂Rjk
Ni = − =− . (9.145)
∂θi ∂Rjk ∂θi

Em um movimento de rotação, o corpo tem uma orientação inicial, caracterizada por uma
matriz R0 . Vamos supor que, a partir desta posição inicial, o corpo rode na direção i por um
ângulo θi . A nova orientação é dada por

R = R0 S (θi ) , (9.146)

em que S (θi ) é a matriz de rotação desta direção. Neste caso, temos

∂R ∂S ∂S ∂S mk
= R0 = R0 SS T = RS T = Rχi = Rjm (χi ) , (9.147)
∂θi ∂θi ∂θi ∂θi

179
em que

∂S
χi ≡ S T . (9.148)
∂θi

Por exemplo, na direção i = 3, temos


 
cos θ3 sin θ3 0
S =  − sin θ3 cos θ3 0 , (9.149)
0 0 1

então

− sin θ3
 
cos θ3 0
∂S
=  − cos θ3 − sin θ3 0 . (9.150)
∂θ3
0 0 0

Neste caso,

− sin θ3 − sin θ3
    
cos θ3 0 cos θ3 0 0 1 0
∂S
ST =  sin θ3 cos θ3 0   − cos θ3 − sin θ3 0  =  −1 0 0 , (9.151)
∂θ3
0 0 1 0 0 0 0 0 0

ou seja,

(χ3 )mk = −3mk . (9.152)

O cálculo final é dado por (χi )jk = −ijk , então,

∂Rkj
= −imk Rjm , (9.153)
∂θi
e
∂V ∂V ∂Rjk ∂V ∂V
Ni = − =− = imk Rjm = ijk Rmk . (9.154)
∂θi ∂Rjk ∂θi ∂Rjk ∂Rmj

Portanto, N = g no referencial local.

9.7 O pião simétrico

Em termos dos ângulos de Euler, a velocidade angular em um referencial local no corpo rígido,
com coordenadas do sistema de eixos principais, é dada por
 
φ̇ sin θ sin ψ + θ̇ cos ψ
ω =  φ̇ sin θ cos ψ − θ̇ sin ψ  . (9.155)
φ̇ cos θ + ψ̇

Neste sistema de coordenadas, a matriz de inércia é diagonal. Como de costume, vamos supor
que I = diag (I, I, I3 ), o que reflete a natureza simétrica do pião no eixo xy.

180
A energia cinética é dada por
1  1
Krot = I ω12 + ω22 + I3 ω32
2  2
1  2  2  1  2
= I φ̇ sin θ sin ψ + θ̇ cos ψ + φ̇ sin θ cos ψ − θ̇ sin ψ + I3 φ̇ cos θ + ψ̇
2 2
1  2  1  2
= I θ̇ + φ̇2 sin2 θ + I3 φ̇ cos θ + ψ̇ . (9.156)
2 2
A energia potencial de rotação é a gravitacional, mgh, em que h é a altura do centro de massa
com relação ao ponto fixo. Se ` é a distância entre o centro de massa e o ponto fixo, temos
V = mg` cos θ. Assim,

1  2  1  2
Lrot = I θ̇ + φ̇2 sin2 θ + I3 φ̇ cos θ + ψ̇ − mg` cos θ. (9.157)
2 2
As coordenadas degeneradas são ψ e φ, de modo que

∂L  
pψ = = I3 φ̇ cos θ + ψ̇ (9.158)
∂ ψ̇
e
∂L  
pφ = = I φ̇ sin2 θ + I3 φ̇ cos θ + ψ̇ cos θ = I φ̇ sin2 θ + pψ cos θ (9.159)
∂ φ̇

são constantes de movimento do sistema.

A terceira constante de movimento é a hamiltoniana:


∂L ∂L ∂L
H = θ̇ + ψ̇ + φ̇ −L
∂ θ̇ ∂ ψ̇ ∂ φ̇
∂L 1   1  2
= θ̇ + ψ̇pψ + φ̇pψ − I θ̇2 + φ̇2 sin2 θ − I3 φ̇ cos θ + ψ̇ + mg` cos θ
∂ θ̇ 2 2
 
∂L 1   1 1 2
= θ̇ + ψ̇pψ + φ̇pφ − I θ̇2 + φ̇2 sin2 θ − pψ + mg` cos θ. (9.160)
∂ θ̇ 2 2 I3
Temos

ψ̇ = − φ̇ cos θ, (9.161)
I3

enquanto

pφ − pψ cos θ
φ̇ = , (9.162)
I sin2 θ
assim,

pψ I sin2 θ + I3 cos2 θ − pφ (I3 cos θ)



ψ̇ = . (9.163)
I3 I sin2 θ

Neste caso,
 
∂L 1   1 1 2
H = θ̇ + ψ̇pψ + φ̇pφ − I θ̇2 + φ̇2 sin2 θ − p + mg` cos θ
∂ θ̇ 2 2 I3 ψ
2
∂L 1 2 pφ (pφ − pψ cos θ) 1 (pφ − pψ cos θ)
= θ̇ − I θ̇ + ψ̇pψ + −
∂ θ̇ 2  I sin2 θ 2 I sin2 θ
1 1 2
− p + mg` cos θ.
2 I3 ψ

181
I sin2 θ + I3 cos2 θ
 
∂L 1 2 1 2 pφ pψ (I3 cos θ)
H = θ̇ − I θ̇ + p −
∂ θ̇ 2 I sin2 θ I3 ψ I3 I sin2 θ
2  
pφ (pφ − pψ cos θ) 1 (pφ − pψ cos θ) 1 1 2
+ − − p + mg` cos θ
I sin2 θ 2 I sin2 θ 2 I3 ψ

I sin2 θ + I3 cos2 θ
 
∂L 1 2 1 2
H = θ̇ − I θ̇ + p
∂ θ̇ 2 I sin2 θ I3 ψ
!
p2φ − 2pφ pψ cos θ + p2ψ cos2 θ − p2ψ cos2 θ
I sin2 θ
2  
1 (pφ − pψ cos θ) 1 1 2
− − p + mg` cos θ
2 I sin2 θ 2 I3 ψ

2
1 2 (pφ − pψ cos θ) p2ψ
H = I θ̇ + 2 + mg` cos θ + .
2 2I sin θ 2I3
Vamos usar a hamiltoniana
2
1 2 (pφ − pψ cos θ)
H= I θ̇ + + mg` cos θ, (9.164)
2 2I sin2 θ
que é a constante de movimento referente à energia do sistema.
Vamos tomar u ≡ cos θ. Assim,
2
p2ψ

2 pφ 2mg` 2E
θ̇ + 2 u− + u= . (9.165)
I (1 − u2 ) pψ I I

Vamos tomar
2E 2mg` pψ pφ
α≡ , β≡ , γ≡ , λ≡ . (9.166)
I I I I

Assim, com u̇ = − sin θθ̇, u̇2 = 1 − u2 θ̇2
2
u̇2 + (βu − α) 1 − u2 + (γu − λ) = 0.

(9.167)

9.8 Movimento em torno do equilíbrio


9.8.1 Estados de equilíbrio
Vamos supor um sistema conservativo, cuja energia potencial seja uma função apenas das n
coordenadas generalizadas q i . As equações de Lagrange para este sistema são dadas por

∂L d ∂L
− = 0, (9.168)
∂q i dt ∂ q̇ i

em que L é a função de Lagrange

L (q, q̇) = K (q, q̇) − V (q) . (9.169)

Supomos também que a energia cinética K seja uma forma quadrática

1
K (q, q̇) = Wij (q) q̇ i q̇ j , (9.170)
2
em que Wij (q) é a Hessiana.

182
Vimos no capítulo 2 que, com a forma (9.170), as equações de Lagrange podem ser escritas
por

Wij (q) q̈ j + γijk q̇ j q̇ k = Qi , (9.171)

em que
 
1 ∂Wjk ∂Wik ∂Wij
γijk = i
+ j
− (9.172)
2 ∂q ∂q ∂q k

são os símbolos de Christoffel do primeiro tipo. Dessa forma, as equações de Lagrange assumem
a forma de uma equação geodésica no espaço de configuração, desviada por uma força generali-
zada Qi = −∂V /∂q i .
Vamos definir uma configuração de equilíbrio como aquele estado q = α tal que α̇i = 0 e
α̈i = 0. Assim, este estado é definido, segundo (9.171), por

∂V
= 0. (9.173)
∂q i q=α

Assim, para sistemas conservativos cuja energia cinética é uma forma quadrática nas velocida-
des, podemos estudar estados de equilíbrio através dos extremos da energia potencial. Como
ocorre para toda função diferenciável, estes extremos podem ser de três tipos:
1. Mínimo local: V (α) = V0 = cte e V (q 6= α) > V0 para todo q em uma vizinhança |x| = |q − α|
da configuração α.
2. Máximo local: V (α) = V0 = cte e V (q 6= α) < V0 para todo q em uma vizinhança |x| = |q − α|
da configuração α.
3. Inflexão: V (α) = V0 = cte e V (q 6= α) = V0 para algum q em uma vizinhança |x| = |q − α|
da configuração α.
Estes extremos também podem ser definidos de forma global, mas precisaremos apenas das
definições de extremos locais.
Se V (q) é bem definida em q = α, podemos expandir o potencial em torno do estado de
equilíbrio:

∂V i 1 ∂V
xi xj + O x3 ,

V (q) = V (α) + i
x + i j
(9.174)
∂q q=α
2! ∂q ∂q q=α

em que xi = q i − αi . Devido a (9.173), temos



1 ∂V
xi xj + O x3 .

V (q) − V (α) = i j
2! ∂q ∂q q=α

Supondo q → α, ou x → 0, o termo de segunda ordem em x é dominante e podemos definir



1 ∂V
δV (q) ≡ V (q) − V (α) = xi xj , (9.175)
2 ∂q i ∂q j q=α

em ordem mais baixa da aproximação x → 0.


Notemos que δV é positivo se a matriz

∂V
Vij ≡ (9.176)
∂q i ∂q j q=α

é positiva-definida. Neste caso, o trabalho realizado sobre o sistema para deslocá-lo do ponto de
equilíbrio α para uma configuração infinitesimalmente próxima q, dado por V (q) − V (a) = δV , é

183
positivo, o que caracteriza esta configuração como um ponto de mínimo local. Se δV > 0, a força
generalizada é negativa e tende a restaurar o sistema ao equilíbrio. Portanto, um estado mínimo
é também um estado de equilíbrio estável, já que perturbações do sistema ao redor deste ponto
não afastam sua configuração do ponto de equilíbrio.
Da mesma forma, δV < 0 no caso em que α é um ponto de máximo local. Para tanto basta
que Vij em (9.176) seja negativa-definida. Podemos ver que o trabalho realizado neste caso é
negativo e, portanto, a força generalizada é positiva, cresce à medida que o sistema se distancia
de α, tendendo a afastar o sistema do equilíbrio. Neste caso, vemos que um ponto de equilíbrio
máximo local é também uma configuração de equilíbrio instável, já que perturbações do sistema
tendem a afastar o sistema do estado de equilíbrio.
No caso em que α seja um ponto de inflexão do potencial, vemos que a forma quadrática à
direita de (9.175) deve ser nula e, portanto, Vij não é uma matriz com sinal definido. Neste caso
devemos analisar ordens superiores na expansão em Taylor do potencial. Se todos os termos
da série forem nulos, temos que δV = 0 e dizemos que o sistema está em estado de equilíbrio
indiferente.

9.8.2 Equação de movimento em torno do equilíbrio

Para descrever o movimento em torno de uma configuração de equilíbrio α vamos escrever as


equações de Lagrange (9.171) em função do parâmetro x, usando a transformação linear

xi = q i − α i . (9.177)

Neste caso,

∂V (x)
Wij (x) ẍj + γijk (x) ẋj ẋk = − . (9.178)
∂xi
As equações são as mesmas, visto que o Jacobiano de (9.177) é a unidade. Agora, o estado de
equilíbrio é caracterizado pela configuração x = 0.
Desejamos obter a equação para ordem mais baixa em x para x → 0, o que obtemos por uma
expansão em Taylor ao redor de x = 0. Para o potencial, já obtemos esta expansão:

1 ∂V
xi xj + O x3 .

V (x) = V (0) + i j
(9.179)
2! ∂x ∂x x=0

Vamos deslocar o valor do potencial de modo que V (0) = 0. Assim, em segunda ordem,

1 ∂V
V (x) = xi xj . (9.180)
2 ∂xi ∂xj x=0

Vamos definir a matriz



∂V
vij ≡ , (9.181)
∂xi ∂xj x=0

que é uma matriz de coeficientes constantes. Desta forma:

1
V (x) ≈ vij xi xj . (9.182)
2

Em ordem mais baixa, a força generalizada é dada por

∂V (x)
Qi = − = −vij xj , (9.183)
∂xi

184
e é linear em x. Já a matriz Hessiana é expandida por

∂Wij
xk + O x2 ,

Wij (x) = Wij (0) + k
(9.184)
∂x x=0

sendo o termo de ordem mais baixa o de ordem zero. Portanto, podemos definir a matriz

wij ≡ Wij (x)|x=0 , (9.185)

que tem coeficientes constantes.


A expansão de γ é dada por

∂γijk
xm + O x2 ,

γijk (x) = γijk (0) + m
(9.186)
∂x x=0

e o termo de ordem mais baixa é γijk (0). No entanto,


 
1 ∂Wjk ∂Wik ∂Wij
γijk (x) = + −
2 ∂xi ∂xj ∂xk
 2
∂ 2 Wik ∂ 2 Wij

1 ∂ Wjk
xm + O x2 .

≈ i m
+ j m
− k m
2 ∂x ∂x ∂x ∂x ∂x ∂x
Assim, γijk (0) = 0, tomando x = 0 na expressão acima. Neste caso, o termo de ordem mais baixa
na conexão é nulo:

γijk (x)|x=0 = 0. (9.187)

Portanto, usando (9.183), (9.185) e (9.187), (9.178) torna-se

wij ẍj + vij xj = 0. (9.188)

Estas são as equações que descrevem pequenas oscilações do sistema em torno do equilíbrio
estável.

9.8.3 Modos normais


Primeiro, vamos escrever (9.188) em forma matricial

wẍ + vx = 0, (9.189)

em que x e ẍ são vetores coluna. Como a energia cinética é sempre positiva, w é uma matriz
simétrica e positiva-definida, o que garante a existência de sua inversa, já que todos os seu
autovalores devem ser positivos. A matriz v, relacionada com a energia potencial, é também
simétrica, mas vamos tratar do caso geral em que ela apresenta sinal indefinido.
Se w é simétrica e tem determinante diferente de zero, possui um inversa. Assim, existe uma
matriz ortogonal U tal que

U T wU = D (µ1 , µ2 , µ3 , . . . , µn ) , (9.190)

em que µ são os autovalores de w, não necessariamente distintos, e D (µi ) é a matriz diagonal


cujas componentes são esses autovalores. A matriz U é construída com os autovetores de w,
denominados ui , tal que U = [u1 , u2 , . . . , un ]. Como usual, os autovalores são as raízes da equação
característica

det [w − µ1] = 0, (9.191)

185
e um autovetor u relacionado a um autovalor µ é obtido pela equação

wu = λu. (9.192)

Podemos introduzir a matriz


   
1 1 1 1
R ≡ D √ , √ ,..., √ ≡D √ = RT , (9.193)
µ1 µ2 µn µi

de modo que
     
1 1 µ
RT U T wU R = RT D (µ) R = D √ D (µ) D √ =D = D (1) = 1. (9.194)
µ µ µ

Escrevendo

S ≡ U R, (9.195)

temos que é sempre possível diagonalizar w à unidade, ou seja,

S T wS = 1, (9.196)

em que S T S = 1, ou seja, S é ortogonal.


Com essas considerações, podemos escrever (9.189) como

S T wSS T ẍ + S T vSS T x = 0
S T ẍ + S T vSS T x = 0.

A matrix S induz uma tranformação de coordenadas tal que

x = Sy. (9.197)

Neste caso, como S tem componentes constantes, a equação de movimento matricial toma a
forma

ÿ + Ay = 0, A ≡ S T vS. (9.198)

A matriz A é também real e simétrica, de modo que podemos diagonalizá-la resolvendo a


equação de autovalores

Aa = σa. (9.199)

A equação característica é dada por

det [A − σ1] = 0 (9.200)

e os autovetores relacionados aos autovalores σi são obtidos substituindo-se esses autovalo-


res em (9.199) e resolvendo a equação para a. Em seguida, podemos construir a matriz Q =
[a1 , a2 , . . . , an ] tal que QT AQ = Ω = D (σ1 , σ2 , . . . , σn ), de modo que podemos reescrever (9.198)
novamente como

ÿ + Ay = 0
QT ÿ + QT AQQT y = 0
QT ÿ + ΩQT y = 0.

186
Agora, definimos uma nova transformação

y = Qz, (9.201)

tal que a equação de movimento torna-se

z̈ + Ωz = 0. (9.202)

Podemos mostrar que, se definirmos a matriz

P ≡ SQ, (9.203)

esta transformação pode ser aplicada diretamente em (9.189):

wẍ + vx = 0
P T wP P T ẍ + P T vP P T x = 0
P T wP QT S T ẍ + P T vP QT S T x = 0
P T wP QT ÿ + P T vP QT y = 0
P T wP z̈ + P T vP z = 0
QT S T wSQz̈ + QT S T vSQz = 0
QT 1Qz̈ + QT AQz = 0
z̈ + Ωz = 0,

já que Q é ortogonal. Ou seja, podemos aplicar diretamente a transformação

x = P z, (9.204)

enquanto P diagonaliza simultaneamente w e v, de modo que P T wP = 1 e P T vP = Ω.


Em componentes, podemos escrever (9.202) como

z̈i + ωi2 zi = 0, ωi ≡ σi , (9.205)

sem soma no índice i. Este sistema de equações está completamente desacoplado, de modo que
cada grau de liberdade, nas novas variáveis z, tem seu movimento independente dos demais.
Por esta razão, chamamos zi de modos normais do sistema, enquanto as constantes ωi são suas
correspondentes frequências normais.
A definição dos modos normais depende da diagonalização simultânea das matrizes w e v, e
esta é sempre possível quando ambas são simétricas e, pelo menos uma delas, é positiva definida.
No caso de matrizes complexas, ambas devem ser hermitianas e pelo menos uma positiva defi-
nida. O procedimento que adotamos acima nos exime de provar que os autovalores envolvidos
são reais, já que os problemas de autovalores envolvidos são os usuais e envolvem matrizes reais
(ou hermitianas em casos mais gerais). Este procedimento equivale ao usual (por exemplo em
Goldstein), no que segue: Vamos tomar a equação(9.200). Usando (9.196) para escrever a matriz
unidade e com mais manipulações, temos

det [A − σ1] = 0
det S T vS − σS T wS = 0
 

det S T [v − σw] S = 0

det S T det [v − λw] det S = 0


det S T det S det [v − σw] = 0, S T = S −1 −→ det S T = det S −1 = 1/ det S,
det [v − λw] = 0,

187
que é a equação característica generalizada geralmente utilizada (por exemplo em Goldstein).

9.8.4 Resumo do procedimento geral


Como procedimento geral para estudar sistemas em torno de configurações de equilíbrio, pode-
mos definir o seguintes passos:

1. Encontrar as configurações de equilíbrio locais através das equações ∂V /∂q i = 0 (9.173).

2. Expandir a energia potencial V em torno da configuração de equilíbrio e tomar o termo em


segunda ordem, que consiste na forma quadrática vij xi xj = xT vx (9.182).

3. Expandir a energia cinética K em torno da configuração de equilíbrio e tomar o termo de


ordem zero na matriz Hessiana, que consiste na forma quadrática wij ẋi ẋj = ẋT wẋ.

4. Resolver o problema de autovalores para w, encontrando seus autovalores e autovetores.

5. Definir a matriz ortogonal U com os autovetores de w e igualmente a matriz R, com os


quais temos que S = U R diagonaliza w à matriz unidade (9.196).

6. Definir a matriz A = S T vS e resolver seus autovalores e autovetores, construindo então a


matriz ortogonal Q.

7. Definir a matriz P = SQ e proceder à transformação x → z = P T x. As novas coordenadas z


são os modos normais do sistema, enquanto os autovalores de A são as frequências normais.

8. Resolver e analisar as soluções da equação resultante (9.205).

9.8.5 Análise das soluções de (9.205)


Vamos tomar a equação (9.205) para um dado modo normal zi . A solução geral é dada por

zi = αi exp ±i [ωi t + βi ] , (9.206)

em que αi e βi são constantes de integração que dependem de condições iniciais. Vamos supor,
sem perda de generalizade, que βi = 0.

Caso 1: ωi real (equilíbrio estável). Vamos supor, como primeiro caso, que ωi sejam reais,
ou seja, que σi sejam positivos, o que corresponde a um autovalor positivo da matriz v. Neste
caso, a solução pode ser escrita por

zi = αi cos ωi t. (9.207)

Vamos escrever também a solução para a velocidade e aceleração:

żi = −ωi αi sin ωi t,


z̈i = −ωi2 αi cos ωi t.

Podemos ver que esta solução é oscilatória ao redor da configuração de equilíbrio zi = 0. Se a


condição inicial da partícula for zi (0) = 0, temos que αi = 0 e a solução é nula para todo t, o que
é coerente com o estado de equilíbrio. Para αi 6= 0, o sistema passa por zi = 0 quando

cos ωi t = 0
1
ωi t = (2k + 1) π, k = 0, 1, 2, · · ·
2
π
t (k) = (2k + 1) . (9.208)
2ωi

188
Assim, o período de oscilação é dado por
 
π π 2π
T = 2 [t (k) − t (k − 1)] = 2 (2k + 1) − (2k − 2 + 1) = . (9.209)
2ωi 2ωi ωi

Por outro lado, a amplitude é máxima sempre que t = kπ/ωi , e podemos ver que neste ponto a
velocidade é sempre nula. A aceleração, por outro lado, é máxima e sempre contra o movimento,
de modo que a força que age sobre o sistema é restauradora, confirmando que zi = 0 é um ponto
de equilíbrio estável. Se todos os modos normais forem desse tipo, o ponto zi = 0 é um ponto de
equilíbrio estável do sistema. Como vimos, a condição necessária e suficiente para um equilíbrio
estável é a realidade de ωi , que implica na positividade de todos os autovalores de v e, portanto,
a energia potencial deve ser positiva definida.

Caso 2: ωi complexo (equilíbrio instável). Se um dado modo normal apresenta frequência


normal complexa, ou seja, σi negativo, a solução é dada por
p
zi = αi exp [−iωi t] = αi exp |σi |t. (9.210)

O sinal positivo na exponencial não é solução pois zi (0) deve ser finito. Esta solução não é
limitada, o que indica que para αi 6= 0 a partícula tende a se afastar exponencialmente da
posição de equilíbrio. Também podemos ver que a velocidade não pode ser nula fora da posição de
equilíbrio para nenhum t e que a aceleração indica uma força de escape. Assim, o sistema tende
a se afastar da configuração de equilíbrio e dizemos que este modo normal possui um equilíbrio
instável em zi = 0. Assim, o equilíbrio instável caracteriza-se pela existência de autovalores
negativos de v e, portanto, a energia potencial não tem um mínimo local na posição de equilíbrio.
Como o valor de zi tende a crescer, o sistema eventualmente não mais obedecerá às condições
estabelecidas para a aproximação em torno do equilíbrio.

Caso 3: ωi = 0. Se ωi for nulo para um ou mais modos normais, isto indica a possibilidade
de equilíbrio indiferente, mas a análise requer que a aproximação do potencial seja tomada
em ordens superiores da aproximação em torno do equilíbrio. No caso em que o potencial é
constante ou dependa linearmente deste modo normal, todas as ordens de aproximação acima
da segunda ordem são nulas e, assim, o equilíbrio indiferente é atestado. Neste caso, a equação
de movimento é apenas z̈i = 0, cuja a solução é

zi = αi t + βi , (9.211)

que representa um grau de liberdade livre. Se ordens superiores forem não nulas, o potencial
possuirá um máximo ou mínimo, mas o comportamento do sistema não será mais descrito pela
equação (9.188). De fato, a equação resultante de ordens superiores do potencial é certamente
não linear e não se encaixa no procedimento que adotamos aqui.

9.9 Molécula triatômica linear


Vamos supor agora o exemplo de três corpos, de massa m1 , m2 e m3 , cujas posições são dadas por
x1 , x2 e x3 sobre o eixo x. A massa m1 é ligada à massa m2 por uma mola de constante elástica
k e comprimento de repouso `, enquanto m2 é ligada a m3 por outra mola idêntica. O centro de
massa deste sistema encontra-se na posição
m1 x1 + m2 x2 + m3 x3
xCM = , M = m1 + m2 + m3 . (9.212)
M

189
Em razão da conservação de momento, temos

m1 ẋ1 + m2 ẋ2 + m3 ẋ3 = M ẋCM = 0, (9.213)

ou seja, o centro de massa do sistema é estático. Sem perda de generalidade, podemos fixar a
origem do eixo x sobre o centro de massa do sistema, de modo que

m1 x1 + m2 x2 + m3 x3 = 0. (9.214)

Vamos trabalhar com o potencial

1 2 1 2
V = k (x2 − x1 − `) + k (x3 − x2 − `) . (9.215)
2 2
Quando o sistema está em repouso, que consiste no ponto de equilíbrio, x2 = xCM = 0, enquanto
x1 = −x3 = −`. Podemos ver que esta configuração resulta em V = 0. A expressão acima é
claramente não negativa e, portanto, qualquer outra configuração infinitesimalmente próxima
resulta em V ≥ 0, caracterizando o ponto de equilíbrio.

Podemos reescrever V como função das coordenadas

y1 = x1 + `,
y2 = x2 ,
y3 = x3 − `,

resultando no potencial
1 2 1 2
V = k (y2 − y1 ) + k (y3 − y2 )
2 2
1
= k (y1 y1 − y1 y2 − y2 y1 + 2y2 y2 − y2 y3 − y3 y2 + y3 y3 )
2
k −k 0
  
y1
1 
= y1 y2 y3  −k 2k −k   y2 
2
0 −k k y3
1 T
= y vy. (9.216)
2
Conseguimos em (9.230) escrever V como uma forma quadrática com matriz v constante sem
recorrer à expansão em torno do equilíbrio.

A energia cinética do sistema é escrita como


1
m1 ẏ12 + m2 ẏ22 + m3 ẏ32

T =
2
  
m1 0 0 ẏ1
1 
= ẏ1 ẏ2 ẏ3  0 m2 0   ẏ2 
2
0 0 m3 ẏ3
1 T
= ẏ wẏ, (9.217)
2
que, além de já possuir a forma quadrática desejada, possui matriz Hessiana já diagonal. Neste
caso, sabemos que as equações de movimento são dadas por

wÿ + vy = 0. (9.218)

Como w já é diagonal, a matriz U é a própria identidade. As massas ma são os autovalores de w,

190
de modo que podemos definir S por
√ 
1/ m1 0 0
√  = ST .
S= 0 1/ m2 0 (9.219)

0 0 1/ m3

Obviamente, temos S T wS = 1, de modo que

S T wSS T ÿ + S T vSS T y = 0
S T ÿ + S T vSS T y = 0
S T ÿ + AS T y = 0. (9.220)

Nosso trabalho, portanto, consiste em diagonalizar A = S T vS = w−1 v, encontrando seus


autovalores e autovetores. Explicitamente, esta matriz toma a forma

−k/m1
 
k/m1 0
A =  −k/m2 2k/m2 −k/m2  . (9.221)
0 −k/m3 k/m3

A título de exemplo, talvez seja mais interessante analisar o caso em que m1 = m3 = m e


m2 = M 6= m. Neste caso, temos

−k/m
 
k/m 0
A =  −k/M 2k/M −k/M  . (9.222)
0 −k/m k/m

Para encontrar seus autovalores devemos encontrar as raízes do polinômio característico



k/m − λ −k/m 0

p (λ) = det [A − λ1] = −k/M 2k/M − λ −k/M .
(9.223)
0 −k/m k/m − λ

Deste, temos

p (λ) = −λ3 + a2 λ2 − a1 λ + a0 , (9.224)

em que
 
     
k2k k k k k
a0 = det A = −2 = 0, (9.225a)
m1
m2 m3 m1 m2 m3
k 2k k 2k 2k 2k  m
a2 = trA = + + = + = 1+ , (9.225b)
m1 m2 m3 m M m M

e a1 é a soma de todos os determinantes menores, de ordem 2, da matriz A:

k2
       
k k k k 2m
a1 = 2 + = 2 1+ . (9.226)
M m m m m M

Neste caso,
k2
  
2 2k  m 2m
p (λ) = λ −λ + 1+ λ− 2 1+
m M m M
   
k k 2m
= −λ λ − λ− 1+ . (9.227)
m m M

191
As raízes são os autovalores

λ1 = 0, (9.228a)
k
λ2 = , (9.228b)
m 
k 2m
λ3 = 1+ . (9.228c)
m M

Para encontrar os autovetores, devemos observar a equação característica

Aai = λi ai , (9.229)

para cada valor λi = (λ1 , λ2 , λ3 ). Devemos também normalizar os autovetores de acordo com o
vínculo (9.214), ou seja,
2 2 2
m1 (a1i ) + m2 (a2i ) + m3 (a3i ) = 1
h i
2 2 2
m (a1i ) + (a3i ) + M (a2i ) = 1. (9.230)

Para o autovalor λ1 = 0, temos

Aa1 = 0,

ou,

−k/m
  
k/m 0 a11
 −k/M 2k/M −k/M   a21  = 0.
0 −k/m k/m a31

Isto resulta nas equações

k k
a11 − a21 = 0, (9.231a)
m m
k 2k k
− a11 + a21 − a31 = 0, (9.231b)
M M M
k k
a31 − a21 = 0. (9.231c)
m m
Essas equações indicam que a31 = a21 = a11 . Assim,
 
1
a1 = c1  1  . (9.232)
1

Com (9.230), vemos que


r
1
c1 = . (9.233)
2m + M

Para λ2 = k/m,

Aa2 = λ2 a2 ,

ou,

−k/m
    
k/m 0 a12 a12
 −k/M k
2k/M −k/M   a22  =  a22  .
m
0 −k/m k/m a32 a32

192
Neste caso, temos o sistema de equações

k k k
a12 − a22 = a12 , (9.234a)
m m m
k 2k k k
− a12 + a22 − a32 = a22 , (9.234b)
M M M m
k k k
a32 − a22 = a32 . (9.234c)
m m m
Estas equações indicam que a22 = 0, enquanto a32 = −a12 . Portanto,
 
1
a2 = c2  0  . (9.235)
−1

Com a condição de normalização,


r
1
c2 = . (9.236)
2m

Para λ3 ,

Aa3 = λ3 a3 ,

que resulta em

−k/m
    
k/m 0 a13   a13
 −k/M k 2m 
2k/M −k/M   a23  = 1+ a23  .
m M
0 −k/m k/m a33 a33

Nesta, temos
 
k k k 2m
a13 − a23 = 1+ a13 , (9.237a)
m m m M
 
k 2k k k 2m
− a13 + a23 − a33 = 1+ a23 , (9.237b)
M M M m M
 
k k k 2m
a33 − a23 = 1+ a33 . (9.237c)
m m m M

Vamos tomar a primeira equação:

2m
a23 = − a13 .
M
Da terceira, temos

2m
a23 = − a33 .
M
Ou seja, a33 = a13 e a23 = (−2m/M ) a13 . Com esta solução, a segunda equação é identicamente
satisfeita. Portanto,
 
1
a3 = c3  −2m/M  . (9.238)
1

193
Usando (9.230),
s
1
c3 =  2m
. (9.239)
2m 1 + M

Com os autovetores construímos a matriz Q:


 q q q 
1 1 1
2m+M 2m 2m[1+2m/M ]
 q q 
1 2
Q = [a1 , a2 , a3 ] =  0 − M [2+M/m] . (9.240)
 
 q 2m+M q q 
1 1 1
2m+M − 2m 2m[1+2m/M ]

Voltando a (9.220),

S T ÿ + AS T y = 0
QT S T ÿ + QT AQQT S T y = 0
QT S T ÿ + ΩQT S T y = 0
P T ÿ + ΩP T y = 0. (9.241)

Assim, vamos definir a matriz P :


 q q q 
 √  1
2m+M
1
2m
1
2m[1+2m/M ]
1/ m 0
√ 0  q q 
1 2
P = SQ =  0 1/ M 0  0 − M [2+M/m]

√  q 2m+M
 
0 0 1/ m
q q 
1 1 1
2m+M − 2m 2m[1+2m/M ]
 q q q 
1 1 1 1 1 1
m (2+M/m) m 2 m 2[1+2m/M ]
 q q 
1 1 1 2
= 0 −M , (9.242)
 
 M (1+2m/M ) [2+M/m]
 q q q 
1 1 1 1 1 1
m (2+M/m) −m 2 m 2[1+2m/M ]

com
 q q q 
1 1 1 1 1 1
m (2+M/m) M (1+2m/M ) m (2+M/m)
 q q 
PT =  1 1
0 −1 1
. (9.243)
 
 qm 2 q q m 2 
1 1 1 2 1 1
m 2[1+2m/M ] −M [2+M/m] m 2[1+2m/M ]

Assim,
 q q q 
  1 1 1 1 1 1  
z1 m (2+M/m) M (1+2m/M ) m (2+M/m) y1
 q q 
z = PTy  z2  =  1 1
0 −1 1 y2  . (9.244)

qm 2 q m 2
 
z3 y3
 q 
1 1 1 2 1 1
m 2[1+2m/M ] −M [2+M/m] m 2[1+2m/M ]

9.10 Resumo

9.11 Exercícios

194
Capítulo 10

Princípios variacionais

10.1 Elementos do cálculo variacional


10.1.1 Funcionais lineares reais
Vamos supor um espaço vetorial E. Como já vimos anteriormente, um funcional real linear (que
denominaremos simplesmente funcional) com domínio em E é uma aplicação F : E → R, que leva
vetores do espaço vetorial a números reais. Para qualquer u ∈ E, existe um covetor ū ∈ E ∗ , em
que E ∗ é o espaço de todos os funcionais tais que

ū [u] = (u, u) = u2 , (10.1)

em que ū [u] é a aplicação de ū em u e (u, u) é o produto escalar, com u2 o módulo ao quadrado de u.


Vimos também que E e E ∗ são isomórficos devido ao produto escalar, sendo o isomorfismo carre-
gado pela métrica de E. Agora, estamos interessados em estudar um tipo particular de funcional,
quando o espaço vetorial em questão é um espaço de funções reais analíticas em determinados
domínios. Abaixo, temos alguns exemplos desses funcionais.

1. Considere o espaço de todos os segmentos de curvas suaves em um plano cartesiano. Cada


curva neste espaço tem relacionado um número real, quem vem a ser o comprimento da
curva. O funcional relacionado a este problema é dado por

ˆ B ˆ Bq ˆ Bp ˆ B
s  2
i j 2 2
dy
s= ds = gij dx dx = dx + dy = dx 1 + . (10.2)
A A A A dx

2. Considere dois pontos A e B em um plano cartesiano e todos os segmentos de curvas que


unem esses dois pontos. Vamos supor que cada curva possua um campo de velocidades
v = v (x, y). Neste caso, cada curva está associada a um número real, que é o tempo que se
leva para cumprir um determinado trajeto de A a B. O funcional relacionado é dado por
ˆ ˆ
ds
t [γ] = dt = . (10.3)
γ γ v

3. Considere uma função y (x) uma função arbitrária de classe C ∞ , ou seja, infinitamente
diferenciável definida em um intervalo [a, b]. Seja Φ o espaço dessas funções, é fácil verificar
que este é um espaço vetorial. A integral
ˆ b
dy
J [y] = y 02 (x) dx, y 0 (x) = . (10.4)
a dx

define um funcional em Φ.

195
4. Seja F (x, y, z) uma função real C ∞ . A integral
ˆ b
J [y] = F [x, y (x) , y 0 (x)] dx, (10.5)
a
p
em que y (x) ∈ Φ foi definida no exemplo 3, define um funcional. Se F = 1 + y 02 , temos o
exemplo 1. Se F = y 02 , temos o exemplo 3.

São os funcionais na forma (10.5) que nos interessam, então sempre que nos referirmos a funci-
onais, estamos nos referindo a funcionais do tipo (10.5).
Vamos supor que desejamos encontrar a menor distância entre dois pontos A e B no plano
cartesiano, ou seja, desejamos encontrar a curva γ0 de menor funcional
ˆ B p
s= dx 1 + y 02 , (10.6)
A

cuja solução é uma linha reta unindo A e B. Este é um exemplo do que é denominado problema
variacional, e é análogo ao problema de se encontrar um ponto de mínimo de uma função f (x)
real em cálculo. Por outro lado, problemas variacionais podem ser mais complexos. Por exemplo,

1. Seja o espaço de todas as curvas fechadas de mesmo comprimento em R2 . O problema de se


encontrar a curva que engloba a maior área também é um problema variacional, chamado
problema isoperimétrico, resolvido por Euler.

2. Sejam A e B dois pontos fixos em R3 e γ uma curva unindo os dois pontos. O tempo que se
leva para deslizar entre A e B sobre a curva γ sob a influência da gravidade é um funcional,
depende da curva γ. O problema da braquistócrona vem a ser o problema variacional de
se encontrar a curva γ0 de menor tempo de deslize entre A e B, foi resolvido por vários
matemáticos no século XVII, como Bernoulli e Newton.

10.1.2 Espaços de funções


Seja y (x) uma função real de uma variável independente x. O funcional
ˆ b
J [y] = F (x, y, y 0 ) dx, (10.7)
a

para ser apropriadamente definido, exige que y seja pelo menos uma vez diferenciável em x.
Neste caso, é apropriado definir do espaço de y como o espaço de todas as funções de classe C 1
com domínio em [a, b]. Por outro lado, o funcional
ˆ b
J [y] = F (x, y, y 0 , y 00 ) dx (10.8)
a

sugere que o espaço de y deve ser definido como o de todas as funções de classe C 2 com mesmo
domínio. Portanto, o espaço de funções não é geral, mas depende de cada problema variacional.
Para que os conceitos de continuidade e diferenciabilidade também se apliquem a espaços
de funções, precisamos que esses espaços sejam espaços vetoriais munidos com uma norma.
Neste caso, seja Φ um espaço de funções de uma variável real, de classe C n para determinado
n, com domínio no conjunto fechado [a, b]. Definimos as operações de soma (u + v = w ∈ Φ) e de
multiplicação por números reais (αu = w ∈ Φ), com α ∈ R. Para todo u, v, w ∈ Φ e α, β ∈ R, temos
as propriedades

1. u + v = v + u;

2. (u + v) + w = u + (v + w);

196
3. ∃ 0 ∈ Φ : u + 0 = u;

4. ∃ − u ∈ Φ : u + (−u) = 0;

5. 1u = u;

6. α (βu) = (αβ) u = β (αu);

7. (α + β) u = αu + βu;

8. α (u + v) = αu + αv.
A norma de uma função u ∈ Φ é uma aplicação kuk : Φ → R tal que
1. kuk = 0 ⇐⇒ u = 0;

2. kαuk = |α| kuk ∀α ∈ R;

3. ku + vk  kuk + kvk;

4. A distância entre duas funções u, v ∈ Φ é definida por D (u, v) ≡ ku − vk.


Para definir uma norma em um espaço de funções, vamos supor primeiro o espaço de todas as
funções contínuas de uma variável real com domínio [a, b], denotada aqui por Φ0 . A norma de
uma função y (x) ∈ Φ0 pode ser definida por

kyk ≡ max |y (x)| . (10.9)


axb

Por outro lado, seja o espaço de todas as funções contínuas diferenciáveis uma vez, com domínio
[a, b], Φ1 . Assim,

kyk ≡ max |y (x)| + max |y 0 (x)| . (10.10)


axb axb

De forma mais geral,


Definição 15. Seja o espaço de funções de uma variável real de classe C n com domínio em
[a, b], Φn . A norma de uma função y ∈ Φn é definida por
n
X
kyk ≡ max y (i) (x) , (10.11)

axb
i=0

em que y (i) = y, y 0 , y 00 , · · · , y (n) .


 

10.1.3 Limite e continuidade


Agora, vamos a algumas definições e proposições preliminares, que nos permitirão definir o con-
ceito de diferenciabilidade em funcionais. Vamos supor um espaço vetorial Φ de pontos y ∈ Φ.
Definição 16. (Bolas abertas)
Sejam y, ȳ ∈ Φ e  > 0 ∈ R. Uma bola aberta com centro em ȳ e raio , denotado por B (y, ), é
um subconjunto B ⊂ Φ tal que

ky − ȳk <  ∀ y ∈ B. (10.12)


Da mesma forma, bolas fechadas podem ser definidas em Φ, com a substituição de (10.12)
pela proposição ky − ȳk ≤  ∀ y ∈ B.
Definição 17. (Subconjunto aberto)
A é um subconjunto aberto de Φ, ou simplesmente um aberto, se para todo y ∈ A, existe uma
bola aberta com centro em y contida em A.

197
Com as definições acima, temos:
Definição 18. (Ponto de acumulação)
Um ponto y ∈ Φ é um ponto de acumulação em Φ, se qualquer aberto contendo y contém pelo
menos um ponto de Φ diferente de y.
O conjunto de todos os pontos de acumulação de Φ é denominado Φ0 . Neste caso, podemos
escrever

y ∈ Φ0 ⇐⇒ ∀B (y, ) ∃ȳ ∈ Φ : ȳ ∈ B (x, ) e ȳ 6= y. (10.13)

Definição 19. (Limite de um funcional)


Seja J [y] um funcional com domínio em Φ. Seja um ponto a ∈ Φ um ponto de acumulação de
Φ. Um número L ∈ R é denominado limite de J quando y ∈ Φ tende ao ponto a, fato expresso
por

lim J [y] = L, (10.14)


y→a

se para todo intervalo aberto I ⊂ R tal que L ∈ I, existe um aberto K ⊂ Φ contendo a tal que

∀y ∈ Φ, y ∈ (K − {a}) =⇒ J [y] ∈ I. (10.15)


Esta definição tem um forte paralelo com a definição de limite de funções reais. Neste caso,
ressalta-se que o ponto a é um ponto de acumulação de Φ, mas não faz parte, necessariamente,
do domínio de J. Todas as propriedades conhecidas dos limites se aplicam, especialmente, as
propriedades de unicidade e as operações do limite da soma e da multiplicação de funcionais.
Definição 20. (Continuidade)
Seja um funcional F : Φ → R, tal que J [y] exista para um dado ponto y ∈ Φ. Dizemos que J é
contínuo em y se, para todo aberto I ⊂ R contendo F [ȳ], existe um aberto K ⊂ Φ contendo ȳ
tal que

∀y ∈ Φ, y ∈ K =⇒ J [y] ∈ I. (10.16)
Se J é contínuo em todos os pontos do domínio, dizemos simplesmente que J é um funcional
contínuo. Uma definição análoga pode ser útil: Um funcional J [y] é dito contínuo em um ponto
ȳ ∈ Φ se, para cada  > 0, existe um δ > 0 tal que

ky − ȳk < δ =⇒ |J [y] − J [ȳ]| < . (10.17)

Em particular, se ȳ é um ponto de acumulação de Φ, J é contínuo em ȳ se, e somente se,

lim J [y] = J [ȳ] (10.18)


y→ȳ

10.1.4 Variação de um funcional


Vamos supor um funcional J : Φ → R. Dizemos que este funcional é contínuo e linear se obedecer
às seguintes propriedades:

1. ∀y, w ∈ Φ, ∀α, β ∈ R, J [αy + βw] = αJ [y] + βJ [w],

2. J [y] é contínuo para todo y ∈ Φ.

Por exemplo, as seguintes integrais são funcionais lineares contínuos:


´b
• a y (x) dx;

198
´b
• a
α (x) y (x) dx, em que α (x) é uma função fixa em Φ;
´b ´b
a0 (x) y (x) + a1 (x) y 0 (x) + a2 (x) y 00 (x) + · · · + an (x) y (n) (x) dx = a ai (x) y (i) (x) dx, se

• a
{ai } são um conjunto de funções fixas em Φ (soma em i está implícita).

Agora, considere uma função h (x) ∈ Φ, com domínio [a, b] fixo. Para todo funcional J [y] com
domínio em Φ, podemos definir o incremento

∆J [h] ≡ J [y + h] − J [y] , (10.19)

que é um funcional de h, para y fixo, geralmente não linear.


Definição 21. (Primeira variação)
O funcional J é dito diferenciável em Φ se houver um funcional linear δJ [h] tal que

∆J [h] = δJ [h] +  khk , (10.20)

com  → 0 a medida que khk → 0. Neste caso, δJ é chamado primeira variação, ou diferencial
de J.
Com a definição acima, vemos claramente que δJ deve ser o limite de ∆J com khk → 0. Assim,

 
J [y + h] − J [y] δJ
δJ = khk lim ≡ khk . (10.21)
khk→0 khk δy khk=0

Em (10.21) temos a
Definição 22. (Derivada funcional)
A derivada funcional de um funcional J [y] é definida como

δJ J [y + h] − J [y] ∆J [y]
≡ lim = lim , (10.22)
δy khk→0 khk k∆yk→0 k∆yk

em que, aqui, ∆y = h.
Uma outra maneira de se definir a derivada funcional é através da seguinte construção. Seja
um funcional
ˆ b
J [y] = F (x, y, y 0 ) dx, (10.23)
a

em que F é uma função analítica nas três variáveis independentes. Podemos dividir o domínio
[a, b] em n + 1 intervalos de mesmo comprimento ∆x, com a introdução dos pontos

x0 = a, xi+1 = xi + ∆x, · · · , xn = b.

A função y (x) pode ser aproximada pelas linhas com vértices yi = y (xi ), formando polígonos no
gráfico (x, y). Neste caso, (10.23) torna-se
n  
X yi+1 − yi
J (y1 , · · · , yn ) = F xi , yi , ∆x. (10.24)
i=0
∆x

Podemos calcular as derivadas parciais


   
∂J ∂ yk+1 − yk ∂ yk − yk−1
= F xk , yk , ∆x + 0 F xk−1 , yk−1 ,
∂yk ∂y ∆x ∂y ∆x
 
∂ yk+1 − yk
− 0 F xk , yk , . (10.25)
∂y ∆x

199
Vamos usar a notação Fy ≡ ∂F/∂y. Além disso, todo o lado direito tem limite nulo quando
∆x → 0. Vamos, portanto, dividir (10.25) por ∆x:
      
∂J yk+1 − yk 1 yk+1 − yk yk − yk−1
= Fy xk , yk , − Fy0 xk , yk , − Fy0 xk−1 , yk−1 , .
∂yk ∆x ∆x ∆x ∆x ∆x

Temos

Definição 23. (Derivada de Lagrange)


Seja F (x, y, y 0 ) uma função analítica em todas as suas variáveis. A derivada

δF ∂J ∂F d ∂F
≡ lim = − , (10.26)
δy ∆x→0 ∂yk ∆x ∂y dx ∂y 0

é denominada derivada de Lagrange da função F .

Neste caso, a derivada funcional de J pode ser escrita por


ˆ b ˆ b  
δJ δF ∂F d ∂F
= dx = − dx. (10.27)
δy a δy a ∂y dx ∂y 0

É importante ressaltar que, até aqui, o domínio [a, b] é fixo. Na prática, isto implica que o incre-
mento ∆J entre duas funções y (x) e ȳ (x), tendo h (x) = ȳ (x) − y (x), é tomado com os pontos
x = a e x = b fixos.

10.1.5 Extremos de um funcional


Vamos supor um funcional J : Φ → R, em que Φ é um espaço de funções de uma variável de
classe C n e domínio fixo [a, b].

Definição 24. (Extremo de um funcional)


Uma função y0 (x) ∈ Φ é denominada um extremo local de J [y] se, para todo y ∈ Φ em uma
vizinhança aberta (, δ) de y0 , J [y0 ] < J [y], para o qual y0 é denominado mínimo local, ou
J [y0 ] > J [y], para o qual y0 é denominado máximo local.

Teorema 3. Uma condição necessária para que um funcional diferenciável J : Φ → R tenha


um extremo em y = y0 é que a primeira variação de J seja nula em y = y0 , ou seja,

δJ [h] = 0 (10.28)

para todo y = y0 e todo h ∈ Φ admissível.

Demonstração. Vamos supor que y = y0 seja um mínimo de J. Neste caso, ∆J [h] = J [y] −
J [y0 ] > 0 para todo y nas condições da definição 24. Como

∆J [h] = δJ [h] + ε khk ,

o sinal de δJ será o mesmo de ∆J para khk suficientemente pequeno. Agora, suponha que
δJ [h0 ] 6= 0 para algum h0 . Neste caso, para qualquer α ∈ R∗+ , temos

δJ [−αh0 ] = −αδJ [h0 ] ,

ou seja, sempre existirá uma função hα ≡ −αh0 , também admissível, tal que δJ mude de
sinal, o que também implica na mudança de sinal de ∆J para khk suficientemente pequeno.
Contudo, essa conclusão contradiz a premissa do teorema, o que prova sua validade.

200
10.1.6 A equação de Euler

Vamos supor um funcional


ˆ b
J [y] ≡ F (x, y, y 0 ) dx, (10.29)
a

para o qual desejamos encontrar um extremo local para um domínio [a, b] fixo. Se este extremo
local é dado por certa função y (x), para qualquer função h ≡ δy = ȳ − y, temos δJ [h] = 0. Note
que o incremento
ˆ b ˆ b
0
F x, y + δy, y 0 + (δy) dx − F (x, y, y 0 ) dx

∆J = J [y + δy] − J [y] = (10.30)
a a

tem um sinal definido para todo δy admissível.


Sendo analítica, F pode ser expandida em série de Taylor:

0 ∂F ∂F
F x, y + δy, y 0 + (δy) = F (x, y, y 0 ) + δy + 0 δy 0 + O δy 2 , δy 02
 
∂y ∂y

ou seja,
ˆ b ˆ b ˆ b  
0 ∂F ∂F
F x, y + δy, y 0 + (δy) dx − F (x, y, y 0 ) dx ≈ δy + 0 δy 0 dx.

∆J = (10.31)
a a a ∂y ∂y
0
O termo linear em δy e (δy) é claramente δJ e, neste caso,
ˆ b   ˆ b
∂F ∂F
δJ = δy + 0 δy 0 dx ≡ δF dx, (10.32)
a ∂y ∂y a

em que introduzimos a notação

∂F ∂F
δF ≡ δy + 0 δy 0 . (10.33)
∂y ∂y

Vamos dar atenção à variação δy 0 . Ele é dada por


 
dy dȳ dy d d
δy 0 = δ = − = (ȳ − y) = δy. (10.34)
dx dx dx dx dx

Assim,
 
∂F ∂F ∂F ∂F d ∂F d ∂F d ∂F
δF = δy + 0 δy 0 = δy + 0 δy = δy + 0
δy − δy
∂y ∂y ∂y ∂y dx ∂y dx ∂y dx ∂y 0
   
∂F d ∂F d ∂F
= − δy + δy .
∂y dx ∂y 0 dx ∂y 0
O termo que multiplica δy é a derivada de Lagrange (10.26). Então,
 
δF d ∂F
δF = δy + δy . (10.35)
δy dx ∂y 0

Então,
ˆ b ˆ b ˆ b   ˆ b y=B
δF ∂F δF ∂F
δJ = δF dx = dx δy + d δy = dx δy + δy ,
a a δy a ∂y 0 a δy ∂y 0 y=A

em que A = y (a) e B = y (b). Dizemos que o último termo é um termo de fronteira, ou de borda.

201
Se o domínio [a, b] é fixo, isto significa que os pontos iniciais e finais de ȳ e y são iguais a a e b e,
neste caso

δy|y=A = δy|y=b = 0,

portanto o termo de fronteira é nulo quando o problema variacional tem domínio fixo. Neste
caso,
ˆ b
δF
δJ = dx δy. (10.36)
a δy

Para que J tenha um extremo, precisamos que δJ = 0. Note que δy é uma função em Φ,
portanto é de classe C n com domínio [a, b]. Usaremos, então, o seguinte

Lema 1. Se α (x) é contínuo em [a, b], e se


ˆ b
α (x) h (x) dx = 0
a

para todo h com mesmo domínio, tal que h (a) = h (b) = 0, então α (x) = 0 para todo x ∈ [a, b].
Portanto, para que a variação
ˆ b ˆ b
δF
δJ = dxδF = dx δy
a a δy

seja nula para todo δy ∈ Φ, temos

δF ∂F d ∂F
= − = 0. (10.37)
δy ∂y dx ∂y 0

A equação (10.37) é chamada equação de Euler, e suas soluções são extremos do funcional (10.29).

10.2 A ação e sua primeira variação


Vamos supor que um determinado sistema físico, descrito por uma função lagrangiana

L = L t, q i , q̇ i ,

(10.38)

tem como soluções das equações de Lagrange uma trajetória γ ⊂ Qn descrita pelas equações
paramétricas

q i = q i (t) , (10.39)

com as condições de fronteira q i (t0 ) ≡ q0i , representando um ponto inicial q0 ∈ γ, e q i (t1 ) ≡ q1i
representando um ponto final q1 ∈ γ. Neste caso, as funções q i (t) são funções de domínio [q0 , q1 ]
fixo, também supostas pelo menos de classe C 2 . Denominaremos o espaço das curvas γ (t) de
classe C 2 com domínio fixo [t0 , t1 ] por Φ.

Definição 25. (Ação)


Para cada curva γ ∈ Φ, definimos o funcional A : Φ → R, tal que
ˆ t1
L t, q i , q̇ i dt,

A [γ] ≡ (10.40)
t0

denominado ação.

202
A ação é um funcional que, assim como o problema de Fermat, depende de n funções de uma
única variável independente. É a partir do funcional (10.40) que construiremos um princípio que
nos leve à dinâmica do sistema descrito por L.

Vamos calcular a primeira variação da ação. Primeiro, vamos supor uma curva de compara-
ção γ̄ ⊂ Qn de equações paramétricas

γ̄ : q̄ i = q̄ i (t) . (10.41)

A primeira variação da curva é definida como a diferencial fundamental

δq i (t, q) ≡ q̄ i (t) − q i (t) , (10.42)

em que

δq i t0 , q0i = δq i t1 , q1i = 0,
 
(10.43)

ou seja, γ̄ tem os mesmos pontos inicial e final de γ.

A primeira variação da ação é dada por

δA = lim (A [γ̄] − A [γ]) , (10.44)


γ̄→γ

como definido em (10.20). Naquela seção, vimos que a primeira variação age como um operador
diferencial. Portanto, usaremos as propriedades diferenciais de δ para calcular δA. Temos
ˆ t1 ˆ t1
δA = δ L (t, q, q̇) dt = δL (t, q, q̇) dt, (10.45)
t0 t0

visto que o tempo é mantido fixo em ambas as curvas.

Então, precisamos calcular

∂L i ∂L i
δL = δq + i δ q̇ . (10.46)
∂q i ∂q

Primeiro, vamos calcular δ q̇ i :


 i
i dq dq̄ i dq i d i d
q̄ − q i = δq i .

δ q̇ = δ = − = (10.47)
dt dt dt dt dt

Portanto, os operadores δ e d/dt são comutativos. Este é o caso apenas porque o tempo é mantido
fixo nas duas trajetórias. O caso em que o parâmetro das curvas é mudado muda a relação
(10.47). Neste caso,

∂L i ∂L d
δq i .

δL = δq + i (10.48)
∂q i ∂q dt

Esta expressão pode ser reescrita por


     
∂L i d ∂L i d ∂L i δL i d ∂L i
δL = i δq − δq + δq = i δq + δq , (10.49)
∂q dt ∂q i dt ∂q i δq dt ∂q i

em que usamos a derivada de Lagrange

δL ∂L d ∂L
= i− . (10.50)
δq i ∂q dt ∂q i

203
Substituindo-se (10.49) em (10.45),
ˆ t1   
δL i d ∂L i
δA = δq + δq dt
t0 δq i dt ∂q i
ˆ t1 ˆ t1   ˆ t1 t
δL i d ∂L i δL i ∂L i 1
= dt i δq + dt δq = dt i δq + δq . (10.51)
t0 δq t0 dt ∂q i t0 δq ∂q i t0

O último termo é o temos de fronteira da primeira variação. Com as condições de contorno


(10.43), este termo é nulo, o que resulta em
ˆ t1
δL i
δA = dt δq . (10.52)
t0 δq i

10.3 O princípio de Hamilton


Note que a derivada de Lagrange (10.50) é o lado esquerdo das equações de Lagrange

∂L d ∂L
i
− = 0, (10.53)
∂q dt ∂q i

portanto, essas equações são condições necessárias para que γ seja um extremo local de A, já que
elas implicam em δA = 0. Portanto, temos o

Proposição 3. (Princípio de Hamilton)


A trajetória de um sistema mecânico descrito por uma função lagrangiana L (t, q, q̇) é uma
´t
curva γ no espaço de configuração do sistema, tal que γ é um mínimo da ação A = t01 Ldt
para um domínio fixo t ∈ [t0 , t1 ].

O princípio de Hamilton substitui as três leis de Newton para sistemas que são descritos por
funções lagrangianas. Dada uma ação A, γ é um mínimo de A se δA [γ] = 0, o que nos leva às
equações de Lagrange (10.53). As equações de Lagrange são equações de Euler para o problema
variacional de várias funções de uma variável independente. Então, daqui em diante vamos nos
referir às equações (10.53) como as equações de Euler-Lagrange da lagrangiana L.
O princípio de Hamilton originalmente trata do caso em que que a trajetória do sistema deve
ser um mínimo da ação, e não apenas qualquer extremo local. Contudo, as equações de Euler-
Lagrange garantem apenas um extremo, e não uma condição de máximo ou mínimo relativo. A
condição de mínimo é importante para que γ seja considerada uma trajetória física do sistema,
pois tem relação com a positividade da energia mecânica. Abordaremos este tópico mais adiante.

10.3.1 O princípio de Hamilton com condições subsidiárias


Como vimos, o princípio de Hamilton seleciona uma curva γ ∈ Φ, em que Φ é o espaço das funções
q i (t) de classe C 2 com domínio t ∈ [t0 , t1 ], que minimiza a ação
ˆ t1
A= L (t, q, q̇) dt. (10.54)
t0

Por definição, Φ é um espaço vetorial real, então seus elementos γ são vetores. Se q i = q i (t) são
as equações paramétricas que definem a curva γ, dizemos que q i (t) são as componentes de γ.
Embora uma norma tenha sido introduzida na seção 10.1.2 para fins de se definir o processo
de limite e continuidade de funcionais em Φ, ainda precisamos de uma boa definição de produto
interno. Sejam f e g dois vetores em Φ com componentes f i e g i . O produto interno (f, g) é

204
definido por
ˆ t1
(f, g) ≡ fi (t) g i (t) dt. (10.55)
t0

Dois vetores f e g são ortogonais se (f, g) = 0.


Vamos tomar a equação (10.52)
ˆ t1
δA i
δA = δq dt (10.56)
t0 δq i

e definir
δA
Λi ≡ . (10.57)
δq i

Neste caso,
ˆ t1
δA = Λi δq i dt = (Λ, δq) , (10.58)
t0

ou seja, existem dois vetores Λ e δq em Φ tal que a primeira variação da ação é o produto interno
(Λ, δq). A condição δA = 0 reflete-se, portanto, à condição de que Λ seja ortogonal a δq.
Se o sistema não possui vínculos, as funções δq i são linearmente independentes, visto que as
coordenadas generalizadas q i também o são. Neste caso, vale um análogo do Lema 1:

Teorema 4. Seja f ∈ Φ de componentes f i (t). Se


ˆ t1
(f, g) = fi (t) g i (t) dt = 0
t0

para todo g ∈ Φ de componentes g i , tal que g i (t0 ) = g i (t1 ) = 0, então f i (x) = 0 para todo
t ∈ [t0 , t1 ].

Ou seja, um vetor é ortogonal a todos os vetores de Φ se, e somente se, este vetor é o vetor
nulo. O teorema 4 já não vale se o sistema possui vínculos. Vamos supor que um conjunto de k
vínculos

φz = φz (t, q, q̇) = 0, z = 1, · · · , k, (10.59)

no geral não holonômicos, mas linearmente independentes, sejam impostos a um dado sistema
descrito por uma ação (10.54). As trajetórias acessíveis ao sistema não só se restringem a mini-
mizar a ação, mas também a obedecer os vínculos (10.59). Isto significa que as variações δq i não
serão mais arbitrárias e, sequer, linearmente independentes.
Seja Φφ o espaço de todo δq admissível, ou seja, que obedeçam os vínculos φz = 0. O princípio
de Hamilton δA = 0 ainda permanece, resultando em (Λ, δq) = 0, mas esta condição não implica
mais em Λ = 0. Em vez disso, Λ deve ser ortogonal ao espaço Φq , ou seja, Λ deve ser ortogonal a
todas as variações δq permitidas pelos vínculos.
Note que

∂φz i ∂φz i
δφz = δq + δ q̇ = 0, (10.60)
∂q i ∂ q̇ i

pois φz = 0 em toda a variedade tangente. Agora, vamos tomar um conjunto de k vetores µz ∈ Φ.

205
´P
Vamos tomar a integral z µz δφz dt. Temos
ˆ
X t1  
∂φz i ∂φz i
0 = µz δq + δ q̇ dt
z t0 ∂q i ∂ q̇ i
X ˆ t1  ∂φz ∂φz d i
 X ˆ t1  ∂φz d

∂φz

d

∂φz i

i i i
= µz δq + δq dt = µz i δq − µz i δq + µz i δq dt.
z t0 ∂q i ∂ q̇ i dt z t0 ∂q dt ∂ q̇ dt ∂ q̇

Ainda temos δq (t0 ) = δq (t1 ) = 0, então,


ˆ t1 X  ∂φz   ˆ t1 X
d ∂φz i
µz i − µz i δq dt ≡ (χz )i δq i dt = 0, (10.61)
t0 z
∂q dt ∂ q̇ t0 z

em que
 
∂φz d ∂φz ∂ d ∂ δ
(χz )i ≡ µz i
− µz = (µz φz ) − (µz φz ) = i (µz φz ) . (10.62)
∂q dt ∂ q̇ i ∂q i dt ∂ q̇ i δq

Assim, (10.61) resulta em


!
X
χz , δq = 0. (10.63)
z

A equação (10.63) dá a restrição a δq: devem ser ortogonais a todos os vetores χz . Se φz são LI,
então também o são os vetores χz , e estes formam uma base para um subespaço vetorial Φχ .
Portanto, δq ∈ Φφ deve ser ortogonal a Φχ . Se Λ é ortogonal a Φφ , ou seja,

(Λ, δq) = 0, (10.64)

e Φφ é ortogonal a Φχ , então Λ ∈ Φχ e pode ser escrito como

k
X
Λ= α z χz .
z=1

Em (10.62), podemos absorver αz em µz , definindo-se um novo conjunto λz ≡ αz µz . Então, temos


X
Λ− χz = 0,
z

que implica em
X
Λi − (χz )i = 0, (10.65)
z

ou seja,
!
δL X δ δ X
− (λz φz ) = i L− λ z φz = 0. (10.66)
δq i z
δq i δq z

Neste caso, a substituição L → L0 = L − z λz φz , em que λz são multiplicadores de Lagrange,


P

resultam nas equações de Euler-Lagrange

δL0 ∂L0 d ∂L0


= − = 0. (10.67)
δq i ∂q i dt ∂ q̇ i

206

No caso holonômico, temos φz = φz t, q i . Assim,

δL0 ∂ d ∂L ∂L d ∂L ∂ δL ∂φz
i
= i (L − λz φz ) − i
= i− i
− i (λz φz ) = i − λz i = 0, (10.68)
δq ∂q dt ∂ q̇ ∂q dt ∂ q̇ ∂q δq ∂q

que são equações algébricas para λz . O termo

∂φz
Q̄i ≡ λz (10.69)
∂q i

age como uma força generalizada para os vínculos.


No caso não holonômico φz = φz (t, q, q̇), entretanto, temos

δL0
 
δL δ z δL ∂ z d z ∂φz
= i − i (λ φz ) = i − i (λ φz ) + λ , (10.70)
δq i δq δq δq ∂q dt ∂ q̇ i

que depende de λ̇i . O caso não holonômico causa um problema de origem física, pois a equação
acima exige uma condição inicial para λi . Embora este problema seja contornável dependendo
do sistema de vínculos, não nos ocuparemos dele aqui.

10.4 O princípio variacional de Weiss


Agora, vamos supor que a ação
ˆ t1
A= L (t, q, q̇) dt, (10.71)
t0

cujo mínimo é dado por uma curva γ ∈ Φ : q i = q i (t), seja submetida a uma comparação com uma
segunda curva γ̄ ∈ Φ : q̄ i = q̄ i (t̄), ou seja, não só a forma funcional das equações paramétricas
são modificadas, mas também o próprio parâmetro temporal. A ação calculada em γ̄ é dada por
ˆ t̄1
Ā = ˙ dt̄,
L (t̄, q̄, q̄) (10.72)
t̄0

ou seja, o domínio das curvas γ e γ̄ não mais coincidem. O problema variacional continua o
mesmo: se γ é um extremo, temos A < Ā (mínimo local) ou A < Ā (máximo local) para todo γ̄ em
uma vizinhança aberta de γ. No entanto, o espaço funcional Φ já não é mais o mesmo daquele do
princípio de Hamilton. Aqui, admitimos curvas de domínio variável, mas que também pertençam
a uma vizinhança aberta de γ.
Neste caso, definimos as variações

δq i = q̄ i (t̄) − q i (t) , δt = t̄ − t, (10.73)

a princípio arbitrárias. Note que, em nossa notação, δq i é uma variação dita total, ou seja,
compara pontos distintos em tempos distintos em ambas as curvas. A literatura frequentemente
apresenta a denominada variação puramente funcional, dada por δ̄q i = q̄ i (t)−q i (t), que é tomada
a tempo fixo. Ambas as variações δ e δ̄ atuam como operadores diferenciais.
Vamos calcular a primeira variação da ação sob as variações (10.73).
ˆ t1 
δA = δ L (t, q, q̇) dt
t0
ˆ t1 ˆ t1
= δL (t, q, q̇) dt + L (t, q, q̇) δ (dt) . (10.74)
t0 t0

O segundo termo aparece porque δ envolve alteração na medida temporal da integral. Esta

207
alteração é dada por
 
dt̄ dt̄
δ (dt) = dt̄ − dt = dt − dt = − 1 dt.
dt dt

Usando-se a definição para δt, temos t̄ = t + δt, de modo que


 
d (δt) dδt
δ (dt) = 1 + − 1 dt = dt = d (δt) , (10.75)
dt dt

ou seja, [δ, d] = 0, o que indica comutatividade entre os operadores.


Note que
ˆ t̄1 ˆ t1 ˆ t1  
dt̄ dδt
Ā = ˙ dt̄ =
L (t̄, q̄, q̄) ˙
L (t̄, q̄, q̄) dt = ˙ 1+
L (t̄, q̄, q̄) dt, (10.76)
t̄0 t0 dt t0 dt

de modo que
ˆ t1   ˆ t1 ˆ t1   ˆ t1  
dδt dδt dδt
Ā − A = L̄ 1 + dt − Ldt = L̄ − L + L̄ dt = δL + L̄ dt,
t0 dt t0 t0 dt t0 dt

ou seja,
ˆ t1  
dδt
δA = δL + L dt, (10.77)
t0 dt

que é exatamente a equação (10.74). Assim, mostramos que o problema que envolve a variação
no tempo e o domínio variável é o mesmo: variar o domínio é equivalente a variar o parâmetro
em todo ponto da curva de comparação.
Com (10.75) temos
ˆ t1 ˆ t1
δA = [δLdt + Ld (δt)] = [δLdt + d (Lδt) − dLδt]
t0 t0
ˆ t1   ˆ t1   ˆ t1
dL dL
= δLdt − dt δt + d (Lδt) = dt δL − δt + d (Lδt) . (10.78)
t0 dt t0 dt t0

Vamos introduzir a variação

d
δ̄ ≡ δ − δt , (10.79)
dt
que é a já citada variação a tempo fixo: ela subtrai de δ a parte responsável pela variação tem-
poral. Neste caso,
ˆ t1 ˆ t1
δA = δ̄Ldt + d (Lδt) , (10.80)
t0 t0

´t t
onde há o termo de fronteira t01 d (Lδt) = Lδt|t10 . Este termo não é nulo, pois nenhuma condição
i
de fronteira é imposta a δt ou δq .
Nosso próximo passo é calcular δ̄L, que é dado por

dL
δ̄L = δL − δt .
dt
Vamos começar por δL. Temos

∂L ∂L ∂L
δL = δt + i δq i + i δ q̇ i .
∂t ∂q ∂ q̇

208
Por outro lado,

dL ∂L ∂L ∂L
= + i q̇ i + i q̈ i ,
dt ∂t ∂q ∂ q̇

então,
dL ∂L ∂L ∂L ∂L ∂L ∂L
δL − δt = δt + i δq i + i δ q̇ i − δt − i δtq̇ i − i δtq̈ i
dt ∂t ∂q ∂ q̇ ∂t ∂q ∂ q̇
∂L i ∂L i ∂L ∂L
= δq + i δ q̇ − i δtq̇ i − i δtq̈ i
∂q i ∂ q̇ ∂q ∂ q̇
∂L  ∂L
δq i − δtq̇ i + i δ q̇ i − δtq̈ i

= i
∂q ∂ q̇
   
∂L d i ∂L d
= δ − δt q + i δ − δt q̇ i
∂q i dt ∂ q̇ dt
∂L i ∂L i
= δ̄q + i δ̄ q̇ ,
∂q i ∂ q̇
ou seja,

∂L i ∂L i
δ̄L = δ̄q + i δ̄ q̇ (10.81)
∂q i ∂ q̇

Precisamos calcular δ̄ q̇ i . Temos

dq̄ i dq i dq̄ i dt dq i
δ q̇ i = − = − .
dt̄ dt dt dt̄ dt
Neste caso, t = t̄ − δt, de modo que dt/dt̄ = 1 − dδt/dt̄, ou seja,

dq̄ i dq i dq̄ i dq i dq̄ i d (δt)  dq̄ i d (δt)


 
d (δt) d i
δ q̇ i = 1− − = − − = q̄ − q i − ,
dt dt̄ dt dt dt dt dt̄ dt dt dt̄

que com δq i = q̄ i − q i torna-se

d  dq̄ i d (δt) d  dq̄ i d (δt)


δ q̇ i = δq i − = δq i − . (10.82)
dt dt dt̄ dt dt̄ dt

Agora, precisamos usar o fato de que as variações δq i e δt são infinitesimais, e apenas termos
de primeira ordem são relevantes. Assim, como o segundo termo à direita de (10.82) já é linear
em δt, a derivada dq̄ i /dt̄ só deve contribuir em ordem zero, ou seja,

dq̄ i dq i
≈ .
dt̄ dt
Assim, em primeira ordem,

d  d (δt) i
δ q̇ i = δq i − q̇ , (10.83)
dt dt
tal que
d  d (δt) i d d d
δ̄ q̇ i δq i − δtq̈ i =
δq i − q̇ − δt q̇ i = δq i − δtq̇ i
 
=
dt dt dt dt dt
d i i
 d i

= δq − δtq̇ = δ̄q . (10.84)
dt dt
 
Temos, então, δ̄, d/dt = 0.

209
Voltando a (10.81),
∂L i ∂L i ∂L ∂L d
δ̄q + i δ̄ q̇ = i δ̄q i + i δ̄q i

δ̄L = i
∂q ∂ q̇ ∂q ∂ q̇ dt
 
∂L i d ∂L i d ∂L i
= δ̄q + δ̄q − δ̄q
∂q i dt ∂ q̇ i dt ∂ q̇ i
   
∂L d ∂L i d ∂L i
= − δ̄q + δ̄q
∂q i dt ∂ q̇ i dt ∂ q̇ i
 
δL i d ∂L i
= δ̄q + δ̄q . (10.85)
δq i dt ∂ q̇ i
Em (10.80),
ˆ t1    ˆ t1
δL i d ∂L i
δA = δ̄q + δ̄q dt + d (Lδt)
t0 δq i dt ∂ q̇ i t0
ˆ t1 ˆ t1  
δL i ∂L i
= dt i δ̄q + d δ̄q + Lδt , (10.86)
t0 δq t0 ∂ q̇ i

em que colecionamos os termos de fronteira em uma única integral. A expressão (10.86) pode
ser escrita em termos das variações totais,
ˆ t1 ˆ t1  
δL ∂L
dt i δq i − δtq̇ i + i i
 
δA = d δq − δt q̇ + Lδt
t0 δq t0 ∂ q̇ i
ˆ t1 ˆ t1  
δL i i
 ∂L i ∂L i
= dt i δq − δtq̇ + d δq − i q̇ δt + Lδt
t0 δq t0 ∂ q̇ i ∂ q̇
ˆ t1 ˆ t1    
δL ∂L i ∂L i
dt i δq i − δtq̇ i +

= d δq − q̇ − L δt .
t0 δq t0 ∂ q̇ i ∂ q̇ i

Note que, no termo de fronteira, temos a função hamiltoniana

∂L i
H≡ q̇ − L, (10.87)
∂ q̇ i

enquanto ∂L/∂ q̇ i ≡ pi , que são os momentos conjugados a q i . Então,


ˆ t1 ˆ t1
i i

δA = Λi δq − δtq̇ dt + dG, (10.88)
t0 t0

em que

G ≡ pi δq i − Hδt, (10.89)

e Λi é definido em (10.57). A função G (t, q, q̇, δt, δq) é denominada função geratriz das variações
δt e δq i . Seu papel na dinâmica do sistema será elucidado mais adiante. Por outro lado, G é
linear em δt e δq i . Os termos que acompanham essas variações, pi e H, são chamados geradores
das variações δq i e δt respectivamente. Usaremos esta nomenclatura a partir de agora, mas seu
verdadeiro significado virá com a introdução da dinâmica hamiltoniana e das transformações
canônicas.

Embora (10.88) seja uma boa expressão para a primeira variação do funcional A, o fato do
termo de fronteira ser não nulo, no geral, causa um problema para a definição da derivação
funcional. Portanto, quando o problema variacional tem fronteira variável, não temos expressões

do tipo δF = δF/δq i δq i , como deveríamos esperar. Contudo, podemos reformular o princípio
variacional em si para que ele acomode o caso de fronteira variável.

210
Proposição 4. (Princípio de Weiss)
A trajetória de um sistema mecânico descrito por uma ação A é dada por uma uma curva γ no
espaço de configuração do sistema, tal que a primeira variação de A tendo como base a curva
γ depende apenas dos pontos inicial e final de γ.

Se γ é uma curva que obedece ao princípio de Weiss para uma ação A, temos que

δA [γ] = f (t1 , t0 ) , (10.90)

que é uma constante, fixados os pontos inicial e final de γ. Em forma integral, existe uma função
F (t) tal que
ˆ t1
f (t1 , t0 ) = F (t1 ) − F (t0 ) = dF,
t0

de modo que o princípio de Weiss se resume a


ˆ t1
δA = dF, (10.91)
t0

para alguma função F (t, q, q̇), ou seja, δA deve ser um termo de fronteira puro.
Observando-se (10.88), torna-se claro que uma condição necessária para que δA seja um
termo de fronteira é dada por

δL ∂L d ∂L
Λi = = i− = 0, (10.92)
δq i ∂q dt ∂ q̇ i

que são as equações de Euler-Lagrange. Portanto, uma trajetória γ que obedece ao princípio de
Weiss também obedece ao princípio de Hamilton. Sobre tal curva γ, temos
ˆ t1 ˆ t1
d pi δq i − Hδt + F ,

δA = d (G + F ) = (10.93)
t0 t0

para alguma função F .

10.5 Aplicações do princípio de Weiss


10.5.1 Oscilador harmônico simples
Vamos trabalhar com a função lagrangiana

1 1
L= mẋ2 − mω 2 x2 , (10.94)
2 2
que é descreve um oscilador unidimensional. A ação é dada por
ˆ ˆ
1
ẋ2 − ω 2 x2 dt.

A = Ldt = m (10.95)
2

Vamos supor as variações

δt = t̄ − t, δx = x̄ − x, (10.96)

a primeira variação da ação é dada por


ˆ  ˆ ˆ 
1 2 2 2
 1 2 2 2
 2 2 2

δA = mδ ẋ − ω x dt = m δ ẋ − ω x dt + ẋ − ω x δdt .
2 2

211
A variação na medida é dada por δdt = dδt, de modo que
ˆ ˆ 
1
δ ẋ2 − ω 2 x2 dt + ẋ2 − ω 2 x2 d (δt)
 
δA = m
2
ˆ ˆ ˆ 
1
δ ẋ2 − ω 2 x2 dt + d ẋ2 − ω 2 x2 δt − d ẋ2 − ω 2 x2 δt
    
= m
2
ˆ   ˆ 
1 d
ẋ2 − ω 2 x2 + d ẋ2 − ω 2 x2 δt
   
= m dt δ − δt
2 dt
ˆ ˆ 
1 d
dtδ̄ ẋ2 − ω 2 x2 + d ẋ2 − ω 2 x2 δt , δ̄ ≡ δ − δt .
   
= m (10.97)
2 dt

Vamos calcular

δ̄ ẋ2 − ω 2 x2 = δ̄ ẋ2 − ω 2 δ̄x2 = 2ẋδ̄ ẋ − 2ω 2 xδ̄x,




de onde usamos o resultado já estabelecido δ̄ ẋ = (d/dt) δ̄x. Então,

d
δ̄ ẋ2 − ω 2 x2 = 2ẋ δ̄x − 2ω 2 xδ̄x.

(10.98)
dt
Temos
ˆ   ˆ 
1 d
dt 2ẋ δ̄x − 2ω 2 xδ̄x + d ẋ2 − ω 2 x2 δt
  
δA = m
2 dt
ˆ   ˆ 
1 d
2ẋδ̄x − 2ẍδ̄x − 2ω 2 xδ̄x + d ẋ2 − ω 2 x2 δt
   
= m dt
2 dt
ˆ ˆ ˆ
d  1
−m dt ẍ + ω 2 x δ̄x + dt mẋδ̄x + m d ẋ2 − ω 2 x2 δt
    
=
dt 2
ˆ ˆ  
 2
 1 2 2 2

= −m dt ẍ + ω x δ̄x + d mẋδ̄x + m ẋ − ω x δt . (10.99)
2
Vamos usar a definição

δ̄x = δx − δtẋ,

mas apenas no termo de fronteira. Assim,


ˆ ˆ  
1
δA = −m dt ẍ + ω 2 x δ̄x + d mẋδx − mẋ2 δt + m ẋ2 − ω 2 x2 δt
  
(10.100)
2
ˆ ˆ  
1
= −m dt ẍ + ω 2 x δ̄x + d mẋδx − m ẋ2 + ω 2 x2 δt .
 
2

Neste caso, o princípio de Weiss implica em

ẍ + ω 2 x = 0, (10.101)

que é a equação de movimento do oscilador. Por outro lado, o termo de fronteira consiste em uma
combinação linear de δt e δx. O coeficiente de δx é denominado momento conjugado a x, dado por

p ≡ mẋ, (10.102)

que é o gerador da variação em x. O coeficiente de δt é o negativo da hamiltoniana

1
m ẋ2 + ω 2 x2 ,

H≡ (10.103)
2

212
que é a função energia do sistema. A hamiltoniana é a geradora da evolução temporal.

10.5.2 O campo escalar real


Vamos, agora, considerar a densidade lagrangiana

1
∂µ φ (x) ∂ µ φ (x) − m2 φ2 (x) ,

L (x) = (10.104)
2
em que φ (x) é um campo escalar real relativístico, invariante pelo grupo de Lorentz, cujas va-

riáveis independentes são as coordenadas xµ = x0 , x1 , x2 , x3 de um ponto x no espaço-tempo de
Minkowski.
Neste caso, a ação é dada por
ˆ ˆ
1
∂µ φ∂ µ φ − m2 φ2 dω,

A= Ldω = (10.105)
Ω Ω 2

em que dω = d4 x = dx0 dx1 dx2 dx3 é uma medida de volume do espaço-tempo, Ω é o volume,
e a integral torna-se, assim uma integral múltipla. A é um funcional cujo domínio é o espaço
de uma função de várias variáveis independentes. O operador ∂µ ≡ ∂/∂xµ define o campo de
"velocidades" ∂µ φ do campo φ.
Vamos definir as variações

δxµ = x̄µ − xµ , δφ = φ̄ (x̄) − φ (x) . (10.106)

No contexto do princípio de Hamilton, uma configuração de campo φ (x) é um extremo de A se


δA = 0, então não estamos mais tratando de curvas em um espaço de configuração, mas de
distribuições de campos em um volume Ω do espaço-tempo. No contexto do princípio de Weiss,
procuramos por configurações de campo tais que δA dependam apena da fronteira ∂Ω de Ω.
Vamos calcular
 ˆ  ˆ ˆ
1 µ 2 2 1 µ 2 2 1
∂µ φ∂ µ φ − m2 φ2 δdω.
  
δA = δ ∂µ φ∂ φ − m φ dω = δ ∂µ φ∂ φ − m φ dω +
2 2 2

A primeira variação de dω é dada por

δdω = dω̄ − dω
 µ   µ 
∂ x̄ ∂ x̄
= det dω − dω = det − 1 dω
∂xν ∂xν
 µ
∂δxµ
      
∂ µ µ ∂x
= det (x + δx ) − 1 dω = det + − 1 dω
∂xν ∂xν ∂xν
∂δxµ
   
= det δνµ + − 1 dω (10.107)
∂xν
Podemos escrever o determinante por

1 + ∂δx00 ∂δx0 ∂δx0 ∂δx0




∂x ∂x1 ∂x2 ∂x3
µ ∂δx1 1
∂δx1 ∂δx1
+ ∂δx
 
∂δx ∂x 0 1 ∂x1 ∂x2 ∂x3

det = ∂δx2 . (10.108)

2 2
∂δx ∂δx2
∂xν ∂x0 ∂x1 1 + ∂δx
∂x2 ∂x3

∂δx03 ∂δx3 ∂δx3 3

∂x ∂x1 ∂x2 1 + ∂δx
∂x3

Supondo-se as variações de primeira ordem, apenas os termos lineares em δx contribuem para o


determinante em ordem 1. Assim,

∂δxµ ∂δx0 ∂δx1 ∂δx2 ∂δx3 ∂δxµ


 
det ≈ 1 + + + + = 1 + . (10.109)
∂xν ∂x0 ∂x1 ∂x2 ∂x3 ∂xµ

213
Portanto,

∂δxµ
 
δω ≈ 1 + − 1 dω = ∂µ δxµ dω. (10.110)
∂xµ

Neste caso,
ˆ ˆ
1 1
δ ∂µ φ∂ µ φ − m2 φ2 dω + ∂µ φ∂ µ φ − m2 φ2 ∂ν (δxν ) dω
 
δA =
2 2
ˆ ˆ ˆ
1 µ 2 2 1 ν µ 2 2 1
dω∂ν ∂µ φ∂ µ φ − m2 φ2 δxν
    
= δ ∂µ φ∂ φ − m φ dω − δx ∂ν ∂µ φ∂ φ − m φ dω +
2 2 2
ˆ ˆ  
1 1
dω (δ − δxν ∂ν ) ∂µ φ∂ µ φ − m2 φ2 + dω∂ν ∂µ φ∂ µ φ − m2 φ2 δxν .
 
= (10.111)
2 2
A integral
ˆ   ˆ  
1 1
∂µ φ∂ µ φ − m2 φ2 δxν = ∂µ φ∂ µ φ − m2 φ2 δxν
 
dω∂ν dσnν (10.112)
Ω 2 ∂Ω 2

torna-se um termo na fronteira ∂Ω, em função do teorema de Gauss. Neste caso, nµ são as
componentes de um vetor ortogonal a ∂Ω em cada ponto. Vamos definir
 
1 µ 2 2
 ν
div ≡ ∂ν ∂µ φ∂ φ − m φ δx , (10.113)
2

que vem a ser um termo de divergência total. Então,


ˆ ˆ
1 ν µ 2 2

δA = dω (δ − δx ∂ν ) ∂µ φ∂ φ − m φ + dωdiv. (10.114)
2

Agora, vamos definir o operador

δ̄ ≡ δ − δxν ∂ν . (10.115)

Então, temos
ˆ ˆ
1
dω δ̄ ∂µ φ∂ µ φ − m2 φ2 + dωdiv.

δA = (10.116)
2

Precisamos calcular

δ̄ ∂µ φ∂ µ φ − m2 φ2 δ̄ (∂µ φ∂ µ φ) − m2 δ̄ φ2
 
=
= δ̄ (∂µ φ) ∂ µ φ + ∂µ φδ̄ (∂ µ φ) − 2m2 φδ̄φ
= δ̄ (∂µ φ) ∂ µ φ + ∂ µ φδ̄ (∂µ φ) − 2m2 φδ̄φ
= δ̄ (∂µ φ) ∂ µ φ + δ̄ (∂µ φ) ∂ µ φ − 2m2 φδ̄φ
= 2δ̄ (∂µ φ) ∂ µ φ − 2m2 φδ̄φ. (10.117)

214
A variação δ̄ (∂µ φ) é dada por

δ̄ (∂µ φ) = δ (∂µ φ) − δxν ∂ν ∂µ φ


∂ φ̄ ν ∂ φ̄ ∂xν
= − ∂ µ φ − δx ∂ν ∂µ φ = − ∂µ φ − δxν ∂ν ∂µ φ
∂ x̄µ ∂xν ∂ x̄µ
∂ φ̄ ∂ x̄ν ∂δxν
 
∂ φ̄ ∂ ν ν ν
= (x̄ − δx ) − ∂ µ φ − δx ∂ ν ∂µ φ = − − ∂µ φ − δxν ∂ν ∂µ φ
∂xν ∂ x̄µ ∂xν ∂ x̄µ ∂ x̄µ
∂δxν ∂ φ̄ ∂δxν
 
∂ φ̄ ν ∂ φ̄
= ν
δ µ − µ
− ∂µ φ − δxν ∂ν ∂µ φ = µ
− − ∂µ φ − δxν ∂ν ∂µ φ
∂x ∂ x̄ ∂x ∂xν ∂ x̄µ
∂ φ̄ ∂δxν
= ∂µ φ̄ − ∂µ φ − − δxν ∂ν ∂µ φ. (10.118)
∂xν ∂ x̄µ
Em primeira ordem,

∂ φ̄ ∂δxν ∂φ ∂δxν
≈ = ∂ν φ∂µ (δxν ) . (10.119)
∂xν ∂ x̄µ ∂xν ∂xµ
Então,

δ̄ (∂µ φ) = ∂µ (δφ) − ∂ν φ∂µ (δxν ) − δxν ∂ν ∂µ φ


= ∂µ (δφ) − ∂ν φ∂µ (δxν ) − δxν ∂µ ∂ν φ
= ∂µ (δφ) − ∂µ (δxν ∂ν φ) = ∂µ [δφ − δxν ∂ν φ]

= ∂µ δ̄φ . (10.120)

Neste caso,

δ̄ ∂µ φ∂ µ φ − m2 φ2 = 2∂µ δ̄φ ∂ µ φ − 2m2 φδ̄φ.


 
(10.121)

Na integral, temos
ˆ ˆ ˆ ˆ
1
dω 2∂µ δ̄φ ∂ µ φ − 2m2 φδ̄φ + dωdiv = dω ∂µ δ̄φ ∂ µ φ − m2 φδ̄φ + dωdiv
     
δA =
2
ˆ ˆ
µ µ 2
  
= dω ∂µ ∂ φδ̄φ − ∂µ ∂ φδ̄φ − m φδ̄φ + dωdiv
ˆ ˆ
dω − ∂µ ∂ µ φ + m2 φ δ̄φ + ∂µ ∂ µ φδ̄φ + dωdiv.
  
= (10.122)

Agora, vamos redefinir o termo de divergência:


 
ν 1 µ 2 2
 ν
div ≡ ∂ν ∂ φδ̄φ + ∂µ φ∂ φ − m φ δx . (10.123)
2

Portanto, escrevemos
ˆ ˆ  
1
δA = − dω ∂µ ∂ µ φ + m2 φ δ̄φ + dω∂ν ∂ ν φδ̄φ + ∂µ φ∂ µ φ − m2 φ2 δxν .
 
(10.124)
2

No termo de fronteira, usaremos δ̄ ≡ δ − δxλ ∂λ . Assim,


ˆ ˆ  
1
δA = − dω ∂µ ∂ µ φ + m2 φ δ̄φ + dω∂ν ∂ ν φδφ − ∂ ν φ∂λ φδxλ + ∂µ φ∂ µ φ − m2 φ2 δxν
 
2
ˆ ˆ    
1
= − dω ∂µ ∂ µ φ + m2 φ δ̄φ + dω∂ν ∂ ν φδφ − ∂ ν φ∂λ φ + δλν ∂µ φ∂ µ φ − m2 φ2 (10.125)
δxλ .
 
2
Nesta expressão, reconhecemos as equações da campo

∂µ ∂ µ φ + m2 φ = 0, (10.126)

215
conhecida como equação de Klein-Gordon. Do termo de fronteira, temos os geradores

π µ ≡ ∂ µ φ, (10.127)

referentes à variação π, e o tensor energia-momento

1
H µν ≡ ∂ µ φ∂ν φ + δνµ ∂λ φ∂ λ φ − m2 φ2 .

(10.128)
2

10.5.3 Campo eletromagnético


O campo eletromagnético livre, descrito pelo potencial 4-vetor Aµ = (φ, A), tem a densidade
lagrangiana

1
L (x) = − Fµν (x) F µν (x) , (10.129)
4
em que

Fµν ≡ ∂µ Aν − ∂ν Aµ (10.130)

são as componentes do tensor eletromagnético. Temos

∂A
Ei = Fi0 = −∂0 Ai + ∂i A0 =⇒ E= + ∇φ, (10.131)
∂t
e
1
Bi = ijk F jk = ijk ∂ j Ak =⇒ B = ∇ × A. (10.132)
2

A ação eletromagnética é dada por


ˆ
1
A=− dωFµν F µν , (10.133)
4 Ω

que é um funcional de 4 funções de 4 variáveis independentes. Vamos definir as variações

δxµ = x̄µ − xµ , δAµ = Āµ (x̄) − Aµ (x) . (10.134)

A primeira variação da ação é dada por


 ˆ  ˆ ˆ
1 1 1
δA = δ − dωFµν F µν = − δdωFµν F µν − dωδ (Fµν F µν ) . (10.135)
4 Ω 4 Ω 4 Ω

Temos o resultado

δω ≈ ∂µ δxµ dω, (10.136)

em primeira ordem, portanto


ˆ ˆ
1 λ µν 1
dωδ (Fµν F µν )

δA = − dω∂λ δx Fµν F −
4 Ω 4 Ω
ˆ ˆ ˆ
1  1 1
= − dω∂λ Fµν F µν δxλ + dωδxµ ∂µ (Fµν F µν ) − dωδ (Fµν F µν )
4 Ω 4 Ω 4 Ω
ˆ ˆ
1  1
= − dω∂λ Fµν F µν δxλ − dω (δ − δxµ ∂µ ) (Fµν F µν )
4 Ω 4 Ω
ˆ ˆ
1 1
= − dωdiv − dω δ̄ (Fµν F µν ) , (10.137)
4 Ω 4 Ω

216
em que

div = ∂λ Fµν F µν δxλ , δ̄ = δ − δxµ ∂µ .



(10.138)

Vamos calcular o termo

δ̄ (Fµν F µν ) = δ̄Fµν F µν + Fµν δ̄F µν = δ̄Fµν F µν + F µν δ̄Fµν = 2F µν δ̄Fµν . (10.139)

Assim,
ˆ ˆ
1 1
δA = − dωdiv − dωF µν δ̄Fµν . (10.140)
4 Ω 2 Ω

Por outro lado, temos

δ̄Fµν = δ̄ (∂µ Aν − ∂ν Aµ ) = δ̄ (∂µ Aν ) − δ̄ (∂ν Aµ ) . (10.141)

Mais uma vez, calculamos


∂ Āv
δ̄ (∂µ Aν ) = δ (∂µ Aν ) − δxλ ∂λ ∂µ Aν = − ∂µ Aν − δxλ ∂µ ∂λ Aν
∂ x̄µ
∂ Āv ∂xγ ∂ Āv ∂
= γ µ
− ∂µ Aν − δxλ ∂µ ∂λ Aν = γ ∂ x̄µ
(x̄γ − δxγ ) − ∂µ Aν − δxλ ∂µ ∂λ Aν
∂x ∂x̄ ∂x
∂δxγ ∂ Āv ∂δxγ

∂ Āv γ ∂ Āv
= γ
δ µ − µ
− ∂µ Aν − δxλ ∂µ ∂λ Aν = µ
− − ∂µ Aν − δxλ ∂µ ∂λ Aν
∂x ∂ x̄ ∂x ∂xγ ∂ x̄µ
∂µ (δAν ) − ∂γ Aν ∂µ (δxγ ) − δxλ ∂µ ∂λ Aν = ∂µ (δAν ) − ∂µ δxλ ∂λ Aν


∂µ δAν − δxλ ∂λ Aν = ∂µ δ̄Aν .

= (10.142)

Então,
 
δ̄Fµν = δ̄ (∂µ Aν ) − δ̄ (∂ν Aµ ) = ∂µ δ̄Aν − ∂ν δ̄Aµ . (10.143)

Temos

F µν δ̄Fµν = F µν ∂µ δ̄Aν − ∂ν δ̄Aµ = F µν ∂µ δ̄Aν − F µν ∂ν δ̄Aµ


    

= F µν ∂µ δ̄Aν − F νµ ∂µ δ̄Aν = F µν ∂µ δ̄Aν + F µν ∂µ δ̄Aν


   

= 2F µν ∂µ δ̄Aν .

(10.144)

De volta à integral,
ˆ ˆ
1
dωF µν ∂µ δ̄Aν

δA = − dωdiv −
4 Ω
ˆ ˆΩ ˆ
1 µν
dω∂µ F µν δ̄Aν ,

= − dωdiv − dω∂µ F δ̄Aν +
4 Ω
ˆ ˆΩ Ω
ˆ
1
dω∂µ F δAν − F ∂λ Aν δxλ +
µν µν
dω∂µ F µν δ̄Aν

= − dωdiv −
4 Ω Ω Ω

ou seja,
ˆ    ˆ
νλ νλ 1 λ αβ µ
δA = dω∂λ F δAν − F ∂µ Aν + δµ Fαβ F δx + dω∂µ F µν δ̄Aν . (10.145)
Ω 4 Ω

Aqui, identificamos as equações de campo

∂µ F µν = 0, (10.146)

217
os momentos covariantes conjugados a Aµ ,

π µν = F µν , (10.147)

e o tensor densidade de energia-momento (não simétrico)

1
H µν = F γµ ∂ν Aγ + δνµ Fαβ F αβ . (10.148)
4
Neste caso,
ˆ ˆ
dω∂λ π νλ δAν − H λµ δxµ + dω∂µ F µν δ̄Aν .

δA = (10.149)
Ω Ω

10.6 Resumo

10.7 Exercícios
1. Sejam dois pontos A e B em um plano. Qual a curva de comprimento mínimo que une A e
B?

2. (O problema da braquistócrona) Encontre a curva que une dois pontos A e B de modo que
o tempo que uma partícula leva para ir do ponto mais alto ao ponto mais baixo, a partir do
repouso e sob a ação da gravidade, é mínimo.

3. (O princípio de Fermat) O princípio de Fermat, em ótica geométrica, indica que o caminho


percorrido pela luz em um meio material minimiza a distância ótica entre seus pontos
inicial e final. Seja xi = xi (t) a representação paramétrica de uma curva γ ⊂ E3 . Enquanto
a distância infinitesimal entre dois pontos t e t + dt da trajetória γ é dada por
r
dxi dxi
q p p
ds = δij dxi dxj = dxi dxi = dt = dt ẋi ẋi ,
dt dt
em coordenadas cartesianas, a distância ótica é definida por
p
d` ≡ n (x) ẋi ẋi dt,

em que n é o índice de refração. Portanto, o princípio do Fermat minimiza o funcional


ˆ t1 p
`= n (x) ẋi ẋi dt.
t0

Calcule δ` e encontre a equação de movimento da trajetória.

4. Prove o Teorema 4.

218
Capítulo 11

Simetrias e leis de conservação

11.1 Grupos de transformações contínuas


Transformações de coordenadas no espaço de configuração Q deixam sua dinâmica invariante,
como vimos no capítulo 2 dessas notas. Este fato tem grande importância na construção geomé-
trica da dinâmica clássica, visto que as quantidades físicas relevantes devem ser invariantes por
difeomorfismos em Q. Essas quantidades são vetores, covetores, tensores e formas diferenciais
diversas. Transformações de coordenadas são exemplos de transformações passivas em Q, ou
seja, transformações que modificam apenas o pano de fundo da dinâmica. Uma transformação
passiva em Q muda apenas o sistema de coordenadas, que por sua vez muda as bases de vetores
e covetores em TQ, modificando assim suas componentes de forma determinada.
Por outro lado, existem transformações ativas, que mapeiam um ponto a outro do espaço
de configuração. Na maioria dos casos, uma transformação ativa tem um análogo passivo. No
capítulo 4 vimos um exemplo de transformações ativas em Q. Dada uma curva γ : q i = q i (t), sua
primeira variação com relação a uma curva de comparação γ̄ : q̄ i = q̄ i (t̄) é escrita por

δt = t̄ − t, δq i = q̄ i (t̄) − q i (t) , (11.1)

que pode ser escrita na forma de uma transformação ativa

t → t̄ = t + δt, (11.2a)
i i i i i

q (t) → q̄ (t̄) = q (t) + δq t, q . (11.2b)

Se ambas as curvas pertencerem a uma vizinhança aberta, as transformações acima são infinite-
simais. Na prática, desejamos que essas transformações representem uma deformação contínua
de γ em γ̄. São exemplos de transformações contínuas.
A forma mais geral de uma transformação contínua em Q é definida por um conjunto de m + 1
parâmetros (, λa ), em que a = 1, · · · , m. Com estes, definimos as transformações

t → t̄ = t̄ () , q i → q̄ i (t̄, λa ) = q̄ i (, λa ) , (11.3)

com as seguintes condições:

1. As funções t̄ () e q̄ i (, λa ) devem ser analíticas nas variáveis independentes.

2. As transformações devem ser conexas à identidade, ou seja,

(, λa ) → 0 =⇒ t̄ → t e q̄ i (t̄) → q i (t) . (11.4)

219
Se as variáveis transformadas são analíticas, podem ser expandidas em séries de Taylor:

dt̄
 + O 2 ,

t̄ = t + (11.5a)
d =0

dq̄ i dq̄ i

q̄ i = q i + λa + O 2 , λ2 .

 + a
(11.5b)
d ,λ=0
dλ ,λ=0

Considerando apenas termos de primeira ordem, temos



dt̄
t̄ = t + , (11.6a)
d =0
dq̄ i dt̄ dq̄ i dq̄ i

i i a i i dt̄
λa

q̄ = q + + λ = q + q̇ + (11.6b)
dt̄ d ,λ=0 dλa ,λ=0 d =0 dλa ,λ=0

Nestas, definimos

dq̄ i

dt̄ i
δt ≡ , δ̄q ≡ λa . (11.7)
d =0 dλa ,λ=0

Assim,

q̄ i = q i + q̇ i δt + δ̄q i . (11.8)

Neste caso, vemos que a forma final da transformação é dada por

dq i
δq i = δ̄q i + δt , (11.9)
dt
com

q̄ i = q i + δq i , t̄ = t + δt, (11.10)

em que
!
dq̄ i

dt̄ i i dt̄
δt = v, δq = q̇ v + ua . (11.11)
dv v=0 dv u,v=0 dua u,v=0

Portanto, transformações contínuas infinitesimais possuem a mesma forma analítica de primei-


ras variações. Neste caso, variações que dependem de um conjunto de parâmetros contínuos.

11.1.1 Evolução temporal


Vamos supor a transformação

t̄ = t + δt, (11.12)

mas que nenhuma transformação seja definida em q i . Ainda assim, (11.12) implica em

q̄ i = q i + δtq̇ i , (11.13)

ou seja,

δq i = δtq̇ i . (11.14)

Se δt = dt, então temos dt = t̄ − t e δq i = dtq̇ i = dq i , que determina a evolução temporal dos


pontos em Q em função do tempo.

220
Desejamos estudar as propriedades de composição de evoluções temporais. Primeiro, da equa-
ção (11.13) temos
 
d d
q̄ i = q i + δtq̇ i = q̄ i = q i + δt q i = 1 + δt qi . (11.15)
dt dt

Assim, podemos realizar uma evolução temporal ao atuar o operador diferencial

d
gt ≡ 1 + δt (11.16)
dt

em q i , ou seja,

q̄ i = gt q i . (11.17)

Dizemos que gt é membro de uma álgebra de Lie. Sejam gt1 e gt2 dois operadores de evolução
temporal. Notemos, primeiro, que a composição de duas evoluções temporais é uma evolução
temporal:

q i (t0 ) → q i (t1 ) → q i (t2 ) = gt2 q i (t1 ) = gt2 gt1 q i (t0 )


  
d d
= 1 + δt2 1 + δt1 qi
dt dt
 
d d d d
= q i + δt1 q i + δt2 q i + δt2 δt1 q i .
dt dt dt dt
O último termo é quadrático em δt, portanto ficamos apenas com os primeiros,

d i d
q̄ i = q i + δt1 q + δt2 q i = q i + (δt1 + δt2 ) q̇ i = q i + δtq̇ i , (11.18)
dt dt
em que δt = δt1 + δt2 . Segundo, a ordem da composição não altera o resultado final:

gt2 gt1 q i = gt1 gt2 q i =⇒ [gt1 , gt2 ] = 0, (11.19)

então dizemos que a álgebra da evolução temporal é abeliana.


Em terceiro lugar, a composição de k evoluções temporais é dada por
k  k
Y k d
G= gtp = (gt ) = 1 + δt , (11.20)
p=1
dt

quando todos os δt0 s forem iguais. No limite para k → ∞, temos


 k  k  
d ∆t d d
G = lim 1 + δt = lim 1+ = exp ∆t , ∆t = t − t0 . (11.21)
k→∞ dt k→∞ k dt dt

Este processo é conhecido como exponenciação da álgebra da evolução temporal, e dá origem a


uma transformação finita, com ∆t finito, e não infinitesimal. É simplesmente o operador que
carrega a evolução temporal de um tempo t0 a t. Dizemos que G é membro de um grupo de
transformações, neste caso o grupo de evolução temporal.
No argumento da exponencial, há o campo vetorial

d
Xt = = q̇ i ∂i , (11.22)
dt
que acompanha o termo ∆t. Na forma infinitesimal, temos

gt = 1 + δtXt = 1 + δtq̇ i ∂i = 1 + δq i ∂i . (11.23)

221
O campo vetorial Xt é denominado gerador da evolução temporal.

11.1.2 Translações

Vamos supor a transformação

q i (t) → q 0i (t) = q i (t) + ai , ai ∈ R. (11.24)

Esta operação é chamada translação, pois translada um ponto a outro de Q a tempo constante.
Neste caso,

δt = 0, δq i = ai . (11.25)

Duas translações resultam em uma translação, ou seja,

q i → q 0i = q i + ai → q 00i = q 0i + bi = q i + ai + bi = q i + ci ,

em que

ci = ai + bi .

Portanto, translações também formam um grupo. A natureza do grupo é a mesma da evolução


temporal: a ordem da composição não altera a translação total. Dizemos que um grupo cuja
ordem da composição não importa é um grupo abeliano.
O operador infinitesimal que carrega a operação de translação pode ser deduzido pela igual-
dade
i
 
0i i i i j ∂q j ∂
q =q +a =q +a = 1+a qi ,
∂q j ∂q j

ou seja,

∂ ∂
gq ≡ 1 + ai = 1 + δq i i , (11.26)
∂q i ∂q

que tem a mesma forma da evolução temporal, exceto que neste caso, δq i = ai . O operador gq é
um elemento da álgebra de translações, que também é abeliana, ou seja,

[gq1 , gq2 ] = 0. (11.27)

A composição de k translações iguais resulta em


 k
i ∂
j
q̄ = 1 + δq qi ,
∂q j

que no limite k → ∞ torna-se


k k
∆q j ∂
   
i j∂ i i j ∂
q̄ = lim 1 + δq q = lim 1+ q = exp ∆q q i = Gq q i , (11.28)
k→∞ ∂q j k→∞ k ∂q j ∂q j
em que
 
j ∂
Gq = exp ∆q (11.29)
∂q j

222
é o elemento do grupo de translações. Os operadores diferenciais


Pi ≡ (11.30)
∂q i

são os geradores de translações.

11.1.3 Rotações

O grupo de rotações, por ser um exemplo não abeliano, merece uma atenção maior. No espaço de
configuração, toda rotação pode ser descrita pela relação

q̄ i = Rij q j , (11.31)

em que R é uma matriz ortogonal n × n de determinante 1. O grupo de rotações em n dimensões


é chamado SO (n), o grupo ortogonal especial, que é isomórfico ao espaço das matrizes ortogonais
de determinante unitário. É uma propriedade das transformações ortogonais a preservação da
norma de vetores e da métrica de Q.
Vamos tomar o exemplo tridimensional, em que consideraremos primeiro uma rotação pas-
siva no eixo ẑ com ângulo θ. A matriz desta transformação é dada por

− sin θ
 
cos θ 0
Rz (θ) =  sin θ cos θ 0 . (11.32)
0 0 1

Para θ  1, podemos aproximar esta matriz pela sua forma infinitesimal de primeira ordem

−θ −θ
     
1 0 1 0 0 0 0
rz (θ) =  θ 1 0  =  0 1 0  +  θ 0 0  ≡ 1 + θJ z , (11.33)
0 0 1 0 0 1 0 0 0

em que

−1
 
0 0
Jz ≡  1 0 0 . (11.34)
0 0 0

Nos outros eixos, temos

rx (θ) = 1 + θJ x , ry (θ) = 1 + θJ y , (11.35)

em que
   
0 0 0 0 0 1
Jx ≡  0 0 −1  , Jy ≡  0 0 0 . (11.36)
0 1 0 −1 0 0

As matrizes J a são os geradores de rotações em três dimensões.


Uma rotação geral em três dimensões contém três parâmetros independentes, que podem ser
colecionados em um vetor θ ≡ (θ1 , θ2 , θ3 ). Na forma infinitesimal, temos

r (θ) = 1 + θ · J = 1 + θa J a = 1 + θ1 J 1 + θ2 J 2 + θ3 J 3 . (11.37)

223
Dizemos que o objeto

−θ3
 
0 θ2
W = θ a J a =  θ3 0 −θ1  , (11.38)
−θ2 θ1 0

é um elemento da álgebra de Lie de SO (3), denotado pelo símbolo so (3). A identidade 1, em


conjunto com os geradores J a , formam uma base para a álgebra so (3). A relação de comutação
de so (3) é facilmente calculada por

[J a , J b ] = abc J c , (11.39)

o que caracteriza a álgebra como não abeliana.

A exponenciação da álgebra é direta, dada por

R (θa ) = exp [θa J a ] . (11.40)

Vamos definir
p
θ ≡ θ 2 = |θ| , u ≡ θ/ |θ| .

A forma geral de um elemento do grupo é dado por

c + (1 − c) u1 u1 (1 − c) u1 u2 − su3 (1 − c) u1 u3 − su2
 

R =  (1 − c) u1 u2 − su3 c + (1 − c) u2 u2 (1 − c) u2 u3 − su1  , (11.41)


(1 − c) u1 u3 − su2 (1 − c) u2 u3 − su1 c + (1 − c) u3 u3

em que

c ≡ cos θ, s ≡ sin θ. (11.42)

Agora, vamos voltar ao espaço de configuração Q. Uma rotação finita é descrita por

q̄ i = Rij q j , (11.43)

enquanto a infinitesimal tem forma

1 ∂ q̄ i

q̄ i (ω) = q i + δq i (ω) = q i + δω ab , (11.44)
2 ∂ω ab ω=0

em que ω ab são as componentes de uma matriz n × n antissimétrica, com m = n2 − n /2 com-
ponentes independentes. Dizemos que m é o número de parâmetros independentes necessários
para parametrizar a transformação infinitesimal, que deve ter a forma

q̄ i (ω) = q i + δω ij q j . (11.45)

Neste caso,

1 ∂ q̄ i ∂ q̄ i

i ab 1
δq = δω = q j δω ab , considerando linearidade em q̄.
2 ∂ω ab ω=0 2 ∂ω ab ∂q j ω=0

Assim, definimos os geradores

∂ q̄ i

i
(Jab ) j ≡ , (11.46)
∂ω ab ∂q j ω=0

224
de modo que

∂ q̄ i

1 i j ab 1
(Jab ) j q δω = q j δω ab = q j δω ij . (11.47)
2 2 ∂ω ab ∂q j ω=0

A solução para a equação anterior é dada por


i
(Jab ) j ≡ δaj δbi − δbj δai , geradores na representação adjunta. (11.48)

11.2 Funcionais invariantes


11.2.1 Simetrias
Vamos supor uma transformação infinitesimal

t → t̄ = t + δt, q i (t) → q̄ i (t̄) = q i (t) + δq i , (11.49)

de modo que a ação nas antigas variáveis


ˆ
A = dtL (t, q, q̇) (11.50)

é levada à ação nas novas variáveis,


ˆ  
dq̄
Ā ≡ dt̄L t̄, q̄, . (11.51)
dt̄

Definição 26. Um funcional de ação A é denominado invariante sob as transformações


(11.49) se

Ā = A. (11.52)
A condição (11.52) pode ser escrita através do incremento

∆A = Ā − A = 0, (11.53)

exceto que, agora, estamos tratando de transformações passivas em Q. O mesmo tratamento


pode ser dado a transformações ativas, contudo, por questão de convenção, vamos nos ater a
transformações passivas.
Vamos supor que δt é função analítica de um único parâmetro λ0 , e que δq são funções analíti-
cas de m parâmetros λa , em que a toma os valores de 1 a m. Portanto, as transformações (11.49)
fazem parte da classe de transformações contínuas. Além disso, temos a condição

λ0 , λa → 0 δt = δq i = 0 t̄ = t, q̄ i = q i ,

=⇒ =⇒ (11.54)

para as quais dizemos que as transformações são conexas à identidade.


Se as transformações são contínuas e conexas à identidade, podemos expandir Ā em série de
Taylor:

 0 dĀ dĀ
Ā λa = A + 0
λa + O λ2 .

0
λ + a
(11.55)
dλ λ=0
dλ λ=0

Colecionando apenas termos até primeira ordem, temos

Ā ≈ A + δA, (11.56)

225
em que δA é uma primeira variação de A com relação às transformações (11.49), ou seja,

∆A ≈ δA, (11.57)

em primeira ordem da aproximação de Taylor.


Uma condição necessária para que ∆A seja nulo é, claramente, que δA seja nulo para as
transformações (11.49). É claro que esta condição não é suficiente, de modo que podemo definir
o que denominamos invariância fraca. A ação A é fracamente invariante sob as transformações
(11.49) se δA = 0. De agora em diante, sempre que nos referirmos a uma invariância, esta se
refere a uma invariância fraca. Uma invariância forte, em que ∆A = 0 é, claramente, também
uma invariância fraca.

Definição 27. As transformações que deixam um funcional invariante são chamadas sime-
trias deste funcional.

Simetrias contínuas e conexas à identidade, caracterizada pelos m + 1 parâmetros λ0 e λa ,


podem ser explicitamente colocadas na forma

dt̄
δt = λ0 ≡ Λ0 λ0
dλ0 λ=0
dq̄ i dq̄ i dq̄ i dt̄ dq̄ i

δq i = λ 0
+ λa
= λ 0
+ λa
dλ0 λ=0 dλa λ=0 dt̄ dλ0 λ=0 dλa λ=0
dq̄ i

i dt̄ 0
λa = δtq̇ i + δ̄q i ,

= q̇ λ +
dλ0 λ=0 dλa λ=0
em que

dq̄ i

i
δ̄q ≡ λa = Λia λa . (11.58)
dλa λ=0

Nessas expressões, definimos

dq̄ i

dt̄ i
Λ0 ≡ , Λa≡ , (11.59)
dλ0 λ=0 dλa λ=0

que são funções independentes dos parâmetros. Em resumo,

δt = Λ0 λ0 , δq i = q̇ i δt + δ̄q i = q̇ i Λ0 λ0 + Λia λa . (11.60)

11.3 O primeiro teorema de Noether

Vamos supor uma simetria contínua e conexa à identidade

δt = Λ0 λ0 , δq i = q̇ i Λ0 λ0 + Λia λa , (11.61)

de uma ação
ˆ
A = dtL (t, q, q̇) . (11.62)

Nós já calculamos a primeira variação da ação sob variações infinitesimais δt e δq. O resultado
vem a ser
ˆ   ˆ    
∂L d ∂L i i
 ∂L i ∂L i
δA = dt − δq − δtq̇ + d δq − q̇ − L δt . (11.63)
∂q i dt ∂ q̇ i ∂ q̇ i ∂ q̇ i

226
Para que δA seja zero, temos
ˆ   ˆ    
∂L d ∂L i i
 d ∂L i ∂L i
dt − δq − δtq̇ = − dt δq − q̇ − L δt ,
∂q i dt ∂ q̇ i dt ∂ q̇ i ∂ q̇ i
ou
     
∂L d ∂L i i
 d ∂L i ∂L i
i
− δq − δtq̇ =− δq − q̇ − L δt . (11.64)
∂q dt ∂ q̇ i dt ∂ q̇ i ∂ q̇ i

A equação (11.64) é denominada equação de Lie. Ela resulta na condição necessária para que δt
e δq i sejam simetrias de A.
Vamos usar a forma (11.61) para as transformações. Temos
     
∂L d ∂L i 0 i a i 0
 d ∂L i 0 i a
 ∂L i 0
− q̇ Λ 0 λ + Λ a λ − q̇ Λ 0 λ = − q̇ Λ0 λ + Λ a λ − q̇ − L Λ0 λ ,
∂q i dt ∂ q̇ i dt ∂ q̇ i ∂ q̇ i

ou seja,
   
∂L d ∂L i a d ∂L i a 0
− Λ a λ = − Λ λ + LΛ0 λ . (11.65)
∂q i dt ∂ q̇ i dt ∂ q̇ i a

Assim, vamos enunciar o

Teorema 5. Teorema de Noether para partículas (versão matemática 1)


´
Se δt e δq são simetrias contínuas da ação A = Ldt, há uma combinação linear das equações
de movimento que é igual a uma derivada temporal total.

Agora, vamos supor apenas uma das transformações. Para simplificar, vamos tomar aquela
com parâmetro λā , em que todos os demais parâmetros são iguais a zero. Neste caso, Λ0 = 0 e
Λia = Λiā . Assim,
   
∂L d ∂L i ā d ∂L i ā
− Λ ā λ = − Λ λ .
∂q i dt ∂ q̇ i dt ∂ q̇ i ā

Vamos supor que λa não dependem do tempo. Então,


       
∂L d ∂L i ā ā d ∂L i d ∂L ∂L i d ∂L i
− Λ ā λ = −λ Λ =⇒ − Λ = Λ . (11.66)
∂q i dt ∂ q̇ i dt ∂ q̇ i ā dt ∂ q̇ i ∂q i ā
dt ∂ q̇ i ā

Portanto, se os parâmetros não dependem do tempo, em vez de uma, temos várias combinações
lineares que resultam em derivadas temporais totais, uma para cada parâmetro das transfor-
mações.

Teorema 6. Primeiro teorema de Noether (versão matemática 2)


Para cada simetria contínua da ação, há uma combinação linear das equações de movimento
que é igual a uma derivada temporal total.

O caso de Λ0 6= 0 será tratado mais adiante, pois uma transformação no tempo resulta em
uma transformação nas coordenadas ainda que Λia sejam nulos.
Note que as equações de movimento não necessitam ser válidas, já que as simetrias podem
incluir transformações que não resultam em soluções de um problema variacional. Contudo, se
as simetrias forem analisadas em uma solução do princípio de Hamilton (ou de Weiss), temos

d ∂L ∂L
− i = 0, (11.67)
dt ∂ q̇ i ∂q

227
o que implica em
 
d ∂L i dΦa ∂L i
Λa = = 0, Φa ≡ Λ . (11.68)
dt ∂ q̇ i dt ∂ q̇ i a

Portanto, temos o

Teorema 7. Primeiro teorema de Noether para partículas (versão física 2)


As equações de movimento implicam na existência de uma constante de movimento para cada
simetria da ação.

As constantes de movimento são, neste caso, as funções Φa . São chamadas genericamente de


correntes próprias, nome emprestado da teoria de campos.

11.3.1 Conservação do momento linear

Vamos supor o caso em que a ação é invariante por translações. Neste caso, temos

δt = 0, δq i = ai , (11.69)

em que ai são constantes. Da equação de Lie (11.64), temos


     
∂L d ∂L i d ∂L i d ∂L i
− a = − a = − a. (11.70)
∂q i dt ∂ q̇ i dt ∂ q̇ i dt ∂ q̇ i

Vamos nos lembrar que

∂L
pi ≡ (11.71)
∂ q̇ i

são os momentos conjugados às coordenadas q i . Assim,


 
d ∂L ∂L dpi i d ∂L ∂L dpi
− i ai = a =⇒ − i = . (11.72)
dt ∂ q̇ i ∂q dt dt ∂ q̇ i ∂q dt

Se as equações de Euler-Lagrange são satisfeitas, ou seja,

d ∂L ∂L
− i = 0, (11.73)
dt ∂ q̇ i ∂q

então
dpi
= 0, (11.74)
dt
e os momentos conjugados são quantidades conservadas (pi = ci = constantes). Portanto, um
sistema invariante por translações tem todos os seus momentos conjugados constantes.
Note que

d ∂L ∂L dpi dpi ∂L dpi ∂L


i
− i = =⇒ − i = =⇒ = 0. (11.75)
dt ∂ q̇ ∂q dt dt ∂q dt ∂q i

Portanto, chegamos a um resultado já conhecido: se a lagrangiana não depende de uma das coor-
denadas generalizadas, ou seja, se ela for uma coordenada degenerada, seu momento conjugado
é uma constante do movimento.

228
11.3.2 Conservação do momento angular

Vamos supor simetria por uma rotação infinitesimal

q i → q̄ i = q i + ω ij q j , (11.76)

em que ω é uma matriz antissimétrica. Temos

δq i = ω ij q j , δt = 0, (11.77)

de modo que a equação de Lie


     
∂L d ∂L i i
 d ∂L i ∂L i
− δq − δtq̇ = − δq − q̇ − L δt (11.78)
∂q i dt ∂ q̇ i dt ∂ q̇ i ∂ q̇ i

torna-se
   
∂L d ∂L i d ∂L i
− δq = − δq . (11.79)
∂q i dt ∂ q̇ i dt ∂ q̇ i

Neste caso,

δq i = ω ij q j = Λimn ω mn , (11.80)

em que

dq̄ i

Λimn = . (11.81)
dω mn ω=0

Temos

d dω ij 1 i j
Λimn = ω ij qj = δm δn − δni δm
j
 
mn mn
qj = qj . (11.82)
dω dω 2

Se as equações de Euler-Lagrange são satisfeitas,

∂L d ∂L
− = 0, (11.83)
∂q i dt ∂ q̇ i

temos
 
d ∂L i
− Λ = 0, (11.84)
dt ∂ q̇ i mn

Portanto, as cargas

∂L i 1 i j 1
δn − δni δm
j

Jmn ≡ − i
Λmn = − pi δm qj = (qm pn − qn pm ) (11.85)
∂ q̇ 2 2

são constantes de movimento do sistema. A matriz J é denominada matriz de momento angular.

Vamos considerar o caso em que Q é o espaço euclidiano R3 , em um sistema de coordenadas


cartesiano, e a lagrangiana

1
mẋ2 + V (x) , x = x1 , x2 , x3 .

L= (11.86)
2

229
Neste caso, a matriz de momento angular torna-se
∂L i 1
Λmn = pi Λimn = pi δm
i j
δn − δni δm
j

Jmn = i
xj
∂ ẋ 2
1 1  1 k
= − pi ijk kmn xj = kmn kij xi pj = kmn (x × p) .
2 2 2
Temos assim,

J i ≡ ijk xj pk , (11.87)

que são as componentes do momento angular do sistema. Neste caso, a simetria por rotações
resulta na conservação do momento angular.

11.3.3 Conservação da energia


Vamos supor a seguinte transformação

δt = τ, δq i = 0, (11.88)

que é uma evolução temporal. Se δq i = 0, temos

δ̄q i = δq i − δtq̇ i = −δtq̇ i = −τ q̇ i , (11.89)

de modo que a equação de Lie


     
∂L d ∂L i i
 d ∂L i ∂L i
− δq − δtq̇ = − δq − q̇ − L δt (11.90)
∂q i dt ∂ q̇ i dt ∂ q̇ i ∂ q̇ i

torna-se
    
∂L d ∂L i
 d ∂L i
− τ q̇ = − q̇ − L τ . (11.91)
∂q i dt ∂ q̇ i dt ∂ q̇ i

Como τ é constante, temos


   
∂L d ∂L i d ∂L i
− q̇ = − q̇ − L , (11.92)
∂q i dt ∂ q̇ i dt ∂ q̇ i

Portanto, as equações de movimento

∂L d ∂L
− =0 (11.93)
∂q i dt ∂ q̇ i

resultam em
 
d ∂L i
q̇ − L = 0. (11.94)
dt ∂ q̇ i

Nos parênteses, temos a hamiltoniana

∂L i
H= q̇ − L, (11.95)
∂ q̇ i

de modo que (11.94) é uma lei de conservação para a energia:

dH
= 0. (11.96)
dt
Portanto, se a ação é invariante por evolução temporal, a hamiltoniana é uma quantidade

230
conservada no tempo.

11.4 Resumo

11.5 Exercícios

231
232
Capítulo 12

Formalismo hamiltoniano

12.1 Equações de Hamilton


12.1.1 Sobre a variedade tangente
Vamos relembrar alguns aspectos geométricos do formalismo lagrangiano. O pano de fundo é
o espaço de configuração Q das coordenadas generalizadas q i , no qual um sistema dinâmico
lagrangiano percorre uma trajetória γ : q i = q i (t) parametrizada pelo tempo t. A trajetória γ é
solução de um problema variacional envolvendo o funcional de ação
ˆ t2
L t, q i , q̇ i dt,

A= (12.1)
t1

que resulta nas equações de Euler-Lagrange

∂L d ∂L
− = 0. (12.2)
∂q i dt ∂ q̇ i

Vimos também que a função lagrangiana tem domínio TQ × R, em que TQ é a variedade



tangente, cujas coordenadas são dadas pelo conjunto q i , q̇ i de coordenadas e velocidades gene-
ralizadas.
A variedade tangente é um exemplo de construção geométrica denominado fibrado tan-
gente. De fato, TQ é o exemplo mais simples de fibrado, chamado trivial. Ele é construído
simplesmente com a "colagem" de espaços tangentes (cujas coordenadas são as velocidades ge-
neralizadas) em cada ponto do espaço de configuração. Em TQ, como já visto, as equações de
Euler-Lagrange, originalmente um sistema de n equações diferenciais ordinárias de segunda or-
dem em q i , assumem a forma de um sistema de 2n equações diferenciais ordinárias de primeira

ordem em q i , v i ,

dq i
= vi , (12.3a)
dt
∂2L k ∂2L
 
ij ∂L
v̇ j = W −1 − v − , (12.3b)
∂q j ∂v j ∂q k ∂v j ∂t
sendo W a matriz Hessiana

∂2L ∂2L
Wij ≡ = . (12.4)
∂ q̇ i ∂ q̇ j ∂v i ∂v j

A condição Hessiana det W 6= 0 é assumida por princípio.


Dada uma lagrangiana L, as variáveis v i podem ser encontradas resolvendo-se a segunda
equação, enquanto a primeira pode ser integrada para revelar a trajetória γ. Contudo, o lado

233
direito da equação (12.3b) tem uma forma altamente dependente da função lagrangiana, em ou-
tras palavras, não há um campo vetorial geral cujas componentes sejam iguais a esta expressão.
Ainda assim há uma vantagem teórica importante na utilização da formulação em TQ: as traje-

tórias na variedade tangente nunca se cruzam dado um conjunto de 2n dados iniciais q0i , v0i .

12.1.2 Equações de Euler-Lagrange em termos dos momentos

A variedade tangente não é a única opção de fibrado tangente que pode ser construída a partir
de Q e, de fato, não é a opção mais útil. Por exemplo, em vez de usar as velocidades v i , note que
os momentos pi conjugados às coordenadas q i são definidos por

∂L
pi = . (12.5)
∂ q̇ i

Com (12.5), as equações de EL podem ser escritas por

dq i
= q̇ i , (12.6a)
dt
dpi ∂L
= i. (12.6b)
dt ∂q

Exceto pelo fato de que os lados direitos não estão escritos em termos das variáveis q i e pi ,
as equações (12.6) possuem as mesmas propriedades das equações (12.3), mas são muito mais
simples.
Quanto à equação (12.6a), podemos tomar a equação (12.5) e invertê-la para obter as veloci-

dades q̇ i em função de t, q i , pi :

∂L
q̇ i = v i t, q j , pj ,

pi = =⇒ (12.7)
∂ q̇ i

então temos

dq i
= v i t, q j , pj

(12.8)
dt
como o primeiro conjunto de n EDO’s de primeira ordem.

Sobre a equação (12.6b), vamos denominar L̂ = L t, q i , v i (t, q, p) . Neste caso, temos

∂ L̂ ∂L ∂L ∂ q̇ j ∂L ∂ q̇ j ∂L ∂ q̇ j
= + = + pj = + pj .
∂q i ∂q i ∂ q̇ j ∂q i ∂q i ∂q i ∂q i ∂q i

Assim,

∂L ∂ L̂ ∂ q̇ j ∂ h i
i
= i − pj i = i L̂ (t, q, v) − pj v j (t, q, v) . (12.9)
∂q ∂q ∂q ∂q

A equação (12.6b) toma, então, a forma

dpi ∂ h i
= i L̂ (t, q, v) − pj v j (t, q, v) . (12.10)
dt ∂q

Ocorre que (12.6a) pode ser melhorada ainda mais. Note que

∂ L̂ ∂L ∂v j ∂v j ∂  ∂pj j ∂ ∂
pj v j − pj v j − δji v j = pj v j − v i ,
 
= j = pj = v =
∂pi ∂ q̇ ∂pi ∂pi ∂pi ∂pi ∂pi ∂pi

234
ou seja,

∂ L̂ ∂ ∂ h i
vi = − pj v j = − L̂ (t, q, v) − pj v j (t, q, v) .

+ (12.11)
∂pi ∂pi ∂pi

12.1.3 A função de Hamilton


Note que a expressão

L̂ (t, q, v) − pj v j (t, q, v) ,

que agora pode ser escrita explicitamente em função de (t, q, p), é igual a

L (t, q, p) − pj q̇ j (t, q, p) = −H (t, q, p) ,

em que H é a função hamiltoniana

H ≡ pi q̇ i − L (12.12)

escrita nas variáveis (t, q, p). Neste caso, dizemos que

H (t, q, p) = pi v i (t, q, p) − L (t, q, p) (12.13)

é a hamiltoniana canônica do sistema. Sem risco de confundir esta expressão com a hamiltoni-
ana original, que depende das variáveis (t, q, q̇), diremos a partir deste ponto que (12.13) define
simplesmente a hamiltoniana do sistema.

12.1.4 Equações canônicas de Hamilton


Com (12.13), temos

dq i ∂H
= , (12.14a)
dt ∂pi
dpi ∂H
=− i. (12.14b)
dt ∂q

Essas são as equações canônicas de Hamilton e formam a base para o formalismo hamiltoniano
da mecânica.
A seguir, escrevemos os passos para encontrar as equações de Hamilton a partir da lagrangi-
ana de um dado sistema:

1. Calcula-se pi em função de (t, q, q̇) a partir de (12.5).

2. Inverte-se a expressão encontrada no passo 1. para encontrar q̇ i = v i (t, q, p).

3. Insere-se q̇ i = v i (t, q, p) na lagrangiana L para se encontrar L̂ = L (t, q, p).

4. Utiliza-se (12.13) para a obtenção da hamiltoniana canônica H (t, q, p).

5. As derivadas de H determinam as equações canônicas (12.14).

Os passos 3 e 4 podem ser invertidos, ou seja, a função hamiltoniana pode ser encontrada em
termos de (t, q, q̇) e, em seguida, substitui-se q̇ i = v i (t, q, p) na expressão obtida.

235
12.2 Partícula livre
No caso da partícula livre, temos a função lagrangiana

1
L= mẋi ẋi , (12.15)
2

em coordenadas cartesianas xi . Os momentos conjugados são dados por

∂L
pi = = mẋi . (12.16)
∂ ẋi
Por outro lado, temos

1 1
H (x, ẋ) = pi ẋi − L = mẋi ẋi − mẋi ẋi = mẋi ẋi , (12.17)
2 2
que é exatamente a função lagrangiana original, que consiste apenas na energia cinética.
A expressão (12.16) pode ser invertida para obtermos
pi
ẋi = . (12.18)
m
Substituindo (12.18) em (12.17), temos

1 pi pi p2
H (x, p) = m = , p2 ≡ pi pi . (12.19)
2 mm 2m

As equações de Hamilton são dadas por

∂H pi
ẋi = = , (12.20)
∂pi m

que é exatamente a equação (12.18), e

∂H
ṗi = − =0 =⇒ ẍi = 0. (12.21)
∂xi

12.3 Oscilador harmônico simples


Vamos verificar o caso da lagrangiana

1 1
L= mẋ2 − mω 2 x2 , ẋ2 = ẋi ẋi , x2 = xi xi . (12.22)
2 2
Temos os momentos conjugados

∂L
pi = = mẋi , (12.23)
∂ ẋi
que resultam na expressão
pi
ẋi = (12.24)
m
para as velocidades generalizadas.
A função hamiltoniana pode ser calculada como no exemplo anterior, mas sabemos que ela é
simplesmente a energia cinética mais o potencial harmônico:

1 1
H (x, ẋ) = mẋ2 + mω 2 x2 . (12.25)
2 2

236
Neste caso, a substituição (12.24) em (12.25) resulta em

p2 1
H (x, p) = + mω 2 x2 . (12.26)
2m 2

O primeiro par das equações de Hamilton resultam em

∂H pi
ẋi = = , (12.27)
∂pi m

como já devemos esperar. Por outro pado,

∂H
ṗi = − = −mω 2 xi . (12.28)
∂xi
Esta é a equação dinâmica do sistema. Derivando-se (12.27), temos

ṗi = mẍi ,

então

mẍi = −mω 2 xi ,

que reproduz a equação de movimento do oscilador harmônico

ẍi + ω 2 xi = 0. (12.29)

12.4 Partícula carregada em campo eletromagnético

Na seção 4 do capítulo 3 estudamos o caso de uma partícula carregada em um campo eletromag-


nético externo. Em coordenadas cartesianas, a lagrangiana é dada por

1
L= mẋi ẋi − qΦ + q ẋj Aj , i = 1, 2, 3. (12.30)
2
Vamos encontrar a função hamiltoniana e as equações canônicas deste sistema.

Primeiro, os momentos conjugados às coordenadas xi são dados por

∂L
pi = = mẋi + qAi . (12.31)
∂ ẋi

Esta expressão deve ser invertida para que encontremos ẋi em termos de (x, p). Assim,

1 i
ẋi = p − qAi .

(12.32)
m
Vamos substituí-la em (12.30):
1 1 i  1 1 i
p − qAi p − qAi Ai

L̂ = L (q, p) = m (pi − qAi ) − qΦ + q
2 m m m
1 i i 1
p − qAi (pi + qAi ) − qΦ
i
 
= p − qA [pi − qAi + 2qAi ] − qΦ =
2m 2m
1 2 2 2

= p − q A − qΦ. (12.33)
2m

237
A função hamiltoniana é dada por

H = pi ẋi − L̂
1 2 1
p − qpi Ai − p2 − q 2 A2 + qΦ
 
=
m 2m
p2 qpi Ai p2 q 2 A2
= − − + + qΦ,
m m 2m 2m
ou seja,

p2 q
H (x, p) = + (qAi − 2pi ) Ai + qΦ. (12.34)
2m 2m

Neste caso, a equação canônica (12.14a) torna-se

∂H 1 i
ẋi = p − qAi ,

= (12.35)
∂pi m

que é exatamente a equação (12.32). A equação para pi é dada por


∂H q ∂  ∂Φ
qAj − 2pj Aj − q i
 
ṗi = − i
=− i
∂x  2m ∂x  ∂x
q ∂Aj j j j ∂Aj
 ∂Φ
= − q i A + qA − 2p −q i
2m ∂x ∂xi ∂x
q ∂Aj j ∂Φ
p − qAj − q i ,

= i
m ∂x ∂x
ou seja,

q ∂Aj j ∂Φ
p − qAj − q i .

ṗi = i
(12.36)
m ∂x ∂x

Vamos derivar (12.35), obtendo a expressão

dAi
 
1
ẍi = ṗi − q
m dt
∂Ai ∂Ai
 
1 q ∂Aj j ∂Φ
p − qAj − q − q j ẋj

= −q
m m ∂xi ∂xi ∂t ∂x
i i
∂Ai ∂Ai
    
1 ∂Aj j ∂Φ ∂A ∂A q ∂Aj ∂Φ
= q ẋ − q −q − q j ẋj = − ẋ j
− −
m ∂xi ∂xi ∂t ∂x m ∂xi ∂xj ∂xi ∂t
i i
 
q ∂Φ ∂A ∂Aj ∂A
= F ij ẋj − − , F ij ≡ − .
m ∂xi ∂t ∂xi ∂xj
Dados

∂Φ ∂Ai
Fij ≡ εijk B k , Ei = − − , (12.37)
∂xi ∂t

temos

mẍi = q εijk ẋj Bk + E i ,



(12.38)

que são as componentes da força de Lorentz

F = ma = q (v × B + E) . (12.39)

238
12.5 Partícula em um campo central
Vamos trabalhar com a lagrangiana

1 h 2  i
L= m ṙ + r2 θ̇2 + r2 sin2 θ φ̇2 − V (r) . (12.40)
2
Temos os momentos conjugados
∂L
pr = = mṙ, (12.41a)
∂ ṙ
∂L
pθ = = mr2 θ̇, (12.41b)
∂ θ̇
∂L
= m r2 sin2 θ φ̇,

pφ = (12.41c)
∂ φ̇
que podem ser invertidos:
pr
ṙ = , (12.42a)
m

θ̇ = , (12.42b)
mr2

φ̇ = . (12.42c)
mr2 sin2 θ
A função hamiltoniana é dada por

1 h 2  i
H =K +V = m ṙ + r2 θ̇2 + r2 sin2 θ φ̇2 + V (r) , (12.43)
2
que pode ser reescrita por

p2r p2θ p2φ


H= + + + V (r) . (12.44)
2m 2mr2 2mr2 sin2 θ
O primeiro par de equações de Hamilton, como de costume, resultará nas equações (12.42).
O segundo par, contudo,
" #
∂H 1 p2φ
ṗr = − = 2
p + − V 0 (r) , (12.45a)
∂r mr3 θ sin2 θ
∂H p2φ cos θ
ṗθ = − = , (12.45b)
∂θ mr2 sin3 θ
∂H
ṗφ = − = 0. (12.45c)
∂φ
Sob condições iniciais φ (0) = 0 e pφ (0) = 0 em t = 0, essas equações tornam-se

p2θ
ṗr = − V 0 (r) , (12.46a)
mr3
ṗθ = 0, (12.46b)
ṗφ = 0. (12.46c)

12.6 O espaço de fase


O passo mais fundamental para a construção do formalismo hamiltoniano vem a ser a inversão
das expressões para os momentos conjugados,

∂L
p= = φ (t, q, q̇) ⇐⇒ q̇ = v (t, q, p) . (12.47)
∂ q̇

239
Todas as velocidades generalizadas, portanto, devem ser substituídas por suas respectivas ex-
pressões v (t, q, p), em função dos momentos conjugados. Vamos supor o caso de uma única di-
mensão: para que a expressão p = φ (t, q, q̇) seja inversível, é necessário que

∂φ
6= 0,
∂ q̇

ou seja, a função φ deve conter a velocidade q̇. A generalização desta condição para o caso n-
dimensional resulta em
   2 
∂φi ∂ L
det = det = det Wij 6= 0, (12.48)
∂ q̇ j ∂ q̇ i ∂ q̇ j

que é a já conhecida condição Hessiana.


A condição Hessiana é não apenas condição necessária, mas também suficiente para que a
inversão (12.47) seja implementada. Isto pode ser visto facilmente, já que se det W 6= 0, a função
lagrangiana possuirá uma parte quadrática nas velocidades generalizadas, o que implica em
expressões para os momentos que dependam sempre de pelo menos uma velocidade.
A transformação

q̇ i → pi , L (t, q, q̇) → H (t, q, p) = pi v i − L (t, q, v)

é um exemplo das denominadas transformações de Legendre. Mais sobre as propriedades ma-


temáticas dessas transformações podem ser estudadas em livros clássicos de mecânica clássica,
como em Goldstein et. al., contudo desejamos ter um ponto de vista mais geométrico dessas
transformações.
Podemos ver a transformação do formalismo lagrangiano para o hamiltoniano como uma
transformação da variedade tangente para um outro tipo de fibrado tangente. Note que esta
transformação não afeta o parâmetro temporal ou as coordenadas generalizadas, mas apenas as
velocidades. Portanto, a parte que corresponde ao espaço de configuração do sistema permanece
inalterado, enquanto o espaço tangente em cada ponto é substituído. A matriz Hessiana é a ma-
triz jacobiana da transformação de Legendre, garantindo que ela seja suave e inversível: cada
velocidade dá lugar a um momento e cada momento se relaciona a uma única velocidade. Por-
tanto tal transformação é bijetiva, caracterizando um isomorfismo. Tal isomorfismo é o mesmo
que é característico entre espaços vetoriais e espaços de funcionais lineares duais definidos em
uma mesma variedade.

Vamos supor um espaço de configuração Q de coordenadas generalizadas q i . Sabemos que
cada ponto q ∈ Q pode ser relacionado a um espaço tangente Tq Q. Os elementos de Tq Q são
vetores tangentes a Q, por exemplo, o vetor velocidade de uma curva q i = q i (t),

d ∂
v= = q̇ i i ≡ v i ∂i , (12.49)
dt ∂q

em que v i ≡ q̇ i são as suas componentes. O conjunto de todos os vetores em todos os pontos


do espaço de configuração formam em si um espaço vetorial, desta vez de campos vetoriais,
que também denominamos Tq Q. Como já vimos, a variedade tangente TQ é construída com a
colagem de espaços tangentes a cada ponto de Q, de modo que suas coordenadas são dadas pelo

conjunto ordenado q i , q̇ i .
Os momentos conjugados, por outro lado, são componentes de um covetor, ou 1-formas dife-
rencial, que é um funcional linear com domínio em Tq Q. O espaço das 1-formas é denominado
espaço cotangente T∗q Q, e é um espaço vetorial dual a Tq Q. Toda 1-forma pode ser escrita na
forma

α = αi dq i , (12.50)

240

desde que q i seja o sistema de coordenadas em Q. A funções αi são as componentes de α na
 i
base q . Assim, temos uma 1-forma

∂L i
p = pi dq i = dq = φi dq i , (12.51)
∂ q̇ i

que conhecemos como a forma lepagiana fundamental. A transformação de Legendre q̇ i ↔ pi ,


sendo bijetora, implica na existência de uma 1-forma diferencial para cada vetor tangente ao es-
paço de configuração. Neste caso, existe um isomorfismo Tq Q ↔ T∗q Q. Como v e q são conjugados
entre si, ou seja, as componentes q i e pi são canonicamente conjugadas, dizemos que este é um
isomorfismo canônico.
Portanto, o formalismo hamiltoniano de um sistema depende da existência do isomorfismo
canônico Tq Q ↔ T∗q Q. Este isomorfismo é dado pela transformação de Legrendre que, por sua
vez, depende da existência de uma matriz Hessiana não degenerada. Dado o espaço cotangente
T∗q Q, a construção de um fibrado tangente distinto da variedade tangente é direta. Basta proce-
dermos à "colagem" de T∗q Q ao espaço de configuração em cada ponto q ∈ Q. O conjunto de todos
os pontos de Q e de seus respectivos espaços cotangentes é chamado de espaço de fase T∗ Q. Se
 i 
q ⊂ Q é um sistema de coordenadas em Q, o conjunto q̇ i ⊂ Tq Q é induzido como um sis-
tema de coordenadas no espaço tangente e, neste caso, pi = ∂L/∂ q̇ i ⊂ T∗q Q são as coordenadas


induzidas do espaço cotangente. Então, temos q i , pi ⊂ T∗ Q como as coordenadas induzidas no




espaço de fase do sistema.


Assim como as equações (12.3) são as equações de Euler-Lagrange na variedade tangente
TQ, as equações de Hamilton (12.14) são as mesmas equações, desta vez escritas no espaço de
fase T∗ Q.

12.7 Os parênteses de Poisson


Toda função F (t, q, p) definida em T∗ Q é um observável físico do sistema. Exemplos de obser-
váveis são a energia mecânica, o momento angular, mas também são observáveis a posição e
momento do sistema em um dado instante de tempo. Em um instante t = t0 , o par canônico
[q (t0 ) , p (t0 )], que determina um ponto no espaço de fase, é denominado um estado físico do

sistema. Dado um sistema de coordenadas q i ⊂ Q, um estado físico é caracterizado pelas
coordenadas q i , pi ⊂ T∗ Q.


Vamos supor um observável F (t, q, p). A dinâmica de F é determinada pela diferencial

∂F i ∂F ∂F
dF = dq + dpi + dt. (12.52)
∂q i ∂pi ∂t

As equações de Hamilton, por outro lado, podem ser escritas por

∂H ∂H
dq i = dt, dpi = − dt. (12.53)
∂pi ∂q i

Com (12.53) em (12.52),


 
∂F ∂H ∂F ∂H ∂F ∂F ∂H ∂H ∂F ∂F
dF = dt − dt + dt = − i dt + dt. (12.54)
∂q i ∂pi ∂pi ∂q i ∂t ∂q i ∂pi ∂q ∂pi ∂t

A estrutura entre parênteses é recorrente no formalismo hamiltoniano. É denominada pa-


rênteses de Poisson. Dados dois observáveis A e B em T∗ Q, os parênteses de Poisson (PP)
entre A e B são definidos por

∂A ∂B ∂B ∂A
{A, B} ≡ − i . (12.55)
∂q i ∂pi ∂q ∂pi

241
Com os PP, a dinâmica (12.54) pode ser escrita por

∂F
dF = {F, H} dt + dt, (12.56)
∂t
ou ainda
∂F
Ḟ = {F, H} + . (12.57)
∂t
A estrutura dos parênteses de Poisson é fundamental na dinâmica canônica. Eles consistem,
como mostra a definição (12.55), em um operador diferencial com duas entradas:

{•, •} : ΦT∗ Q × ΦT∗ Q → ΦT∗ Q ,

ou seja, leva pares de funções em T∗ Q em observáveis. As seguintes propriedades são facilmente


deduzíveis da definição (12.55). Sejam A, B e C observáveis,

1. Bilinearidade: ∀a, b ∈ R, {C, aA + bB} = a {C, A} + b {C, B}.

2. Antissimetria: {A, B} = − {B, A}.

3. Regra de Leibniz: {A, BC} = {A, B} C + B {AC}.

4. Identidade de Jacobi: {A, {B, C}} + {B, {C, A}} + {C, {A, B}} = 0.

Com as propriedades acima, podemos reescrever as equações de Hamilton por

q̇ i = q i , H ,

ṗi = {pi , H} . (12.58)

12.7.1 Exemplo: oscilador harmônico simples


Vamos observar como calcular com o formalismo hamiltoniano em exemplos específico. No caso
do oscilador harmônico, temos a hamiltoniana

p2 1
H (x, p) = + mω 2 x2 . (12.59)
2m 2
As equações de Hamilton podem ser escritas por

p2
 
1
ẋi =
 i
x , H = xi , + mω 2 x2
2m 2
1  i 2 1
x , p + mω 2 xi , x2

= propriedade 1
2m 2
1 j i
= p x , pj propriedade 3
m
1 j i pi
= p δj = exercício 1, (12.60)
m m
como esperado. Por outro lado,

p2
 
1
ṗi = {pi , H} = pi , + mω 2 x2
2m 2
p2
   
1
= pi , + pi , mω 2 x2
2m 2
1
mω 2 pi , x2

=
2
= mω 2 xj pi , xj = −mω 2 xj xj , pi
 
propriedade 2
= −mω 2
xj δij 2
= −mω xi . (12.61)

242
12.7.2 Exemplo: partícula em campo eletromagnético
Vamos analisar a hamiltoniana

p2 q
H (x, p) = + (qAi − 2pi ) Ai + qΦ. (12.62)
2m 2m
Temos
p2
 
i
 i i q j
ẋ = x ,H = x, + (qAj − 2pj ) A + qΦ
2m 2m
1  i 2 q  i 1  i 2 q  i j
x , (qAj − 2pj ) Aj =

= x ,p + x ,p − x , pj A
2m 2m 2m m
pi q 1 i
− Ai = p − qAi .

= (12.63)
m m m
Ainda,
p2
 
q j
ṗi = {pi , H} = pi , + (qAj − 2pj ) A + qΦ
2m 2m
q 
pi , (qAj − 2pj ) Aj + q {pi , Φ}

=
2m
q  ∂Φ
pi , (qAj − 2pj ) Aj − q i

= exercício 2
2m ∂x
q q
{pi , (qAj − 2pj )} Aj + (qAj − 2pj ) pi , Aj − q∂i Φ

=
2m 2m
q2 q
{pi , Aj } Aj + (qAj − 2pj ) pi , Aj − q∂i Φ

=
2m 2m
q2 j q
(qAj − 2pj ) ∂i Aj − q∂i Φ

= − (∂i Aj ) A − exercício 2
2m 2m
q2 q q j
− (∂i Aj ) Aj + pj (∂i Aj ) − q∂i Φ = p − qAj ∂i Aj − q∂i Φ.

= (12.64)
m m m

12.7.3 Exemplo: partícula em um campo central


Vamos trabalhar com a hamiltoniana

p2r p2θ p2φ


H= + + + V (r) . (12.65)
2m 2mr2 2mr2 sin2 θ
Temos
( )
p2 p2θ p2φ
ṙ = {r, H} = r, r + + + V (r)
2m 2mr 2
2mr2 sin2 θ
1  2 1 pr
= r, pr = pr {r, pr } = . (12.66)
2m m m
( )
p2r p2θ p2φ
θ̇ = {θ, H} = θ, + + + V (r)
2m 2mr2 2mr2 sin2 θ
1  2 1 pθ
= 2
θ, pθ = 2
pθ {θ, pθ } = . (12.67)
2mr mr mr2
( )
p2r p2θ p2φ
φ̇ = {φ, H} = φ, + + + V (r)
2m 2mr2 2mr2 sin2 θ
1 1 pφ
φ, p2φ =

= 2 2 pφ {φ, pφ } = . (12.68)
2
2mr sin θ 2
mr sin θ mr sin2 θ
2

243
Ainda,
( )
p2r p2θ p2φ
ṗr = {pr , H} = pr , + + + V (r)
2m 2mr2 2mr2 sin2 θ
p2θ p2φ
   
1 1
= pr , 2 + p r , + {pr , V (r)}
2m r 2m sin2 θ r2
p2 p2φ
= − θ 3 {pr , r} − {pr , r} + ∂r V {pr , r}
mr mr3 sin2 θ
p2θ p2φ
= + − ∂r V. (12.69)
mr 3
mr3 sin2 θ
( )
p2r p2θ p2φ
ṗθ = {pθ , H} = pθ , + + + V (r)
2m 2mr2 2mr2 sin2 θ
p2φ p2φ
 
1 1
= pθ , 2 =− 2 {pθ , sin θ}
2mr 2
sin θ mr sin3 θ
p2φ cos θ p2φ cos θ
= − 2 {p θ , θ} = . (12.70)
mr sin3 θ mr2 sin3 θ

ṗφ = {pφ , H} = 0. (12.71)

12.7.4 Exemplo: relações canônicas envolvendo momento angular

O momento angular em três dimensões

J ≡ x × p, J i = εijk xj pk , (12.72)

é um observável físico recorrente em mecânica. Vamos deduzir os parênteses de Poisson de J


com relação a outros observáveis físicos de interesse.
Primeiro, vamos calcular os PP com as variáveis dinâmicas x e p do espaço de fase:
 i j  i jkl
x , ε xk pl = εjkl xk xi , pl = εjki xk = εijk xk .

x ,J = (12.73a)
 j
 jkl
jkl
 k
j·l jl
pi , J = pi , ε xk pl = {pi , xk } ε pl = pi , x ε k pl = εi pl (12.73b)

Toda função escalar no espaço de fase deve ser construída a partir das posições e momentos
com o produto escalar. Seja F um escalar em T∗ Q, temos
 
2
F = ax2 + bp2 + cxi pi + O x4 , p4 , (x · p) , (12.74)

em que a, b e c são escalares, que devem ter também a forma acima. Os PP fundamentais são
dados por
 i 2
J , x = 2xj J i , xj = 2εijk xj xk = 0.

(12.75a)
 i 2
J , p = 2pj J i , pj = −2εjil pj pl = 2εijl pj pl = 0.

(12.75b)
 i j  i j
J , x pj = J , x pj + xj J i , pj = 0.

(12.75c)

Portanto, os PP do momento angular com toda função escalar F são nulos:


 i
J , F = 0. (12.76)

244
Já um campo vetorial deve, obrigatoriamente, ter a forma

u = ax + bp + cx × p = ax + bp + cJ, (12.77)

em que a, b e c são escalares. Os PP com x e p estão calculados em (12.73), então precisamos


calcular
 i j  imn
xm pn , J j = εimn pn xm , J j + εimn xm pn , J j
 
J ,J = ε
= εi·n
 m j
+ εimn xm pn , J j = εi·n mjk
xk + εimn xm εnjl pl

m pn x , J m pn ε
= −εilk εkjm + εimn εnjl xm pl = −δ ij δ lm + δ im δ lj + δ ij δ ml − δ il δ mj xm pl
 

= δ im δ lj − δ il δ mj xm pl = εijk εkml xm pl = εijk J k ,




ou seja,
 i k
J , J = εijk Jk . (12.78)

A expressão (12.78) é a conhecida expressão para a álgebra do momento angular em três dimen-
sões. Neste caso,
 i j  i
J , axj + bpj + cJ j = a J i , xj + b J i , pj + c J i , J j
  
J ,u =
= aεijk xk + bεijk pk + cεijk Jk ,

que resulta em
 i j
J , u = εijk uk . (12.79)

12.8 Resumo

12.9 Exercícios
Demonstre as propriedades de 1 a 4. Mostre também que
 i j 
1. q , q = 0, {pi , pj } = 0 e q i , pj = δji .
   
2. q i , F = q i , pj (∂F/∂pj ) = ∂F/∂pi e {pi , F } = pi , q j ∂F/∂q j = −∂F/∂q i .

245
246
Capítulo 13

Formalismo simplético
hamiltoniano

13.1 As coordenadas unificadas do espaço de fase


As coordenadas generalizadas q e os momentos conjugados p são, portanto, coordenadas {q, p} do
espaço de fase T∗ Q. Uma grande vantagem do formalismo hamiltoniano é o fato de que posições
e momentos são tratados em igual posição no formalismo. Isto permite uma notação unificada.
Vamos introduzir as coordenadas ξ I , tais que

ξI = qi , I = 1, 2, · · · , n (13.1a)
I
ξ = pi , I = n + 1, n + 2, · · · , 2n , (13.1b)

portanto, as coordenadas ξ representam o conjunto ordenado q i , pi . As equações de Hamilton
são dadas por

∂H ∂H
q̇ i = , ṗi = − , (13.2)
∂pi ∂q i

que podem ser escritas por


∂H
ξ˙I = , I = 1, 2, · · · , n (13.3a)
∂ξ I+n
∂H
ξ˙I = − I−n , I = n + 1, n + 2, · · · , 2n . (13.3b)
∂ξ
Contudo, esta ainda não é uma forma desejável.
Vamos introduzir a matriz antissimétrica
 
0n×n −1n×n
Ω≡ , (13.4)
1n×n 0n×n

chamada de matriz simplética, com componentes ωIJ . Note que as equações canônicas (13.3)
podem ser escritas por

ωIJ ξ˙J = ∂I H, I = 1, 2, · · · , n, n + 1, · · · , 2n. (13.5)

A matriz (13.4) possui uma inversa


 
0n×n 1n×n
Ω−1 ≡ , (13.6)
−1n×n 0n×n

247
de componentes ω IJ . Alternativamente, as equações (13.4) são escritas por

ξ˙I = ω IJ ∂J H. (13.7)

Com a introdução das coordenadas ξ I e da matriz Ω, passamos a tratar o espaço de fase T∗ Q


como uma variedade diferenciável. Neste caso, ξ I ⊂ T∗ Q define um sistema de coordenadas,


denominadas coordenadas canônicas fundamentais. A dinâmica de um sistema de hamiltoniana


H = H (t, q, p) = H (t, ξ) é definida pelas equações de Hamilton na forma (13.7): as soluções
dessas equações formal trajetórias em T∗ Q.

13.1.1 O campo vetorial hamiltoniano


Vamos analisar o operador diferencial

d ∂ ∂ ∂
= q̇ i i + ṗi + , (13.8)
dt ∂q ∂pi ∂t

que age em observáveis do espaço de fase. Usando as equações de Hamilton (13.2), temos

dF ∂F ∂H ∂H ∂F ∂F ∂F
= i − i + = {F, H} + , (13.9)
dt ∂q ∂pi ∂q ∂pi ∂t ∂t

dado um observável F . Este mesmo operador pode ser escrito na notação ξ:

d ∂
= ξ˙I ∂I + , (13.10)
dt ∂t
que com as equações (13.7) tornam-se

dF ∂F
= (∂I F ) ω IJ (∂J H) + . (13.11)
dt ∂t
Comparando-se (13.11) com (13.9),

{F, H} = (∂I F ) ω IJ (∂J H) , (13.12)

ou seja, temos uma expressão para os PP em notação simplética.


——————————————————————–

Exercício: Mostre que

∂A ∂B ∂B ∂A
{A, B} = (∂I A) ω IJ (∂J B) = i
− i . (13.13)
∂q ∂pi ∂q ∂pi
——————————————————————-
As equações de Hamilton ξ˙I = ω IJ ∂J H definem um campo vetorial, cujas componentes são as
velocidades ξ˙I :

∆ ≡ ξ˙I ∂I , (13.14)

que aparece em (13.10),

d ∂
=∆+ . (13.15)
dt ∂t
Este campo vetorial é também escrito por

∆ = ξ˙I ∂I = ω IJ ∂J H ∂I = {•, H} ,

(13.16)

248
com o uso das equações de Hamilton. Dizemos, portanto, que ∆ é um campo vetorial hamiltoni-
ano.
As equações de Hamilton em si podem ser escritas nas formas

dξ I
L∆ ξ I = ξ˙I = = ∆ ξI = ξI , H .
 
(13.17)
dt
em que a última expressão é a derivada de Lie com relação a ∆. Por outro lado, podemos também
escrever a dinâmica temporal de um observável por

∂F ∂F
L∆ F = Ḟ = ∆ (F ) + = {F, H} + . (13.18)
∂t ∂t

Em especial, as relações canônicas fundamentais são escritas na forma

ξ I , ξ J = ∂K ξ I ω KL ∂L ξ J = δK
I KL J
ω δL = ω IJ .
  
(13.19)

13.1.2 Exemplo: oscilador harmônico simples n dimensional

Vamos revisitar o oscilador harmônico simples em n dimensões, cuja hamiltoniana é dada por

1
p2 + mkq 2 ,

H= (13.20)
2m
em que k é a constante característica do oscilador. Para escrever esta hamiltoniana em termos
de ξ I , precisamos de uma transformação de variáveis:

qi pi
qi → √ , pi → √ ,
k m

de modo que

1 2
p + q2 .

H=
2
Esta hamiltoniana é reescrita por

1 2 1 1
H (ξ) = ξ = ξ I ξI = gIJ ξ I ξ J . (13.21)
2 2 2

A matriz gIJ são componentes de uma métrica que define o produto escalar ξ 2 e, para este exem-
plo, vamos supor que ela seja igual a δIJ .
Temos
1 I 1 1
ξ˙I ξI , H = ξ , δJK ξ J ξ K = δJK ξ J ξ I , ξ K + δJK ξ K ξ I , ξ J
  
=
2 2 2
1 1
= δJK ω IK ξ J + δJK ω IJ ξ K = δJK ω IJ ξ K ,
2 2
ou seja,

ξ˙I = δJK ω IJ ξ K . (13.22)

Uma maneira simples de se resolver estas equações consiste em escrevê-las na forma matri-
cial

ξ̇ = Λξ, λKI ≡ δJK ω IJ , (13.23)

249
em que λKI são as componentes da matriz Λ. Note que

ξ − ξ 0 = Λξ 0 (t − t0 )

é a forma finita para (13.23) com t → t0 , de modo que, tomando-se t0 = 0,

ξ (t) = (1 + Λt) ξ 0 , t → 0. (13.24)

Para t finito, podemos compor a relação infinitesimal acima e veremos que

ξ (t) = exp (Λt) ξ 0 , (13.25)

em que ξ 0 é um vetor constante que contém os dados iniciais do sistema. A exponencial deve ser
lida por
∞ k
X (Λt)
exp (Λt) = . (13.26)
k!
k=0

Note que
I I
Λ2 K
= λIJ λJK = δM J ω IM δN K ω JN = ω IJ ω JK = Ω2 K
= −δ IK , (13.27)

enquanto
I
Λ3 K
= λIJ λJP λP I J P I P I
K = ω J ω P λK = −δP λK = −λK . (13.28)

Assim, Λ2 = −1 e Λ3 = −Λ. Vemos também que Λ4 = 1 e Λ5 = Λ e assim por diante. Assim,


∞ k
X (Λt) 1 1 1 1
exp (Λt) = = 1 + Λt + Λ2 t2 + Λ3 t3 + Λ4 t4 + Λ5 t5 + · · ·
k! 2 3! 4! 5!
k=0
1 1 1 1
= 1 + Λt − 1t2 − Λt3 + 1t4 + Λt5 + · · ·
 2 3!  4!  5! 
1 2 1 4 1 3 1 5
= 1 1 − t + t − ··· + Λ t − t + t + ···
2 4! 3! 5!
= 1 cos t + Λ sin t. (13.29)

Neste caso,

ξ (t) = ξ 0 cos t + Λξ 0 sin t. (13.30)

A solução nas coordenadas (q, p) originais é dada por

pi0
q i (t) = q0i cos ωt + sin ωt, (13.31a)

pi (t) = p0i cos ωt − mωq0i sin ωt. (13.31b)

13.2 Fluxos hamiltonianos


O vetor ∆ = ξ˙I ∂I = ξ I , H ∂I é um exemplo de campo vetorial hamiltoniano. Vetores que são


definidos tendo T∗ Q como o espaço base formam um espaço vetorial tangente a T∗ Q, o qual não
nomearemos. A forma geral desses vetores é dada por

∂ ∂
X = X I ∂I = Xqi + Xpi , (13.32)
∂q i ∂pi

250
então as derivadas em q e p formam uma base vetorial. Sempre que houver um observável
G ∈ ΦT∗ Q tal que

X I ≡ ξI , G ,

(13.33)

dizemos que X é um campo vetorial hamiltoniano. Neste caso, o observável G não necessaria-
mente coincide com a hamiltoniana H = pq̇ − L de um sistema mecânico, mas ainda assim ela é
denominada a hamiltoniana relativa ao campo X.
Todo campo vetorial, por exemplo X, gera famílias de trajetórias γ em T∗ Q. Para determinar
a trajetória devida a um observável G, basta construir seu campo vetorial hamiltoniano X =

X I ∂I , em que X I = ξ I , G , e atribuir um parâmetro, digamos , para a trajetória. Neste caso, γ
é solução das EDO’s

dξ I
= X ξ I = X J ∂J ξ I = X I = ξ I , G .
  
(13.34)
d
Note que, em forma infinitesimal, (13.34) pode ser escrita por

ξ I () − ξ I (0 ) = ( − 0 ) X ξ I ,
 
(13.35)

ou seja, tomando 0 = 0,

ξ I () = (1 + X) ξ0I . (13.36)

A composição finita de sucessivas transformações (13.36) torna-se

ξ I () = exp [X] ξ0I , (13.37)

que define uma transformação finita que leva um ponto ξ I (0 = 0) a um segundo ponto ξ I () em
γ. Neste caso, dizemos que γ é um fluxo hamiltoniano, e o campo vetorial X é seu gerador
algébrico, enquanto G é seu gerador analítico.
A evolução temporal é um exemplo de fluxo hamiltoniano, desta vez gerado pela hamiltoniana
H = pq̇ − L de um sistema físico. Dado H ξ I , seu campo vetorial é dado por ∆ = ξ˙I ∂I , com


ξ˙I = ξ I , H . O fluxo hamiltoniano neste caso é definido por




ξ I (t) = exp [(t − t0 ) ∆] ξ I (t0 ) . (13.38)

Nem todo fluxo em T∗ Q é hamiltoniano. Por exemplo, vamos considerar o sistema

q̇ = qp, ṗ = −qp.

Não existe uma função hamiltoniana tal que q̇ = {q, H} e ṗ = {p, H}. No entanto, este é um
legítimo sistema dinâmico em T∗ Q, com soluções

CeCt C
q (t) = q0 , p (t) = p0 .
p0 + q0 eCt p0 + q0 eCt

Neste caso, C = q + p é uma constante de movimento.


Podemos usar os PP para verificar se um sistema dinâmico é hamiltoniano. A condição ne-
cessária e suficiente é dada por

d n o n o
{F, G} = Ḟ , G + F, Ġ , (13.39)
dt
para quaisquer F, G ∈ ΦT∗ Q . A prova é dada pelo seguinte procedimento. Se existe uma hamil-

251
toniana tal que

Ḟ = {F, H} + ∂t F, (13.40)

então
d
{F, G} = {{F, G} , H} + ∂t {F, G} . (13.41)
dt
Usando a identidade de Jacobi, temos

{{F, G} , H} = {F, {G, H}} + {{F, H} , G} . (13.42)

O segundo termo em (13.40) resulta em

∂t {F, G} = ∂t ∂I F ω IJ ∂J G = ∂t (∂I F ) ω IJ ∂J G + ∂I F ω IJ ∂t (∂J G)


 

= ∂I (∂t F ) ω IJ ∂J G + ∂I F ω IJ ∂J (∂t G) = {∂t F, G} + {F, ∂t G} . (13.43)

Assim,
d
{F, G} = {F, {G, H}} + {{F, H} , G} + {∂t F, G} + {F, ∂t G}
dt
= {{F, H} , G} + {∂t F, G} + {F, {G, H}} + {F, ∂t G}
= {{F, H} + ∂t F, G} + {F, {G, H} + ∂t G}
n o n o
= Ḟ , G + F, Ġ . (13.44)

13.3 Formulação variacional hamiltoniana

13.3.1 Forma padrão


As equações de Hamilton podem ser descritas também a partir de um problema variacional. A
ação é dada por
ˆ
A = L̂dt, L̂ = L (t, q, p) , (13.45)

ou seja, basta escrever a função lagrangiana em termos das coordenadas do espaço de fase. Note
que

H = pi v i (t, q, p) − L̂ (t, q, p) ,

portanto,

L̂ = pi v i (t, q, p) − H (t, q, p) .

Assim,
ˆ
 i 
A= pi v (t, q, p) − H (t, q, p) dt,

que podemos escrever de forma simples como


ˆ ˆ
 i
pi dq i − Hdt .
  
A= pi q̇ − H dt = (13.46)

A expressão θH ≡ pi dq i − Hdt é uma 1-forma diferencial, que denominaremos a 1-forma

252
hamiltoniana fundamental. Neste caso, temos
ˆ
A = θH . (13.47)

Desejamos calcular a primeira variação desta ação, denominada ação canônica, devida às trans-
formações infinitesimais

δq i = q̄ i (t̄) − q i (t) , δpi = p̄i (t̄) − pi (t) , δt = t̄ − t. (13.48)

Casa conjunto de transformações é considerado independente. Neste caso, temos


ˆ ˆ
δA = δ θH = δθH ,

em que

δθH = δ pi dq i − Hdt = δpi dq i + pi δ dq i − δHdt − Hδ (dt) .


  

Sabemos de cálculos anteriores que δ (dt) = d (δt). Além disso, temos o resultado

d  d (δt) i
δ q̇ i = δq i − q̇ (13.49)
dt dt

Contudo, vamos tomar certo cuidado com o termo pi δ dq i :

pi δ dq i = pi δ q̇ i dt = pi δ q̇ i dt + pi q̇ i δdt
 

= pi δ q̇ i dt + pi q̇ i d (δt)
 
d i
 d (δt) i
= pi δq − q̇ dt + pi q̇ i d (δt)
dt dt
= pi d δq i − d (δt) pi q̇ i + pi q̇ i d (δt) = pi d δq i .
 
(13.50)

Portanto,

= δpi dq i + pi d δq i − δHdt − Hd (δt)



δθH
= δpi dq i + d pi δq i − dpi δq i − δHdt − d (Hδt) + dHδt


= d pi δq i − Hδt + δpi dq i − dpi δq i − δHdt + δtdH.




Começamos por δH:

dH ∂H ∂H
δH = δt + i δq i + δpi ,
dt ∂q ∂pi

então,
∂H ∂H
δtdH − δHdt = δtdH − dHδt − i δq i dt − δpi dt
∂q ∂p
    i
∂H ∂H
= − i dt δq i + − dt δpi .
∂q ∂pi

Neste caso,
 
 
i
 i ∂H i i ∂H
δθH = d pi δq − Hδt + δpi dq − dpi δq + − i dt δq + − dt δpi
∂q ∂pi
   
∂H ∂H
= d pi δq i − Hδt + dq i − dt δpi − dpi + i dt δq i .

(13.51)
∂pi ∂q

253
Na ação,
ˆ ˆ ˆ   ˆ  
i i ∂H ∂H
dpi + i dt δq i .

δA = δθH = d pi δq − Hδt + dq − dt δpi − (13.52)
∂pi ∂q

Ao aplicar os princípio de Hamilton, ou de Weiss, precisamos que as duas últimas integrais


de (13.52) sejam nulas. Assim, as condição necessárias são dadas por

∂H ∂H
dq i − dt = 0, dpi + dt = 0, (13.53)
∂pi ∂q i

que são as equações canônicas de Hamilton em forma total.

13.3.2 Formalismo simplético

Esta formulação variacional pode ser colocada na forma simplética. Note que

ξ I ωIJ dξ J = pi dq i − q i dpi = pi dq i − d q i pi + pi dq i = 2pi dq i − d q i pi .


 

Assim, podemos escrever


 
1 I 1 i
θH = pi dq i − Hdt = ξ ωIJ dξ J − Hdt + d q pi ,
2 2
ou
ˆ   ˆ  
1 I 1 i
A= ξ ωIJ dξ J − Hdt + d q pi .
2 2

O termo de fronteira não altera as equações de movimento. Portanto, podemos substituir a ação
por
ˆ ˆ  
1 I J
A = θH = ξ ωIJ dξ − Hdt . (13.54)
2

Neste caso,
1 I 1
δξ ωIJ dξ J + ξ I ωIJ δ dξ J − δHdt − Hδ (dt)

δθH =
2 2
1 I 1 I
δξ ωIJ dξ + ξ ωIJ d δξ J − δHdt − Hd (δt)
J

=
2 2 
1 I J 1 I J 1
− dξ I ωIJ δξ J − δHdt − d (Hδt) + dH (δt)

= δξ ωIJ dξ + d ξ ωIJ δξ
2 2 2
 
1 I 1 1
= d ξ ωIJ δξ − Hδt + δξ I ωIJ dξ J − dξ J ωJI δξ I + (dHδt − δHdt)
J
2 2 2

 
1 I 1 1
= d ξ ωIJ δξ J − Hδt + δξ I ωIJ dξ J + δξ I ωIJ dξ J + (dHδt − δHdt)
2 2 2
 
1 I
= d ξ ωIJ δξ J − Hδt + δξ I ωIJ dξ J + (dHδt − δHdt) .
2
Ainda:
dH
δH = δt + δξ I ∂I H, (13.55)
dt

254
então
 
1 I
δθH = d ξ ωIJ δξ − Hδt + δξ I ωIJ dξ J + dHδt − dHδt − dtδξ I ∂I H
J
2
 
1 I
ξ ωIJ δξ − Hδt + δξ I ωIJ dξ J − dt∂I H .
J

= d (13.56)
2

É imediato ver que a solução deste problema variacional é dada por

ωIJ dξ J − dt∂I H = 0, (13.57)

que reproduz exatamente as equações canônicas (13.5).

13.4 Geometria simplética


Dos elementos geométricos importantes já foram apresentados. São o campo vetorial hamiltoni-
ano

∆ = ξ˙I ∂I = ξ I , H ∂I ,

(13.58)

e a 1-forma hamiltoniana fundamental

θ0 ≡ p = pi dq i . (13.59)

Para fins de facilitar a notação, vamos denominar o espaço de fase por M ≡ T∗ Q. O campo
vetorial hamiltoniano pertence ao espaço vetorial tangente a M, que denominaremos TM, en-
quanto θ0 é um elemento do espaço cotangente T∗ M. Como vimos, θ0 é apenas um exemplo de
uma 1-forma diferencial, que tem a forma geral α = αI dξ I .
No sistema de equações canônicas (13.57),

dξ J
ωIJ − ∂I H = 0,
dt
vemos o que parece ser uma equação envolvendo componentes de 1-formas diferenciais. Por
exemplo,

dH = ∂I Hdξ I , (13.60)

é a 1-forma que representa a diferencial ordinária da função hamiltoniana. As componentes da


diferencial de uma função são os gradientes desta função com relação às variáveis do espaço de
fase.
As equações de Hamilton, multiplicadas por dξ I e somando-se em I, resultam em

dξ J dξ J ∂H
dξ I ωIJ − dξ I ∂I H = 0 =⇒ dH = dξ I ωIJ + dt (13.61)
dt dt ∂t
Nossa intenção, agora, é descobrir qual o elemento geométrico à direita de (13.61).

13.4.1 2-formas diferenciais


Uma 2-forma diferencial A é uma aplicação bilinear antissimétrica que toma pares de vetores
em T∗ Q e leva a funções escalares em T∗ Q, ou seja,

A : TM ∧ TM → ΦT∗ Q , (13.62)

255
em que ΦT∗ Q é o espaço de observáveis escalares em T∗ Q. O produto ∧ indica um produto
antissimétrico, ou seja,

A (X, Y ) = −A (Y, X) , (13.63)

para todo X, Y ∈ V (T∗ Q). Como toda aplicação bilinear, ela pode ser representada por uma
matriz AIJ ,

AIJ = A (∂I , ∂J ) , (13.64)

em que ∂I é uma base de TM.


Vamos supor dois vetores X = X I ∂I e Y = Y I ∂I em TM. Utilizando-se a equação acima,
temos

A (X, Y ) = A X I ∂I , Y J ∂J = A (∂I , ∂J ) X I Y J = AIJ X I Y J ,



(13.65)

ou seja, a aplicação de uma 2-forma em dois vetores é realmente um escalar. A matriz ωIJ é a
representação matricial de uma 2-forma diferencial, chamada 2-forma simplética ω. Para melhor
compreendermos o que esta 2-forma representa, precisamos de outros elementos da geometria
diferencial simplética.

13.4.2 Bases

As bases de vetores em TM são induzidas pelo sistema de coordenadas de M, ou seja, se ξ I ⊂

M é uma sistema de coordenadas, ∂I ≡ ∂/∂ξ I ∈ TM é uma base do espaço tangente. Por
outro lado, as bases do espaço cotangente de M são dadas pelas diferenciais dξ I ⊂ T∗ M,


como mostra a diferencial (13.60). As bases se relacionam por um isomorfismo inverso, ou seja,

dξ I (∂J ) ≡ δJI (13.66)

define a ação da base de 1-formas em uma base do espaço tangente. 2-formas diferenciais, bem
como outras formas, possuem bases induzidas pelo sistema de coordenadas do espaço de fase.
Vetores podem ser escritos por X = X I ∂I , enquanto 1-formas são dadas por α = αI dξ I . Con-
tudo, para construir bases para formas diferenciais de ordem superior, precisamos definir dois
produtos que envolvem relações entre vetores e formas diferenciais.

13.4.3 Produto interno


O produto interno é uma operação definida primeiramente entre uma 1-forma e um vetor. Sejam
α ∈ T∗ M e X ∈ TM, temos

iX α = hα|Xi = α (X) , (13.67)

em que à esquerda mostramos duas notações para o produto interno. Usaremos prioritariamente
a notação iX α, que representa o produto interno entre α e X (i representa a expressão "internal
product"). A notação hα|Xi é bastante usada em mecânica quântica e é conhecida por notação de
Dirac.
Se X = X I ∂I e α = αI dξ I , temos

iX α = α (X) = α X I ∂I = X I α (∂I ) = X I αJ dξ J (∂I ) = X I αJ δIJ = αI X I .



(13.68)

Este resultado já é esperado, visto que o produto interno entre uma 1-forma e um vetor é a
aplicação desta forma no vetor, que é um escalar.

256
A notação iX α é adequada pois podemos definir o produto interno entre 2-formas e vetores.
Seja A ∈ T∗2 M, em que usaremos T∗2 M para denotar o espaço de todas as 2-formas diferenciais.
O produto interno de A com uma vetor X é definido por

iX A ≡ A (•, X) , (13.69)

ou seja, é a aplicação de A em X ocupando a segunda entrada. Podemos também supor um


segundo vetor Y ∈ TM, de modo que

iY iX A = A (Y, X) . (13.70)

Este produto interno duplo é apenas a aplicação de A em ambos os vetores, obedecendo a ordem
do produto.

13.4.4 Produto exterior

O produto exterior é uma das maneiras de se construir formas diferenciais de ordem superior,
a partir de 1-formas. Sejam α, β ∈ T∗ M, com α = αI dξ I , β = βI dξ I . Vamos definir o produto
exterior pela expressão

1
α ∧ β ≡ αI dξ I ∧ βJ dξ J = αI βJ dξ I ∧ dξ J = (αI βJ − αJ βI ) dξ I ∧ dξ J
 
(13.71)
2
em que

dξ I ∧ dξ J = −dξ J ∧ dξ I . (13.72)

Assim, o produto exterior é antissimétrico. O resultado tem como base o produto dξ I ∧ dξ J ,


que forma uma matriz 2n × 2n antissimétrica do produto de duas bases independentes. As
componentes 1/2 (αI βJ − αJ βI ) formam uma matriz também 2n × 2n. O resultado à direita de
(8.88) é uma 2-forma escrita em termos de uma base local.
O produto exterior, portanto, é uma aplicação tal que

(• ∧ •) : (T∗ M) ∧ (T∗ M) → T∗2 M, (13.73)

ou seja, leva duplas de 1-formas a 2-formas antissimetricamente.


Desde que o resultado de um produto exterior entre 1-formas é uma 2-forma, podemos nos
perguntar como se calcula o produto interno com um vetor X. Este cálculo resulta na propriedade

iX (α ∧ β) = (iX α) β − α (iX β) , (13.74)

que é uma 1-forma. Dado um segundo vetor Y , temos

iY iX (α ∧ β) ≡ (iX α) (iY β) − (iY α) (iX β) . (13.75)

13.4.5 Derivada exterior

Nós já vimos que a diferencial ordinária de um observável do espaço de fase é uma 1-forma cujas
componentes são o gradiente do observável, ou seja,

F ∈ ΦT ∗ Q =⇒ dF = ∂I F dξ I . (13.76)

257
A generalização da diferencial ordinária é denominada derivada exterior. Podemos defini-la
considerando dois observáveis F e G. Note que o objeto

α = F dG = (F ∂I G) dξ I (13.77)

é uma 1-forma. Neste caso, a derivada exterior de uma 1-forma é definida por

α = F dG =⇒ dα ≡ dF ∧ dG. (13.78)

Sendo dF = ∂I F dξ I e dG = ∂I Gdξ I , temos

dα = ∂I F dξ I ∧ ∂J Gdξ J
 

1
= ∂I F ∂J G dξ I ∧ dξ J = (∂I F ∂J G − ∂J F ∂I G) dξ I ∧ dξ J , (13.79)
2
que é claramente uma 2-forma de componentes (dα)IJ = 1/2 (∂I F ∂J G − ∂J F ∂I G).

Dado α = αI dξ I , temos

dα = dαI ∧ dξ I = (∂I αJ ) dξ I ∧ dξ J , (13.80)

que é uma segunda forma de definição da derivada exterior. Então, enquanto as componentes
da derivada exterior de um escalar é um gradiente, as componentes da derivada exterior de uma
1-forma é um rotacional:
1
(dα)IJ = (∂I αJ − ∂J αI ) . (13.81)
2
Na expressão (13.78), vemos que

F = cte =⇒ dα = 0, (13.82)

ou seja, se α = dG, então dα = 0, assim, d2 G = 0. Quando dA = 0 para alguma forma diferencial


A, dizemos que A é uma forma fechada. O lema de Poincaré nos diz (por enquanto nos esqui-
varemos da prova), que toda forma fechada é uma derivada exterior de uma forma de ordem
imediatamente inferior.

Podemos ver que d2 = 0 também com o seguinte cálculo:

d (dα) = d (∂I αJ ) dξ I ∧ dξ J = (∂K ∂I αJ ) dξ K ∧ dξ I ∧ dξ J = 0, (13.83)

pois as derivadas ∂K ∂I são simétricas, enquanto o produto dξ K ∧ dξ I ∧ dξ J é antissimétrico.

Por outro lado, seja α ∈ T∗ M, o lema de Poincaré nos diz que

dα = 0 =⇒ α = dF (13.84)

para algum observável F ∈ ΦT∗ Q .

Em componentes, interpretamos os resultados (13.83) e (13.84) sob a ótica do cálculo vetorial


da seguinte forma. Se F é um escalar, então dF tem como componentes um gradiente. Por
outro lado, d2 F é uma 2-forma, cujas componentes formam um rotacional. Neste caso, d2 F = 0
é equivalente ao teorema ∇ × (∇F ) = 0, ou seja, um rotacional de um gradiente é sempre nulo.
Por outro lado, se α é uma 1-forma, dα é uma 2-forma cujas componentes são as componentes de
um rotacional. Portanto, d2 α é uma 3-forma (observe (13.83)), cujas componentes são ∇ · (∇ × α),
ou seja, o divergente de um rotacional. Neste caso, d2 α = 0 implica no teorema já bastante
conhecido: o divergente de um rotacional é sempre nulo, em três dimensões.

258
13.4.6 A 2-forma simplética

Com a derivada e o produto exterior, temos duas formas de se construir formas diferenciais
superiores a partir de 1-formas. Isto pode ser facilmente observado em bases locais. Seja α uma
1-forma, temos

α = αI dξ I (13.85)

em uma base dξ I ⊂ T∗ M. Uma 2-forma A, por outro lado, pode ser escrita por


A = AIJ dξ I ∧ dξ J . (13.86)

Neste caso, dξ I ∧ dξ J ⊂ T∗2 M é uma base bilinear antissimétrica no espaço das 2-formas. Uma


N forma diferencial, seguindo este mesmo procedimento, é dada por


∧N
Γ = ΓIJ···Z dξ I ∧ dξ J ∧ · · · ∧ dξ z ≡ ΓN (dξ) . (13.87)
| {z }
N vezes

Dentre todas as formas diferenciais, duas são as mais importantes para a geometria simplé-
tica. A primeira é a 2-forma simplética ω, cujas componentes ωIJ são encontradas nas equações
canônicas

dH = dξ I ωIJ ξ˙J . (13.88)

Assim, ω pode ser escrito por

ω = ωIJ dξ I ∧ dξ J . (13.89)

Em (13.88), ξ˙I são as componentes do campo vetorial hamiltoniano ∆ = ξ˙I ∂I . Por outro lado,
sabemos que dH é uma 1-forma, o que é evidenciado pela presença da base dξ I em (13.88). O
lado direito dessa equação é uma 1-forma, precisamente o produto interno de ω com ∆:
 
i∆ ω = ω (•, ∆) = ω •, ξ˙J ∂J = ω (•, ∂J ) ξ˙J
= ωM N dξ M (•) ∧ dξ N (∂J ) ξ˙J = ωM N dξ M δJN ξ˙J = dξ M ωM N ξ˙N
= dξ I ωIJ ξ˙J . (13.90)

Portanto, dizemos que

∂H
dH = i∆ ω + dt (13.91)
∂t
é a forma intrínseca, ou global, ou ainda geométrica das equações de Hamilton.
Podemos encontrar como ω pode ser escrito em termos de coordenadas locais (q, p). Note que
a expansão mais geral na base das 2-formas em termos de dq e dp é dada por

1
ω = ωIJ dξ I ∧ dξ J = ω ji dq i ∧ dpj + aij dq i ∧ dq j + bij dpi ∧ dpj .

(13.92)
2
Tomando o produto interno com ∆, temos

i∆ ω = ωIJ i∆ dξ I ∧ dξ J − ωIJ dξ I ∧ i∆ dξ J
 

= ωIJ i∆ dξ I ∧ dξ J − ωJI dξ J ∧ i∆ dξ I
 

= 2ωIJ i∆ dξ I ∧ dξ J ,


259
 
que, usando-se i∆ dξ I = dξ I ξ˙J ∂J = ξ˙J dξ I (∂J ) = ξ˙J δJI = ξ˙I , torna-se


i∆ ω = ω ji i∆ dq i ∧ dpj − ω ji dq i ∧ i∆ dpi + aij i∆ dq i ∧ dq j + bij i∆ dpi ∧ dpj


= ω ji q̇ i dpj − ω ji ṗj dq i + aij q̇ i dq j + bij ṗi dpj
 
ω ji q̇ i + bij ṗi dpj − ω ij ṗi − aij q̇ i dq j .

=

Por outro lado,

∂H ∂H i ∂H
dH − = dq + dpi , (13.93)
∂t ∂q i ∂pi

ou seja,

∂H ∂H
= aji q̇ j − ω ji ṗj e = ω ij q̇ j + bij ṗj . (13.94)
∂q i ∂pi

Comparando essas equações com as equações de Hamilton, temos que aij = bij = 0 e ω ij = δji .
Assim, temos

ω = dq i ∧ dpi . (13.95)

Lembremos que a 1-forma fundamental, é dada por

θ0 = pi dq i . (13.96)

A derivada exterior de θ0 é dada por

dθ0 = dpi ∧ dq i ,

assim,

ω = −dθ0 (13.97)

Visto que d2 = 0, então a expressão anterior implica em

dω = 0, (13.98)

ou seja, a 2-forma simplética é uma forma fechada.


Além disso, é necessário que ω seja uma forma não degenerada, ou seja,

iX ω = 0 ⇐⇒ X = 0 (13.99)

para qualquer X ∈ TM. A não degenerescência tem importância física fundamental. Ela ga-
rante que, dada uma hamiltoniana H, existe um único campo vetorial hamiltoniano. Sejam ∆1
e ∆2 dois campos tais que

i∆1 ω = dH1 , i∆2 ω = dH2

Se H1 = H2 , dH1 − dH2 = 0, o que implica em

i∆1 ω − i∆2 ω = i(∆1 −∆2 ) ω = 0.

Visto que ω é não degenerado, isto só é possível se ∆1 = ∆2 .


Toda 2-forma fechada e não degenerada é denominada uma 2-forma simplética.
A evolução temporal de observáveis pode ser colocada na forma de um produto interno. Por

exemplo, dado um escalar F , seu campo vetorial hamiltoniano é definido por XF = ξ I , F ∂I ,

260
então,

∂F
iXF ω = dξ I ωIJ ξ J , F = dξ I ωIJ ω JK ∂K F = dξ I ∂I F = dF −

dt.
∂t
Portanto,

∂F
dF = iXF ω + dt. (13.100)
∂t

Sejam F e G dois observáveis. Podemos calcular o produto interno

iXF iXG ω = iXF dξ I ωIJ ξ J , G = iXF dξ I ωIJ ξ J , G


   

= dξ I (XF ) ωIJ ξ J , G = dξ I ξ K , F ∂K ωIJ ξ J , G


   

= dξ I (∂K ) ξ K , F ωIJ ξ J , G = δKI


 K
ξ , F ωIJ ξ J , G
  
 I
ξ , F ωIJ ξ J , G = ω IK ∂K F ωIJ ω JM ∂M G

=
= ω IK ∂K F δIM ∂M G = ∂I Gω IJ ∂J F.

A última expressão representa o parênteses de Poisson entre G e F , portanto,

iXF iXG ω = {G, F } . (13.101)

13.4.7 Invariantes dinâmicos

O formalismo simplético também nos fornece um método direto para a obtenção de invariantes
dinâmicos de uma teoria. Seja F uma função escalar do espaço de fase. Dizemos que F é um
invariante dinâmico se dF = 0, ou seja,

∂F
iXF ω = − dt, (13.102)
∂t
de acordo com (13.100). Se F é independente do tempo, temos

iXF ω = 0. (13.103)

Vamos escrever esta expressão em termos dos parênteses de Poisson. Dado XF = ξ I , F ∂I =

ω IJ ∂J F ∂I , Temos

0 = iXF ω = dξ I ωIJ XFJ = dξ I ωIJ ω JK ∂K F = ωIJ dξ I ω JK ∂K F




dξ I
 
= ωIJ dt ω JK ∂K F = dtωIJ ξ˙I ω JK ∂K F.
dt

Temos ωIJ ξ˙J = ∂I H como as equações canônicas, portanto,

dtωIJ ξ˙I ω JK ∂K F = −dtωJI ξ˙I ∂ω JK ∂K F = −dt∂J Hω JK ∂K F


= dt∂I F ω IJ ∂J H = dt {F, H} .

Se iXF ω = 0, então

{F, H} = 0, (13.104)

e esta é a condição necessária e suficiente para que um observável independente do tempo seja
um invariante. Caso F dependa do tempo, temos

∂F
{F, H} = − . (13.105)
∂t

261
Quando a função hamiltoniana é um invariante dinâmico e é uma função positiva-definida
dos momentos, ela é igual à energia mecânica do sistema. Note que, neste caso, (13.105) implica
em
∂H
{H, H} + = 0.
∂t
Pela antissimetria dos parênteses, {H, H} = 0 identicamente, portanto H é um invariante se

∂H
= 0, (13.106)
∂t
ou seja, se a hamiltoniana for independente do tempo.

Não apenas observáveis, mas outros objetos geométricos podem ser invariantes dinâmicos.
Neste caso, usamos a derivada de Lie com relação ao campo vetorial hamiltoniano para definir o
conceito de invariância dinâmica. Dado um objeto Σ, dizemos que este é um invariante dinâmico
se

L∆ Σ = 0. (13.107)

Neste caso, dizemos também que Σ é preservado pelo fluxo hamiltoniano gerado por ∆. Se Σ é
um escalar, (13.107) torna-se a condição(13.105) identicamente.

No caso de um campo vetorial X, temos

L∆ X = 0 (13.108)

como condição para a invariância de X com relação ao fluxo hamiltoniano. Temos

L∆ X = [L∆ , LX ] = L∆ LX − LX L∆
= L∆ X − LX ∆ = ∆X − X∆ = [∆, X] . (13.109)

Na demonstração acima, supomos que oc campos vetoriais agem sobre escalares. Assim, X é um
invariante se

[X, ∆] = 0. (13.110)

Dizemos, neste caso, que X e ∆ comutam. Como o colchete de Lie é antissimétrico, L∆ X =


−LX ∆, então se X é um invariante dinâmico, ∆ também é preservado pelo fluxo definido por X.

Se uma 1-forma α é preservada pelo fluxo hamiltoniano, então L∆ α = 0, o que resulta em

0 = L∆ α = L∆ αI dξ I = L∆ (αI ) dξ I + αI L∆ dξ I
 

= α̇I dξ I + αI d ∆ ξ I = α̇I dξ I + αI dξ˙I


 
 
= α̇J + αI ∂J ξ˙I dξ J .

Assim, temos

α̇J + αI ∂J ξ˙I = 0.

Usando as equações de Hamilton,

α̇J + αI ω IK ∂K ∂J H = 0. (13.111)

Uma situação interessante ocorre quando α é uma forma fechada. Neste caso, α = dF e αI = ∂I F .

262
Supondo-se F independente do tempo, (13.111) resulta em
d d
0 = (∂J F ) + ∂I F ω IK ∂K ∂J H = (∂J F ) + {F, ∂J H}
dt dt
= {∂J F, H} + {F, ∂J H} = ∂J {F, H} . (13.112)

Neste caso, {F, H} deve ser uma constante, independente das variáveis dinâmicas.

13.5 Resumo

13.6 Exercícios

263
264
Referências Bibliográficas

[1] I. M. Gelfand and S. V. Fomin. Calculus of Variations. Courier Corporation, 2012. URL:
https://books.google.com/books?id=CeC7AQAAQBAJ&pgis=1.

[2] Herbert Goldstein, Charles Patton Poole Jr., and John L. Safko. Classical Mechanics.
Pearson Education International, 2013. URL: https://books.google.com/books?id=
bhVnngEACAAJ&pgis=1.

[3] John David Jackson. Classical Electrodynamics. Wiley, 1998. URL: https://books.
google.com/books?id=tYEAkAEACAAJ&pgis=1.

[4] Jorge V. José and Eugene J. Saletan. Classical Dynamics: A Contemporary Appro-
ach. Cambridge University Press, 1998. URL: https://books.google.com/books?id=
Eql9dRQDgvQC&pgis=1.

[5] Cornelius Lanczos. The Variational Principles of Mechanics. Courier Corporation, 2012.
URL: https://books.google.com/books?id=cmPDAgAAQBAJ&pgis=1.

[6] L. D. Landau and E. M. Lifshitz. The Classical Theory of Fields. Elsevier Science, 2013.
URL: https://books.google.com/books?id=HudbAwAAQBAJ&pgis=1.

[7] David Lovelock and Hanno Rund. Tensors, Differential Forms, and Variational Prin-
ciples. Courier Corporation, 2012. URL: https://books.google.com/books?id=
uUi8AQAAQBAJ&pgis=1.

[8] Jerry B. Marion. Classical Dynamics of Particles and Systems. Elsevier Science, 2013. URL:
https://books.google.com/books?id=Ss43BQAAQBAJ&pgis=1.

265

Você também pode gostar