Você está na página 1de 221

MECÂNICA CLÁSSICA

Tarcísio Marciano da Rocha Filho


Prefácio

Este livro é o fruto de cursos ministrados na disciplina Mecânica Clássica


Avançada, no Instituto de Fı́sica da Universidade de Brası́lia, acrescidos de
tópicos que julgo relevantes em um curso de Pós-Graduação. A intenção não
é substituir os manuais clássicos, que se aprofundam mais em vários assuntos
tratados aqui, mas sim dar um visão geral da Mecânica Clássica, salientando
a elegância da teoria, procurando ser direto e sucinto. O presente livro foi
inicialmente concebido para um curso de um semestre, para estudantes já
com uma base preliminar dos conceitos e ferramentas matemáticas relaciona-
dos. Foi dada também especial atenção a alguns tópicos pouco explorados
em outros textos, embora bastante tratados na literatura especializada, e
que são úteis em alguns campos de pesquisa. Dentre eles citaria a deter-
minação de constantes de movimento e de densidades conservadas, tratados
no capı́tulo 3, o formalismo hamiltoniano para lagrangeanas degeneradas,
tratado no capı́tulo 6, assim como a extensão do formalismo lagrangeana e
hamiltoniano para sistemas contı́nuos (campos).

Cabe aqui agradecer a meus colaboradores e estudantes, que direta ou


indiretamente me ajudaram ao longo do tempo na elaboração do presente
livro. Sempre com medo de cometer um esquecimento grave, gostaria de citar
em particular: Ademir Santana, Annibal Figueiredo, Iram Marcelo Gléria,
Joaquim José Soares Neto, José David Mangueira Vianna, Léon Brenig, Luı́s

i
ii Prefácio

Silva da Costa, Marco Cezar Fernandes e Zolacir Oliveira Junior. Quero aqui
também agradecer a hospitalidade do Instituto de Fı́sica da Universidade
Federal da Bahia, onde parte deste livro foi escrito durante um semestre
sabático, e a Beatriz Rocha pela revisão do português.
Brası́lia,
julho de 2009
Sumário

Prefácio i

1 Formalismo lagrangeano 1
1.1 Coordenadas generalizadas e vı́nculos . . . . . . . . . . . . . . 2
1.2 Princı́pio de D’Alembert . . . . . . . . . . . . . . . . . . . . . 3
1.3 Equações de Euler-Lagrange . . . . . . . . . . . . . . . . . . . 4
1.3.1 Forças derivando de um potencial . . . . . . . . . . . . 6
1.4 Princı́pio de mı́nima ação . . . . . . . . . . . . . . . . . . . . 7
1.5 Sistemas com vı́nculos não-holonômicos . . . . . . . . . . . . . 10
1.5.1 Exemplo: partı́cula deslizando sem atrito sobre um disco 12
1.6 O problema de Kepler . . . . . . . . . . . . . . . . . . . . . . 13
1.7 Pequenas oscilações . . . . . . . . . . . . . . . . . . . . . . . . 17
1.8 Movimento de um corpo rı́gido . . . . . . . . . . . . . . . . . . 19
1.9 Formulação relativı́stica . . . . . . . . . . . . . . . . . . . . . 25
1.10 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2 Sistemas com infinitos graus de liberdade - Campos 35


2.1 Funcionais e derivada funcional . . . . . . . . . . . . . . . . . 36
2.2 Formulação lagrangeana de uma teoria de campo . . . . . . . 37
2.3 Formulação explicitamente covariante . . . . . . . . . . . . . . 38
2.4 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

iii
iv Sumário

2.4.1 Campo eletromagnético . . . . . . . . . . . . . . . . . 41


2.4.2 Equação de Schrödinger . . . . . . . . . . . . . . . . . 44
2.4.3 Campo de Klein-Gordon . . . . . . . . . . . . . . . . . 45
2.5 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3 Simetrias e invariantes 47
3.1 Teorema de Nöther . . . . . . . . . . . . . . . . . . . . . . . . 47
3.2 Aplicações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2.1 Oscilador harmônico . . . . . . . . . . . . . . . . . . . 51
3.2.2 O campo eletromagnético . . . . . . . . . . . . . . . . 54
3.2.3 A equação de Schrödinger . . . . . . . . . . . . . . . . 56
3.3 Simetrias da ação e simetrias das equações de movimento . . . 58
3.4 Grupos de simetria a um parâmetro . . . . . . . . . . . . . . . 62
3.5 Simetrias e invariantes das equações de movimento . . . . . . 64
3.5.1 Exemplo: partı́cula livre irradiando . . . . . . . . . . . 66
3.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

4 Formalismo canônico e equações de Hamilton 73


4.1 Momentos generalizados e transformação de Legendre . . . . . 73
4.2 Parêntesis de Poisson . . . . . . . . . . . . . . . . . . . . . . . 77
4.3 Equações de Routh . . . . . . . . . . . . . . . . . . . . . . . . 78
4.4 Princı́pio modificado de Hamilton . . . . . . . . . . . . . . . . 80
4.5 Princı́pio de Maupertuis . . . . . . . . . . . . . . . . . . . . . 81
4.6 Sistemas contı́nuos - Campos . . . . . . . . . . . . . . . . . . 83
4.6.1 Formulação não-covariante . . . . . . . . . . . . . . . . 84
4.6.2 Formulação covariante . . . . . . . . . . . . . . . . . . 85
4.6.3 Exemplo de campo relativı́stico . . . . . . . . . . . . . 87
4.7 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
Sumário v

5 Transformações canônicas e formalismo simplético 89


5.1 Transformações canônicas . . . . . . . . . . . . . . . . . . . . 90
5.2 Condições de integrabilidade das
transformações canônicas . . . . . . . . . . . . . . . . . . . . . 94
5.3 Notação simplética . . . . . . . . . . . . . . . . . . . . . . . . 96
5.4 Transformações canônicas infinitesimais . . . . . . . . . . . . . 98
5.5 Teorema de Liouville . . . . . . . . . . . . . . . . . . . . . . . 102
5.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

6 Sistemas hamiltonianos com vı́nculos 105


6.1 Formalismo de Dirac . . . . . . . . . . . . . . . . . . . . . . . 106
6.2 Exemplo com um sistema discreto . . . . . . . . . . . . . . . . 111
6.3 Vı́nculos de primeira classe e condições de calibre . . . . . . . 112
6.4 Sistemas contı́nuos . . . . . . . . . . . . . . . . . . . . . . . . 115
6.5 O campo eletromagnético . . . . . . . . . . . . . . . . . . . . 116
6.6 Exercı́cios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

7 Formalismo de Hamilton-Jacobi 121


7.1 Exemplo: o oscilador harmônico . . . . . . . . . . . . . . . . . 123
7.2 Separação de variáveis . . . . . . . . . . . . . . . . . . . . . . 124
7.3 Aplicação: Campo central e força externa constante . . . . . . 126
7.4 Teorema de Liouville sobre sistemas
integráveis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.5 Toros invariantes e variáveis ângulo-ação . . . . . . . . . . . . 132
7.5.1 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . 135

8 Teoria de perturbações e caos hamiltoniano 139


8.1 Perturbação de um sistema integrável . . . . . . . . . . . . . . 139
vi Sumário

8.2 Aplicação: osciladores harmônicos


acoplados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
8.3 Forma normal em torno de um ponto fixo . . . . . . . . . . . . 144
8.4 Teorema KAM . . . . . . . . . . . . . . . . . . . . . . . . . . 148
8.4.1 Mapa de Poincaré e um exemplo de aplicação do teo-
rema KAM . . . . . . . . . . . . . . . . . . . . . . . . 149
8.5 Teorema de Poincaré-Birkhoff . . . . . . . . . . . . . . . . . . 152
8.6 Caos hamiltoniano . . . . . . . . . . . . . . . . . . . . . . . . 155
8.6.1 O mapa padrão de Chirikov . . . . . . . . . . . . . . . 157

A Espaços métricos e campos tensoriais 167

B Grupos e álgebras de Lie 175


B.1 Grupo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
B.2 Espaço topológico . . . . . . . . . . . . . . . . . . . . . . . . . 176
B.3 Variedade diferenciável . . . . . . . . . . . . . . . . . . . . . . 176
B.4 Grupo de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
B.5 Álgebra de Lie . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
B.6 Derivadas de Lie e congruências . . . . . . . . . . . . . . . . . 183

C Caos: exemplos e caracterı́sticas principais 185


C.1 Sistemas dinâmicos contı́nuos e discretos . . . . . . . . . . . . 185
C.2 Um exemplo em meteorologia: o sistema de Lorenz . . . . . . 187
C.3 Um exemplo em dinâmica populacional: o mapa logı́stico . . . 190
C.4 Sistemas dissipativos e conservativos . . . . . . . . . . . . . . 196
C.5 Fractais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
C.6 Sistemas hamiltonianos . . . . . . . . . . . . . . . . . . . . . . 198
Lista de Figuras

1.1 trajetória real e uma possibilidade de variação. . . . . . . . . . 8

1.2 Coordenadas para um corpo rı́gido. . . . . . . . . . . . . . . . 20

1.3 Definição dos ângulos de Euler. . . . . . . . . . . . . . . . . . 24

1.4 pêndulo duplo com massa m. . . . . . . . . . . . . . . . . . . 32

8.1 Sistema massa-mola com constantes elásticas K1 , λ e K2 . A


perturbação corresponde ao potencial da mola que liga as duas
massas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

8.2 Mapa de Poincaré para o sistema na eq. (8.49) e λ = 0. As


condições iniciais correspondem todas à mesma energia E =
0.02504. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

8.3 Mapa de Poincaré para o sistema na eq. (8.49), com λ = 0.05


e λ = 0.07. As condições iniciais são as mesmas que na figura
8.2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

8.4 Mapa de Poincaré para o sistema na eq. (8.49), λ = 0.075 e


λ = 0.08. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151

vii
viii Lista de Figuras

8.5 Mapa de Poincaré para o sistema na eq. (8.49), λ = 0.09 e


λ = 0.095. Para facilitar a visualização, no último mantivemos
apenas os quatro toros interiores. Neste caso um toro que
existia para λ = 0.09 foi destruı́do e em seu lugar percebemos
uma solução errática delimitada por uma sequência de toros
menores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152

8.6 Mapa de Poincaré para o sistema na eq. (8.49), λ = 0.18 e λ =


10. No primeiro retivemos apenas os toros que correspondem
aos três toros mais internos da figura 8.2, enquanto que o
segundo gráfico corresponde a uma única condição inicial. . . . 153

8.7 Exemplos de órbita homoclı́nica (a), heteroclı́nica (b) e de


interseção transversal (c). . . . . . . . . . . . . . . . . . . . . 156

8.8 Emaranhado heteroclı́nico originado de uma interseção hete-


roclı́nica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

8.9 Interações do mapa de Chirikov para 50 condições iniciais


igualmente espaçadas em p e θ = π. Para K = 0, 1 ape-
nas as duas cadeias de ilhas de perı́odo 1 são visı́veis. Para
K = 0, 2 já podemos ver também as ilhas de perı́odos 2 e 3. . 159

8.10 Interações do mapa de Chirikov para 100 condições iniciais


igualmente espaçadas em p e θ = π. Para K = 0, 4 mais algu-
mas cadeias de ilhas são visı́veis. Já para K=0,6 percebemos
a existência de um mar caótico entre toros ainda não destruı́dos.160

8.11 Mapa de Chirikov para K = 0, 8. A ampliação mostra uma


solução caótica na vizinhança de uma emaranhado heteroclı́nico.161

8.12 Mapa de Chirikov para K = 1, 0, K = 1, 2 e K = 2, 0. A


ampliação mostra ilhas recem criadas. . . . . . . . . . . . . . . 162
Lista de Figuras ix

8.13 Mapa de Chirikov para K = 3, 0, K = 4, 0, K = 5, 0 e K =


8, 0. A última figura mostra um caso em que todas as soluções
do sistema são caóticas. . . . . . . . . . . . . . . . . . . . . . 163
8.14 Curva r̃ e a curva que é a sua imagem pelo mapa Mq (). . . . 164

C.1 Solução periódica para o sistema de Lorenz para r = 160. . . . 189


C.2 Dobramento de perı́odo da solução periódica para r = 146. . . 190
C.3 Atrator estranho para o sistema de Lorenz para r = 143. . . . 191
C.4 Atrator estranho para o sistema de Lorenz para r = 120. . . . 192
C.5 Soluções do sistema de Lorenz com condições iniciais próximas. 193
C.6 Mapa logı́stico para a < 1. . . . . . . . . . . . . . . . . . . . . 193
C.7 Mapa logı́stico para 1 < a < 3. . . . . . . . . . . . . . . . . . . 193
C.8 Solução com perı́odo 2. . . . . . . . . . . . . . . . . . . . . . . 194
C.9 Solução com perı́odo 4. . . . . . . . . . . . . . . . . . . . . . . 194
C.10 Estrutura de bifurcações do mapa logı́stico. Na horizontal
temos os valores para o parâmetro a e na vertical os valores
de xn que compõem o atrator. . . . . . . . . . . . . . . . . . . 195
C.11 Ampliação do diagrama de bifurcações do mapa logı́stico. . . . 196
C.12 Ampliações do diagrama de bifurcações do mapa logı́stico. . . 197
x Lista de Figuras
Capı́tulo 1

Formalismo lagrangeano

Toda a dinâmica clássica de corpos materiais é resumida através das três leis
básicas de Newton. Elas podem ser enunciadas da seguinte maneira:

Primeira lei: Toda partı́cula mantem indefinidamente seu estado


de movimento a menos que uma força atuando sobre ela venha a
modificá-lo.

Segunda lei: A força que atua sobre uma partı́cula é um vetor,


denotado por F, e é igual à taxa de variação do momento linear
p = mv, onde m é a massa da partı́cula e v sua velocidade. Ou
seja, F = dp/dt.

Terceira lei: Se uma partı́cula exerce uma força F sobre uma


outra partı́cula, esta exercerá uma força −F sobre a primeira.

A dinâmica de um sistema de partı́culas (e de um corpo material) pode


ser deduzida delas, sendo ele composto por partı́culas que obedecem essas
mesmas leis. A primeira delas define um sistema inercial no qual são válidas,
a segunda pode ser vista como uma definição operacional de força enquanto
que a terceira enuncia a lei de conservação do momento linear. Iremos ape-
nas nos utilizar de ferramentas matemáticas mais aprimoradas para obter

1
2 Capı́tulo 1. Formalismo lagrangeano

resultados que delas decorrem. Cabe sempre lembrar que o enunciado mais
geral possı́vel das leis da Mecânica Clássica é o que acabamos de fazer, e
que certas restrições são sempre necessárias para se obter formulações mais
elegantes e possantes do ponto de vista formal.
Uma caracterı́stica importante das leis de Newton é que elas são invari-
antes em forma pelas transformações de Galileu, a saber, pelas mudanças de
sistema de referência inercial: se r é o vetor posição de uma partı́cula num
sistema e r0 em outro, eles são ligados por uma relação do tipo r0 = r − v∆t,
que denominamos de transformação de Galileu. O princı́pio de relatividade
de Galileu pode então ser enunciado como segue:

As leis da fı́sica devem ter a mesma forma em qualquer sistema de


referência inercial, sendo que a passagem de um sistema inercial
a outro é efetuada por uma transformação de Galileu.

1.1 Coordenadas generalizadas e vı́nculos


Um sistema de referência no espaço fı́sico tridimensional pode ser definido
através de um sistema de eixos cartesianos (x1 , x2 , x3 ), de modo que a posição
de uma partı́cula é dada pelas três componentes do seu vetor posição com
relação a esse sistema. Para um sistema a N partı́culas, para localizar inteira-
mente as posições de todas as partı́culas necessitamos de N vetores posição
e, portanto, de 3N coordenadas xi , i = 1, . . . , 3N . Naturalmente, qualquer
conjunto de 3N números que sejam funções inversı́veis dessas coordenadas
são igualmente válidos para caracterizar a posição do sistema.
Pode ocorrer que o movimento do sistema seja restrito a uma dada região
do espaço 3N -dimensional das coordenadas. Podemos citar como exemplo o
movimento de um bloco sobre um plano inclinado. Tais restrições nos valores
das coordenadas são denominadas de condições de vı́nculo sobre o sistema.
1.2. Princı́pio de D’Alembert 3

Particularmente, quando elas puderem ser expressas por um certo número


M de equações da forma

ηi (x, t) = 0; i = 1, . . . , M, (1.1)

onde x ≡ (x1 , . . . , x3N ), dizemos que os vı́nculos são holonômicos, e em caso


contrário, não-holonômicos.
No caso de termos apenas vı́nculos holonômicos, podemos utilizar as
condições de vı́nculo (1.1) para eliminarmos M das 3N coordenadas, de
tal maneira que a posição do sistema pode ser dada por 3N − M coorde-
nadas generalizadas, funções independentes das 3N coordenadas iniciais, e
eventualmente do tempo, e que satisfazem identicamente os vı́nculos. De-
notamos tais coordenada por qi , i = 1, . . . , n, com n = 3N − M . Temos
portanto que
xi = xi (q, t); i = 1, . . . , 3N, (1.2)

onde q ≡ (q1 , . . . , qn ). Como a segunda lei de Newton é expressa por uma


equação diferencial de segunda ordem, o estado inicial do sistema é inteira-
mente caracterizado pelos valores das coordenadas generalizadas e de suas
derivadas com relação ao tempo, denominadas de velocidades generalizadas,
no instante inicial. O número mı́nimo de coordenadas generalizadas inde-
pendentes necessárias para caracterizar univocamente a posição do sistema
corresponde ao número de graus de liberdade deste último.

1.2 Princı́pio de D’Alembert


Nosso objetivo passa a ser então a obtenção de um método para determinar
as equações de movimento para um sistema a N partı́culas apenas em termos
das coordenadas generalizadas qi , sem que para isso tenhamos que explicitar
as forças de vı́nculo que fazem com que o sistema satisfaça as condições
4 Capı́tulo 1. Formalismo lagrangeano

(1.1). Para tal, vamos partir da segunda lei de Newton, que nos dá para as
partı́culas que compõem o sistema:

Fi − ṗi = 0; i = 1, . . . , 3N. (1.3)

Agora façamos um deslocamento virtual δxi na coordenada xi . Usamos o


termo virtual para significar que o deslocamento não corresponde ao deslo-
camento real do sistema ao longo de sua evolução temporal, mas sim a uma
mudança das coordenadas mantendo o tempo fixo. Assim, usando a equação
(1.3) temos que
3N
X
δxi (Fi − ṗi ) = 0. (1.4)
i=1
(v)
A força sobre cada partı́cula é a resultante das forças de vı́nculo Fi e da
(a)
soma das demais forças Fi , que denominamos de aplicadas, ou seja, Fi =
(v) (a)
Fi +Fi . Vamos então nos restringir a sistemas tais que o trabalho efetuado
pelas forças de vı́nculo ao longo de um deslocamento virtual seja nulo. Dessa
maneira, a equação (1.4) nos dá que
3N
X (a)
δxi (Fi − ṗi ) = 0. (1.5)
i=1

A equação (1.5) é usualmente denominada de princı́pio de D’Alambert, e é


central na dedução das equações de movimento em termos das coordenadas
generalizadas.

1.3 Equações de Euler-Lagrange


Para obter as equações de movimento em termos das coordenadas genera-
lizadas, vamos expressar o princı́pio de D’Alambert (1.5) em termos delas.
Inicialmente, temos que
n
X ∂xi
δxi = δqj . (1.6)
j=1 ∂qj
1.3. Equações de Euler-Lagrange 5

Temos também que


3N 3N 3N X
n
X X .. X .. ∂xi
ṗi δxi = mi xi δxi = mi xi δqj , (1.7)
i=1 i=1 i=1 j=1 ∂qj
onde m1 , m2 , m3 =massa da primeira partı́cula, m4 , m5 , m6 =massa da se-
..
gunda partı́cula, e assim por diante. Reescrevendo xi em termos das coorde-
nadas generalizadas obtemos
3N 3N X
n
" ! #
X X d ∂ ẋi d ∂xi
ṗi δxi = mi ẋi − ẋi δqj
i=1 i=1 j=1 dt ∂ q̇j dt ∂qj
n
3N X
" #
d ∂ 1 ∂ 1
  
mi ẋ2i − mi ẋ2i
X
= δqj , (1.8)
i=1 j=1 dt ∂ q̇j 2 ∂qj 2
onde usamos as relações
d ∂xi ∂ ẋi
= , (1.9)
dt ∂qj ∂qj
∂ ẋi ∂xi
= . (1.10)
∂ q̇j ∂qj
Definimos a energia cinética do sistema por
3N
1
mi ẋ2i ,
X
T = (1.11)
i=1 2
e a força generalizada por
3N
X ∂xi
Qj = Fi . (1.12)
i=1 ∂qj
Agora, partindo da equação (1.5) e usando (1.8) obtemos a relação:
n
" #
X d ∂ ∂
Qj − T+ T δqj = 0, (1.13)
j=1 dt ∂ q̇j ∂qj
e como as coordenadas qi são todas independentes entre si, o mesmo acontece
com os deslocamentos virtuais δqj . Portanto, obtemos o seguinte sistema de
equações de movimento em termos das coordenadas generalizadas:
d ∂T ∂T
− = Qj ; j = 1, . . . , n, (1.14)
dt ∂ q̇j ∂qj
6 Capı́tulo 1. Formalismo lagrangeano

que são as equações de movimento de Lagrange, sendo que as forças genera-


lizadas Qi são determinadas por todas as forças que agem sobre o sistema,
excetuando-se as forças de vı́nculo, assim como desejado. As derivadas par-
ciais em (1.14) são calculadas tomando-se qj e q̇j como independentes.

1.3.1 Forças derivando de um potencial


(a)
É comum encontrarmos casos em que as forças Fi aplicadas ao sistema po-
dem ser obtidas a partir de uma função potencial V (x, t) da seguinte maneira:

(a) ∂V (x, t)
Fi =− , (1.15)
∂xi

que por sua vez, em conjunto com (1.12), implica que

∂V (q, t)
Qi = − , (1.16)
∂qi

onde V (q, t) ≡ V (x(q), t). Nesse caso, dizemos que as forças derivam do
potencial V . Substituindo (1.16) em (1.14) temos finalmente as equações de
Euler-Lagrange:
d ∂L ∂L
− = 0; i = 1, . . . , n, (1.17)
dt ∂ q̇i ∂qi
onde
L≡T −V (1.18)

é a chamada função de Lagrange, ou simplesmente lagrangeana do sistema.


De maneira mais geral, as equações de Euler-Lagrange podem ser obtidas
sempre que exitir um potencial generalizado tal que

d ∂V (q, q̇, t) ∂V (q, q̇, t)


Qi = − . (1.19)
dt ∂ q̇i ∂qi

As equações (1.17) continuam válidas, assim como a lagrangeana continua


sendo definida pela relação (1.18).
1.4. Princı́pio de mı́nima ação 7

1.4 Princı́pio de mı́nima ação

Em Fı́sica sempre se busca reescrever as equações fundamentais de uma dada


teoria em termos de princı́pios variacionais (o sentido exato dessa expressão
ficará claro a seguir). Tal formulação facilita a descrição de uma série de
problemas, tais como a existência de condições de vı́nculo não-holonômicas,
dos sistemas de lagrangeanas degeneradas ou mesmo ainda de facilitar a
discussão das propriedades de simetria de sistemas fı́sicos.
Vamos definir a integral de ação, ou simplesmente ação, em termos de
uma trajetória, i. e. de uma linha no espaço de configuração parametrizada
pelo tempo, ligando o ponto q1 no instante t1 ao ponto q2 no instante t2 , por

Z t2
S= L(q, q̇, t) dt. (1.20)
t1

O princı́pio de mı́nima ação pode então ser formulado da seguinte maneira:


para a trajetória real, a ação S é estacionária sob uma variação da trajetória
que mantenha os pontos inicial e final invariantes. A figura 1.4 mostra a
trajetória real ligando dois pontos do espaço de configuração e uma possı́vel
variação dessa trajetória. Esse princı́pio variacional também recebe a deno-
minação de princı́pio de Hamilton. O que o princı́pio de mı́nima ação nos diz
é que, dentre todas as trajetórias possı́veis conectando o ponto q1 em t1 ao
ponto q2 em t2 , aquela para a qual S é estacionária corresponde à trajetória
real contendo esses dois pontos. Podemos então escrever de maneira mais
simples esse princı́pio como

δS = 0, (1.21)

onde o δ significa uma variação da trajetória de integração. Para deduzir as


equações de Euler-Lagrange de (1.21) escrevemos uma variação infinitesimal
8 Capı́tulo 1. Formalismo lagrangeano

t2
q
2

t1
q
1

Figura 1.1: trajetória real e uma possibilidade de variação.

da trajetória na forma
qi0 (t) = qi (t) + ηi (t). (1.22)

A variação na ação é então dada por

δS = S 0 − S, (1.23)

onde S 0 é calculada usando a trajetória q0 e S usando q. Usando a definição


(1.20) da ação em (1.23) temos que
Z t2 Z t2
0 0
δS = L(q̇ , q , t) dt − L(q̇, q, t) dt. (1.24)
t1 t1

Usando (1.22) e retendo apenas os termos de primeira ordem em  obtemos


n
" #
0 0
X ∂L ∂L
L(q̇ , q , t) = L(q̇, q, t) +  ηi + η̇i , (1.25)
i=1 ∂qi ∂ q̇i
que substituida em (1.24) nos dá
n Z t2
" #
X ∂L ∂L
δS =  ηi + η̇i dt. (1.26)
i=1 t1 ∂qi ∂ q̇i
Integrando por partes o segundo termo entre colchetes obtemos
n Z t2
" # n t
X ∂L d ∂L X ∂L 2
δS =  − ηi dt +  ηi . (1.27)
i=1 t1 ∂qi dt ∂ q̇i i=1 ∂ q̇i

t 1
1.4. Princı́pio de mı́nima ação 9

O último termo do lado direito de (1.27) se anula pois, por hipótese, os pontos
inicial e final são mantidos fixos pela variação, ou seja,

η1 (t) = η2 (t) = 0, (1.28)

para i = 1, . . . . , n. O princı́pio de mı́nima ação nos dá então que


n Z t2
" #
X ∂L d ∂L
δS =  − ηi dt = 0. (1.29)
i=1 t1 ∂qi dt ∂ q̇i
Agora, usando o fato que as coordenadas generalizadas qi são independentes,
o que implica o mesmo para os ηi ’s, vemos que a única maneira de que a
integral em (1.29) se anule é que as seguintes equações sejam verdadeiras:
d ∂L ∂L
− = 0, (1.30)
dt ∂ q̇i ∂qi
para i = 1, . . . , n, ou seja, que as equações de Euler-Lagrange sejam válidas,
o que mostra o desejado.
Essa discussão acerca do princı́pio de mı́nima ação nos permitirá mostrar,
de maneira simples, o fato que a lagrangeana não é univocamente definida.
Dada uma lagrangeana L, podemos sempre obter uma outra lagrangeana L0
adicionando-se uma derivada total com relação ao tempo, da qual decorrem
as mesmas equações de movimento. Lagrangeanas que implicam as mesmas
equações são ditas equivalentes. Temos então que
df (q, t)
L0 (q̇, q, t) = L(q̇, q, t) + . (1.31)
dt
Para mostrar o que dissemos acima utilizamos princı́pio de mı́nima ação:
Z t2 Z t2 Z t2
df
δS 0 = δ L0 dt = δ L dt + δ
t1 t1 t1 dt
= δS + δ [f (2) − f (1)] = δS, (1.32)

ou seja, as variações das ações são iguais e portanto, se S é estável com relação
a uma dada trajetória, S 0 também o será, e vice versa. Assim ambas as
10 Capı́tulo 1. Formalismo lagrangeano

lagrangeanas descrevem as mesmas trajetórias. Cabe dizer ainda que existem


sistemas que admitem lagrangeanas equivalentes não conectadas por (1.31),
sendo a escolha entre as duas uma questão de conveniência. Outra maneira
de obter uma lagrangeana equivalente é multiplicar a lagrangeana original
por uma constante α qualquer, i.e., L0 = αL, que implicam trivialmente as
mesmas equações de movimento. Esse tipo de transformação é chamada de
transformação de escala, pois pode ser obtida por uma mudança de escala
das coordenas e momentos, ou do tempo.

1.5 Sistemas com vı́nculos não-holonômicos


Na passagem da eq. (1.29) para (1.30) usamos o fato das coordenadas genera-
lizadas serem todas independentes. Aqui vamos estudar o caso em que exis-
tam condições de vı́nculo adicionais, como por exemplo certos vı́nculos não-
holonômicos não incluı́dos na passagem inicial para as coordenadas generali-
zadas. As coordenadas não sendo mais independentes, não podemos fazer a
passagem às equações de Euler-Lagrange. No entanto, o princı́pio de mı́nima
ação pode ser extendido a tais sistemas, com a condição essencial de que as
forças de vı́nculo não realizem trabalho ao longo de um deslocamento virtual.
Para mostrar isso, reescrevemos (1.21) na seguinte forma:
Z t2 Z t2 Z t2
δ L dt = δ T dt − δ V dt = 0, (1.33)
t1 t1 t1

que implica
n Z t2 n
Z t2 " # Z t2 X
X ∂V d ∂V
δ T dt = − ηi dt = − Qi ηi dt, (1.34)
t1 i=1 t1 ∂qi dt ∂ q̇i t1 i=1

onde usamos a relação (1.19) entre o potencial e a força generalizada. Vemos


então que se supusermos que o trabalho das forças de vı́nculo ao longo de
1.5. Sistemas com vı́nculos não-holonômicos 11

uma variação virtual se anula, então a eq. (1.34) é verdadeira, assim como o
princı́pio de mı́nima ação.
Dito isso, passemos ao caso em que tenhamos um número m de condições
de vı́nculo da forma
χk = 0; k = 1, . . . , m, (1.35)

onde χk pode depender das coordenadas e do tempo (vı́nculos holonômicos),


ou então ser da forma
n
X
aki dqi + bk dt = 0; k = 1, . . . , m. (1.36)
i=1

Notemos que vı́nculos holonômicos da forma (1.35) podem ser reescritos na


forma (1.36), o contrário não sendo necessariamente verdadeiro, pois o lado
esquerdo de (1.36) pode não ser uma diferencial exata. Se (1.36) vale, então
temos também que para uma variação virtual (apenas as coordenadas variam)
m X
Z t2 X n
 λk aki ηi dt = 0, (1.37)
t1 k=1 i=1

onde os λk ’s são funções das coordenadas e do tempo a serem determinadas


e são denominados de multiplicadores de Lagrange. Somando (1.37) a (1.29)
obtemos
n m
Z t2 X " #
∂L d ∂L X
− + λk aki ηi dt = 0. (1.38)
t1 i=1 ∂qi dt ∂ q̇i k=1
Agora notemos que temos n − m coordenadas independentes e m multipli-
cadores de Lagrange arbitrários. Assim escolhemos os multiplicadores de
maneira a anular m termos da soma em (1.38). Os demais n − m termos são
nulos pois temos n − m ηj ’s independentes. Isso nos dá as seguintes equações
de movimento:
m
d ∂L ∂L X
− = λk aki ; i = 1, . . . , n. (1.39)
dt ∂ q̇i ∂qi k=1
12 Capı́tulo 1. Formalismo lagrangeano

Temos então n + m incógnitas: as n coordenadas qi como funções do tempo e


os m multiplicadores λk . As m equações adicionais necessárias para determi-
nar univocamente essas incógnitas são justamente as m condições de vı́nculo
(1.36), que fornecem as seguintes equações adicionais:
n
X
aki q̇i + bk = 0; k = 1, . . . , m. (1.40)
i=1

Comparando (1.39) com (1.14) vemos que as forças de vı́nculo são dadas por
m
(v) X
Qi = λk aki , (1.41)
k=1

o que nos dá a interpretação fı́sica dos multiplicadores de Lagrange. Caso


os vı́nculos sejam holonômicos, essa abordagem pode ser utilizada quando se
quer conhecer as forças de vı́nculo.

1.5.1 Exemplo: partı́cula deslizando sem atrito sobre


um disco
Tomemos o seguinte problema: uma partı́cula de massa m desliza sem atrito
sobre um disco de raio R. Sua posição pode ser dada utilizando coordenadas
polares r e θ com relação ao centro do disco. As condições iniciais são dadas
por θ0 = θ(0) e θ̇0 = θ̇(0). O vı́nculo sobre as coordenadas é assim r − R = 0.
Vamos agora aplicar o formalismo dos multiplicadores de Lagrange descrito
acima para determinar o ponto em que a partı́cula perde contato com o disco,
que é onde a força de vı́nculo (a normal) se anula. A lagrangeanan é dada
por
1
L = m(ṙ2 + r2 θ̇2 ) − mgr cos θ, (1.42)
2
com o vı́nculo na forma da eq. (1.36):

dr = 0. (1.43)
1.6. O problema de Kepler 13

As equações de movimento são obtidas a partir das eqs. (1.39) e (1.40):

r̈ − mrθ̇2 + mg cos θ = λ,
mr2 θ̈ − mgr sen θ = 0,
ṙ = 0. (1.44)

Podemos achar a solução desse sistema resolvendo primeiro a segunda equação


em (1.44) com r = R e substitundo o resultado na primeira, e assim determi-
nar quando λ se anula. Para simpificar os cálculos, podemos utilizar o fato
que a energia é conservada (lembramos que a força de vı́nculo não realiza
trabalho), que aqui é dada por:

1
E = mR2 θ̇2 + mgR cos θ. (1.45)
2

Obtendo θ̇ na primeira equação de (1.44) e substituindo e, (1.45) obtemos:

3 1
mgR cos θ = E + Rλ. (1.46)
2 2

Tomando essa expressão no ponto em que a partı́cula perde o contato (λ = 0)


obtemos:
2E
cos θ = , (1.47)
3mgR
que nos dá a solução do problema em função da energia do sistema obtida a
partir das condições iniciais.

1.6 O problema de Kepler


Para uma partı́cula em movimento em um campo de força central, o potencial
só depende da distância r ao centro de força O 1 . O movimento se realiza
1
O movimento de dois corpos massivos devido unicamente à ação das forças mútuas
entre eles pode ser reduzido a um problema de um único corpo.
14 Capı́tulo 1. Formalismo lagrangeano

no plano definido pela velocidade e que contem o centro de força, de modo


que escolhemos como coordenadas generalizadas a distância r e o ângulo θ
que o vetor posição da partı́cula com relação a O faz com uma direção de
referência.
As componentes radial e angular (paralela e perpendicular ao raio, res-
pectivamente) da velocidade são dadas por

dr
vr = ≡ ṙ,
dt

vθ = r ≡ rθ̇, (1.48)
dt

de modo que a energia cinética é então dada pela expressão

1
T = m(ṙ2 + r2 θ̇2 ). (1.49)
2

O potencial para uma força proporcional a 1/r2 é da forma

α
V (r) = . (1.50)
r

No caso de uma força atrativa temos que α < 0, e para uma força repulsiva
α > 0.
Obtemos então a lagrangeana

1 α
L = T − V = m(ṙ2 + r2 θ̇2 ) − , (1.51)
2 r

que, usando as equações de Euler-Lagrange (1.17), nos fornece as seguintes


equações de movimento:

α
mr̈ − mrθ̇2 − = 0, (1.52)
r2

d
(mr2 θ̇) = 0. (1.53)
dt
1.6. O problema de Kepler 15

De (1.53) vemos que a grandeza dinâmica L = mr2 θ̇ é uma constante de


movimento2 . Usando (1.48) temos que L = mrvθ , o que nos permite identi-
ficar L como o momento angular da partı́cula em relação a O. Expressando
θ̇ em função de L e r temos
L
. θ̇ = (1.54)
mr2
Substituindo (1.54) em (1.52) obtemos
L2 α
mr̈ − 3
− 2 = 0. (1.55)
mr r
Ou seja, reduzimos o nosso problema bidimensional a um problema unidi-
mensional com um potencial efetivo dado por
L2 α
Vef (r) = 2
+ . (1.56)
2mr r
Podemos resolver a equação (1.55) da seguinte maneira: notemos inicialmente
que
d 1 2 −1
 
mr̈ = mṙ ṙ , (1.57)
dt 2
e portanto (1.55) é equivalente a
d 1 2 dr d d
 
mṙ = − Vef (r) = − Vef (r), (1.58)
dt 2 dt dr dt
e assim temos uma segunda constante de movimento:
1 2 1 2 L2 α
E = mṙ + Vef (r) = mṙ + 2
+ , (1.59)
2 2 2mr r
que obviamente corresponde à energia total do sistema. Uma vez o valor de
E definido pelas condições iniciais, a solução de (1.55) é obtida isolando-se ṙ
em (1.59): v !
L2
u
u 2 α
ṙ = t E− − , (1.60)
m r 2mr2
2
Denominamos de constante de movimento, ou invariante, qualquer grandeza, que seja
função das coordenadas generalizadas e que se mantenha constante ao longo da evolução
temporal do sistema.
16 Capı́tulo 1. Formalismo lagrangeano

e então !#−1/2
L2
Z r "
2 α
t − t0 = dr E− − . (1.61)
r0 m r 2mr2
Calculando a integral em (1.61), escrevendo r em função de t e usando (1.54)
para determinar θ: Z t
L
θ − θ0 = dt, (1.62)
t0 mr2 (t)
temos as soluções para as equações de movimento iniciais (1.48) e (1.53).
As integrais em (1.61) e (1.62) podem ser calculadas explicitamente, em-
bora o resultado não seja necessariamente simples. No entanto, há uma
maneira de se obter a órbita3 da partı́cula sem muito esforço: de (1.60)
temos que
!#−1/2
L2
"
2 α
dt = E− − dr, (1.63)
m r 2mr2
que substituida em (1.62) nos dá
!#−1/2
L2
Z r "
L 2 α
θ − θ0 = E − − dr
r0 mr2 m r 2mr2
  r
L/r + mα/L


= arccos  q  , (1.64)
− 2mE + m2 α2 /L2

r0

ou seja, por uma adequada escolha de eixo com relação ao qual θ é medido,
podemos escrever que
 
L/r + mα/L
θ = arccos  q . (1.65)
2 2
− 2mE + m α /L 2

Seguindo a notação usual, introduzimos o “parâmetro de órbita” p e a


“excentricidade” e por
L2
p= , (1.66)

3
Denominamos de órbita a linha seguida pela partı́cula, sem explicitar a dependência
temporal.
1.7. Pequenas oscilações 17
s
2EL2
e= 1+ . (1.67)
mα2
A relação (1.65) pode então ser escrita como
p
− = 1 + e cos θ, (1.68)
r
que descreve uma seção cônica centrada no ponto O. As diferentes órbitas
podem ser classificadas segundo os valores dos parâmetros p e e. Enumeramos
a seguir os casos possı́veis para α < 0 (p < 0):

1. E < 0 ⇒ e < 1, a órbita é uma elipse. Caso e = 0 então a órbita é um


cı́rculo.

2. E ≥ 0, o movimento não é limitado no espaço. Caso E > 0 implica


e > 1 e a trajetória é uma hipérbole. Caso E = 0 então e = 1 e a
trajetória é uma parábola.

1.7 Pequenas oscilações


Tomemos um sistema com n graus de liberdade, coordenadas generalizadas
qi , i = 1 . . . , n, energia potencial V (q1 , . . . , qn ) e que possui um ponto de
equilı́brio estável em qi = qi0 . Para oscilações de pequena amplitude em
torno do equilı́brio, podemos expandir o potencial em potências de qi − qi0 , e
considerar apenas os termos até segunda ordem:
n
0 1 X  
V = V (q ) + kij (qi − qi0 )(qj − qj0 ) + O (q − q 0 )3 . (1.69)
2 i,j=1

Dessa forma, a lagrangiana do sistema é dada por:


n
1 X
L = Tij (q)q̇i q̇j − V (q)
2 i,j=1
n
1 X
= [aij ẋi ẋj − kij xi xj ] , (1.70)
2 i,j=1
18 Capı́tulo 1. Formalismo lagrangeano

onde xi ≡ qi − qi0 , aij ≡ Tij (q 0 ) e retiramos o termo contante V (q 0 ). As


equações de movimento são assim dadas por:
n
X
[aij ẍj + kij xj ] = 0. (1.71)
j=1

Por se tratar de um sistema linear, vamos procurar soluções da forma

xk = Ak eiωt , (1.72)

onde a parte real (e a imaginária) é solução do sistema. Substituindo (1.72)


em (1.71) temos
n
(−ω 2 aij + kij )Aj = 0.
X
(1.73)
j=1

Para que (1.73) possua uma solução não trivial para Aj é necessário que a
matriz dos coeficientes tenha determinante nulo:

Det(kij − ω 2 aij ) = 0, (1.74)

que é a equação caracterı́stica para ω 2 , que possui n soluções (eventualmente


degeneradas) positivas (ω é real), que denotamos por ωα , α = 1, . . . , n. A
solução geral do sistema (1.71) pode ser escrita como uma superposição das
soluções particulares (1.72):
n
Ai,α Cα eiωα t ,
X
xi = (1.75)
α=1

onde Cα são coeficientes arbitrários. A solução (1.75) possui 2n constantes


arbitrárias: os n coeficientes Cα e uma componente por cada Ai,α (o sistema
1.73 é sub-determinado), que são fixadas pelas 2n condições iniciais.
Agora definimos novas coordenadas por
 
Qα ≡ Re Cα eiωα t . (1.76)
1.8. Movimento de um corpo rı́gido 19

De (1.71) vemos que elas satisfazem á equação de movimento

Q̈α + ωα2 Qα = 0, (1.77)

ou seja, uma equação de um oscilador harmônico. Tais coordenadas cor-


respondem assim a um movimento coletivo das partı́culas do sistema que
oscilam com a mesma freqüência, denominados de modos normais de vi-
bração. Para mais detalhes sobre sobre o problema de pequenas oscilações,
vide [Goldstein,2002].

1.8 Movimento de um corpo rı́gido


Em muitas aplicações é razoável considerar um corpo material como com-
posto por partı́culas cujas posições relativas são fixas no tempo. Denomi-
namos essa idealização por corpo rı́gido. Nesta seção vamos estudar de que
maneira essa consideração simplifica o estudo do movimento.
O primeiro passo consiste então em fixar um sistema de coordenadas mais
apropriado para este problema. Como o movimento do corpo rı́gido pode
sempre ser decomposto no movimento do centro de massa e em um movi-
mento de rotação em torno do centro de massa, vamos tomar dois sistemas
de referência: um inercial O com relação ao qual determinamos a posição
do centro de massa, e outro O0 preso ao corpo e que gira com ele. Por con-
veniência vamos supor que O0 está centrado no centro de massa. A orientação
de O0 com relação a O determina a orientação do corpo rı́gido. Assim são
necessárias seis coordenadas para determinar completamente a posição do
sistema: três para a posição do centro de massa e três para a orientação de
O0 .
A posição de uma partı́cula do corpo com relação a O é dada pelo vetor
posição r e com relação a O0 por r0 . A posição do centro de massa com relação
20 Capı́tulo 1. Formalismo lagrangeano

a O é dada por R. Uma rotação infinitesimal em torno de O0 é caracterizada


por um vetor dθ de modo que o correspondente deslocamento de posição
com relação a O0 é dado por dθ × r0 , sendo que o deslocamento em relação a
O, devido à composição dessa rotação com uma translação dR do centro de
massa é dado por
dr = dθ × r0 + dR, (1.78)

que por sua vez nos dá

x3 x'2

CM
x'1
r' x3'
R
r
x2

x1

Figura 1.2: Coordenadas para um corpo rı́gido.

v = V + ω × r0 , (1.79)

onde v ≡ dr/dt, V ≡ dR/dt e ω ≡ dθ/dt é chamada de velocidade angular


do corpo rı́gido e independe do ponto escolhido para a origem de O04 .

De fato, tomemos o sistema de referência O00 tal que r00 = r0 + d, onde d é constante.
4

Temos então que v = V00 + ω 00 × r00 e de (1.79) temos também que v = V + ω × r00 − ω × d,
e comparando essas duas expressões para todas as partı́culas do corpo temos que V00 =
V − ω × d e ω 00 = ω, ou seja, a velocidade angular é a mesma para qualquer sistema que
escolhermos. A escolha do centro de massa visa apenas simplificar a descrição final.
1.8. Movimento de um corpo rı́gido 21

Consideramos então o corpo como um sistema de N partı́culas: sendo


vi a velocidade da partı́cula i com relação a O e mi sua massa, a energia
cinética do corpo é dada por
N
1
mi vi2 ,
X
T = (1.80)
i=1 2

e usando (1.79) temos que


N 
1 1

mi V + mi (ω × r0i )2 + mi V · (ω × r0i ) .
2
X
T = (1.81)
i=1 2 2

O último termo do lado direito de (1.81) se anula pois a origem de O0 coincide


mi r0i = 0. Para o segundo termo,
P
com o centro de massa, o que implica i

temos que
(ω × r)2 = ω 2 r2 sen2 φ, (1.82)

onde ω e r são os módulos de ω e r e φ é o ângulo entre esses dois vetores,


que é dado por
ω·r
cos φ = , (1.83)
ωr
e substituindo a igualdade sen2 φ = 1 − cos2 φ em (1.82) obtemos

(ω × r)2 = ω 2 r2 − (ω · r)2 . (1.84)

Usando (1.84) em (1.81) temos que


N
1 1X h i
T = MV 2 + mi ω 2 ri2 0 − (ω · r0i )2 , (1.85)
2 2 i=1
P
onde M = i mi é a massa total do sistema. Definimos então o tensor de
inércia Iαβ do corpo rı́gido de tal maneira que
N h i
mi ω 2 ri2 0 − (ω · r0i )2 ,
X X
Iαβ ωα ωβ = (1.86)
αβ i=1
22 Capı́tulo 1. Formalismo lagrangeano

onde α, β = 1, 2, 3 (as três componentes cartesianas)5 e portanto


h i
mi δαβ (x01,i 2 + x02,i 2 + x03,i 2 ) − x0α,i x0β,i .
X
Iαβ = (1.87)
i

O tensor de inércia é então representado por uma matriz 3×3 real e simétrica,
e portanto, hermitiana, o que garante que ela pode ser diagonalizada com
autovalores reais. Assim, se os eixos de O0 estiverem nas direções dos au-
tovetores do tensor de inércia, este último estará em uma forma diagonal.
Seus autovalores, que aparecem então na diagonal de Iαβ , são denominados
de momentos principais de inércia, e as direções dos autovetores de eixos
principais de inércia.
O momento angular L do corpo rı́gido é definido por
N
X
L= mi ri × vi . (1.88)
i=1

Usando (1.79) e a relação ri = R + r0i , temos


N N
mi r0i r0i ) R × (ω × (mi r0i ))
X X
L=R×P+ × (ω × +
i=1 i=1
N h i
mi ri02 ω − (r0i · ω)r0i ,
X
=R×P+ (1.89)
i=1

onde P = M V é o momento linear total do sistema. Usando a definição


do tensor de inércia com relação ao centro de massa, obtemos a seguinte
expressão para as componentes do momento angular6
3
X 3
X
Lα = αβγ Rβ Pγ + Iαβ ωβ . (1.90)
βγ β=1

5
Para um vetor A qualquer é sempre possı́vel escrevê-lo em termos de componentes
cartesianas: A = (A1 , A2 , A3 ). As coordenadas da partı́cula i com relação ao centro de
massa são então representadas por xi = (x1,i , x2,i , x3,i ).
6
O sı́mbolo de Levi-Civita é definido da seguinte maneira: αβγ = 1 se (αβγ) é uma
permutação ı́mpar de (123), αβγ = −1 se (αβγ) é uma permutação par de (123) e αβγ = 0
nos demais casos.
1.8. Movimento de um corpo rı́gido 23

O segundo termo do lado direito de (1.90) é denominado de momento angular


intrı́nseco do sistema, e denotado por LCM para explicitar que representa o
momento angular calculado com relação ao centro de massa. Note-se que
em geral LCM e ω não têm a mesma direção. Isso só ocorre quando ω está
na direção de um dos eixos principais de inércia, que são perpendiculares
entre si (a menos que tenhamos autovalores degenerados). No caso geral, se
um corpo possui um eixo de simetria ele deve necessariamente ser um eixo
principal de inércia.
O torque aplicado ao sistema é definido por
N
X
τ = ri × Fi , (1.91)
i=1

onde Fi é a força aplicada sobre a partı́cula i. O torque no sistema do centro


de massa é
N
r0i × Fi .
X
τ CM = (1.92)
i=1

Agora notemos que


N
dL X
= [mi ṙi × vi + mi ri × v̇i ]
dt i=1
N
X
= ri × Fi = τ . (1.93)
i=1

Por outro lado r̈0i = r̈i − R̈, que substituido em (1.93) nos dá
N N
dLCM X
mi r0i × r̈i = r0i × Fi = τ CM .
X
= (1.94)
dt i=1 i=1

As equações (1.92) e (1.94) são portanto importantes no estudo da dinâmica


de um corpo rı́gido.
Suponhamos que as forças externas sejam conservativas. Podemos, dessa
maneira, escrever uma lagrangeana para o sistema, usando (1.85) para obter
24 Capı́tulo 1. Formalismo lagrangeano

a energia cinética do sistema, e escrevendo o potencial total em termos de


R e da orientação do corpo, dada por três coordenadas caracterizando a
orientação do sistema O0 . Um sistema de coordenadas, útil na descrição do
movimento de corpos rı́gidos, é dado pelos ângulos de Euler assim definidos:
tomemos os eixos (x1 , x2 , x3 ) de O e os eixos (x01 , x02 , x03 ) de O0 . Denotamos
por θ o ângulo entre x3 e x03 , por ϕ o ângulo entre x1 e a linha de interseção
dos planos (x1 , x2 ) e (x01 , x02 ) e por ψ o ângulo entre x01 e essa mesma linha. Os
ângulos θ, ϕ e ψ são os ângulos de Euler e estão representados na figura 1.3.
As componentes da velocidade angular ω podem ser expressas em termos

x3
x3'

x '2

x2
ϕ
y

x1'
x1

Figura 1.3: Definição dos ângulos de Euler.

dos ângulos de Euler projetando θ̇, ϕ̇ e ψ̇ nos eixos x01 , x02 e x03 , o que nos dá

ω1 = θ̇cos ψ + ϕ̇sen θsen ψ;


ω2 = ϕ̇sen θcos ψ − θ̇sen ψ;
ω3 = ϕ̇cos θ + ψ̇. (1.95)
1.9. Formulação relativı́stica 25

Um caso de especial interesse á o do pião simétrico, em que dois dos momentos


principais de inércia são iguais I1 = I2 , e diferentes de I3 . Podemos mostrar
que a energia cinética de rotação assume a forma:

I1  2 2  I3  2
T = ϕ̇ sen θ + θ̇2 + ϕ̇ cos θ + ψ̇ . (1.96)
2 2

Terminamos esta seção observando que Iαβ é um tensor de ordem 2, pois


conecta linearmente um vetor a outro vetor pela relação

LCM = I(ω). (1.97)

1.9 Formulação relativı́stica


É sabido que quando as velocidades envolvidas em um dado problema são
próximas da velocidade da luz, devemos modificar a mecânica newtoniana
de modo a levar em conta a invariância da velocidade da luz. Para tal,
tomemos um sistema de referência inercial O e um outro O0 que se move com
velocidade constante v com relação a O. Construı́mos então um sistema de
eixos cartesianos (x, y, z) ligado a O e tal que o eixo x esteja orientado na
direção de v. Da mesma maneira construı́mos um outro sistema de eixos
(x0 , y 0 , z 0 ) ligado a O0 e tal que para t = t0 = 0 os dois sistemas coincidem.
As coordenadas e o tempo de um evento nos dois sistemas são então ligados
pelas transformações de Lorentz:

x − vt
x0 = q ,
1 − v 2 /c2
y 0 = y,
z 0 = z,
t − vx/c2
t0 = q . (1.98)
1 − v 2 /c2
26 Capı́tulo 1. Formalismo lagrangeano

Para generalizarmos essa transformação a um sistema de eixos cartesianos


não necessariamente paralelos ao sistema original, e para uma velocidade rela-
tiva qualquer, notamos que a invariância da velocidade da luz é equivalente
à invariância da grandeza

ds2 = dx2 + dy 2 + dz 2 − c2 dt2 . (1.99)

Introduzindo a notação x1 = x, x2 = y, x3 = z e x4 = ct, escrevemos que

ds2 = ηµν dxµ dxν , (1.100)

onde usamos a convenção de soma de Einstein para ı́ndices repetidos. A


transformação do sistema de coordenadas {x} para o sistema {x0 } pode então
7
ser expressa como

dx0µ = Sνµ dxν ,


dxµ = (S −1 )µν dx0ν , (1.101)

onde a matriz 4 × 4 S é inversı́vel e define a transformação de Lorentz para


o sistema. O espaço quadridimensional definido pelas coordenadas xµ é de-
nominado de espaço de Minkowski. No caso dos sistemas O e O0 considerados
no inı́cio desta seção a matriz S é dada por

β 0 0 −v/β
 
 0 1 0 0 
S̃ =  , (1.102)
 
 0 0 1 0 
−vβ/c2 0 0 β

onde β = (1 − v 2 /c2 )−1/2 . O caso mais geral em que os eixos de O e O0 não


são paralelos pode ser obtido combinando rotações e translações dos eixos de
coordenadas.
7
Transformamos as diferenciais dxµ e não as coordenadas xµ pois as origens dos sistemas
de coordenadas em geral não coincidem.
1.9. Formulação relativı́stica 27

É fácil ver que a lei de movimento dada pela segunda lei de Newton não é
covariante 8 por uma transformação de Lorentz. Ela deve ser substituida por
uma equação envolvendo vetores no espaço de Minkowski, i. e. entes a qua-
tro componentes. Como a dinâmica relativı́stica deve se reduzir à dinâmica
newtoniana, quando as velocidades envolvidas são pequenas com relação à ve-
locidade da luz, é natural tentarmos formulá-la com os mesmos conceitos que
anteriormente. Em particular, vamos supor que o princı́pio de conservação
da quantidade de movimento de um sistema fechado continua válido. Usando
a definição p = mv e analisando o choque entre duas partı́culas de massas
m1 e m2 , pode-se mostrar que para que a quantidade de movimento total
p1 + p2 seja constante em dois sistemas de referência inerciais quaisquer, as
massas não devem mais ser constantes (escalares) e dependem da velocidade
da partı́cula da seguinte maneira:
m0
m= q , (1.103)
1 − v 2 /c2

onde m0 é um escalar e é denominado de massa no repouso. Temos então


que
m0
p= q v, (1.104)
1 − v 2 /c2
e a lei de movimento é simplesmente
d mv
F= . (1.105)
dt
O trabalho realizado pela força F ao longo de um deslocamento dx é dado
por
dW = F · dx. (1.106)
8
O termo covariante indica que a relação geral entre as grandezas permanece inalterada
ao mesmo tempo em que essas mesmas grandezas se transformam como tensores de um
certo tipo. O termo invariância, por sua vez, indica que as grandezas em questão não são
alteradas pela transformação.
28 Capı́tulo 1. Formalismo lagrangeano

A energia cinética T é definida como nula no repouso e tal que sua variação
seja igual ao trabalho realizado pela força F sobre a partı́cula:

dT = F · dx. (1.107)

Usando a equação de movimento (1.105) obtemos:


d(mv) dm dv
dT = · dx = v · dx + m · dx
dt dt dt
= v 2 dm + mv dv
m0 m0 v
= 2 2 2 3/2
v 3 dv + q dv
c (1 − v /c ) 1 − v 2 /c2
m0 v
= dv, (1.108)
(1 − v 2 /c2 )3/2
onde usamos a identidade v dv = d(v · v)/2 = v · dv. Integrando (1.108) de
0 a T no lado esquerdo e de 0 a v no lado direito, obtemos
m0 c2
T =q − m0 c2 , (1.109)
1− v 2 /c2
que é a expressão relativı́stica da energia cinética. Definimos agora a seguinte
grandeza
m0 c2
E = T + m 0 c2 = q , (1.110)
1 − v 2 /c2
chamada simplesmente de energia da partı́cula. Podemos então definir o
quadrivetor momento pµ por

pi = mv i ; i = 1, 2, 3,
p4 = E/c, (1.111)

que se transforma como um vetor contravariante. De (1.105–1.107) podemos


escrever as seguintes equações de movimento:
dpi
= Fi ; i = 1, 2, 3,
dt
dp4 F·v
= , (1.112)
dt c
1.9. Formulação relativı́stica 29

que ainda não é a forma covariante que buscamos. Para obtê-la, introduzimos
o intervalo de tempo próprio associado a uma partı́cula por
q
dτ = 1 − v 2 /c2 dt, (1.113)

que é um escalar, e obtemos


dpµ µ
= FM , (1.114)

onde a força de Minkowski se transforma como um vetor contravariante e é
definida por

i Fi
FM =q ,
1 − v 2 /c2
4 F·v
FM = q . (1.115)
c 1 − v 2 /c2

As equações (1.114) são portanto a forma covariante das equações de movi-


mento no caso relativı́stico.
Para a formulação lagrangeana da dinâmica relativı́stica existem duas
abordagens possı́veis. A primeira consiste em obter uma formulação explici-
tamente covariante partindo de um princı́pio de mı́nima ação covariante, que
envolve complicações cada vez maiores quanto mais complexo o sistema. Por
esse motivo adotaremos a segunda abordagem, que consiste em obter a la-
grangeana em um dado sistema de referência, que nos dê as equações de
movimento corretas nesse sistema, e que serão, portanto, covariantes, apesar
das equações de Euler-Lagrange não explicitarem essa propriedade. Para tal,
vamos novamente supor que a força que atua sobre uma partı́cula deriva de
um potencial V , como na eq. (1.19). Uma lagrangeana que permite deduzir
as eqs. (1.114) é dada por
q
L = −m0 c2 1 − v 2 /c2 − V. (1.116)
30 Capı́tulo 1. Formalismo lagrangeano

As equações de Euler-Lagrange são então


d ∂L ∂L d m0 v i ∂V
i
− i
= q + i = 0, (1.117)
dt ∂v ∂x dt 1 − v 2 /c2 ∂x

ou ainda
dp
= F, (1.118)
dt
como desejado.

1.10 Exercı́cios
1. Considere uma força F que deriva de um potencial generalizado V (r, v)
e que atua sobre uma partı́cula, onde r é o vetor posição com relação
a um dado sistema de referência e v a velocidade da partı́cula. Mostre
que as componentes de F definidas por Fi = −∂V /∂qi +d(∂V /∂ q̇i )/dt se
transformam como um vetor por uma mudança de coordenadas qi → qi0
qualquer. As Fi ’s são componentes contravariantes ou covariantes?

2. Ache o potencial generalizado para a força dada por


ṙ2 − 2r̈r
!
1
F = 2 1− ,
r c2
e escreva a respectiva lagrangeana para uma partı́cula de massa m e
deduza dela as equações de movimento.

3. Um disco de raio r e massa m está sobre outro disco fixo e de raio R


sobre o qual gira sem deslizar. Determine o ponto em que o contato
entre os dois é perdido supondo que a velocidade inicial do centro de
massa do primeiro disco tem módulo v.

4. Uma partı́cula de massa m desce sem atrito uma rampa de massa M


que também pode se mover sem atrito sobre um plano horizontal. De-
termine a(s) condição(ões) de vı́nculo(s) sobre o sistema, diga se são ou
1.10. Exercı́cios 31

não-holonômicas. Escreva a lagrangeana para o sistema e as equações


de movimento.

5. Henon e Heiles propuseram em 1964 um modelo para o movimento de


uma estrela em um campo gravitacional com simetria cilı́ndrica, que
descreve o campo gravitacional de uma galáxia. O potencial é então
da forma V (r, z) onde r é a distância radial ao eixo da galáxia e z a
distância ao plano da galáxia medida ao longo desse eixo. Escreva a
lagrangeana da estrela nesse modelo e diga de que maneira um potencial
dessa forma permite simplificar as equações de movimento, e ache essa
forma simplificada.

6. Obtenha a equação (1.96) a partir das definições dos ângulos de Euler


e das eqs. (1.95).

7. Considere um pião com simetria axial que se movimenta em torno de


um ponto fixo p que faz parte dele. Usando os ângulos de Euler, escreva
uma forma simples para a energia cinética. Supondo que o pião está sob
a ação de um potencial dado por V = M r · g, onde r é o vetor posição
do seu centro de massa com relação ao ponto p, g é a aceleração da
gravidade e M a massa do pião. Escreva a lagrangeana para o pião e
as equações de movimento e ache suas soluções. Neste caso o sistema
sendo conservativo a energia total E = T + V é conservada, o que
permite simplificar o problema. Demonstre a conservação de E.

8. Considere um pêndulo formado por uma partı́cula de massa m fixa a


um fio de massa desprezı́vel e comprimento l, que está suspenso em
um suporte cuja posição vertical varia no tempo de maneira determi-
nada pela função h(t). O formalismo lagrangeano se aplica neste caso?
Porque? Diga quais as condições de vı́nculo sobre o movimento da
32 Capı́tulo 1. Formalismo lagrangeano

partı́cula e obtenha suas equações de movimento utilizando o menor


número de coordenadas possı́vel. Finalmente, diga qual a condição so-
bre h(t) para que a energia total E = T + V seja conservada, onde V é
a energia potencial gravitacional da partı́cula e T sua energia cinética.
Qual a razão fı́sica dessa condição?

9. Tomemos um pêndulo duplo, formado por duas hastes rı́gidas de com-


primentos L1 e L2 com uma partı́cula de mass m na sua extremidade,
com mostrado na figura abaixo. As hastes se movem sem atrito no
plano da figura. Obtenha seus modos normais de vibração e as corre-
spondentes freqüências.

Figura 1.4: pêndulo duplo com massa m.

10. A força de Lorentz sobre uma partı́cula de carga elétrica q e massa m é


dada por F = qE+qv×B, onde v é a velocidade da partı́cula, E e B os
campos elétrico e magnético, respectivamente, que supomos constantes
no tempo. Obtenha uma lagrangeana que descreva o movimento da
partı́cula.

11. Mostre que as componentes Iαβ do tensor de inércia se transformam


contravariantemente (vide apêndice A).

12. Considere o problema de três corpos, de massas m1 , m2 e m3 in-


1.10. Exercı́cios 33

teragindo sob a ação exclusiva da atração gravitacional entre elas.


Obtenha a solução de Lagrange para o problema, na qual os três cor-
pos estão no vértice de um triângulo equilátero e girando em torno
do centro de massa do sistema. Qual a velocidade angular de rotação
em função do tamanho do triângulo? Para que tal solução exista é
necessário impor alguma condição sobre as massas?
34 Capı́tulo 1. Formalismo lagrangeano
Capı́tulo 2

Sistemas com infinitos graus de


liberdade - Campos

Até agora estudamos apenas os chamados sistemas discretos, a saber, sis-


temas compostos por partı́culas, corpos rı́gidos, e assim por diante. Em
outras palavras, sistemas com um número finito de graus de liberdade1 . No
entanto, podemos também estudar sistemas contı́nuos e com um número
infinito de graus de liberdade. Tais sistemas compreendem desde o proble-
mas das vibrações elásticas em um sólido até a Teoria Clássica de Campos,
tendo-se como exemplo desta última o campo eletromagnético clássico. Neste
capı́tulo vamos nos interessar mais de perto na extensão a esses sistemas do
formalismo apresentado no capı́tulo anterior. Por simplicidade, vamos de-
nominar tais sistemas de maneira genérica por campos.
Podemos representar o estado fı́sico de um campo por uma n-upla de
funções da forma
φ(x, t) ≡ (φ1 (x, t), . . . , φn (x, t)), (2.1)

onde n é o número de componentes do campo e x são as coordenadas no


1
O tratamento anterior se aplica, a princı́pio, a um sistema com um número infinito
de graus de liberdade, desde que discretos, como, por exemplo, um gás com um número
infinito de partı́culas ocupando um volume também infinito.

35
36 Capı́tulo 2. Sistemas com infinitos graus de liberdade - Campos

espaço fı́sico tridimensional (ou qualquer outro espaço de base considerado).


No caso do campo das vibrações elásticas em um sólido φ representa o ve-
tor deslocamento com relação à posição de equilı́brio para cada ponto do
sólido e n = 3. No caso do campo eletromagnético representamos seu estado
pelos valores do potencial vetor A e do potencial escalar ϕ, de modo que
φ = (ϕ, A1 , A2 , A3 ). Podemos também nos interessar pelas propriedades de
transformação de φ com relação a um dado grupo de transformações, como
os grupos de Galileu e Lorentz, o que permite a introdução das noções de
campo escalar, vetorial ou tensorial. Voltaremos a esse ponto mais adiante.
Vemos então que o campo φ assume um valor para cada ponto do espaço,
caracterizando assim o estado do sistema, o que significa que necessitamos
de um número infinito de valores para determinar o estado exato do sistema.
Por isso falamos em um número infinito de graus de liberdade, continuamente
distribuı́dos no espaço fı́sico.

2.1 Funcionais e derivada funcional


Assim como para os sistemas discretos falávamos de funções das coordenadas
e das velocidades das partı́culas, aqui falaremos de funcionais do campo e
de suas derivadas. Um funcional é um a aplicação que a cada n-upla de
funções (campo) f (x), com x ≡ (x1 , . . . , xN ), nos dá um número real. Em
outras palavras, se F for um funcional atuando sobre f (x), teremos que
F [f (x)] ∈ R. O funcional de Lagrange para um campo, que introduziremos
mais adiante, é um funcional do estado do campo. Vamos então estender a
noção de derivada com relação a variáveis discretas e definir a diferenciação
de funcionais com relação a uma função, denominada de derivada funcional2 .
Para tal precisamos primeiro introduzir a definição de funcional contı́nuo:
2
Outra denominação também usada é a de derivada de Frechet.
2.2. Formulação lagrangeana de uma teoria de campo 37

seja a n-upla σ(x) ≡ (σ1 (x), . . . , σ(x)) e um parâmetro real , então F [f (x)]
é dito contı́nuo em f (x) se o seguinte limite existir e for dado por:

lim F [f (x) + σ(x)] = F [f (x)] . (2.2)


→0

Um funcional F [f (x)] é dito linear em f (x) se existir uma n-upla σ(x) tal
que Z
F [f (x)] =
σ(x) · f (x) dx. (2.3)
RN
Dizemos então que um funcional contı́nuo F em f (x) é diferenciável em f (x)
se o funcional
d
F [f (x) + σ(x)]
lim (2.4)
→0 d

existe para qualquer σ(x) contı́nuo3 e é linear em σ(x), o que nos permite
escrever que
d Z
δF
lim F [f (x) + σ(x)] = N σ(x) · dx, (2.5)
→0 d R δf (x)
onde δF/δf (x) é a derivada funcional de F em f (x).

2.2 Formulação lagrangeana de uma teoria de


campo
A lagrangeana L que descreve a dinâmica de um campo φ é um funcional de
φ e de sua derivada φ̇ com relação ao tempo: L ≡ L(φ, φ̇, t). As equações
de evolução para o campo são então dadas pela seguinte generalização das
equações de Euler-Lagrange:
δL d δL
− = 0. (2.6)
δφ(x) dt δ φ̇(x)
3
Usualmente se restringe a classe das funções utilizadas às funções contı́nuas de classe
N
C (diferenciáveis N vezes), e por vezes sujeitas a certas condições de contorno impostas
pelo problema especı́fico em estudo.
38 Capı́tulo 2. Sistemas com infinitos graus de liberdade - Campos

De especial interesse fı́sico são os campos ditos locais, cuja lagrangeana pode
ser escrita na forma Z
L= L(φ, φx , φ̇, x) dx, (2.7)
RN
onde L é denominada de densidade lagrangeana e φx representa as diferen-
tes derivadas de φ com relação às coordenadas espaciais. As equações de
movimento podem ser obtidas diretamente de L como mostraremos mais
adiante.
As equações de Euler-Lagrange para uma teoria de campo podem ser
deduzidas do princı́pio variacional:
Z t2
δ L(φ, φ̇, t) dt = 0. (2.8)
t1

Esse princı́pio de mı́nima ação para um campo diz que a evolução de φ é tal
que a integral em (2.8) é estável por uma variação φ → φ + σ do campo,
com  infinitesimal e σ qualquer satisfazendo σ(x, t1 ) = σ(x, t2 ) = 0. Para
mostrar que de fato (2.6) decorre de (2.8) usamos a definição (2.5) da derivada
funcional para escrever
Z t2 Z t2
L(φ + σ, φ̇ + σ̇, t) dt − L(φ, φ̇, t) dt
t1 t1
Z t2 Z " #
δL δL
= N · σ(x, t) + · σ̇(x, t) dxdt
t1 R δφ δ φ̇
Z t2 Z " #
δL d δL
= − · σ(x, t) dxdt = 0. (2.9)
t1 RN δφ dt δ φ̇
Essa equação é válida para σ(x, t) qualquer, e conseqüentemente obtemos
justamente as equações de Euler-Lagrange (2.6).

2.3 Formulação explicitamente covariante


As teorias de campo de maior importância na Fı́sica geralmente descrevem
partı́culas a altas energias, devendo-se portanto levar em conta efeitos rela-
2.3. Formulação explicitamente covariante 39

tivı́sticos que se tornam importantes. Particularmente, a teoria deve ser


covariante mediante uma transformação de Lorentz, e sendo assim, dizemos
que se trata de uma Teoria de Campo Relativı́stico. Ao contrário do que
ocorre no caso discreto, uma formulação lagrangeana explicitamente cova-
riante pode ser obtida diretamente, como veremos a seguir.
Vamos supor que o campo seja local, de modo que possamos escrever a
ação na forma Z
S= L d4 x, (2.10)
M0

onde d4 x ≡ c dtdx e M0 está contido no espaço de Minkowski4 . Para que


as equações de movimento sejam explicitamente covariantes impomos que S
seja um escalar por uma transformação de Lorentz, ou seja, que seu valor seja
invariante sob essa transformação. De modo geral, a densidade lagrangeana
depende das componentes do campo e de suas derivadas com relação às qua-
tro coordenadas no espaço de Minkovski. Uma maneira de garantir essa in-
variância é impor que o integrando Ld4 x em (2.10) seja também um escalar.
Visto que, para dois sistemas de referência O e O0 quaisquer, os elementos
de volume são iguais, i. e.
d4 x0 = d4 x, (2.11)

concluı́mos que L é ela própria um escalar com relação à transformação de


Lorentz. Dito isso, usando (2.10) escrevemos o princı́pio de mı́nima ação
como
δS = 0. (2.12)

Lembrando que L = L(φ, φ,µ , xµ ), onde φ,µ ≡ ∂φ/∂xµ , e fazendo a variação


φ(x) → φ(x) + σ(x), onde σ(x) se anula na fronteira de M0 , temos que
" #
Z
∂L ∂L
δS =  · σ(x) + · σ ,µ (x) d4 x = 0. (2.13)
M0 ∂φ(x) ∂φ,µ (x)
4
M0 é uma região conexa do espaço de Minkowski.
40 Capı́tulo 2. Sistemas com infinitos graus de liberdade - Campos

Vale a pena observar aqui que o princı́pio variacional na forma (2.8) pode
ser reobtida a partir dessa formulação5 . Fazendo uma integração por partes
obtemos que
" #
Z
∂L d ∂L
δS =  − µ · σ(x) d4 x. (2.14)
M0 δφ(x) dx ∂φ,µ (x)
Como a variação σ(x) é arbitrária, obtemos as seguintes equações de movi-
mento:
d ∂L ∂L
µ
− = 0, (2.15)
dx ∂φ,µ ∂φ(x)
onde as derivadas totais com relação a xµ devem ser calculadas levando em
conta a dependência de φ e φ,µ nessas variáveis. Portanto, se pudermos achar
uma densidade lagrangeana escalar L que gere as equações de movimento
corretas através de (2.15), então essas mesmas equações podem ser deduzidas
de um princı́pio variacional dado por (2.10) e (2.12). Por outro lado, para
uma densidade lagrangeana escalar, as equações obtidas a partir de (2.15)
serão explicitamente covariantes por uma transformação de Lorentz. Note-se
também que se definirmos a lagrangeana por
Z
L= L d3 x, (2.16)
R3
as mesmas equações de movimento são obtidas a partir de (2.6). A diferença
essencial entre as formas equivalentes (2.6) e (2.15) está no fato que na última
a covariância é explı́cita enquanto que na primeira não.
Como para o caso discreto, a densidade lagrangeana L não é univoca-
mente definida. Para uma dada densidade lagrangeana L, obtemos uma
outra equivalente a partir de um vetor f µ = f µ (x, φ) por
d µ
L0 = L + f . (2.17)
dxµ
5
Na expressão (2.8) as variações de φ se anulam para t = t1 e t = t2 . Em (2.12) ela
se anula sobre a fronteira de qualquer região conexa M 0 . O caso anterior é recuperado
quando M 0 é a região entre os dois hiperplanos definidos por t = t1 e t = t2 .
2.4. Aplicações 41

A demonstração disso é também análoga ao caso discreto: calculamos a


variação da ação associada a L0 :

0
Z
0
Z Z
d µ
δS = δ L dx = δ L dx + δ f dx
M0 M0 M0 dxµ
Z
d µ
= δS + δ f dx. (2.18)
M0 dxµ
O último termo pode ser transformado em uma integral de superfı́cie sobre
a fronteira de M0 , que independe da variação do campo, e implica então
δS 0 = δS, o que demonstra a equivalência das lagrangeanas.
No restante deste capı́tulo vamos aplicar o formalismo acima descrito para
um campo invariante por um tipo de transformação de simetria, denominada
transformação de calibre6 , e que possui propriedades importantes, que serão
aproveitadas na aplicação da teoria hamiltoniana para sistemas com vı́nculos
no capı́tulo 6. Faremos também aplicações à equação de Schrödinger e ao
campo de Klein-Gordon.

2.4 Aplicações
2.4.1 Campo eletromagnético
O campo elétrico E e o campo magnético B na presença de uma densidade de
carga ρ(x, t) e de um fluxo de carga j(x, t) obedecem às equações de Maxwell:

ρ
∇·E=
, (2.19)
0
∂B
∇×E=− , (2.20)
∂t
∇ · B = 0, (2.21)
j 1 ∂E
∇×B= 2 + 2 , (2.22)
c 0 c ∂t
6
Gauge Transformation em inglês
42 Capı́tulo 2. Sistemas com infinitos graus de liberdade - Campos

onde c é a velocidade da luz no vácuo, 0 = 8, 8544 × 10−12 C 2 /N m2 a


permissividade elétrica do vácuo, e o operador gradiente em um sistema de
coordenadas cartesianas é dado por
!
∂ ∂ ∂
∇≡ 1
, 2, 3 . (2.23)
∂x ∂x ∂x

As equações de Maxwell estão expressas no sistema de unidades MKSA.


A equação (2.21) garante a existência de um campo vetorial A(x, t), de-
nominado de potencial vetor, e tal que

B = ∇ × A. (2.24)

Por sua vez, a equação (2.20) em conjunto com (2.24) garante a existência
de um campo escalar ϕ(x, t) tal que

∂A
E=− − ∇ϕ. (2.25)
∂t

Vemos então que podemos usar, de modo inteiramente equivalente, as gran-


dezas A e ϕ no lugar de E e B. As equações de Maxwell são então reescritas
usando-se (2.24) e (2.25):

∂ ρ
−∇2 ϕ − ∇·A= , (2.26)
∂t 0

∂ ∂ 2A j
−c2 ∇2 A + c2 ∇(∇ · A) + ∇ϕ + 2 = . (2.27)
∂t ∂t 0
Neste ponto notemos que A e ϕ não são univocamente definidos. De fato,
uma transformação da forma

A0 = A + ∇Λ(x, t),

ϕ0 = ϕ − Λ(x, t), (2.28)
∂t
2.4. Aplicações 43

mantém invariantes os campos elétrico e magnético, assim como as equações


(2.26) e (2.27). A transformação (2.28) é denominada de transformação de
calibre do campo eletromagnético7 .
Uma densidade lagrangeana apropriada para descrever o campo eletro-
magnético na presença de cargas é dada por
1 1
L = (E 2 − B 2 ) + A · j − ρϕ. (2.29)
0 0
Pode-se mostrar que L dada por (2.29) é um escalar com relação ao grupo
de Lorentz. Um caso que nos interessa de mais perto é quando tratamos o
campo sem a presença de cargas e correntes elétricas. Dessa maneira obte-
mos equações para as quais a invariância relativı́stica é explı́cita. Para tal
definimos o tensor de campo eletromagnético por
0 Ex1 Ex2 Ex3
 
 −Ex1 0 Bx3 −Bx2 
(F µν ) =  , (2.30)
 
 −Ex2 −Bx3 0 Bx1 
−Ex3 Bx2 −Bx1 0
e o quadrivetor de potencial por

Ai = Axi , i = 1, 2, 3;
A0 = ϕ. (2.31)

Podemos rescrever (2.30) na forma mais compacta:


∂Aµ ∂Aν ∂Aµ ρν ∂Aν ρµ
F µν = − = η − η . (2.32)
∂xν ∂xµ ∂xρ ∂xρ
As equações de Maxwell são então expressas por
∂F µν
= 0. (2.33)
∂xν
7
Como veremos no capı́tulo 6, a invariância do campo eletromagnético por uma trans-
formação de calibre está intimamente ligada ao fato da lagrangeana do campo eletro-
magnético ser degenerada, i. e. ao fato da transformação entre os momentos e as derivadas
do campo não ser inversı́vel.
44 Capı́tulo 2. Sistemas com infinitos graus de liberdade - Campos

A equação (2.33) é explicitamente covariante, e decorre da seguinte densidade


lagrangeana:
1 1
L = − Fµν F µν = (E2 − B2 )
4 2 !
µ
1 ∂A ∂Aν ∂Aµ
= − −
2 ∂xν ∂xµ ∂xν
1 ∂Aµ σν ∂Aν σµ ∂Aµ
!
= − η − η
2 ∂xσ ∂xσ ∂xν
1
= − Aρ,σ (η ρµ η σν − η ρν η σµ )Aµ,ν , (2.34)
2
que é explicitamente um escalar, e onde utilizamos a notação mais compacta
∂Aµ
Aµ,ν ≡ . (2.35)
∂xν

2.4.2 Equação de Schrödinger


Tomemos a equação de Schrödinger para uma partı́cula:
∂ h̄2 2
−ih̄ ψ(x, t) − ∇ ψ(x, t) + V (x, t)ψ(x, t) = 0, (2.36)
∂t 2m
onde h̄ é a constante de Planck, V (x, t) é o potencial ao qual a partı́cula está
submetida, ψ(x, t) é a função de onda e m a massa da partı́cula. Para obter
uma densidade lagrangeana da qual decorre a eq. (2.36) vamos utilizar o fato
que ψ é um campo complexo, o que implica a seguinte relação:
∂ψ ∗ ∂ψ
= = 0. (2.37)
∂ψ ∂ψ ∗
A densidade lagrangeana é então dada por
h̄ h̄ h̄2
L = i ψ̇ψ ∗ − i ψ ψ̇ ∗ − ∇ψ · ∇ψ ∗ − V ψ ∗ ψ, (2.38)
2 2 2m
onde ψ e ψ ∗ são tratados como variáveis independentes no momento de es-
crever as equações de Euler-Lagrange, que implicam duas equações: a eq.
(2.36) e seu complexo conjugado.
2.5. Exercı́cios 45

2.4.3 Campo de Klein-Gordon


O campo de Klein-Gordon φ(x), com x ≡ (x1 , x2 , x3 , x4 ), é um campo escalar
por uma transformação de Lorentz e obedece à equação de Klein-Gordon:

(22 − m2 )φ(x) = 0, (2.39)

onde m é a massa da partı́cula e o operador d’alambertiano 22 é definido


por
∂ ∂ µν
22 ≡ η . (2.40)
∂xµ ∂xν
Uma densidade lagrangeana escalar que descreve esse campo pode ser
escrita como
1 ∂φ ∂φ
L = ( µ ν η µν + m2 φ2 ). (2.41)
2 ∂x ∂x
A invariância de L por uma transformação de Lorentz é evidente em (2.41)
e a substituição de (2.41) em (2.15) nos dá a eq. (2.39).

2.5 Exercı́cios
1. Obtenha a equação de campo para a seguinte lagrangeana:
 !3 
Z
1 ∂ψ ∂ψ a ∂ψ b ∂ 2ψ 
L=  + − dx, (2.42)
2 ∂x ∂t 6 ∂x 2 ∂x2

para o campo ψ(x, t) em um espaço unidimensional de coordenada x,


e onde a e b são constantes.

2. Mostre que as equações de Maxwell decorrem das densidades lagrange-


anas (2.29) e (2.34).
46 Capı́tulo 2. Sistemas com infinitos graus de liberdade - Campos
Capı́tulo 3

Simetrias e invariantes

Uma vez obtidas as equações de Euler-Lagrange para o sistema considerado,


todo o trabalho restante consiste em resolver as equações de movimento, o
que, na maioria das vezes, é uma tarefa extremamente difı́cil. O problema
pode, no entanto, ser grandemente simplificado se conhecermos constantes
de movimento do sistema, a saber, grandezas dinâmicas (funções das coor-
denadas e das velocidades) conservadas. Ele pode eventualmente ser inteira-
mente integrado se conhecermos um número suficiente dessas constantes.
Neste capı́tulo veremos que existe uma relação próxima entre as simetrias
contı́nuas e as grandezas conservadas de um sistema fı́sico através do teorema
de Nöther para simetrias da ação. Discutiremos também como simetrias das
próprias equações de movimento podem ser usadas para obter informação
útil sobre o sistema.

3.1 Teorema de Nöther


Nesta seção procuramos fazer uma apresentação que englobe tanto o caso
discreto como o caso contı́nuo baseada na abordagem de Hill [Hill,1951]. Para
tal, usemos a seguinte notação: as variáveis independentes que aparecem

47
48 Capı́tulo 3. Simetrias e invariantes

nas equações de movimento como parâmetros são denotadas por xµ , com


µ = 1, . . . , n. As variáveis dependentes, que dependem das anteriores são
denotadas por ψk , com k = 1, . . . , N . No caso discreto temos n = 1 e
x1 = t, enquanto que ψk = qk são as coordenadas das partı́culas do sistema.
Para um campo, temos as coordenadas do espaço fı́sico (x1 , x2 , x3 ) e x4 = t
(x4 = ct para um campo relativı́stico) como as variáveis independentes e as
componentes do campo ψk = φk como variáveis dependentes.
A lagrangeana (ou densidade lagrangeana para campos, que supomos
sejam locais) é função de xµ , ψk e ψk,µ ≡ ∂ψk /∂xµ , de modo que a ação é da
forma Z
S= n L(xµ , ψk , ψk,µ ) dn x. (3.1)
B⊂R
Nessa notação as equações de movimento são escritas como
d ∂L ∂L
− = 0. (3.2)
dxµ ∂ψk,µ ∂ψk
Vamos agora nos interessar por transformações de simetria das equações
(3.2), ou seja, por transformações infinitesimais da forma (  1)1

x0µ = xµ + ηµ (ψ, x), (3.3)

ψk0 (x0 ) = ψk (x) + ξk (ψ, x), (3.4)


que mantenham invariante a ação (3.1) e conseqüentemente as equações de
movimento (3.2).
Afim de que a integral de ação (3.1) permaneça invariante sob tais trans-
formações, impomos que a lagrangeana se transforma de maneira a satisfazer
a seguinte relação:

L0 (x0µ , ψk0 , ψk,µ


0
) dn x0 = L(xµ , ψk , ψk,µ ) dn x. (3.5)
1
As transformações (3.3), (3.4) são denominadas de geométricas, pois só dependem
das componentes de ψ e das variáveis independentes xµ . Podemos utilizar também trans-
formações não-geométricas, que dependem também das derivadas de ψ, que leva então a
uma generalização do teorema de Nöther [Sarlet,1981].
3.1. Teorema de Nöther 49

Queremos então que as equações de movimento obtidas usando-se L0 , definida


em (3.5), e L coincidam, o que é equivalente a dizer que existem n funções
fµ (x, ψ) tais que

dfµ0
L(x0µ , ψk0 , ψk,µ
0
) = L0 (x0µ , ψk0 , ψk,µ
0
)+ , (3.6)
dx0µ

onde fµ0 ≡ fµ (x0 ν, ψk0 ). Os elementos de volume dn x e dn x0 são ligados pela


relação
dn x0 = Jdn x, (3.7)

onde J é o jacobiano da transformação (3.3), que é dado pelo determinante


da matriz |∂x0µ /∂xν |. Temos assim que

∂x0µ
! !
dηµ dηµ
J = Det = Det 1 + 
=1+ , (3.8)
∂xν dxν dxµ

onde retivemos apenas os termos lineares em . Multiplicando (3.6) por dn x0


e usando (3.5) obtemos que

df 0
" #
L(xµ , ψk , ψk,µ )d x = n
−  µ0 dn x0
L(x0µ , ψk0 , ψk,µ
0
)
dxµ
dfµ n 0
= L(x0µ , ψk0 , ψk,µ
0
)dn x0 −  d x, (3.9)
dxµ

onde fµ ≡ fµ (xν , ψk ) e dfµ0 /dx0µ = dfµ /dxµ + O(2 ). Usando (3.7) e (3.8)
chegamos à relação
" # !
dfµ dην
0
L(x0µ , ψk0 , ψk,µ ) = L(xµ , ψk , ψk,µ ) +  1− . (3.10)
dxµ dxν

De (3.3) e (3.4) temos ainda que

dψk0 (x0ν ) ∂ψk0 ∂xν


" #
0 dξ dην
≡ ψk,µ = = ψk,µ +  − ψk,ν , (3.11)
dx0µ ∂xν ∂x0µ dxµ dxµ
50 Capı́tulo 3. Simetrias e invariantes

onde introduzimos a notação a,µ ≡ da/dxµ . Esta última relação finalmente


nos dá a expressão que desejamos:

L(xµ , ψk , ψk,µ )
" !#
∂L ∂L ∂L dξk dην
+ ηµ + ξk + − ψk,ν
∂xµ ∂ψk ∂ψk,µ dxµ dxµ
" # !
dfµ dην
= L(xµ , ψk , ψk,µ ) +  1− , (3.12)
dxµ dxν
ou ainda, após rearranjarmos os termos:
dfµ
DL = , (3.13)
dxµ
onde o operador D é definido por
!
∂ ∂ dξk dην ∂ dην
D ≡ ηµ + ξk + − ψk,ν + . (3.14)
∂xµ ∂ψk dxµ dxµ ∂ψk,µ dxν
A equação (3.13) é uma condição suficiente, mas não necessária, para que
a transformação dada por (3.3) e (3.4) seja uma transformação de simetria
do sistema. Ela não é necessária pois para deduzirmos (3.13) impusemos
que a integral de ação fosse invariante por essa transformação, o que não é
necessariamente o caso. De fato, como veremos mais adiante, podemos ter
transformações que mantenham invariantes as equações de movimento, mas
não a ação. Quando a ação for invariante por uma transformação falare-
mos de simetrias noetherianas e caso contrário, falaremos de simetrias não-
noetherianas.
Uma vez determinada uma transformação de simetria satisfazendo (3.13)
e o correspondente vetor fµ (xν , ψk ), podemos utilizá-la para determinar uma
constante de movimento do sistema, como passamos a mostrar. Partimos da
equação (3.13), e usando a identidade
d ∂L ∂L ∂L
L≡ + ψk,µ + ψk,ν,µ , (3.15)
dxµ ∂xµ ∂ψk ∂ψk,ν
3.2. Aplicações 51

chegamos à relação
" #
d ∂L
Lηµ + (ξk − ψk,ν ην )
dxµ ∂ψk,µ
" #
∂L d ∂L dfµ
+ − (ξk − ψk,ν ην ) = . (3.16)
∂ψk dxµ ∂ψk,µ dxµ
Obtemos então, para um sistema cuja dinâmica é determinada pelas equações
de Euler-Lagrange, a seguinte lei de conservação:
d
Gµ = 0, (3.17)
dxµ
onde a grandeza conservada Gµ é dada por
∂L
Gµ (xν , ψk , ψk,ν ) = Lηµ + (ξk − ψk,ν ην ) − fµ . (3.18)
∂ψk,µ
As equações (3.13) e (3.17) são a formulação do teorema de Nöether: toda
transformação de simetria definida por (3.3) e (3.4), que mantém a ação in-
variante, e portanto satisfaz (3.13), corresponde uma quantidade conservada
Gµ (xν , ψk , ψk,ν ) dada por (3.18). Como exemplos de aplicação veremos na
próxima seção o oscilador harmônico, o campo eletromagnético e a equação
de Schrödinger.

3.2 Aplicações
3.2.1 Oscilador harmônico
Tomemos uma partı́cula de massa m = 1 sob a ação de uma força da forma
F = −q, onde q é a distância a um ponto fixo O. Supondo que os vı́nculos
que agem sobre ela a forcem a se deslocar sobre uma reta passando por O, sua
energia cinética é dada por T = q̇ 2 /2 e sua energia potencial por V = q 2 /2.
A lagrangeana do sistema é portanto
1
L = (q̇ 2 − q 2 ). (3.19)
2
52 Capı́tulo 3. Simetrias e invariantes

Procuramos uma transformação de simetria que mantenha a ação invari-


ante da forma (  1)

t0 = t + η(q, t),
q 0 = q + ξ(q, t). (3.20)

A condição (3.13) se escreve então como


∂L ∂L ∂L ˙
η+ ξ+ (ξ − q̇ η̇) + η̇L = f˙, (3.21)
∂t ∂q ∂ q̇
para alguma função f a ser determinada. Substituindo (3.19) em (3.21) obte-
mos uma igualdade entre dois polinômios em q̇, e igualando os coeficientes
em iguais potências de q̇ chegamos às seguintes equações em η, ξ e f :
termos em q̇ 3 :
∂η
= 0, (3.22)
∂q
termos em q̇ 2 :
∂ξ 1 ∂η
− = 0, (3.23)
∂q 2 ∂t
termos em q̇:
∂ξ ∂η 2 ∂f
− q = , (3.24)
∂t ∂q ∂q
termos independentes de q̇:
1 ∂η 2 ∂f
−ξq − q = . (3.25)
2 ∂t ∂t
De (3.22) obtemos a seguinte forma para η:

η = g1 (t), (3.26)

onde g1 (t) deve ainda ser determinada. Usando (3.26) em (3.23) obtemos
para ξ a forma:
1
ξ = ġ1 (t)q + g2 (t), (3.27)
2
3.2. Aplicações 53

onde g2 (t) também é uma função arbitrária. Usando agora (3.26) e (3.27)
em (3.24) e (3.25) podemos escrever que

1 ∂f
g̈1 (t)q + ġ2 (t) = , (3.28)
2 ∂q

e também que
∂f
−ġ1 (t)q 2 − g2 (t)q = . (3.29)
∂t
A equação (3.28) nos dá para f a seguinte expressão:

1
f (q, t) = g̈1 (t)q 2 + ġ2 (t)q + g3 (t), (3.30)
4

com outra função g3 (t) a ser determinada. Finalmente, usando (3.30) em


(3.29) obtemos a seguinte equação polinomial em q:

1 ...
−g2 (t)q − ġ1 (t)q 2 = g 1 (t)q 2 + g̈2 (t)q + ġ3 (t), (3.31)
4

e igualando os coeficientes de iguais potências de q obtemos as equações

...
g 1= −4ġ1 ,
g̈2 = −g2 ,
ġ3 = 0, (3.32)

cujas soluções gerais são:

g1 (t) = c1 sen (2t) + c2 cos(2t) + c3 ;


g2 (t) = c4 sen (t) + c5 cos(t);
g3 (t) = c6 , (3.33)

onde ci , i = 1, . . . , 6, são parâmetros arbitrários. As soluções (3.33) nos dão


cinco pares de funções ξ e η linearmente independentes tomando apenas um
54 Capı́tulo 3. Simetrias e invariantes

dos parâmetros como não-nulo de cada vez:

ξ (1) = q cos(2t), η (1) = sen (2t), f (1) = −q 2 sen (2t),


ξ (2) = −q sen (2t), η (2) = cos(2t), f (2) = −q 2 cos(2t),
ξ (3) = 0, η (3) = 1, f (3) = 0, (3.34)
ξ (4) = sen (t), η (4) = 0, f (4) = q cos(t),
ξ (5) = cos(t), η (5) = 0, f (5) = −q sen (t).

O sexto parâmetro c6 corresponde a uma constante que é somada a f , que


por sua vez corresponde à transformação identidade q 0 = q e t0 = t. As
respectivas constantes de movimento são obtidas de (3.18), que no nosso
caso se escreve como
∂L (i)
G(i) (q, q̇, t) = Lη (i) + (ξ − q̇η (i) ) − f (i) . (3.35)
∂ q̇

A única grandeza conservada com sentido fı́sico mais direto é G(3) , que é
proporcional à energia total do sistema E = T + V . As demais grandezas
conservadas (ou integrais primeiras) são funções das condições iniciais e per-
mitem obter diretamente a solução da equação de movimento.

3.2.2 O campo eletromagnético


Aqui temos que as variáveis xµ correspondem às coordenadas no espaço de
Minkowski e que ψk = Aµ , onde k representa o ı́ndice µ. Vamos então estudar
as transformações de simetria da ação obtida usando a densidade lagrangeana
(2.34). Tomamos

x0µ = xµ + η µ (Aν , xν ),
A0 µ = Aµ + ξµ (Aν , xν ). (3.36)

A condição (3.13) se escreve aqui como (sempre usando a convenção de soma):

dη σ dη µ df µ
!
∂L
µ ∂L dξµ ∂L
η + ξµ + − Aµ,σ ν + L = µ. (3.37)
∂xµ ∂Aµ dxν dx ∂Aµ,ν dxµ dx
3.2. Aplicações 55

Podemos facilmente notar que a densidade lagrangeana (2.34) é invariante


por uma translação arbitrária no espaço de Minkowski, e conseqüentemente,
o mesmo é verdadeiro para a ação do sistema. A transformação infinitesimal
correspondente é dada por

x0µ = xµ + aµ
A0 µ = Aµ ,
fµ = 0, (3.38)

onde os aµ ’s são constantes arbitrárias.


A correspondente quantidade conservada decorre de (3.18):
∂L
Gµ = Laµ − Aν,λ aλ , (3.39)
∂Aν,µ
que satisfaz a equação (3.17):
dGµ
" #
d ∂L
µ
= µ
Laµ − Aν,ρ aρ
dx dx ∂Aν,µ
" #
d µ ∂L
= µ
Lδρ − Aν,ρ aρ = 0. (3.40)
dx ∂Aν,µ
Como os aµ ’s são arbitrários, obtemos que o tensor
∂L
Tρµ = Lδρµ − Aν,ρ (3.41)
∂Aν,µ
obedecerá a lei de conservação
dTρµ
= 0. (3.42)
dxµ
O tensor Tρµ é denominado de tensor energia-momento do campo eletro-
magnético.
Para interpretar fisicamente a lei de conservação expressa em (3.42), va-
mos calcular explicitamente as componentes do tensor energia-momento uti-
lizando (2.24) e (2.25), o que nos dá (vide exercı́cio 5):
E2 + B2
T00 = , T0i = (E × B)i . (3.43)
2
56 Capı́tulo 3. Simetrias e invariantes

Vemos que T44 e T4i correspondem à densidade de energia e às componentes


do vetor de Pointing, respectivamente. A lei de conservação (3.42) para i = 4
expressa então a conservação da energia do campo eletromagnético. Pode-se
mostrar que para i = 1, 2, 3 (3.42) expressa a conservação da correspondente
componente do momento linear associado ao campo.

3.2.3 A equação de Schrödinger


Consideremos a equação de Schrödinger da Mecânica Quântica para uma
partı́cula de massa m e sob o efeito de um potencial V (r, t):

∂ψ(r, t) h̄2 2
ih̄ =− ∇ ψ(r, t) + V (r, t)ψ(r, t), (3.44)
∂t 2m
com r designando o vetor posição. Para simplificar, tomemos o caso a uma
dimensão:
∂ψ(x, t) h̄2 ∂ 2 ψ(x, t)
ih̄ =− + V (x, t)ψ(x, t). (3.45)
∂t 2m ∂x2
A densidade lagrangeana para essa equação é obtida considerando ψ e seu
complexo conjugado ψ ∗ como variáveis independentes:

ih̄ ∗ ih̄ h̄2 ∂ψ ∂ψ ∗


L=− ψ̇ ψ + ψ ∗ ψ̇ − − V ψ ∗ ψ. (3.46)
2 2 2m ∂x ∂x
A condição de simetria da ação (3.13) se escreve como
∂f1 ∂f2
DL = + , (3.47)
∂x ∂t
onde !
∂ ∂ dξk dην dην
D = ηµ + ξk + − ψk,ν + , (3.48)
∂xµ ∂ψk dxµ dxµ dxν
com a identificação:

η1 ≡ ηx , ψ1 ≡ ψ, ψ2 ≡ ψ ∗ ,
η2 ≡ ηt , x1 ≡ x, x2 ≡ t. (3.49)
3.2. Aplicações 57

As simetrias da ação dependem evidentemente da forma explı́cita do po-


tencial V . Para ilustrarmos o uso do teorema de Nöther consideremos alguns
casos simples de potencial:

V = V (x) - Potencial independente do tempo

Temos então a seguinte simetria da ação:

η1 = 0, η2 = c (constante),
ξ1 = ξ2 = 0, f1 = f2 = 0, (3.50)

que nos dá



D=c
. (3.51)
∂t
A grandeza conservada possui duas componentes, obtidas de (3.18) (fazendo
c = 1 sem perda de generalidade):
h̄2 ∂ψ ∂ψ ∗ ∂ψ ∗ ∂ψ
" #
G1 = + , (3.52)
2m ∂t ∂x ∂t ∂x
e
h̄2 ∂ψ ∂ψ ∗
G2 = − − V ψ ∗ ψ, (3.53)
2m ∂x ∂x
que obedecem a lei de conservação
∂G1 ∂G2
+ = 0, (3.54)
∂x ∂t
que por sua vez expressa a conservação da energia total do sistema. Isso pode
ser verificado integrando (3.54) em uma região do espaço e depois fazendo
um integração por partes.

V =constante - Partı́cula livre

A ação admite então a simetria definida por

η1 = c (constante), η2 = 0,
ξ1 = ξ2 = 0, f1 = f2 = 0, (3.55)
58 Capı́tulo 3. Simetrias e invariantes

que nos dá



D=c . (3.56)
∂x
As componentes da grandeza conservada podem ser obtidas analogamente
ao caso anterior (vide exercı́cio 6).

3.3 Simetrias da ação e simetrias das equa-


ções de movimento
Cabe agora a seguinte pergunta: as simetrias das equações de movimento são
necessariamente simetrias da ação? A resposta é não. Para mostrarmos isso,
tomemos novamente o exemplo do oscilador harmônico, cuja lagrangeana é
dada por (3.19), e com a equação de movimento

q̈ + q = 0. (3.57)

Fazemos então a seguinte transformação infinitesimal:

q 0 = q + η(q, t),
t0 = t + θ(q, t). (3.58)

Uma transformação de simetria tal que as variações são funções apenas do


tempo e das coordenadas e não das suas derivadas é denominada de simetria
de Lie2 . A transformação em (3.58) induz as seguintes transformações da
velocidade e da aceleração:

dq 0 dq 0 dt
q̇ 0 = = = (q̇ + ηt + ηq q̇)(1 − θt − θq q̇)
dt0 dt dt0
= q̇ + [ηt + ηq q̇ − θt q̇ − θq q̇ 2 ], (3.59)
2
A generalização para campos é obtida considerando simetrias que dependem apenas
dos próprios campos e das variáveis independentes.
3.3. Simetrias da ação e simetrias das equações de movimento 59

com a notação ηt ≡ ∂η/∂t, e


dq̇ 0 dq̇ 0 dt
q̈ 0 ≡ 0
= 0
dt hdt dt
= q̈ +  ηtt + 2ηqt q̇ + ηqq q̇ 2 + ηq q̈ − θtt q̇ − 2θqt q̇ 2
i
−θt q̈ − θqq q̇ 3 − 2θq q̇ q̈ × (1 − θt − θq q̇), (3.60)

e novamente retendo apenas termos até a primeira ordem em , obtemos:


h
q̈ 0 = q̈ +  ηtt + 2ηqt q̇ + ηqq q̇ 2 + ηq q̈ − θtt q̇ − 2θqt q̇ 2
i
−2θt q̈ − θqq q̇ 3 − 3θq q̇ q̈ . (3.61)

Impondo a invariância de (3.57) e usando (3.58) e (3.61) e novamente (3.57)


obtemos a seguinte equação para η e θ:

ηtt + 2ηqt q̇ + ηqq q̇ 2 − ηq q − θtt q̇ − 2θqt q̇ 2


+2θt q̈ − θqq q̇ 3 − 3θq q̇ q̈ + η = 0. (3.62)

Notemos que (3.62) é uma equação polinomial em q̇, o que nos permite igualar
a zero separadamente os coeficientes das potências de q̇:

θqq = 0, (3.63)

ηqq − 2θqt = 0, (3.64)

θtt − 3θq q − 2ηqt = 0, (3.65)

ηtt − ηq q + 2θt q + η = 0. (3.66)

A solução de (3.63) é da forma

θ = g1 (t)q + g2 (t), (3.67)

com g1 (t) e g2 (t) a determinar. Substituindo (3.67) em (3.64) obtemos

η = ġ1 (t)q 2 + g3 (t)q + g4 (t), (3.68)


60 Capı́tulo 3. Simetrias e invariantes

onde g3 (t) e g4 (t) são também funções a determinar. Substituindo (3.67) e


(3.68) em (3.65) no dá

g̈1 (t)q + g̈2 (t) − 3g1 (t)q − 4g̈1 (t)q − 2ġ3 (t) = 0, (3.69)

que por sua vez é uma equação polinomial em q, e igualando os coeficientes


das potências de q a zero, obtemos

g̈1 (t) = −g1 (t), (3.70)

g̈2 (t) − 2ġ3 (t) = 0. (3.71)

Da mesma maneira, a eq. (3.66) nos dá


...
g1 (t)q 2 + g̈3 (t)q + g̈4 (t) − 2ġ1 (t)q 2 − g3 (t)q
+2ġ1 (t)q 2 + 2ġ2 (t)q + ġ1 (t)q 2 + g3 (t)q + g4 (t) = 0, (3.72)

que nos fornece as seguintes equações


...
g1 (t) = −ġ1 (t), (3.73)

g̈3 (t) = −2ġ2 (t), (3.74)

g̈4 (t) = −g4 (t). (3.75)

A eq. (3.73) decorre de (3.70). A solução geral dessa última é

g1 (t) = c1 sen t + c2 cos t, (3.76)

com c1 e c2 constantes arbitrárias. A solução de (3.75) é

g4 (t) = c3 sen t + c4 cos t. (3.77)

Substituindo (3.74) em (3.71) temos


...
g3 (t) = −4ġ3 (t), (3.78)
3.3. Simetrias da ação e simetrias das equações de movimento 61

e substituindo (3.71) em (3.74):


...
g2 (t) = −4ġ2 (t). (3.79)

Temos então que


g3 (t) = c5 sen 2t + c6 cos 2t + c7 , (3.80)

e
g2 (t) = −c5 sen 2t − c6 cos 2t + c8 . (3.81)

As transformações de simetria correspondentes são então dadas por:

η(q, t) = (c1 cos t − c2 sen t)q 2


+(c5 sen 2t + c6 cos 2t + c7 )q + c3 sen t + c4 cos t, (3.82)

θ(q, t) = (c1 sen t + c2 cos t)q + c6 sen 2t + c9 cos 2t + c8 , (3.83)

que formam assim um grupo de transformações a oito parâmetros, enquanto


que as simetrias da ação formam um grupo a apenas cinco parâmetros. Isso
demonstra que existem simetrias das equações de movimento que não con-
servam a ação.
Terminamos esta seção com a observação que a forma mais geral para as
simetrias de um sistema de equações de movimento são da forma

q 0 = q + η(q, q̇, t),


t0 = t + θ(q, q̇, t). (3.84)

A invariância das equações de movimento resulta em um sistema de equações


diferenciais parciais para η e θ. Tal sistema não será mais polinomial em q̇, e
sua solução geral é em geral tão complexa de obter como resolver o sistema
original, a menos de assumirmos dependências predeterminadas de η e θ em
q̇ (por exemplo, um polinômio em q̇ de um dado grau).
62 Capı́tulo 3. Simetrias e invariantes

3.4 Grupos de simetria a um parâmetro


Vemos que a transformação infinitesimal (3.58) induz uma transformação
infinitesimal na variável q̇ e também em q̈. Uma maneira que permite uma
descrição em termos geométricos pode ser obtida reduzindo-se o sistema ori-
ginal a um sistema de primeira ordem. Para exemplificarmos, tomemos a eq.
(3.57) e façamos a seguinte mudança de variáveis:

x1 = q̇,
x2 = q, (3.85)

que implica o seguinte sistema equivalente:

ẋ1 = −x2 ,
ẋ2 = x1 . (3.86)

Podemos então fazer transformações infinitesimais em x1 , x2 e t. No en-


tanto, ao supormos que a transformação depende de t introduzimos uma
redundância desnecessária. De fato, ao admitirmos que a velocidade x1
se transforma independentemente estamos permitindo indiretamente uma
transformação que equivale a uma transformação no tempo. Isso quer dizer
que a transformação mais geral para um sistema de equações de primeira
ordem autônomo (o tempo não aparece explicitamente nas equações diferen-
ciais) depende apenas das variáveis xi , i = 1, . . . , n, onde n é a dimensão do
sistema.
Seja então um sistema da forma

ẋi = fi (x1 , . . . , xn ); i = 1, . . . , n. (3.87)

Suponhamos que ele admite uma simetria infinitesimal:

x0i = xi + ηi (x). (3.88)


3.4. Grupos de simetria a um parâmetro 63

A ação de (3.88) em uma função das variáveis é dada por

n
!
0
X∂
g(x ) = 1 +  ηi g(x). (3.89)
i=1 ∂xi

Essa transformação infinitesimal gera, por iteração de (3.89) um número


infinito de vezes, uma transformação finita da forma:

n
!
0 ∂
X
g(x ) = exp ηi g(x), (3.90)
i=1 ∂xi

onde agora os parâmetros da transformação estão embutidos em ηi . Assim


cada simetria infinitesimal gera um grupo finito a um parâmetro. O grupo
de transformações gerado por todas as transformações infinitesimais possui a
estrutura de grupo de Lie (vide apêndice B), com os geradores infinitesimais
P
da álgebra de Lie associada dados por i ηi ∂/∂xi .

Notemos que uma simetria infinitesimal define um campo vetorial

n
X ∂
G(x) = ηi , (3.91)
i=1 ∂xi

no espaço das variáveis x1 , . . . , xn , que denominamos de campo de simetria.


Essa noção é importante para o método de determinação de constantes de
movimento que apresentaremos na próxima seção. Em particular, se usarmos
as curvas geradas por G(x) para construir uma das coordenadas do sistema,
então o sistema de equações resultante será invariante por translações nessa
coordenada, pois as curvas formadas ao variá-la mantendo as demais coorde-
nadas fixas coincide com as linhas geradas pela transformação de simetria.
64 Capı́tulo 3. Simetrias e invariantes

3.5 Simetrias e invariantes das equações de


movimento
Tomemos então um sistema da forma (3.87) e suponhamos que conhecemos
m simetrias infinitesimais

x0i = xi + ηαi (x), (3.92)

com i = 1, . . . , m. Os geradores da transformação são dados por



ηαi
X
Gα = . (3.93)
i ∂xi

Temos então que


ẋ0i = ẋi +  i j
X
ηα,x j ẋ , (3.94)
j
e
∂f i j
f i (x0 ) = f i (x) + 
X
η , (3.95)
j ∂xj α
de modo que a invariância do sistema (3.87) implica
∂f j
" #
ηα,xj f − j ηαj = 0,
j
X
(3.96)
j ∂x

ou equivalentemente
[F, G] ≡ F G − GF = 0, (3.97)

onde o campo F associado ao sistema original é dado por



f i (x)
X
F = . (3.98)
i ∂xi

Portanto, a condição de que um sistema seja invariante por uma trans-


formação infinitesimal é que a derivada de Lie do campo associado ao sistema,
com relação ao gerador da transformação, seja nulo, ou seja:

LG F = [F, G] = 0. (3.99)
3.5. Simetrias e invariantes das equações de movimento 65

A derivada de Lie de F com a relação a G é uma medida da variação de F


ao longo da direção de G.
Vamos então supor que tenhamos n geradores Gi , i = 1, . . . , n, linear-
mente independentes ponto a ponto no espaço fı́sico n-dimensional de coor-
denadas xi . Eles podem então ser usados como base para expandir qualquer
vetor, e em particular o campo F :

f i (x) ai Gi .
X X
F = i
= (3.100)
i ∂x i

Usando a definição de derivada de Lie (B.35), e associando o parâmetro λi


ao gerador Gi , temos que
∂ X ∂aj
LGi F = F = Gi , (3.101)
∂λi j ∂λi

para todo i, de modo que aj deve necessariamente ser constante. Usando


agora a expressão (3.93) em (3.100) temos que
∂ ∂
f i (x) aj ηji i .
X X
i
= (3.102)
i ∂x i,j ∂x
A matriz de elementos ηji possui inversa ζji em decorrência da independência
linear dos geradores Gi :
i
j
ζji ηkj = δki ,
X X
ζk = (3.103)
j j

e (3.102) implica assim que

J i (x) ≡ ζji f j (x) = ai .


X
(3.104)
j

As grandezas dinâmica J i (x) são portanto constantes de movimento e esse


método permite obter diretamente o mesmo número de constantes de movi-
mento que o de geradores, desde que o número desses últimos seja pelo menos
igual à dimensão do sistema. Obviamente, as constantes de movimento assim
obtidas não são necessariamente todas independentes entre si.
66 Capı́tulo 3. Simetrias e invariantes

3.5.1 Exemplo: partı́cula livre irradiando


Para ilustrar o método consideremos a equação
...
x= kẍ, (3.105)

que descreve o movimento de uma partı́cula carregada sob a ação de seu


próprio campo eletromagnético. A equação (3.105) é um caso particular da
equação de Langevin. Para a determinação de suas simetrias infinitesimais
tomamos a transformação

x0 = x + η(x, t), (3.106)

t0 = t + θ(x, t) (3.107)

que implica

ẋ0 = (ẋ + ηx ẋ + ηt ) (1 − θx ẋ − θt )


h i
= ẋ +  ηx ẋ + ηt − θx ẋ2 − θt ẋ , (3.108)

h 
ẍ0 = ẍ +  ηxx ẋ2 + ηxt ẋ + ηx ẍ + ηxt ẋ + ηtt
i
−θxx ẋ3 − θxt ẋ2 − 2θx ẋẍ − θxt ẋ2 − θtt ẋ − θt ẍ
× (1 − θx ẋ − θt )
h
= ẍ +  ηxx ẋ2 + 2ηxt ẋ + ηx ẍ + ηtt − θxx ẋ3
i
−2θxt ẋ2 − 3θx ẋẍ − 2θt ẍ , (3.109)

...0 ...
h
x = x + ηxxx ẋ3 + 3ηxxt ẋ2 + 3ηxx ẋẍ + 3ηxtt ẋ
+3ηxt ẍ + ηttt − θxxx ẋ4 − 3θxxt ẋ3
−6θxx ẋ2 ẍ − 3θxtt ẋ2 − 9θxt ẋẍ − 3θx ẍ2
... ...
−4θx ẋ x −3θt x −θttt ẋ − 3θtt ẍ] . (3.110)
3.5. Simetrias e invariantes das equações de movimento 67

Impomos então a invariância da equação original, ou seja

...0
x = kẍ0 . (3.111)

Assim (3.109-3.111) implicam que

ẋ2 ẍ [−6θxx ] + ẋẍ [3ηxx − 4θxt − 4kθx ]


+ẍ [3ηxx − 3kθt − 3θtt ] + ẍ2 [−3θx ]
+ẋ4 [−θxxx ] + ẋ3 [ηxxx − 3θxxt ]
+ẋ2 [3ηxxt − 3θxtt ] + ẋ [3ηxtt − θttt ]
= ẋẍ [−3kθx ] + ẍ [kηx − 2kθt ]
+ẋ3 [−kθxx ] + ẋ2 [kηxx − 2kθxt ] + ẋ [2kηxt − kθtt ] + kηtt . (3.112)

Igualando os coeficientes de iguais potências de ẋ e ẍ obtemos o sistema:

θxx = 0, (3.113)

3ηxx − 9θxt − kθx = 0, (3.114)

3ηxt − kθt − 3θtt = 0, (3.115)

θx = 0, (3.116)

θxxx = 0, (3.117)

ηxxx − 3θxxt + kθxx = 0, (3.118)

3ηxxt − 3θxtt − kηxx + 2kθxt = 0, (3.119)

3ηxtt − θttt − 2kηxt + kθtt = 0, (3.120)

ηttt − kηtt = 0. (3.121)

De (3.116) temos que


θ = f1 (t), (3.122)
68 Capı́tulo 3. Simetrias e invariantes

e (3.114) implica que


η = f2 (t)x + f3 (t), (3.123)

onde as funções f1 , f2 e f3 são a determinar. Estas duas últimas equações


implicam junto com (3.115) que

3f˙2 (t) − 3k f˙1 (t) − 3f¨1 (t) + kf2 (t) = 0. (3.124)

Agora (3.121) implica


... ...
f 2 (t)x+ f 3 (t) = k f¨2 (t)x + k f¨3 (t), (3.125)

que por sua vez é uma equação linear em x, e pode ser decomposta em
...
f 2 (t) = k f¨2 (t), (3.126)

e
...
f 3 (t) = k f¨3 (t). (3.127)

Já (3.120) nos dá


...
3f¨2 (t)− f 1 (t) − 2k f˙2 (t) + 2k f¨1 (t) = 0. (3.128)

As equações (3.124), (3.126–3.128) formam um sistema de quatro equações


para as três incógnitas f1 (t), f2 (t) e f3 (t). As soluções gerais de (3.126) e
(3.127) são:
f2 (t) = c1 ekt + c2 t + c3 , (3.129)

f3 (t) = c4 ekt + c5 t + c6 . (3.130)

Usando (3.124) em (3.128) obtemos

... k2 ˙
f 1 (t) = f1 (t), (3.131)
3
3.5. Simetrias e invariantes das equações de movimento 69

cuja solução geral é


√ √
f1 (t) = c7 ekt/ 3
+ c8 e−kt/ 3
+ c9 . (3.132)

Em (3.129), (3.130) e (3.132) c1 , . . . , c9 são constantes arbitrárias. Substi-


tuindo (3.129) e (3.132) em (3.124) temos que

kt k 2 c7 kt/√3 k 2 c8 −kt/√3
3c1 e + 3c2 − √ e + √ e
3 3
√ √
2 kt/ 3 2 −kt/ 3
−c7 k e + c8 k e = 0, (3.133)

que implica
c1 = c2 = c7 = c8 = 0, (3.134)

e assim temos uma álgebra a cinco elementos dados pela solução geral das
equações de simetria (3.113-3.121):

θ = c9 , (3.135)

η = c3 x + c4 ekt + c5 t + c6 , (3.136)

que por sua vez nos dão os seguintes geradores infinitesimais de simetria:
∂ ∂ ∂
U1 = ; U2 = ; U3 = t ;
∂t ∂x ∂x
∂ ∂
U4 = ekt ; U5 = x . (3.137)
∂x ∂x
Para aplicar o método descrito na seção anterior, vamos reescrever a
equação (3.105) na forma de uma sistema equivalente de primeira ordem,
introduzindo as novas variáveis x1 = x, x2 = ẋ, x3 = ẍ. Como os geradores de
simetria envolvem explicitamente o tempo, introduzimos mais uma variável
x4 = t. Assim obtemos o sistema

ẋ1 = x2 ,
70 Capı́tulo 3. Simetrias e invariantes

ẋ2 = x3 ,
ẋ3 = kx3 ,
ẋ4 = 1, (3.138)

cujos geradores de simetria podem ser obtidos por extensão direta de (3.137)
acrescentando as componentes associadas às variações de x2 e x3 em (3.108)
e (3.109):
∂ ∂ ∂ ∂
G1 = , G2 = , G3 = x4 + ,
∂x4 ∂x1 ∂x1 ∂x2
∂ ∂ ∂
G4 = f (x4 ) + f 0 (x4 ) + f 00 (x4 ) ,
∂x1 ∂x2 ∂x3
∂ ∂ ∂
G5 = x1 + x2 + x3 , (3.139)
∂x1 ∂x2 ∂x3
onde f (x4 ) = exp(kx4 ).
Tomemos então {G1 , G2 , G3 , G4 } como conjunto de geradores linearmente
independentes. A matriz ηji em (3.102) é dada por

0 0 0 1
 
 1 0 0 0 
η= , (3.140)
 
 x4 1 0 0 
f (x4 ) f 0 (x4 ) f 00 (x4 ) 0
cuja inversa é
0 1 0 0
 
 0 −x4 1 0 
ζ= ,

(3.141)
0 g1 g2 g3

 
1 0 0 0
onde
f 0 x4 − f x4 1
g1 = 00
= − 2,
f k k
0
f 1
g2 = − 00 = − ,
f k
−kx4
1 e
g3 = 00 = . (3.142)
f k2
3.6. Exercı́cios 71

Usamos então a expressão (3.104) para obter as seguintes integrais primeiras:

J1 = 1,
J2 = x2 − x3 x4 + g1 kx3 ,
J3 = x3 + g2 kx3 = 0,
J4 = g3 kx3 , (3.143)

e voltando às variáveis originais x e t temos:



J2 = ẋ − ,
k2
1 −kt2
J4 = ẍe , (3.144)
k
que são então as constantes de movimento para a equação (3.105).

3.6 Exercı́cios
1. Obtenha todas as simetrias de Nöther, e as correspondentes grandezas
conservadas, de um pêndulo cônico, considerando pequenas amplitudes
na equação de movimento. Interprete fisicamente as grandezas conser-
vadas.

2. utilizando o teorema de Nöther, determine as grandezas conservadas


do sistema descrito pela lagrangeana
1  
L = eγt mẋ2 − kx2 , (3.145)
2
e as interprete fisicamente.

3. Obtenha as simetrias da equação de Langevin para uma partı́cula irra-


diando sob a ação de um campo elétrico constante E e sob a ação de
uma força externa linear f = −kx em uma dimensão:
... 1 k e
x= ẍ + x− E.
τ mτ mτ
72 Capı́tulo 3. Simetrias e invariantes

Determine então os geradores extendidos (no espaço do sistema cor-


respondente de primeira ordem) e obtenha as grandezas conservadas
correspondentes.

4. Determine explicitamente todos os invariantes de Nöther para o os-


cilador harmônico e utilize-os para obter a solução q(t) da equação de
movimento.

5. Obtenha explicitamente as componentes do tensor energia-momento do


campo eletromagnético (3.41) em função das componentes de E e B.

6. Determine as componentes da grandeza conservada obtida utilizando


o teorema de Nöther para a equação de Schrödinger, no caso de um
potencial constante.
Capı́tulo 4

Formalismo canônico e
equações de Hamilton

Vamos agora apresentar o formalismo canônico, formalmente equivalente ao


formalismo lagrangeano, e que é a base de outras teorias fı́sicas como a
Mecânica Estatı́stica através da equação de Liouville, ou da teoria de per-
turbações partindo do formalismo de Hamilton-Jacobi, que abre o caminho
para o estudo de sistemas dinâmicos hamiltonianos. O formalismo canônico
é também a base da quantização de Dirac, que permite a passagem de um
sistema clássico ao seu correspondente quântico.
Apresentamos inicialmente o formalismo para sistemas discretos, e ao
final do capı́tulo a extensão para sistemas contı́nuos (campos).

4.1 Momentos generalizados e transformação


de Legendre
Dada a lagrangeana L(q, q̇, t) de um sistema com n coordenadas qi ; i =
1, . . . , n, definimos o momento generalizado conjugado a qi por

∂L
pi = . (4.1)
∂ q̇i

73
74 Capı́tulo 4. Formalismo canônico e equações de Hamilton

Por outro lado, para caracterizar o estado do sistema, necessitamos especi-


ficar o valor das n coordenadas qi e das n velocidades q̇i . Outra maneira
de fazer isso é especificar os valores das coordenadas e dos n momentos pi e
procurar então escrever as equações de movimento em termos das variáveis
(q, p), ditas variáveis canônicas. Dizemos que o par (qi , pi ), para o mesmo
i, são variáveis canônicamente conjugadas, e o espaço 2n−dimensional de
coordenadas {qi , pi }; i = 1, . . . , n, é chamado de espaço de fase.
Para fazer a passagem das variáveis (qi , q̇i ) para (qi , pi ) introduzimos o
método das transformações de Legendre: tomemos uma função f (x1 , x2 ) das
variáveis x1 e x2 . Sua diferencial total é dada por

df = u1 dx1 + u2 dx2 , (4.2)

onde
∂f
ui ≡ . (4.3)
∂xi
Definimos então uma nova função g(u1 , x2 ) por

g(u1 , x2 ) = f (x1 , x2 ) − u1 x1 , (4.4)

de tal maneira que

dg = df − x1 du1 − u1 dx1
= u2 dx2 − x1 du1 , (4.5)

como deve ser para uma função apenas de u1 e x2 . Na verdade, (4.5) demons-
tra que apesar de usarmos f , que é função de x1 e x2 , na definição de g, esta
última só depende de u1 e x2 . Temos então as seguintes relações entre as
variáveis:
∂g
u2 = , (4.6)
∂x2
4.1. Momentos generalizados e transformação de Legendre 75

∂g
x1 = −
. (4.7)
∂u1
A transformação (4.5) é denominada transformação de Legendre.
Tomando então a lagrangeana L(q, q̇, t) e calculando sua diferencial total:
" #
X ∂L ∂L ∂L
dL = dqi + dq̇i + dt , (4.8)
i ∂qi ∂ q̇i ∂t
podemos definir uma nova função H(q, p, t) por
X
H(q, p, t) = q̇i pi − L(q, q̇, t), (4.9)
i

denominada de função de Hamilton, ou simplesmente hamiltoniana, obtida


por uma transformação de Legendre a várias variáveis, a menos do sinal (o
que não altera o resto do desenvolvimento).
Calculando a diferencial total da hamiltoniana e usando a definição (4.1)
obtemos " #
X ∂L ∂L
dH = q̇i dpi − dqi − dt. (4.10)
i ∂qi ∂t
As equações de Euler-Lagrange implicam que
∂L
ṗi = , (4.11)
∂qi
de modo que (4.10) é equivalente a
X ∂L
dH = [q̇i dpi − ṗi dqi ] − dt, (4.12)
i ∂t
e portanto
∂H
,q̇i = (4.13)
∂pi
∂H
ṗi = − , (4.14)
∂qi
que são as equações de Hamilton e constituem as equações de movimento no
espaço de fase. Elas têm a vantagem de já serem equações diferenciais de
primeira ordem.
76 Capı́tulo 4. Formalismo canônico e equações de Hamilton

Obviamente, para que o formalismo hamiltoniano seja válido, da maneira


apresentada aqui, é necessário que a transformação q, q̇ → q, p seja inversı́vel,
o que é equivalente a dizer que o jacobiano da transformação é não-nulo:

J = Det K 6= 0, (4.15)

onde a matriz K é dada por



∂p ∂ 2L
i
K= = . (4.16)


∂ q̇j ∂ q̇i ∂ q̇j

A matriz formada pelas derivadas segundas da lagrangeana com relação às


velocidades é denominada de matriz hessiana. O caso J = 0 ocorre, por
exemplo, quando a lagrangeana é linear em uma das velocidades, o que
implica em uma linha composta por zeros na matriz hessiana. Esse caso,
embora um tanto irrealı́stico para sistemas mecânicos discretos, é extrema-
mente freqüente em teorias de campo, e requer uma extensão do formalismo
hamiltoniano, desenvolvido por Dirac, e que é apresentado no capı́tulo 6.
Vemos de (4.12) que se a lagrangeana não depender explicitamente do
tempo o mesmo acontece com a hamiltoniana e
dH X ∂L
= [q̇i ṗi − ṗi q̇i ] − = 0, (4.17)
dt i ∂t
ou seja, H é uma grandeza conservada. Para termos a interpretação fı́sica
da hamiltoniana tomemos a definição (4.9) e suponhamos que L = T (q, q̇) −
V (q), o que nos dá
X ∂L X ∂T
H= q̇i −L= q̇i − T + V. (4.18)
i ∂ q̇i i ∂qi
Agora supondo que a energia cinética T é homogênea de grau dois nas ve-
locidades, ou equivalentemente
X ∂T
q̇i = 2T, (4.19)
i ∂ q̇i
4.2. Parêntesis de Poisson 77

que usada em (4.18) implica

H = T + V, (4.20)

ou seja, nessas condições a hamiltoniana se identifica com a energia total do


sistema e (4.17) expressa o princı́pio de conservação da energia. Podemos
obter outras leis de conservação de (4.11): quando a hamiltoniana, e por-
tanto a lagrangeana, não depende de uma coordenada qi , então o momento
canonicamente conjugado é uma constante de movimento e qi é chamada de
coordenada cı́clica (esse termo ficará mais claro no estudo do formalismo de
Hamilton Jacobi no capı́tulo 7).

4.2 Parêntesis de Poisson


Seja dada uma função dinâmica f = f (q, p, t). Sua derivada total com relação
ao tempo é dada por
" #
df X ∂f ∂f ∂f
= q̇i + ṗi + . (4.21)
dt i ∂qi ∂pi ∂t

Usando as equações de Hamilton em (4.21) obtemos


" #
df X ∂f ∂H ∂f ∂H ∂f
= − +
dt i ∂qi ∂pi ∂pi ∂qi ∂t
∂f
= {f, H} + , (4.22)
∂t
onde introduzimos o parêntesis de Poisson {f, g} entre duas funções f e g
por ( )
X ∂f ∂g ∂f ∂g
{f, g} ≡ − . (4.23)
i ∂qi ∂pi ∂pi ∂qi
As equações de Hamilton podem ser escritas usando os parêntesis de Poisson
como
q̇i = {qi , H}, (4.24)
78 Capı́tulo 4. Formalismo canônico e equações de Hamilton

ṗi = {pi , H}. (4.25)

Dessa forma escrevemos as equações de movimento em uma forma mais ele-


gante, que será explorada mais adiante no capı́tulo 6, ao introduzirmos a
notação simplética.

4.3 Equações de Routh


Vamos apresentar agora um formalismo que está a meio caminho dos forma-
lismos lagrangeano e hamiltoniano, no sentido de fazer uma transformação
de Legendre apenas para algumas variáveis e velocidades qi , q̇i e não para as
demais.
Tomemos um sistema com n graus de liberdade, descrito por uma lagran-
geana L(q, q̇, t). Vamos então transformar as variáveis {qi , q̇i } com i = s +
1, . . . , n; s < n, e manter intocadas as demais. Para tal definimos a função
de Routh R(q1 , . . . , qn , q̇1 , . . . , q̇s , ps+1 , . . . , pn ) por
n
X
R= q̇i pi − L. (4.26)
i=s+1

Calculando a diferencial total de R e usando (4.8), obtemos


n s
X X ∂L
dR = [q̇i dpi − ṗi dqi ] − [ṗi dqi + pi dq̇i ] − dt, (4.27)
i=s+1 i=1 ∂t

que nos dá as seguintes equações:

∂R
q̇i = ; i = s + 1, . . . , n, (4.28)
∂pi

∂R
ṗi = − ; i = 1, . . . , n, (4.29)
∂qi
∂R
pi = − ; i = 1, . . . , s. (4.30)
∂ q̇i
4.3. Equações de Routh 79

Usando (4.30) em (4.29) obtemos


d ∂R ∂R
− = 0; i = 1, . . . , s, (4.31)
dt ∂ q̇i ∂qi
que em conjunto com (4.28) e (4.29) para i = s + 1, . . . , n são denominadas
de equações de Routh.
Este método é particularmente útil quando o problema envolve coorde-
nadas cı́clicas. Suponhamos que temos n − s coordenadas cı́clicas qi ; i =
s + 1, . . . , n, de modo que podemos introduzir a função de Routh em termos
das variáveis q1 , . . . , qs ,q̇1 , . . . , q̇s ,ps+1 , . . . , pn . A equação (4.31) neste caso só
envolve as coordenadas q1 , . . . , qs , suas derivadas e os momentos ps+1 , . . . , pn ,
estes últimos sendo constantes determinadas pelas condições iniciais. Em
outras palavras, o problema foi reduzido a s dimensões, e uma vez solucionada
(4.31) para qi (t); i = 1, . . . , s, as demais coordenadas qi (t); i = s + 1, . . . , n
são determinadas a partir da equação (4.28).
Como ilustração do formalismo de Routh, tomamos o problema de Kepler
com a lagrangeana (1.51):
1 α
L = m(ṙ2 + r2 θ̇2 ) − . (4.32)
2 r
Vemos que a coordenada angular θ é cı́clica, e o correspondente momento
conjugado pθ é constante e dado por

pθ = mr2 θ̇, (4.33)

identificado com o momento angular. Obtemos então a seguinte função de


Routh:
1 α p2
R(r, ṙ, pθ ) = θ̇pθ − L = − mṙ2 + + θ 2 , (4.34)
2 r 2mr
que corresponde, a menos do sinal, à lagrangeana efetiva
1
Lef (r, ṙ) = mṙ2 + Vef (r), (4.35)
2
80 Capı́tulo 4. Formalismo canônico e equações de Hamilton

onde
α p2
Vef = − + θ 2, (4.36)
r 2mr
o que reduz nosso problema a uma dimensão, cuja solução foi obtida no
capı́tulo 1.

4.4 Princı́pio modificado de Hamilton


A ação de um sistema mecânico pode ser expressa tanto em termos da la-
grangeana ou, usando (4.9), em termos da hamiltoniana:
Z t2 Z t2 "X #
S= L dt = q̇i pi − H dt. (4.37)
t1 t1 i

O princı́pio modificado de Hamilton implica as equações de Hamilton quando

δS = 0. (4.38)

Vamos então mostrar que, de fato, as equações de Hamilton (4.13) e (4.14)


decorrem de (4.38). Para tal, façamos uma variação de q e p da forma1

qi0 (t) = qi (t) + ηi (t), (4.39)

p0i (t) = pi (t) + ξi (t), (4.40)

onde ηi (t1 ) = ηi (t2 ) = ξi (t1 ) = ξi (t2 ) = 0. A variação da ação é assim dada


por
Z t2 X " #
0 ∂H ∂H
δS = S − S =  q̇i ξi + pi η̇i − ηi − ξi dt, (4.41)
t1 i ∂qi ∂pi
1
Note-se que a rigor, as variações δpi e δqi não são independentes em razão da definição
de pi . Devemos então utilizar os multiplicadores de Lagrange para resolver o problema
variacional. No entanto, o resultado obtido é o mesmo. Na formulação canônica, as
coordenadas e os momentos são considerados como variáveis independentes, e as equações
de Hamilton decorrem de δS = 0 considerando-as como tal.
4.5. Princı́pio de Maupertuis 81

e após uma integração por partes obtemos

t2
Z t2 X " #
∂H ∂H X
δS =  q̇i ξi − ξi − ṗi ηi − ηi dt + pi ηi , (4.42)

t1 i ∂pi ∂qi i t 1

onde o último termo se anula. Como as variações ηi e ξi são arbitrárias,


obtemos justamente as equações de Hamilton (4.13) e (4.14).

4.5 Princı́pio de Maupertuis


Nesta seção vamos enunciar uma variante do princı́pio modificado de Hamil-
ton, chamado de princı́pio de Maupertuis, que permite, no caso de sistemas
conservativos, obter a órbita do sistema sem o conhecimento explı́cito da sua
trajetória.
Consideramos um sistema cuja hamiltoniana H(q, p) seja independente
do tempo, de modo que a energia total

E = H(q, p), (4.43)

é conservada. Fazemos então uma variação δt do valor t2 em (4.37), mantendo


fixas as coordenadas e os momentos, alterando apenas a maneira como elas
dependem do tempo:
Z q2 X Z t2
δS = δ pi dqi − δ Hdt − Eδt. (4.44)
q1 i t1

Assim variando tanto a trajetória como o valor de t2 , a variação total é


dada por (4.44) (a contribuição devida à variação das trajetórias é nula, em
conseqüência do princı́pio de mı́nima ação). Considerando agora variações
que satisfaçam o princı́pio de conservação da energia, obtemos

δS + Eδt = 0. (4.45)
82 Capı́tulo 4. Formalismo canônico e equações de Hamilton

Usando a conservação da energia novamente, temos que


Z q2 X
S= pi dqi − E(t2 − t1 ), (4.46)
q1 i

e portanto
δS0 = 0, (4.47)

onde a ação reduzida S0 é definida por


Z q2 X Z t2 X
S0 = pi dqi = pi q̇i dt. (4.48)
q1 i t1 i

Ou seja, a variação de S0 por uma variação de t2 é nula, de modo que (4.47)


envolve apenas variações das trajetórias, mantendo os pontos extremos, e os
correspondentes instantes de tempo, fixos.
Por sua vez podemos escrever os momentos em função das velocidades q̇i
e das coordenadas qi :

pi = L(q, q̇), (4.49)
∂ q̇i
assim como a energia
E = E(q, q̇). (4.50)

De (4.50) escrevemos a diferencial dt em termos das coordenadas qi e das


respectivas diferenciais dqi . Substituindo dt assim determinado em (4.49)
obtemos pi em função dos qi ’s e dqi ’s, o que permite expressar S0 em termos
das mesmas grandezas. O resultado é um princı́pio variacional (4.47) em
termos apenas das coordenadas, denominado de princı́pio de Maupertuis.
Tomemos o caso de uma partı́cula de massa m sob a ação de um potencial
V (r). A lagrangeana nesse caso é
!2 !2
1 dr 1 ds
L= m − V (r) = m − V (r), (4.51)
2 dt 2 dt
4.6. Sistemas contı́nuos - Campos 83

onde ds é um elemento de linha da trajetória. A energia total é dada por


!2
1 ds
E= m + V (r), (4.52)
2 dt
e portanto
−1/2
2
 
dt = (E − V ) ds. (4.53)
m
Os momentos conjugados a xi (que supomos serem coordenadas cartesianas)
são
∂L
pi = = mẋi , (4.54)
∂ ẋi
de modo que
dxi
pi = [2m(E − V )]1/2 , (4.55)
ds
que substituido em (4.47), e lembrando que ds2 = i dx2i , nos dá
P

Z
δ [2m(E − V )]1/2 ds = 0. (4.56)

No caso particular de uma partı́cula livre obtemos


Z
δ ds = 0, (4.57)

que corresponde à equação de uma linha reta (a menor distância entre dois
pontos). O princı́pio de Maupertuis, expresso por (4.56), permite obter
equações para a órbita do sistema em termos das coordenadas apenas.

4.6 Sistemas contı́nuos - Campos


Vamos agora apresentar duas maneiras de introduzir a formulação hamilto-
niana para campos. A primeira é obtida em termos do funcional de Lagrange
e não é explicitamente covariante, enquanto a segunda é obtida em termos
da densidade lagrangeana e nos dá equações de Hamilton explicitamente co-
variantes.
84 Capı́tulo 4. Formalismo canônico e equações de Hamilton

4.6.1 Formulação não-covariante


Partimos de uma lagrangeana L(φ, φ̇, t) que descreve um campo φ de compo-
nentes φi ; i = 1, . . . , N em um espaço de dimensão n e coordenadas espaciais
xi . Os momentos canonicamente conjugados a φi são dados por

δL
πi = , (4.58)
δ φ̇i

que formam um outro campo π(x) ≡ (π1 (x), . . . , πn (x)). A hamiltoniana é


então definida por
Z
H(φ, π, t) = π(x, t) · φ̇(x, t)d3 x − L. (4.59)

Para obter as respectivas equações de movimento, calculamos a variação δH


2
de H em termos das variações δπ e δφ dos campos
Z h i
δH = φ̇ · δπ + π · δ φ̇ d3 x − δL
Z " #
δL δL
= φ̇ · δπ + π · δ φ̇ − δφ − δ φ̇ d3 x
δφ δ φ̇
Z h i
= φ̇ · δπ − π̇ · δφ d3 x, (4.60)

e em conseqüência
δH
φ̇ = , (4.61)
δπ
δH
π̇ = − , (4.62)
δφ
que são as equações de Hamilton em termos dos campos e dos respectivos
momentos conjugados.
2
Usando a definição de derivada funcional, temos para um funcional A[φ] que

δA[φ]
A[φ + σ] = A[φ] +  σ + O(2 ).
δφ
4.6. Sistemas contı́nuos - Campos 85

As equações (4.61) e (4.62) também decorrem de um princı́pio modificado


de Hamilton:
Z t2 Z   
3
δ π · φ̇ − H d x dt = 0. (4.63)
t1

A demonstração é análoga ao caso discreto.


No caso de termos um campo local, i. e. quando (2.7) é verdadeira
para uma dada densidade lagrangeana L(φ, φ̇, φx , x, t), as definições (4.58)
e (4.59) do momento e da hamiltoniana são equivalentes a

∂L
πi (x) = , (4.64)
∂ φ̇(x)
Z
H= H d3 x, (4.65)

onde
H = π · φ̇ − L. (4.66)

A diferencial total de H é então

∂L ∂L
dH = φ̇ · dπ − · dφ − dx, (4.67)
∂φ ∂x

de onde decorrem as equações de Hamilton em termos da densidade hamil-


toniana H:
∂H
φ̇ = , (4.68)
∂π
3
∂H X d ∂L
π̇ = − . (4.69)
∂φi k=1 dxk ∂φ,k
Notemos que a forma (4.69) é menos elegante que (4.62).

4.6.2 Formulação covariante


Aqui vamos supor que o campo é descrito por uma densidade lagrangeana
L(φ, φ,µ , x) onde φ,µ ≡ ∂φ/∂xµ , com µ = 1, . . . , 4. A densidade lagrangeana
86 Capı́tulo 4. Formalismo canônico e equações de Hamilton

é então, como vimos, um escalar por uma transformação de Lorentz. As


equações de Euler-Lagrange covariantes são dadas por (2.15):
d ∂L ∂L
− = 0. (4.70)
dxµ ∂φ,µ ∂φ
A primeira grande diferença com relação à abordagem anterior está na defini-
ção do momento. A cada componente do campo φ estão associadas quatro
derivadas φ,µ . Como, do ponto de vista relativı́stico, não podemos diferenciar
nenhuma das quatro coordenadas xµ , somos obrigados a introduzir quatro
momentos para cada componente de φ, ou seja, o momento é um tensor
maior de uma ordem que φ. A definição dos momentos conjugados a φ é
portanto
∂L
Πi,µ ≡ , (4.71)
∂φi,µ
onde i representa o conjunto dos ı́ndices tensoriais de φ. Definimos então a
densidade hamiltoniana como:

H = φ,µ · Πµ − L. (4.72)

Dessa forma a diferencial de H é dada por:


∂L ∂L ∂L
dH = Πµ · dφ,µ + φ,µ · dΠµ − · dφ − · dφ,µ − µ dxµ
∂φ ∂φ,µ ∂x
∂ ∂L
= φ,µ · dΠµ − µ Πµ · dφ − µ dxµ , (4.73)
∂x ∂x
de onde obtemos finalmente as equações de Hamilton na forma covariante:
∂φ ∂H
µ
= , (4.74)
∂x ∂Πµ
∂Πµ ∂H
µ
=− . (4.75)
∂x ∂φ
Podemos mostrar que essas equações decorrem do seguinte princı́pio varia-
cional: Z h i
δ dx4 Πµ · φ,µ − H , (4.76)
M0
4.6. Sistemas contı́nuos - Campos 87

onde M0 é uma região do espaço de Minkowski e as variações de φ e Πµ se


anulam na fronteira de M0 .

4.6.3 Exemplo de campo relativı́stico


Tomemos a equação de Klein-Gordon

(22 − m2 )φ(x) = 0, (4.77)

onde o operador d’alambertiano é definido por


∂ ∂
22 ≡ η µν , (4.78)
∂xµ ∂xν
e φ é um campo escalar real. Essa equação descreve uma partı́cula de massa
m e spin nulo. Uma densidade lagrangeana apropriada para (4.77) é dada
por !
1 ∂φ ∂φ µν
L= η + m2 φ2 , (4.79)
2 ∂xµ ∂xν
onde o fator 1/2 foi usado para que as expressões dos momentos e das
equações de movimento sejam mais simples.
Os momentos cojugados a φ são
∂L ∂φ µν
Πµ = = η , (4.80)
∂φ,µ ∂xν
e a densidade hamiltonia é então dada por
1 µ ν 
H = Πµ φ,µ − L = Π Π ηµν − m2 φ2 . (4.81)
2
As equações de Hamilton na forma covariante são assim
∂φ
= Πν ηνµ , (4.82)
∂xµ
∂Πµ
µ
= m2 φ. (4.83)
∂x
88 Capı́tulo 4. Formalismo canônico e equações de Hamilton

O sistema formado pelas expressões (4.82) e (4.83) é equivalente à equação de


Klein-gordon (4.77) e à definição (4.80) dos momentos. De fato, substituindo
(4.80) (que decorre de 4.82) em (4.83) obtemos a equação (4.77), como deve
ser.

4.7 Exercı́cios
1. Consideremos um sistema a n graus de liberdade, descrito pela hamil-
toniana H(q1 , . . . , qn , p1 , . . . , pn , t), onde t é o tempo. Mostre como
obter uma nova hamiltoniana, descrevendo o mesmo sistema, que seja
independente do tempo (defina uma novo momento pn+1 = t e procure
a coordenada correspondente de tal forma que as novas equações de
Hamilton se identifiquem com as anteriores).

2. Mostre que a densidade hamiltoniana para o campo de Klein-Gordon é


igual à componente T 44 do tensor de energia-momento para esse campo.

3. Obtenha as equações de Hamilton na forma covariante (4.74) e (4.75)


a partir do princı́pio variacional (4.76).

4. Determine a hamiltoniana de uma partı́cula de massa m se movendo


próxima da velocidade da luz, partindo da lagrangeana (1.116). Qual
a relação entre a hamiltoniana e a energia total do sistema?

5. Obtenha a formulação hamiltoniana não-explicitamente covariante do


campo de Klein-Gordon.
Capı́tulo 5

Transformações canônicas e
formalismo simplético

Sabemos que as equações de Euler-Lagrange são invariantes em forma (co-


variantes) por uma transformação arbitrária das coordenadas generalizadas
da forma
Qi = Qi (q, t), (5.1)

enquanto a nova lagrangeana L0 (Q, Q̇, t) está relacionada com a anterior


L(q, q̇, t) por
L0 (Q, Q̇, t) = L(q(Q), q̇(Q, Q̇, t)). (5.2)

A transformação (5.1) e (5.2) induz uma transformação dos momentos canô-


nicamente conjugados às coordenadas:

∂L0 X ∂L ∂ q̇j X ∂qj


Pi = = = pj , (5.3)
∂ Q̇i j ∂ q̇j ∂ Q̇i j ∂Qi

ou seja, os momentos se transformam como vetores covariantes. Podemos


então construir as hamiltonianas H e H 0 que correspondem às lagrangeanas
L e L0 , respectivamente. As equações de Hamilton são então invariantes em
forma por transformações da forma (5.1) e (5.3).

89
90 Capı́tulo 5. Transformações canônicas e formalismo simplético

Na formulação canônica da Mecânica Clássica, as coordenadas qi e os


momentos canônicamente conjugados são considerados como variáveis inde-
pendentes, que formam um sistema de coordenadas no espaço de fase. No
entanto, nas transformações (5.3), os momentos foram considerados como
dependentes das coordenadas qi e de suas derivadas q̇i . Queremos então
obter a forma geral das transformações de coordenadas no espaço de fase
que mantenham a forma das equações de Hamilton, ou em outras palavras,
para as quais exista uma nova função hamiltoniana das novas coordenadas
(no caso os momentos e as coordenadas generalizadas usuais), tal que pos-
samos escrever as equações de movimento nessas variáveis com equações da
forma das equações de Hamilton. Tais transformações que preservam a es-
trutura canônica das equações de movimento recebem a denominação de
transformações canônicas. As equações (5.1) e (5.3) são um caso particular
e um exemplo das mesmas.

5.1 Transformações canônicas


Suponhamos então que o sistema fı́sico de interesse é descrito no espaço de
fase pelas coordenadas qi , pi e pela hamiltoniana H(q, ṗ, t). Suponhamos
também que o mesmo sistema pode ser descrito em termos de outras coor-
denadas Qi e Pi e por uma outra hamilotniana H 0 (Q, P, t). As coordenadas
são relacionadas por transformações inversı́veis da forma

Qi = Qi (p, q, t), (5.4)

Pi = Pi (p, q, t). (5.5)

Como as duas situações descrevem o mesmo sistema, as ações nos dois casos
devem ser iguais a menos de uma constante aditiva. A outra possibilidade
5.1. Transformações canônicas 91

seria de que as ações fossem proporcionais, o que pode ser evitado fazendo
uma transformação de escala nas coordenadas da forma

Q0i = λQi , (5.6)

Pi0 = µPi , (5.7)

que é um caso trivial de transformação canônica. No restante, vamos nos


restringir a transformações tais que as ações sejam invariantes.
Temos então que
Z "X # Z "X #
0
pi dqi − Hdt = Pi dQi − H dt + C, (5.8)
i i

onde C é uma constante. Essa relação nos dá a expressão

Pi dQi − H 0 dt + dF,
X X
pi dqi − Hdt = (5.9)
i i

para uma função F das coordenadas, dos momentos e do tempo, de tal


maneira que C e dF são relacionados por
Z
dF = C. (5.10)

A função F é chamada de função geradora da transformação canônica, por


razões que veremos a seguir.
Há várias maneiras de obtermos expressões da transformação canônica en
termos da função geradora. Vamos enumerar abaixo diferentes possibilidades
(em todos os casos F é também função do tempo):

1. F é função de q e Q:

Temos então de (5.9) que


∂F
pi = , (5.11)
∂qi
92 Capı́tulo 5. Transformações canônicas e formalismo simplético

∂F
Pi = − , (5.12)
∂Qi
∂F
H0 = H + . (5.13)
∂t
Essa forma é particularmente útil quando conseguimos expressar os
momentos p e P em termos das coordenadas q e Q. Vemos também
que quando F não depende do tempo, as hamiltonias são iguais.

2. A função geradora é função de q e P :

Neste caso introduzimos uma nova função geradora F2 dada pela trans-
formação de Legendre de F :

X
F2 (q, P, t) = F (q, Q, t) + Pi Qi . (5.14)
i

Vemos que (5.14) é de fato uma transformação de Legendre se usarmos


(5.12) nela. Usando (5.14) e (5.9) obtemos que:

Qi dPi + (H 0 − H)dt,
X X
dF2 = pi dqi + (5.15)
i i

e conseqüentemente
∂F2
pi = , (5.16)
∂qi
∂F2
Qi = , (5.17)
∂Pi
∂F2
H0 = H + . (5.18)
∂t
Este caso se aplica quando pudermos obter Q e p em função de q e P .
A função F2 é também chamada de função geradora.

3. A função geradora é função de Q e p:


5.1. Transformações canônicas 93

Introduzimos uma nova função geradora fazendo a seguinte transfor-


mação de Legendre:
X
F3 (p, Q, t) = F (q, Q, t) − qi pi . (5.19)
i

Temos então que

Pi dQi + (H 0 − H)dt,
X X
dF3 = − qi dpi + (5.20)
i i

e portanto
∂F3
qi = − , (5.21)
∂pi
∂F3
Pi = − , (5.22)
∂Qi
∂F3
H0 = H + . (5.23)
∂t
Este caso é útil quando conhecemos a expressão q e P em função de Q
e p.

4. A função geradora é função de p e P :

tomamos então a transformação de Legendre de F3 dada por:


X
F4 (p, P, t) = F3 (p, Q, t) + Qi Pi
i
X
= F (q, Q, t) + [Qi Pi − qi pi ] , (5.24)
i

que implica

Qi dPi + [H 0 − H] dt,
X X
dF4 = − qi dpi + (5.25)
i i

de modo que
∂F4
qi = − , (5.26)
∂pi
94 Capı́tulo 5. Transformações canônicas e formalismo simplético

∂F4
Qi = , (5.27)
∂Pi
∂F4
H0 = H + . (5.28)
∂t

Notemos que a relação existente entre P e Q após uma transformação


canônica não é tão simples quanto a interpretação inicial de Pi como um
momento conjugado a Qi a partir de uma lagrangeana. Por essa razão,
chamamos o par Qi , Pi de variáveis canonicamente conjugadas, e são tratadas
em pé de igualdade.

5.2 Condições de integrabilidade das


transformações canônicas
Vimos como obter uma transformação canônica em termos de uma função
geradora. Agora vamos obter as condições necessárias e suficientes para que
uma dada mudança de coordenadas no espaço de fase seja uma trasnformação
canônica. Para tal, tomemos a equação (5.9), que nos dá
!
X
0
X ∂qi ∂qi X ∂qi
Pi dQi − H dt = pi dQj + dPj + pi dt − Hdt
i i,j ∂Qj ∂Pj i ∂t
!
X ∂F ∂F ∂F
− dQi + dPi − dt. (5.29)
i ∂Qi ∂Pi ∂t

Igualando os coeficientes de dQi , dPi e dt obtemos:


X ∂qj ∂F
Pi − pj =− , (5.30)
j ∂Qi ∂Qi

X ∂qj ∂F
− pj =− , (5.31)
j ∂Pi ∂Pi
∂qi ∂F
H0 = H −
X
pi + . (5.32)
i ∂t ∂t
5.2. Condições de integrabilidade das transformações canônicas 95

Portanto para que a transformação seja canônica, é necessário que exista


uma função F (Q, P, t) que satisfaça esse sistema. As condições necessárias
e suficientes para a existência de uma solução do sistema (5.30) e (5.31) são
então1    
∂  X ∂qj  ∂  X ∂qj 
Pi − pj = Pk − pj , (5.33)
∂Qk j ∂Qi ∂Qi j ∂Qk
   
∂ X ∂qj  ∂ X ∂qj 
pj = pj , (5.34)
∂Pk j ∂Pi ∂Pi j ∂Pk
   
∂  X ∂qj  ∂ X ∂qj 
Pi − pj =− pj . (5.35)
∂Pk j ∂Qi ∂Qi j ∂Pk
Calculando as derivadas dos termos entre parêntesis das relações (5.33) a
(5.35) obtemos as seguintes relações equivalentes:

[Qi , Qk ] = [Pi , Pk ] = 0, (5.36)

[Qi , Pk ] = δik , (5.37)

onde introduzimos o parêntesis de Lagrange [fi , fk ] entre duas funções fi , fk


de um conjunto {fi } de 2n funções independentes por
n
" #
X ∂ql ∂pl ∂ql ∂pl
[fi , fk ] ≡ − . (5.38)
l=1 ∂fk ∂fi ∂fi ∂fk

Podemos mostrar a seguinte relação entre os parêntesis de Poisson e os de


Lagrange:
2n
X
[fi , fl ]{fl , fk } = δik . (5.39)
l=1

Assim (5.39) implica que as relações (5.36) e (5.37) são equivalentes a

{Qi , Qk } = {Pi , Pk } = 0, (5.40)


1
A condição necessária e suficiente para a existência de uma solução para um sistema
da forma ∂F (X, Y )/∂X = G1 (X, Y ) e ∂F (X, Y )/∂Y = G2 (X, Y ), para G1 e G2 dadas é
∂G1 /∂Y = ∂G2 /∂X. Para um número maior de variáveis a generalização é direta.
96 Capı́tulo 5. Transformações canônicas e formalismo simplético

{Qi , Pk } = δik , (5.41)

que são as condições necessárias e suficientes para que exista uma função
geradora F , ou seja, para que a transformação q, p → Q, P seja canônica.
Notamos que em (5.40) e (5.41) os parêntesis de Poisson são calculados com
relação às coordenadas iniciais qi , pi .
O parêntesis de Poisson é definido em termos de um sistema de coorde-
nadas canônicas no espaço de fase. No entanto, podemos mostrar que ele é
invariante por uma transformação canônica. Para mostrar isso vamos usar o
argumento de Landau e Lifchitz, por sua simplicidade e elegância: primeira-
mente, notemos que o tempo entra apenas como um parâmetro nas trans-
formações canônicas, de modo que se provarmos a invariância do parêntesis
de Poisson para funções f e g independentes do tempo, então o mesmo será
igualmente válido para funções dependentes do tempo. Suponhamos então
que g é a função de Hamilton de algum sistema fictı́cio. A derivada total de
f é dada nesse caso por {f, g}. Como essa derivada não depende da escolha
de coordenadas canônicas no espaço de fase, o mesmo é verdade para {f, g}.

5.3 Notação simplética


Como vimos, as variáveis canônicas q e p podem ser consideradas, de modo
geral, como simples coordenadas de um espaço de dimensão 2n. A notação
simplética é uma forma mais compacta para expressar o formalismo canônico
no espaço de fase. Para tal, representaremos as 2n coordenadas por ω µ ;
µ = 1, . . . , 2n, de tal modo que

ω i = qi , (5.42)

ω i+n = pi , (5.43)
5.3. Notação simplética 97

para i = 1, . . . , n. O parêntesis de Poisson é expresso nessa notação na


seguinte forma
∂f ∂g
{f, g} = µν , (5.44)
∂ω µ ∂ω ν
onde usamos a convenção de soma de Einstein, e a matriz simplética  é
definida por 

 1, se µ ≤ n e ν = µ + n
µν = −1, se ν ≤ n e µ = ν + n (5.45)


0, nos demais casos.
A inversa µν de µν é facilmente obtida e é dada por


1, se ν ≤ n e µ = ν + n
µν = −1, se µ ≤ n e ν = µ + n (5.46)


0, nos demais casos.
O parêntesis de Lagrange é expresso da forma
∂ω µ ∂ω ν
[fi , fj ] = µν . (5.47)
∂fi ∂fj
A condição para que uma transformação ω µ → ω 0µ seja canônica é então
expressa nessa notação da seguinte maneira:

∂ω 0σ
µν ∂ω
 µ ν
= γσ , (5.48)
∂ω ∂ω
ou seja, µν se comporta como um tensor invariante por uma transformação
canônica, que dizemos conservar a estrutura simplética do espaço de fase.
Finalmente, as equações de Hamilton podem ser escritas da seguinte
maneira:
∂H
ω̇ µ = µν , (5.49)
∂ω ν
que é uma forma simétrica com relação a todas as variáveis.
Usando essa notação é fácil demonstrar a identidade de Jacobi para o
parêntesis de Poisson:

{{f, g}, h} + {{h, f }, g} + {{g, h}, f } = 0, (5.50)

para quaisquer funções f , g e h.


98 Capı́tulo 5. Transformações canônicas e formalismo simplético

5.4 Transformações canônicas infinitesimais


O conjunto das transformações canônicas no espaço de fase é um grupo com
relação à operação de composição de transfromações. Consideremos agora o
conjunto de aplicações bijetivas do espaço de fase nele próprio. Ao expressar
tal aplicação f em termos de um sistema de coordenadas ω µ no espaço de
fase, estamos também obtendo uma mudança de sistema de coordenadas:

ω 0µ = f µ (ω), (5.51)

onde as coordenadas de um ponto qualquer são levadas nas coordenadas do


ponto transformado pela aplicação f µ . Isso faz com que os intervalos em
que cada coordenada toma valores sejam os mesmos nos dois sistemas de
coordenadas. As transformações canônicas dessa forma são denominadas de
transformações canônicas regulares.
Mais ainda, tomemos o grupo S formado pelas transformações canônicas
regulares conectadas continuamente à transformação identidade 2 . Assim S
é um grupo de Lie, e podemos então, para obter S, fazer apenas uma análise
de uma vizinhança da identidade, ou seja, das transformações canônicas in-
finitesimais.
Seja a transformação infinitesimal, com   1,

ω 0µ = ω µ + η µ (ω). (5.52)

A condição (5.48) para que (5.52) seja canônica nos dá que (sempre retendo
termos até ordem ):

∂ω γ ∂η γ ∂ω σ ∂η σ
" #" #
µν
 +  +  = γσ , (5.53)
∂ω µ ∂ω µ ∂ω ν ∂ω ν
2
Por conectada continuamente entendemos que existe um subgrupo a um parâmetro,
do qual a transfromação em questão e a identidade fazem parte.
5.4. Transformações canônicas infinitesimais 99

que implica
∂η γ γν ∂η
σ
µσ
+  = 0. (5.54)
∂ω µ ∂ω ν
Multiplicando ambos os lados da equação (5.54) por ρσ λγ e somand em σ e
γ obtemos finalmente:
∂ ∂
µ
(νγ η γ ) − (µγ η γ ) = 0. (5.55)
∂ω ∂ω ν
A equação (5.55) implica que existe uma função ξ(ω) tal que3
∂ξ
µν η ν = , (5.56)
∂ω µ
que permite reescrever (5.52) na forma

ω 0µ = ω µ + {ω µ , ξ}. (5.57)

Dada uma função ξ arbitrária obtemos, através de (5.57), uma transformação


canônica infinitesimal a um parâmetro. Por outro lado, sabemos que (5.57)
pode ser integrada e gera um grupo finito a um parâmtero α finito, que
satisfaz ao sistema
dω µ ∂ξ
= {ω µ , ξ} = µν ν , (5.58)
dα ∂ω
cuja solução ω µ (ω0 , α) nos dá as novas coordenadas ω µ em função das coor-
denadas iniciais ω0µ e do parâmetro α, e satisfaz às condições iniciais

ω µ (ω0 , 0) = ω0µ . (5.59)

Por construção, as transformações finitas são canônicas.


Uma propriedade importante das soluções de (5.58) é que o parâmetro α
é aditivo, no seguinte sentido:

ω µ (ω(ω0 , α1 ), α2 ) = ω µ (ω0 , α1 + α2 ). (5.60)


3
O lado esquerdo da eq. (5.55) é análoga ao rotacional de um vetor, este último sendo
assim igual ao gradiente de uma função.
100 Capı́tulo 5. Transformações canônicas e formalismo simplético

Para provar isso, notemos que (5.60) é verdadeira para α2 = 0. Os dois


elementos de cada lado de (5.60) obedecem à equação diferencial (5.58), em
termos do parâmetro α2 , e com as mesmas condições iniciais. Como a solução
deve ser única, então (5.60) é válida para qualquer valor de α2 .
Usando a invariância do parêntesis de Poisson para uma transformação
canônica, (5.58) pode ser escrita na forma

dω µ µ αβ ∂ω
µ
∂ξ
= {ω , ξ} =  . (5.61)
dα ∂ω0 ∂ω0β
α

Essa forma é particularmente útil pois podemos encontrar uma solução formal
para cada condição inicial:

α2
ω µ (ω0 , α) = ω0µ + α{ω0µ , ξ} + {{ω0µ , ξ}, ξ} + · · · (5.62)
2!

Tomemos agora uma função f (ω0 ). Queremos expressar f (ω) em termos dos
parâmetros α e ω0 :
f (ω) = fα (ω0 ). (5.63)

A equação análoga a (5.61) para fα é então

∂ ∂ ∂f dω µ
fα (ω0 ) = f (ω(ω0 , α)) =
∂α ∂α ∂ω µ dα
= {fα (ω0 ), ξ(ω0 )}. (5.64)

Usando (5.62) em (5.63) obtemos

f (ω) = fα (ω0 ) = f (ω0 ) + α{f (ω0 ), ξ(ω0 )}


α2
+ {{f (ω0 ), ξ(ω0 )}, ξ(ω0 )} + · · · (5.65)
2!

O gerador da transformação infinitesimal (5.52) é dado por

∂ µν ∂ξ(ω0 ) ∂
Gξ (ω0 ) = η µ (ω0 ) =  . (5.66)
∂ω µ ∂ω ν ∂ω µ
5.4. Transformações canônicas infinitesimais 101

A solução formal (5.62) pode então ser reescrita como

ω µ = ω µ (ω0 , α) = eαGξ (ω0 ) ω0µ . (5.67)

Para uma função f temos que

f (ω) = f (eαGξ (ω0 ) ω0 ) = eαGξ (ω0 ) f (ω0 ). (5.68)

Podemos também mostrar que para duas funções f e g temos:

{f (ω), g(ω)}ω = eαGξ (ω0 ){f (ω0 ),g(ω0 )}ω0


= {eαGξ (ω0 ) f (ω0 ), eαGξ (ω0 ) g(ω0 )}ω0 , (5.69)

onde os ı́ndices ω e ω0 indicam em qual sistema de coordenadas são calculados


os parêntesis de Poisson. A demonstração é a seguinte: em primeiro lugar,
(5.69) é verdadeira para α = 0, e os dois lados satisfazem também a mesma
equação diferencial (5.64), com a ajuda das equações respectivas para f e g
e da identidade de Jacobi.
A evolução temporal de um sistema, escrita na forma ω µ (ω0 , t), gerada
pelas equações de Hamilton, pode ser encarada como sendo uma trans-
formação canônica onde o tempo t faz o papel de uma parâmetro. Com-
parando as equações de Hamilton (5.49) com as equações (5.61) e (5.66),
vemos que o gerador dessa transformação é dado por:

GH (ω0 ) = { , H(ω0 )}. (5.70)

Utilizando a expansão (5.62) identificando α com um intervalo de tempo


∆t, e ξ com a hamiltoniana, temos uma solução das equações de Hamilton
en séries de potência, que pode ser usada para integrá-las numericamente.
Essa é a idéia básica por trás dos assim chamados integradores simpléticos.
102 Capı́tulo 5. Transformações canônicas e formalismo simplético

Se uma função dinâmica f é uma constante de movimento e não depende


explicitamente do tempo, temos que

f (ω(t)) = e−tGH (ω0 ) f (ω0 ) = f (ω0 ). (5.71)

A relação (5.69) implica então o teorema de Jacobi: se f e g são duas funções


dinâmicas que não dependem explicitamente do tempo, e que são constantes
de movimento, então o parêntesis de Poisson {f, g} também é uma constante
de movimento.
Notemos que toda transformação de simetria das equações de Hamilton é
também uma transformação canônica, pois preserva a forma dessas equações.
No caso de transformações de simetria infinitesimais, os geradores podem ser
expressos na forma (5.66).

5.5 Teorema de Liouville


Tomemos uma região D ∈ R2n , que define uma região no espaço de fase cujas
coordenadas pertencem a D. Seu volume é dado por
Z
VD = d2n ω. (5.72)
D

Façamos então uma transformação canônica ω µ → ω 0µ , que leva a região D


em D0 ∈ R2n . O volume da região transformada é então
Z Z
2n 0
VD0 = d ω = |J| d2n ω, (5.73)
D0 D

onde J é o jacobiano da transformação e é dado por


∂ω 0µ

J= Det ν . (5.74)

∂ω

Assim, calculando o determinante das matrizes que aparecem nos dois lados
de (5.48), obtemos que
J 2 = 1, (5.75)
5.5. Teorema de Liouville 103

e portanto
J = ±1, (5.76)

para uma transformação canônica qualquer. Substituindo (5.76) em (5.73)


obtemos o teorema de Liouville:

VD = VD0 . (5.77)

Portanto, o volume de uma região qualquer do espaço de fase, calculado por


(5.72), é invariante por uma transformação canônica, e em particular para a
evolução temporal do sistema.
Vamos supor agora que o estado do nosso sistema não seja dado com
precisão absoluta, mas em termos de uma distribuição de probabilidades
f (ω0 , t). A probabilidade de que o estado do sistema esteja em uma região
de volume d2n ω0 contendo ω0 é dada por f (ω0 , t)d2n ω0 . Em conseqüência,
devemos ter que Z
f (ω0 , t)d2n ω0 = 1, (5.78)

onde a integral de volume é calculada em todo o espaço de fase. Como a


evolução temporal ω0µ → ω µ (t) é uma transformação canônica parametrizada
pelo tempo, o volume d2n ω0 é preservado, i. e.

d2n ω = d2n ω0 , (5.79)

enquanto que a probabilidade de encontrar o sistema dentro dessa região não


depende do tempo, pois há uma relação biunı́voca entre os pontos contidos
em cada uma das regiões, de modo que

f (ω0 , 0)d2n ω0 = f (ω(t), t)d2n ω = f (ω(t), t)d2n ω0 , (5.80)

e portanto
f (ω(t), t) = f (ω0 , 0), (5.81)
104 Capı́tulo 5. Transformações canônicas e formalismo simplético

ou em outras palavras, f (ω) é constante ao longo da solução ω(t) das equações


de Hamilton. podemos então escrever que
df ∂f
= {f, H} + = 0, (5.82)
dt ∂t
ou ainda
∂f
= −{f, H}. (5.83)
∂t
O parêntesis de Poisson em (5.83) é calculado em função de ω µ . Usando sua
invariância por uma transformação canônica, podemos calculá-lo em função
de ω0µ . A equação (5.83) é chamada de equação de Liouville, e permite
determinar f (ω, t) em função de f (ω, 0) (não escrevemos mais o ı́ndice 0 já
que calculamos todas as derivadas com relação a ω0 ). A função f é também
chamada de função de distribuição do sistema e é utilizada na descrição de
sistemas de muitas partı́culas em Mecânica Estatı́stica.

5.6 Exercı́cios
1. Demonstre a relação (5.39).

2. Utilize a notação simplética para demonstrar a identidade de Jacobi


para o parêntesis de Poisson. Mostre que ela continua válida para
qualquer produto anti-simétrico.

3. Usando a eq. (5.48), demonstre que o parêntesis de Poisson entre duas


funções quaisquer é invariante por uma transformação canônica.
Capı́tulo 6

Sistemas hamiltonianos com


vı́nculos

Ao estudarmos o formalismo hamiltoniano supusemos que a transformação


de Legendre entre as variáveis q, q̇ e as variáveis q, p é inversı́vel, ou equivalen-
temente, que o jacobiano da transformação é diferente de zero. No entanto,
para alguns sistemas fı́sicos de interesse, isso não é verdade. Podemos citar
como exemplos todos os campos relativı́sticos, com excessão do campo de
Klein-Gordon. O fato da transformação de Legendre não ser inversı́vel sig-
nifica que as variáveis canônicas qi , pi não são todas independentes. Nesse
caso a lagrangeana é dita degenerada e satisfaz

∂p ∂ 2L
i
J= Det = Det = 0, (6.1)


∂ q̇j ∂ q̇i ∂ q̇j

e implica a existência de relações lineares entre as linhas da matriz hessiana,


relacionadas à existência de vı́nculos entre os momentos p e as coordenadas
q. O formalismo canônico apresentado anteriormente não pode ser aplicado
nesse caso. Dirac introduziu uma extensão desse formalismo para englo-
bar os sistemas descritos por lagrangeanas degeneradas, que apresentamos a
seguir [Dirac,1964, Sudarshan,1983, Hanson,1976].

105
106 Capı́tulo 6. Sistemas hamiltonianos com vı́nculos

6.1 Formalismo de Dirac


Suponhamos que a lagrangeana do sistema é tal que existam N condições de
vı́nculo entre as variáveis canônicas do sistema, que escrevemos como:

Φm (q, p, t) = 0; m = 1, . . . , N, (6.2)

denominados de vı́nculos primários. Tomemos então a definição usual do


hamiltoniano:
n
X
H(q, p, t) = pi q̇i − L(q, q̇, t), (6.3)
i=1

e calculemos sua diferencial total:


n n
" # " #
X ∂H ∂H ∂H X ∂L ∂L
dH = dqi + dpi + dt = q̇i dpi − dqi − dt. (6.4)
i=1 ∂qi ∂pi ∂t i=1 ∂qi ∂t

Não podemos daı́ deduzir as equações de Hamilton pois as variações dqi e


dpi não são independentes, em decorrência das relações de vı́nculo (6.2). As
equações de movimento podem ser obtidas utilizando o método dos multipli-
cadores de Lagrange. Calculando a diferencial de (6.2) obtemos:
n
" #
X ∂Φm ∂Φm ∂Φm
dqi + dpi + dt = 0. (6.5)
i=1 ∂qi ∂pi ∂t

Multiplicando (6.5) pelos multiplicadores de Lagrange um (q, p, t), somando


em m e adicionando o resultado a (6.4) temos:
n N N
" ! ! #
X ∂H X ∂Φm ∂H X ∂Φm
+ um dqi + + um dpi
i=1 ∂qi m=1 ∂qi ∂pi m=1 ∂pi
N n
! " #
∂H X ∂Φm X ∂L ∂L
+ + um dt = q̇i dpi − dqi − dt. (6.6)
∂t m=1 ∂t i=1 ∂qi ∂t

Obtemos então as seguintes equações de movimento:


N N
∂H X ∂Φm X
q̇i = + um ≈ {qi , H + um Φm }, (6.7)
∂pi m=1 ∂pi m=1
6.1. Formalismo de Dirac 107

N N
∂H X ∂Φm X
ṗi = − − um ≈ {pi , H + um Φm }, (6.8)
∂qi m=1 ∂qi m=1
onde introduzimos o sinal ≈ de igualdade fraca, que expressa o fato que a
igualdade é válida após utilizar os vı́nculos Φm = 0, e isso apenas após todas
as derivadas terem sido calculadas. Para uma função dinâmica qualquer
temos que
N
df X ∂f
≈ {f, H + um Φm } + . (6.9)
dt m=1 ∂t
A partir deste ponto vamos fazer restringir o formalismo para sistemas autô-
nomos, i. e. para sistemas cujas lagrangeanas não dependam explicitamente
do tempo, o mesmo ocorrendo portanto com o hamiltoniano e com as funções
de vı́nculo Φm .
Vamos agora supor, para simplificar, que a lagrangeana não depende ex-
plicitamente do tempo. As equações de movimento (6.7) e (6.8) devem ser tais
que as condições de vı́nculo (6.2) sejam satisfeitas durante toda a evolução
temporal, de modo que
N
dΦl X
≈ {Φl , H + um Φm } ≈ 0, (6.10)
dt m=1

para n = 1, . . . , N . Deparamo-nos então com quatro possibilidades diferentes


para cada uma dessas equações:

1. pode-se chegar a uma inconsistência do tipo 1 = 0, o que significa que a


lagrangeana de partida não descreve de maneira consistente um sistema
real.

2. a equação (6.10) é automaticamente satisfeita, nada sendo acrescentado


de novo.

3. obtém-se uma equação envolvendo alguns dos coeficientes um , o que


permite determinar um deles em função dos demais.
108 Capı́tulo 6. Sistemas hamiltonianos com vı́nculos

4. a equação (6.10) não se reduz a nenhum dos casos acima e uma nova
condição de vı́nculo é obtida, sendo denotada por χ(q, p) ≈ 0 e denom-
inada de vı́nculo secundário.

A nova condição de vı́nculo eventualmente gerada deve ser coerente com


a evolução temporal, ou seja, deve satisfazer χ̇ ≈ 0, e nos deparamos no-
vamente com as possibilidades (1)–(4). Iteramos esse procedimento até que
mais nenhuma condição de vı́nculo seja gerada. Supomos então que obtive-
mos após isso M condições de vı́nculo secundárias:

χr (q, p) ≈ 0; r = 1, . . . , M. (6.11)

Introduzimos agora a seguinte nomenclatura: um vı́nculo qualquer, seja ele


primário ou secundário, é de primeira classe se seu parêntesis de Poisson com
todos os demais vı́nculos é fracamente nulo. Em caso contrário, o vı́nculo é
dito ser de segunda classe.
Fazemos então combinações lineares de todos os vı́nculos afim de obter
um número máximo K de vı́nculos de primeira classe:

Θα (q, p) ≈ 0; α = 1, . . . , K, (6.12)

e de N + M − K vı́nculos de segunda classe:

Θα (q, p) ≈ 0; α = K + 1, . . . , N + M. (6.13)

Essas combinações devem ser tais que as funções Θα são linearmente inde-
pendentes, de tal forma que podemos escrever:
NX
+M
Φm = cmα Θα , (6.14)
α=1

e portanto
N
X NX
+M
um Φm = vα Θα , (6.15)
m=1 α=1
6.1. Formalismo de Dirac 109

onde
X
vα = um cmα . (6.16)
m
A equação de evolução para uma função dinâmica qualquer é então obtida
de (6.9) e (6.15):
NX+M
df ∂f
≈ {f, H + vα Θα } + . (6.17)
dt α=1 ∂t
Usando as condições de consistência para os vı́nculos Θα obtemos o seguinte
sistema de equações:
NX
+M
Θ̇α ≈ {Θα , H} + {Θα , Θβ }vβ
β=1
K
X NX
+M
≈ {Θα , H} + {Θα , Θβ }vβ + {Θα , Θβ }vβ ≈ 0. (6.18)
β=1 β=K+1

A matriz |{Θα , Θβ }|, para α, β = K + 1, . . . , N + M , é inversı́vel pois, em


caso contrário, seu determinante seria nulo, o que implicaria em uma relação
linear entre suas linhas da forma
NX
+M X
wα {Θα , Θβ } ≈ { wα Θα , Θβ } ≈ 0, (6.19)
α=K+1 α

que implicaria assim a existência de um novo vı́nculo de primeira classe,


o que não é possı́vel por construção. Como toda matriz anti-simétrica de
dimensão ı́mpar tem determinante nulo, concluimos que o número de vı́nculos
de segunda classe é par. Denotando a inversa de |{Θα , Θβ }| por Cαβ , obtemos
de (6.18):
NX
+M
vα ≈ − Cα,β {Θβ , Htot }; α = K + 1, . . . , N + M, (6.20)
β=K+1

onde o hamiltoniano total é definido por


K
X
Htot ≡ H + vβ Θβ . (6.21)
β=1
110 Capı́tulo 6. Sistemas hamiltonianos com vı́nculos

A equação (6.20) determina alguns dos multiplicadores vα , α = 1, . . . , K (os


multiplicadores originais são obtidos de 6.16), em função dos demais, que
permanecem como funções arbitrárias no sistema. Substituindo (6.20) em
(6.17) obtemos finalmente a equação de evolução para uma função dinâmica
f (q, p):
NX
+M
df ∂f
≈ {f, Htot } − {f, Θα }Cαβ {Θβ , Htot } + . (6.22)
dt α,β=K+1 ∂t

Definimos aqui o parêntesis de Dirac entre duas funções dinâmica f e g por


NX
+M
{f, g}∗ ≡ {f, g} − {f, Θα }Cαβ {Θβ , g}, (6.23)
α,β=K+1

de maneira a escrevermos (6.22) na forma


df ∂f
≈ {f, Htot }∗ + . (6.24)
dt ∂t
Vemos que o parêntesis de Dirac substitui o parêntesis de Poisson nas
equações de movimento. Utilizando a notação simplética reescrevemos (6.23)
como
∂f ∂g
{f, g}∗ = M µν , (6.25)
∂ω µ ∂ω ν
onde utilizamos a convenção de soma de Einstein sobre ı́ndices repetidos e
M µν substitui a matriz simplética µν dada por (5.45), e é definida por
NX
+M
∂Θα σν ∂Θβ
M µν ≡ µν − µλ C αβ  . (6.26)
α,β=1 ∂ω λ ∂ω σ

Como M µν é também anti-simétrica, mostra-se, analogamente ao caso do


parêntesis de Poisson, que o parêntesis de Dirac satisfaz a identidade de Ja-
cobi. Parêntesis da forma (6.25) com matrizes |M µν | anti-simétricas definem
parêntesis de Poisson generalizados, dos quais o parêntesis de Dirac é um
caso particular.
6.2. Exemplo com um sistema discreto 111

6.2 Exemplo com um sistema discreto


Para ilustrar os procedimentos descritos acima, tomemos a seguinte lagran-
geana:
2 
1
X 
L(q, q̇) = Γij q̇i qj − Ξij qi qj , (6.27)
i,j=1 2
onde Γ e Ξ são matrizes dadas por
!
1 0 1−a
Γ= , (6.28)
2 1+a 0
e !
0 1
Ξ= . (6.29)
1 0
O momento conjugado a qi é então
2
X
pi = Γij qj , (6.30)
j=1

o que faz com que a matriz hessiana em (6.1) seja identicamente nula. Os
vı́nculos primários são obtidos de (6.30):
2
X
Φ i = pi − Γij qj ; i = 1, 2. (6.31)
j=1

A equação de movimento para uma função dinâmica na presença desses


vı́nculos é então:
2
df X ∂f
≈ {f, H + ui Φi } + , (6.32)
dt i=1 ∂t
com o hamiltoniano dado por:
2 2
X X 1
H= pi q̇i − L = Ξij qi qj . (6.33)
i=1 i,j=1 2

As condições de consistência para os vı́nculos primários são então


2
dΦj X
≈ {Φj , H + ui Φi } ≈ 0. (6.34)
dt i=1
112 Capı́tulo 6. Sistemas hamiltonianos com vı́nculos

Calculemos agora os parêntesis de Poisson entre os vı́nculos:

{Φi , Φj } = (Γji − Γij ) ≡ Bij , (6.35)

e usando (6.34) obtemos os multiplicadores uα na forma


2 2
Bij−1 {Φj , H} = Bij−1 Ξj,k qk ,
X X
ui ≈ − (6.36)
j=1 j,k=1

e nenhum vı́nculo secundário é gerado. A matriz B −1 é dada por


!
−1 1 0 1
B = . (6.37)
a −1 0
Como todos os vı́nculos são de segunda classe, obtemos a seguinte forma para
o parêntesis de Dirac:
2
{f, g}∗ = {f, g} − {f, Φi }Bij−1 {Φj , g},
X
(6.38)
i,j=1

e a equação de movimento para f é então


df ∂f
≈ {f, H}∗ + . (6.39)
dt ∂t

6.3 Vı́nculos de primeira classe e condições


de calibre
Vimos acima um exemplo de como obter as equações de movimento no caso
em que todos os vı́nculos são de segunda classe. No entanto, quando existem
vı́nculos de primeira classe, permanecem nas equações funções arbitrárias
através da hamiltoniana total Htot em (6.21). Devemos então entender o
significado fı́sico desses graus de liberdade adicionais. Para tal, tomemos as
equações de movimento (6.22) e usando o fato que em Htot temos apenas
vı́nculos de primeira classe, obtemos
K
df
≈ {f, H}∗ +
X
{f, Θα }vα , (6.40)
dt α=1
6.3. Vı́nculos de primeira classe e condições de calibre 113

onde os vα ’s são funções dinâmicas inteiramente arbitrárias e, por simplici-


dade, supusemos que f não depende explicitamente do tempo. Vamos ver
como (6.40) se comporta ao realizarmos uma transformação canônica in-
finitesimal gerada por ξ(ω) (vide eq. 5.57). Inicialmente, como o parêntesis
de Poisson é um invariante canônico, o mesmo acontece para o parêntesis de
Dirac. Temos também que

∂f
f (ω 0 ) = f (ω) +  {ω µ , ξ}
X
∂ω µ
µ
= f (ω) + {f, ξ}. (6.41)

Mostramos a seguir que uma outra escolha de multiplicadores ṽα , ligados aos
anteriores por
ṽα = vα + δvα , (6.42)

corresponde a uma transformação canônica da forma (6.41). Tomemos a


seguinte função geradora:
K
X
ξ= cα Θα , (6.43)
α=1

para certos coeficientes cα . Na visão passiva, as funções não mudam, mas


apenas a dinâmica. Obtemos assim que:

0
Htot = Htot + {Htot , ξ}
K
X K
X
= Htot + {H, ξ} + { vβ Θβ , cα Θα }. (6.44)
β=1 α=1

Notemos que apesar de {H, ξ} ≈ 0 e {Θα , Θβ } ≈ 0, não podemos utilizar


0
essas relações em (6.44) pois vamos ainda derivar Htot na equação de movi-
mento (6.40). Para tal escrevemos
K
X
{H, ξ} = bα Θα , (6.45)
α=1
114 Capı́tulo 6. Sistemas hamiltonianos com vı́nculos

e
K
X
{Θα , Θβ } = dσαβ Θσ , (6.46)
σ=1

onde consideramos apenas termos em primeira ordem nos vı́nculos, pois ter-
mos de ordem superior resultam em termos fracamente nulos em (6.40).
Obtemos então que
 
K K
0
X X
Htot = Htot +  bα + dασβ vσ cβ  Θα . (6.47)
α=1 β,σ=1

Por inspeção vemos que a transformação canônica gerada pela função ξ em


(6.43) corresponde a uma variação dos multiplicadores dada por
K
X
δṽα = bα + dαβσ cσ vβ , (6.48)
β,σ=1

A interpretação fı́sica é então a seguinte: todas as escolhas possı́veis para


os multiplicadores vα em (6.40) correspondem a descrições diferentes mas
equivalentes do mesmo sistema fı́sico, descrições essas que são conectadas
por transformações canônicas geradas pelos vı́nculos de primeira classe. Esse
ponto ficará mais claro adiante ao estudarmos a aplicação do formalismo de
Dirac ao campo eletromagnético.
Uma maneira de determinar os multiplicadores arbitrários, e indireta-
mente com qual representação trataremos, consiste em introduzir K condi-
ções de vı́nculo adicionais:

ψα ≈ 0; α = 1, . . . , K, (6.49)

tais que os vı́nculos de primeira classe, em conjunto com os vı́nculos (6.49)


e os de segunda classe, passem a ser todos de segunda classe. A escolha
dos vı́nculos adicionais deve ser feita de tal maneira que eles sejam coerentes
com a dinâmica e não gerem novas condições de vı́nculo, ou seja, que ψ̇α ≈
6.4. Sistemas contı́nuos 115

0. As transformações canônicas cujos geradores são dados por (6.43) são


chamadas de transformações de calibre, e as condições (6.49) determinam a
escolha de calibre, por analogia com o caso do campo eletromagnético, cujas
transformações de calibre, como veremos, correspondem justamente a essa
classe de transformações.

6.4 Sistemas contı́nuos

O formalismo de Dirac para sistemas com vı́nculos pode ser extendido direta-
mente aos sistemas contı́nuos. As funções de vı́nculo passam a ser funcionais
das componentes do campo φ e dos momentos canonicamente conjugados
Π. O parêntesis de Dirac construido em termos de um conjunto {Θα } de
vı́nculos de segunda classe se escreve como

{F (x), G(x0 )}∗ = {F (x), G(x0 )}


XZ
− {F (x), Θα (x1 )}Cαβ (x1 , x2 ){Θβ (x2 ), G(x0 )}dn x1 dn x2 , (6.50)
α,β

onde o parêntesis de Poisson é definido aqui por


Z (
δF (x) δG(x0 ) δF (x) δG(x0 )
)
0
{F (x), G(x )} ≡ · − · dn x00 , (6.51)
δφ(x00 ) δΠ(x00 ) δΠ(x00 ) δφ(x00 )

e Cαβ (x1 , x2 ) é a inversa da matriz |{Θα (x1 ), Θβ (x2 )}| no seguinte sentido:

XZ
Cαβ (x1 , x2 ){Θβ (x2 ), Θγ (x3 )}dn x2 = δαγ δ(x1 − x3 ), (6.52)
β

onde δ(x) ≡ δ(x1 )δ(x2 ) · · · δ(xn ) é o delta de Dirac multidimensional. O


próximo exemplo esclarecerá a maneira como esse formalismo se aplica a um
campo descrito por uma lagrangeana degenerada.
116 Capı́tulo 6. Sistemas hamiltonianos com vı́nculos

6.5 O campo eletromagnético


Uma aplicação especialmente ilustradora do formalismo de Dirac é a constru-
ção das equações de Hamilton para o campo eletromagnético, cuja densidade
lagrangeana é dada pela equação (2.34):
1 1
L = − Fµν F µν = − Aρ,σ Aµ,ν (η ρµ η σν − η ρν η σµ ), (6.53)
4 2
com
∂Aµ ∂Aν
Fµν = − . (6.54)
∂xν ∂xµ
O momento conjugado a Aµ é então (lembrando a notação Ȧµ ≡ ∂Aµ /∂x0 ):
∂L
Πµ (x) = = −Aρ,σ (η ρµ η σ0 − η ρ0 η σµ )
∂ Ȧµ (x)
= Aρ,0 η ρµ − A0,σ η σµ = Aµ ,0 − A0, µ . (6.55)

Calculando separadamente as componentes espaciais e temporal obtemos

Πi (x) = Ai,0 − A0,i = Ei (x), (6.56)

e
Π0 (x) = 0. (6.57)

Temos assim um único vı́nculo primário:

Φ(x) = Π0 (x) = 0. (6.58)

A hamiltoniana H é dada por


Z 
1 2
Z h i  
µ 3 0
H = Π Ȧµ − L d x = Π0 Ȧ + Π · Ȧ + B − E 2 d3 x
2
Z 
1 2

= (B + Π2 ) + Π · ∇A0 d3 x, (6.59)
2

onde substituimos Ȧ por Π + ∇A0 .


6.5. O campo eletromagnético 117

A condição de consistência para Φ(x) é então

Φ̇ = {Φ, H̃} ≈ {Φ, H}


Z
δH δΦ δH
≈ − 0 0 0
d3 x0 = − ≈ 0, (6.60)
δA0 (x ) δΠ (x ) δA0 (x)

onde
Z
H̃ = H + uΦd3 x. (6.61)

Para calcular a derivada funcional do último termo de (6.60), usamos a


definição dada no capı́tulo 2: somamos um termo  σ(x) a A0 (x) onde σ(x)
é uma função arbitrária e   1. Derivamos então com relação a  (notemos
que A0 = −A0 e Ai = Ai ):
 
3 Z 3
1d X
Aγ,i (Aj,i − Ai,j ) + (A0 + σ),i Πi  d3 x
X

2 d i=1 j=1
3 Z 3 Z
1X 1X
= σ,i Πi d3 x = − σΠi,i d3 x
2 i=1 2 i=1
Z
δH 3
= σ(x) d x, (6.62)
δAo (x)

onde fizemos uma integração por partes e supusemos que Πi (x) se anula no
infinito. Em (6.62) a notação f,µ significa a derivada de f com relação a xµ .
Temos então que
3
δH 1X 1
=− Πi,i ≡ − ∇ · Π(x). (6.63)
δA0 (x) 2 i=1 2

Assim obtemos o seguinte vı́nculo secundário:

χ = ∇ · Π(x) = ∇ · E(x) = 0, (6.64)

que é precisamente uma das equações de Maxwell, e portanto é automatica-


mente satisfeita pela dinâmica do sistema.
118 Capı́tulo 6. Sistemas hamiltonianos com vı́nculos

Temos então dois vı́nculos de primeira classe: Θ1 = Φ e Θ2 = χ, e nenhum


vı́nculo de segunda classe. O parêntesis de Dirac neste caso coincide com o
parêntesis de Poisson:
{F, G}∗ = {F, G}, (6.65)

e a equação de evolução para um funcional F é dada por

dF ∂F
≈ {Htot , F } + , (6.66)
dt ∂t

onde a hamiltoniana total é


Z Z
Htot = H + v1 Π0 d3 x + v2 ∇ · Π d3 x. (6.67)

As equações de movimento são então:

Π̇0 ≈ 0,
δHtot
Ȧ0 ≈ {A0 , Htot } ≈ = v1 ,
δΠ0
δHtot
Π̇i ≈ {Πi , Htot } ≈ − = (∇ × B)i = Ėi ,
δAi
δHtot
Ȧi ≈ {Ai , Htot } ≈ = Πi + A0,i − v2,i = Ȧi − v2.i , (6.68)
δΠi

onde usamos (6.56) na última relação. Temos então que v1 ≈ Ȧ0 e v2 cons-
tante, que, sem perda de generalidade, tomamos como nula. Dessa forma A0
é uma função arbitrária fixada pela escolha de um calibre. A Hamiltoniana
total se escreve finalmente como:
Z 
1 2 1 2

Htot = Π + B + Ȧ0 Π0 − A0 ∇ · Π d3 x, (6.69)
2 2

onde o último termo do integrando foi obtido após uma integração por partes.
Os termos contendo a função arbitrária A0 geram assim transformações
canônicas infinitesimais, que são as transformações de calibre infinitesimais.
6.6. Exercı́cios 119

6.6 Exercı́cios
1. A equação de Dirac é dada por
∂ψ
iγ µ + mψ = 0, (6.70)
∂xµ
onde µ = 0, . . . , 3 e γ µ são as matrizes de Dirac definidas por
1 0 0 0 0 0 0 1
   
 0 1 0 0   0 0 1 0 
γ0 =  , γ1 =  ,
   
 0 0 −1 0   0 −1 0 0 
0 0 0 −1 −1 0 0 0
0 0 0 −i 0 0 1 0
   
 0 0 i 0 
 0
 0 0 −1 
γ2 =   , γ3 =   , (6.71)
 
 0 i 0 0   −1 0 0 0 
−i 0 0 0 0 1 0 0

e ψ é um campo a quatro componentes, no caso um espinor:


ψ0 (x)
 
 ψ1 (x) 
ψ(x) =  . (6.72)
 
 ψ2 (x) 
ψ3 (x)

Uma densidade lagrangeana para a equação (6.70) é

i ∂ψ i ∂ψ µ
L = ψγ µ µ − γ ψ + mψψ, (6.73)
2 ∂x 2 ∂xµ
onde ψ = ψ † γ 0 com ψ † = (ψ0∗ , ψ1∗ , ψ2∗ , ψ3∗ ) o adjunto de ψ. Na dedução
das equações de movimento ψ e ψ são considerados como indepen-
dentes.

Obtenha a forma canônica para as equação de Dirac.

2. Mostre que os termos contendo A0 na hamiltoniana total (6.69) do


campo eletromagnético nos dão as funções geradoras de uma trans-
formação de calibre arbitrária, com λ(x, t) = A0 .
120 Capı́tulo 6. Sistemas hamiltonianos com vı́nculos

3. Obtenha a expressão (6.69) para a Hamiltoniana total do campo eletro-


magnético, partindo da equação (6.61).
Capı́tulo 7

Formalismo de Hamilton-Jacobi

Uma maneira de integrar facilmente as equações de movimento seria obter


uma transformação canônica tal que a hamiltoniana transformada fosse cons-
tante, o que implica em coordenadas e momentos constantes no tempo, de-
terminados pelas condições iniciais. A solução seria então obtida usando-se
a respectiva transformação canônica inversa. Essa é a idéia central do for-
malismo de Hamilton-Jacobi.
Suponhamos que nosso sistema seja descrito pela hamiltoniana H(q, p, t).
Queremos então obter uma transformação canônica, gerada por uma função
S(q, P, t) das velhas coordenadas q, dos novos momentos P e do tempo1 .
Supondo uma hamiltoniana transformada igual a zero (já que uma constante
aditiva em nada altera a dinâmica), temos que:

∂S
H0 = H + = 0. (7.1)
∂t

Os velhos momentos e as novas coordenadas são obtidas de S por

∂S
pi = , (7.2)
∂qi
1
Poderiamos supor que S dependesse de outras variáveis em vez de q e P . A escolha
feita aqui é uma mera questão de conveniência.

121
122 Capı́tulo 7. Formalismo de Hamilton-Jacobi

∂S
Qi = , (7.3)
∂Pi
de modo que a equação (7.1) se escreve como
∂S ∂S
H(q, , t) + = 0, (7.4)
∂q ∂t
que nessa forma é a equação de Hamilton-Jacobi. Toda solução de (7.4) será
uma função geradora satisfazendo (7.1). A solução geral de (7.4) tem que
envolver n + 1 constantes arbitrárias, Uma delas sendo necessariamente uma
constante aditiva (pois apenas as derivadas de S aparecem na equação). A
solução geral tem a forma:

S = S(q, c, t) + cn+1 , (7.5)

onde c ≡ (c1 , . . . , cn ) e os ci ’s são as constantes arbitrárias. Como uma


constante aditiva em (7.5) não desempenha nenhum papel na transformação
canônica gerada por S, tomamos cn+1 = 0. Podemos também escolher os
novos momentos (constantes) como

Pi = ci . (7.6)

Todo o método se resume então a obter uma solução geral das equações de
Hamilton-Jacobi (7.4).
O sentido fı́sico de S é obtido calculando sua derivada com relação ao
tempo:
" #
dS X ∂S ∂S ∂S
= Ṗi + q̇i +
dt i ∂Pi ∂qi ∂t
X
= pi q̇i − H = L. (7.7)
i

Integrando então (7.7) concluimos que


Z t
S(q, P, t) = Ldt, (7.8)
t0
7.1. Exemplo: o oscilador harmônico 123

ao longo da trajetória do sistema. A escolha de t0 é irrelevante pois implica


apenas em acrescentar uma constante aditiva a S. Vemos então que a ação,
em função do limite superior de integração, é numericamente igual à função
geradora S, que satisfaz a equação de Hamilton-Jacobi (7.4).

7.1 Exemplo: o oscilador harmônico


Tomemos uma partı́cula de massa m, que realiza um movimento em uma
dimensão, sob a ação do potencial V = kx2 /2, com a hamiltoniana

p2
!
1
H= + kx2 . (7.9)
2 m

A equação de Hamilton-Jacobi é assim


!2
1 ∂S 1 ∂S
+ kx2 + = 0. (7.10)
2m ∂x 2 ∂t

Essa equação pode ser resolvida usando o método de separação de variáveis.


Supomos que
S(x, t) = F (x) + at, (7.11)

onde a é uma constante. Substituindo (7.11) em (7.10) obtemos


!2
1 ∂F 1
+ kx2 + a = 0, (7.12)
2m ∂x 2

cuja solução geral é


Z q
F = −m(kx2 + 2a)dx + b, (7.13)

onde b é uma constante de integração arbitrária. A solução geral de (7.10) é


obtida de (7.11):
Z xq
S= −m(kx2 + 2a)dx + at, (7.14)
x0
124 Capı́tulo 7. Formalismo de Hamilton-Jacobi

sendo que tomamos b = 0 para a constante aditiva. A escolha de x0 em


(7.14) é também arbitrária. Se fizermos P = a obtemos finalmente que
Z xq
S(x, P, t) = −m(kx2 + 2P )dx + P t. (7.15)
x0

De (7.2) e (7.3) e por simplicidade tomando x0 = 0, obtemos:


∂S q
p= = −m(kx2 + 2P ), (7.16)
∂x
Z x
∂S h i−1/2
Q = = −m dx −m(kx2 + 2P ) +t
∂P x0
  s
q −k 
= m/k arcsen x + t. (7.17)
2P

De (7.16) segue que


p2 + mkx2
P =− = −E, (7.18)
2m
que é justamente a energia total do sistema com o sinal invertido, e permite
determinar a constante P em função de P (0) e x(0). Usando (7.17) podemos
determinar a trajetória do sistema:
s s
−2P k
x= sen (Q − t), (7.19)
k m
onde P e Q fazem o papel de constantes de integração.

7.2 Separação de variáveis


O oscilador harmônico é descrito por uma hamiltoniana independente do
tempo, o que permite escrever a função geradora S na forma mais simples
(7.11). No caso geral, quando a hamiltoniana independe do tempo, a equação
de Hamilton-Jacobi assume a forma
!
∂S ∂S
H q, + = 0. (7.20)
∂q ∂t
7.2. Separação de variáveis 125

A solução de (7.20) pode então ser escrita como

S = F − c1 t, (7.21)

que implica a seguinte equação para F


!
∂F
H q, = c1 = E. (7.22)
∂q
A solução geral para F é então da forma F = F (q, c1 , . . . , cn ), e é chamada de
função caracterı́stica de Hamilton. No presente caso, é conveniente utilizá-la
como função geradora, no lugar de S, o que traz algumas vantagens práticas.
A transformação gerada por F é então:
∂F
pi = , (7.23)
∂qi
∂F ∂F
Qi = = , (7.24)
∂Pi ∂ci
∂F
H0 = H + = H = c1 . (7.25)
∂t
As equações de movimento nas novas variáveis são então:

Ṗi = 0, (7.26)
∂H ∂H
Q̇i = = = δi1 , (7.27)
∂Pi ∂ci
cujas soluções são
Pi = ci , (7.28)

Q1 = t + Q1 (0), (7.29)

Qi = Qi (0), i 6= 1. (7.30)

Agora, em vez de Pi = ci tomamos Pi = bi (c), onde os bi ’s são n funções


independentes, de tal modo que c1 = c1 (b), e H = c1 (b) seria função de todos
os bi ’s. No lugar de (7.27) obtemos:
∂c1
Q̇i = , (7.31)
∂bi
126 Capı́tulo 7. Formalismo de Hamilton-Jacobi

enquanto que (7.26) permanece válida. A solução de (7.31) é assim


∂c1
Qi = t + Qi (0). (7.32)
∂bi
A solução do problema nas variáveis iniciais é obtida invertendo a trans-
formação canônica gerada por F .
Outro caso em que a separação de variáveis é possı́vel acontece quando a
equação de Hamilton-Jacobi tem a seguinte forma:
!
∂S ∂S ∂S ∂S
H G(q1 , ), q2 , . . . , qn , ,..., + = 0. (7.33)
∂q1 ∂q2 ∂qn ∂t
A separação de variáveis é feita então tomando

S = S1 (q1 ) + S2 (q2 , . . . , qn , t), (7.34)

que substituida em (7.33) implica


!
∂S1
G q1 , = a, (7.35)
∂q1
!
∂S2 ∂S2 ∂S
H a, q2 , . . . , qn , ,..., + = 0, (7.36)
∂q2 ∂qn ∂t
onde a é uma constante arbitrária. A equação (7.35) envolve apenas q1 e
é assim uma equação ordinária para a função S1 (q1 ). Se pudermos então
separar uma a uma todas as variáveis estaremos reduzindo a solução do pro-
blema a quadraturas (integrações diretas). O fato de conseguirmos separar
as variáveis depende, é claro, da escolha do sistema de coordenadas utilizado.

7.3 Aplicação: Campo central e força externa


constante
Tomemos uma partı́cula de massa m sob a ação de um potencial V dado por
α
V = − F z, (7.37)
r
7.3. Aplicação: Campo central e força externa constante 127

onde estamos usando um sistema de coordenadas cartesianas x, y, z, e r é


a distância da partı́cula à origem, com α e F constantes. Esse potencial
descreve a ação de duas forças: uma força central que varia com o inverso do
quadrado da distância e um força constante F na direção do eixo z.
A lagrangeana para o problema é então
1 α
L = m(ẋ2 + ẏ 2 + ż 2 ) − + F z, (7.38)
2 r
que nos dá as seguintes expressões para os momentos conjugados a x, y e z:

px = mẋ,
py = mẏ,
pz = mż. (7.39)

A hamiltoniana por sua vez é:


1  2  α
H= px + p2y + p2z + − F z. (7.40)
2m r
Vemos então que a equação de Hamilton-Jacobi não é separável nesse sis-
tema de coordenadas. No entanto, efetuando uma mudança de coordenadas
podemos obter uma forma apropriada para (7.40). Vamos seguir a solução
apresentada por Landau e Lifchitz [Landau,1966a].
As coordenadas parabólicas são definidas da seguinte maneira:

ξ = r + z, (7.41)

η = r − z, (7.42)

completadas pelo ângulo azimutal φ entre a projeção do vetor r no plano xy


e o eixo x. Notemos que como r ≥ z as coordenadas ξ e η variam no intervalo
de 0 a ∞, enquanto que φ varia de 0 a 2π. Em coordenadas cilı́ndricas temos
que
v 2 = ρ̇2 + ρ2 φ̇2 + ż 2 , (7.43)
128 Capı́tulo 7. Formalismo de Hamilton-Jacobi

e notando que ρ2 = ξη e z = (ξ − η)/2, obtemos a seguinte forma para L em


coordenadas parabólicas:

ξ˙2 η̇ 2
" #
1 1
L = m(η + ξ) + + mξη φ̇2 − V (η, ξ), (7.44)
8 ξ η 2
com
2α 1
V (η, ξ) = + (η − ξ)F
η+ξ 2
f (ξ) + g(η)
= , (7.45)
η+ξ
onde
1
f (ξ) = α − F ξ 2 , (7.46)
2
1
g(η) = α + F η 2 . (7.47)
2
Os momentos conjugados a essas variáveis são
1 η+ξ ˙
Pξ = m ξ, (7.48)
4 ξ
1 η+ξ
pη = m η̇, (7.49)
4 η
pφ = mηξ φ̇, (7.50)

que nos dão a seguinte forma para a hamiltoniana:

2 ηp2η + ξp2ξ 1 p2φ


H= + + V (η, ξ). (7.51)
m η+ξ 2 mηξ
Como a hamiltoniana é independente do tempo, a função geradora S é da
forma S = F − c1 t, com c1 uma constante, e a equação de Hamilton-Jacobi
se reduz a
 !2 !2  !2
2 ∂F ∂F 1 ∂F
H= η +ξ + + V (η, ξ) = c1 .
m(η + ξ) ∂η ∂ξ 2mηξ ∂φ
(7.52)
7.3. Aplicação: Campo central e força externa constante 129

Podemos separar a coordenada φ escrevendo F = F1 (φ) + F (η, ξ):


∂F1
= c2 , (7.53)
∂φ
 !2 !2 
2 η
∂F ∂F 1 2
+ξ + c + V (η, ξ) = c1 , (7.54)
m(η + ξ) ∂η ∂ξ 2mηξ 2
onde c2 é uma constante arbitrária. A solução para F1 é então

F1 = c2 φ. (7.55)

Multiplicando (7.54) por η + ξ obtemos


!2 !2
2 ∂F 2 ∂F c22 c2
η + ξ + + 2 +f (ξ)+g(η)−c1 η −c1 ξ = 0, (7.56)
m ∂η m ∂ξ 2mη 2mξ
que pode ser resolvida por uma separação adicional de variáveis da forma
F = F2 (η) + F3 (ξ), que nos dá as seguintes equações:
!2
2 ∂F2 c22
η + + g(η) − c1 η = c3 , (7.57)
m ∂η 2mη
!2
2 ∂F3 c2
ξ + 2 + f (ξ) − c1 ξ = −c3 , (7.58)
m ∂ξ 2mξ
com c3 uma constante arbitrária. A solução de (7.57) é
#1/2
c2
" !
Z
c3 g(η) m
F2 (η) = dη − 22− − c1 , (7.59)
η 2mη η 2
e a de (7.60):
#1/2
c2
" !
Z
−c3 f (ξ) m
F3 (ξ) = dξ − 22− − c1 . (7.60)
ξ 2mξ ξ 2
A solução completa para S é então
#1/2
c2
" !
Z
c3 g(η) m
S = −c1 t + c2 φ + dη − 22− − c1
η 2mη η 2
#1/2
c2
" !
Z
c3 f (ξ) m
+ dξ − − 22− − c1 . (7.61)
ξ 2mξ ξ 2
Assim a solução da equação de Hamilton-Jacobi é reduzida a integrações
diretas.
130 Capı́tulo 7. Formalismo de Hamilton-Jacobi

7.4 Teorema de Liouville sobre sistemas


integráveis
Nesta seção vamos obter uma condição necessária e suficiente para que um
sistema hamiltoniano autônomo, i. e. cuja hamiltoniana não dependa explici-
tamente do tempo, seja integrável por quadraturas2 . Levando-se em conta
a discussão acima sobre o formalismo de Hamilton-Jacobi, vamos supor que,
para um sistema a n graus de liberdade, existam n constantes de movi-
mento independentes Gi (q, p), com i = 1, . . . , n. Procuramos então definir
uma transformação canônica tal que os novos momentos Pi sejam justamente
iguais aos Gi ’s. Devido às equações de Hamilton, o fato dos Pi ’s serem cons-
tantes implica que a nova hamiltoniana H 0 não depende das novas coorde-
nadas Qi , ou em outras palavras, H 0 = H 0 (P ), e o problema passa então a
ser integrável diretamente, pois as equações de Hamilton que resultam de H 0
têm a forma simples

∂H 0
Q̇i = → constante, (7.62)
∂Pi
∂H 0
Ṗi = − = 0. (7.63)
∂Qi

Para que isso seja possı́vel, é necessário (e suficiente) que exista uma trans-
formação canônica tal que Pi = Gi (q, p, t).
Para tal, procuremos uma função geradora S, função dos qi ’s, Pi ’s e do
tempo, tal que
∂S
pi = , (7.64)
∂qi
∂S
Qi = , (7.65)
∂Pi
2
Um sistema é dito integrável por quadraturas quando existe uma mudança de variáveis
tais que sua solução possa ser obtida por uma integração direta (quadratura).
7.4. Teorema de Liouville sobre sistemas integráveis 131

∂S
H0 = H + . (7.66)
∂t
Expressando pi em função de Pi e qi e usando (7.64), vemos que S é da forma3

n Z qi
X
S= pi (q, P )dqi , (7.67)
i=1 ci

onde os ci ’s são constantes arbitrárias. Usando (7.67) em (7.65) obtemos as


coordenadas Qi em função dos qi ’s e Pi ’s.
Tudo isso repousa na suposição de que os Gi ’s permitem definir os novos
momentos Pi ’s. A condição de consistência necessária para tal é que4

{Gi , Gj } = 0, i, j = 1, . . . , n. (7.68)

Por sua vez, as novas coordenadas Qi são obtidas de (7.65) e (7.67). As


equações (7.64) e (7.65) implicam então que (vide capı́tulo 5):

{Pi , Qj } = δij , (7.69)

{Qi , Qj } = 0, (7.70)

ou seja, que a transformação gerada por S dada em (7.67) é canônica, sendo


o sistema integrável. A condição (7.68) é a condição necessária e suficiente
para que o sistema seja integrável, e esse constitui o enunciado do teorema de
Liouville sobre sistemas integráveis. As constantes de movimento Gi , para
i = 1, . . . , n, são ditas em involução por satisfazerem (7.68).
3
Podemos também expressar S em função de quaisquer 2n variáveis dentre os qi ’s, Qi ’s,
pi ’s e Pi ’s. A escolha em geral é uma questão de conveniência e pode depender da forma
explı́cita dos n invariantes Gi . A exposição aqui feita pode ser diretamente adaptada para
esses casos.
4
A equação (7.68) é também a condição para que os Gi ’s sejam independentes e que
possamos escrever pi em função dos Pi ’s e qi ’s.
132 Capı́tulo 7. Formalismo de Hamilton-Jacobi

7.5 Toros invariantes e variáveis ângulo-ação


Cada constante de movimento Gi define uma hipersuperfı́cie no espaço de
fase sobre a qual se situa a trajetória do sistema. A interseção M dessas n
hipersuperfı́cies define uma subvariedade de dimensão n do espaço de fase.
Para determinarmos a estrutura topológica de M definimos os seguintes cam-
pos vetoriais no espaço de fase:
n
" #
X ∂Gi ∂ ∂Gi ∂
fi (q, p) = − ; i = 1, . . . , n. (7.71)
j=1 ∂pj ∂qj ∂qj ∂pj

Em cada ponto de M temos os gradientes dos Gi ’s, que são linearmente


independentes, e dados por
n
" #
X ∂Gi ∂ ∂Gi ∂
Ni = + . (7.72)
j=1 ∂pj ∂pj ∂qj ∂qj

Vemos que cada fi é perpendicular a todos os Ni ’s. De fato, temos que


n
" #
X ∂Gi ∂Gj ∂Gi ∂Gj
f i · Nj = − = {Gj , Gi } = 0, (7.73)
k=1 ∂pk ∂qk ∂qk ∂pk

o que implica que os n campos fi são contı́nuos (supomos que os invariantes


Gi e suas derivadas são funções contı́nuas de q e p) e tangentes a M . Supondo
que M é compacta (está contida em uma região de volume finito do espaço de
fase), podemos usar um teorema em topologia que afirma que toda variedade
compacta sobre a qual existem n campos vetoriais contı́nuos, linearmente
independentes, e tangentes a ela é um toro n-dimensional. Evidentemente,
quando o movimento do sistema não é mais limitado, M não será mais uma
variedade compacta e não terá mais a topologia de um toro.
Podemos descrever a trajetória do sistema usando as chamadas variáveis
ângulo-ação. Tomamos n ângulos para a posição do sistema sobre o toro e n
coordenadas, funções dos invariantes Gi , que determinam sobre qual toro se
7.5. Toros invariantes e variáveis ângulo-ação 133

encontra o estado do sistema. A questão que se coloca consiste em saber se


existem tais coordenadas que sejam canônicas. Antes de responder, vamos
mostrar uma propriedade útil dos toros invariantes. Um percurso C sobre o
toro M é dito redutı́vel se puder ser reduzido continuamente a um ponto, e
irredutı́vel em caso contrário. A integral
I
I= p · dq, (7.74)
C

é nula sempre que C for redutı́vel. De fato, utilizando o teorema de Stokes


(vide apêndice A), temos que
I Z Z
p · dq = ˜ · q) =
d(p dp ∧ dq, (7.75)
C U U

onde d˜ é a derivada exterior e U a região de M cuja fronteira é C (note que


essa definição de U só faz sentido se C for redutı́vel). O integrando no último
termo de (7.75) pode ser escrito como
n
X
dp ∧ dq = dpk ∧ dqk , (7.76)
k=1

que é assim a soma das áres projetadas nos planos de coordenadas de um


paralelograma definido pelas forma dp e dq, que são tangentes a M . Tal
soma de áres é nula, poiws a condição de involução (7.68) corresponde à
soma das projeções das áres do paralelograma formado pelos vetores fi e fj ,
que é nula.
Vamos usar essa propriedade do toro para definir as variáveis de ação por
1 I
Ii = p · dq, (7.77)
2π γi
onde γi é um percurso irredutı́vel de M , ou seja, que não pode ser reduzido
a um ponto contı́nuamente. Um toro n-dimensional possui n percursos ir-
redutı́veis diferentes e que não podem ser levados um no outro de maneira
134 Capı́tulo 7. Formalismo de Hamilton-Jacobi

contı́nua, e assim definimos n variáveis de ação. O nome vem do fato que


Ii tem dimensão de ação e é proporcioanl à variação da ação do sistema ao
longo do circuito γi . Podemos ver isso usando (7.64) em (7.67), o que nos dá
1 I ∂S
Ii = · dq. (7.78)
2π γi ∂q
A definição (7.77) é unı́voca pois a integral de linha ao longo de duas escolhas
diferentes de γi se diferencia pela integral ao longo de um percurso redutı́vel
dividida por 2π,e nula portanto, ou seja, as integrais associadas a essas duas
escolhas são idênticas.
A definição das variáveis de ação garante que elas são constantes de movi-
mento, pois seu valor é fixado pela escolha do toro que contem a condição
inicial. Podemos então escrever as constantes de movimento Gi em função dos
Ii ’s, desde que o Jacobiano da respectiva transformação não seja nulo. Par-
ticularmente, podemos reescrever a função geradora F (q, P ), que é solução
da equação de Hamilton-Jacobi separada no tempo, em termos das ações,
o que por sua vez permite definir as variáveis canonicamente conjugadas às
ações por
∂F
θi =
. (7.79)
∂Ii
Para entendermos o sentido fı́sico dessa variáveis, calculamos sua variação
∆θi ao longo de um circuito γj 5
∂F ∂ ∂
∆θi = ∆ = ∆F = 2πIj = 2πδij . (7.80)
∂Ii ∂Ii ∂Ii
mostrando assim que θi é o ângulo medido ao longo do percurso γi . As
coordenadas Ii , θi , para i = 1, . . . , n, são chamadas de variáveis ângulo-ação.
5
Notemos que usando (7.64) a função geradora F pode ser escrita como
Z q
F = p · dq,
q0

e conseqüentemente ∆F ao longo de γj é igual a 2πIj .


7.5. Toros invariantes e variáveis ângulo-ação 135

As equações de Hamilton nas novas variáveis são


∂H
I˙i = − = 0, (7.81)
∂θi
∂H
θ̇i = = ωi , (7.82)
∂Ii
onde os ωi ’s são freqüências angulares constantes. A trajetória sobre o toro
é dada por
θi (t) = ωi t + φi (0). (7.83)

Ela pode ser fechada, i. e. o movimento possui um perı́odo global, ou não,


o movimento sendo quasi-periódico. Para que a órbita seja fechada, as
freqüências wi ’s devem ser comensuráveis:
ωi ni
= , (7.84)
ωj nj
para ni e nj inteiros e i, j = 1, . . . , n. Como os racionais formam um conjunto
de medida zero entre os reais, a órbita fechada no toro é um caso excepcional.
Quando a órbita não é fechada, ela cobre de maneira uniforme o toro, e
o movimento é ergódico em M (e não sobre a hipersuperfı́cie de energia
constante). Notemos também que para a hipótese ergódica da Mecânica
Estatı́stica ser válida, é necessário que não existam toros invariantes nos
espaço de fase, para que o estado do sistema possa se deslocar livremente
sobre a hipersuperfı́cie de energia constante.

7.5.1 Exemplos
Oscilador harmônico

A hamiltoniana é dada por (7.9). Neste caso precisamos apenas uma cons-
tante de movimento, que é fornecida pela própria hamiltoniana:
p2 kq 2
E = H(q, p) = + = constante. (7.85)
2m 2
136 Capı́tulo 7. Formalismo de Hamilton-Jacobi

Em cada ponto do espaço de fase passa um toro invariante, definido pela


elipse (7.85). A variável de ação é dada por

1 I
I= p dq. (7.86)

Sendo todo o toro M a própria elipse, o único percurso irredutı́vel γ se
confunde com M e I é igual à área da elipse dividida por 2π, o que nos dá

1 √ q q
I= π 2mE 2E/k = E m/k. (7.87)

A hamiltoniana se escreve então como
q
H = I k/m, (7.88)

e como devemos ter que θ̇ = ω = ∂H/∂I, obtemos


q
ω= k/m. (7.89)

A hamiltoniana em termos das novas variáveis é dada por

H = Iω. (7.90)

Oscilador harmônico bidimensional

Antes de falarmos do caso mais especı́fico, consideremos o caso em que a


hamiltoniana pode ser escrita na forma
n
X
H(q, p) = Hi (qi , pi ). (7.91)
i=1

Temos então n constantes de movimento em involução que correspondem


às energias parciais Ei = Hi (qi , pi ). Essa separação do espaço de fase em
subsistemas que evoluem independentemente permite construir as variáveis
de ângulo-ação para cada um separadamente.
7.5. Toros invariantes e variáveis ângulo-ação 137

No caso do oscilador harmônico bidimensional, a hamiltoniana é dada por

p21 p22
!
1
H= + + k1 q12 + k2 q22 . (7.92)
2 m m

As variáveis de ângulo ação são então definidas por


q
I1 = E1 m/k1 , (7.93)
q
I2 = E2 m/k2 , (7.94)
q
ω1 = k1 /m, (7.95)
q
ω2 = k2 /m, (7.96)

e a hamiltoniana toma a forma

H = ω1 I1 + ω2 I2 . (7.97)

Vemos então que para o oscilador isotrópico (k1 = k2 ), todas as órbitas são
fechadas, quaisquer que sejam os valores de I1 e I2 .
138 Capı́tulo 7. Formalismo de Hamilton-Jacobi
Capı́tulo 8

Teoria de perturbações e caos


hamiltoniano

Como vimos, o movimento de um sistema integrável com n graus de liber-


dade se faz sobre um toro n-dimensional. Cabe agora a seguinte indagação:
se perturbarmos um sistema integrável adicionando um termo, usualmente
pequeno, à sua hamiltoniana, o movimento resultante continuará sobre um
toro obtido do anterior por uma pequena deformação? Neste capı́tulo apre-
sentamos elementos da teoria de perturbação que permitem responder a essa
pergunta. Outro aspecto importante que iremos discutir é o surgimento de
um tipo de dinâmica qualitativamente diferente à observada nos sistemas
integráveis, quando a perturbação destrói o toro sobre o qual se encontrava
a condição inicial do sistema. Essa nova dinâmica apresenta um comporta-
mento errático, ou caótico, e será discutida a partir da seção 8.4.

8.1 Perturbação de um sistema integrável

Consideremos um sistema integrável, descrito por uma hamiltoniana in-


tegrável H0 (I) escrita utilizando variáveis de ângulo-ação, e uma perturbação

139
140 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

λH1 (I, θ), de modo que a hamiltoniana total é dada por:

H(I, θ) = H0 (I) + λH1 (I, θ). (8.1)

Apesar das variáveis I, θ serem canônicas, elas não são variáveis ângulo-
ação para o sistema perturbado. Vamos então tentar obter uma trans-
formação canônica entre as variáveis I, θ e novas variáveis I 0 , θ0 tais que
H(I, θ) = H(I 0 ), fazendo com que o sistema perturbado seja também in-
tegrável. Tomemos uma função geradora da forma S(I 0 , θ), e a respectiva
transformação canônica:
∂S
, Ii = (8.2)
∂θi
∂S
θi0 = 0 . (8.3)
∂Ii
O próximo passo consiste em supor que S pode ser escrita como uma série
de potências em λ, o termo de ordem zero correspondendo à transformação
identidade:
n
θi Ii0 + λS1 + λ2 S2 + . . . ,
X
S= (8.4)
i=1

onde S1 , S2 , . . . são funções de I 0 e θ. Usando as equações (8.1–8.4) nós


obtemos
∂S ∂S
H0 (I 0 + λ + . . . ) + λH1 (I 0 + λ + . . . , θ) = H(I 0 ). (8.5)
∂θ ∂θ
Expandindo (8.5) em potências de λ e tomando contribuições a cada ordem,
obtemos para a ordem λ0 (a contribuição de ordem mais baixa):

H(I 0 ) = H0 (I 0 ). (8.6)

Para a ordem λ1 (a contribuição seguinte) temos:


n
∂H0 ∂S1
+ H1 (I 0 , θ) = 0.
X
0
(8.7)
i=1 ∂I i ∂θ i
8.1. Perturbação de um sistema integrável 141

Sabemos também que H1 e S devem ser periódicos nos ângulos θi , o que


permite expandir H1 e S1 em séries de Fourier:

H1 (I 0 , θ) = H1,m (I 0 )eim·θ ,
X
(8.8)
m6=0

S1 (I 0 , θ) = S1,m (I 0 )eim·θ ,
X
(8.9)
m

onde m ≡ (m1 , . . . , mn ) é um vetor de componentes inteiras. Se retirarmos a


restrição m 6= 0 em (8.8) teremos um termo adicional H1,0 (I) função apenas
de I. Acrescentando esse termo a H0 e redefinindo este último como sendo
a soma desses dois termos, reobtemos (8.8). Usando a relação ωi0 = ∂H0 /∂Ii0
e as equações (8.8) e (8.9) obtemos a seguinte expressão:

mi ωi0 (I 0 )S1,m eim·θ + H1,m (I 0 )eim·θ = 0.


XX X
i (8.10)
i m m6=0

Igualando a zero os coeficientes das exponenciais na expansão, temos que


iH1,m (I 0 )
S1,m (I 0 ) = , (8.11)
m · ω0
desde que m · ω 0 6= 0, ou seja, desde que as freqüências ωi0 não sejam comen-
suráveis. Quando m · ω 0 = 0 dizemos que ocorre uma ressonância. Mesmo
quando as freqüências são incomensuráveis, existirá sempre algum vetor m
tal que m · ω 0 é arbitrariamente pequeno, caso esse que denominamos de
quasi-ressonância.
Já podemos ao menos responder parte da pergunta no inı́cio deste capı́tu-
lo: quando as freqüências do toro não perturbado forem ressonates a equação
(8.10) não pode ser resolvida para S1,m . Na verdade não existe um toro per-
turbado associado a um toro ressonante. O efeito das ressonâncias e dos
pequenos denominadores sobre os toros será melhor discutida mais adiante
na seção 8.4, onde discutiremos o Teorema KAM, que permite dizer justa-
mente quais toros são mantidos e quais são destruı́dos sob o efeito de uma
142 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

K1 l K2

m1 m2

Figura 8.1: Sistema massa-mola com constantes elásticas K1 , λ e K2 . A


perturbação corresponde ao potencial da mola que liga as duas massas.

perturbação. O cálculo perturbativo pode ser continuado para ordens supe-


riores, e sempre que não tivermos uma ressonância poderemos, formalmente,
obter a função geradora S. Dizemos formalmente pois resta ainda a questão
da convergência da série perturbativa, cuja região de convergência pode ser
fortemente restrita pela existência de pequenos denominadores.
Para ilustrar, obtenhamos a expressão de S2 . De (8.5) obtemos o termo
de ordem λ2 :
X ∂ 2 H0 ∂S1 ∂S1 X ∂H0 ∂S2 X ∂H1 ∂S1
+ + = 0, (8.12)
i,j ∂Ii0 Ij0 ∂θi ∂θj 0
i ∂Ii ∂θi
0
i ∂Ii ∂θi

que nos dá


X ∂ωi (I 0 ) ∂S1 ∂H1 mi H1,m (I 0 )
" #
i
S2,m (I) = − + . (8.13)
m · ω 0 (I 0 ) i,j ∂Ij0 ∂θj ∂Ii0 m · ω 0 (I 0 )

8.2 Aplicação: osciladores harmônicos


acoplados
Como ilustração do método perturbativo que descrevemos acima, considere-
mos o sistema massa-mola dado na figura 8.1, composto por dois blocos de
massas m1 e m2 e três molas de constantes elásticas K1 , K2 e λ. Tomemos λ
pequeno com relação a K1 e K2 , e suponhamos que o comprimento natural
da mola é igual à distância entre as duas massas no equilı́brio. Denotando
8.2. Aplicação: osciladores harmônicos acoplados 143

o deslocamento dos blocos com relação à posição de equilı́brio sem a per-


turbação por x1 e x2 , escrevemos a hamiltoniana como

H(p, x) = H0 (p, x) + λH1 (x), (8.14)

com
2
p2i
" #
1X
H0 (p, x) = + Ki x2i , (8.15)
2 i=1 mi
1
H1 (x) = (x1 − x2 )2 . (8.16)
2
Como vimos no capı́tulo anterior, as variáveis de ação para H0 são dadas
por (7.93) e (7.94):
Ei
Ii = , (8.17)
ωi
q
onde ωi = Ki /mi , enquanto que as variáveis de ângulo são obtidas através
da função geradora que é solução da eq. (7.22):
2 Z q
X 2 Z q
X
F = (2Ei − Ki x2i )mi dxi = (2Ii ωi − Ki x2i )mi dxi . (8.18)
i=1 i=1

De (7.79) temos então

∂F Z h  i−1/2
θi = = ωi mi 2Ii ωi − Ki x2i mi dx
∂Ii
(Ki mi )1/4 xi
!
= arcsen √ , (8.19)
2Ii

e invertendo (8.19) obtemos



2Ii
xi = sen (θi ) . (8.20)
(Ki mi )1/4

A hamiltoniana escrita em termos das variáveis ângulo ação para H0 é


assim
H(I, θ) = I1 ω1 + I2 ω2 + λH1 (I, θ), (8.21)
144 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

onde
" √ √ #2
1 2I1 2I2
H1 (I, θ) = senθ1 − senθ2 . (8.22)
2 (K1 m1 )1/4 (K2 m2 )1/4
Podemos calcular a transformada de Fourier de H1 como
1 Z
Hn (I) ≡ Hn1 ,n2 (I) = H1 (I, θ)e−in·θ dθ1 dθ2

1 Z
= H1 (I, θ)e−in1 θ1 e−in2 θ2 dθ1 dθ2 , (8.23)

que pode ser calculada explicitamente usando (8.22). Os coeficientes de
Fourier da transformação geradora são dados, na ordem λ1 , por
iH1,n1 ,n2 (I1 , I2 )
S1,n1 ,n2 = , (8.24)
n1 ω1 + n2 ω2
quando as freqüências ω1 e ω2 são incomensuráveis.

8.3 Forma normal em torno de um ponto fixo


Um ponto (q, p) do espaço de fase é um ponto fixo quando q̇i = 0 e ṗi = 0.
A forma normal é uma alternativa ao método perturbativo descrito na seção
8.2, e se baseia em uma expansão em série de potências em torno de um
ponto fixo do sistema. Vamos então transladar a origem de nosso sistema no
espaço de fases de maneira que o ponto fixo esteja na origem (uma translação
no espaço de fase é sempre uma transformação canônica). Dessa maneira, a
hamiltoniana expandida em série de Taylor em torno da origem possui apenas
termos quadráticos e de ordem superior (a menos de uma constante aditiva
que supomos igual a zero):
2n

∂ 2 H i j
 
3
 
ω3 ,
X
H(q, p) = ω ω + O ω ≡ H2 + O (8.25)
∂ω i ω j ω=0

i,j=1

onde utilizamos a notação simplética. Vamos agora citar o seguinte teo-


rema [Almeida,1991]:
8.3. Forma normal em torno de um ponto fixo 145

Uma hamiltoniana quadrática H pode ser transformada por


uma transformação canônica linear em uma soma de termos da
forma αi (x2i + yi2 )/2, com os αi ’s reais.

As equações de movimento assumem então no nosso caso a forma


∂H2
ẋi = = αi y i , (8.26)
∂yi
∂H2
= −αi xi .
ẏi = − (8.27)
∂xi
Essas equações podem ser diagonalizadas pela transformação

zi± = xi ± iyi , (8.28)

que nos dá as equações:

żi± = αi yi ∓ iαi yi = ∓iαi zi± , (8.29)

ou seja, ±iαi são os autovalores da matriz ∂ 2 H/∂ω i ∂ω j , onde os αi ’s são


números reais, pelo teorema acima. A solução de (8.29) é da forma

zi± (t) = zi± (0)e∓iαi t , (8.30)

de modo que, levando em conta o fato que a hamiltoniana H2 é integrável por


ser separável, temos que αi = ωi , as freqüências sobre os toros invariantes de
H2 .
Ao considerarmos termos cúbicos e de ordem superior, o sistema obtido
não tem mais a forma dada em (8.26) e (8.27). Ainda assim podemos reduzir
o sistema a uma forma mais simples [Birkhoff,1927]: se os autovalores são
racionalmente independentes (não há ressonâncias), então existe uma trans-
formação canônica formal1 que transforma H(x, y) no hamiltoninano formal
1
Por formal entendemos que estamos tratando com uma série infinita sem nos preocu-
parmos com questões relativas à sua convergência.
146 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

H 0 (ρ1 , . . . , ρn ) expresso como uma série (formal) em potências de ρi ≡ ξi2 +ηi2 ,


onde ξi e ηi são as novas variáveis canônincas.
A conexão entre as novas e as velhas variáveis pode então ser expressa
por séries formais:
xi = xi (ξ, η) = ξi + . . . , (8.31)

yi = yi (ξ, η) = ηi + . . . , (8.32)

onde os pontos representam termos quadráticos e de ordens superiores. As


transformações (8.31) e (8.32) são geradas por uma função geradora da forma
n
X
F (x, η) = xi η i + . . . , (8.33)
i=1

onde os pontos mais uma vez representam termos de ordem superior.


Caso as séries (8.31) e (8.32) convirjam, então o sistema resultante é
integrável por construção. De fato, calculando a derivada de ρi com relação
ao tempo obtemos
!
∂H ∂H
ρ̇i = 2(ρi ρ̇i + ηi η̇i ) = 4 ξi ηi − ηi ξi = 0. (8.34)
∂ρi ∂ρi
Isso significa que os ρi ’s são constantes de movimento em involução, uma
vez que {ρi , ρj } = 0, para todo par i, j. Dessa maneira vemos também
que para que a série formal convirja, é necessário que o sistema seja in-
tegrável. Um teorema de Rüssmann garante que essa condição é também
suficiente [Birkhoff,1927].
Uma extensão do presente formalismo ao caso ressonante é devida a Gus-
tavson [Gustavson,1966]. Tomemos a seguinte transformação canôninca for-
mal de xi , yi para ζ i , ζi :
1 1
xi = ζi + ζ i + . . . , (8.35)
2 2
i i
yi = ζ i − ζi + . . . , (8.36)
2 2
8.3. Forma normal em torno de um ponto fixo 147

gerada pela função


iX
F (x, ζ) = xi (ζ i − ζi ) + . . . (8.37)
2 i

As variáveis ζ i e ζi são relacionadas a ηi e ξi definidas em (8.31) e (8.32) por

ζi = ξi + iηi , (8.38)

ζ i = ξi − iηi . (8.39)

Dizemos que a hamiltonina transformada (ζjm ≡ ζ1m1 ζ2m2 · · ·)


m
H 0 (ζ, ζ) = al,m ζil ζ j ,
X
(8.40)
l,m

está na forma normal se (8.40) contiver apenas termos ressonantes, i. e. se


m
X
(li − mi )ωi = 0. (8.41)
i=1

A existência da transformação formal (8.35) e (8.36) é garantida por um


teorema de Gustavson. Mais ainda, se existirem r relações de ressonância
(independentes) entre as freqüências ωi , então existirão n − r constantes de
movimento da forma
n n n
γi (ξi2 + ηi2 ) =
X X X
I(ξ, η) = = γi ζi ζ i , (8.42)
i=1 i=1 i=1

onde γi é tal que


n
X
γi mi = 0, (8.43)
i=1
se o vetor m satisfizer a condição de ressonância. De fato, temos que
n n
" #
dI X ∂H ∂H
 
γi ζ̇i ζ i + ζi ζ˙ i =
X
= γi ζ i − ζi , (8.44)
dt i=1 i=1 ∂ζ i ∂ζi
e usando (8.40) com (8.41) obtemos:
n X
dI X Y l m
= al,m γi (lj − mk )ζjj ζ k k = 0. (8.45)
dt i=1 l,m j,k
148 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

Vemos que existem n − r vetores γ ≡ (γ1 , . . . , γn ) linearmente independentes


que satisfazem (8.44), e portanto n − r constantes de movimento indepen-
dentes.

8.4 Teorema KAM


A solução perturbativa de um sistema se baseia na hipótese de que a série
(8.4) converge. Isso corresponde a supor que os toros invariantes associados a
H0 continuam existindo após a introdução da perturbação λH1 . O teorema de
Kolmogorov-Arnold-Moser(KAM) trata justamente desse ponto. Tomemos
a hamiltoniana perturbada analı́tica:

H(I, θ) = H0 (I) + λH1 (I, θ). (8.46)

Assim, para λ suficientemente pequeno a maioria dos toros invariantes de H0


são mantidos sob a perturbação. Os toros mantidos são obtidos dos toros
originais por pequenas deformações, que por sua vez podem ser calculadas
utilizando a teoria de perturbações. À medida que a perturbação é aumen-
tada, mais e mais toros são destruı́dos até que os toros não destruı́dos formam
um conjunto de medida nula no espaço de fase. Nesse caso podemos ainda
utilizar uma análise perturbativa que será válida por intervalo de tempo
finito. Esta última afirmação se baseia em um resultado importante, obtido
por Nekhorochev, que demonstrou que, apesar do toro associado a uma dada
condição inicial não existir mais por efeito da perturbação, a solução per-
manece próxima ao toro não perturbado correspondente por um tempo finito,
denominado de tempo de Nekhorochev [MacKay,1987].
O teorema KAM pode ser expresso de maneira mais quantitativa uti-
lizando uma desigualdade obtida por Schuster. Cada toro possui um con-
junto de freqüências ωi como discutido acima. Definimos então a razão entre
8.4. Teorema KAM 149

duas dessas freqüências:


ωi
ν≡ . (8.47)
ωj
Assim notamos que os primeiros toros a serem destruı́dos são os aqueles que
possuem razões ν racionais. Isso se deve ao fato que o denominador no lado
direito da equação (8.11) se anula. Em seguida. a medida que se aumenta a
perturbação, os toros que sobrevivem são aqueles que satisfazem a seguinte
desigualdade:
n f (λ)


ν − > 5/2 , (8.48)

m m
para um par de números inteiros m e n, e onde a fração n/m foi simplificada
eliminando os divisores comuns. Na equação (8.48) f é uma função crescente
do parâmetro de perturbação λ [MacKay,1987, Hilborn,2000].
As trajetórias associadas a toros destruı́dos não estão mais constritas a
uma variedade de dimensão N (a dimensão do toro), mas sim à hipersu-
perfı́cie de energia constante, que tem dimensão 2N − 1. Para um sistema
a 1 ou 2 graus de liberdade, os toros definem uma foliação do espaço de
fase2 . Assim a trajetória não pode se deslocar livremente sobre a superfı́cie
de energia constante pois está limitada pelos toros não destruı́dos. Já para
sistemas com n ≥ 3 os toros não definem mais uma foliação e tal limitação
não mais existe.

8.4.1 Mapa de Poincaré e um exemplo de aplicação do


teorema KAM
Uma maneira de visualizar a dinâmica de um sistema é através do mapa de
Poincaré. Para tal tomemos um sistema hamiltoniano e autônomo a dois
graus de liberdade, utilizando a energia para reduzir a dimensão do espaço
2
Um conjunto de hipersuperfı́cies define uma foliação em um espaço se por todo ponto
passa uma hipersuperfı́cie e se cada uma delas separa o espaço em duas regiões disjuntas.
150 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

10.0

0.0

-10.0 4.0
- 0.0 4.0

Figura 8.2: Mapa de Poincaré para o sistema na eq. (8.49) e λ = 0. As


condições iniciais correspondem todas à mesma energia E = 0.02504.

disponı́vel para o sistema de quatro para três. O mapa de Poincaré consiste


então em fazer uma seção transversal da superfı́cie de energia constante com
o plano. A cada vez que a trajetória do sistema cruza esse plano marcamos
um ponto nela. Por exemplo, para coordenadas q1 , q1 , p1 , p2 no espaço de
fase, podemos utilizar o plano q1 , p1 (ou outra combinação semelhante) para
a seção de Poincaré.
Como aplicação das idéias do teorema KAM consideremos o seguinte
sistema:
p21 p2 k1 k2
H= + 2 + q12 + q22 + λq12 q22 . (8.49)
2m1 2m2 2 2
Escolhemos, por conveniência do exemplo, os seguintes valores para as cons-
tantes na hamiltoniana: m1 = 1, m2 = 3 e k1 = k2 = 1. Para λ = 0
temos um sistema de dois osciladores harmônicos, sendo assim integrável. O
mapa de Poincaré utilizando como seção transversal o plano q2 , p2 é assim
dada pelas elipses m2 p22 /2 + k2 q22 /2 = constante, que são mostradas na figura
8.2 para algumas condições iniciais. Para λ não nulo o sistema não é mais
necessariamente integrável. A figura 8.3 mostra esse mapa para λ = 0.05 e
λ = 0.07, para as mesmas condições iniciais que o caso anterior. Vemos que
8.4. Teorema KAM 151

10.0 10.0

0.0 0.0

-10.0-4.0 0.0 4.0


-10.0-4.0 0.0 4.0

Figura 8.3: Mapa de Poincaré para o sistema na eq. (8.49), com λ = 0.05 e
λ = 0.07. As condições iniciais são as mesmas que na figura 8.2.

os toros invariantes para as condições inciais escolhidas ainda não foram des-
truı́dos pela perturbação. Para esse valor de λ poucos toros foram destruı́dos
e é difı́cel achar numericamente uma condição inicial que coincida com um
deles. Aumentando um pouco mais o parâmetro perturbativo para λ = 0.075
obtemos a figura 8.4 Vemos que todos os toros que tinhamos na figura 8.2
10.0 10.0

0.0 0.0

-10.0-4.0 0.0 4.0


-10.0-4.0 0.0 4.0

Figura 8.4: Mapa de Poincaré para o sistema na eq. (8.49), λ = 0.075 e


λ = 0.08.

continuam existindo aqui a menos de um deles. Este último deu lugar a


um conjunto de toros menores. Esse fenômeno será melhor discutido mais
adiante ao enunciarmos o teorema de de Poincaré-Birkhoff. Para λ = 0.08
152 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

obtemos uma solução errática associada ao toro destruı́do pela perturbação e


delimitada por toros ainda não destruı́dos, conforme mostrado na figura 8.4.
As figuras 8.5 a 8.6 mostram alguns mapas de Poincaré para valores cada

10.0 10.0

0.0 0.0

-10.0-4.0 0.0 4.0


-10.0-4.0 0.0 4.0

Figura 8.5: Mapa de Poincaré para o sistema na eq. (8.49), λ = 0.09 e


λ = 0.095. Para facilitar a visualização, no último mantivemos apenas os
quatro toros interiores. Neste caso um toro que existia para λ = 0.09 foi
destruı́do e em seu lugar percebemos uma solução errática delimitada por
uma sequência de toros menores.

vez maiores de λ. Finalmente, para λ suficientemente grande, nenhum toro


pode mais satisfazer a relação (8.48) e todos os toros são destruı́dos.

8.5 Teorema de Poincaré-Birkhoff


Falta ainda responder o que acontece com um toro assim que ele é destruı́do
por uma perturbação. A figura 8.4 nos dá um idéia da resposta, que é
expressa pelo teorema de Poincaré-Birkhoff. Para podermos enunciá-lo, pre-
cisamos antes discutir alguns aspectos matemáticos ligados a mapas discretos
(como ó caso do mapa de Poincaré). Um mapa geral pode ser escrito como

x = F (x), (8.50)
8.5. Teorema de Poincaré-Birkhoff 153

10.0 2.0

0.0 0.0

-10.0-4.0 - 2.0 1.0


0.0 4.0 - 0.0 1.0

Figura 8.6: Mapa de Poincaré para o sistema na eq. (8.49), λ = 0.18 e λ = 10.
No primeiro retivemos apenas os toros que correspondem aos três toros mais
internos da figura 8.2, enquanto que o segundo gráfico corresponde a uma
única condição inicial.

onde x ≡ (x1 , . . . , xN ) representa os pontos em um espaço N dimensional.


No caso do mapa de Poincaré da seção anterior x = (q2 , p2 ). Um ponto x é
dito ser um ponto fixo do mapa caso x = F (x). A estabilidade de um ponto
fixo pode ser estabelecida estudando como os pontos em uma vizinhaça de x
evoluem segundo (8.50). Para tal escrevemos

xn = x + ∆xn . (8.51)

Substituindo (8.51) na eq. (8.50), expandindo o lado direito em uma série de


Taylor e conservando apenas os termos lineares, obtemos:

∆xn+1 = ∂F∆xn , (8.52)

onde ∂F é a matriz definida por


∂Fi
∂Fij ≡ . (8.53)
∂xj

A equação (8.52) é de fácil solução. Basta achar uma transformação linear


y = U · x no espaço vetorial n-dimensional dos estados do sistema que
154 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

diagonalize ∂Fij = λi δij , onde os λi ’s são os autovalores de ∂F, de forma que

∆yi,n+1 = λi ∆yi,n . (8.54)

Assim se |λi | < 1 o ponto fixo é estável (xn se aproxima de x com n au-
mentando), e instável caso |λi | > 1 (xn se afasta do ponto fixo). De especial
interesse para nós são os pontos fixos tais que |λi | < 1 para certos valores
de i e |λi | > 1 para os demais valores. Estes pontos são ditos hiperbólicos
pois as soluções em sua vizinhança seguem linhas em forma de hipérboles.
Caso todos os autovalores sejam nulos temo um ponto fixo elı́ptico pois as
soluções da eq. (8.52) formam elipses em torno do ponto fixo. No exemplo
da eq. (8.49), a origem da seção de Poincaré é um ponto fixo elı́ptico para
|λ| = 1.
Consideremos novamente o caso com dois graus de liberdade. Fazemos
a seção de Poincaré utilizando o plano q2 , p2 e identificamos o ponto em
que a solução corta esse plano por x. Denotamos o correspondente mapa de
Poincaré por xi+1 = Mxi . Para um toro ressonante temos que ω1 /ω2 = n/m,
para n e m inteiros, e onde supomos que a fração já foi simplificada. Dessa
maneira vemos que após m voltas relativas à freqüência ω1 voltamos ao ponto
original. Em outras palavras, todos os pontos da seção de Poincaré desse toro
são pontos fixos do mapa de Poincaré iterado m vezes: xi+1 = Mm xi .
O teorema de Poincaré-Birkhoff enuncia que assim que a perturbação se
torna não nula, os toros ressonantes são destruı́dos e, em vez de termos uma
infinidade de pontos fixos do mapa Mm , temos m pontos elı́pticos interca-
lados por m pontos hiperbólicos. Em torno dos pontos elı́pticos formam-se
assim órbitas elı́pticas (do mapa Mm ) associadas a novos toros invariantes
criados, que delimitam as soluções erráticas na vizinhança, advindas dos toros
irracionais destruı́dos e que satisfazem a desigualdade (8.48). Nas figuras 8.4
a 8.6 vemos espaços vazios que não são acessados pelas soluções erráticas
8.6. Caos hamiltoniano 155

e que são ocupados por essas trajetórias elı́pticas. Tomando a figura 8.4,
notamos que na região irregular existia um toro ressonante com m = 10.
Os pontos fixos hiperbólicos têm um papel importante no aparecimento de
soluções caóticas, como discutido na próxima seção. Mais ainda, iterando
o mesmo raciocı́nio, essas novas órbitas elı́pticas dão origem a uma outra
cadeia de ponto elı́pticos e hiperbólicos, e assim indefinidamente. Fica fácil
perceber a estrutura complexa criada no espaço de fase.

8.6 Caos hamiltoniano

As soluções erráticas que surgem quando toros invariantes são destruı́dos


são exemplos de comportamento dinâmico caótico. No apêndice C discuti-
mos alguns exemplos de caos e algumas de suas principais caracterı́sticas.
No caso dos sistemas hamiltonianos o caos surge quando o sistema se torna
não-integrável3 . O teorema de Poincaré-Birkhoff ajuda a entender como tal
tipo de comportamento é gerado. Tomemos os pontos fixos hiperbólicos que
aparecem quando um toro ressonante é destruı́do pela perturbação. Cada um
desses pontos tem uma direção estável e instável na sua vizinhança, corre-
spondendo às linhas retas definidas pelos autovetores da matriz ∂F definida
em (8.52), com F(x) = Mx, de autovalores |λ| < 1 e |λ| > 1, respectiva-
mente. Tais direções são denominadas de variedades estável e instável do
ponto fixo. Essas variedades são na verdade linhas curvas tangentes, no
ponto fixo, aos autovetores de ∂F. Cada um dos pontos fixos hiperbólicos
tem então uma variedade estável e uma instável (estamos em uma superfı́cie
bidimensional) e temos assim as seguintes possibilidades:

3
É importante salientar aqui que nem todo sistema não-integrável é caótico.
Uma melhor discussão da noção de integrabilidade é encontrada nas referências
[Flaschka,1991] e [Goriely,2001]
156 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

1. A variedade estável e instável de um ponto fixo se identificam, consti-


tuindo assim o que se chama de órbita homoclı́nica.

2. A variedade estável de um ponto fixo se identifica com a variedade


instável de outro ponto fixo, formando uma órbita heteroclı́nica.

3. Se nenhuma das possibilidades acima acontece, e como estas variedades


estão delimitadas por toros invariantes não destruı́dos pela perturbação,
como garantido pelo teorema KAM, e por estarmos em um espaço de
dimensão dois, elas devem se interceptar transversalmente (uma in-
terseção tangente recai nos casos 1 ou 2). Chamamos este caso de
interseção heteroclı́nica. No caso da interseção transversal de duas
variedades do mesmo ponto fixo teremos uma interseção homoclı́nica.
No presente caso, é razoável esperar que variando o parâmetro λ uma
ineterseção heteroclı́nica ocorra.

A figura 8.7 esquematiza essas três possibilidades. É sempre bom observar

a b c

Figura 8.7: Exemplos de órbita homoclı́nica (a), heteroclı́nica (b) e de in-


terseção transversal (c).

que essas órbitas não correspondem a soluções do sistema hamiltoniano origi-


nal, mas a linhas obtidas fazendo o mapa de Poincaré de um número infinito
de pontos iniciais sobre as variedades estável e instável.
8.6. Caos hamiltoniano 157

Se uma interseção heteroclı́nica ocorrer, então teremos um número infinito


delas. De fato, para uma interseção no ponto x0 , aplicamos o mapa de
Poincaré e obtemos o ponto x1 = M · x0 . Por construção x1 está tanto na
variedade estável como na instável. Repetindo o mesmo raciocı́nio para x1 ,
e assim sucessivamente , e notando que são necessárias infinitas iterações do
mapa para chegar ao ponto fixo, provamos a afirmação. O mesmo é válido
para uma interseção homoclı́nica. A figura 8.8 exemplifica essa situação. Esse

Figura 8.8: Emaranhado heteroclı́nico originado de uma interseção hete-


roclı́nica.

emaranhado heteroclı́nico induz um comportamento errático nas trajetórias


vizinhas, dando origem ao comportamento caótico observado nas figuras 8.4
a 8.6. A região caótica assim criada na vizinhança desse emaranhamento é
denominada de mar caótico.

8.6.1 O mapa padrão de Chirikov


A discussão feitas nas seções 8.5 e 8.6 dão uma boas descrição do que ocorre
com o sistema de dois osciladores harmônicos acoplados da seção 8.4.1. No
entanto, as estruturas previstas pelo teorema de Poincaré-Birkhoff são de
difı́cil observação, devido à precisão numérica finita para a construção das
figuras. No exemplo a seguir podemos reduzir as equações (diferenciais) de
movimento a um mapa discreto, o que facilita a observação de estruturas
complexas no espaço de fase do sistema. Consideremos assim o sistema for-
158 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

mado por uma barra rı́gida, que pode oscilar livremente em um plano presa
por um de seus extremos. A barra tem comprimento L e momento de inércia
I. Usando como coordenadas canônicas o ângulo θ entre a barra e um eixo de
referência, e o correspondente momento angular p, a hamiltoniana do sistema
é dada por
p2
.H= (8.55)
2I
O sistema é claramente integrável e os toros invariantes correspondem a
linhas retas com p constante.
Perturbamos então esse sistema por uma força periódica na direção do
eixo de referência, aplicada no extremo livre da barra, com perı́odo T . Toma-
mos uma força instantânea com impulso J, de modo que o torque aplicado
à barra se escreve4 JLδ(t − nT ) sen θ. A hamiltoniana é assim
p2
H= + Kδ(t − nT ) cos θ, (8.56)
2I
onde K = JL. As equações de movimento são então:
p
θ̇ = , (8.57)
I
ṗ = Kδ(t − nT ) sen θ. (8.58)

Vamos agora considerar os valores θn e pn de θ e p no instante posterior


a cada impulso no tempo t = nT . Eles podem ser facilmente calculados a
partir de seus valores no tempo t = (n − 1)T imediatamente após o impulso
anterior. Para tal, integramos as equações de movimento (8.57) e (8.58) entre
t = (n − 1)T +  e t = nT + , com  arbitrariamente pequeno, o que nos dá

θn+1 = θn + pn mod 2π, (8.59)

pn+1 = pn + K sen θn+1 , (8.60)


4
R
Para um força F (t), seu impulso é definido por F (t)dt.
8.6. Caos hamiltoniano 159

K=0.1 K=0.2

6.0 6.0

4.0 4.0

p p

2.0 2.0

0.0 0.0
0.0 2.0 4.0 6.0 0.0 2.0 4.0 6.0
θ θ

Figura 8.9: Interações do mapa de Chirikov para 50 condições iniciais igual-


mente espaçadas em p e θ = π. Para K = 0, 1 apenas as duas cadeias de
ilhas de perı́odo 1 são visı́veis. Para K = 0, 2 já podemos ver também as
ilhas de perı́odos 2 e 3.

onde fizemos uma mudança na escala de tempo para termos T /I = 1 e


consideramos θ em (8.59) no intervalo de 0 a 2π por se tratar de um ângulo.
As equações (8.59) e (8.60) definem o mapa de Chirikov, que é muito utilizado
para modelar o tipo de comportamento observado na seção de Poincaré de
sistema hamiltonianos, e por isso é também chamado de mapa padrão5 . Uma
propriedade importante que possui é a conservação do valor das áreas, pois
a transformação θn , pn → θn+1 , pn+1 tem jacobiano unitário.
Consideremos inicialmente o caso integrável K = 0. Para valores inici-
ais p0 de p tais que p0 = 2πm1 /m2 , com m1 e m2 inteiros, a órbita retorna
ao ponto inicial após m2 iterações do mapa, correspondendo a uma órbita
periódica de perı́odo m2 , ou seja, a um toro ressoante. Para p0 /2π irra-
cional a órbita preenche densamente a reta p = constante. De acordo com
o teorema de Poincaré-Birkhoff, os primeiros toros a serem destruı́dos serão
justamente os toros ressonantes. Estes serão subsituidos por uma seqüência

5
Do inglês “standard map”.
160 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

K=0.4 K=0.6

6.0 6.0

4.0 4.0

p p

2.0 2.0

0.0 0.0
0.0 2.0 4.0 6.0 0.0 2.0 4.0 6.0
θ θ

Figura 8.10: Interações do mapa de Chirikov para 100 condições iniciais


igualmente espaçadas em p e θ = π. Para K = 0, 4 mais algumas cadeias de
ilhas são visı́veis. Já para K=0,6 percebemos a existência de um mar caótico
entre toros ainda não destruı́dos.

intercalada de m2 pontos hiperbólicos e m2 pontos elı́pticos. Na figura 8.9


mostramos a iteração do mapa Chirikov para diferentes condições iniciais
para K = 0, 1 e K = 0, 2. É fácil perceber que o mapa tem perı́odo 2π em
p, de modo que o representamos p sempre modulo 2π. Na figura 8.10 vemos
mais facilmente que os toros ressonantes de perı́odos 1, 2 e 3 foram destruı́dos
e substituı́dos por 1, 2 e 3 pontos fixos elı́pticos, respectivamente. Cada um
desses pontos fixos está cercado por novos toros criados pela perturbação.
Essas estruturas formadas em torno dos pontos elı́pticos são denominadas
de cadeias de ilhas. Intercalados entre essas cadeias temos os pontos fixos
hiperbólicos, em mesmo número que os pontos elı́pticos, e que geram um
comportamento caótico ainda não visı́vel na figura. Na figura 8.11 vemos
que para K = 0, 8 a região caótica se tornou maior. A ampliação de uma
região da figura mostra uma vizinhança de um ponto fixo hiperbólico, onde
pode-se perceber o comportamento caótico causado pela proximidade de um
emaranhado heteroclı́nico. A medida que aumentamos o valor de K mais
8.6. Caos hamiltoniano 161

K=0.8 K=0.8

6.0

2.70

4.0
2.60

p p
2.50

2.0

2.40

0.0 2.30
0.0 2.0 4.0 6.0 1.0 1.5 2.0 2.5
θ θ

Figura 8.11: Mapa de Chirikov para K = 0, 8. A ampliação mostra uma


solução caótica na vizinhança de uma emaranhado heteroclı́nico.

e mais toros são destruı́dos. No lugar deles cadeias de ilhas aparecem. Por
sua vez os novos toros nessas cadeias acabam por ser destruı́dos também, for-
mando outras cadeias de ilhas em seu lugar, e assim por diante. Na figura 8.12
vemos cadeias de ilhas que aparecem no lugar de um toro anteriormente cri-
ado. Quando uma ilha de toros é destruı́da, o ponto elı́ptico de perı́odo q,
a ela associado, passa a ser um ponto hiperbólico enquanto aparecem novos
pontos elı́pticos de perı́odos 2q, com as respectivas ilhas de toros. Por sua
vez esses pontos serão destruı́dos ao aumentarmos ainda mais a perturbação,
gerando novos pontos elı́pticos de perı́odos 4q, e assim sucessivamente, em
uma cadeia de bifurcações com dobramento de perı́odos. Temos assim o que
se costuma denominar de “caminho” ou “rota para o caos” (vide apêndice C
para mais detalhes). A figura 8.13 mostra a destruição sucessiva de todos os
toros, a medida que a perturbação vai aumentando. Para K = 8, 0 nenhum
toro resta e todas as trajetórias são caóticas. Para essa situação uma única
condição inicial gera pontos que preenchem densamente o plano (θ, p).

A demonstração do teorema de Poincaré-Birkhoff é mais simples quando


162 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

k=1,0 k=1,2

6.0 6.0

4.0 4.0

2.0 2.0

0.0 0.0
0.0 2.0 4.0 6.0 0.0 2.0 4.0 6.0

k=2,0 k=2,0

6.0
4.9

4.7

4.5
4.0

4.3

4.1

2.0
3.9

3.7

0.0 3.5
0.0 2.0 4.0 6.0 3.5 4.0 4.5 5.0

Figura 8.12: Mapa de Chirikov para K = 1, 0, K = 1, 2 e K = 2, 0. A


ampliação mostra ilhas recem criadas.

consideramos mapas que, como o de Chirikov, conservam a área. Considere-


mos assim um mapa cujas interseções dos toros invariantes com a superfı́cie
de seção sejam cı́rculos concêntricos. Essa situação pode sempre ser obtida
por uma mudança apropriada de coordenadas na superfı́cie (que preserve as
áreas) e que leve as interseções dos toros em cı́rculos. O mapa M assim
resultante pode ser escrito como

rn+1 = rn ,
ϕn+1 = ϕn + R(rn ) mod 2π, (8.61)
8.6. Caos hamiltoniano 163

k=3,0 k=4,0

6.0 6.0

4.0 4.0

2.0 2.0

0.0 0.0
0.0 2.0 4.0 6.0 0.0 2.0 4.0 6.0

k=5,0 k=8,0

6.0 6.0

4.0 4.0

2.0 2.0

0.0 0.0
0.0 2.0 4.0 6.0 0.0 2.0 4.0 6.0

Figura 8.13: Mapa de Chirikov para K = 3, 0, K = 4, 0, K = 5, 0 e K = 8, 0.


A última figura mostra um caso em que todas as soluções do sistema são
caóticas.

onde r é o raio do cı́rculo, ϕ um ângulo que dá a posição sobre o cı́rculo e R(r)
é uma função dependente do sistema considerado. Para um toro ressonante
temos que ϕn+q = ϕn onde q é o perı́odo do mapa desse toro. Assim todo
ponto do cı́rculo é um ponto fixo do mapa Mq obtido por q iterações do
mapa (8.61). Ao perturbarmos esse sistema obtemos um mapa ligeiramente
alterado (  1):

rn+1 = rn + F1 (rn , ϕn ),


164 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano

ϕn+1 = ϕn + R(rn ) + F2 (rn , ϕn ) mod 2π, (8.62)

para certas funções F1 e F2 . Agora tomemos um cı́rculo de raio r que é


a interseção de um toro invariante com o plano (ϕ, r) e suponhamos que a
função R(r) seja crescente em uma vizinhança desse toro ressonante. O caso
em que R(r) é decrescente é tratado de maneira análoga. Já o caso dege-
nerado, i. e. quando R(r) é um extremo justamente sobre o cı́rculo do toro
invariante, pode ser considerado não-genérico pois é usualmente associado a
um valor especı́fico de  e assim uma pequena alteração nesse valor nos leva a
um dos casos anteriores. Assim pelo fato da perturbação ser pequena, vemos
de (8.62) que existe um cı́rculo de raio r1 < r tal que todos os ângulos são
levados em valores menores pelo mapa M q (escolhendo ϕ de forma que gi-
ramos no sentido horário quando ϕ aumenta), ou seja que giramos no sentido
anti-horário pelo mapa. Concluı́mos igualmente que existe um cı́rculo de raio
r2 > r que é girado no sentido horário pelo mapa Mq não-perturbado. Para
 6= 0 tais cı́rculos continuarão sendo girados nos mesmos sentidos pelo mapa
perturbado Mq (). Assim entre esses dois cı́rculos de raios r1 e r2 existe uma

∼r(ϕ)

−r(ϕ)

Figura 8.14: Curva r̃ e a curva que é a sua imagem pelo mapa Mq ().

curva fechada, definida por r(ϕ) sobre a qual o valor de ϕ não é alterado
sob Mq (), que altera apenas radialmente os pontos sobre ela. A figura 8.14
8.6. Caos hamiltoniano 165

mostra tal curva e a obtida pela atuação de Mq () sobre ela. Como a área no
interior de cada curva é a mesma, elas devem necessariamente se interceptar
em um número par de pontos que são pontos fixos do mapa Mq (). Assim
cada um desses pontos faz parte de uma órbita de perı́odo q do mapa M()
e teremos então um múltiplo de q desses pontos. Para determinar a estabil-
idade desses pontos fixos consideramos pontos em sua vizinhana̧ lembrando
que quando r > r(ϕ) eles são girados no sentido horário e se r < r(ϕ) no
sentido anti-horário, como indicado na figura. Concluı́mos que metade deles
são elı́pticos e a outra metade hiperbólicos.
166 Capı́tulo 8. Teoria de perturbações e caos hamiltoniano
Apêndice A

Espaços métricos e campos


tensoriais

Tomemos um espaço A no qual podemos definir uma aplicação biunı́voca φ


de A em uma região de Rn , para um certo n. O espaço A é dito então ser
de dimensão n e φ define um sistema de coordenadas em A, que denotamos
pela n-upla (x1 , . . . , xn ). Evidentemente, podemos sempre definir um outro
sistema de coordenadas (x01 , . . . , x0n ) tal que exista uma relação biunı́voca
entre as coordenadas nos dois sistemas, ou em outras palavras, que as funções
de transformação de um sistema para o outro sejam inversı́veis. Podemos
expressar isso da seguinte maneira. Seja a transformação de coordenadas:

x0i = x0i (x1 , . . . , xn ). (A.1)

A transformação é inversı́vel se o Jacobiano da transformação, dado por


∂x01 ∂x01
 
∂x1
··· ∂xn
J = Det 
 .. ∂x0i .. 
, (A.2)
 . ∂xj
. 
∂x0n ∂x0n
∂x2
··· ∂xn

for não nulo para todos os pontos de A.


Suporemos também que o espaço é dotado de uma métrica riemanniana,
ou seja, que a dois pontos infinitesimalmente próximos, cujas coordenadas

167
168 Apêndice A. Espaços métricos e campos tensoriais

diferem de dxi , podemos associar o número real ds2 :


n
ds2 = ηij dxi dxj ,
X
(A.3)
i,j=1

onde ηij = ηij (x1 , . . . , xn ) é função das coordenadas e é denominada de


métrica do espaço A. Este último, por sua vez, recebe a denominação de
espaço métrico. Devemos notar que para certas métricas, como é o caso da
métrica associada ao espaço de Minkowski, podemos ter que ds2 < 0, o que
implica que ds é um número complexo.
Uma mudança de sistema de coordenadas induz uma mudança nas com-
ponentes ηij . De fato, por uma mudança de coordenadas temos que
n n
ds2 = ηij dxi dxj = ηij0 dx0i dx0j
X X

i,j=1 ij=1
n i j
∂x 0k ∂x
dx0l ,
X
= ηij dx (A.4)
i,j,k,l=1 ∂x0k ∂x0l

que sendo válida para infinitesimais arbitrários dx0i , implica que


n
∂xk ∂xl
ηij0 =
X
ηkl , (A.5)
kl=1 ∂x0i ∂x0j

que nos dá a lei de transformação para a métrica.


Vamos agora definir a noção de vetor em termos de um dado sistema de
coordenadas. Tomemos um ponto p ∈ A. Nesse ponto temos os operadores
diferenciais ∂/∂xi , que atuam sobre uma função f (x1 , . . . , xn ). O conjunto
Pn
dos operadores diferenciais da forma i=1 ai ∂/∂xi é um espaço vetorial de
dimensão n, denotado por Vp (o espaço tangente ao ponto p). Assim {∂/∂xi }
é uma base de Vp e os coeficientes ai são denominados de componentes do
vetor.
Obviamente, a base de Vp introduzida acima depende do sistema de co-
ordenadas usado, o mesmo sendo verdade para as componentes do vetor.
169

Para obtermos como as componentes do mesmo vetor a são conectadas entre


sistemas de coordenadas diferentes, escrevemos:
n n n 0j
∂ 0i ∂ i ∂x ∂
ai
X X X
a= i
= a 0i
= a , (A.6)
i=1 ∂x i=1 ∂x i,j=1 ∂x ∂xj
i

e assim
n
∂x0i j
a0i =
X
j
a. (A.7)
j=1 ∂x

Notemos que tanto o vetor a como suas componente ai são funções das coor-
denadas do ponto p. Assim podemos encarar a(x1 , . . . , xn ) como uma função
que associa um vetor a cada ponto de A, recebendo nesse caso a denominação
de campo vetorial.
Definida a noção de campo vetorial, introduzimos a de forma linear como
uma aplicação linear de Vp em R, ou seja, se F é uma forma linear e a, b ∈ Vp
então temos para todo λ, σ ∈ R que

F (λa + σb) = λF (a) + σF (b), (A.8)

e em particular
n n
! !
∂ X
i
X
i ∂
F (a) ≡ F a = aF . (A.9)
i=1 ∂xi i=1 ∂xi

Assim basta conhecer como a forma atua na base de Vp para saber como ela
atua em um vetor qualquer. O espaço de todas as formas lineares em Vp
é denotado por Ṽp , que denominamos de espaço dual de Vp , e é um espaço
vetorial de mesma dimensão n. Para mostrar isso, notemos que F (a) pode
ser escrito como uma função das componentes de a, função essa homogênea
de primeira ordem nas componentes, o que nos permite escrever que:
n
F (a) = f (a1 , . . . , an ) = f i ai ,
X
(A.10)
i=1
170 Apêndice A. Espaços métricos e campos tensoriais

para certos coeficientes fi que caracterizam a forma F . Podemos assim definir


a soma de duas formas F1 e F2 por

F1 + F2 ↔ f1,i + f2,i , (A.11)

assim como a multiplicação por um escalar λ:

λF ↔ fi , (A.12)

o que garante que Ṽp é um espaço vetorial. Falta provar que sua dimensão é
n. Para tal, definimos as formas dxi ∈ Ṽp , i = 1, . . . , n, tais que
!

dxi = δji , (A.13)
∂xj

onde δji é o delta de Kronecker. Uma forma F , com coeficientes fi definidos


em (A.10), pode ser escrita em termos de dxi . De fato, temos que:
n
fi dxi ,
X
F = (A.14)
i=1

pois
n n n
!
i j i ∂
f i ai ,
X X X
F (a) = fi dx (a) = fi a dx = (A.15)
i=1 i,j,=1 ∂xi i=1

que reproduz a relação (A.10). Para provar que os dxi são linearmente inde-
pendentes, basta mostrar que a relação
n
λi dxi = 0,
X
(A.16)
i=1

para λi ∈ R, i = 1, . . . , n, implica que λi = 0. Aplicando o lado esquerdo de


(A.16) em um elemento da base de Vp obtemos, para j = 1, . . . , n:
n n
!

λi dxi λi δji = λj = 0,
X X
= (A.17)
i=1 ∂xj i=1

o que demonstra o desejado.


171

O produto escalar entre dois vetores a e b é uma aplicação bilinear de


Vp × Vp em R, que definimos utilizando a métrica ηij :
n
ηij ai bj .
X
a·b≡ (A.18)
i,j=1

Se a cada vetor a, de componentes ai , associarmos a forma ã de componentes


n
ηij aj ,
X
ai = (A.19)
j=1

podemos escrever o produto escalar como


n n
i
ai b i .
X X
a·b= ai b = (A.20)
i=1 i=1

A lei de transformação das componentes de ã pode ser obtida da propriedade


correspondente de a. De fato, usando (A.5) e (A.7), temos que
n n
∂xk ∂xl ∂x0j p
a0i = ηij0 a0j =
X X
ηkl a
j=1 pjkl=1 ∂x0i ∂x0j ∂xp
n k n
X ∂x l X ∂xk
= ηkl a = a .
0i k
(A.21)
kl=1 ∂x0i k=1 ∂x

Usando as propriedades de transformação das componentes ai e bi , vemos


que o produto escalar independe do sistema de coordenadas utilizado. De
fato
n n n
∂xk ∂x0j X
ai b i = a0i b0j a0i b0i .
X X
a·b= = (A.22)
i=1 i,j,k=1 ∂x0i ∂xk i=1

Como há uma relação biunı́voca entre elementos de Vp e Ṽp , e estes po-
dem ser usados para representar o mesmo ente, é comum se utilizar o termo
componentes covariantes de a para os coeficientes ai , e o termo componentes
contravariantes de a para os ai .
A generalização natural desses conceitos é obtida através dos tensores,
definidos como funções lineares de vetores e de formas lineares. Um tensor
172 Apêndice A. Espaços métricos e campos tensoriais

T (a1 , . . . , am |b̃1 , . . . , b̃l ) é dito um tensor m − l. Ele pode também ser escrito
em termos de componentes:
∂ ∂
T = Tji11,...,j
,...,il
dxj1 ⊗ · · · ⊗ dxjm ⊗ i
⊗ · · · ⊗ , (A.23)
m
∂x 1 ∂xil
onde introduzimos o produto tensorial entre elementos das bases de Vp e Ṽp ,
definido por sua aplicação sobre m vetores e l formas lineares:
∂ ∂
dxj1 ⊗ · · · ⊗ dxjm ⊗ i
⊗ · · · ⊗ i (a1 , . . . , am |b̃1 , . . . , b̃l )
∂x 1 ∂x!l !
j1 d ∂ ∂
≡ dx (a1 ) · · · xjm (am )b̃1 · · · b̃l . (A.24)
∂xi1 ∂xil

As componentes de T se transformam segundo a relação

i ,...,i ∂x0i1 ∂x0il ∂xq1 ∂xqm


T 0 j11 ,...,jlm = Tqp11,...,q
,...,pl
X
· · · · · · , (A.25)
q1 ,...,qm ,p1 ,...,pl
m
∂xp1 ∂xpl ∂x0j1 ∂x0jm

que pode ser obtida a partir das leis de transformação de ai e b̃i e do fato que
T (a1 , . . . , am |b̃1 , . . . , b̃l ) é um escalar (número real independente do sistema
de coordenadas). O tensor métrico de componentes ηij é um tensor 0 − 2, e
seu tensor dual de componentes η ij um tensor 2 − 0. Já o delta de Kronecker
δji é um tensor 1 − 1.
Podemos definir uma 2-forma a partir de duas formas F1 e F 2 utilizando
o produto exterior, definido pela seguinte relação [Schutz,1980]:

F1 ∧ F2 = F1 ⊗ F2 − F2 ⊗ F1 . (A.26)

A generalização para a definição de uma p-forma é imediata. A derivada


exterior d˜ de uma p-forma é definida univocamente como sendo uma p + 1-
forma satistafazendo as seguintes relaçãoes, onde F1 é uma p-forma e F2 e
F3 são q-formas:

1. d˜(F2 + F3 ) = dF
˜ 2 + dF
˜ 3,
173
 
˜ 1 ∧ F2 = dF
2. dF ˜ 1 ∧ F2 + (−1)p F1 ∧ dF
˜ 2,
 
3. d˜ dF
˜ 1 =0.

O teorema de Stokes em um espaço de dimensão qualquer pode então ser


expresso por: Z Z
˜ =
dF F, (A.27)
U M

onde F é uma p-forma, U uma região conexa do espaço n-dimensional e M


a fronteira orientada dessa região.
174 Apêndice A. Espaços métricos e campos tensoriais
Apêndice B

Grupos e álgebras de Lie

B.1 Grupo

Vamos começar dando a definição de grupo. Um conjunto G é dito ser


um grupo quando é possı́vel definir uma lei de composição que satisfaz os
seguintes axiomas:

i) se a, b, c ∈ G então a · (b · c) = (a · b) · c;

ii) existe um elemento de G, que denotamos por e e denominado elemento


neutro ou unidade de G, para o qual e · a = a · e = a, para todo a ∈ G;

iii) para todo a ∈ G existe um elemento denotado por a−1 e denominado de


inversa de a, para o qual a · a−1 = a−1 · a = e.

Se, além dos três axiomas acima, a lei de composição · for comutativa, ou
seja, se a · b = b · a para todo a, b ∈ G, dizemos que G é um grupo comutativo
ou abeliano.

175
176 Apêndice B. Grupos e álgebras de Lie

B.2 Espaço topológico


Seja um conjunto S e uma coleção D = {A1 , A2 , A3 , . . .} de conjuntos de S
(A1 , A2 , . . . ⊂ S). Dizemos que D define uma topologia em S se as seguintes
condições forem satisfeitas, para todo A1 , A2 ∈ D:

i) A1 ∪ A2 ∈ D;

ii) A1 ∩ A2 ∈ D;

iii) S ⊂ D.

O espaço S, munido da topologia D, é dito ser um espaço topológico, e


os elementos de D são chamados de abertos de S. Uma vizinhança de um
ponto p ∈ S é um conjunto V ⊂ S que contenha um aberto de S.
Podemos então falar de aplicações contı́nuas entre dois espaços topológi-
cos S e S 0 . Seja f : S → S 0 uma aplicação. A aplicação é dita contı́nua no
ponto p ∈ S se para qualquer vizinhança V 0 de f (p) existir uma vizinhança
V de p tal que f (V ) ⊂ V 0 . Um grupo que possui a estrutura de espaço
topológico é dito ser um grupo topológico.

B.3 Variedade diferenciável


Um espaço topológico é dito ser uma variedade se para todo ponto p ∈ S
existe uma vizinhança Vp que seja levada em um conjunto aberto de Rn , para
algum n, por uma aplicação bijetiva φVp : Vp → Rn contı́nua, no sentido dado
acima. O menor valor possı́vel de n é denominado de dimensão da variedade
S. Dessa maneira, é possı́vel definir sistemas de coordenadas nas vizinhanças
de todos os pontos de S, as coordenadas de p sendo dadas por

φVp (p) ≡ (x1 (p), . . . , xn (p)). (B.1)


B.4. Grupo de Lie 177

A associação φVp é denominada de carta1 na vizinhança Vp . Dessa maneira,


podemos usar os abertos da topologia definida em S para construir um con-
junto de cartas de maneira a recobrir S, cartas estas que podem ter in-
terseções não nulas. Esse conjunto de cartas é denominado de atlas em S.

Vamos supor que um ponto p ∈ S pertence a duas vizinhanças Vr e Vs .


Sabemos que U = Vr ∩ Vs é também uma vizinhança de p. Temos assim
definidos dois sistemas de coordenadas em U , dados pelas cartas φVr e φVs ,
que denotamos por {xi } e {y i }, respectivamente, com i = 1, . . . , n. Podemos
passar livremente de um sistema para o outro da seguinte maneira:

(x1 , . . . , xn ) = φVs ◦ φ−1 1 n


Vr (y , . . . , y ), (B.2)

ou
(y 1 , . . . , y n ) = φVr ◦ φ−1 1 n
Vs (x , . . . , x ). (B.3)

Dessa forma, definimos uma mudança de sistema de coordenadas em U . Dize-


mos então que S é uma variedade C k se as funções que fazem as mudanças
de coordenadas nas interseções de duas cartas forem C k (contı́nuas e k vezes
diferenciáveis). Uma variedade C 1 é também denominada de variedade difer-
enciável.

B.4 Grupo de Lie


Seja S um grupo com estrutura de variedade diferenciável. Podemos então
associar a cada ponto p ∈ S um conjunto de coordenadas αip = φi (p). A lei
de composição do grupo pode então ser expressa em termos das coordenadas
dos elementos do grupo, ou seja, se p, q, r ∈ S e r = p · q, onde · é a lei de
1
Do francês carte, que significa mapa.
178 Apêndice B. Grupos e álgebras de Lie

composição, então temos que

αir = fi (αp , αq ). (B.4)

Se as funções fi forem analı́ticas, i. e. funções C ∞ , então S é dito ser um


grupo de Lie2 .

B.5 Álgebra de Lie


As simetrias contı́nuas de um sistema de equações diferenciais formam um
grupo de Lie. Sabemos também que dada uma transformação infinitesimal
podemos obter a correspondente transformação finita por integração. Vamos
agora estudar o seguinte problema mais geral: dado um conjunto qualquer de
transformações infinitesimais, quais as condições para que possamos construir
um grupo finito a partir delas? Para tal vamos primeiro abordar o problema
inverso: tomemos o grupo de simetria S a m parâmetros α1 , . . . , αm (m é a
dimensão de S) agindo no espaço F das funções de classe C 1 em Rn . Deno-
tamos então um elemento de S pelo operador g(α1 , . . . , αm ) que corresponde
à transformação de coordenadas, e assumimos, sem perda de generalidade,
que a parametrização é tal que g(0, . . . , 0) corresponde ao elemento unidade
de S, ou seja, à transformação identidade. A ação de um elemento de S em
F é dada por (f ∈ F ):

f 0 (x) = f (x0 ) = g(α1 , . . . , αm )f (x), (B.5)

onde x ≡ (x1 , . . . , xn ) e x0 = g(α1 , . . . , αn )x. Tomemos agora todos os αi = 0


exceto para i = k, para o qual αk  1. Temos então que

x0i − xi = αk η i (x), (B.6)


2
A rigor, a condição que S seja uma variedade C ∞ não é necessária. Muitas vezes
basta requerer que seja C k para um certo k finito. A condição C ∞ é apenas uma maneira
de garantirmos que as funções que definem as mudanças de variáveis sejam diferenciáveis
o quanto for necessário.
B.5. Álgebra de Lie 179

para certas funções η i . Expandindo o lado esquerdo de (B.5) obtemos


!
0
X
i ∂
f (x) = f (x + αk η) = 1 + αk η f (x)
i ∂xi
= g(0, . . . , αk , . . . , 0)f (x), (B.7)

com η = (η 1 , . . . , η n ). Da mesma maneira, podemos mostrar que para todos


os αi  1 temos que
 

αk ηki i  f (x).
X
g(α1 , . . . , αm )f (x) = 1 + (B.8)
i,k ∂x

Dizemos então que os operadores



ηki
X
Ik = ; k = 1, . . . , m, (B.9)
i ∂xi

são os geradores infinitesimais do grupo de Lie S. O termo gerador vem do


fato que os operadores Ik permitem construir o grupo S, como veremos mais
adiante. Eles representam no nosso caso transformações infinitesimais de
simetria, e são centrais na discussão que segue. Para mostrar a importância
dos geradores infinitesimais, tomamos um elemento de S com parâmetros
α1 , . . . , αm agindo em um elemento f ∈ F . O resultado é um elemento de
F , que denotamos por F [α], enquanto que o elemento original é denotado de
maneira óbvia por f [0]. Temos assim que

f [α] = g(α)f [0]. (B.10)

Multiplicamos à esquerda por g(β):

g(β)f [α] = g(β)g(α)f [0] = f [γ], (B.11)

onde os parâmetros γ1 , . . . , γm são dados por (B.4):

γi = hi (β, α). (B.12)


180 Apêndice B. Grupos e álgebras de Lie

Podemos também escrever que

βi = hi (γ, α̃). (B.13)

onde α̃i são os parâmetros da inversa do elemento de parâmetros αi , de modo


que obtemos de (B.11):

g(h(γ, α̃))f [α] = f [γ], (B.14)

onde temos dois conjuntos de parâmetros independentes, α e γ (e os das suas


respectivas inversas). Se supormos que α é próximo de γ, i. e. α̃i = γ̃i + ξ˜i ,
e usando (B.8) e (B.9), teremos que

∂hj (γ, β)
ξ˜i Ij ,
X
g(h(γ, α̃)) = 1 + (B.15)
i,j ∂βi β=γ̃

3
e de (B.14) decorre que

∂hj (γ, β) X ∂f [γ]
ξ˜i Ij f [α] = f [γ] − f [α] = − ξ˜i ,
X
 (B.16)
i,j ∂βi β=γ̃ i ∂γi

e como (B.16) é verdadeira para qualquer ξi , temos

X ∂f [γ]
Sij Ij f [γ] = , (B.17)
j ∂γi

com
∂hj (γ, β)
Sij = − , (B.18)
∂βi β=γ̃
que é um sistema de equações diferenciais de primeira ordem para f [α], com
a condição inicial
f [α]|α=0 = f [0]. (B.19)
3
Como g(β) correponde neste caso a uma transformação infinitesimal, de parâmetros
ξi , sua inversa é dada pelos parâmetros −ξi , ou seja, ξ˜i = −ξ.
B.5. Álgebra de Lie 181

A equação (B.17) em conjunto com (B.19) determina f [α] de forma única.


Assim se os geradores infinitesimais de dois grupos S e S 0 coincidem, então
S ≡ S 0 necessariamente4 .
A condição suficiente e necessária para que (B.17) tenha solução é

∂ 2f ∂ 2f
= . (B.20)
∂γi ∂γj ∂γj ∂γi

A relação (B.17) nos dá

∂ 2f
" #
X ∂Sik ∂f [γ]
= Ik f [γ] + Sik Ik
∂γi ∂γj k ∂γb ∂γj
" #
X ∂Sik X
= Ik f [γ] + Sik Sjl Ik Il f [γ] , (B.21)
k ∂γj l

e assim temos de (B.20) que


" #
X X ∂Sjk ∂Sik
Sik Sjl (Ik Il − Il Ik )f [γ] = − Ik f [γ], (B.22)
k,l k ∂γi ∂γj

e tomando γ = (0, . . . , 0) (o elemento identidade) temos

Sij = δij , (B.23)

e como (B.22) vale para toda função f , obtemos

Cijk Ik ,
X
Ii Ij − Ij Ii = (B.24)
k

que são as relações de comutação entre os geradores do grupo, e Cijk são


constantes de estrutura que caracterizam o grupo.
Como (B.20) são também condições suficientes, se conhecermos um con-
junto de operadores lineares {Ii } que satisfazem (B.24), poderemos integrar
4
Cabe aqui um pequeno comentário: na verdade apenas as partes de S e S 0 que podem
ser conectadas continuamente à identidade são iguais.
182 Apêndice B. Grupos e álgebras de Lie

(B.17) e assim construir o correspondente grupo de Lie. É evidente de (B.24)


que as constantes de estrutura possuem a seguinte propriedade:

Cijk = −Cjik . (B.25)

Pode-se mostrar também que dois grupos que possuem o mesmo conjunto de
constantes de estrutura são isomorfos.
Os geradores infinitesimais Ii geram um espaço vetorial de dimensão m.
Podemos então escolher uma outra base nesse espaço formada por m vetores
I˜i linearmente independentes, para os quais temos:

I˜i =
X
Mij Ij , (B.26)
j

e
Mij−1 I˜j .
X
Ii = (B.27)
j

A relação (B.24) se escreve então como

−1 ˜ ˜
Mil−1 Mjk (Il Ik − I˜k I˜l ) = Cijk Mkl−1 Il ,
X X
(B.28)
k,l kl

ou ainda
I˜l I˜k − I˜k I˜l = −1
Mli Mkj Cijk Mkp
X
Ip , (B.29)
i,j,k,p

e podemos então definir as constantes de estrutura transformada por

C̃lqp = −1
Mli Mqj Cijk Mkp
X
. (B.30)
i,j,k

O espaço vetorial gerado pelos geradores Ii de um grupo de Lie, munido da


operação de comutação
[A, B] ≡ AB − BA, (B.31)
B.6. Derivadas de Lie e congruências 183

possui a estrutura de álgebra5 , notando apenas que o comutador de dois


elementos do espaço vetorial é um outro elemento do espaço, como podemos
ver de (B.24). O comutador (B.31) satisfaz a identidade de Jacobi

[[A, B], C] + [[C, A], B] + [[B, C], A] = 0, (B.32)

e dizemos que temos uma estrutura de álgebra de Lie. Em conclusão, todo


grupo tem associado uma álgebra de Lie, que por sua vez pode ser usada
para reconstruir o grupo. Mais ainda, toda álgebra de Lie permite gerar um
grupo de Lie.

B.6 Derivadas de Lie e congruências


Tomemos uma variedade M e um aberto A ⊂ M , no qual definimos um
sistema de coordenadas xi e uma base vetorial ∂/∂xi . Seja então um campo
vetorial V de componentes v i (x) definido em toda a vizinhança A. Esse
campo gera um conjunto de curvas que preenche toda a vizinhança A, ou
seja, por todo ponto passa uma curva gerada pelo campo. Esse conjunto de
curvas é chamado de congruência e é gerado impondo que em todo ponto
o vetor tangente à curva é o valor do campo nesse ponto. Cada curva é
parametrizada por um parâmetro λ, de forma que o vetor tangente é dado
pelas componentes dxi /dλ e a congruência é definida por
dxi
= v i (x), (B.33)

que forma um sistema de equações diferenciais de primeira ordem com solução
única. Isso quer dizer que existe sempre um sistema de coordenadas no qual
o parâmetro λ é uma das coordenadas, e

V = . (B.34)
∂λ
5
Uma álgebra é essencialmente uma estrutura algébrica caracterizada pelos axiomas de
grupo em conjunto com os de espaço vetorial.
184 Apêndice B. Grupos e álgebras de Lie

Definimos então a derivada de Lie de um campo U com a relação a V pela


relação
X ∂Ui ∂ ∂
LV U ≡ = [ , U ]. (B.35)
i ∂λ ∂xi ∂λ
Temos assim para um sistema de coordenadas qualquer que

LV U = [V, U ]. (B.36)

Vimos então que para todo campo existe sempre um sistema de coorde-
nada no qual a congruência gerada pelo campo é uma das linhas de coor-
denadas. No caso de termos n campos Vi em um espaço n-dimensional, a
condição para que exista um sistema de coordenadas xi tal que

Ui = , (B.37)
∂xi
é que os n campos comutem entre si, i. e.

[Ui , Uj ] = 0, (B.38)

para i, j = 1, . . . , n. Esse resultado é conhecido como teorema de Frobe-


nius [Schutz,1980].
Apêndice C

Caos: exemplos e
caracterı́sticas principais

O primeiro ponto a ser observado é que não existe uma definição única do
termo caos na literatura, e por essa razão, procuraremos esclarecê-la através
de alguns exemplos clássicos. Tendo assim adquirido alguma intuição sobre
o significado do termo, discutiremos as principais caracterı́sticas do compor-
tamento caótico. Mais adiante, nas demais seções, veremos como quantificar
certas propriedades do sistema que indicam se este é ou não caótico.

C.1 Sistemas dinâmicos contı́nuos e discretos


O termos caos é utilizado para descrever um tipo de comportamento de
fenômenos naturais ao longo do tempo. Grosso modo, um sistema apresenta
caos na sua evolução quando esta é irregular e quando nossa capacidade de
prever o estado futuro do sistema é limitada a curtos intervalos de tempo
(estas afirmações se tornarão mais claras e precisas ao longo do que segue).
Para descrever tal evolução lançamos mão de modelos matemáticos, que por
descreverem a dinâmica do sistema são denominados de sistemas dinâmicos.
Quando a variável tempo é considerada contı́nua em nosso modelo, temos um

185
186 Apêndice C. Caos: exemplos e caracterı́sticas principais

sistema dinâmico contı́nuo. Um exemplo simples é a equação de movimento


de uma partı́cula de massa M sob a ação de uma força F :

d2 r
= F(r, v, t), (C.1)
dt2

onde r e v são os vetores posição e velocidade da partı́cula. Freqüentemente


sistemas dinâmicos contı́nuos são descritos por equações diferenciais como
em (C.1), ou sistemas de equações diferenciais (outras possibilidades existem,
como as equações integrais).
Quando a variável temporal é discreta (o estado do sistema é especificado
em valores discretos do tempo), temos um sistema dinâmico discreto. Um
exemplo é o mapa logı́stico, relacionado à população de uma dada espécie ani-
mal em cada ano, que denotaremos Pn . O ano aqui é denotado pelo número
inteiro n e é portanto uma variável discreta. Como todo meio ambiente não
pode suportar uma população indefinidamente grande, suporemos que existe
um limite fixo Pmax para ela. Definindo a proporção entre a população no
ano n e a população máxima por xn ≡ Pn /Pmax , o mapa logı́stico é uma
regra simples (um modelo) para descrever como essa proporção em uma ano
a determina no ano seguinte (mais adiante explicaremos como essa regra foi
obtida):
xn+1 = axn (1 − xn ), (C.2)

onde a é um parâmetro que depende dos detalhes envolvidos no modelo.


Como a população a cada ano não pode nunca ser maior que a população
limite, temos que 0 < xn < 1 para todo n. Isso só é verdade se 0 < a ≤ 4.
Nesse caso dizemos que a regra na eq. (C.2) é um mapa do intervalo [0, 1]
nele mesmo. O valor do parâmetro a é quem determina o tipo de evolução
descrita por esse mapa.
Estamos essencialmente interessado aqui em estudar os tipos de compor-
C.2. Um exemplo em meteorologia: o sistema de Lorenz 187

tamento apresentados por sistemas dinâmicos, tanto discretos como contı́-


nuos, conforme variamos os valores de parâmetros dos quais dependem.

C.2 Um exemplo em meteorologia: o sistema


de Lorenz
Em 1963 Edward Lorenz introduziu um modelo, extremamente simplificado,
para descrever a convecção na atmosfera terrestre. Seu modelo é descrito por
três variáveis, que satisfazem ao seguinte sistema de equações diferenciais:

ẋ = p(x − y)
ẏ = −xz + rx − y
ż = xy − bz, (C.3)

onde x, y e z são funções do tempo e p, r e b são parâmetros fixos (para o


significado das variáveis e parâmetros envolvidos, assim como uma dedução
dessas equações vide por exemplo o livro de R. C. Hilborn). Apesar da sim-
plicidade do modelo, as soluções do sistema (C.3) apresentaram uma riqueza
de comportamentos inesperada para Lorenz. O sistema (C.3) é assim conhe-
cido como sistema de Lorenz. Pode-se mostrar, como veremos adiante, que
para valores de b e p devidamente escolhidos, as soluções são caóticas para
valores de r suficientemente grandes.
Para melhor entender os diferentes tipo de soluções do sistema, considere-
mos inicialmente as soluções mais simples possı́veis, as soluções estacionárias,
i. e. soluções tais que ẋ = ẏ = ż = 0, denominadas pontos fixos do sistema.
No caso do sistema de Lorenz eles são dados por:

x = y = z = 0, (C.4)
188 Apêndice C. Caos: exemplos e caracterı́sticas principais

e
q
x = y = ± b(r − 1), z = r − 1. (C.5)

Este último só existe, evidentemente, quando r > 1. Esses pontos fixos
podem ser estáveis ou instáveis, se condições iniciais próximas geram soluções
que se aproximam ou se afastam deles, respectivamente. Para 0 < r < 1 o
ponto fixo na origem é estável. Para r > 1 esse mesmo ponto se torna instável
e surgem os dois novos pontos fixos (C.5), que são estáveis. Dizemos que para
r = 1 existe uma bifurcação pois as soluções do sistema mudam radicalmente.
Para melhor ilustrar essas soluções mostramos alguns gráficos para a mesma
condição inicial x(0) = 8, y(0) = 10 e z(0) = 15, para b = 8/3, p = 10 e
diferentes valores de r. Notamos que para r suficientemente grande (r = 120
por exemplo) o comportamento do sistema é completamente errático, sem
nenhum tipo de periodicidade. Para esses valores dos parâmetros, o sistema
de Lorenz é caótico.
Assim, segundo os valores dos diferentes parâmetros, o mesmo sistema
pode apresentar comportamentos totalmente diferentes. Tomemos o caso
em que r = 160. Vemos pelo gráfico na figura C.2 que, após um regime
transitório, temos soluções periódicas. Isso é explicado pela existência de
uma solução periódica, formada por uma órbita fechada no espaço de fase
do sistema (o espaço tridimensional formado pelas variáveis x, y, z). Tal
solução atrai as condições iniciais que se situam em sua vizinhança, e é assim
chamada de ciclo limite. Uma outra denominação que iremos utilizar daqui
por diante é a de atrator, que designa uma solução que atrai outras soluções
em alguma vizinhança dela. Se formos diminuindo o valor de r, veremos que
repentinamente, para um valor próximo de r = 150, o perı́odo da solução
periódica dobra, como pode ser visto na figura C.2. Outro dobramento ocorre
aproximadamente em r = 146. A medida que vamos diminuindo r mais
C.2. Um exemplo em meteorologia: o sistema de Lorenz 189

dobramentos de perı́odo vão ocorrendo, com intervalos entre duas bifurcações


cada vez menores. O perı́odo vai então aumentando até que ele se torna
infinito (para r ≈ 144), ou seja, a solução atratora se comporta como se
fosse completamente aleatória. Os atratores para r = 143 e para r = 120
estão nas figuras C.3 e C.4, e são exemplos do que se convencionou chamar
atratores estranhos. Este possuem uma estrutura geométrica fractal, termos
que definiremos melhor mais adiante. Falando mais livremente, um fractal é
um objeto geométrico de dimensão não-inteira.

300

250

200

z(t) 150

100

50

0 2 4 6 8 10 12
t

Figura C.1: Solução periódica para o sistema de Lorenz para r = 160.

Uma outra caraterı́stica importante do sistema de Lorenz, no regime caó-


tico, é a extrema sensibilidade a pequenas diferenças nas condições iniciais.
Na figura C.5 mostramos duas soluções que correspondem a condições ini-
ciais muito próximas. Inicialmente as duas soluções são indistinguı́veis, mas
rapidamente elas se tornam totalmente distintas. Pouco importa o quão
próximas sejam as duas condições iniciais, sempre teremos essa divergência
entre soluções (eventualmente será preciso esperar um tempo maior para
que as soluções se tornem distintas). Essa sensibilidade às condições iniciais
190 Apêndice C. Caos: exemplos e caracterı́sticas principais

250

200

z(t) 150

100

50

0 2 4 6 8 10 12
t

Figura C.2: Dobramento de perı́odo da solução periódica para r = 146.

é uma das assinaturas do caos. A seqüência de dobramentos de perı́odo,


levando para um comportamento caótico, é um dos possı́veis caminhos para
o caos. Outras possibilidades existem e são discutidas na literatura (vide por
exemplo [Hilborn,2000]).
Na próxima seção falaremos do mapa logı́stico, que também apresenta
um caminho para o caos composta por dobramentos de perı́odo.

C.3 Um exemplo em dinâmica populacional:


o mapa logı́stico

Consideremos a população de uma espécie animal a cada ano, que denotare-


mos por Nn , onde n = 0, 1, 2, . . . denota o ano. Em uma primeira apro-
ximação é razoável supor que a população em um dado ano é diretamente
proporcional à população no ano anterior. Temos assim que

Nn+1 = aNn , (C.6)


C.3. Um exemplo em dinâmica populacional: o mapa logı́stico 191

200

180

160

z(t) 140

120

100

80
40 60
40
20 20
0
0 20
40 y(t)
x(t) 20
60

Figura C.3: Atrator estranho para o sistema de Lorenz para r = 143.

onde a é uma constante determinada. É fácil percebermos que a eq. (C.6)


implica em um crescimento exponencial ilimitado da população em função
do ano n, o que não ocorre na natureza. Uma maneira simples de evitar esse
problema é introduzindo um termo adicional na equação que seja pequeno
para pequenas populações mas que tenda a diminuir o seu crescimento para
Nn maiores. A possibilidade mais simples é introduzir um termo quadrático:

b
Nn+1 = aNn − Nn2 , (C.7)
2

com b constante. Para pequenas populações o termo linear é dominante


e temos um crescimento exponencial. Para uma população maior o termo
quadrático se torna dominante e temos um decréscimo na população. Dessa
forma, a evolução de Ni ao longo dos anos é dominada pelo balanço entre esses
dois termos. Como veremos a seguir, essa simples regra apresenta uma gama
de comportamentos que não se poderia suspeitar à primeira vista. Antes de
prosseguirmos, vamos simplificar um pouco a expressão (C.7). A população
máxima possı́vel é tal que a população no ano seguinte é nula, e no nosso
caso dada por Nmax = a/b. Reescrevendo (C.7) em termos da proporção da
192 Apêndice C. Caos: exemplos e caracterı́sticas principais

180

160

140

z(t) 120

100

80

60

40 80
40 60
40
20 20
0
0 20
40 y(t)
x(t) 20 60
80

Figura C.4: Atrator estranho para o sistema de Lorenz para r = 120.

população pela população máxima xn ≡ Nn /Nmax obtemos

xn+1 = axn (1 − xn ). (C.8)

A equação (C.8) é justamente o mapa logı́stico apresentado mais acima.


Os pontos fixos de uma mapa são aqueles pontos tais que xi+1 = xi . No
caso do mapa logı́stico, os pontos fixos são x = 0 e x = 1 − 1/a. O ponto
fixo é estável se valores de x próximos tendem ao ponto fixo para n → ∞
e instável se valores vizinhos se afastam dele. Para a < 1 o ponto fixo em
x = 0 é estável enquanto que o outro ponto fixo é instável, e xn tende a
diminuir ano a ano (vide figura C.6). Para a > 1 a estabilidade dos dois
pontos fixo se inverte, e xn evolui assintoticamente (tempos longos) para
x = 1 − 1/a. O gráfico na figura C.7 mostra um exemplo de evolução para
1 < a < 3. A partir de a = 3, após um perı́odo transiente, xn se torna
periódico com perı́odo 2. Dizemos que ocorreu uma bifurcação no sistema
correspondendo a um dobramento de perı́odo (o ponto fixo tem perı́odo 1).
A figura C.8 mostra uma solução para esse caso. Continuando a aumentar
a observamos uma nova bifurcação em a ≈ 3, 45, quando xn (também após
C.3. Um exemplo em dinâmica populacional: o mapa logı́stico 193

20

x(t) 10

2 4 6 8 10
t
±10

±20

Figura C.5: Soluções do sistema de Lorenz com condições iniciais próximas.


0.5

0.4

0.3

0.2

0.1

0 2 4 6 8 10 12 14

Figura C.6: Mapa logı́stico para a < 1.

0.62

0.6

0.58

0.56

0.54

0.52

0.5
0 2 4 6 8 10 12 14

Figura C.7: Mapa logı́stico para 1 < a < 3.


194 Apêndice C. Caos: exemplos e caracterı́sticas principais

0.75

0.7

0.65

0.6

0.55

0.5
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30

Figura C.8: Solução com perı́odo 2.

0.8

0.7

0.6

0.5

0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30

Figura C.9: Solução com perı́odo 4.

um transiente) é atraı́do para um estado de perı́odo 4, como mostrado na


figura C.9. Aumentando a observam-se novos dobramentos de perı́odo, cada
vez mais próximos um do outro. Para a ≈ 3, 57, o perı́odo se torna infinito
e a evolução se torna totalmente errática, ou caótica.
Podemos traçar um diagrama mostrando essas diferentes bifurcações,
chamado de diagrama de bifurcações. Ele pode ser obtido por um programa
de computador dos mais simples da seguinte maneira: dada uma condição
inicial x0 qualquer (x0 = 0.5 por exemplo), iteramos o mapa (C.8) por um
número suficiente de vezes para garantir que já estamos na solução atratora
C.3. Um exemplo em dinâmica populacional: o mapa logı́stico 195

0.90

0.80

0.70

0.60
3.2 3.4 3.6 3.8

Figura C.10: Estrutura de bifurcações do mapa logı́stico. Na horizontal


temos os valores para o parâmetro a e na vertical os valores de xn que
compõem o atrator.

periódica (da ordem de algumas poucas centenas de iterações). Depois itera-


mos o mapa mais algumas vezes (também algumas centenas ou milhares de
vezes) para diferentes valores de a. o resultado está no gráfico da figura C.10.
Se olharmos algumas ampliações (figuras C.11 e C.12) vemos que o diagrama
possui uma estrutura auto-similar (partes menores dele são semelhantes ao
todo). Essa estrutura para o mapa logı́stico é um fractal auto-similar. Mais
ainda, para um dado valor de a no regime caótico, o atrator (não periódico)
é um fractal. Para valores de a no regime periódico o atrator é sempre com-
posto por um número finito de pontos e portanto tem dimensão zero. Neste
196 Apêndice C. Caos: exemplos e caracterı́sticas principais

0.95

0.90

0.85

0.80
3.50 3.60 3.70 3.80 3.90

Figura C.11: Ampliação do diagrama de bifurcações do mapa logı́stico.

caso o caos é resultado da existência desse atrator fractal. Todo atrator


fractal, seja no caso de um mapa ou de um sistema contı́nuo (como para o
sistema de Lorenz), é denominado de atrator estranho.

C.4 Sistemas dissipativos e conservativos

No estudo de sistema dinâmicos contı́nuos é importante poder distinguir


entre sistemas conservativos e dissipativos. Definimos o espaço de fase do
sistema como o espaço constituido por todas as variáveis utilizadas para des-
crevê-lo. Agora podemos considerar uma região qualquer nesse espaço de
fase e estudar a evolução temporal de todos os pontos nele. Caso o volume
dessa região permaneça constante ao longo do tempo, dizemos que o sistema
é conservativo. Se esse volume diminuir, o sistema é dito dissipativo. Um
C.5. Fractais 197

0.92 0.900

0.90 0.895

0.88 0.890

0.86 0.885

0.84 0.880
3.50 3.55 3.60 3.65 3.560 3.570 3.580

Figura C.12: Ampliações do diagrama de bifurcações do mapa logı́stico.

exemplo de sistema dissipativo é o sistema de Lorenz, pois os pontos de uma


região que contenha o atrator tenderão para este, que por sua vez tem vo-
lume zero. Sistemas mecânicos com forças que derivam de um potencial são
sistemas conservativos.

C.5 Fractais
Dissemos que os atratores para o sistema de Lorenz e para o mapa logı́stico
são fractais, entes geométricos de dimensão não-inteira. Para falarmos de
dimensões fracionários, de onde o nome fractal, precisamos de uma gene-
ralização da noção de dimensão, que dê a dimensão correta para objetos
de dimensão inteira, e que possa ser aplicada aos fractais. Diferentes pos-
sibilidades existem e vamos apresentar aqui uma das mais simples. A di-
mensão de capacidade é definida da seguinte maneira: tomemos um conjunto
de caixas de lado L (linhas, quadrados, cubos, etc. segundo a dimensão do
espaço) empilhadas de tal maneira que contenham totalmente o objeto cuja
dimensão queremos calcular. Tomemos então o número mı́nimo de tais caixas
198 Apêndice C. Caos: exemplos e caracterı́sticas principais

necessárias para conter o objeto, denotado por N (L). A dimensão D do ob-


jeto é então definida por

N (L) = lim CL−D , (C.9)


L→0

onde C é uma constante de proporcionalidade. É um exercı́cio direto verificar


que essa definição dá a dimensão correta para objetos simples como planos
(ou superfı́cies) e linhas retas (ou curvas). A constante C é nesse caso apenas
uma medida do tamanho do objeto. Tomando o logaritmo dos dois lados
dessa equação e notando que limL→0 log C/ log L = 0, obtemos
log N (L)
D = − lim . (C.10)
L→0 log L
A dimensão do atrator do mapa logı́stico para o valor de a para o qual ele se
torna caótico, também chamado de ponto de acumulação, pode ser calculada
numericamente utilizando a eq. (C.10), e resulta no valor D ≈ 0.5388.

C.6 Sistemas hamiltonianos


Como vimos acima, uma caracterı́stica central de soluções caóticas é sua sen-
sibilidade às condições iniciais. Quando a solução é regular, duas soluções
com condições iniciais próximas permanecem próximas por um tempo longo.
No entanto, como vimos no capı́tulo 8, quando o sistema deixa de ser in-
tegrável, isso não é mais necessariamente o caso. Para medirmos como duas
soluções arbitrariamente próximas divergem, vamos introduzir os expoentes
de Lyapunov.
Tomemos duas condições iniciais no espaço de fase ω (1) (0) e ω (2) (0) (usan-
do a notação simplética). A separação δω(t) entre as duas soluções satisfaz
a seguinte equação:
dδω µ X µν ∂ 2 H
=  ν ωρ
δω ρ , (C.11)
dt νρ ∂ω
C.6. Sistemas hamiltonianos 199

onde mantivemos apenas termos de primeira ordem em δω e µν é a matriz


simplética. Agora suponhamos que as duas soluções divirjam exponencial-
mente, i. e. |δω(t)| ∝ exp λt, para tempos suficientemente longos. Assim
definimos o expoente de Lyapunov por
1 |δω(t)|
λ = lim log . (C.12)
t→∞ t |δω(0)|
Evidentemente, se as soluções do sistema são restritas a uma região finita do
espaço de fase, o limite (C.12) será sempre nulo, e deve portanto ser inter-
pretado como valendo apenas para tempos suficientemente longos para que
a divergência se manifeste. O expoente de Lyapunov depende das condições
iniciais consideradas. Osedeleč demonstrou que o limite existe, é finito, e
pode assumir n valores possı́veis λ1 , . . . , λn , onde n é a dimensão do espaço
de fase F do sistema. Este último é decomposto em subespaços Fi , F =
F1 ⊕ F2 ⊕ . . . ⊕ Fn , e um vetor δω escolhido em Fi terá como expoente de
Lyapunov λi .1 O conjunto dos expoentes de Lyapunov é chamado de espectro
de Lyapunov do sistema. A definição dos expoentes de Lyapunov pode ser
utilizada em qualquer sistema de equações diferenciais ordinárias. Para um
sistema hamiltoniano, a conservação do volume no espaço de fase implica que
se temos dilatação em uma direção (expoente positivo), teremos necessaria-
mente uma contração em alguma outra direção (expoente negativo). Dessa
forma, temos que
n
X
λi = 0. (C.13)
i=1

Dizemos que uma solução é caótica se o seu maior expoente de Lyapunov


é positivo, e se as soluções do sistema forem limitadas a uma região finita
de F. Um sistema é caótico se suas soluções forem caóticas (ou “quase”
1
Na verdade, esse teorema de Osedeleč vale se existir uma medida ergódica e in-
variante para o sistema, e a menos de uma conjunto de condições iniciais de medida
nula [Oseledeč,1969].
200 Apêndice C. Caos: exemplos e caracterı́sticas principais

todas). Se apenas algumas soluções forem caóticas diremos que o sistema é


parcialmente caótico. Vale a pena observar que essa nomenclatura pode ter
pequenas alterações segundo o autor.
Referências bibliográficas

[Almeida,1991] A. M. Ozorio de Almeida, Sistemas Hamiltonianos, Caos e


Quantização, Editora da UNICAMP (Campinas, 1990).

[Birkhoff,1927] G. D. Birkhoff, A. M. S. colloquium publications, Vol. IX,


Dynamical systems, A. M. S. (New York, 1927).

[Dirac,1964] P. A. M. Dirac, Lectures on Quantum Mechanics, Belfer Grad-


uate School of Science, Yeshiva University, (New York, 1964).

[Einstein,1952] A. Einstein, H. A. Lorentz, H. Weyl e H. Minkowski,The


Principle of Relativity, Dover (New York, 1952).

[Flaschka,1991] H. Flaschka, A. C. Newll e M. Tabor, Integrability, em


“What is integrability”, V. E. Zakharov (Ed.), Springer Verlag (Berlin,
1991).

[Goldstein,2002] H. Goldstein, C. P. Poole e J. L. Safko, Classical Mechanics,


3a. Ed., Prentice Hall (New York, 2002).

[Goriely,2001] A. Goriely Integrability and Nonintegrability of Dynamical


Systems, World Scientific (Singapore, 2001).

[Gustavson,1966] F. G. Gustavson, On contructing formal integrals of a


hamiltonian system near an equilibrium point, Astron. J. 71 (1966) 670.

201
202 Referências bibliográficas

[Hanson,1976] A. Hanson, T. Regge e C. Teitelboim, Constrained Hamilton-


ina Systems, Accademia Nazionale dei Lincei (Roma, 1976).

[Helleman,1980] R. H. G. Helleman, Self-Generated Chaotic Behavior in


Nonlinear Mechanics, em “Fundamental Problems in Statistical Me-
chanics”, Vol. 5, pgs. 165-233 (E. G. D. Cohen, ed.) Noth-Holland (Am-
sterdam, 1980).

[Hilborn,2000] R. C. Hilborn, Chaos in Nonlinear Dynamics, 2a Ed., Oxford


University Press (Oxford, 2000).

[Hill,1951] E. L. Hill, Hamilton’s Principle and the Conservation Theorems


of Mathematical Physics, Rev. Mod. Phys. 23 (1951) 253.

[Landau,1966a] L. Landau e E. Lifchitz, Mécanique, Mir (Moscou, 1966).

[Landau,1966b] L. Landau e E. Lifchitz, Theorie du Champ, Mir (Moscou,


1966).

[MacKay,1987] R. S. Mac Kay e J. D. Meiss, Hamiltonian Dynamical Sys-


tems, a reprint selection, Adam Hilger (Bristol, 1987).

[Monagan,2001] M. B. Monagan, K. O. Geddes, K. M. Heal, G. Labahn,


S. M. Vorkoetter, J. McCarron e P. DeMarco, Maple 7 Programming
Guide, Waterloo Maple (Waterloo, 2001).

[Oseledeč,1969] V. I. Osedeleč, Trans. Moscow Math. Soc. 19 (1969) 617.

[Ott,1993] E. Ott, Dynamical Systems, Cambridge University Press (Cam-


bridge, 1993).

[Sarlet,1981] W. Sarlet e F. Cantrijn, Generalization of Noether’s Theorem


in Classical Mechanics, SIAM Rev. 23 (1981) 467.
Referências bibliográficas 203

[Schutz,1980] B. Schutz, Geometrical methods of mathematical physics, Cam-


bridge University Press (Cambridge, 1980).

[Sudarshan,1983] E. C. G. Sudarshan, Classical Dynamics: a Modern Per-


spective, Wiley (New York, 1983).
204 Referências bibliográficas
Índice remissivo

álgebra de Lie, 63, 178 contravariantes, 171


órbita heteroclı́nica, 156 covariantes, 171
órbita homoclı́nica, 156 de um vetor, 168
condição de calibre, 115
ação, 7
congruência, 183
atlas, 177
constante de movimento, 47, 51, 65
atrator estranho, vide atrator frac-
de uma partı́cula irradiando, 71
tal
do oscilador harmônico, 54
atrator fractal, 196
teorema de Jacobi, 102

bifurcação, 188 constantes de estrutura, 181

no mapa logı́stico, 192 coordenada


cı́clica, 77, 79
cadeias de ilhas, 160 generalizada, 3
caminho para o caos, 190 coordenadas
campo ângulo-ação, vide variáveis ângulo-
de Klein-Gordon, 45, 87 ação
eletromagnético, 41, 54 parabólicas, 127
local, 38, 85 corpo rı́gido, 19
caos, 155–165, 185–200 covariante, 27
caos, caminho para o, 161
carta, 177 densidade
componentes hamiltoniana, 85

205
206 ÍNDICE REMISSIVO

para o campo de Klein-Gordon, de Hamilton, 75


87, 88 para campos na forma covari-
lagrangeana, 38 ante, 86
equivalente, 40 para campos na forma não-
para a equação de Dirac, 119 covariante, 85
derivada de Maxwell, 41
de Lie, 64, 184 de Routh, 78
funcional, 37 equações de Euler-Lagrange, 6
de Fechet, vide derivada, fun- para campos, 37
cional equações de movimento
derivada exterior, 172 forma covariante, 29
diagrama de bifurcações do mapa ergodicidade, vide movimento ergódico
logı́stico, 194 espaço
dimensão de fase, 74, 90
de capacidade, 197 de Minkowski, vide Minkowski
fractal, 197 dual, 169
dobramento de perı́odo, 192 métrico, 168
topológico, 176
emaranhado heteroclı́nico, 157, 160
espinor, 119
energia cinética
estabilidade de um ponto fixo, 153
forma relativı́stica, 28
excentricidade, 16
equação
expoente de Lyapunov, 199
de Dirac, 119
de Hamilton-Jacobi, 122–129 força
de Langevin, 66, 71 generalizada, 5
de Liouville, 104 forma linear, 169
de Schrödinger, 44, 56 forma normal, de Gustavson146,
equações 144–148
ÍNDICE REMISSIVO 207

formalismo separável, 136


de Dirac, 106 hessiana, vide matriz hessiana
de Hamilton-Jacobi, 121 heteroclı́nica, vide órbita heteroclı́nica
simplético, 89 homoclı́nica, vide órbita homoclı́nica
formas diferenciais, 172
identidade de Jacobi, 104, 183
fractal, 189, 196, 197
para o parêntesis de Dirac, 110
função
igualdade fraca, 107
caracterı́stica de Hamilton, 125
integrável, 130, 139
de Hamilton, 75
por quadraturas, 130
de Routh, 79
interseção
geradora de uma transformação
heteroclı́nica, 156
canônica, 91, 122
homoclı́nica, 156
funcional, 36
invariante, vide constante de movi-
contı́nuo, 37
mento
diferenciável, 37
involução, 131
linear, 37

gerador Kepler, problema de, 13, 79


de simetria, 63, 64
lagrangeana, 6
de um grupo de Lie, 179
degenerada, 43, 105
de uma transformação canônica,
efetiva, 79
100
equivalente, 9
graus de liberdade, 3
relativı́stica, 29
grupo, 175
lei de conservação, 51
de Lie, 63, 177
da energia do campo eletromag-
de simetria, 63
nético, 56
topológico, 176
da energia para a equação de
hamiltoniana, 75 Schrödinger, 57
208 ÍNDICE REMISSIVO

do momento linear do campo generalizado, 73


eletromagnético, 56 movimento ergódico, 135
linearização multiplicadores de Lagrange, 11, 106
de uma mapa em torno de um
Newton, leis de, 1
ponto fixo, 153
notação simplética, 96
métrica, 167
oscilador harmônico, 51, 58, 123,
mapa
135, 142
de Poincaré, 149–152
logı́stico, 186, 190 parâmetro de órbita, 16
padrão de Chirikov, 157–165 parêntesis
mar caótico, 157, 160 de Dirac, 110
matriz para o campo eletromagnéti-
de transformação de Lorentz, co, 116–118
26 de Dirac um campo, 115
hessiana, 76, 111 de Poisson, 77
simplética, 97 de Poisson generalizado, 110
matrizes de Dirac, 119 pequenos denominadores, 141
Minkowski perturbação, 140
espaço de, 26 ponto fixo, 144
força de, 29 de um mapa, 153
espaço de , 168 hiperbólico, 154
momento elı́ptico, 154
conjugado, 73 potencial generalizado, 6
para um campo na formulação princı́pio
covariante, 86 da relatividade de Galileu, 2
para um campo na formulação de D’Alembert, 3
não-covariante, 84 de Hamilton, 7
ÍNDICE REMISSIVO 209

de mı́nima ação, 7, 86 de inércia, 21


na forma covariante, 39 definição de , 171
para campos, 38 energia-momento, 55
de Maupertuis, 82 métrico, 172
modificado de Hamilton, 80, 85 teorema
produto de Frobenius, 184
escalar, 171 de Kolmogorov-Arnold-Moser,
exterior, 172 148–149
tensorial, 172 de Liouville, 103
quadratura, 130 de Liouville sobre sistemas in-
quasi-ressonância, 141 tegráveis, 131
de Nöther, 47
ressonância, 141
de Poincaré-Birkhoff, 152–155,
seção de Poincaré, 150 161
sensibilidade nas condições iniciais, teorema de Stokes, 173
189 teoria de perturbações, 139–148
separação de variáveis, 123–126 topologia, 176
simetria toro invariante, 132, 139, 148, 151
de Lie, 58 transformação
de Nöether, 50 canônica, 90–94, 121, 130
de uma partı́cula irradiando, 69 condição para, 97
sistema
condições para, 95, 97
de Lorenz, 187
de evolução temporal, 101
dinâmico, 185
infinitesimal, 98
dissipativo, 196
das componentes de um tensor,
tempo de Nekhorochev, 148 172
tensor das componentes de um vetor,
210 ÍNDICE REMISSIVO

169
das componentes de uma forma
linear, 171
de calibre, 43, 115
para o campo eletromagnéti-
co, 118
de escala, 10
de Legendre, 75, 105
de simetria, 48, 62, 102
transformações de Lorentz, 25

vı́nculo, 3
de primeira classe, 108
de segunda classe, 108
em lagrangeanas degeneradas,
106
não-holonômico, 10
primário, 106
secundário, 108
variáveis ângulo-ação, 132–137
variedade, 177
diferenciável, 177
estável, 155
instável, 155

Você também pode gostar